مقالات

كتاب: تحليل المصفوفة (كوكس)


التوازنات وحل مسائل المربعات الصغرى الخطية والخطية. الأنظمة الديناميكية ومشكلة القيمة الذاتية مع نموذج الأردن وتحويل لابلاس عبر التكامل المعقد.


نموذج الانحدار الطبقي للمخاطر النسبية كوكس

يستخدم نموذج كوكس للمخاطر النسبية لدراسة تأثير العوامل المختلفة على المخاطر اللحظية التي يتعرض لها الأفراد أو "الأشياء".

يضع نموذج كوكس الافتراضات التالية حول مجموعة البيانات الخاصة بك:

  1. يواجه جميع الأفراد أو الأشياء في مجموعة البيانات نفس معدل الخطر الأساسي.
  2. متغيرات الانحدار X لا تتغير مع الوقت.
  3. معاملات الانحدار β لا تتغير مع الوقت.

بعد تدريب النموذج على مجموعة البيانات ، يجب عليك اختبار هذه الافتراضات والتحقق منها باستخدام النموذج المدرب قبل قبول نتيجة النموذج. إذا تم انتهاك هذه الافتراضات ، فلا يزال بإمكانك استخدام نموذج Cox بعد تعديله بواحد أو أكثر من الطرق التالية:

  1. التقسيم الطبقي: قد يكون معدل الخطر الأساسي ثابتًا فقط ضمن نطاقات معينة أو لقيم معينة لمتغيرات الانحدار. على سبيل المثال إذا افترضنا أن معدل الخطر الأساسي للإصابة بمرض ما هو نفسه بالنسبة للأشخاص الذين تتراوح أعمارهم بين 15 و 25 عامًا ، وللأعمار من 26 إلى 55 عامًا ولأولئك الذين تزيد أعمارهم عن 55 عامًا ، فإننا نقسم متغير العمر إلى طبقات مختلفة على النحو التالي: " 15-25 "و" 26 –55 "و" & gt55 ". وبالمثل ، فإن المتغيرات الفئوية مثل الدولة تشكل مرشحين طبيعيين للتقسيم الطبقي. قد نفترض أن الخطر الأساسي المتمثل في وفاة شخص ما في حادث مروري في ألمانيا يختلف عن الأشخاص في الولايات المتحدة. بمجرد تقسيم البيانات إلى طبقات ، نلائم نموذج المخاطر النسبية لكوكس داخل كل طبقة. يمكن للمرء أيضًا تقسيم مجموعة البيانات إلى مجموعات من الطبقات مثل [Age-Range ، Country]. يتمثل عيب هذا النهج في أنه ما لم تكن مجموعة البيانات الأصلية كبيرة جدًا ومتوازنة جيدًا عبر الطبقات المختارة ، فإن عدد نقاط البيانات المتاحة للنموذج داخل كل طبقة يقل بشكل كبير مع تضمين كل متغير في التقسيم الطبقي. إذا لم يكن هناك عدد كافٍ من نقاط البيانات المتاحة للنموذج للتدرب عليها داخل كل مجموعة من الطبقات ، فإن القوة الإحصائية للنموذج الطبقي ستكون أقل.
  2. تغيير الشكل الوظيفي لمتغيرات الانحدار: المفهوم هنا بسيط. خذ على سبيل المثال العمر كمتغير الانحدار. يفترض نموذج كوكس الخاص بك أن سجل نسبة الخطر بين شخصين يتناسب مع العمر. ولكن في الواقع ، قد يكون السجل (نسبة الخطر) متناسبًا مع العمر² والعمر وما إلى ذلك بالإضافة إلى العمر. في هذه الحالة ، قد تؤدي إضافة مصطلح Age² إلى "إصلاح" نموذجك. لاحظ أن نموذجك لا يزال خطيًا في معامل العمر. طالما أن نموذج كوكس خطي في معاملات الانحدار ، فإننا لا نكسر الافتراض الخطي لنموذج كوكس عن طريق تغيير الشكل الوظيفي للمتغيرات.
  3. إضافة شروط التفاعل الزمني: هنا ، المفهوم ليس بهذه البساطة! لن نخوض في هذا العلاج أكثر من ذلك.

سنرى كيفية إصلاح عدم التناسب باستخدام التقسيم الطبقي.

مجموعة البيانات

مجموعة البيانات التي سنستخدمها لتوضيح إجراء بناء نموذج كوكس الطبقي للمخاطر النسبية هي بيانات تجربة سرطان الرئة لإدارة المحاربين القدامى في الولايات المتحدة. يحتوي على بيانات حول 137 مريضًا مصابًا بسرطان الرئة المتقدم وغير القابل للجراحة والذين تم علاجهم وفقًا لنظام العلاج الكيميائي القياسي والتجريبي. تم تتبع تقدمهم أثناء الدراسة حتى توفي المريض أو خرج من التجربة وهو لا يزال على قيد الحياة ، أو حتى انتهاء التجربة. في الحالتين اللاحقتين ، تعتبر البيانات خاضعة للرقابة الصحيحة.

تظهر مجموعة البيانات هذه في كتاب: التحليل الإحصائي لبيانات وقت الفشل ، الإصدار الثاني ، بقلم جون د.

باستخدام Python و Pandas ، فلنقم بتحميل مجموعة البيانات في DataFrame:

هنا هو الناتج الذي نراه:

الصفوف القليلة الأولى من مجموعة بيانات سرطان الرئة VA (الصورة من قبل المؤلف)

متغيرات الانحدار لدينا ، وهي X المصفوفة ، ستكون على النحو التالي:

  • TREATMENT_TYPE: 1 = قياسي. 2 = تجريبي
  • نوع من الخلايا: 1 = حرشفية ، 2 = خلية صغيرة ، 3 = غدية ، 4 = كبيرة
  • KARNOFSKY_SCORE: مقياس الأداء العام للمريض. 100 = الأفضل
  • MONTHS_FROM_DIAGNOSIS: عدد الأشهر بعد تشخيص إصابته بسرطان الرئة أن المريض دخل في التجربة.
  • عمر: عمر المريض بالسنوات عندما تم إدخاله في التجربة.
  • قبل: ما إذا كان المريض قد تلقى أي نوع من العلاج المسبق لسرطان الرئة قبل بدء التجربة.

المتغير التابع لدينا ذ سوف يكون:
SURVIVAL_IN_DAYS: تشير إلى عدد الأيام التي عاشها المريض بعد إدخاله في المسار.

متغير الحدث هو:
الحالة: 1 = ميت. 0 = حي

باستخدام باتسي ، دعونا نفصل المتغير الفئوي نوع من الخلايا في متغيرات العمود الحكيم فئة مختلفة. لا تقلق بشأن حقيقة ذلك SURVIVAL_IN_DAYS يوجد على جانبي تعبير النموذج على الرغم من أنه & # 8217s المتغير التابع. إنه فقط لإسعاد باتسي.

الصفوف القليلة الأولى من مصفوفة الانحدار (صورة للمؤلف)

تدريب نموذج المخاطر النسبية كوكس

بعد ذلك ، فلنقم ببناء نموذج المخاطر النسبية (غير الطبقي) وتدريبه على هذه البيانات باستخدام شريان الحياة مكتبة تحليل البقاء:

نرى ملخص النموذج التالي:

ملخص تدريب نموذج كوكس (الصورة من قبل المؤلف)

إجراء اختبار الخطر النسبي

لاختبار افتراضات المخاطر النسبية على النموذج المدرب ، سوف نستخدم Proportional_hazard_test الطريقة التي قدمتها Lifelines على CPHFitter صف دراسي:

دعونا نلقي نظرة على كل معلمة من هذه الطريقة:

نموذج_الصناديق المجهزة : تشير هذه المعلمة إلى نموذج Cox المناسب. في مثالنا ، نموذج_الصناديق المجهزة= cph_model

training_df : هذه إشارة إلى مجموعة بيانات التدريب. في مثالنا ، training_df= س

الوقت_التحويل : يأخذ هذا المتغير قائمة السلاسل: <"all" ، "km" ، "رتبة" ، "هوية" ، "log">. تشير كل سلسلة إلى الوظيفة التي سيتم تطبيقها على ملف ذ (المدة) متغير نموذج كوكس لتقليل حساسية الاختبار للقيم المتطرفة في البيانات ، أي قيم المدة القصوى. تذكر أنه في مجموعة بيانات VA ، يكون ملف ذالمتغير SURVIVAL_IN_DAYS. "km" يطبق التحول: (1-KaplanMeirFitter.fit (المدد ، event_observed). سيعمل تحويل "الترتيب" على تعيين قائمة المدد المصنفة إلى مجموعة الأعداد الطبيعية المرتبة [1 ، 2 ، 3 ، ...]. "الهوية" ستحافظ على المدد كما هي وسيقوم "السجل" بتسجيل تحويل قيم المدة.

بقيود مسبقة الحصر : تحصل على نوع الأخطاء المتبقية من اختيارك من الأنواع التالية: Schoenfeld ، و Score ، و delta_beta ، و deviance ، و martingale ، و variance المدرج في Schoenfeld.

دعونا نحسب التباين الذي تم تحجيمه بقايا شوينفيلد لنموذج كوكس الذي دربناه سابقًا. سنتعرف على بقايا Shoenfeld بالتفصيل في القسم التالي حول تقييم النموذج وجودة الملاءمة ولكن إذا كنت تريد الانتقال إلى هذا القسم الآن ومعرفة كل شيء عنها. في الوقت الحالي ، دعونا & # 8217s نحسب أخطاء Schoenfeld المتبقية لنموذج الانحدار:

الآن دعونا نجري اختبار المخاطر النسبية:

نحصل على الناتج التالي:

ناتج proportional_hazard_test (صورة للمؤلف)

تخضع إحصائية الاختبار لتوزيع Chi-square (1) وفقًا لفرضية Null بأن المتغير يتبع اختبار المخاطر النسبية. تحت فرضية Null ، القيمة المتوقعة لإحصاء الاختبار هي صفر. يمكن الحكم على أي انحرافات عن الصفر على أنها ذات دلالة إحصائية عند مستوى أهمية معين مثل 0.01 و 0.05 وما إلى ذلك.

كيف يتم إنشاء إحصاء الاختبار هذا هو في حد ذاته موضوع رائع للدراسة. بالنسبة للقارئ المهتم ، توفر الورقة التالية نقطة انطلاق جيدة:
بارك ، سونهي وهندري ، ديفيد ج. (2015) إعادة تقييم اختبارات شونفيلد المتبقية للمخاطر النسبية في السياسة ...eprints.lse.ac.uk

بالعودة إلى مشكلتنا الصغيرة ، فقد سلطت الضوء باللون الأحمر على المتغيرات التي فشلت في اختبار Chi-square (1) عند مستوى أهمية 0.05 (مستوى ثقة 95٪).

ناتج proportional_hazard_test (صورة للمؤلف)

سنحاول حل هذه المشكلات عن طريق التقسيم الطبقي إلى AGE و CELL_TYPE [T.4] و KARNOFSKY_SCORE.

التصنيف الطبقي AGE و CELL_TYPE [T.4] و KARNOFSKY_SCORE

سنقوم بترتيب AGE و KARNOFSKY_SCORE بتقسيمهما إلى 4 طبقات على أساس 25٪ و 50٪ و 75٪ و 99٪ أرباع. CELL_TYPE [T.4] هو مؤشر فئوي (1/0) متغير ، لذلك فهو مقسم بالفعل إلى طبقتين: 1 و 0.

لتقسيم AGE و KARNOFSKY_SCORE إلى طبقات ، سنستخدم طريقة Pandas qcut(س ، ف). سنقوم بتعيين x على كائن سلسلة Pandas df ["AGE"] و df ["KARNOFSKY_SCORE"] على التوالي. q هي قائمة النقاط الكمية على النحو التالي:

ناتج qcut(س ، ف) هو أيضًا كائن من سلسلة Pandas. سنقوم بإضافة أعمدة age_strata و karnofsky_strata مرة أخرى إلى X مصفوفة. تذكر أننا قد قطعنا على أنفسنا X باستخدام باتسي:

دعونا نلقي نظرة على كيف يبدو العمر الطبقي و KARNOFSKY_SCORE عند عرضهما جنبًا إلى جنب مع AGE و KARNOFSKY_SCORE على التوالي:

هذا هو AGE و AGE_STRATA:

العمر والعمر الطبقي (صورة المؤلف)

وهنا KARNOFSKY_SCORE طبقي:

KARNOFSKY_SCORE ونسختها الطبقية (صورة المؤلف)

بعد ذلك ، دعنا نضيف سلسلة AGE_STRATA وسلسلة KARNOFSKY_SCORE_STRATA إلى X مصفوفة:

سنقوم بإسقاط AGE و KARNOFSKY_SCORE نظرًا لأن نموذج Cox الطبقي لن يستخدم متغيري AGE و KARNOFSKY_SCORE غير الطبقي:

دعونا نراجع الأعمدة في التحديث X مصفوفة:

فلنقم الآن بإنشاء مثيل لـ طبقية نموذج الخطر النسبي Cox بتمريره AGE_STRATA و KARNOFSKY_SCORE_STRATA و CELL_TYPE [T.4]:

دعونا نلائم النموذج X. هذه المرة ، سيتم تركيب النموذج داخل كل طبقة في القائمة: ["CELL_TYPE [T.4]" ، "KARNOFSKY_SCORE_STRATA" ، "AGE_STRATA"].

دعونا نختبر افتراض المخاطر النسبية مرة أخرى على نموذج المخاطر النسبية الطبقية كوكس:

نحصل على الناتج التالي:

ناتج Proportional_hazard_test على نموذج Cox الطبقي (صورة للمؤلف)

دعنا نلاحظ شيئين حول هذا الناتج:

  1. إحصاء الاختبار وقيم p: كما ذكرنا سابقًا ، فإن إحصاء الاختبار هو مربع كاي (1) موزع تحت فرضية Null H0 أن المتغير يحترم افتراض المخاطر النسبية. تحت H0، القيمة المتوقعة لإحصاء الاختبار هي صفر. يمكن الحكم على أي انحرافات عن الصفر على أنها ذات دلالة إحصائية عند بعض القيمة الاحتمالية المقبولة. يمكننا أن نرى أن جميع قيم p أعلى من 0.2 بشكل مريح. لذلك لا تعتبر أي من الانحرافات عن الصفر ذات دلالة إحصائية عند مستوى ثقة ≥ 80٪. لذلك نحن نرفض بشدة الفرضية البديلة ونقبل H0 أن جميع المتغيرات تخضع لافتراض المخاطر النسبية.
  2. غياب CELL_TYPE [T.4]، AGE، KARNOFSKY_SCORE: نظرًا لأننا نقوم بالتقسيم الطبقي على هذه المتغيرات الثلاثة ، فإنها لم تعد جزءًا من متغيرات الانحدار للنموذج.

لقد نجحنا في بناء نموذج كوكس للمخاطر النسبية على بيانات سرطان الرئة VA بطريقة تلبي متغيرات الانحدار للنموذج (وبالتالي النموذج ككل) افتراضات المخاطر النسبية.

كيفية تفسير ناتج نموذج المخاطر النسبية لكوكس

دعونا نطبع ملخص التدريب النموذجي:

ملخص التدريب لنموذج المخاطر النسبية الطبقية كوكس (الصورة من قبل المؤلف)

نرى أن النموذج قد أخذ في الاعتبار المتغيرات التالية للتقسيم الطبقي:

متغيرات طبقات نموذج كوكس الطبقي

الاحتمال الجزئي لسجل النموذج هو -137.76. سيكون هذا الرقم مفيدًا إذا أردنا مقارنة ملاءمة النموذج مع إصدار آخر من نفس النموذج ، مقسمًا بالطريقة نفسها ، ولكن مع عدد أقل أو أكبر من المتغيرات. سيكون للنموذج الذي يحتوي على Partial Log-LL الأكبر ملاءمة أفضل.

نموذج كوكس الطبقي Partial Log-LL

بعد ذلك ، دعونا نلقي نظرة على المعاملات:

معاملات نموذج كوكس الطبقي

يتم عرض كل من المعامل والأس في المخرجات.

CELL_TYPE [T.2] هو مؤشر متغير (1 أو 0) ويمثل ما إذا كانت الخلايا السرطانية للمريض من النوع "خلية صغيرة". يتم تفسير المعامل 0.92 على النحو التالي:

المخاطر النسبية للمرضى الذين يعانون من أورام ليست من نوع الخلايا الصغيرة (الصورة من قبل المؤلف)

إذا كان الورم من النوع "خلية صغيرة" ، فإن الخطر الفوري للموت في أي وقت يزيد بمقدار (2.51-1) * 100 = 151٪.

TREATMENT_TYPE هو متغير مؤشر آخر بقيم 1 = معالجة قياسية و 2 = معالجة تجريبية. نفسر معامل TREATMENT_TYPE على النحو التالي:

المخاطر النسبية للمرضى الذين تلقوا العلاج التجريبي مقابل العلاج القياسي (الصورة من قبل المؤلف)

عانى المرضى الذين تلقوا العلاج التجريبي (1.34-1) * 100 = 34٪ زيادة في الخطر اللحظي للوفاة مقارنةً بالعلاج القياسي.

يمكننا تفسير تأثير المعاملات الأخرى بطريقة مماثلة.

دعنا الآن نلقي نظرة على قيم p وفواصل الثقة لمتغيرات الانحدار المختلفة.

قيم p لمتغيرات الانحدار (صورة للمؤلف)

تخبرنا القيم p أن CELL_TYPE [T.2] و CELL_TYPE [T.3] مهمان للغاية. قيمتها الاحتمالية أقل من 0.005 ، مما يعني دلالة إحصائية عند (100-0.005) = 99.995٪ أو مستوى ثقة أعلى. وبالمثل ، فإن PRIOR_THERAPY ذات دلالة إحصائية عند مستوى ثقة 95٪. القيمتان p لـ TREATMENT_TYPE و MONTH_FROM_DIAGNOSIS هي & gt 0.25. لذلك لا يمكننا القول أن المعاملات تختلف إحصائيًا عن الصفر حتى عند (1–0.25) * 100 = 75٪ مستوى ثقة. لذلك ، يجب ألا نقرأ كثيرًا في تأثير TREATMENT_TYPE و MONTHS_FROM_DIAGNOSIS على معدل الخطر النسبي. يتم إثبات هذا الاستنتاج أيضًا عندما تنظر إلى حجم أخطائهم القياسية كنسبة من قيمة المعامل ، وفترات الثقة الواسعة المقابلة لـ TREATMENT_TYPE و MONTH_FROM_DIAGNOSIS.

فترات الخطأ والثقة القياسية (صورة من المؤلف)

ملخص

  • يستخدم نموذج كوكس للمخاطر النسبية لدراسة تأثير العوامل المختلفة على المخاطر اللحظية التي يتعرض لها الأفراد أو "الأشياء".
  • يفترض نموذج كوكس أن جميع المشاركين في الدراسة يواجهون نفس معدل الخطر الأساسي ، وأن متغيرات الانحدار ومعاملاتها لا تتغير بمرور الوقت.
  • إذا فشل نموذجك في هذه الافتراضات ، فيمكنك "إصلاح" الموقف باستخدام واحد أو أكثر من الأساليب التالية على متغيرات الانحدار التي فشلت في اختبار المخاطر النسبية: 1) التقسيم الطبقي لمتغيرات الانحدار ، 2) تغيير الشكل الوظيفي لمتغيرات الانحدار متغيرات الانحدار و 3) إضافة شروط تفاعل الوقت إلى متغيرات الانحدار.

المراجع والاقتباسات وحقوق التأليف والنشر

مجموعة البيانات

مجموعة بيانات سرطان الرئة VA مأخوذة من المصدر التالي:
http://www.stat.rice.edu/

روابط الورق والكتب:

كوكس ، دي آر "نماذج الانحدار وجداول الحياة". مجلة الجمعية الإحصائية الملكية. السلسلة ب (المنهجية) 34 ، لا. 2 (1972): 187-220. تم الوصول إليه في 20 نوفمبر 2020. http://www.jstor.org/stable/2985181.

بارك ، سونهي وهندري ، ديفيد ج. (2015) "إعادة تقييم اختبارات شوينفيلد المتبقية للمخاطر النسبية في تحليلات تاريخ أحداث العلوم السياسية". المجلة الأمريكية للعلوم السياسية، 59 (4). 1072-1087. ISSN 0092–5853. http://eprints.lse.ac.uk/84988/

غرامش وباتريشيا إم وتيري إم تيرنو. "اختبارات المخاطر النسبية والتشخيص على أساس المخلفات المرجحة." بيوميتريكا، المجلد. 81 ، لا. 3 ، 1994 ، ص.515-526. JSTOR، www.jstor.org/stable/2337123. تم الوصول إليه في 5 ديسمبر 2020.

تيرنو ، تيري م ، وباتريشيا م.غرامش. "نمذجة بيانات البقاء: تمديد نموذج كوكس". 2000. نيويورك: سبرينغر

التحليل الإحصائي لبيانات وقت الفشل ، الإصدار الثاني ، بقلم جون دي كالبفليش وروس إل برنتيس.

ماكولا ب. ، نيلدر جون أ. ، النماذج الخطية المعممة ، الطبعة الثانية ، اضغط CRC، 1989 ، ISBN 0412317605 ، 9780412317606

الصور

جميع الصور محمية بحقوق نشر Sachin Date بموجب CC-BY-NC-SA ، ما لم يتم ذكر مصدر مختلف وحقوق النشر أسفل الصورة.

أكتب عن موضوعات في علم البيانات ، مع التركيز بشكل خاص على تحليل السلاسل الزمنية والانحدار والتنبؤ.

إذا أعجبك هذا المحتوى ، يرجى الاشتراك لتلقي محتوى جديد في بريدك الإلكتروني:


Andrew Cox & # 039s & quotSourcing Portfolio Analysis & quot: المزيد من نفس الشيء

في مقابل العديد من المقالات والكتب الجديدة التي يتم إنتاجها حول الوجه المتغير للمشتريات وأهمية خلق القيمة والتعاون ، صدر كتاب أندرو كوكس الجديد "Sourcing Portfolio Analysis" في وقت سابق من هذا العام. الكتاب عبارة عن سلسلة من المصفوفات الإرشادية 2 × 2 و 8 × 8 التي تنشئ أنماطًا مختلفة لتجزئة الموردين ، والتي يمكن أن تؤدي ظاهريًا إلى تحسين نتائج التوريد. يعتمد هذا العمل على الكثير من مفاهيم المواقف الإستراتيجية السابقة التي قدمها تحليل القوى الخمس لمايكل بورتر في كتابه الإستراتيجية التنافسية (1980) ، بالإضافة إلى "مصفوفة التجزئة" لبيتر كرالجيك المنشور في Harvard Business Review (1983) ، وكذلك الأستاذ مقالات وأوراق العمل وفصول الكتب الخاصة بكوكس (التي تستهلك 3 صفحات من قسم المراجع في الكتاب). لسوء الحظ ، فإن المرجع الأكثر حداثة بصرف النظر عن مراجعه التي تم الاستشهاد بها يعود إلى عام 2008 ، ومن الواضح أن هناك فجوة كبيرة في استخدام كوكس لنماذج بحثية أكثر حداثة تتعلق بالتعاقد والتفاوض العلائقي. في الواقع ، فإن العنوان الفرعي للكتاب "أدوات تحديد المواقع القوية لإدارة الفئات وتحديد المصادر الاستراتيجية" يعطيها كلها. يدور هذا الكتاب بشكل أساسي حول كيفية اكتساب المزيد من السلطة على الموردين في التفاوض على العقود. أخذ كوكس أدوات بورتر وكرلجيك ووضعها على المنشطات. يقضي المؤلف الكتاب بأكمله في التركيز على بناء مصفوفات تجزئة أكثر تفصيلاً ضمن مصفوفات التجزئة لتحديد أنواع مختلفة من بيئات المصادر. ينتج عن هذا عدة مصطلحات جديدة يمكنه محاولة تقسيمها إلى أنماط العلاقة. ينتج عن هذا مجموعة متنوعة من الأنماط المختلفة التي ليست مربكة تمامًا فحسب ، بل إنها بلا معنى حقًا! خذ على سبيل المثال هذا:

تبادلي - تطوير الموردين + مصادر سلسلة التوريد: تعاون كامل مع المورد الرشيق / الرشيق / الرشيق في المستوى الأول + مصادر بذراع من داخل سلسلة التوريد ، حيث لا يزيد أي طرف من نصيبه من القيمة.

Buyer Dominant - تطوير الموردين + إدارة سلسلة التوريد الجزئية: تعاون كامل مع المورد الرشيق / الرشيق / الرشيق في المستوى الأول + التعاون القائم على المعلومات فقط داخل سلسلة التوريد ، حيث يقوم المشتري بزيادة حصته من القيمة من جميع الموردين في السلسلة.

خير مثال على هذا النوع من العلاقات سيكون ……. هذا هو نوع mumbo-jumbo الذي قد تسمعه من مستشار سلسلة التوريد الذي تم سكه حديثًا والذي تناول الكثير من القهوة في وجبة الإفطار!

ما يزعجني في هذا الكتاب هو أنه يركز بالكامل على القوة ، وكيف يمكن للمشتري أن يقلل من اعتماده على الموردين ، وبالتالي "الحصول على أفضل الصفقات المالية". إن الفكرة القائلة بأن الاعتماد قد لا يكون شيئًا سيئًا ، طالما يتم إدارته من خلال آليات تعاقدية فعالة ، وقياسات أداء ، وتبادل مفتوح للمعلومات ، ومنافع متبادلة ، غائبة تمامًا عن سياق العلاقات التي طورها كوكس. على الرغم من أنني أوافق على أن قيادة المنافسة في أي نوع من علاقات سلسلة التوريد أمر جيد ، إلا أنه يمكن أن ينطوي على زيادة الاعتماد من خلال علاقات طويلة الأمد متبادلة المنفعة. على سبيل المثال ، تجربتي مع شركة هوندا هي أنهم غالبًا ما يسعون إلى بناء علاقات "المورد مدى الحياة" ، والتي تركز على نماذج التكلفة القوية ، والتكلفة المستهدفة ، وتطوير الموردين ، واستراتيجيات التحسين المستمر بالتعاون مع الموردين. في صناعة أخرى ، النفط والغاز ، شاهدت علاقات الموردين التي تمتد لعشر سنوات أو أكثر والتي تستند إلى تكلفة الكتب المفتوحة الكاملة بالإضافة إلى الاستراتيجيات التي تسعى إلى دفع استراتيجيات إدارة الطلب والتحسين. لا توجد هذه الأنواع من العلاقات في عالم مصفوفتي Cox’s two by two Sourcing Portfolio.

لسوء الحظ ، فشلت الأنماط المحددة هنا في تقديم مجموعة واحدة من الأمثلة العملية أو الحالات التي تحدد المقصود بالضبط. وهذه مشكلة معبرة في هذا الكتاب - فهذه نماذج نظرية عملت بشكل جيد ، لكن لا يمكن تحديدها بسهولة في الممارسة. ربما يكون هذا بسبب حقيقة أن البروفيسور كوكس كان له ارتباطات في المقام الأول مع المنظمات الموجودة بالفعل في موقع السلطة. تم استخدام عمله لفترة طويلة داخل شركة IBM ، وهو مشتر كبير ، وكان معروفًا في المقام الأول بقدرته على زيادة الإنفاق وقيادة تقنيات الشراء بدون لمس. كان قدر كبير من التركيز والكتابة حول المشتريات على السياق البسيط نسبيًا لمؤسسة شراء كبيرة وقوية ، حيث تقوم بشراء منتج أو خدمة غير معقدة من مورد مذعن. لكن العالم لا يقتصر على تصنيفات IBM و 2 × 2.


أندرو كوكس حول تحديد مصادر تحليل المحفظة والتفكير الثاقب والمهم # 8211

تعد مراجعة الكتاب اليوم ، التي تلحق بالأعمال المتراكمة ، مكانًا آخر حيث قد نحتاج إلى العودة إليه من أجل منحه العدالة الكاملة. في الواقع ، في هذه الحالة ، قد يكون من الضروري دراستها لعدة سنوات قادمة إذا أردنا الحصول على القيمة الكاملة لمحتوياتها.

الكتاب المعني هو Sourcing Portfolio Analysis بواسطة Andrew Cox. نعتقد أن معظم القراء سيعرفون شيئًا عن كوكس - المؤسس الرائد لدورة ماجستير إدارة الأعمال في سلسلة التوريد بجامعة برمنغهام ومصدر إلهام لجيل كامل من مديري المشتريات والقادة. وهو أيضًا مؤسس المعهد الدولي للمشتريات والإمدادات المتقدمة (IIAPS) ، وكاتب منتج ومستشار ومعلم وأحيانًا صانع مشاكل (بأفضل معنى ممكن) في مهنتنا.

في هذا العمل ، يهدف كوكس إلى تطوير منهجية جديدة كاملة للتجزئة وتحديد المواقع لتحديد المصادر. في ذلك ، يهدم تمامًا العديد من الأفكار التي طرحها Kraljic (تحليل محفظة المشتريات ومصفوفة Kraljic الشهيرة) وجوانب تحليل "القوى الخمس" لمايكل بورتر والتي لها صلة بمسائل المشتريات وسلسلة التوريد.

على سبيل المثال ، يشير إلى أن التفكير السائد هو أن أفضل طريقة لإدارة علاقات التوريد هي البحث عن علاقات تعاونية. تدور نظرياته الخاصة حول القوة وتدفق القيمة والأصول الهامة في سلسلة التوريد هذه بشكل أكبر. لذلك يتعمق في كرلجيك (والبدائل لها) - على سبيل المثال ، مشيرًا إلى أنه "يمكن استخدام التعاون في كل من الأرباع" الإستراتيجية "و" النفوذ "، على الرغم من تقاسم القيمة بشكل مختلف".

ثم يضع تصنيفاته الخاصة لخيارات المصادر الاستراتيجية ، ومنهجية لتحديد أنسب استراتيجيات المصادر والرافعات التكتيكية لاستخدامها في فئات محددة ومواقف قوة معينة. من المحتمل أن تكون هذه الفصول اللاحقة أكثر فائدة للممارسين ، وأي شخص يطور استراتيجية فئة سوف يستفيد من قراءة وفهم هذا التفكير.

من حيث الأسلوب ، لا يسحب كوكس لكماته ، فهو ليس رجلاً يبدو أنه يعاني من الكثير من الشكوك الذاتية. سيبدأ القسم النموذجي بشيء مثل هذا. "فشل Kraljic في فهم أن تحليل" سوق التوريد "يجب أن يبدأ بتحليل علاقات القوة بين المشتري وكل من الموردين المحتملين القادرين على توفيرها".

ومع ذلك ، يمكن أن يفلت كوكس من ذلك لأنه ، في رأينا ، دائمًا على حق ، كما كان طوال حياته المهنية. (أقول "تقريبًا" لأنني وجدت ملاحظة عابرة قد أعترض عليها ، لكنني سأحتفظ بها ليوم آخر!)

وهذا يجعل هذا الكتاب مصدرًا حيويًا لأي شخص جاد في فهم علاقات المشتري / البائع حقًا وتصنيف المصادر. ومع ذلك ، فهي ليست أسهل قراءة - فهناك الكثير من المحتوى ولا يتم وضعها دائمًا لسهولة الاستخدام (الكثير من الخط المائل لإعجابي!) ولكن إذا قمنا بتقييم المحتوى بدلاً من الانطباع الفني (بالنسبة لأولئك الذين يتذكرون مخططات تعليم الرقص على الجليد) ، فهذا كتاب مهم وضروري. وهي 20 جنيهًا إسترلينيًا فقط - صفقة حقيقية هذه الأيام في عالم كتب الأعمال.


كتب مماثلة

مقدمة في Matrix Algebra
بواسطة اوتار ك كاو - جامعة جنوب فلوريدا
تم كتابة هذا الكتاب في المقام الأول للطلاب الذين هم في المستوى الأول أو لا يأخذون دورة كاملة في الجبر الخطي / المصفوفة ، أو يرغبون في اتباع نهج معاصر وتطبيقي في Matrix Algebra. ثمانية فصول من الكتاب متاحة مجانا.
(16525 الآراء) مصفوفات Toeplitz و Circulant: مراجعة
بواسطة روبرت م. جراي - ناو ناشرز إنك
يستمد الكتاب النظريات الأساسية حول السلوك المقارب لقيم eigenvalues ​​، والمعاكسات ، ومنتجات مصفوفات Toeplitz المربوطة ومصفوفات Toeplitz مع عناصر يمكن تلخيصها تمامًا. مكتوب للطلاب والمهندسين الممارسين.
(12651 الآراء) أمثلة على الجبر الخطي C-3: مشكلة القيمة الذاتية ومساحة المتجهات الإقليدية
بواسطة ليف مجلبرو - BookBoon
الكتاب عبارة عن مجموعة من المشكلات التي تم حلها في الجبر الخطي ، ويغطي هذا المجلد الثالث مشكلة القيمة الذاتية والفضاء المتجه الإقليدي. يتم حل جميع الأمثلة ، وعادة ما تتكون الحلول من تعليمات خطوة بخطوة.
(11113 الآراء) التجوال
بواسطة ألون وين جونز
الهدف من هذا الكتاب هو وصف المتعاملين في سياق جبري. إنه يتأرجح بين وجهة نظر المتعاملين كجبر تبادلي ، ووجهة نظر محددة من المتعاملين كمصفوفات مع التركيز على محدداتهم.
(11731 الآراء)

كتب مماثلة

المصفوفات
بواسطة شموئيل فريدلاند - جامعة إلينوي في شيكاغو
من جدول المحتويات: المجالات والوحدات والمصفوفات النماذج الأساسية لوظائف التشابه للمصفوفات والتشابه التحليلي مساحات المنتج الداخلية عناصر الجبر متعدد السطور المصفوفات غير السالبة التحدب.
(10937 الآراء) نظرية المصفوفات
بواسطة نسخة. ماكدوفي - تشيلسي
نظرة عامة موجزة عن العديد من تطبيقات جبر المصفوفة ، ومناقشة موضوعات مثل مراجعات المصفوفات ، والمصفوفات ، والمحددات ، والمعادلة المميزة المرتبطة بتكافؤ المصفوفات المتكاملة ، والتطابق ، والتشابه ، إلخ.
(10967 الآراء) المنتج الطبيعي Xn على المصفوفات
بواسطة دبليو بي فاسانتا كانداسامي ، فلورنتين سمارانداش - arXiv
يقدم المؤلفون نوعًا جديدًا من المنتجات على المصفوفات يسمى المنتج الطبيعي Xn - وهو امتداد للمنتج في الحالة أو مصفوفات الصف من نفس الترتيب. عندما يمكن إضافة مصفوفتين من نفس الترتيب ، فلا شيء يمنع أحدهما من ضربهما.
(7688 الآراء) التجوال
بواسطة ألون وين جونز
الهدف من هذا الكتاب هو وصف المتعاملين في سياق جبري. إنه يتأرجح بين وجهة نظر المتعاملين كجبر تبادلي ، ووجهة نظر محددة من المتعاملين كمصفوفات مع التركيز على محدداتهم.
(11731 الآراء)

الحاجة إلى النمذجة الإحصائية متعددة المتغيرات

في التحقيقات السريرية ، هناك العديد من الحالات ، حيث يعرف العديد من الكميات (المعروفة باسم المتغيرات المشتركة) ، يحتمل أن يؤثر على تشخيص المريض.

على سبيل المثال ، افترض أنه تمت مقارنة مجموعتين من المرضى: أولئك الذين لديهم نمط وراثي معين وأولئك الذين ليس لديهم نمط وراثي محدد. إذا كانت إحدى المجموعات تحتوي أيضًا على أفراد أكبر سنًا ، فقد يُعزى أي اختلاف في البقاء إلى النمط الجيني أو العمر أو كليهما بالفعل. ومن ثم ، عند التحقيق في البقاء على قيد الحياة فيما يتعلق بأي عامل واحد ، فمن المستحسن في كثير من الأحيان التكيف مع تأثير الآخرين.

النموذج الإحصائي هو أداة مستخدمة بشكل متكرر تسمح بتحليل البقاء على قيد الحياة فيما يتعلق بعدة عوامل في وقت واحد. بالإضافة إلى ذلك ، يوفر النموذج الإحصائي حجم التأثير لكل عامل.

يعد نموذج المخاطر النسبية لكوكس أحد أهم الطرق المستخدمة لنمذجة بيانات تحليل البقاء على قيد الحياة. يقدم القسم التالي أساسيات نموذج انحدار كوكس.


مزايا وقيود تحليل SWOT لشركة Cox Communications Inc

يمكن أن يساعد تحليل SWOT المفصل شركة Cox Communications Inc على استغلال الفرص من خلال الاستفادة من نقاط القوة الداخلية بشكل أسرع من المنافسين. يقدم تحليل SWOT مزايا مختلفة لشركة Cox Communications Inc كما هو موضح أدناه:

  • يمكن أن يوفر معلومات مفيدة لتطوير استراتيجيات الأعمال الحكيمة.
  • إنه يمكّن Cox Communications Inc من زيادة نقاط قوتها ، والتغلب على نقاط الضعف ، وتقليل التهديدات واستغلال الفرص.
  • يمكن لشركة Cox Communications Inc تحديد الكفاءات الأساسية والقيام بإسقاطات السوق والقيام بالتخطيط المستقبلي.

ومع ذلك ، فإن تحليل SWOT لشركة Cox Communications Inc له بعض القيود التي يجب على الشركة مراعاتها لتحقيق أهدافها الاستراتيجية.

  • في بعض الأحيان ، يكون من الصعب التعرف على الفرق بين الفرص والتهديدات لأن نفس الفرصة يمكن أن تكون بمثابة تهديد رئيسي إذا كانت الشركة غير قادرة على استغلالها في الوقت المناسب.
  • إنه يبالغ في تبسيط عملية تحديد نقاط القوة والضعف والفرص والتهديدات. لا يتم تصنيف العوامل المحددة وفقًا لأهميتها وإلحاحها ، نظرًا لأن SWOT توفر معلومات محدودة فقط.
  • الترابط المعقد بين العوامل البيئية الداخلية (نقاط القوة / الضعف) والخارجية (الفرص / التهديدات) يجعل التحليل أكثر صعوبة.
  • لا يأخذ تحليل SWOT في الاعتبار الطبيعة الديناميكية لبيئة سريعة التغير.
  • لا يقدم تحليل SWOT حلولًا أو يوفر استراتيجيات بديلة.
  • يؤدي تحديد نقاط القوة والضعف والفرص والتهديدات إلى توليد قدر كبير من المعلومات التي قد تكون مفيدة فقط إلى حد محدود.

تشير القيود المذكورة أعلاه لتحليل SWOT لشركة Cox Communications Inc إلى الحاجة إلى تبني وجهة نظر شاملة. يمكن أن يؤدي التعرف على هذه القيود وفهمها إلى تحسين عملية اتخاذ القرار الاستراتيجي.


تجربة التطوير الأولية

الهدف هو تطوير طريقة عمل أساسية عن طريق تحديد الجسم المضاد الذي يجب أن يكون الجسم المضاد الملتقط وأي جسم مضاد يجب أن يكون الجسم المضاد للكشف. تحديد تركيزات الجسم المضاد المثلى لكل من التقاط وكشف الجسم المضاد. لا يمكن تحديد الجسم المضاد الأمثل للقبض مقابل الكشف إلا تجريبيًا. في حالة وجود العديد من الأجسام المضادة للتحليل ، فمن الأفضل فحص جميع الأزواج الممكنة من الأجسام المضادة.

تجربة - قام بتجارب

قم بتغطية لوحة ELISA بعدة تخفيفات لكل جسم مضاد سيتم استخدامه كجزء من مقايسة الساندويتش. أضف المادة التحليلية المراد قياسها بتركيز عالٍ ومنخفض وصفر. استخدم كل من الأجسام المضادة ، بتركيزات عديدة ، كجسم مضاد للكشف. ستحدد نتائج هذه التجربة أي الجسم المضاد هو الأفضل لجسم مضاد الالتقاط وأيها أفضل لجسم مضاد للكشف. علاوة على ذلك ، سيتم أيضًا تحديد التخفيف اللازم لكلا الأجسام المضادة.

الكواشف

يوجد في القائمة أدناه نوع اللوحة والمخازن المؤقتة التي ستعمل مع غالبية المقايسات المناعية. استخدم هذه الشروط كنقطة انطلاق.

جسمان مضادان يتعرفان على حواتم مختلفة على الحليلة.

تم تحديد زوج الجسم المضاد الأمثل لفحص الساندويتش تجريبياً في التجربة أعلاه.

لوحة المقايسة المناعية Greiner

المخزن المؤقت للحظر: 1٪ BSA، TBS، 0.1٪ Tween-20

المخزن المؤقت المخفف للجسم المضاد: 1٪ BSA أو PBS أو TBS أو 0.1٪ Tween-20

غسل العازلة: PBS أو TBS 0.1٪ توين -20

يتم استخدام TMB و HRP لقراءات الإنزيم / الركيزة

البروتوكول (انظر تخطيطات اللوحة في الجدول 1 والجدول 2):

تمييع كل من الأجسام المضادة في عازلة الطلاء عند 0.5 و 1 و 2 و 5 & # x000b5g / ml وأضف 100 & # x000b5l من كل تركيز إلى 24 بئراً من لوحة ميكروتيتر 96 بئراً.

Incubate the plate containing the capture antibody overnight at 4ଌ and continue the experiment the next day. (Stability of the capture antibody bound to the plate can be determined in later experiments.)

Remove the unbound capture antibody solution from the microtiter plates by aspirating or dumping the plate.

Add 200 µl of blocking buffer to each well of the 96-well microtiter plate. Incubate the plate for one hour at room temperature.

Remove the blocking buffer from the plate by aspirating or dumping the plate.

Determine the desired working range of the analyte. This will give you the high and low concentrations to incubate with each capture antibody dilution. The zero analyte wells will give you the non-specific binding (NSB).

Add 100 µl of the analyte to each well in the microtiter plate and incubate for 2.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute the detection antibody serially at 1:200, 1:1000, 1:5000 and 1:25000 in diluent.

Add 100 µl of detection antibody to each well of the microtiter plate and incubate for 1.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute streptavidin-HRP (if detection antibodies are biotinylated) or appropriate secondary antibody (if capture and detection antibodies are from different species) according to manufacture instructions in antibody diluent and add 100 μl to each well in the microtiter plate and incubate for 1 hour at room temperature.

For HRP readout add TMB as a substrate to allow color development and incubate for 10-20 minutes at room temperature.

Add acid stop reagent to stop the enzyme reaction.

Read at 450 nm for TMB/HRP.

Results

Determine the absorbance units that yield the maximum signal to noise ratio or the greatest difference between the high and low analyte concentrations with the lowest variability. These are the conditions that will be selected for the antibody to be used as the capture antibody and the dilution of the antibodies to be used in the next experiment.

مثال 2

An ELISA was set up to measure the amounts of a protein where there is only one polyclonal antibody available. The polyclonal antibody was used as both the capture antibody and the detection antibody. In this example the detection antibody is biotinylated.

Reagents:

Affinity pure polyclonal antibody

Biotinylated affinity pure polyclonal antibody

Protocol:

Follow the same basic protocol above using these parameters (see plate layout in Table 3).

Figure

Table 3: Plate layout to determine the capture and detection antibody concentrations.

Coat the affinity purified antibody at 3 levels: 2, 1 and 0.5 μg/ml.

Dilute the biotinylated antibody at 3 levels: 1:1000, 1:5000, and 1:25000.

Dilute the analyte protein in buffer to 50 ng/ml, 1 ng/ml, and zero.

As seen in Table 4, the lowest NSB and best signal to noise ratio from low to high analyte concentration are the 0.5 μg/ml concentration for the capture antibody and the 1:25000 dilution of the biotinylated detection antibody.

Table 4:

Results from Example 2: to determine the capture and detection antibody concentrations. Values are averages of absorbance measurements at A450.

Second Development Experiment-Matrix Compatibility

The goal is to determine the matrix effect or sample type on the immunoassay method. The matrix is based on what the sample is found in, for instance tissue culture media, serum, plasma, cell lysate, buffers, etc. Serum matrix, due to its complexity, can have a significant effect on the method. In this example the samples are in rat serum so the matrix effect of rat serum needs to be determined.

Experiment

The samples that need to be measured in this assay will be in either mouse or rat serum. Use the conditions established in the first experiment for the concentration of the capture antibody and the detection antibody. Serially dilute the standard (analyte) to obtain a full standard curve in 3 different matrices (10% rat serum, 30% rat serum and the original buffer diluent used in the first experiment). This will determine the effect of the matrix used for the experimental samples.

Reagents:

Use all of the reagents and buffers listed in the first experiment (Example 2).

Matrix diluent: 10% rat serum in antibody diluent or 30% rat serum in antibody diluent.

Protocol:

Follow the standard protocol, changing only the matrix diluent to include rat serum.

Dilute the coating antibody in coating buffer at 0.5 μg/ml and add 100 μl to each well of the 96-well microtiter plate.

Incubate the plate containing the capture antibody overnight at 4ଌ and use the next day.

Stability of the capture antibody bound to the plate can be determined in later experiments.

Remove the capture antibody solution from the microtiter plates by aspirating or dumping the plate.

Add 200 μl of blocking buffer to each well of the 96-well microtiter plate.

Incubate the plate for one hour at room temperature.

Remove the blocking buffer from the plate by aspirating or dumping the plate.

Serially dilute the standard in antibody dilution buffer containing either 10% or 30% rat serum, or diluent alone.

Add 100 μl of the standard to each well in the microtiter plate and incubate for 2.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute the detection antibody to 1:25000 in antibody diluent.

Add 100 μl of detection antibody diluent to each well of the microtiter plate and incubate for 1.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute streptavidin-HRP according to manufacturer’s instructions in antibody diluent and add 100 μl to each well in the microtiter plate and incubate for 1 hour at room temperature.

For HRP readout add TMB as substrate to allow color development and incubate for 10-20 minutes at room temperature.

Add acid stop reagent to stop the enzyme reaction.

Read at 450 nm for TMB/HRP.

نتائج:

Use the standard curve data and construct a precision profile. Check the background levels. See the next section for standard or calibration curve model fitting. Note that the standard curves under all three matrix diluent conditions give the dynamic range and sensitivity necessary for the intended use (Figure 5). For this particular assay, no further development is needed (based on the standard curve, low background and precision profile).

الشكل 5:

Calibration curve and precision profile for the three different matrix conditions using a Four Parameter Logistic (4PL) Model.

Precision Profile:

Generate the precision profile for the standard curve of the appropriate matrix for the experiment. The precision profile is a plot of coefficient of variation (CV) for the calibrated concentration levels of the replicates of each calibrator versus the nominal analyte concentration in the calibrator samples. The dynamic range of the calibration curve (quantification limits) are then defined by the concentrations where the precision profile intersects the 20% CV. The calculation of this CV has to take into consideration both the sampling variability and the lack of fit to the calibration curve, and is therefore not straightforward. A statistician should be consulted for this evaluation. An SAS program for this evaluation has been published (13).

Calibration Curve and Precision Profile for the Three Different Matrix Conditions

Calibration Curve Model Selection:

A significant source of variability in the calibration curves can come from the choice of the statistical model used for the calibration curve. It is therefore extremely important to choose an appropriate calibration curve model. For most immunoassays, the following models are commonly available from most instrument software.

where parameters, a and b are the intercept and slope respectively, and “response” refers to signal readout, such as optical density or fluorescence from an immunoassay. Often this linear model is fitted after log transformation of the response and concentration. This is sometimes referred as the "log-log linear model".

where a, b and c are the intercept, linear and quadratic term coefficients, respectively, of this quadratic model.

The four parameters to be estimated are Top, Bottom, EC50 and Slope. Top refers to the top asymptote, Bottom refers to the bottom asymptote, and EC50 refers to the concentration at which the response is halfway between Top and Bottom.

Five Parameter Logistic Model:

Asymmetry is the fifth parameter in this model. It denotes the degree of asymmetry in the shape of the sigmoidal curve with respect to �50”. A value of 1 indicates perfect symmetry, which would then correspond to the four-parameter logistic model. However, note that the term referred to as �50” in this model is not truly the EC50. It is the EC50 when the asymmetry parameter equals 1. It will correspond to something very different such as EC20, EC30, EC80, etc., depending on the value of the asymmetry parameter for a particular data set.

For most immunoassays, the four or five parameter logistic model is far better than the linear, quadratic or log-log linear models. These models are available in several software packages, and are easy to implement even in an Excel-based program. As illustrated in the plots shown in Figure 6, the quality of the model should be judged based on the dose-recovery scale instead of the lack-of-fit of the calibration curve (R 2 ). In this illustration, even though the R 2 of the log-log linear model is 0.99, when assessed in terms of the dose-recovery plot, this model turns out to be significantly inferior to the four parameter logistic model. Before the assay is ready for production, the best model for the calibration curve should be chosen based on the validation samples using dose-recovery plots.

الشكل 6:

Example of log-log linear and weighted four parameter logistic calibration curves.

Importance of Weighting in Calibration Curves

The default curve-fitting method available in most software packages assigns equal weight to all of the response values, which is appropriate only if the variability among the replicates is equal across the entire range of the response. However, for most immunoassays, the variability of assay signal among replicates of each calibrator increases proportionately with the response (signal) mean. Giving equal weight can lead to highly incorrect conclusions about the assay performance and will significantly affect the accuracy of results from the unknown samples. More specifically, lack of weighting leads to higher variability of results in the lower end of the assay range, thus greatly compromising the sensitivity of the assay. It is therefore extremely important to use a curve-fitting method/software that has appropriate weighting methods/options. This is illustrated in Figure 7 where we compare the total error results from the validation controls after fitting the calibration curves using log-log linear, four-parameter logistic and five-parameter logistic models. For this example, the performance of the validation samples is better overall when the five-parameter logistic model is used.

الشكل 7:

Validation samples are plotted with different calibration curve models. It is clear from the plot that the five-parameter logistic (5PL) model is better than the four-parameter logistic (4PL) and log-log linear (LL) models. For this particular assay, (more. )

Third Development Experiment

The two-step experiment detailed above is a very simple example of how to develop a sandwich ELISA method. If the dynamic range and sensitivity of the assay does not meet the experimental needs then further experimental parameters should be tested using experimental design. With experimental design all of the factors involved in the ELISA including buffers, incubation time and plate type can be analyzed.

In a sandwich ELISA method the antibodies chosen are the major drivers of the assay parameters. If at this point in the method development, the precision profile of the standard curve does not encompass the desired dynamic range and sensitivity, instead of continuing with the development experiment, antibodies should be further characterized. Changing some of the variables such as the antibody concentrations can significantly improve the calibration curve and hence its precision profile.

The goal is to determine the optimal conditions for the variables in the immunoassay, including incubation steps, buffers, substrate, etc. Also, determine the optimal antibody concentrations and the stability of the capture antibody bound to the plate.

Experiment:

Dilute the standard in the matrix compatible to the sample (as determined in the second experiment). Vary the incubation times, dilution buffers and other variables in order to optimize the immunoassay. Analyze by using experimental design software and precision profiles.

Reagents:

Protocol:

Coat the microtiter plate with the capture antibody at the concentration determined in the initial experiment. Incubate overnight at 4ଌ.

Discard the capture antibody solution from the microtiter plate.

Block the plate for 1 hour at room temperature using various blocking reagents.

Store plates at 4ଌ, desiccated, for several periods of time 0-5 days.

Repeat steps 1-3 the day of the actual experiment.

Serially dilute, using an 8-point standard curve, the known standard in the appropriate matrix for the experiment. For the control also dilute the standard in the same buffer as was used in the initial experiment. Add 100 μl of standard to each well in the 96-well microtiter plate.

Incubate the diluted standard with the capture antibody for 1 hour and 3 hours at room temperature and overnight at 4ଌ. Each time point will have to be run in a separate plate.

Wash plates 3 times (if background or NSB is high, try different wash buffers).

Add 100 μl of diluted detection antibody. If background is high again different diluents can be tested.

Incubate the detection antibody for different time periods and again different plates will have to be used for each time condition.

Add 100 μl of substrate to the wells containing the detection antibody conjugated to the enzyme and allow incubation according to the manufacturer’s conditions.

Data Analysis:

Compute the standard curves and their precision profiles for all the experimental design conditions. Derive the optimization endpoints using the precision profiles. Then analyze the optimization endpoints using software such as JMP (http://www.jmp.com) to determine the optimum levels of the assay factors. See next section for the details and illustration.

Experimental Designs for Increasing Calibration Precision

الخطوة 1:

Identify all the factors/variables that potentially contribute to assay sensitivity and variability. Choose appropriate levels for all the factors (high and low values for quantitative factors, different categories for qualitative factors). Then use fractional-factorial experimental design in software such as JMP to derive appropriate experimental “trials” (combinations of levels of all the assay factors). Run 8-point calibration curves in duplicate for each trial. With each trial taking up two columns in a 96-well plate, 6 trials per plate can be tested. All trials should be randomly assigned to different pairs of columns in the 96-well plates. However, certain factors such as incubation time and temperature are inter-plate factors. Therefore, levels of such factors will have to be tested in separate plates (see Table 5).

Table 5:

Example plate layout to increase calibration precision.

After the above experiment is run, the calibration curves should be fit for each trial using an appropriately weighted-nonlinear regression model. Then the precision profile for the calibration curve of each trial should be obtained along with the important optimization end-points such as working-range, lower quantitation limit and precision area (area of the region intersected by the precision profile with 20% CV). Now analyze these data to determine the optimal level of all qualitative factors and determine which subset of quantitative factors should be further investigated.

الخطوة 2:

We now need to determine the optimum levels for the key factors determined in the previous step. Choose appropriate low, middle and high levels for each of these factors based on the data analysis results from step 1. Now use software such as JMP to generate appropriate trials (combinations of low, middle and high levels of all the factors) from a central-composite design. Then run duplicate 8-point calibration curves for each trial using a similar plate format as in step 1.

Now obtain the precision profile and the relevant optimization end-points of the calibration curve of each trial. Perform the response-surface analysis of these data to determine the optimal setting of each of the quantitative factors run in this experiment.

Illustration of Experimental Design and Analysis for Sandwich ELISA Optimization

In Table 6, we have the experiment plan from the second step of the optimization process using experimental design for a sandwich ELISA. These four factors (capture antibody, detection antibody, enzyme and volume) were picked out of the six factors considered in the first step of this optimization process (screening phase) for further optimization. We use a statistical experimental design method called central composite design to generate the appropriate combinations of the high, mid and low levels of the four factors in this second step. For example, trial #6 in this table refers to the middle level of the first, third and the fourth factors, and the low level of the second factor.

Table 6:

Experimental plan from the second step of the optimization process using the experimental design for a sandwich ELISA.

Eight-point standard curves in duplicate were generated for each of these trials, in adjacent columns of a 96-well plate. This resulted in six trials per plate, and with 36 trials in 6 plates. We computed the precision profiles of the calibration curves for each of these 36 trials. From these precision profiles, we computed the working range (lower and upper quantification limits), CV and related variability and sensitivity measures. We then used a statistical data analysis method called "response surface analysis" on these optimization endpoints. This resulted in polynomial type models for all the factors. Using the shape of the curve and other features from this model, the optimum levels for these factors were determined. This gave us the most sensitive dynamic working range possible for this assay.

An experiment was then performed for this ELISA to compare these optimized levels to the pre-optimum levels and the assay kit manufacturer’s recommendation. The results from this comparison are summarized in Figure 8.

Figure 8:

Comparison of optimized levels to pre-optimum levels and those recommended by the manufacturer.

The optimized levels derived from statistical experimental design for this ELISA resulted in the following improvements over the pre-optimum and assay kit manufacturer’s recommendation.

This improvement is evident from the precision profiles shown in Figure 8.


Extensions and Caveats

There’s plenty more to say about Cox Proportional Hazards models, but I will try to keep things brief and just mention a few things.

For example, one may want to consider time-varying regressors, and this is possible.

The other crucial thing to keep in mind is omitted variable bias. In standard linear regression, omitted variables uncorrelated with the regressors aren’t a big problem. This is not true in survival analysis. Suppose we have two equally sized and sampled sub-populations in our data each with a constant hazard rate, one is 0.1 and the other is 0.5. Initially, we will see a high hazard rate (the average, just 0.3). As time goes on, the population with a high hazard rate will leave the population and we will observe a hazard rate that declines towards 0.1. If we omitted the variable representing these two populations, our baseline hazard rate will be all messed up.

I aim to write (relatively) accessible explanations of data science concepts without shying away from the sometimes complicated mathematics involved. If you liked this, you I have similarly styled explanations of logistic regression coefficients, perplexity, the central limit theorem، أو expectation maximization.


شاهد الفيديو: المصفوفات. رياضيات. التحصيلي علمي. 1441-1442 (شهر اكتوبر 2021).