مقالات

4.1: القيم الذاتية والمتجهات الذاتية


4.1: القيم الذاتية والمتجهات الذاتية

4.1 القيم الذاتية والمتجهات الذاتية

ترتبط معظم المواد حتى الآن بحل المعادلات الخطية. في هذا الفصل ننظر إلى القيم الذاتية والمتجهات الذاتية للمصفوفات التي تشارك في تطبيقات المصفوفات على المشكلات في الديناميات والتحسين.

4.1 المعادلة المميزة للقيم الذاتية.

التعريف 1. يترك أ أن تكون مصفوفة مربعة. ناقل الخامس هو eigenvector v من أ لو الخامس  0 Av =  الخامس لبعض عدد   يسمى القيمة الذاتية من أ.

مثال 1. يترك أ =. الخامس = هو ناقل ذاتي لـ أ منذ Av = = = = 5 =  الخامس مع  = 5. إذن  = 5 هي قيمة ذاتية لـ أ. ش = ليس متجهًا ذاتيًا لـ أ منذ Au = =   لأي رقم .

لاحظ أن  الخامس تقع على طول الخط من خلال الخامس. وبالتالي الخامس هو ناقل eigenvector من أ لو Av تقع على طول الخط من خلال الخامس. هندسيا أ يضغط أو يمتد المتجه الخامس مع إمكانية عكسه من خلال الأصل. هذا مطلب مقيد جدًا ، لذا فإن معظم المتجهات لن تكون متجهات ذاتية لمصفوفة معينة أ.

هناك طريقة منهجية لإيجاد القيم الذاتية والمتجهات الذاتية لمصفوفة. لاحظ أن شرط الخامس أن تكون متجهًا ذاتيًا يمكن إعادة كتابتها بالطرق المكافئة التالية. Av =  رابعا Av -  رابعا = 0 (1) ( أ -  أنا ) الخامس = 0 منذ الخامس غير صفرية ، سيحدث هذا فقط إذا كانت المصفوفة غير قابلة للانعكاس وهو ما يحدث بالضبط إذا أ -  أنا (2) Det ( أ -  أنا ) = 0

هذه معادلة قيمها الذاتية أ يجب أن تفي يسمى معادلة مميزة. مثال 1 (تابع). أوجد قيم eigenvalues ​​لـ أ =. أ -  أنا = بشكل عام لتشكيل أ -  أنا من أ يطرح المرء ببساطة  من المدخلات القطرية. المعادلة المميزة هي 0 = Det ( أ -  أنا ) = = (1 - ) (2 - ) - (3) (4) =  2 - 3 + 2-12 =  2 - 3 - 10 = (- 5) ( + 2) لذا القيم الذاتية هي

يوضح هذا المثال بعض السمات العامة لقيم eigenvalues. يفترض أ هو نن مصفوفة. نظرًا لأن المحدد هو مجموع / فرق حاصل ضرب عناصر المصفوفة حيث يكون لكل منتج إدخال واحد من كل صف وعمود ، فإننا نرى ذلك Det ( أ -  أنا ) هو ن الدرجة المتعددة في degree والمعادلة Det ( أ -  أنا ) = 0 لقيم eigenvalues ​​هي أ ن معادلة كثيرة الحدود من الدرجة في . هكذا فعلت ن على الرغم من أن بعضها قد يكون معقدًا وبعضها قد يتكرر. وبالتالي أ لديها ن القيم الذاتية على الرغم من أن بعضها قد يكون معقدًا وبعضها قد يتكرر. عدد المرات التي تتكرر فيها القيمة الذاتية يسمى تعدد من قيمة eigenvalue.

بمجرد العثور على قيم eigenvalues ​​، يمكن للمرء أن يجد المتجهات الذاتية المقابلة لكل قيمة eigenvalue عن طريق حل المعادلة ( أ -  أنا ) الخامس = 0. مثال 1 (تابع). أوجد المتجهات الذاتية لـ أ =. بالنسبة إلى  1 = 5 ، يمتلك الفرد أ -  أنا = أ – 5 أنا =. لذا فإن المتجه الذاتي الخامس = يرضي = ( أ -  أنا ) الخامس = = لذا - 4 x + 3 ذ = 0 4 x - 3 ذ = 0 بما أن المعادلة الثانية هي سالب الأولى ، فإن أي حل للمعادلة الأولى يكون أيضًا حل للمعادلة الثانية. لذلك يكفي حل المعادلة الأولى. هذه المعادلة تعادل ذ =. لذلك ، ناقل eigenvector الخامس ل  1 = 5 لها الشكل الخامس = = = إذن أي مضاعف للمتجه الخامس 1 = عبارة عن متجه ذاتي لـ  1 = 5. وبعبارة أخرى ، تتكون المتجهات الذاتية لـ  1 = 5 من الخط المار. هذه هي حالة & ampquotusual & ampquot ، على الرغم من أنه من الممكن للمتجهات الذاتية المقابلة لقيمة eigenvalue أن تشكل خطًا من خلال الأصل أو مساحة فرعية ذات أبعاد أعلى. بالنسبة إلى  2 = - 2 يمتلك الفرد أ -  أنا = أ + 2 أنا =. لذا فإن ناقل eigenvector الخامس = يرضي = ( أ -  أنا ) الخامس = = إذن 3 x + 3 ذ = 0

دليل - إثبات. المعادلة المميزة هي 0 = Det ( أ -  أنا ) = = ( أ 11 - )( أ 22 - ) . ( آن - )

بما أن محدد المصفوفة المثلثية العليا هو ناتج المداخل على القطر الرئيسي. الاقتراح يتبع من هذا. //

هذا مثال بمصفوفة 33. مثال 2. أوجد قيم eigenvalues ​​والمتجهات الذاتية لـ أ =. المضي قدما في المثال 1 واحد لديه أ -  أنا = 0 = Det ( أ -  أنا ) = = ( - 1)(- 2) – (2 -  -  2 )(1 - ) = ( - 1)( 2 + ) = ( - 1)( + 1)

 1 = - 1 و  2 = 0 و 3 = 1

بالنسبة إلى  1 = - 1 يمتلك المرء أ -  1 أنا = أ + أنا =. لذا فإن ناقل eigenvector الخامس = يرضي = ( أ -  أنا ) الخامس = = هكذا x - ذ + 2 ض = 0 2 ذ - 2 ض = 0 x + ذ = 0 الحل باستخدام المصفوفة المعززة يعطي

أصبحت المصفوفة المعززة الآن في شكل مرتبة صف مختصرة. المعادلات المقابلة هي x + ض = 0 ذ - ض = 0 أو x = - ض ذ = ض لذلك ، ناقل eigenvector الخامس ل  1 = - 1 له الشكل الخامس = = = ض إذن أي مضاعف للمتجه الخامس 1 = متجه ذاتي لـ  1 = - 1. بالنسبة لـ  2 = 0 يمتلك الفرد أ -  أنا = أ =. لذلك ، ناقل eigenvector الخامس = يرضي = ( أ -  أنا ) الخامس = = إذن - ذ + 2 ض = 0

المعادلة الأولى هي سالب الثانية ، لذا فإن أي حل للمعادلة الثانية والثالثة هو حل للمعادلة الأولى. لذلك يكفي حل المعادلتين الثانية والثالثة. بطرح المعادلة الثانية من الثالثة نحصل على زوج المعادلات ذ - 2 ض = 0 x + ض = 0 أو ذ = 2 ض x = - ض لذلك ، ناقل eigenvector الخامس ل  2 = 0 لها الشكل الخامس = = = ض إذن أي مضاعف للمتجه الخامس 2 = متجه ذاتي ل  2 = 0. ل  3 = 1 يمتلك المرء أ -  أنا = أ - أنا =. لذا فإن ناقل eigenvector الخامس = يرضي = ( أ -  أنا ) الخامس = = إذن - x - ذ + 2 ض = 0 - 2 ض = 0 x + ذ - 2 ض = 0

المعادلة الأولى هي سالب المعادلة الثالثة ، لذا فإن أي حل للمعادلة الثانية والثالثة هو حل للمعادلة الأولى. لذلك يكفي حل المعادلتين الثانية والثالثة. المعادلة الثالثة تعادل ض = 0. وضع هذا في المعادلة الثالثة يعطي x + ذ = 0 أو ذ = x. لذا فإن ناقل eigenvector الخامس ل  3 = 1 له الشكل الخامس = = = x إذن أي مضاعف للمتجه الخامس 3 = متجه ذاتي ل  3 = 1. المشكلة 1. أوجد قيم eigenvalues ​​والمتجهات الذاتية لـ أ =.

المحلول. قيم eigenvalues ​​هي، 1 = 3 ،  2 = 2 و  3 = 1. المتجهات الذاتية المقابلة هي الخامس 1 = , الخامس 2 = و الخامس 3 =.


4.1 مقدمة للقيم الذاتية والمتجهات الذاتية

في هذا الوقت ، يرجى قراءة الفصل 4 ، القسم 1 في فهم الجبر الخطي لديفيد أوستن.

نشاط

دع أ يكون مصفوفة. إذا كان هناك متجه غير صفري [لاتكس] vec[/ لاتكس] مثل أن [اللاتكس] A vec = لامدا vec[/ لاتكس] ، بالنسبة لبعض الحجمي [اللاتكس] lambda [/ اللاتكس] نسميه [اللاتكس] vec[/ لاتكس] أ eigenvector و [اللاتكس] lambda [/ اللاتكس] لها القيمة الذاتية. نظرًا لأن [latex] A vec <0> = vec <0> [/ latex] لجميع المصفوفات [اللاتكس] A [/ latex] ، لا نعتبر أن [اللاتكس] vec <0> [/ latex] ناقل eigenvector.

  • جميع عناصر [اللاتكس] Nul (A) = < vec| أ vec = vec <0> > [/ latex] باستثناء [اللاتكس] vec <0> [/ latex] هي متجهات ذاتية لـ [اللاتكس] A [/ اللاتكس]. المتجه الذاتي المرتبط بها هو 0. تبرير!
  • إذا كان [اللاتكس] vec[/ لاتكس] هو متجه ذاتي للمصفوفة أ ذات قيمة ذاتية [لاتكس] لامدا [/ لاتكس] ، ثم [لاتكس] ك vec[/ لاتكس] هو أيضًا ناقل ذاتي له نفس القيمة الذاتية لكل [اللاتكس] k neq 0 [/ اللاتكس]. يبرر!
  • إذا كان [اللاتكس] vec[/ latex] هو ناقل ذاتي للمصفوفة A مع قيمة eigenvalue [اللاتكس] lambda [/ اللاتكس] ، ثم [اللاتكس] vec[/ latex] هو ناقل ذاتي لـ [اللاتكس] A ^ n ، [/ latex] مع قيمة eigenvalue [لاتكس] lambda ^ n ، [/ لاتكس] لـ n = 1،2،3 ، & # 8230 تحقق!

حجج الإدخال

مصفوفة الإدخال A & # 8212 مصفوفة مربعة

مصفوفة الإدخال ، محددة كمصفوفة مربعة حقيقية أو معقدة.

أنواع البيانات: مزدوج | غير مرتبطة
دعم الرقم المركب: نعم

B & # 8212 مصفوفة إدخال مشكلة القيمة الذاتية المعممة مصفوفة مربعة

مصفوفة إدخال مشكلة القيمة الذاتية المعممة ، المحددة كمصفوفة مربعة من القيم الحقيقية أو المعقدة. يجب أن يكون B بنفس حجم A.

أنواع البيانات: مزدوج | غير مرتبطة
دعم الرقم المركب: نعم

BalanceOption & # 8212 خيار الرصيد "الرصيد" (افتراضي) | "توازن"

خيار الرصيد ، المحدد على النحو التالي: "الرصيد" ، والذي يتيح خطوة موازنة أولية ، أو "التوازن" الذي يعطله. في معظم الحالات ، تعمل خطوة الموازنة على تحسين تكييف A لإنتاج نتائج أكثر دقة. ومع ذلك ، هناك حالات ينتج فيها التوازن نتائج غير صحيحة. حدد "التوازن" عندما يحتوي A على قيم يختلف مقياسها اختلافًا كبيرًا. على سبيل المثال ، إذا احتوت A على أعداد صحيحة غير صفرية ، بالإضافة إلى قيم صغيرة جدًا (بالقرب من الصفر) ، فقد تقوم خطوة الموازنة بتوسيع نطاق القيم الصغيرة لجعلها مهمة مثل الأعداد الصحيحة وتنتج نتائج غير دقيقة.

"التوازن" هو السلوك الافتراضي. لمزيد من المعلومات حول الموازنة ، راجع التوازن.

الخوارزمية & # 8212 خوارزمية القيمة الذاتية المعممة "شول" | "qz"

خوارزمية قيمة eigenvalue المعممة ، المحددة بـ "Chol" أو "qz" ، والتي تختار الخوارزمية المراد استخدامها لحساب القيم الذاتية المعممة للزوج.

الخوارزميةوصف
"تشول" يحسب القيم الذاتية المعممة لـ A و B باستخدام عامل Cholesky لـ B.
"qz" يستخدم خوارزمية QZ ، والمعروفة أيضًا باسم تحلل شور المعمم. تتجاهل هذه الخوارزمية تناظر A و B.

بشكل عام ، تعيد الخوارزميتان نفس النتيجة. يمكن أن تكون خوارزمية QZ أكثر استقرارًا لبعض المشكلات ، مثل تلك التي تتضمن مصفوفات سيئة الشروط.

عندما تحذف وسيطة الخوارزمية ، تحدد وظيفة eig خوارزمية بناءً على خصائص A و B. يستخدم خوارزمية "الكول" للتماثل (Hermitian) A والمتماثل (Hermitian) الموجب B. خلاف ذلك ، فإنه يستخدم خوارزمية "qz".

بغض النظر عن الخوارزمية التي تحددها ، تستخدم وظيفة eig دائمًا خوارزمية QZ عندما لا تكون A أو B متماثلة.

EigvalOption & # 8212 خيار القيمة الذاتية "متجه" | 'مصفوفة'

خيار القيمة الذاتية ، المحدد كـ "متجه" أو "مصفوفة". يتيح لك هذا الخيار تحديد ما إذا كانت القيم الذاتية يتم إرجاعها في متجه عمود أو مصفوفة قطرية. يختلف السلوك الافتراضي وفقًا لعدد المخرجات المحددة:

إذا حددت ناتجًا واحدًا ، مثل e = eig (A) ، فسيتم إرجاع قيم eigenvalues ​​كمتجه للعمود افتراضيًا.

إذا قمت بتحديد ناتجين أو ثلاثة ، مثل [V ، D] = eig (A) ، يتم إرجاع القيم الذاتية كمصفوفة قطرية ، D ، افتراضيًا.

مثال: D = eig (A، 'matrix') تُرجع مصفوفة قطرية من قيم eigenvalues ​​مع بناء جملة الإخراج الواحد.


4.4 القيم الذاتية والمتجهات الذاتية

في هذا القسم ، نتعامل مع طرق حساب القيم الذاتية والمتجهات الذاتية لمصفوفة. أولاً ، نناقش طريقة طاقة بسيطة لحساب قيمة ذاتية واحدة أو عدة قيم ذاتية (القسم 4.4.1). بعد ذلك ، نركز على طرق إجراء التحليل الذاتي الكامل ، أي إيجاد جميع قيم eigenvalues ​​(طرق Jacobi و QR و LR في الأقسام. 4.4.2-4.4.5). أخيرًا ، نصف بإيجاز طريقة لتحسين قيم eigenvalues ​​المحسوبة بالفعل ولإيجاد المتجه الذاتي المقابل. بالإضافة إلى ذلك ، لاحظ أنه يمكن أيضًا إجراء التحليل الذاتي عن طريق SVD ، انظر Sect. 4.1.4. لمزيد من التفاصيل حول الطرق الموصوفة وكذلك بعض الطرق الأخرى ، يمكن للمرء الرجوع إلى الدراسات التي كتبها [15 ، 24 ، 52] و [60].

قبل مناقشة طرق محددة ، دعونا نصف المبدأ المشترك لمعظمها. نحن نفترض أن هذا له قيم ذاتية. للعثور على جميع قيم eigenvalues ​​، نقوم بتحويل المصفوفة الأصلية إلى مصفوفة أبسط بحيث تشبه (تذكر أن المصفوفات ومتشابهة إذا كانت هناك مصفوفة من هذا القبيل). إن التشابه بين المصفوفتين وهو أمر حاسم لأنه يضمن أن كلا المصفوفتين لهما نفس قيم eigenvalue وأن متجهاتها الذاتية تتبع علاقة بسيطة: إذا كان متجهًا ذاتيًا يتوافق مع قيمة eigenvalue ، فهو إذن متجه ذاتي يقابل نفس القيمة الذاتية.

هناك استراتيجيتان أساسيتان لبناء تحويل تشابه للمصفوفة الأصلية. أولاً ، يمكن للمرء استخدام سلسلة من التحولات البسيطة ، مثل الموارد الوراثية ، وإزالة العناصر الواحدة تلو الأخرى (انظر طريقة جاكوبي ، القسم 4.4.2). غالبًا ما يستخدم هذا النهج للتحول إلى أشكال هيسنبرغ ثلاثية الأضلاع أو العلوية. (تحتوي المصفوفة على شكل هيسنبرغ العلوي إذا كان مثلثًا علويًا باستثناء أول شكل شبه قطري أي ، أين ، أين). ثانيًا ، يمكن للمرء أيضًا تحليل ترتيب العوامل وتبديلها ، (التشابه والمتابعة من). يتم استخدام هذا على سبيل المثال بواسطة طريقة LR (القسم 4.4.5). أخيرًا ، هناك طرق تجمع بين كلا النهجين.

4.4.1 طريقة الطاقة

في شكلها الأساسي ، تهدف طريقة الطاقة إلى إيجاد أكبر قيمة ذاتية للمصفوفة والمتجه الذاتي المقابل. لنفترض أن المصفوفة لها قيمة ذاتية سائدة (| lambda_2 | $ ->) ومتجهات ذاتية مستقلة خطيًا.

طريقة الطاقة تبني سلسلتين والتي تتلاقى مع eigenvector المقابل ، على التوالي. بدءًا من المتجه غير المتعامد لـ ، يتعين على المرء فقط حسابه بشكل متكرر وتقسيمه إلى معياره والمتجه الطبيعي ، انظر الخوارزمية 9. عادةً ، يتم استخدام المعايير الإقليدية () والحد الأقصى ().

على الرغم من أن تقييم صحة الافتراضات بعيد عن أن يكون تافهًا ، إلا أنه يمكن للمرء عادةً بسهولة التعرف على ما إذا كانت الطريقة تتقارب من سلوك السلسلتين المشكَّلتين.

علاوة على ذلك ، يمكن توسيع طريقة الطاقة للبحث أيضًا عن قيم ذاتية أخرى على سبيل المثال ، الأصغر والثاني الأكبر. أولاً ، إذا كان غير مفرد ، فيمكننا تطبيق طريقة الطاقة لإيجاد أصغر قيمة ذاتية لأنها أكبر قيمة ذاتية لـ. ثانيًا ، إذا كنا بحاجة إلى المزيد من قيم eigenvalues ​​ومعروف بالفعل ، فيمكننا استخدام طريقة الاختزال لبناء مصفوفة لها نفس القيم الذاتية والمتجهات الذاتية باستثناء ، والتي يتم استبدالها بقيمة صفر eigenvalue. للقيام بذلك ، نحتاج إلى إيجاد ناقل ذاتي (طبيعي) مطابق لـ (وله نفس قيم eigenvalues) وللتعيين. وبطبيعة الحال ، يمكن تكرار هذه العملية للعثور على قيم eigenvalues ​​الثالثة والأخرى.

أخيرًا ، دعنا نذكر أنه يمكن استخدام طريقة القوة أيضًا لبعض المصفوفات بدون قيمة ذاتية سائدة (على سبيل المثال ، المصفوفات مع البعض). لمزيد من الامتدادات لطريقة الطاقة ، انظر [56] ، على سبيل المثال.

4.4.2 طريقة جاكوبي

بالنسبة للمصفوفة المتماثلة ، تقوم طريقة جاكوبي ببناء سلسلة من المصفوفات المتعامدة ، بحيث تتقارب المصفوفة إلى مصفوفة قطرية. كل مصفوفة هي مصفوفة GR محددة في (4.5) ، حيث يتم اختيار الزاوية بحيث يصبح عنصر واحد غير صفري صفرًا. يتم وصف الصيغ الخاصة بالحساب مع الأخذ في الاعتبار أن العنصر المراد تصحيحه موصوف في [15] على سبيل المثال. بمجرد أن يتم قطري المصفوفة بهذه الطريقة ، يحتوي القطر على القيم الذاتية للمصفوفة وتمثل أعمدة المصفوفة المتجهات الذاتية المرتبطة.

هناك العديد من الاستراتيجيات لاختيار عنصر سيصفّر في الخطوة التالية. تختار طريقة جاكوبي الكلاسيكية أكبر عنصر خارج القطر من حيث القيمة المطلقة ومن المعروف أنها تتقارب. (نظرًا لأن البحث عن العنصر الأقصى يستغرق وقتًا طويلاً ، فقد تم تطوير العديد من المخططات المنهجية ، ولكن لا يمكن ضمان تقاربها في كثير من الأحيان.) نظرًا لأن طريقة جاكوبي بطيئة نسبيًا ، يُفضل عادةً استخدام طرق أخرى (على سبيل المثال ، طريقة الاستجابة السريعة). من ناحية أخرى ، فقد أصبح مؤخرًا مثيرًا للاهتمام مرة أخرى بسبب دقته وسهولة موازنته ([35،67]).

4.4.3 تخفيضات المعطيات والمساكن

تستخدم طريقتا Givens و Householder مبدأ مشابهًا لطريقة جاكوبي. يتم تطبيق سلسلة من الموارد الوراثية أو الموارد البشرية ، المصممة بحيث تشكل تحولات تشابه ، على مصفوفة متماثلة من أجل تحويلها إلى مصفوفة ثلاثية الأضلاع. (المصفوفة ثلاثية الأضلاع هي شكل هيسنبرغ للمصفوفات المتماثلة.) هذه المصفوفة ثلاثية الأضلاع تخضع بعد ذلك لإحدى الطرق التكرارية ، مثل طرق QR أو LR التي تمت مناقشتها في الفقرات التالية. الصيغ الخاصة بتحولات تشابه Givens و Householder مُعطاة في [52] ، على سبيل المثال.

4.4.4 طريقة QR

تعد طريقة QR واحدة من أكثر الطرق استخدامًا للتحليل الذاتي الكامل لمصفوفة غير متماثلة ، على الرغم من حقيقة أن تقاربها غير مضمون. تستمر الخوارزمية النموذجية على النحو التالي. في الخطوة الأولى ، يتم تحويل المصفوفة إلى مصفوفة Hessenberg باستخدام تحولات تشابه Givens أو Householder (انظر القسمين 4.1.3 و 4.4.3). في الخطوة الثانية ، تخضع مصفوفة هيسنبرغ هذه لعملية تكرارية تسمى المطاردة. في كل تكرار ، يتم استخدام تحويلات التشابه ، مثل الموارد الوراثية ، أولاً لإنشاء إدخالات غير صفرية في المواضع ولأجل. بعد ذلك ، يتم استخدام تحويلات التشابه بشكل متكرر لعناصر صفرية ولتحريك هذه `` العناصر غير الصفرية '' نحو الزاوية اليمنى السفلية من المصفوفة (على سبيل المثال ، إلى العناصر ، ومن أجل). نتيجة للمطاردة ، يمكن استخراج قيمة واحدة أو اثنتين من قيم eigenvalues. إذا أصبح صفرًا (أو ضئيلًا) بعد المطاردة ، فإن العنصر هو قيمة ذاتية. وبالتالي ، يمكننا حذف الصف والعمود من المصفوفة وتطبيق المطاردة على هذه المصفوفة الأصغر لإيجاد قيمة ذاتية أخرى. وبالمثل ، إذا أصبح صفرًا (أو ضئيلًا) ، فإن قيمتي eigenvalues ​​للمصفوفة الفرعية في الزاوية اليمنى السفلية هي قيم eigenvalues ​​لـ. بعد ذلك ، يمكننا حذف آخر صفين وعمودين ومتابعة التكرار التالي.

نظرًا لأن الوصف الأكثر تفصيلاً للعملية التكرارية بأكملها يتجاوز نطاق هذه المساهمة ، فإننا نحيل القارئ إلى [15] لمناقشة أقصر وإلى [24] و [52] لمناقشة أكثر تفصيلاً لطريقة QR.

4.4.5 طريقة LR

تعتمد طريقة LR على ملاحظة بسيطة مفادها أن تحليل المصفوفة وضرب العوامل بالترتيب العكسي ينتج عنه مصفوفة مشابهة لـ. باستخدام تحليل LU (القسم 4.1.2) ، تبني طريقة LR سلسلة مصفوفة لأين و

أين هي مصفوفة مثلثة سفلية وهي مصفوفة مثلثة عليا بها تلك الموجودة على قطرها. بالنسبة لفئة واسعة من المصفوفات ، بما في ذلك المصفوفات المحددة الموجبة المتماثلة ، وثبت أنها تتقارب مع نفس المصفوفة المثلثية السفلية ، حيث القيم الذاتية للشكل المائل للقيمة المطلقة المتناقصة.

4.4.6 التكرارات المعكوسة

يمكن استخدام طريقة التكرارات العكسية لتحسين تقريب القيمة الذاتية لمصفوفة. تعتمد الطريقة على حقيقة أن eigenvector المرتبط هو أيضًا ناقل eigenvector المرتبط بقيمة eigenvalue. لتقريب أولي قريب من ، هي القيمة الذاتية السائدة لـ. وبالتالي ، يمكن حسابها بطريقة القوة الموصوفة في الطائفة. 4.4.1 ، حيث يمكن تعديله في كل تكرار لتحسين التقريب.

هذه الطريقة ليست فعالة للغاية بدون تقريب بداية جيد ، وبالتالي فهي غير مناسبة للتحليل الذاتي الكامل. من ناحية أخرى ، فإن استخدام طريقة الطاقة يجعلها مناسبة للبحث عن المتجه الذاتي المرتبط. وبالتالي ، فإن طريقة التكرارات العكسية غالبًا ما تكمل طرق التحليل الذاتي الكامل وتعمل بعد ذلك كأداة لتحليل المتجهات الذاتية. لهذا الغرض ، لا يتعين على المرء إجراء التحسين التكراري للأولية: تطبيق طريقة الطاقة يكفي. انظر [40،52] و [60] لمزيد من التفاصيل.


ملاحظات محاضرة للرياضيات 3410 ، مع أمثلة حسابية

لاحظ أن قيم eigenvalues ​​والمتجهات الذاتية يمكن تعريفها بسهولة لعامل خطي عام (T: V to V text <.> ) في هذا السياق ، يُشار أحيانًا إلى eigenvector ( xx ) باسم a ناقلات مميزة (أو اتجاه مميز) لـ (T text <،> ) حيث أن الخاصية (T ( xx) = lambda xx ) تنص ببساطة على أن المتجه المحول (T ( xx) ) متوازي إلى المتجه الأصلي ( xx text <.> ) بعض كتب الجبر الخطية التي تركز أكثر على التحولات الخطية العامة تؤطر هذا الموضوع في سياق فضاءات فرعية ثابتة لمشغل خطي.

المسافة الفرعية (U subseteq V ) هي ثابت فيما يتعلق بـ (T ) if (T ( uu) in U ) للجميع ( uu in U text <.> ) لاحظ أنه إذا كان ( xx ) متجهًا ذاتيًا لـ (T text <،> ) ثم ( spn < xx > ) هو فضاء فرعي ثابت. لرؤية هذا ، لاحظ أنه إذا (T ( xx) = lambda xx ) و ( yy = k xx text <،> ) إذن

لاحظ أنه إذا كان ( xx ) متجهًا ذاتيًا للمصفوفة (A text <،> ) إذن لدينا

حيث تشير (I_n ) إلى (n times n ) مصفوفة الهوية. وبالتالي ، إذا كانت ( lambda ) هي القيمة الذاتية لـ (A text <،> ) فإن أي متجه متماثل هو عنصر من ( nll (A- lambda I_n) text <.> )

التعريف 4.1.2.

لأي رقم حقيقي ( lambda ) ومصفوفة (A text <،> ) نحدد (E_ lambda (A) ) من خلال

لاحظ أنه يمكن تعريف (E_ lambda (A) ) لأي رقم حقيقي ( lambda text <،> ) سواء كان ( lambda ) قيمة ذاتية أم لا. ومع ذلك ، فإن قيم eigenvalues ​​لـ (A ) تتميز بخاصية وجود ملف غير صفرية حل ل (4.1.1). علاوة على ذلك ، نحن نعلم أن (4.1.1) يمكن أن يكون لها حلول غير بديهية فقط إذا كانت المصفوفة (A- lambda I_n ) غير قابلة للعكس. نعلم أيضًا أن (A- lambda I_n ) غير قابل للعكس إذا وفقط إذا كان ( det (A- lambda I_n) = 0 text <.> ) هذا يعطينا النظرية التالية.

نظرية 4.1.3.

ما يلي مكافئ لأي (n times n ) مصفوفة (A ) ورقم حقيقي ( lambda text <:> )

( lambda ) هي قيمة ذاتية لـ (A text <.> )

كثير الحدود (p_A (x) = det (xI_n -A) ) يسمى من (A text <.> ) (لاحظ أن ( det (x I_n-A) = (-1) ^ n det (Ax I_n) text <.> ) نختار هذا الترتيب بحيث يكون معامل (x ^ n ) دائمًا 1.) المعادلة

يسمى من (A text <.> ) حلول هذه المعادلة هي بالضبط القيم الذاتية لـ (A text <.> )

تذكر أن المصفوفة (B ) يُقال إنها مصفوفة (A ) إذا كانت هناك مصفوفة قابلة للانعكاس (P ) مثل (B = P ^ <-1> AP text <.> ) يتعلق الكثير مما يلي بمسألة ما إذا كانت (n times n ) المصفوفة (A ) معطاة أم لا.

التعريف 4.1.4.

يقال أن (n times n ) المصفوفة (A ) هي إذا كانت (A ) مشابهة لمصفوفة قطرية.

النتائج التالية ستكون مفيدة في كثير من الأحيان.

نظرية 4.1.5.

العلاقة (A sim B ) فقط إذا كان (A ) مشابهًا لـ (B ) هي علاقة تكافؤ. علاوة على ذلك ، إذا كان (A sim B text <،> ) ثم:

بمعنى آخر ، (A ) و (B ) لهما نفس المحددات ، والتتبع ، والخصائص متعددة الحدود (وبالتالي ، نفس القيم الذاتية).

دليل - إثبات .

الأولين يتبعان مباشرة من خصائص المحدد والتتبع. بالنسبة للأخير ، لاحظ أنه إذا (B = P ^ <-1> AP text <،> ) ثم

لذلك (xI_n-B sim xI_n-A text <،> ) وبالتالي ( det (xI_n-B) = det (xI_n-A) text <.> )

مثال 4.1.6.

حدد القيم الذاتية والمتجهات الذاتية لـ (A = bbm 0 amp 1 amp 1 1 amp 0 amp 1 1 amp 1 amp 0 ebm text <.> )

نبدأ مع كثير الحدود المميز. لدينا

جذور كثير الحدود المميز هي قيمنا الذاتية ، لذلك لدينا ( lambda_1 = -1 ) و ( lambda_2 = 2 نص <.> ) لاحظ أن القيمة الذاتية الأولى تأتي من جذر متكرر. هذا أمر نموذجي حيث تصبح الأشياء مثيرة للاهتمام. إذا لم تأتي قيمة eigenvalue من جذر متكرر ، فلن يكون هناك سوى متجه واحد (مستقل) يتوافق معها. (أي ، ( dim E_ lambda (A) = 1 text <.> )) إذا تكررت قيمة eigenvalue ، يمكن أن تحتوي على أكثر من متجه واحد ، لكن هذا غير مضمون.

نجد أن (A - (- 1) I_n = bbm 1 amp 1 amp 1 1 amp 1 amp 1 1 amp 1 amp 1 ebm text <،> ) تم تقليل شكل الصفوف ( bbm 1 amp 1 amp 1 0 amp 0 amp 0 0 amp 0 amp 0 ebm text <.> ) حل الفراغ الفارغ ، نحن تجد أن هناك نوعين من المتجهات الذاتية المستقلة:

بالنسبة إلى eigenvector الثاني ، لدينا (A-2I = bbm -2 amp 1 amp 1 1 amp -2 amp 1 1 amp 1 amp -2 ebm text <،> ) الذي قلل من شكل مستوى الصف ( bbm 1 amp 0 amp -1 0 amp 1 amp -1 0 amp 0 amp 0 ebm text <.> ) يتم إعطاء eigenvector في هذه الحالة بواسطة

بشكل عام ، إذا كان من الممكن تحليل كثير الحدود المميز كـ (p_A (x) = (x- lambda) ^ mq (x) text <،> ) حيث (q (x) ) غير قابل للقسمة على (x- lambda text <،> ) ثم نقول أن ( lambda ) هي قيمة ذاتية لـ (m text <.> ) النتيجة الرئيسية هي التالية.

نظرية 4.1.7.

لنفترض أن ( lambda ) قيمة ذاتية لـ (A ) للتعددية (m text <.> ) ثم ( dim E_ lambda (A) leq m text <.> )

تشير بعض الكتب المدرسية إلى تعدد (م ) قيمة eigenvalue كـ تعدد جبري من ( lambda text <،> ) والرقم ( dim E_ lambda (A) ) مثل تعدد هندسي من ( لامدا نص <.> )

لإثبات النظرية 4.1.7 نحتاج إلى اللمة التالية ، من القسم 5.5 من كتاب نيكولسون المدرسي.

Lemma 4.1.8.2 تحديث

لنفترض أن ( < xx_1 ، ldots ، xx_k > ) مجموعة من المتجهات الذاتية المستقلة خطيًا لمصفوفة (A text <،> ) مع قيم eigenvalues ​​المقابلة ( lambda_1 ، ldots ، lambda_k ) (ليس بالضرورة مميزًا). توسيع هذه المجموعة إلى أساس ( < xx_1، ldots، xx_k، xx_، ldots، xx_n > text <،> ) ودعنا (P = bbm xx_1 amp cdots amp xx_n ebm ) هي المصفوفة التي تمثل أعمدتها المتجهات الأساسية. (لاحظ أن (P ) قابل للعكس بالضرورة.) ثم

حيث (B ) له حجم (ك مرات (n-k) نص <،> ) و (A_1 ) له حجم ((n-k) مرات (n-k) نص <.> )

دليل - إثبات .

بالنسبة إلى (1 leq i leq k text <،> ) لدينا

لكن (P ^ <-1> xx_i ) هو العمود (i ) من (P ^ <-1> P = I_n text <،> ) والذي يثبت النتيجة.

يمكننا استخدام Lemma 4.1.8 لإثبات أن ( dim E_ lambda (A) leq m ) على النحو التالي. لنفترض أن ( < xx_1 ، ldots ، xx_k > ) هو أساس لـ (E_ lambda (A) text <.> ) فهذه مجموعة مستقلة خطيًا من المتجهات الذاتية ، لذلك يضمن ليما وجود مصفوفة (ف ) مثل ذلك

يوضح هذا أن (c_A (x) ) قابل للقسمة على ((x- lambda) ^ k text <.> ) نظرًا لأن (m ) هو أكبر عدد صحيح مثل (c_A (x) ) قابل للقسمة على ((x- lambda) ^ m text <،> ) يجب أن يكون لدينا ( dim E_ lambda (A) = k leq m text <.> )

توفر النظرية 4.1.7 معيارًا أوليًا للقطر: إذا كان بُعد كل مساحة eigenspace (E_ lambda (A) ) يساوي تعدد ( lambda text <،> ) ثم (A ) قطري. تعتمد حقيقة هذا البيان على حقيقة إضافية واحدة: أي مجموعة من المتجهات الذاتية المقابلة لـ خامد قيم eigenvalues ​​مستقلة خطيًا. الدليل على هذه الحقيقة هو دليل مباشر نسبيًا عن طريق الاستقراء. يمكن العثور عليها في القسم 5.5 من Nicholson لأولئك المهتمين. ومع ذلك ، فإن تركيزنا لبقية القسم سيكون على قطرية متماثل المصفوفات ، وسرعان ما سنرى أنه بالنسبة لمثل هذه المصفوفات ، فإن المتجهات الذاتية المقابلة لقيم eigenvalues ​​المختلفة هي ، في الواقع ، متعامد.


حل ODEs

يمكن استخدام القيم الذاتية والمتجهات الذاتية كطريقة لحل الأنظمة الخطية للمعادلات التفاضلية العادية (ODEs). هذه الطريقة مباشرة إلى حد ما وليست مملة للغاية بالنسبة للأنظمة الأصغر. راجع طريقة Eigenvector Eigenvalue لحل الأنظمة يدويًا و Linearizing ODEs لمراجعة مصفوفة الجبر الخطي / Jacobian. ومع ذلك ، عند محاولة حل أنظمة كبيرة من ODE ، فمن الأفضل عادةً استخدام نوع من برامج الكمبيوتر الرياضية. Mathematica هو برنامج يمكن استخدامه لحل أنظمة المعادلات التفاضلية العادية عندما يكون القيام بها يدويًا أمرًا مملاً للغاية. بمجرد أن يتغلب المرء على بناء جملة ماثيماتيكا ، يصبح حل أنظمة هائلة من المعادلات التفاضلية الخطية العادية قطعة من الكعكة!

استخدام القيم الذاتية لحل نظام

سيتم حل النظام الخطي يدويًا واستخدام تعبير القيم الذاتية [] في Mathematica في وقت واحد. لاحظ أنه في مدخلات Mathematica أدناه ، لم يتم كتابة & quotIn []: = & quot حرفيا في البرنامج ، فقط ما بعده. الصيغة المطلوب كتابتها هي السطر التالي & quotIn [] = & quot. يستخدم المصطلح هنا لتوضيح البرمجة بشكل أكثر دقة في الرياضيات. لإيجاد حل عام للنظام الخطي للمعادلة التفاضلية العادية:

نضع النظام أولاً في شكل مصفوفة:

في mathematica ، يمكننا استخدام الكود التالي لتمثيل A:

في [1]: = MatrixForm [<< 4،8> ، <10،2 >>]
خارج [1]: =

قيم eigenvalues ​​و lambda1 و & لامدا2، باستخدام المعادلة المميزة للمصفوفة A ، det (A- & lambdaI) = 0.

يمكننا استخدام Mathematica للعثور على قيم eigenvalues ​​باستخدام الكود التالي:

الآن ، لكل eigenvalue (& lambda1= 12 و لامدا2= -6) ، يمكن العثور على ناقل eigenvector المرتبط به باستخدام ، أين هو ناقل eigenvector من هذا القبيل

سيؤدي ذلك إلى المعادلتين (1) و (2):

(1)

(2)

في [3]: = eqn1 = -8x + 8y == 0
في [4]: ​​= eqn2 = 10x-10y == 0

خارج [5]: =
المعادلات (1) & amp (2) تؤدي إلى الحل

سيؤدي ذلك إلى المعادلتين (3) و (4):

(3)

(4)

في [6]: = eqn3 = 10x + 8y == 0
في [7]: = eqn4 = 10x + 8y == 0

المعادلات (3) و (4) تؤدي إلى الحل .

أذكر أن اتجاه متجه مثل هو نفس المتجه أو أي مضاعف عددي آخر. لذلك ، للحصول على eigenvector ، نحن أحرار في اختيار إما القيمة x أو y.

ط) ل & لامدا1 = 12
لقد وصلنا إلى ذ = x. كما ذكرنا سابقًا ، لدينا درجة من الحرية في الاختيار بين x أو y. لنفترض أن & rsquos x = 1. ثم y = 1 والمتجه الذاتي المرتبطة بـ eigenvalue & lambda1 يكون

ب) ل & لامدا2 = & ناقص 6
لقد وصلنا إلى . لنفترض أن x = 4. ثم y = -5 والمتجه الذاتي المرتبط بقيمة eigenvalue & lambda2 يكون .

ينتج عن هاتين القيمتين الذاتية والمتجهات الذاتية المرتبطة الحل:

ومن ثم فإن الحل العام للنظام الخطي في الشكل القياسي هو:

حل نظام باستخدام DSolve

باستخدام نفس النظام الخطي للمعادلات التفاضلية العادية:

نقوم بإدخال المعادلات التفاضلية إلى Mathematica باستخدام الأمر التالي:

حيث x '[t] = و y '[t] =

بعد إدخال المعادلات ، نستخدم وظيفة DSolve:

ستخرج ماثيماتيكا الحل:

هذه المجموعة من المعادلات ، على الرغم من أنها تبدو أكثر تعقيدًا من الأولى ، إلا أنها في الواقع هي نفسها.


ملاحظات محاضرة للرياضيات 3410 ، مع أمثلة حسابية

لاحظ أن قيم eigenvalues ​​والمتجهات الذاتية يمكن تعريفها بسهولة لعامل خطي عام (T: V to V text <.> ) في هذا السياق ، يُشار أحيانًا إلى eigenvector ( xx ) باسم a ناقلات مميزة (أو اتجاه مميز) لـ (T text <،> ) حيث أن الخاصية (T ( xx) = lambda xx ) تنص ببساطة على أن المتجه المحول (T ( xx) ) متوازي إلى المتجه الأصلي ( xx text <.> ) بعض كتب الجبر الخطية التي تركز أكثر على التحولات الخطية العامة تؤطر هذا الموضوع في سياق فضاءات فرعية ثابتة لمشغل خطي.

المسافة الفرعية (U subseteq V ) هي ثابت فيما يتعلق بـ (T ) if (T ( uu) in U ) للجميع ( uu in U text <.> ) لاحظ أنه إذا كان ( xx ) متجهًا ذاتيًا لـ (T text <،> ) ثم ( spn < xx > ) هو فضاء فرعي ثابت. لرؤية هذا ، لاحظ أنه إذا (T ( xx) = lambda xx ) و ( yy = k xx text <،> ) إذن

لاحظ أنه إذا كان ( xx ) متجهًا ذاتيًا للمصفوفة (A text <،> ) إذن لدينا

حيث تشير (I_n ) إلى (n times n ) مصفوفة الهوية. وبالتالي ، إذا كانت ( lambda ) هي القيمة الذاتية لـ (A text <،> ) فإن أي متجه متماثل هو عنصر من ( nll (A- lambda I_n) text <.> )

التعريف 4.1.2.

لأي رقم حقيقي ( lambda ) ومصفوفة (A text <،> ) نحدد (E_ lambda (A) ) من خلال

لاحظ أنه يمكن تعريف (E_ lambda (A) ) لأي رقم حقيقي ( lambda text <،> ) سواء كان ( lambda ) قيمة ذاتية أم لا. ومع ذلك ، فإن قيم eigenvalues ​​لـ (A ) تتميز بخاصية وجود ملف غير صفرية حل ل (4.1.1). علاوة على ذلك ، نحن نعلم أن (4.1.1) يمكن أن يكون لها حلول غير بديهية فقط إذا كانت المصفوفة (A- lambda I_n ) غير قابلة للعكس. نعلم أيضًا أن (A- lambda I_n ) غير قابل للعكس إذا وفقط إذا كان ( det (A- lambda I_n) = 0 text <.> ) هذا يعطينا النظرية التالية.

نظرية 4.1.3.

ما يلي مكافئ لأي (n times n ) مصفوفة (A ) ورقم حقيقي ( lambda text <:> )

( lambda ) هي قيمة ذاتية لـ (A text <.> )

كثير الحدود (p_A (x) = det (xI_n -A) ) يسمى من (A text <.> ) (لاحظ أن ( det (x I_n-A) = (-1) ^ n det (Ax I_n) text <.> ) نختار هذا الترتيب بحيث يكون معامل (x ^ n ) دائمًا 1.) المعادلة

يسمى من (A text <.> ) حلول هذه المعادلة هي بالضبط القيم الذاتية لـ (A text <.> )

تذكر أن المصفوفة (B ) يُقال إنها مصفوفة (A ) إذا كانت هناك مصفوفة قابلة للانعكاس (P ) مثل (B = P ^ <-1> AP text <.> ) يتعلق الكثير مما يلي بمسألة ما إذا كانت (n times n ) المصفوفة (A ) معطاة أم لا.

التعريف 4.1.4.

يقال أن (n times n ) المصفوفة (A ) هي إذا كانت (A ) مشابهة لمصفوفة قطرية.

النتائج التالية ستكون مفيدة في كثير من الأحيان.

نظرية 4.1.5.

العلاقة (A sim B ) فقط إذا كان (A ) مشابهًا لـ (B ) هي علاقة تكافؤ. علاوة على ذلك ، إذا كان (A sim B text <،> ) ثم:

بمعنى آخر ، (A ) و (B ) لهما نفس المحددات ، والتتبع ، والخصائص متعددة الحدود (وبالتالي ، نفس القيم الذاتية).

دليل - إثبات .

الأولين يتبعان مباشرة من خصائص المحدد والتتبع. بالنسبة للأخير ، لاحظ أنه إذا (B = P ^ <-1> AP text <،> ) ثم

لذلك (xI_n-B sim xI_n-A text <،> ) وبالتالي ( det (xI_n-B) = det (xI_n-A) text <.> )

مثال 4.1.6.

حدد القيم الذاتية والمتجهات الذاتية لـ (A = bbm 0 amp 1 amp 1 1 amp 0 amp 1 1 amp 1 amp 0 ebm text <.> )

نبدأ مع كثير الحدود المميز. لدينا

جذور كثير الحدود المميز هي قيمنا الذاتية ، لذلك لدينا ( lambda_1 = -1 ) و ( lambda_2 = 2 نص <.> ) لاحظ أن القيمة الذاتية الأولى تأتي من جذر متكرر. هذا هو المكان الذي تصبح فيه الأشياء مثيرة للاهتمام. إذا لم تأتي قيمة eigenvalue من جذر متكرر ، فلن يكون هناك سوى متجه واحد (مستقل) يتوافق معها. (أي ، ( dim E_ lambda (A) = 1 text <.> )) إذا تكررت قيمة eigenvalue ، يمكن أن تحتوي على أكثر من متجه واحد ، لكن هذا غير مضمون.

نجد أن (A - (- 1) I_n = bbm 1 amp 1 amp 1 1 amp 1 amp 1 1 amp 1 amp 1 ebm text <،> ) has reduced row-echelon form (bm 1amp 1amp 1amp 0amp 0amp 0amp 0ebm ext<.>) Solving for the nullspace, we find that there are two independent eigenvectors:

For the second eigenvector, we have (A-2I = bm -2amp 1amp 11amp -2amp 11amp 1amp -2ebm ext<,>) which has reduced row-echelon form (bm 1amp 0amp -1amp 1amp -1amp 0amp 0ebm ext<.>) An eigenvector in this case is given by

In general, if the characteristic polynomial can be factored as

where (q(x)) is not divisible by (x-lambda ext<,>) then we say that (lambda) is an eigenvalue of (m ext<.>) A main result is the following.

Theorem 4.1.7 .

Let (lambda) be an eigenvalue of (A) of multiplicity (m ext<.>) Then (dim E_lambda(A)leq m ext<.>)

Some textbooks refer to the multiplicity (m) of an eigenvalue as the algebraic multiplicity of (lambda ext<,>) and the number (dim E_lambda(A)) as the geometric multiplicity of (lambda ext<.>)

To prove Theorem 4.1.7 we need the following lemma, from Section 5.5 of Nicholson's textbook.

Lemma 4.1.8 .

Let () be a set of linearly independent eigenvectors of a matrix (A ext<,>) with corresponding eigenvalues (lambda_1,ldots, lambda_k) (not necessarily distinct). Extend this set to a basis (,ldots, xx_n> ext<,>) and let (P=bm xx_1amp cdots amp xx_nebm) be the matrix whose columns are the basis vectors. (Note that (P) is necessarily invertible.) Then

where (B) has size (k imes (n-k) ext<,>) and (A_1) has size ((n-k) imes (n-k) ext<.>)

دليل - إثبات .

For (1leq ileq k ext<,>) we have

But (P^<-1>xx_i) is the (i)th column of (P^<-1>P = I_n ext<,>) which proves the result.

We can use Lemma 4.1.8 to prove that (dim E_lambda(A)leq m) as follows. Suppose () is a basis for (E_lambda(A) ext<.>) Then this is a linearly independent set of eigenvectors, so our lemma guarantees the existence of a matrix (P) such that

This shows that (c_A(x)) is divisible by ((x-lambda)^k ext<.>) Since (m) is the largest integer such that (c_A(x)) is divisible by ((x-lambda)^m ext<,>) we must have (dim E_lambda(A)=kleq m ext<.>)

Theorem 4.1.7 provides an initial criterion for diagonalization: if the dimension of each eigenspace (E_lambda(A)) is equal to the multiplicity of (lambda ext<,>) then (A) is diagonalizable. The truth of this statement relies on one additional fact: any set of eigenvectors corresponding to distinct eigenvalues is linearly independent. The proof of this fact is a relatively straightforward proof by induction. It can be found in Section 5.5 of Nicholson for those who are interested. However, our focus for the remainder of the section will be on diagonalization of متماثل matrices, and soon we will see that for such matrices, eigenvectors corresponding to different eigenvalues are, in fact, orthogonal.


Population Growth modelling

In the 1940’s P.H Leslie found a way for modelling population growth with which we can find to a relatively accurate degree the population growth. The Leslie matrix functions on the probability of the rate of reproduction and chance of survival of the particular specie we are dealing with. The Leslie matrix is formed by putting in the respective values in the matrix

where n is the number of stages we have divided the population in, F is the number of females in the population and P is the probability of the members belonging to 1 stage of the population to go to the next. We only take the female population because they are the ones responsible with reproduction in a given population. We substitute this matrix in the matrix equation

The value k in this matrix represents the year after which we are dealing with the initial population and n is the number of stages the population is divided in. This equation is obtained by the logic that

وهكذا. Although with this matrix equation we can easily calculate the population growth but for large values of k, a large number of calculations is required and hence we find the eigenvectors and the corresponding eigenvalues of the system. Through this we get the general trend in which the system is growing and ultimately we can easily calculate the value of xₖ for large values of k.


Computing Eigenvalues and Eigenvectors

It is not too difficult to compute eigenvalues and their corresponding eigenvectors when the matrix transformation at hand has a clear geometric interpretation. For examples, consider the diagonal matrix discussed above and the reflection matrix below:

For arbitrary matrices, however, a more general procedure is necessary.

In computations, the characteristic polynomial is extremely useful. To determine the eigenvalues of a matrix A A A , one solves for the roots of p A ( x ) p_ (x) p A ​ ( x ) , and then checks if each root is an eigenvalue.


شاهد الفيديو: قصيدة ابن القيم في الرد على النصارى (شهر اكتوبر 2021).