مقالات

8.5: حساب القيم الذاتية - الرياضيات


من الناحية العملية ، لا يتم حل مشكلة إيجاد القيم الذاتية لمصفوفة من خلال إيجاد جذور كثير الحدود المميز. هذا صعب للمصفوفات الكبيرة والطرق التكرارية أفضل بكثير. يتم وصف طريقتين من هذا القبيل باختصار في هذا القسم.

طريقة الطاقة

في الفصل [الفصل: 3] كان الأساس المنطقي الأولي لتقطير المصفوفات هو القدرة على حساب قوى المصفوفة المربعة ، وكانت هناك حاجة إلى القيم الذاتية للقيام بذلك. في هذا القسم ، نحن مهتمون بحساب قيم eigenvalues ​​بكفاءة ، وقد لا يكون مفاجئًا أن الطريقة الأولى التي نناقشها تستخدم قوى المصفوفة.

تذكر أن قيمة eigenvalue ( lambda ) (n times n ) مصفوفة (A ) تسمى القيمة الذاتية السائدة إذا كان ( لامدا ) به تعدد (1 ) ، و [| لامدا | > | mu | quad mbox {لجميع قيم eigenvalues} mu neq lambda ] أي ناقل eigenvector مطابق يسمى ناقل eigenvector السائد من (أ ). عندما توجد مثل هذه القيمة الذاتية ، فإن إحدى التقنيات للعثور عليها هي كما يلي: دع ( vect {x} _ {0} ) في ( RR ^ n ) يكون أول تقريب لموجه eigenvector سائد ( lambda ) ، وحساب التقديرات المتتالية ( vect {x} _ {1} ، vect {x} _ {2} ، dots ) ​​على النحو التالي: [ vect {x} _ {1} = A vect {x} _ {0} quad vect {x} _ {2} = A vect {x} _ {1} quad vect {x} _ {3} = A vect {x} _ { 2} quad cdots ] بشكل عام ، نحدد [ vect {x} _ {k + 1} = A vect {x} _ {k} quad mbox {for each} k geq 0 ] إذا كان التقدير الأول ( vect {x} _ {0} ) جيدًا بما فيه الكفاية ، فإن هذه المتجهات ( vect {x} _ {n} ) ستقارب eigenvector السائد ( lambda ) (انظر أقل). هذه التقنية تسمى طريقة الطاقة (لأن ( vect {x} _ {k} = A ^ {k} vect {x} _ {0} ) لكل (k geq 1 )). لاحظ أنه إذا كان ( vect {z} ) هو أي متجه eigenvector مطابق لـ ( lambda ) ، إذن [ frac { vect {z} dotprod (A vect {z})} { vectlength vect {z} vectlength ^ 2} = frac { vect {z} dotprod ( lambda vect {z})} { vectlength vect {z} vectlength ^ 2} = lambda ] لأن المتجهات ( vect {x} _ {1} ، vect {x} _ {2} ، dots ، vect {x} _ {n} ، dots ) ​​تقريبيًا للمتجهات الذاتية السائدة ، وهذا يشير إلى أننا نحدد قواسم رايلي على النحو التالي: [r_ {k} = frac { vect {x} _ {k} dotprod vect {x} _ {k + 1}} { vectlength vect {x} _ {k} vectlength ^ 2} quad mbox {for} k geq 1 ] ثم الأرقام (r_ {k} ) تقارب القيمة الذاتية السائدة ( lambda ).

025326 استخدم طريقة الطاقة لتقريب موجه eigenvector السائد والقيمة الذاتية لـ (A = leftB start {array} {rr} 1 & 1 2 & 0 end {array} rightB ).

القيم الذاتية لـ (A ) هي (2 ) و (- 1 ) ، مع المتجهات الذاتية ( leftB begin {array} {rr} 1 1 end {array} rightB ) و ( leftB start {array} {rr} 1 -2 end {array} rightB ). خذ ( vect {x} _ {0} = leftB start {array} {rr} 1 0 end {array} rightB ) كأول تقدير تقريبي واحسب ( vect {x} _ {1} ، vect {x} _ {2} ، dots ، ) على التوالي ، من ( vect {x} _ {1} = A vect {x} _ {0} ، vect {x} _ {2} = A vect {x} _ {1} ، dots ). النتيجة هي [ vect {x} _ {1} = leftB start {array} {rr} 1 2 end {array} rightB، vect {x} _ {2} = leftB ابدأ {مجموعة} {rr} 3 2 end {array} rightB، vect {x} _ {3} = leftB start {array} {rr} 5 6 end {array} rightB، vect {x} _ {4} = leftB start {array} {rr} 11 10 end {array} rightB، vect {x} _ {3} = leftB ابدأ {مجموعة} {rr} 21 22 end {array} rightB، dots ] هذه المتجهات تقترب من المضاعفات العددية للمتجه الذاتي السائد ( leftB start {array} {rr} 1 1 نهاية {مجموعة} rightB ). علاوة على ذلك ، فإن حاصل قسمة رايلي هو [r_ {1} = frac {7} {5} ، r_ {2} = frac {27} {13} ، r_ {3} = frac {115} {61} ، r_ {4} = frac {451} {221} ، dots ] وهذه تقترب من القيمة الذاتية السائدة (2 ).

لمعرفة سبب نجاح طريقة الطاقة ، دع ( lambda_ {1}، lambda_ {2}، dots، lambda_ {m} ) تكون قيمًا ذاتية لـ (A ) مع ( lambda_ {1} ) المسيطر وليكن ( vect {y} _ {1} ، vect {y} _ {2} ، dots ، vect {y} _ {m} ) متجهات ذاتية مقابلة. المطلوب هو أن يكون التقريب الأول ( vect {x} _ {0} ) مزيجًا خطيًا من هذه المتجهات الذاتية: [ vect {x} _ {0} = a_ {1} vect {y} _ {1} + a_ {2} vect {y} _ {2} + dots + a_ {m} vect {y} _ {m} quad mbox {with} a_ {1} neq 0 ] إذا (k geq 1 ) ، فإن حقيقة أن ( vect {x} _ {k} = A ^ {k} vect {x} _ {0} ) و (A ^ k vect {y} _ {i} = lambda_ {i} ^ k vect {y} _ {i} ) لكل (i ) يعطي [ vect {x} _ {k} = a_ {1} lambda_ {1} ^ k vect {y} _ {1} + a_ {2} lambda_ {2} ^ k vect {y} _ {2} + dots + a_ {m} lambda_ {m} ^ k vect {y} _ {m} quad mbox {for} k geq 1 ] ومن هنا [ frac {1} { lambda_ {1} ^ k} vect {x} _ {k} = a_ {1} vect {y} _ {1} + a_ {2} left ( frac { lambda_ {2}} { lambda_ {1}} right) ^ k vect {y} _ { 2} + dots + a_ {m} left ( frac { lambda_ {m}} { lambda_ {1}} right) ^ k vect {y} _ {m} ] الجانب الأيمن يقترب (a_ {1} vect {y} _ {1} ) حيث يزيد (k ) لأن ( lambda_ {1} ) مهيمن ( left ( left | frac { lambda_ {i }} { lambda_ {1}} right | <1 mbox {for each} i> 1 right) ). نظرًا لأن (a_ {1} neq 0 ) ، فإن هذا يعني أن ( vect {x} _ {k} ) يقارب eigenvector السائد (a_ {1} lambda_ {1} ^ k vect {y } _ {1} ).

تتطلب طريقة الطاقة أن يكون التقريب الأول ( vect {x} _ {0} ) مزيجًا خطيًا من المتجهات الذاتية. (في المثال [exa: 025326] تشكل المتجهات الذاتية أساس ( RR ^ 2 ).) ولكن حتى في هذه الحالة تفشل الطريقة إذا (a_ {1} = 0 ) ، حيث (a_ {1 } ) هو معامل eigenvector السائد (حاول ( vect {x} _ {0} = leftB begin {array} {rr} -1 2 end {array} rightB ) في المثال [exa: 025326]). بشكل عام ، يكون معدل التقارب بطيئًا جدًا إذا كانت أي من النسب ( left | frac { lambda_ {i}} { lambda_ {1}} right | ) قريبة من (1 ). أيضًا ، نظرًا لأن الطريقة تتطلب عمليات الضرب المتكررة بواسطة (A ) ، فلا يوصى بها إلا إذا كان من السهل تنفيذ هذه المضاعفات (على سبيل المثال ، إذا كانت معظم إدخالات (A ) صفرًا).

خوارزمية QR

طريقة أفضل بكثير لتقريب قيم eigenvalues ​​لمصفوفة معكوسة (A ) تعتمد على عامل (باستخدام خوارزمية جرام شميدت) لـ (A ) في النموذج [A = QR ] حيث (Q ) متعامد و (R ) مقلوب ومثلث علوي (انظر النظرية [thm: 025166]). ال خوارزمية QR يستخدم هذا بشكل متكرر لإنشاء سلسلة من المصفوفات (A_ {1} = A ، A_ {2} ، A_ {3} ، dots ، ) على النحو التالي:

  1. حدد (A_ {1} = A ) وعاملها كـ (A_ {1} = Q_ {1} R_ {1} ).

  2. حدد (A_ {2} = R_ {1} Q_ {1} ) وعاملها كـ (A_ {2} = Q_ {2} R_ {2} ).

  3. حدد (A_ {3} = R_ {2} Q_ {2} ) وعاملها كـ (A_ {3} = Q_ {3} R_ {3} ).
    ( vdots )

بشكل عام ، يتم تحليل (A_ {k} ) إلى عوامل كـ (A_ {k} = Q_ {k} R_ {k} ) ونعرف (A_ {k + 1} = R_ {k} Q_ {k } ). إذن (A_ {k + 1} ) مشابه لـ (A_ {k} ) [في الواقع ، (A_ {k + 1} = R_ {k} Q_ {k} = (Q_ {k} ^ {-1} A_ {k}) Q_ {k} )] ، ومن ثم فإن كل (A_ {k} ) له نفس القيم الذاتية مثل (A ). إذا كانت قيم eigenvalues ​​لـ (A ) حقيقية ولها قيم مطلقة مميزة ، فالشيء الملحوظ هو أن تسلسل المصفوفات (A_ {1} ، A_ {2} ، A_ {3} ، dots ) ​​يتقارب مع مصفوفة مثلثة علوية مع هذه القيم الذاتية على القطر الرئيسي. [انظر أدناه للاطلاع على حالة قيم eigenvalues ​​المعقدة.]

025425 إذا (A = leftB start {array} {rr} 1 & 1 2 & 0 end {array} rightB ) كما في المثال [exa: 025326] ، استخدم خوارزمية QR لتقريب القيم الذاتية.

المصفوفات (A_ {1} ) و (A_ {2} ) و (A_ {3} ) كالتالي: [ start {align} A_ {1} = & leftB begin {array} {rr} 1 & 1 2 & 0 end {array} rightB = Q_ {1} R_ {1} quad mbox {where} Q_ {1} = frac {1} { sqrt {5}} leftB start {array} {rr} 1 & 2 2 & -1 end {array} rightB mbox {and} R_ {1} = frac {1} { sqrt {5 }} leftB start {array} {rr} 5 & 1 0 & 2 end {array} rightB A_ {2} = & frac {1} {5} leftB start {array} {rr} 7 & 9 4 & -2 end {array} rightB = leftB begin {array} {rr} 1.4 & -1.8 -0.8 & -0.4 end {array} rightB = Q_ {2} R_ {2} & mbox {where} Q_ {2} = frac {1} { sqrt {65}} leftB start {array} {rr} 7 & 4 4 & - 7 end {array} rightB mbox {and} R_ {2} = frac {1} { sqrt {65}} leftB start {array} {rr} 13 & 11 0 & 10 end {array} rightB A_ {3} = & frac {1} {13} leftB start {array} {rr} 27 & -5 8 & -14 end {array} rightB = leftB start {array} {rr} 2.08 & -0.38 0.62 & -1.08 end {array} rightB end {align} ] هذا يتقارب مع ( leftB start {array} {rr} 2 & ast 0 & -1 end {arra y} rightB ) وكذلك تقريب قيم eigenvalues ​​ (2 ) و (- 1 ) على القطر الرئيسي.

إنه خارج نطاق هذا الكتاب لمتابعة مناقشة مفصلة لهذه الأساليب. تمت إحالة القارئ إلى J.M. Wilkinson ، مشكلة القيمة الذاتية الجبرية (أكسفورد ، إنجلترا: مطبعة جامعة أكسفورد ، 1965) أو جي دبليو ستيوارت ، مقدمة في حسابات المصفوفة (نيويورك: مطبعة أكاديمية ، 1973). نختتم ببعض الملاحظات على خوارزمية QR.

التحول. يتم تسريع التقارب إذا تم اختيار رقم (s_ {k} ) في المرحلة (k ) من الخوارزمية وتم أخذ (A_ {k} - s_ {k} I ) في الشكل ( Q_ {k} R_ {k} ) بدلاً من (A_ {k} ) نفسها. ثم [Q_ {k} ^ {- 1} A_ {k} Q_ {k} = Q_ {k} ^ {- 1} (Q_ {k} R_ {k} + s_ {k} I) Q_ {k} = R_ {k} Q_ {k} + s_ {k} I ] لذلك نأخذ (A_ {k + 1} = R_ {k} Q_ {k} + s_ {k} I ). إذا تم اختيار التحولات (s_ {k} ) بعناية ، فيمكن تحسين التقارب بشكل كبير.

التحضير الأولي. مصفوفة مثل [ leftB begin {array} {rrrrr} ast & ast & ast & ast & ast ast & ast & ast & ast & ast 0 & ast & ast & ast & ast 0 & 0 & ast & ast & ast 0 & 0 & 0 & ast & ast end {array} rightB ] هي يقال أنه في العلوي هيسنبرغ الشكل ، ويتم تبسيط معاملات QR لمثل هذه المصفوفات إلى حد كبير. إعطاء (n times n ) مصفوفة (A ) ، سلسلة من المصفوفات المتعامدة (H_ {1} ، H_ {2} ، dots ، H_ {m} ) (تسمى مصفوفات رب الأسرة) بسهولة بحيث يكون [B = H_ {m} ^ T cdots H_ {1} ^ TAH_ {1} cdots H_ {m} ] في شكل Hessenberg العلوي. ثم يمكن تطبيق خوارزمية QR بكفاءة على (B ) ولأن (B ) يشبه (A ) ، فإنه ينتج القيم الذاتية لـ (A ).

القيم الذاتية المعقدة. إذا كانت بعض قيم eigenvalues ​​لمصفوفة حقيقية (A ) غير حقيقية ، فإن خوارزمية QR تتقارب إلى كتلة مصفوفة مثلثة عليا حيث تكون الكتل القطرية إما (1 times 1 ) (قيم eigenvalues ​​الحقيقية) أو (2 مرات 2 ) (كل منها يوفر زوجًا من قيم eigenvalues ​​المعقدة المترافقة لـ (A )).

تمارين ل 1

حلول

2

في كل حالة ، ابحث عن القيم الذاتية الدقيقة وحدد المتجهات الذاتية المقابلة. ثم ابدأ بـ ( vect {x} _ {0} = leftB start {array} {rr} 1 1 end {array} rightB ) واحسب ( vect {x} _ {4 } ) و (r_ {3} ) باستخدام طريقة الطاقة.

(A = leftB start {array} {rr} 2 & -4 -3 & 3 end {array} rightB ) (A = leftB begin {array} {rr} 5 & 2 -3 & -2 end {array} rightB ) (A = leftB start {array} {rr} 1 & 2 2 & 1 end {array} rightB ) (A = leftB start {array} {rr} 3 & 1 1 & 0 end {array} rightB )

  1. القيم الذاتية (4 ) ، (- 1 ) ؛ المتجهات الذاتية ( leftB begin {array} {rr} 2 -1 end {array} rightB ) ، ( leftB begin {array} {rr} 1 -3 end {array} حق ب ) ؛ ( vect {x} _ {4} = leftB start {array} {rr} 409 -203 end {array} rightB )؛ (r_ {3} = 3.94 )

  2. القيم الذاتية ( lambda_ {1} = frac {1} {2} (3 + sqrt {13}) ) ، ( lambda_ {2} = frac {1} {2} (3 - sqrt {13}) ) ؛ المتجهات الذاتية ( leftB begin {array} {c} lambda_ {1} 1 end {array} rightB ) ، ( leftB begin {array} {c} lambda_ {2} 1 نهاية {مجموعة} rightB ) ؛ ( vect {x} _ {4} = leftB start {array} {rr} 142 43 end {array} rightB )؛ (r_ {3} = 3.3027750 ) (القيمة الحقيقية هي ( lambda_ {1} = 3.3027756 ) ، حتى سبعة منازل عشرية.)

في كل حالة ، ابحث عن القيم الذاتية الدقيقة ثم قم بتقريبها باستخدام خوارزمية QR.

(A = leftB start {array} {rr} 1 & 1 1 & 0 end {array} rightB ) (A = leftB begin {array} {rr} 3 & 1 1 & 0 نهاية {مجموعة} يمين ب )

  1. (A_ {1} = leftB start {array} {rr} 3 & 1 1 & 0 end {array} rightB )، (Q_ {1} = frac {1} { sqrt {10}} leftB start {array} {rr} 3 & -1 1 & 3 end {array} rightB ) ، (R_ {1} = frac {1} { sqrt {10 }} leftB start {array} {rr} 10 & 3 0 & -1 end {array} rightB )
    (A_ {2} = frac {1} {10} leftB start {array} {rr} 33 & -1 -1 & -3 end {array} rightB ) ،
    (Q_ {2} = frac {1} { sqrt {1090}} leftB start {array} {rr} 33 & 1 -1 & 33 end {array} rightB ) ،
    (R_ {2} = frac {1} { sqrt {1090}} leftB start {array} {rr} 109 & -3 0 & -10 end {array} rightB )
    (A_ {3} = frac {1} {109} leftB start {array} {rr} 360 & 1 1 & -33 end {array} rightB )
    ({} = leftB start {array} {rr} 3.302775 & 0.009174 0.009174 & -0.302775 end {array} rightB )

تطبيق طريقة الطاقة على
(A = leftB start {array} {rr} 0 & 1 -1 & 0 end {array} rightB ) ، بدءًا من ( vect {x} _ {0} = leftB ابدأ {مجموعة} {rr} 1 1 end {array} rightB ). هل تتلاقى؟ يشرح.

إذا كان (A ) متماثلًا ، أظهر أن كل مصفوفة (A_ {k} ) في خوارزمية QR متماثلة أيضًا. استنتج أنها تتلاقى مع مصفوفة قطرية.

استخدم الاستقراء في (ك ). إذا (ك = 1 ) ، (أ_ {1} = أ ). بشكل عام (A_ {k + 1} = Q_ {k} ^ {- 1} A_ {k} Q_ {k} = Q_ {k} ^ {T} A_ {k} Q_ {k} ) ، لذا حقيقة أن (A_ {k} ^ {T} = A_ {k} ) تعني (A_ {k + 1} ^ {T} = A_ {k + 1} ). قيم eigenvalues ​​لـ (A ) كلها حقيقية (Theorem [thm: 016145]) ، لذا فإن (A_ {k} ) تتقارب مع مصفوفة مثلثة عليا (T ). ولكن يجب أيضًا أن يكون (T ) متماثلًا (هو حد المصفوفات المتماثلة) ، لذلك فهو قطري.

تطبيق خوارزمية QR على
(A = leftB start {array} {rr} 2 & -3 1 & -2 end {array} rightB ). يشرح.

بالنظر إلى المصفوفة (A ) ، دع (A_ {k} ) ، (Q_ {k} ) ، و (R_ {k} ) ، (k geq 1 ) ، تكون المصفوفات شيدت في خوارزمية QR. أظهر أن (A_ {k} = (Q_ {1} Q_ {2} cdots Q_ {k}) (R_ {k} cdots R_ {2} R_ {1}) ) لكل (k geq 1 ) ومن ثم فإن هذا هو عامل QR لـ (A_ {k} ).


اختصارات لحساب القيم الذاتية للتحول الخطي

كيف تحسب القيم الذاتية للمصفوفة التالية؟

$ A = start -3 & amp 1 & amp -1 -7 & amp 5 & amp -1 -6 & amp 6 & amp -2 end$ $ $ $ $ chi_A ( lambda) = det (A- lambda I) = start -3- لامدا & أمبير 1 & أمبير -1 -7 & أمبير 5- لامدا & أمبير -1 -6 & أمبير 6 & أمبير -2- لامدا نهاية= ldots = 0 دولار

أود حقاً تجنب استخدام قاعدة ساروس. سيؤدي هذا فقط إلى قائمة ضخمة من الضرب ، وفي النهاية قد أضطر حتى إلى تخمين جذور كثير الحدود (ربما باستخدام نظرية فييتا) وعاملها عن طريق القسمة متعددة الحدود. - هذه العملية برمتها مملة وعرضة للأخطاء ، لذا أرغب في اتخاذ بعض الاختصارات كلما استطعت.

فيما يلي بعض الاختصارات التي أعرفها بالفعل ، والتي يمكن استخدامها جنبًا إلى جنب:

  • ضرب صفين في $ (- 1) $ (هذا لن يغير المحدد)
  • تطوير المحدد عبر صف أو عمود به الكثير من الأصفار (من الناحية المثالية عامل واحد فقط) لإخراج العوامل الخطية لكثيرات الحدود.
  • تحويل المصفوفة عن طريق الحذف الغاوسي إلى مصفوفة تحتوي على عدد أكبر من الأصفار في عمود أو صف واحد (من الناحية المثالية: قم بتحويلها إلى مصفوفة مثلثة سفلية / عليا).
  • احسب المحدد عبر نظرية مصفوفات الكتلة القطرية.

ومع ذلك ، لا يفيد أي من هذه الاختصارات في حساب القيم الذاتية لـ $ A $. كيف ستقترب من حساب محدد المصفوفة أعلاه؟ ما الاختصارات الأخرى التي يجب عليك مشاركتها؟


8.5: حساب القيم الذاتية - الرياضيات

حان الوقت الآن للبدء في حل أنظمة المعادلات التفاضلية. لقد رأينا أن حلول النظام ،

حيث ( lambda ) و ( vec eta ) هي القيم الذاتية والمتجهات الذاتية للمصفوفة (A ). سنعمل مع أنظمة (2 times 2 ) ، وهذا يعني أننا سنبحث عن حلين ، (< vec x_1> left (t right) ) و (< vec x_2> left (t right) ) ، حيث محدد المصفوفة ،

سنبدأ بالنظر في الحالة التي تكون فيها قيمتا eigenvalues ​​، (< lambda _ < ، 1 >> ) و (< lambda _ < ، 2 >> ) حقيقية ومميزة. بعبارة أخرى ، ستكون قيمًا ذاتية حقيقية وبسيطة. تذكر أيضًا أن المتجهات الذاتية لقيم eigenvalues ​​البسيطة مستقلة خطيًا. هذا يعني أن الحلول التي نحصل عليها من هذه ستكون أيضًا مستقلة خطيًا. إذا كانت الحلول مستقلة خطيًا ، فيجب أن تكون المصفوفة (X ) غير منطقية ، وبالتالي فإن هذين الحلين سيكونان مجموعة أساسية من الحلول. سيكون الحل العام في هذه الحالة ،

لاحظ أنه سيتم تقسيم كل من الأمثلة التي لدينا في الواقع إلى مثالين. المثال الأول هو حل النظام والمثال الثاني سيرسم صورة الطور للنظام. لا يتم دائمًا تدريس صور المرحلة في دورة المعادلات التفاضلية ، وبالتالي سنقوم بإخراجها من عملية الحل بحيث إذا لم تقم بتغطيتها في صفك ، يمكنك تجاهل مثال صورة الطور للنظام.

إذن ، أول شيء علينا فعله هو إيجاد القيم الذاتية للمصفوفة.

الآن دعونا نعثر على المتجهات الذاتية لكل من هذه.

المتجه الذاتي في هذه الحالة هو ،

المتجه الذاتي في هذه الحالة هو ،

ثم الحل العام هو ،

الآن ، علينا إيجاد الثوابت. للقيام بذلك ، نحتاج ببساطة إلى تطبيق الشروط الأولية.

كل ما علينا فعله الآن هو ضرب الثوابت من خلالها ثم نحصل على معادلتين (واحدة لكل صف) يمكننا حلها من أجل الثوابت. هذا يعطي،

الآن ، دعونا نلقي نظرة على صورة المرحلة للنظام.

من المثال الأخير نعلم أن القيم الذاتية والمتجهات الذاتية لهذا النظام هي ،

اتضح أن هذه هي كل المعلومات التي سنحتاجها لرسم مجال الاتجاه. سوف نربط الأشياء مرة أخرى بحلنا حتى نتمكن من رؤية الأمور تسير بشكل صحيح.

سنبدأ برسم الخطوط التي تتبع اتجاه متجهي eigenvectors. هذا يعطي،

الآن ، من المثال الأول ، حلنا العام هو

اذا كان لدينا ( = 0 ) إذن الحل هو الأوقات الأسية متجهًا وكل ما يفعله الأسي يؤثر على حجم المتجه وسيؤثر الثابت (c_ <1> ) على كل من العلامة وحجم المتجه. بمعنى آخر ، سيكون المسار في هذه الحالة عبارة عن خط مستقيم موازٍ للمتجه ، (< vec eta ^ < left (1 right) >> ). لاحظ أيضًا أنه كلما زاد (t ) ، سيصبح الأسي أصغر وأصغر ، وبالتالي سيتحرك المسار نحو الأصل. لو ( & gt 0 ) سيكون المسار في الربع الثاني وإذا ( & lt 0 ) سيكون المسار في الربع الرابع.

لذا ، فإن السطر الموجود في الرسم البياني أعلاه المميز بعلامة (< vec eta ^ < left (1 right) >> ) سيكون رسمًا للمسار المقابل لـ ( = 0 ) وسيقترب هذا المسار من الأصل كلما زاد (t ).

إذا قلبنا الأمور الآن ونظرنا إلى الحل المقابل لوجود ( = 0 ) سيكون لدينا مسار موازٍ لـ (< vec eta ^ < left (2 right) >> ). أيضًا ، نظرًا لأن الأسي سيزداد مع زيادة (t ) وبالتالي في هذه الحالة سينتقل المسار الآن بعيدًا عن الأصل مع زيادة (t ). سنشير إلى هذا بأسهم على الخطوط في الرسم البياني أعلاه.

لاحظ أنه كان بإمكاننا الحصول على هذه المعلومات دون اللجوء إلى الحل فعليًا. كل ما نحتاجه حقًا هو إلقاء نظرة على قيم eigenvalues. سوف تتوافق القيم الذاتية السلبية مع الحلول التي ستتحرك نحو الأصل مع زيادة (t ) في اتجاه موازٍ لمتجهها الذاتي. وبالمثل ، فإن قيم eigenvalues ​​الإيجابية تبتعد عن الأصل حيث (t ) تزداد في اتجاه موازٍ لمتجهها الذاتي.

إذا كان كلا الثابتين في الحل ، فسنحصل على مزيج من هذه السلوكيات. بالنسبة إلى (t ) السالبة الكبيرة ، سيهيمن على الحل الجزء الذي يحتوي على قيمة ذاتية سلبية لأنه في هذه الحالات سيكون الأس كبيرًا وإيجابيًا. ستكون مسارات (t ) 's سلبية كبيرة موازية لـ (< vec eta ^ < left (1 right) >> ) وتتحرك في نفس الاتجاه.

سيهيمن الجزء ذو القيمة الذاتية الموجبة على حلول ​​(t ) 's الإيجابية الكبيرة. ستكون المسارات في هذه الحالة موازية لـ (< vec eta ^ < left (2 right) >> ) وتتحرك في نفس الاتجاه.

بشكل عام ، يبدو أن المسارات ستبدأ "بالقرب" (< vec eta ^ < left (1 right) >> ) ، تتحرك نحو الأصل ثم كلما اقتربت من الأصل ، ستبدأ التحرك نحو (< vec eta ^ < left (2 right) >> ) ثم تابع على طول هذا المتجه. رسم بعض هذه العناصر سيعطي صورة المرحلة التالية. فيما يلي رسم تخطيطي لهذا مع المسارات المقابلة للمتجهات الذاتية المميزة باللون الأزرق.

في هذه الحالة يسمى حل التوازن ( left (<0،0> right) ) نقطة سرج وغير مستقر. في هذه الحالة يعني عدم الاستقرار أن الحلول تبتعد عنها كلما زاد (t ).

لذلك ، لقد حللنا نظامًا في شكل مصفوفة ، لكن تذكر أننا بدأنا بدون الأنظمة في شكل مصفوفة. دعنا الآن نلقي نظرة سريعة على مثال لنظام ليس في شكل مصفوفة في البداية.

نحتاج أولًا إلى تحويل هذا إلى صورة مصفوفة. هذا سهل بما فيه الكفاية. هنا شكل مصفوفة النظام.

هذا هو النظام من المثال الأول فقط ولذا فقد حصلنا بالفعل على الحل لهذا النظام. ها هو.

الآن ، بما أننا نريد حل النظام ليس في شكل مصفوفة ، فلنتقدم خطوة أبعد هنا. دعونا نضرب الثوابت والأسي في المتجهات ثم نجمع المتجهين.

إذن ، حل النظام هو

دعونا نعمل مثالا آخر.

إذن ، أول شيء علينا فعله هو إيجاد القيم الذاتية للمصفوفة.

الآن دعونا نجد المتجهات الذاتية لكل من هذه.

المتجه الذاتي في هذه الحالة هو ،

المتجه الذاتي في هذه الحالة هو ،

ثم الحل العام هو ،

الآن ، علينا إيجاد الثوابت. للقيام بذلك ، نحتاج ببساطة إلى تطبيق الشروط الأولية.

الآن حل نظام الثوابت.

الآن دعونا نجد صورة المرحلة لهذا النظام.

من المثال الأخير نعلم أن القيم الذاتية والمتجهات الذاتية لهذا النظام هي ،

هذا يختلف قليلاً عن الأول. ومع ذلك ، فإنه يبدأ بنفس الطريقة. سنقوم أولاً برسم المسارات المقابلة للمتجهات الذاتية. لاحظ أيضًا أن كلا من قيم eigenvalues ​​سالبة وبالتالي فإن المسارات الخاصة بها ستتحرك نحو الأصل مع زيادة (t ). عندما نرسم المسارات ، سنضيف أسهمًا للإشارة إلى الاتجاه الذي تتخذه مع زيادة (t ). هنا رسم تخطيطي لهذه المسارات.

الآن ، هنا يظهر الاختلاف الطفيف عن صورة المرحلة الأولى. ستتحرك جميع المسارات نحو الأصل مع زيادة (t ) لأن كلا من القيم الذاتية سالبة. المسألة التي نحتاج إلى البت فيها هي فقط كيف يفعلون ذلك. هذا في الواقع أسهل مما قد يبدو في البداية.

قيمة eigenvalue الثانية أكبر من الأولى. بالنسبة إلى (t ) كبيرة وإيجابية ، فهذا يعني أن حل هذه القيمة الذاتية سيكون أصغر من حل القيمة الذاتية الأولى. لذلك ، كلما زاد (t ) من المسار ، سيتحرك المسار نحو الأصل ويفعل ذلك بالتوازي مع (< vec eta ^ < left (1 right) >> ). وبالمثل ، نظرًا لأن قيمة eigenvalue الثانية أكبر من الأولى ، فسوف يسود هذا الحل بالنسبة إلى (t ) 's الكبيرة والسلبية. لذلك ، أثناء تقليلنا (t ) ، سينتقل المسار بعيدًا عن الأصل ونفعل ذلك بالتوازي مع (< vec eta ^ < left (2 right) >> ).

إضافة بعض المسارات يعطي الرسم التخطيطي التالي.

في هذه الحالات نسمي حل التوازن ( left (<0،0> right) ) a العقدة وهو مستقر بشكل مقارب. تكون حلول التوازن مستقرة بشكل مقارب إذا تحركت جميع المسارات نحوها مع زيادة (t ).

لاحظ أن العقد يمكن أن تكون أيضًا غير مستقرة. في المثال الأخير ، إذا كانت كل من القيم الذاتية موجبة ، فإن جميع المسارات كانت ستبتعد عن الأصل وفي هذه الحالة كان حل التوازن غير مستقر.

قبل الانتقال إلى القسم التالي ، نحتاج إلى القيام بمثال آخر. عندما بدأنا الحديث عن الأنظمة لأول مرة ، ذكرنا أنه يمكننا تحويل معادلة تفاضلية ذات رتبة أعلى إلى نظام. نحتاج لعمل مثال كهذا حتى نتمكن من معرفة كيفية حل المعادلات التفاضلية ذات الرتبة الأعلى باستخدام الأنظمة.

لذا ، نحتاج أولاً إلى تحويل هذا إلى نظام. إليك تغيير المتغيرات ،

الآن علينا إيجاد القيم الذاتية للمصفوفة.

الآن دعونا نجد المتجهات الذاتية.

المتجه الذاتي في هذه الحالة هو ،

المتجه الذاتي في هذه الحالة هو ،

الحل العام إذن ،

تطبيق الشرط الأولي.

هذا يعطي نظام المعادلات التي يمكننا حلها من أجل الثوابت.

الحل الفعلي للنظام إذن ،

يمكننا أن نرى أن حل المعادلة التفاضلية الأصلية هو فقط الصف العلوي من حل نظام المصفوفة. إذن حل المعادلة التفاضلية الأصلية هو ،

لاحظ أنه كشيك ، في هذه الحالة ، يجب أن يكون الصف السفلي هو مشتق الصف العلوي.


تنشيط سريع: ما هي؟

أولاً ، مجرد تنشيط سريع لما القيم الذاتية و المتجهات الذاتية نكون. خذ مصفوفة مربعة X. إذا كان هناك متجه الخامس وعددي λ مثل ذلك

من ثم الخامس هو ناقل eigenvector من X و λ هي القيمة الذاتية المقابلة لـ X.

في الكلمات ، إذا كنت تفكر في الضرب الخامس بواسطة X كتطبيق دالة على الخامس، ثم لهذا المتجه المعين الخامس هذه الوظيفة ليست سوى تمدد / سحق ضرب عددي. عادةً ما يعادل ضرب المتجه في مصفوفة أخذ مجموعات خطية من مكونات المتجه. ولكن إذا كنت تأخذ Eigenvector، لست بحاجة إلى إجراء كل هذه الحسابات. فقط اضرب في Eigenvalue وأنتم بخير.


حساب القيم الذاتية

هذا نظام خطي يكون معامل المصفوفة له. نعلم أيضًا أن هذا النظام له حل واحد إذا وفقط إذا كان معامل المصفوفة قابلاً للانعكاس ، أي. نظرًا لأن المتجه الصفري حل و C ليس متجهًا صفريًا ، فلا بد أن يكون لدينا

مثال. ضع في اعتبارك المصفوفة

المعادلة تترجم إلى

وهو ما يعادل المعادلة التربيعية

حل هذه المعادلة يؤدي إلى

بعبارة أخرى ، تحتوي المصفوفة A على قيمتين متجانستين فقط.

بشكل عام ، المعادلة للمصفوفة المربعة A من الرتبة n

سيعطي القيم الذاتية لـ A. تسمى هذه المعادلة بالمعادلة المميزة أو كثير الحدود المميز لـ A. إنها دالة متعددة الحدود في الدرجة n. نعلم أن هذه المعادلة لن تحتوي على أكثر من n من الجذور أو الحلول. لذلك لن تحتوي المصفوفة المربعة A من الرتبة n على أكثر من n من القيم الذاتية.

مثال. ضع في اعتبارك المصفوفة القطرية

كثير الحدود المميز هو

إذن ، قيم eigenvalues ​​لـ D هي a و b و c و d ، أي المدخلات على القطر.

هذه النتيجة صالحة لأي مصفوفة قطرية من أي حجم. بناءً على القيم التي لديك على القطر ، قد يكون لديك قيمة ذاتية واحدة أو قيمتان من قيم eigenvalue أو أكثر. كل شيء ممكن.

ملاحظة. إنه لأمر مدهش جدًا أن نرى أن أي مصفوفة مربعة A لها نفس قيم eigenvalues ​​مثل تبديلها A T بسبب

لأي مصفوفة مربعة من الرتبة 2 ، A ، أين

كثير الحدود المميز تعطى بالمعادلة

الرقم (a + d) يسمى تتبع A (يُشار إليه بـ tr (A)) ، ومن الواضح أن الرقم (ad - bc) هو محدد A. لذلك يمكن إعادة كتابة كثير الحدود المميز لـ A كـ

دعونا نقيم المصفوفة

نترك التفاصيل للقارئ للتحقق من ذلك

تُعرف هذه المعادلة باسم نظرية كايلي هاملتون. هذا صحيح بالنسبة لأي مصفوفة مربعة أ بأي ترتيب ، أي

أين هي كثيرة الحدود المميزة لـ A.

لدينا بعض خصائص القيم الذاتية للمصفوفة.

نظرية. لنفترض أن أ مصفوفة مربعة من الترتيب ن. إذا كانت قيمة eigenvalue لـ A ، إذن: 1. هي قيمة ذاتية لـ A m ، لـ 2. إذا كانت A قابلة للعكس ، فهي إذن قيمة ذاتية لـ A -1. 3. لا يكون A قابلاً للعكس إذا وفقط إذا كانت قيمة ذاتية لـ A. 4. إذا كان أي رقم ، إذن هو قيمة ذاتية لـ. 5. إذا كان A و B متشابهين ، فإن لهما نفس الخاصية متعددة الحدود (مما يعني أنهما لهما أيضًا نفس القيم الذاتية).

السؤال الطبيعي التالي للإجابة يتعامل مع المتجهات الذاتية. في الصفحة التالية ، سنناقش مشكلة إيجاد المتجهات الذاتية ..


2 إجابات 2

المتجهات الذاتية للكيوبت الوحدوي هما متجهان متعامدان. على هذا النحو ، في كرة بلوخ ، يتم تصورها كمحور واحد (يمر من خلال الأصل). (تذكر أن الزوايا على كرة بلوخ تتضاعف بحيث تكون الحالات المتعامدة مختلفة بزاوية $ pi $ على كرة بلوخ ، أي الاتجاهات المعاكسة على طول نفس المحور.)

قيمة eigenvalue (أو بشكل أكثر دقة ، الزاوية النسبية بين قيمتي eigenvalues) هي زاوية الدوران حول هذا المحور.

حالة $ rho $ بإحداثيات Bloch sphere $ newcommand < bs> [1] < boldsymbol <# 1 >> bs r equiv (x، y، z) $ لها شكل $ rho = frac<2> equiv frac<2> ، $ مع $ sigma_x ، sigma_y ، sigma_z $ مصفوفات Pauli.

وبالتالي ، فإن حساب قيم eigenvalues ​​(المتجهات الذاتية) لـ $ rho $ يرقى إلى حساب قيم $ bs r cdot bs sigma $. لاحظ أن $ bs r cdot bs sigma = startz & amp x-iy x + iy & amp -z، end$ وبالتالي فإن قيم eigenvalues ​​هي $ lambda_ pm = pm sqrt <- det ( bs r cdot bs sigma)> = pm | bs r | $. ثم يُنظر إلى المتجهات الذاتية المقابلة على أنها $ lvert lambda_ pm rangle = frac <1> < sqrt <2 | bs r | ( | bs r | mp z) >> يبدأx-iy pm | bs r | - ض نهاية. تحتوي المتجهات الموجودة في كرة بلوخ المقابلة لـ $ lvert lambda_ pm rangle $ على إحداثيات $ start x_ pm & amp = & amp pm x / | bs r | ، y_ pm & amp = & amp pm y / | bs r | ، z_ pm & amp = & amp pm z / | bs r |. نهاية$ بمعنى آخر ، تتوافق المتجهات الذاتية لـ $ bs r cdot bs sigma $ مع متجهي الوحدة في كرة Bloch على طول نفس اتجاه $ rho $.

من الواضح أن المتجهات الذاتية لـ $ rho $ هي نفسها تلك الموجودة في $ bs r cdot bs sigma $ ، بينما قيمها الذاتية هي $ (1 pm lambda_ pm) / 2 $.


محتويات

إذا كان T هو تحويل خطي من فضاء متجه V فوق حقل F في نفسه و الخامس هو متجه غير صفري في V ، إذن الخامس هو ناقل eigenvector لـ T إذا تي(الخامس) هو مضاعف عددي لـ الخامس . يمكن كتابة هذا كـ

حيث λ هو عدد قياسي في F ، والمعروف باسم القيمة الذاتية, قيمة مميزة، أو جذر مميز مرتبط ب الخامس .

هناك مراسلات مباشرة بين ن-بواسطة-ن المصفوفات المربعة والتحويلات الخطية من ن-فضاء متجه الأبعاد في نفسه ، بالنظر إلى أي أساس لمساحة المتجه. ومن ثم ، في فضاء متجه ذي أبعاد محدودة ، فإنه يكافئ تعريف القيم الذاتية والمتجهات الذاتية باستخدام إما لغة المصفوفات ، أو لغة التحولات الخطية. [3] [4]

إذا كانت V ذات أبعاد محدودة ، فإن المعادلة أعلاه تعادل [5]

حيث A هو تمثيل المصفوفة لـ T و ش هو متجه إحداثيات الخامس .

تبرز القيم الذاتية والمتجهات الذاتية بشكل بارز في تحليل التحولات الخطية. البادئة إيجن- مأخوذ من الكلمة الألمانية إيجن (مشابه للكلمة الإنجليزية خاصة) لكلمة "مناسب" ، "مميز" ، "خاص". [6] [7] تستخدم في الأصل لدراسة المحاور الرئيسية للحركة الدورانية للأجسام الصلبة ، للقيم الذاتية والمتجهات الذاتية مجموعة واسعة من التطبيقات ، على سبيل المثال في تحليل الاستقرار ، وتحليل الاهتزاز ، والمدارات الذرية ، والتعرف على الوجه ، وقطر المصفوفة.

في جوهرها ، المتجه الذاتي الخامس من التحول الخطي تي هو متجه غير صفري عندما تي يتم تطبيقه عليه ، لا يغير الاتجاه. التقديم تي إلى eigenvector فقط يقيس eigenvector بالقيمة العددية λ، تسمى قيمة eigenvalue. يمكن كتابة هذا الشرط على أنه المعادلة

يشار إليها باسم معادلة القيمة الذاتية أو المعادلة الذاتية. بشكل عام، λ قد يكون أي عدد. فمثلا، λ قد يكون سالبًا ، وفي هذه الحالة يقوم المتجه الذاتي بعكس اتجاهه كجزء من القياس ، أو قد يكون صفريًا أو معقدًا.

يقدم مثال الموناليزا المصور هنا توضيحًا بسيطًا. يمكن تمثيل كل نقطة على اللوحة كمتجه يشير من مركز اللوحة إلى تلك النقطة. يسمى التحويل الخطي في هذا المثال تعيين القص. يتم نقل النقاط الموجودة في النصف العلوي إلى اليمين ، ويتم نقل النقاط الموجودة في النصف السفلي إلى اليسار ، بما يتناسب مع بُعدها عن المحور الأفقي الذي يمر عبر منتصف اللوحة. وبالتالي ، فإن المتجهات التي تشير إلى كل نقطة في الصورة الأصلية مائلة إلى اليمين أو اليسار ، وتصبح أطول أو أقصر من خلال التحويل. نقاط على طول لا يتحرك المحور الأفقي على الإطلاق عند تطبيق هذا التحويل. Therefore, any vector that points directly to the right or left with no vertical component is an eigenvector of this transformation, because the mapping does not change its direction. Moreover, these eigenvectors all have an eigenvalue equal to one, because the mapping does not change their length either.

Linear transformations can take many different forms, mapping vectors in a variety of vector spaces, so the eigenvectors can also take many forms. For example, the linear transformation could be a differential operator like d d x >> , in which case the eigenvectors are functions called eigenfunctions that are scaled by that differential operator, such as

Alternatively, the linear transformation could take the form of an ن بواسطة ن matrix, in which case the eigenvectors are ن by 1 matrices. If the linear transformation is expressed in the form of an ن بواسطة ن مصفوفة أ, then the eigenvalue equation for a linear transformation above can be rewritten as the matrix multiplication

where the eigenvector الخامس is an ن by 1 matrix. For a matrix, eigenvalues and eigenvectors can be used to decompose the matrix—for example by diagonalizing it.

Eigenvalues and eigenvectors give rise to many closely related mathematical concepts, and the prefix eigen- is applied liberally when naming them:

  • The set of all eigenvectors of a linear transformation, each paired with its corresponding eigenvalue, is called the eigensystem of that transformation. [8][9]
  • The set of all eigenvectors of تي corresponding to the same eigenvalue, together with the zero vector, is called an eigenspace, or the characteristic space من تي associated with that eigenvalue. [10]
  • If a set of eigenvectors of تي forms a basis of the domain of تي, then this basis is called an eigenbasis.

Eigenvalues are often introduced in the context of linear algebra or matrix theory. Historically, however, they arose in the study of quadratic forms and differential equations.

In the 18th century, Leonhard Euler studied the rotational motion of a rigid body, and discovered the importance of the principal axes. [a] Joseph-Louis Lagrange realized that the principal axes are the eigenvectors of the inertia matrix. [11]

In the early 19th century, Augustin-Louis Cauchy saw how their work could be used to classify the quadric surfaces, and generalized it to arbitrary dimensions. [12] Cauchy also coined the term racine caractéristique (characteristic root), for what is now called القيمة الذاتية his term survives in characteristic equation. [b]

Later, Joseph Fourier used the work of Lagrange and Pierre-Simon Laplace to solve the heat equation by separation of variables in his famous 1822 book Théorie analytique de la chaleur. [13] Charles-François Sturm developed Fourier's ideas further, and brought them to the attention of Cauchy, who combined them with his own ideas and arrived at the fact that real symmetric matrices have real eigenvalues. [12] This was extended by Charles Hermite in 1855 to what are now called Hermitian matrices. [14]

Around the same time, Francesco Brioschi proved that the eigenvalues of orthogonal matrices lie on the unit circle, [12] and Alfred Clebsch found the corresponding result for skew-symmetric matrices. [14] Finally, Karl Weierstrass clarified an important aspect in the stability theory started by Laplace, by realizing that defective matrices can cause instability. [12]

In the meantime, Joseph Liouville studied eigenvalue problems similar to those of Sturm the discipline that grew out of their work is now called نظرية شتورم ليوفيل. [15] Schwarz studied the first eigenvalue of Laplace's equation on general domains towards the end of the 19th century, while Poincaré studied Poisson's equation a few years later. [16]

At the start of the 20th century, David Hilbert studied the eigenvalues of integral operators by viewing the operators as infinite matrices. [17] He was the first to use the German word eigen, which means "own", [7] to denote eigenvalues and eigenvectors in 1904, [c] though he may have been following a related usage by Hermann von Helmholtz. For some time, the standard term in English was "proper value", but the more distinctive term "eigenvalue" is the standard today. [18]

The first numerical algorithm for computing eigenvalues and eigenvectors appeared in 1929, when Richard von Mises published the power method. One of the most popular methods today, the QR algorithm, was proposed independently by John G. F. Francis [19] and Vera Kublanovskaya [20] in 1961. [21] [22]

Eigenvalues and eigenvectors are often introduced to students in the context of linear algebra courses focused on matrices. [23] [24] Furthermore, linear transformations over a finite-dimensional vector space can be represented using matrices, [25] [4] which is especially common in numerical and computational applications. [26]

Consider n -dimensional vectors that are formed as a list of n scalars, such as the three-dimensional vectors

These vectors are said to be scalar multiples of each other, or parallel or collinear, if there is a scalar λ such that

Now consider the linear transformation of n -dimensional vectors defined by an n by n matrix A ,

If it occurs that v and w are scalar multiples, that is if

من ثم الخامس is an eigenvector of the linear transformation A and the scale factor λ is the القيمة الذاتية corresponding to that eigenvector. Equation (1) is the eigenvalue equation for the matrix A .

Equation (1) can be stated equivalently as

where I is the n by n identity matrix and 0 is the zero vector.

Eigenvalues and the characteristic polynomial Edit

Equation (2) has a nonzero solution الخامس if and only if the determinant of the matrix (أλI) is zero. Therefore, the eigenvalues of أ are values of λ that satisfy the equation

Using Leibniz' rule for the determinant, the left-hand side of Equation (3) is a polynomial function of the variable λ and the degree of this polynomial is ن, the order of the matrix أ. Its coefficients depend on the entries of أ, except that its term of degree ن is always (−1) ن λ ن . This polynomial is called the كثير الحدود المميزة من أ. Equation (3) is called the characteristic equation أو ال secular equation من أ.

The fundamental theorem of algebra implies that the characteristic polynomial of an ن-بواسطة-ن مصفوفة أ, being a polynomial of degree ن, can be factored into the product of ن linear terms,

where each λأنا may be real but in general is a complex number. The numbers λ1, λ2, …, λن, which may not all have distinct values, are roots of the polynomial and are the eigenvalues of أ.

As a brief example, which is described in more detail in the examples section later, consider the matrix

Taking the determinant of (أλI) , the characteristic polynomial of أ يكون

Setting the characteristic polynomial equal to zero, it has roots at λ=1 and λ=3 , which are the two eigenvalues of أ. The eigenvectors corresponding to each eigenvalue can be found by solving for the components of الخامس in the equation ( A − λ I ) v = 0 =mathbf <0>> . In this example, the eigenvectors are any nonzero scalar multiples of

If the entries of the matrix أ are all real numbers, then the coefficients of the characteristic polynomial will also be real numbers, but the eigenvalues may still have nonzero imaginary parts. The entries of the corresponding eigenvectors therefore may also have nonzero imaginary parts. Similarly, the eigenvalues may be irrational numbers even if all the entries of أ are rational numbers or even if they are all integers. However, if the entries of أ are all algebraic numbers, which include the rationals, the eigenvalues are complex algebraic numbers.

The non-real roots of a real polynomial with real coefficients can be grouped into pairs of complex conjugates, namely with the two members of each pair having imaginary parts that differ only in sign and the same real part. If the degree is odd, then by the intermediate value theorem at least one of the roots is real. Therefore, any real matrix with odd order has at least one real eigenvalue, whereas a real matrix with even order may not have any real eigenvalues. The eigenvectors associated with these complex eigenvalues are also complex and also appear in complex conjugate pairs.

Algebraic multiplicity Edit

يترك λأنا be an eigenvalue of an ن بواسطة ن مصفوفة أ. ال algebraic multiplicity ميكرومترأ(λأنا) of the eigenvalue is its multiplicity as a root of the characteristic polynomial, that is, the largest integer ك such that (λλأنا) ك divides evenly that polynomial. [10] [27] [28]

Suppose a matrix أ has dimension ن و دن distinct eigenvalues. Whereas Equation (4) factors the characteristic polynomial of أ into the product of ن linear terms with some terms potentially repeating, the characteristic polynomial can instead be written as the product of د terms each corresponding to a distinct eigenvalue and raised to the power of the algebraic multiplicity,

لو د = ن then the right-hand side is the product of ن linear terms and this is the same as Equation (4). The size of each eigenvalue's algebraic multiplicity is related to the dimension ن كما

لو ميكرومترأ(λأنا) = 1, then λأنا is said to be a simple eigenvalue. [28] If ميكرومترأ(λأنا) equals the geometric multiplicity of λأنا, γأ(λأنا), defined in the next section, then λأنا is said to be a semisimple eigenvalue.

Eigenspaces, geometric multiplicity, and the eigenbasis for matrices Edit

Given a particular eigenvalue λ of the ن بواسطة ن مصفوفة أ, define the set ه to be all vectors الخامس that satisfy Equation (2),

On one hand, this set is precisely the kernel or nullspace of the matrix (أλI). On the other hand, by definition, any nonzero vector that satisfies this condition is an eigenvector of أ associated with λ. So, the set ه is the union of the zero vector with the set of all eigenvectors of أ associated with λ، و ه equals the nullspace of (أλI). ه يسمى eigenspace أو characteristic space من أ associated with λ. [29] [10] In general λ is a complex number and the eigenvectors are complex ن by 1 matrices. A property of the nullspace is that it is a linear subspace, so ه is a linear subspace of ℂ ن .

Because the eigenspace ه is a linear subspace, it is closed under addition. That is, if two vectors ش و الخامس belong to the set ه, written ش, الخامسه , then (ش + الخامس) ∈ ه or equivalently أ(ش + الخامس) = λ(ش + الخامس). This can be checked using the distributive property of matrix multiplication. Similarly, because ه is a linear subspace, it is closed under scalar multiplication. That is, if الخامسه و α is a complex number, (αالخامس) ∈ ه or equivalently أ(αالخامس) = λ(αالخامس). This can be checked by noting that multiplication of complex matrices by complex numbers is commutative. As long as ش + الخامس و αالخامس are not zero, they are also eigenvectors of أ associated with λ.

The dimension of the eigenspace ه associated with λ, or equivalently the maximum number of linearly independent eigenvectors associated with λ, is referred to as the eigenvalue's geometric multiplicity γأ(λ). لان ه is also the nullspace of (أλI), the geometric multiplicity of λ is the dimension of the nullspace of (أλI), also called the بطلان of (أλI), which relates to the dimension and rank of (أλI) كما

Because of the definition of eigenvalues and eigenvectors, an eigenvalue's geometric multiplicity must be at least one, that is, each eigenvalue has at least one associated eigenvector. Furthermore, an eigenvalue's geometric multiplicity cannot exceed its algebraic multiplicity. Additionally, recall that an eigenvalue's algebraic multiplicity cannot exceed ن.

Additional properties of eigenvalues Edit

Left and right eigenvectors Edit

Many disciplines traditionally represent vectors as matrices with a single column rather than as matrices with a single row. For that reason, the word "eigenvector" in the context of matrices almost always refers to a right eigenvector, namely a column vector that right multiplies the n × n matrix A in the defining equation, Equation (1),

The eigenvalue and eigenvector problem can also be defined for row vectors that متبقى multiply matrix A . In this formulation, the defining equation is

Diagonalization and the eigendecomposition Edit

Suppose the eigenvectors of أ form a basis, or equivalently أ لديها ن المتجهات الذاتية المستقلة خطيًا الخامس1, الخامس2, …, الخامسن with associated eigenvalues λ1, λ2, …, λن. The eigenvalues need not be distinct. Define a square matrix س whose columns are the ن linearly independent eigenvectors of أ,

Since each column of س is an eigenvector of أ, right multiplying أ بواسطة س scales each column of س by its associated eigenvalue,

With this in mind, define a diagonal matrix Λ where each diagonal element Λثانيا is the eigenvalue associated with the أناth column of س. ثم

Because the columns of س are linearly independent, Q is invertible. Right multiplying both sides of the equation by س −1 ,

or by instead left multiplying both sides by س −1 ,

أ can therefore be decomposed into a matrix composed of its eigenvectors, a diagonal matrix with its eigenvalues along the diagonal, and the inverse of the matrix of eigenvectors. This is called the eigendecomposition and it is a similarity transformation. Such a matrix أ is said to be مماثل to the diagonal matrix Λ or diagonalizable. المصفوفة س is the change of basis matrix of the similarity transformation. Essentially, the matrices أ and Λ represent the same linear transformation expressed in two different bases. The eigenvectors are used as the basis when representing the linear transformation as Λ.

Conversely, suppose a matrix أ is diagonalizable. يترك ص be a non-singular square matrix such that ص −1 AP is some diagonal matrix د. Left multiplying both by ص, AP = PD . Each column of ص must therefore be an eigenvector of أ whose eigenvalue is the corresponding diagonal element of د. Since the columns of ص must be linearly independent for ص to be invertible, there exist ن linearly independent eigenvectors of أ. It then follows that the eigenvectors of أ form a basis if and only if أ is diagonalizable.

A matrix that is not diagonalizable is said to be defective. For defective matrices, the notion of eigenvectors generalizes to generalized eigenvectors and the diagonal matrix of eigenvalues generalizes to the Jordan normal form. Over an algebraically closed field, any matrix أ has a Jordan normal form and therefore admits a basis of generalized eigenvectors and a decomposition into generalized eigenspaces.


Answer: Similar matrices. Two matrices $A$ and $B$ are مماثل if there exists an invertible matrix $S$ so that $A = S^<-1>BS$. Similar matrices have the same eigenvalues: $ Aunderline = lambda underline quad Leftrightarrowquad B(S^<-1>underline) = lambda (S^<-1>underline). $ The iterates $A_0,A_1,ldots,$ from the QR algorithm are similar matrices since $ A_ = R_kQ_k = Q_k^<-1>Q_k R_k Q_k = Q_k^<-1>A_KQ_k. $ Therefore, $A_0,A_1,ldots,$ have the same eigenvalues.

The secret to why the QR algorithm produces iterates that usually converge to reveal the eigenvalues is from the fact that the algorithm is a well-disguised (successive) power method. A very first idea to calculate eigenvalues might be to perform the power iteration on a basis $underline_1,ldots,underline_n$ of $mathbb^n$ instead of just one vector. That is, to consider the sequences: $ underline_j, Aunderline_j, A^2underline_j,ldots. $

Unfortunately, this does not work as the vectors $A^kunderline_j$ all tend to be close to a multiple of the eigenvector of $A$ corresponding to the eigenvalue of largest magnitude. Moreover, $|A^kunderline_j|$ usually overflows or underflows for moderate $k$. We can resolve the situation by orthonormalizing the vectors after each application of $A$ to prevent them from all converging to the dominate eigenvector.

The QR algorithm based on Gram-Schmidt and the power iteration¶

Let $underline_1,ldots,underline_n$ be $n$ linearly independent vectors in $mathbb^n$ and suppose that $v_1,ldots,v_n$ are an orthonormal basis of Schur vectors for $A$ (see wiki). Consider the following algorithm for computing the vectors $v_1,ldots,v_n$ based on the Gram-Schmidt procedure and the power method:

While this algorithm will be far better than the power iteration without orthogonalization, this algorithm is still numerically unstable (as it is based on Gram-Schmidt). In particular, the computed vectors $underline_1,ldots,underline_n$ may not be orthonormal numerically. To try it out, we implement this algorithm below for symmetric matrices so that the Schur vectors are in fact eigenvalues:

Here, we test this code to witness the numerical instability:

Orthogonal iteration¶

Of course, we can greatly improve the situation by using the modified Gram-Schmidt and the power method, where we do not wait for the vector $underline_1$ before doing a power iteration for $underline_2$. Instead, we do the power method simutaneously on every vector and orthogonalize after every step. A even better idea is to use Householder reflections for extra numerical stability. This gives us an algorithm called orthogonal iteration. The algorithm looks like this:

The matrix iterates $U^<(0)>,U^<(1)>,ldots,$ here are computed so that $(U^<(k)>)^T A U^ <(k)> ightarrow T$, where $T$ is upper-triangular.

Orthogonal iteration to QR algorithm¶

One can view the QR algorithm as a well-designed version of orthogonal iteration with $U^ <(0)>= I$. The connection can seen from the fact that they are both computing QR factorizations of the matrix $A^k$: $ egin extquad A^k &= Q_1R_1Q_1R_1cdots Q_1R_1 = Q_1Q_2R_2Q_1cdots Q_1R_1 = cdots = (Q_1cdots Q_k)(R_kcdots R_1)[10pt] ext quad A^k &= AA^ = AQ^<(k-1)>(Q^<(k-1)>)^TA^ = Q^<(k)>R^<(k)>(Q^<(k-1)>)^TA^ = cdots = Q^<(k)>(R^<(k)>cdots R^<(1)>).[15pt] end $

John Francis' algorithm is computing $A_k = Q_kR_k$ at the $k$th iteration, which is converging to an upper-triangular matrix. This is not too surprising because we expect $Q_1cdots Q_k$ to converge to an orthogonal matrix so $Q_k$ should converge to the identity matrix and hence, $Q_kR_k$ will usually converge to an upper-triangular matrix. Since $A_k = Q_kR_k$ is similar to $A$, the eigenvalues of $R_k$ should converge to the eigenvalues of $A$ as $k ightarrow infty$. In this next section, we make this intuition precise.

A proof of convergence¶

Here, we prove the following convergence theorem with lots of assumption to make the proof as easy as possible. Afterwards, we write down two way to make the theorem strong.

النظرية: Let $A$ be an $n imes n$ symmetric positive definite matrix with distinct eigenvalues given by $ lambda_1>lambda_2>cdots > lambda_n>0. $ Assume further that $A = QLambda Q^T$ is the eigenvalue decomposition of $A$, where $Q^T=LU$ has an LU decomposition and the diagonal entries of $U$ are nonnegative. Then, the unshift QR algorithm on $A$ computes iterates $A_1,A_2,A_3,ldots,$ that converge to a diagonal matrix.

دليل - إثبات For simplicity here we will start by assuming that every computed QR factorization of a matrix involves an upper-triangular matrix $R$ with nonnegative diagonal entries. This ensures that the QR factorization is unique (see class exercises). Let $ A = QLambda Q^T $ be the eigenvalue decomposition for $A$. Then, $A^k$ can be written as $ A^k = QLambda^k Q^T = (Q_1cdots Q_k)(R_kcdots R_1). $ Since $Q^T = LU$ exists by assumption (recall that $L$ is unit lower triangular so has $1

(1) Recall that eigenvalues are roots of the characteristic polynomial $p(lambda)=det(A-lambda I_n)$.
It follows that we have
يبدأ
&det(A-lambda I_n)
&=egin
a_<1 1>- lambda & a_ <1 2>& cdots & a_ <1,n>
a_ <2 1>& a_ <2 2>-lambda & cdots & a_ <2,n>
vdots & vdots & ddots & vdots
a_ & a_ & cdots & a_-lambda
نهاية =prod_^n (lambda_i-lambda). ag<*>
نهاية

Letting $lambda=0$, we see that $det(A)=prod_^n lambda_i$ and this completes the proof of part (a).

(2) Compare the coefficients of $lambda^$ of the both sides of (*).
The coefficient of $lambda^$ of the determinant on the left side of (*) is

$(-1)^(a_<11>+a_<22>+cdots a_)=(-1)^ r(A).$
The coefficient of $lambda^$ of the determinant on the right side of (*) is
$(-1)^مجموع_^n lambda_i.$
Thus we have $ r(A)=sum_^n lambda_i$.


8.5: Computing Eigenvalues - Mathematics

Consider multiplying a square 3x3 matrix by a 3x1 (column) vector. The result is a 3x1 (column) vector. The 3x3 matrix can be thought of as an operator - it takes a vector, operates on it, and returns a new vector. There are many instances in mathematics and physics in which we are interested in which vectors are left "essentially unchanged" by the operation of the matrix. Specifically, we are interested in those vectors v for which Av=kv where A is a square matrix and k is a real number. A vector v for which this equation hold is called an eigenvector of the matrix A and the associated constant k is called the eigenvalue (or characteristic value) of the vector v. If a matrix has more than one eigenvector the associated eigenvalues can be different for the different eigenvectors.

Geometrically, the action of a matrix on one of its eigenvectors causes the vector to stretch (or shrink) and/or reverse direction.

In order to find the eigenvalues of a nxn matrix A (if any), we solve Av=kv for scalar(s) k. Rearranging, we have Av-kv=0. But kv=kIv where I is the nxn identity matrix

So, 0=Av-kv=Av-kIv=(A-kI)v. This equation is equivalent to a homogeneous system of n equations with n unknowns. This equation has a non-zero solution for v if and only if the determinant det(A-kI) is zero. Thus, by finding the zeros of the polynomial in k determined by the characteristic equation det(A-kI)=0, we will have found the eigenvalues of the matrix A.

مثال

To find the eigenvalues of the matrix

we substitute A into the equation det(A-kI)=0 and solve for k. The matrix A-kI is given by

which has determinant k^2-2k-3. Hence, we are looking for values k satisfying k^2-2k-3=0. So, of course, we have k=3 or k=-1 . To find the eigenvectors of the eigenvalue k=3 we look for solutions v of the homogeneous system of equations (A-3I)v=0:

Since the second equation is a constant multiple of the first, this system of equations reduces to the single equation -x+(3/2)y=0 or equivalently x=1.5y. This system has an infinite number of solutions. So for example, choosing y=2 yeilds the vector <3,2> which is thus an eigenvector that has eigenvalue k=3. In a general form, all eigenvectors with eigenvalue 3 have the form <2t,3t> where t is any real number. It can also be shown (by solving the system (A+I)v=0) that vectors of the form <t,-2t> are eigenvectors with eigenvalue k=-1.

مثال

Find the eigenvalues and corresponding eigenvalues for the matrix

First, we must find det(A-kI):

This leads to the characteristic equation k^2+2k+2=0 which has complex roots k=-1+i and k=-1-i. To find the eigenvectors for k=-1+i, we solve (A-(-1+i)I)v=0 for v:

The second equation is a constant multiple of the first equation so the system reduces to the single equation (2-i)x-y=0 which implies y=(2-i)x. There are once again an infinite number of eigenvectors of A of the form <t,(2-i)t> with eigenvalue k=-1+i. By examining the system of equations (A-(-1-i)I)v=0 it can also be shown that vectors of the form <t,(2+i)t> are eigenvectors of A with eigenvalue k=-1-i.

From the examples above we can infer a property of eigenvectors and eigenvalues: eigenvectors from distinct eigenvalues are linearly independent. The following examples illustrate that the situation is not so clear cut when the eigenvalues are not distinct.

مثال

has two eigenvalues (1 and 1) but they are obviously not distinct. Since A is the identity matrix, Av=v for any vector v, i.e. any vector is an eigenvector of A. We can thus find two linearly independent eigenvectors (say <-2,1> and <3,-2>) one for each eigenvalue.

مثال

also has non-distinct eigenvalues of 1 and 1. All eigenvalues are solutions of (A-I)v=0 and are thus of the form <t,0>. Hence, in this case there do not exist two linearly independent eigenvectors for the two eigenvalues 1 and 1 since <t,0> and <s,0> are not linearly independent for any values of s and t.

Symmetric Matrices

There is a very important class of matrices called symmetric matrices that have quite nice properties concerning eigenvalues and eigenvectors. A symmetric matrix A is a square matrix with the property that A_ij=A_ji for all i and j. The matrices

are symmetric matrices. In symmetric matrices the upper right half and the lower left half of the matrix are mirror images of each other about the diagonal.

  1. A has exactly n (not necessarily distinct) eigenvalues
  2. There exists a set of n eigenvectors, one for each eigenvalue, that are mututally orthogonal.

Thus, the situation encountered with the matrix D in the example above cannot happen with a symmetric matrix: A symmetric matrix has n eigenvalues and there exist n linearly independent eigenvectors (because of orthogonality) even if the eigenvalues are not distinct .

مثال

Find the eigenvalues and a set of mutually orthogonal eigenvectors of the symmetric matrix

Thus, the characteristic equation is (k-8)(k+1)^2=0 which has roots k=-1, k=-1, and k=8. Note that we have listed k=-1 twice since it is a double root. We must find two eigenvectors for k=-1 and one for k=8. We now examine (A+I)v=0 to find the eigenvectors for the eigenvalue k=-1:

It is easily seen that this system reduces to the single equation 2x+y+2z=0 since the other two equations are twice this one. There are two parameters here (x and z) thus, eigenvectors for k=-1 must have the form y=-2x-2z which corresponds to vectors of the form <s,-2s-2t,t>. We must choose values of s and t that yield two orthogonal vectors (the third comes from the eigenvalue k=8). First, choose anything, say s=1 and t=0: <1,-2,0>. Now find a vector <x,-2x-2z,z> such that

An easy choice here is x=4 and z=-5. So, we now have two orthogonal vectors <1,-2,0> and <4,2,-5> that correspond to the two instances of the eigenvalue k=-1. It can also be shown that the eigenvectors for k=8 are of the form <2r,r,2r> for any value of r. It is easy to check that this vector is orthogonal to the other two we have for any choice of r. So, let's take r=1. We now have the following: eigenvalues and orthogonal eigenvectors:

Note that since this matrix is symmetric we do indeed have 3 eigenvalues and a set of 3 orthogonal (and thus linearly independent) eigenvectors (one for each eigenvalue).


شاهد الفيديو: مثال بسيط عن القيم الذاتية (شهر اكتوبر 2021).