مقالات

11.7: تحليل القيمة المفردة - الرياضيات


يعمم تحلل القيمة المفردة مفهوم الأقطار. إن قطرية (T in mathcal {L} (V) ) تعني إيجاد أساس متعامد (e ) بحيث يكون (T ) قطريًا فيما يتعلق بهذا الأساس ، أي ،

[M (T؛ e، e) = [T] _e = begin {bmatrix} lambda_1 && 0 & ddots & 0 && lambda_n end {bmatrix}، ]

حيث يشير الترميز (M (T؛ e، e) ) إلى أن الأساس (e ) يستخدم لكل من المجال والمجال الرمزي لـ (T ). تخبرنا نظرية الطيف أنه لا يمكن عمل القطر الوحدوي إلا للمشغلين العاديين. بشكل عام ، يمكننا العثور على قاعدتين متعامدتين (e ) و (f ) على هذا النحو

[M (T؛ e، f) = start {bmatrix} s_1 && 0 & ddots & 0 && s_n end {bmatrix}، ]

مما يعني أن (Te_i = s_i f_i ) حتى لو كان (T ) غير طبيعي. يتم استدعاء الحجميات (s_i ) قيم فردية من (T ). إذا كان (T ) قابلاً للقطر ، فهذه هي القيم المطلقة لقيم eigenvalues.

نظرية 11.7.1

الجميع (T in mathcal {L} (V) ) لها تحلل ذو قيمة فردية. وهذا يعني أنه توجد قواعد متعامدة (e = (e_1، ldots، e_n) ) و (و = (f_1، النقاط، f_n) ) مثل ذلك

[Tv = s_1 inner {v} {e_1} f_1 + cdots + s_n inner {v} {e_n} f_n، ]

أين (s_i ) هي القيم الفريدة لـ (T ).

دليل

بما أنه (| T | ge 0 ) ، فهو أيضًا مقارب ذاتي. وبالتالي ، من خلال نظرية الطيف ، هناك أساس متعامد (e = (e_1، ldots، e_n) ) لـ (V ) مثل (| T | e_i = s_i e_i ). دع (U ) يكون المصفوفة الوحدوية في التحلل القطبي لـ (T ). نظرًا لأن (e ) متعامد ، يمكننا كتابة أي متجه (v in V ) بصيغة

ابدأ {المعادلة *}
v = inner {v} {e_1} e_1 + cdots + inner {v} {e_n} e_n ،
نهاية {المعادلة *}

وبالتالي

ابدأ {المعادلة *}
التلفزيون = U | T | v = s_1 inner {v} {e_1} Ue_1 + cdots + s_n inner {v} {e_n} Ue_n.
نهاية {المعادلة *}

الآن قم بتعيين (f_i = U e_i ) للجميع (1 le i le n ). نظرًا لأن (U ) وحدوي ، فإن ((f_1، ldots، f_n) ) هو أيضًا أساس متعامد ، مما يثبت النظرية.

(ميدان)


تحليل القيمة المفردة¶

اليوم سوف ندرس التحليل الأكثر فائدة في الجبر الخطي التطبيقي.

تحليل القيمة المفردة هو "سكين الجيش السويسري" و ال "رولزرويس" من تحلل المصفوفة.

تحلل القيمة المفردة هو عامل مصفوفة.

الآن ، أول شيء يجب معرفته هو ذلك كل المصفوفة لها قيمة تحلل فردية.


11.7: تحليل القيمة المفردة - الرياضيات

يتم توفير جميع المقالات المنشورة بواسطة MDPI على الفور في جميع أنحاء العالم بموجب ترخيص وصول مفتوح. لا يلزم الحصول على إذن خاص لإعادة استخدام كل أو جزء من المقالة المنشورة بواسطة MDPI ، بما في ذلك الأشكال والجداول. بالنسبة للمقالات المنشورة بموجب ترخيص Creative Common CC BY ذي الوصول المفتوح ، يمكن إعادة استخدام أي جزء من المقالة دون إذن بشرط الاستشهاد بالمقال الأصلي بوضوح.

تمثل الأوراق الرئيسية أكثر الأبحاث تقدمًا مع إمكانات كبيرة للتأثير الكبير في هذا المجال. يتم تقديم الأوراق الرئيسية بناءً على دعوة فردية أو توصية من قبل المحررين العلميين وتخضع لمراجعة الأقران قبل النشر.

يمكن أن تكون ورقة الميزات إما مقالة بحثية أصلية ، أو دراسة بحثية جديدة جوهرية غالبًا ما تتضمن العديد من التقنيات أو المناهج ، أو ورقة مراجعة شاملة مع تحديثات موجزة ودقيقة عن آخر التقدم في المجال الذي يراجع بشكل منهجي التطورات الأكثر إثارة في العلم. المؤلفات. يوفر هذا النوع من الأوراق نظرة عامة على الاتجاهات المستقبلية للبحث أو التطبيقات الممكنة.

تستند مقالات اختيار المحرر على توصيات المحررين العلميين لمجلات MDPI من جميع أنحاء العالم. يختار المحررون عددًا صغيرًا من المقالات المنشورة مؤخرًا في المجلة ويعتقدون أنها ستكون مثيرة للاهتمام بشكل خاص للمؤلفين أو مهمة في هذا المجال. الهدف هو تقديم لمحة سريعة عن بعض الأعمال الأكثر إثارة المنشورة في مجالات البحث المختلفة بالمجلة.


جداول البيانات وقواعد البيانات والمصفوفات والرسوم البيانية

رقم ال ISBN: 9780262347907 | حقوق الطبع والنشر 2018

طلبات المعلم

الرجاء الدخول أو التسجيل للمتابعة

لخدمتك بشكل أفضل ، يرجى تسجيل الدخول إلى حساب مدرسك. إذا كنت مدرسًا جديدًا في MIT Press | الكتب الدراسية الإلكترونية ، يرجى استخدام الزر أدناه للتسجيل.

توسيع / ​​طي الكل
محتويات (ص. السابع)
مقدمة (ص. الحادي عشر)
مقدمة (ص الثالث عشر)
عن المؤلفين (ص السابع عشر)
حول الغلاف (ص. التاسع عشر)
شكر وتقدير (ص الثالث والعشرون)
التطبيقات والممارسات (ص 1)
1 مقدمة ونظرة عامة (ص 3)
1.1 رياضيات البيانات (ص 3)
1.2 البيانات في العالم (ص 5)
1.3 أسس رياضية (ص 9)
1.4 جعل البيانات صارمة (ص 14)
1.5 الاستنتاجات والتمارين والمراجع (ص 16)
2 وجهات نظر حول البيانات (ص 19)
2.1 العلاقات المتبادلة (ص 19)
2.2 جداول البيانات (ص 20)
2.3 قواعد البيانات (ص 22)
2.4 المصفوفات (ص 26)
2.5 الرسوم البيانية (ص 27)
2.6 خريطة الحد (ص 29)
2.7 وجهات نظر أخرى (ص 30)
2.8 الاستنتاجات والتمارين والمراجع (ص 31)
3 نموذج بيانات الأبعاد الموزعة الديناميكي (ص 37)
3.1 الخلفية (ص 37)
3.2 التصميم (ص 38)
3.3 الرياضيات المصفوفة (ص 39)
3.4 واجهة SQL و NoSQL و NewSQL الشائعة (ص 40)
3.5 مخطط قاعدة بيانات مخزن القيمة الرئيسية (ص 41)
3.6 التحليلات المستقلة عن البيانات (ص 44)
3.7 أداء موازي (ص 49)
3.8 الحوسبة على البيانات المقنعة (ص 51)
3.9 الاستنتاجات والتمارين والمراجع (ص 53)
4 المصفوفات النقابية والبيانات الوصفية الموسيقية (ص 57)
4.1 البيانات والبيانات الوصفية (ص 57)
4.2 البيانات الكثيفة (ص 58)
4.3 العمليات الكثيفة (ص 60)
4.4 بيانات متفرقة (ص 62)
4.5 عمليات متفرقة (ص 63)
4.6 الاستنتاجات والتمارين والمراجع (ص 65)
5 المصفوفات النقابية والفن التجريدي (ص 69)
5.1 التجريد البصري (ص 69)
5.2 مصفوفة الحد الأدنى من الجوار (ص 71)
5.3 مصفوفة التجاور المتماثل (ص 73)
5.4 مصفوفة المحاذاة الموزونة (ص 75)
5.5 مصفوفة الوقوع (ص 75)
5.6 الاستنتاجات والتمارين والمراجع (ص 78)
6 التلاعب بالرسوم البيانية بالمصفوفات (ص 81)
6.1 مقدمة (ص 81)
6.2 مؤشرات وقيم المصفوفة (ص 86)
6.3 عمليات الرسم البياني المركب والأنظمة الخطية (ص 89)
6.4 نظرة عامة على عمليات الرسم البياني للمصفوفة (ص 96)
6.5 خوارزميات الرسم البياني والفصول الدراسية المتنوعة (ص 105)
6.6 الاستنتاجات والتمارين والمراجع (ص 108)
7 تحليل الرسم البياني وأنظمة التعلم الآلي (ص 115)
7.1 مقدمة (ص 115)
7.2 تمثيل البيانات (ص 116)
7.3 إنشاء الرسم البياني (ص 118)
7.4 تجاور رسم مصفوفة رسم بياني (ص 120)
7.5 اجتياز مصفوفة الرسم البياني للوقوع (ص 122)
7.6 مركزية درجة الرأس (ص 126)
7.7 مركزية درجة الحافة (ص 129)
7.8 مركزية Eigenvector (ص 129)
7.9 تحليل القيمة الفردية (ص 133)
7.10 PageRank (ص 136)
7.11 الشبكات العصبية العميقة (ص 138)
7.12 الاستنتاجات والتمارين والمراجع (ص 140)
ثانيا أسس الرياضيات (ص 145)
8 تصور جبر المصفوفات الترابطية (ص 147)
8.1 نظائر الصفيف النقابية لعمليات المصفوفة (ص 147)
8.2 الجبر المجرد لعلماء ومهندسي الحاسوب (ص 150)
8.3 تصوير الرياضيات (ص 152)
8.4 مخططات فئة الصفيف النقابي (ص 153)
8.5 مجموعة (ص 154)
8.6 نصف نهائي (ص 155)
8.7 الجبر الخطي (ص 158)
8.8 المجموعات المطلوبة (ص 160)
8.9 الجبر البولي (ص 162)
8.10 الصفيف النقابي الجبر (ص 164)
8.11 الاستنتاجات والتمارين والمراجع (ص 164)
9 تعريف الجبر من ارا الترابطي (ص 169)
9.1 عمليات في مجموعات (ص 169)
9.2 المجموعات المطلوبة (ص 175)
9.3 Supremum و Infimum (ص 177)
9.4 شعرية (ص 181)
9.5 تزاوج الاهتمام (ص 186)
9.6 الاستنتاجات والتمارين والمراجع (ص 189)
10 الخصائص الهيكلية للصفائف النقابية (ص 193)
10.1 هيكل التقدير (ص 193)
10.2 تعريف رسمي للصفيف النقابي (ص .194)
10.3 حشو المصفوفات الترابطية بالأصفار (ص 197)
10.4 صفر ، لاغ ، خالٍ من الصفر (ص 198)
10.5 خصائص المصفوفات والمصفوفات الترابطية (ص 199)
10.6 خصائص الحشو الصفري (ص 201)
10.7 الدعم والحجم (ص 207)
10.8 الصورة والترتيب (ص 208)
10.9 مثال: الموسيقى (ص 209)
10.10 مثال: الفن (ص 211)
10.11 خصائص إضافة العناصر الحكيمة (ص 213)
10.12 خصائص الضرب بالعناصر (ص 217)
10.13 صفيف الضرب (ص 221)
10.14 إقفال العمليات بين المصفوفات (ص 228)
10.15 الاستنتاجات والتمارين والمراجع (ص 229)
11 إنشاء الرسم البياني والأنماط الرسومية (ص 235)
11.1 مقدمة (ص 235)
11.2 تعريفات مصفوفة الجوار والوقوع (ص .236)
11.3 بناء مصفوفة التجاور (ص 242)
11.4 رسم بياني لبناء فصول دراسية مختلفة (ص 250)
11.5 المصفوفات والرسوم البيانية الخاصة (ص 255)
11.6 ترتيب المفاتيح (ص 258)
11.7 الخصائص الجبرية (ص 263)
11.8 خصائص الكائن الفرعي (ص 264)
11.9 الاستنتاجات والتمارين والمراجع (ص 266)
III الأنظمة الخطية (ص 269)
12 مسح التحولات المشتركة (ص 271)
12.1 تحويلات الصفيف (ص 271)
12.2 الهوية (ص 274)
12.3 الانكماش (ص 290)
12.4 التمدد (ص 293)
12.5 الدوران (ص 297)
12.6 الاستنتاجات والتمارين والمراجع (ص 299)
13 خرائط وأسس (ص 303)
13.1 نصف الوحدات (ص 303)
13.2 الخرائط الخطية (ص 307)
13.3 الاستقلال الخطي والأسس (ص 309)
13.4 وجود القواعد (ص 312)
13.5 حجم القواعد (ص 313)
13.6 شبه الجبر والجبر للصفائف (ص 317)
13.7 الاستنتاجات والتمارين والمراجع (ص 320)
14 خطية المصفوفات النقابية (ص 323)
14.1 المساحة الفارغة للخرائط الخطية (ص 323)
14.2 الجبر الفائق الخالي (ص 326)
14.3 نظرية البنية القصوى للفراغ (ص 334)
14.4 أمثلة على الجبر الخالي من الدرجة الممتازة (ص 338)
14.5 الحسابات الصريحة لـ x & # 40A، w & # 41 للجبر Supremum-Blank (ص 342)
14.6 الاستنتاجات والتمارين والمراجع (ص 348)
15 القيم الذاتية والمتجهات الذاتية (ص 351)
15.1 مقدمة (ص 351)
15.2 شبه معكوسة (ص 353)
15.3 وجود قيم ذاتية من أجل الضرب الكامن (ص 359)
15.4 الاعتماد القوي والميزة ثنائية الحدود المميزة (ص 360)
15.5 التحليل الذاتي للمصفوفات غير القابلة للاختزال من أجل الضرب العكسي (ص 367)
15.6 Eigen-Semimodules (ص 373)
15.7 تحليل القيمة الفردية (ص 378)
15.8 الاستنتاجات والتمارين والمراجع (ص 385)
16 أبعاد أعلى (ص 389)
16.1 د- المصفوفات النقابية الأبعاد (ص 389)
16.2 ترتيب المفاتيح والتوقعات ثنائية الأبعاد (ص 392)
16.3 الخصائص الجبرية (ص 398)
16.4 خصائص المصفوفة الفرعية (ص 400)
16.5 الاستنتاجات والتمارين والمراجع (ص 402)
الملحق: التدوين (ص 405)
فهرس (ص 413)

جيريمي كيبنر

جيريمي كيبنر هو زميل مختبر لينكولن في معهد ماساتشوستس للتكنولوجيا ، ومؤسس ورئيس مركز الحوسبة الفائقة لمختبر MIT لينكولن ، والباحث التابع في قسم الرياضيات بمعهد ماساتشوستس للتكنولوجيا.

هايدن جانانثان

هايدن جانانثان طالب دكتوراه في قسم الرياضيات بجامعة فاندربيلت.


في التحليل العددي ، يتم استخدام تحليلات مختلفة لتنفيذ خوارزميات مصفوفة فعالة.

وبالمثل ، يعبر تحلل QR أ مثل ريال قطري مع س مصفوفة متعامدة و ص مصفوفة مثلثة عليا. النظام س(صx) = ب يتم حلها بواسطة صx = س تي ب = جوالنظام صx = ج يتم حلها عن طريق "الاستبدال الخلفي". عدد الإضافات والمضاعفات المطلوبة هو حوالي ضعف عدد مرات استخدام محلل LU ، ولكن لا يلزم المزيد من الأرقام في الحساب غير الدقيق لأن تحلل QR مستقر عدديًا.

تحرير تحلل LU

  • ينطبق تقليديا على: مصفوفة مربعةأ، على الرغم من إمكانية تطبيق المصفوفات المستطيلة. [1] [ملحوظة 1]
  • التحلل: A = L U ، أين إل هو المثلث السفلي و يو هو مثلث علوي
  • ذات صلة: ملف LDU التحلل هو A = L D U ، حيث إل هو مثلث سفلي مع تلك الموجودة على القطر ، يو هو مثلث علوي مع تلك الموجودة على القطر ، و د هي مصفوفة قطرية.
  • ذات صلة: ملف LUP التحلل هو A = L U P ، أين إل هو المثلث السفلي ، يو هو مثلث علوي ، و ص هي مصفوفة التقليب.
  • الوجود: يوجد تحلل LUP لأي مصفوفة مربعة أ. متي ص هي مصفوفة هوية ، يقلل تحلل LUP إلى تحلل LU. إذا كان تحلل LU موجودًا ، فإن تحلل LDU موجود. [2]
  • التعليقات: تحليلات LUP و LU مفيدة في حل ملف ن-بواسطة-ن نظام المعادلات الخطية A x = b = mathbf >. تلخص هذه التحليلات عملية القضاء على Gaussian في شكل مصفوفة. مصفوفة ص يمثل أي تقاطعات الصفوف التي تم إجراؤها في عملية القضاء على Gaussian. إذا كان الإقصاء الغاوسي ينتج شكل درجة الصف دون الحاجة إلى أي تبادل للصفوف ، إذن ص = أنا، لذلك يوجد تحلل LU.

تحرير تخفيض LU

تحرير تحلل كتلة LU

تحرير عامل الترتيب

  • تنطبق على: م-بواسطة-ن مصفوفة أ من رتبة ص
  • التحلل: A = C F < displaystyle A = CF> أين ج هو م-بواسطة-ص مصفوفة رتبة العمود الكامل و F هو ص-بواسطة-ن مصفوفة رتبة الصف الكامل
  • تعليق: يمكن استخدام عامل الترتيب لحساب مور وبنروز العكسي الزائف لـ أ، [3] التي يمكن للمرء أن يطبقها للحصول على جميع حلول النظام الخطي A x = b < displaystyle A mathbf = mathbf > .

تحرير تحلل تشوليسكي

  • ينطبق على: مصفوفة محددة مربعة ، ناسك ، موجبة أ
  • التحليل: A = U ∗ U < displaystyle A = U ^ <*> U> ، حيث U عبارة عن مثلث علوي بإدخالات قطرية موجبة حقيقية
  • تعليق: إذا كانت المصفوفة A < displaystyle A> هيرميتية وشبه محددة موجبة ، فإنها تحتوي على تحلل بالصيغة A = U ∗ U < displaystyle A = U ^ <*> U> إذا كانت المدخلات القطرية لـ U < displaystyle U> يُسمح بأن يكون صفرًا
  • التفرد: بالنسبة لمصفوفات محددة موجبة ، فإن تحلل تشوليسكي فريد من نوعه. ومع ذلك ، فهي ليست فريدة من نوعها في الحالة الإيجابية شبه المحددة.
  • تعليق: إذا كان A حقيقيًا ومتماثلًا ، فإن U < displaystyle U> بها جميع العناصر الحقيقية
  • تعليق: البديل هو تحلل LDL ، والذي يمكن أن يتجنب استخراج الجذور التربيعية.

تحرير تحلل QR

  • تنطبق على: م-بواسطة-ن مصفوفة أ بأعمدة مستقلة خطيًا
  • التحليل: A = Q R < displaystyle A = QR> حيث Q < displaystyle Q> هي مصفوفة أحادية الحجم م-بواسطة-م، و R هي مصفوفة مثلثة عليا من الحجم م-بواسطة-ن
  • التفرد: بشكل عام ليس فريدًا ، ولكن إذا كانت A < displaystyle A> ذات رتبة كاملة ، فهناك R واحد < displaystyle R> يحتوي على جميع العناصر القطرية الموجبة. إذا كانت A < displaystyle A> مربعة ، فإن Q < displaystyle Q> تكون فريدة أيضًا.
  • تعليق: يوفر تحليل QR طريقة فعالة لحل نظام المعادلات A x = b = mathbf >. حقيقة أن Q < displaystyle Q> متعامدة تعني أن Q T Q = I < displaystyle Q ^ < mathrm > Q = I> ، بحيث يكون A x = b < displaystyle A mathbf = mathbf > يكافئ R x = Q T b < displaystyle R mathbf = Q ^ < mathsf > mathbf > ، وهو حل سهل للغاية لأن R < displaystyle R> مثلث.

تحرير عامل RRQR

تحرير التحلل الإقحامي

تحرير Eigendecomposition

  • وتسمى أيضا التحلل الطيفي.
  • ينطبق على: مصفوفة مربعةأ مع المتجهات الذاتية المستقلة خطيًا (وليس بالضرورة قيم ذاتية مميزة).
  • التحلل: A = V D V - 1 < displaystyle A = VDV ^ <-1>> ، حيث د هي مصفوفة قطرية تتكون من القيم الذاتية لـ أوأعمدة الخامس هي المتجهات الذاتية المقابلة لـ أ.
  • الوجود: أن ن-بواسطة-ن مصفوفة أ دائما ن (معقدة) قيم eigenvalues ​​، والتي يمكن ترتيبها (بأكثر من طريقة) لتشكيل ملف ن-بواسطة-ن مصفوفة قطرية د ومصفوفة مقابلة من الأعمدة غير الصفرية الخامس يفي بمعادلة القيمة الذاتية A V = V D . يكون V < displaystyle V> قابلاً للعكس إذا وفقط إذا كان ن المتجهات الذاتية مستقلة خطيًا (أي أن كل قيمة ذاتية لها تعدد هندسي يساوي تعددها الجبري). الشرط الكافي (ولكن ليس ضروريًا) لحدوث ذلك هو أن جميع قيم eigenvalues ​​مختلفة (في هذه الحالة ، التعددية الهندسية والجبرية تساوي 1)
  • تعليق: يمكن للمرء دائمًا تطبيع المتجهات الذاتية ليكون لها طول واحد (انظر تعريف معادلة القيمة الذاتية)
  • تعليق: كل مصفوفة عاديةأ (على سبيل المثال ، المصفوفة التي A A ∗ = A ∗ A < displaystyle AA ^ <*> = A ^ <*> A> ، حيث A ∗ > عبارة عن تبديل مترافق) يمكن تجميعها. لمصفوفة عاديةأ (وفقط للمصفوفة العادية) ، يمكن أيضًا جعل المتجهات الذاتية متعامدة (VV ∗ = I = I>) ويقرأ eigendecomposition على أنه A = VDV ∗ >. على وجه الخصوص ، تعد جميع المصفوفات الوحدوية أو الهرميتية أو المنحرفة (في الحالة ذات القيمة الحقيقية ، جميع المصفوفات المتعامدة أو المتماثلة أو المتماثلة المنحرفة ، على التوالي) طبيعية وبالتالي تمتلك هذه الخاصية.
  • تعليق: لأي مصفوفة متماثلة حقيقيةأ، فإن eigendecomposition موجود دائمًا ويمكن كتابته كـ A = V D V T >> ، حيث كلاهما د و الخامس هي ذات قيمة حقيقية.
  • تعليق: التكوُّن eigendecomposition مفيد لفهم حل نظام المعادلات التفاضلية الخطية العادية أو معادلات الفروق الخطية. على سبيل المثال ، معادلة الفرق x t + 1 = A x t < displaystyle x_= الفأس_> بدءًا من الشرط الأولي x 0 = c < displaystyle x_ <0> = c> يتم حلها بواسطة x t = A t c < displaystyle x_= أ ^c> ، وهو ما يعادل x t = V D t V - 1 c < displaystyle x_= VD ^V ^ <-1> ج> ، أين الخامس و د هي المصفوفات المكونة من المتجهات الذاتية والقيم الذاتية لـ أ. حيث د قطري ، رفعه إلى القوة D t < displaystyle D ^> ، يتضمن فقط رفع كل عنصر على القطر إلى الأس ر. هذا أسهل بكثير من القيام به وفهمه من الرفع أ إلى السلطة ر، حيث أ عادة لا تكون قطرية.

تعديل تحلل الأردن

  • ينطبق على: مصفوفة مربعةأ
  • تعليق: الشكل العادي للأردن يعمم التكوين الذاتي في الحالات التي توجد فيها قيم ذاتية متكررة ولا يمكن أن تكون قطرية ، فإن تحلل الأردن - شوفالي يفعل ذلك دون اختيار الأساس.

تحرير تحلل شور

  • ينطبق على: مصفوفة مربعةأ
  • التحلل (نسخة معقدة): A = U T U ∗ > ، أين يو هي مصفوفة وحدوية ، U ∗ < displaystyle U ^ <* >> هي التدوير المترافق لـ يو، و تي هي مصفوفة مثلثة عليا تسمى شكل شور المعقد والتي لها قيم eigenvalues ​​لـ أ على طول قطريه.
  • التعليق: إذا أ هي مصفوفة عادية ، إذن تي قطري ويتزامن تحلل شور مع التحلل الطيفي.

تحرير تحلل شور الحقيقي

  • ينطبق على: مصفوفة مربعةأ
  • التحلل: هذه نسخة من تحلل شور حيث تحتوي V < displaystyle V> و S < displaystyle S> على أرقام حقيقية فقط. يمكن للمرء دائمًا كتابة A = V S V T < displaystyle A = VSV ^ < mathsf >> أين الخامس هي مصفوفة متعامدة حقيقية ، V T >> هو تبديل الخامس، و س هي كتلة مصفوفة مثلثة عليا تسمى شكل شور الحقيقي. الكتل على قطري س هي بحجم 1 × 1 (وفي هذه الحالة تمثل قيم ذاتية حقيقية) أو 2 × 2 (في هذه الحالة يتم اشتقاقها من أزواج قيمة ذاتية مترافقة معقدة).

تحرير تحلل QZ

  • وتسمى أيضا: تحلل شور المعمم
  • ينطبق على: المصفوفات المربعةأ و ب
  • تعليق: هناك نسختان من هذا التحلل: معقد وحقيقي.
  • التحلل (نسخة معقدة): A = Q S Z ∗ > و B = Q T Z ∗ > أين س و ض هي مصفوفات وحدوية ، ويمثل الحرف العلوي * تبديل مترافق ، و س و تي هي المصفوفات المثلثية العليا.
  • تعليق: في التحلل المعقد QZ ، نسب العناصر القطرية من س إلى العناصر القطرية المقابلة لـ تي، λ i = S i / T i = S_/ T_> ، هي قيم eigenvalues ​​المعممة التي تحل مشكلة القيمة الذاتية المعممة A v = λ B v = لامدا ب mathbf > (حيث λ هو عدد غير معروف و الخامس متجه غير معروف صفري).
  • التحلل (نسخة حقيقية): A = Q S Z T >> و B = Q T Z T >> أين أ, ب, س, ض, س، و تي هي مصفوفات تحتوي على أرقام حقيقية فقط. في هذه الحالة س و ض هي المصفوفات المتعامدة تي يمثل الكتابة المرتفعة التحويل ، و س و تي هي كتلة المصفوفات المثلثية العليا. الكتل على قطري س و تي بحجم 1 × 1 أو 2 × 2.

تحرير التحليل إلى عوامل Takagi

  • ينطبق على: مصفوفة مربعة ، معقدة ، متماثلة أ.
  • التحلل: A = V D V T >> ، أين د هي مصفوفة قطرية غير سالبة حقيقية ، و الخامس هو وحدوي. V T >> تدل على تبديل المصفوفة الخامس.
  • تعليق: العناصر القطرية لـ د هي الجذور التربيعية غير السالبة للقيم الذاتية لـ A A ∗ >.
  • تعليق: الخامس قد تكون معقدة حتى لو أ انه حقيقي.
  • التعليق: هذه ليست حالة خاصة من eigendecomposition (انظر أعلاه) ، والتي تستخدم V - 1 > بدلاً من V T >>. علاوة على ذلك ، إذا أ ليس حقيقيًا ، وليس هرميتًا ، كما أن النموذج الذي يستخدم V ∗ < displaystyle V ^ <* >> لا ينطبق أيضًا.

تحرير تحلل القيمة المفردة

  • تنطبق على: م-بواسطة-ن مصفوفة أ.
  • التحلل: A = U D V ∗ < displaystyle A = UDV ^ <* >> ، أين د هي مصفوفة قطرية غير سالبة ، و يو و الخامس إرضاء U ∗ U = I ، V ∗ V = I < displaystyle U ^ <*> U = I ، V ^ <*> V = I>. هنا V ∗ < displaystyle V ^ <* >> هو منقول مرافق الخامس (أو ببساطة تبديل ، إذا الخامس يحتوي على أرقام حقيقية فقط) ، و أنا يشير إلى مصفوفة الهوية (لبعض الأبعاد).
  • تعليق: العناصر القطرية لـ د تسمى القيم الفردية لـ أ.
  • تعليق: مثل eigendecomposition أعلاه ، يتضمن تحليل القيمة المفردة إيجاد اتجاهات أساسية على طولها تكافئ المصفوفة الضرب القياسي ، ولكن لها عمومية أكبر حيث لا يلزم أن تكون المصفوفة قيد النظر مربعة.
  • التفرد: دائمًا ما يتم تحديد القيم الفردية لـ A < displaystyle A> بشكل فريد. لا يجب أن تكون U < displaystyle U> و V < displaystyle V> فريدة بشكل عام.

تحلل مقياس ثابت تحرير

يشير إلى متغيرات تحلل المصفوفة الموجودة ، مثل SVD ، والتي تعتبر ثابتة فيما يتعلق بالقياس القطري.

  • تنطبق على: م-بواسطة-ن مصفوفة أ.
  • تحليل القيمة المفردة غير المتغيرة للوحدة: A = D U S V ∗ E E> ، حيث س هي مصفوفة قطرية فريدة غير سالبة لقيم مفردة غير متغيرة الحجم ، يو و الخامس هي المصفوفات الوحدوية ، V ∗ > هو مترافق من تبديل الخامس، ومصفوفات قطرية موجبة د و ه.
  • تعليق: مماثل لـ SVD فيما عدا العناصر القطرية لـ س ثابتة فيما يتعلق بضرب اليسار و / أو اليمين أ من خلال المصفوفات القطرية غير المنطقية التعسفية ، على عكس SVD القياسي الذي تكون قيمه المفردة ثابتة فيما يتعلق بضرب اليسار و / أو اليمين أ بواسطة المصفوفات الوحدوية التعسفية.
  • تعليق: هو بديل لـ SVD القياسي عندما يكون الثبات مطلوبًا فيما يتعلق بالتحولات القطرية بدلاً من التحولات الأحادية أ.
  • التفرد: القيم المفردة الثابتة للمقياس A < displaystyle A> (تُعطى بواسطة العناصر القطرية لـ س) دائمًا بشكل فريد. مصفوفات قطرية د و هو الوحدوي يو و الخامس، ليست بالضرورة فريدة بشكل عام.
  • تعليق: يو و الخامس المصفوفات ليست مماثلة لتلك الموجودة في SVD.

يمكن اشتقاق التحليلات غير المتغيرة ذات المقياس المتماثل من تحلل المصفوفة الأخرى ، على سبيل المثال ، للحصول على قيم eigenvariant ذات المقياس. [4] [5]

تحرير التحلل القطبي

  • ينطبق على: أي مصفوفة معقدة مربعة أ.
  • التحلل: A = U P (التحلل القطبي الأيمن) أو A = P ′ U (التحلل القطبي الأيسر) ، حيث يو هي مصفوفة وحدوية و ص و P ' هي مصفوفات موجبة شبه محددة.
  • التفرد: P دائمًا فريد ويساوي A ∗ A أ >>> (والذي يكون دائمًا محكمًا وإيجابيًا شبه محدد). إذا كانت A < displaystyle A> قابلة للعكس ، فإن U < displaystyle U> تكون فريدة.
  • تعليق: بما أن أي مصفوفة هرميتية تسمح بالتحلل الطيفي بمصفوفة وحدوية ، يمكن كتابة P < displaystyle P> كـ P = V D V ∗ >. نظرًا لأن P < displaystyle P> موجبة شبه محددة ، فإن جميع العناصر في D < displaystyle D> غير سالبة. بما أن حاصل ضرب المصفوفتين الوحدويتين هو وحدوي ، فإن W = UV < displaystyle W = UV> يمكن للمرء أن يكتب A = U (VDV ∗) = WDV ∗ < displaystyle A = U (VDV ^ <*>) = WDV ^ <* >> وهو تحلل القيمة المفرد. ومن ثم ، فإن وجود التحلل القطبي يعادل وجود تحلل القيمة المفرد.

تحرير التحلل القطبي الجبري

  • ينطبق على: مصفوفة مربعة ومعقدة وغير مفردة أ. [6]
  • التحلل: A = Q S < displaystyle A = QS> ، أين س هي مصفوفة متعامدة معقدة و س هي مصفوفة متماثلة معقدة.
  • التفرد: إذا كان A T A < displaystyle A ^ < mathsf > A> ليس له قيم ذاتية حقيقية سلبية ، فإن التحلل فريد من نوعه. [7]
  • التعليق: وجود هذا التحلل يعادل A A T < displaystyle AA ^ < mathsf >> مشابه لـ A T A < displaystyle A ^ < mathsf > أ>. [8]
  • التعليق: أحد أشكال هذا التحلل هو A = R C < displaystyle A = RC> ، حيث ص هي مصفوفة حقيقية و ج هي مصفوفة دائرية. [7]

تحرير تحلل Mostow

  • ينطبق على: مصفوفة مربعة ومعقدة وغير مفردة أ. [9][10]
  • التحلل: A = U e i M e S ه ^> ، أين يو هو وحدوي ، م غير متماثل حقيقي و س متماثل حقيقي.
  • التعليق: المصفوفة أ يمكن أيضًا أن تتحلل كـ A = U 2 e S 2 e i M 2 < displaystyle A = U_ <2> e ^> ه ^>> ، أين يو2 هو وحدوي ، م2 غير متماثل حقيقي و س2 متماثل حقيقي. [7]

تحرير النموذج العادي Sinkhorn

  • ينطبق على: مصفوفة مربعة حقيقية أ بصرامة العناصر الإيجابية.
  • التحلل: A = D 1 S D 2 < displaystyle A = D_ <1> SD_ <2>> ، حيث س هو العشوائية على نحو مضاعف و د1 و د2 هي مصفوفات قطرية حقيقية مع عناصر موجبة تمامًا.

تحرير التحلل القطاعي

تحرير نموذج ويليامسون العادي

  • ينطبق على: مصفوفة حقيقية مربعة محددة موجبة أ مع الطلب 2ن×2ن.
  • التحلل: A = S T diag ⁡ (D، D) S > اسم مشغل (D ، D) S> ، حيث S ∈ Sp (2 n) > (2n)> هي مصفوفة رمزية و د غير سالب ن-بواسطة-ن مصفوفة قطرية. [13]

المصفوفة تحرير الجذر التربيعي

توجد نظائرها في تحليل عوامل SVD و QR و LU و Cholesky لـ أشباهات و كماتريس أو المصفوفات المستمرة. [14] "quasimatrix" ، مثل المصفوفة ، مخطط مستطيل مفهرسة عناصره ، ولكن يتم استبدال فهرس واحد منفصل بمؤشر متصل. وبالمثل ، فإن "cmatrix" مستمر في كلا المؤشرين. كمثال على cmatrix ، يمكن للمرء أن يفكر في نواة عامل لا يتجزأ.

تستند هذه العوامل إلى العمل المبكر لفريدهولم (1903) وهيلبرت (1904) وشميدت (1907). للحصول على حساب وترجمة إلى اللغة الإنجليزية للأوراق الأساسية ، انظر Stewart (2011).


3. ترميز واحد ساخن

تعمل أحيانًا مع البيانات الفئوية في التعلم الآلي.

ربما تسميات الفصل لمشاكل التصنيف ، أو ربما متغيرات المدخلات الفئوية.

من الشائع ترميز المتغيرات الفئوية لتسهيل التعامل مع بعض التقنيات والتعلم منها. الترميز الشائع للمتغيرات الفئوية هو الترميز الأكثر شيوعًا.

ترميز واحد ساخن هو المكان الذي يتم فيه إنشاء جدول لتمثيل المتغير بعمود واحد لكل فئة وصف لكل مثال في مجموعة البيانات. تتم إضافة تحقق ، أو قيمة واحدة ، في العمود للقيمة الفئوية لصف معين ، وتضاف قيمة صفرية إلى جميع الأعمدة الأخرى.

على سبيل المثال ، متغير اللون مع الصفوف الثلاثة:

يتم ترميز كل صف على هيئة متجه ثنائي ، أو متجه بقيم صفرية أو واحدة ، وهذا مثال على تمثيل متناثر ، ومجال فرعي كامل للجبر الخطي.

لمزيد من المعلومات حول الترميز الساخن ، راجع البرنامج التعليمي:


مجلة SIAM على تحليل وتطبيقات المصفوفة

تحلل القيمة الفردية لمصفوفة مربعة أ يجيب على سؤالين. أولاً ، يقيس المسافة من أ لأقرب مصفوفة مفردة ، تقيس المسافة بقاعدة ثنائية. كما أنها تحسب رقم الشرط ، أو حساسية $ A ^ <- 1> $ للاضطرابات في أ، حيث تُقاس الحساسية أيضًا بالمعيارين. كما هو معروف ، هاتان الكميتان ، الحد الأدنى للمسافة إلى التفرد ورقم الشرط ، هما أساسًا متبادلان. استخدام خوارزمية Golub و Kahan [SIAM J. Numer. الشرج. ، سر. B، 2 (1965)، pp.205–224] وأحفادها ، يمكن حساب هذه الكميات في عمليات $ O (n ^ 3) $. يوسع تحليل الحساسية الأحدث هذا التحليل ليشمل الاضطرابات ذات الأحجام القصوى المختلفة في كل إدخال أ. قد يسأل المرء مرة أخرى عن المسافة إلى التفرد وأرقام الشرط والتعقيد في هذا السياق الجديد. يتضح أنه لا يمكن أن تكون هناك علاقة بسيطة بين المسافة إلى التفرد ورقم الشرط ، لأنه يمكن حساب رقم الشرط في وقت كثير الحدود والمسافة إلى التفرد كاملة NP. ومع ذلك ، هناك بعض التفاوتات المفيدة المتعلقة بالاثنين ، خاصة في حالة الاضطرابات النسبية المكونة.


15.5 ضغط البيانات وتصفية الضوضاء باستخدام SVD

هناك استخدامان شائعان لتحلل القيمة المفردة وهما ضغط البيانات وتصفية الضوضاء. سنقوم بتوضيح ذلك من خلال مثالين يشتملان على مصفوفات تمثل بيانات الصورة. هذا المثال مأخوذ من مقال بقلم David Austin ، موجود في برنامج تعليمي حول SVD على موقع American Mathematical Society على الويب.

15.5.1 مثال على الصورة

ملف zeros.dat من ويكي المقرر الدراسي. هذه مصفوفة ثنائية (25 ضرب 15 ) تمثل قيم البكسل في صورة ثنائية بسيطة (أبيض وأسود).

يمكن اعتبار مصفوفة البيانات هذه على أنها تتكون من ثلاثة أنواع فقط من المتجهات ، كل منها موضح في الشكل التالي:

أنواع المتجهات الثلاثة في مصفوفة "صفر"

إذا كان SVD يعمل بالشكل المتوقع ، فيجب أن يلتقط هذه الميزة في مصفوفة الإدخال الخاصة بنا ، ويجب أن نكون قادرين على تمثيل الصورة بأكملها باستخدام ثلاث قيم مفردة فقط والمتجهات المرتبطة بها المفرد الأيمن والأيسر.

تتطلب المصفوفة الأصلية الخاصة بنا عناصر تخزين (25 مرات 15 ) ( (= 375 )). باستخدام SVD ، يمكننا تمثيل نفس البيانات باستخدام وحدات تخزين (15 مرات 3 + 25 مرات 3 + 3 = 123 ) (تتوافق مع U و V و D المقتطعة في المثال أعلاه). وبالتالي ، فإن SVD الخاص بنا يسمح لنا بتمثيل نفس البيانات بحجم أقل من (1/3 ) من حجم المصفوفة الأصلية. في هذه الحالة ، نظرًا لأن جميع القيم المفردة بعد الثالثة كانت صفرًا ، فهذا إجراء لضغط البيانات بدون فقدان البيانات.

الملف noisy-zero.dat هو نفس صورة "الصفر" ، ولكن الآن يتم رشها بتشويش Gaussian مستمدة من التوزيع الطبيعي (N (0،0.1) ). كما في حالة ضغط البيانات ، يمكننا استخدام SVD لتقريب مصفوفة الإدخال بتقريب منخفض الأبعاد. هنا SVD "ضياع" لأن تقريبنا يرمي المعلومات بعيدًا.في هذه الحالة نأمل في اختيار البعد التقريبي بحيث تتوافق المعلومات التي نفقدها مع الضوضاء التي "تلوث" بياناتنا.

الآن نقوم بتنفيذ SVD للمصفوفة التي تمثل هذه الصورة الصاخبة:

أخيرًا ، قمنا برسم تقريب هذه الصورة بناءً على المتجهات / القيم الفردية الثلاثة الأولى:

كما ترى من الصور التي قمت بإنشائها ، فإن التقريب بناءً على التقريب المستند إلى SVD يدير التقاط الميزات الرئيسية للمصفوفة وتصفية الكثير من التشويش (ولكن ليس كل).


شكر وتقدير

نحن ممتنون لاقتراحات أنتوني أوستن ، ماريو بيبندورف ، هروثجار ، سابين لوبورن ، كولين ماكدونالد ، كليف مولير وجيل سترانج. بالإضافة إلى ذلك ، نود أن نعرب عن تقديرنا للمساهمات البارزة لبيت ستيوارت على مر السنين في شرح الجذور التاريخية والرياضية لـ SVD وأفكار المصفوفة الأخرى ، بما في ذلك ترجماته المشروحة للأوراق الرئيسية لفريدهولم وآخرون. [5،15]. المؤلف الثاني يشكر مارتن جاندر من جامعة جنيف لاستضافته زيارة سبتية كُتب خلالها الكثير من هذه المقالة.

بيان التمويل

بدعم من مجلس البحوث الأوروبي في إطار البرنامج الإطاري السابع للاتحاد الأوروبي (FP7 / 2007-2013) / اتفاقية منحة ERC رقم. 291068. الآراء المعبر عنها في هذه المقالة ليست وجهات نظر منسق الإغاثة في حالات الطوارئ أو المفوضية الأوروبية ، والاتحاد الأوروبي ليس مسؤولاً عن أي استخدام للمعلومات الواردة هنا.


مفاهيم الجبر الخطي الأساسية لتعلم الآلة

شهد مجال علوم البيانات نموًا هائلاً في السنوات القليلة الماضية. على الرغم من أن المفهوم كان سائدًا في السابق أيضًا ، إلا أن الضجيج الأخير هو نتيجة لتنوع الأحجام الهائلة من البيانات غير المهيكلة التي يتم إنشاؤها عبر الصناعات المختلفة والإمكانات الهائلة المخفية تحت تلك البيانات. علاوة على ذلك ، فإن القوة الحاسوبية الهائلة التي تمتلكها أجهزة الكمبيوتر الحديثة جعلت من الممكن استخراج مثل هذه الأجزاء الضخمة من البيانات.

Now Data Science هي دراسة تتكون من عدة تخصصات بدءًا من تحليل البيانات الاستكشافية إلى التحليلات التنبؤية. هناك العديد من الأدوات والتقنيات التي يستخدمها المحترفون لاستخراج المعلومات من البيانات. ومع ذلك ، هناك مفهوم خاطئ شائع بينهم وهو التركيز أكثر على تلك الأدوات بدلاً من الرياضيات الكامنة وراء نمذجة البيانات. يميل الأشخاص إلى إيلاء أهمية كبيرة لخوارزميات التعلم الآلي بدلاً من الجبر الخطي أو مفاهيم الاحتمالات المطلوبة لجلب المعنى ذي الصلة من البيانات.

وبالتالي ، في منشور المدونة هذا ، سنغطي أحد المتطلبات المسبقة في علم البيانات ، أي الجبر الخطي وبعض المفاهيم الأساسية التي يجب أن تتعلمها.

فهم مفاهيم الجبر الخطي

لفهم النظرية الأساسية وراء التعلم الآلي أو التعلم العميق ، من الضروري أن يكون لديك معرفة كافية ببعض مفاهيم الجبر الخطي. لا يمكنك إتقان خوارزميات التعلم الآلي الحديثة دون معرفة الرياضيات.

فيما يلي بعض مفاهيم الجبر الخطي التي تحتاج إلى معرفتها لتعلم الآلة.

1. المصفوفة والمتجهات

يمكن القول إن اثنين من أهم المفاهيم التي قد تواجهها خلال رحلة التعلم الآلي الخاصة بك. تُعرف مصفوفة الأرقام بالمتجهات بينما المصفوفة عبارة عن متجهات ثنائية الأبعاد يتم التعبير عنها بشكل عام بأحرف كبيرة.

In Machine Learning terms, a vector is the target variable in a supervised learning problem where the features form the matrix in the data. Several operations like multiplication, transformation, rank, conjugate, etc., could be performed with the matrix.

Two vectors of equal shape and with same number of elements could be added and subtracted.

2. Diagonal Matrix

A matrix whose non-diagonal elements are all zero is known as Diagonal Matrix. A diagonal matrix’s inverse is easy to find unlike a generic a matrix. Multiplication of diagonal matrices are also easier. A matrix has no inverse if it its diagonal matrix is not square.

3. Orthogonal Matrix

A matrix whose product of the transpose and the matrix itself is equal to an Identity matrix is known as orthogonal matrix. The concept of orthogonality is important in Machine Learning or specifically in Principal Component Analysis which solves the curse of dimensionality.

Orthogonal matrix are so useful because its inverse is equal to its transpose. Also if any orthogonal matrix is multiplied with a scalar term, the errors of the scalar would not be magnified. To maintain numerical stability, this is a very desirable behaviour.

4. Symmetric Matrix

One of the important concepts in Machine Learning and Linear Algebra is symmetric matrix. Matrices in Linear Algebra are often used to hold f(vi, vj). These are often symmetrical functions and the matrix corresponding to it are also symmetric. The feature distance between the data points could be measured by f and also it could calculate the covariance of features. Some of the properties of symmetric matrix are –

The inverse of a symmetric matrix is symmetrical in nature.

  • There are no complex numbers in the eigenvalues. All values are real numbers.
  • Even with repeated eigenvalues, n eigenvectors could be chosen of S to be orthogonal.
  • Multiplying a matrix with its transpose would form the symmetric matrix.
  • If the columns of a matrix are linearly independent, then the product of the matrix and its transpose is invertible in nature.
  • Property of factorization is another important property of a symmetric matrix.

5. Eigenvalues and Eigenvectors –

A vector which doesn’t change its direction but only scales by magnitude of its eigenvalue is known as the eigenvector. It is one of most sought after concepts in Data Science

Here v is the (m x 1) eigenvectors and lambda is the (m x m) eigenvalues and A is a square matrix.

The basics of computing and mathematics is formed by the eigenvalues and the eigenvectors. A vector when plotted in an XY chart has a particular direction. Applying a linear transformation on certain vectors doesn’t change its direction which makes them extremely valuable in Machine Learning.

To reduce noise in the data both the eigenvalues and eigenvectors are used. In computationally intensive tasks, the efficiency could be improved using these two. Eigenvectors and Eigenvalues could also help to reduce overfitting as it eliminates the strongly co-related features.

Both eigenvectors and eigenvalues has a broad set of usages. Image, sound or textual data which has large set of features could often be difficult to visualize as it has more than three dimensions. Transforming such data using one-hot encoding or other methods is not space efficient at all. To resolve such scenarios, Eigenvectors and Eigenvalues are used which would capture the Information stored in a large matrix. Reducing the dimensions is the key in computationally intensive tasks. This lets us to the concept of PCA which we would describe below.

In facial recognition, eigenvectors and eigenvalues are used. Data could be better understood using the eigenvectors and the eigenvalues in non-linear motion dynamics.

6. Principal Component Analysis

A Machine Learning problem often suffers from the curse of dimensionality. It means that the features of the data are in higher dimension and is highly co-related. The problem that arises as a result of this is that it gets difficult to understand how each feature influences the target variable because highly co-related features would mean the target variable is equally influenced by both the features instead of one. Another issue with higher dimensional data is that you cannot visualize it because at most you could plot a 3-D data in a plane. Thus the performance of the model could not be interpreted as well.

PCA or Principal Component Analysis is a process by which you can reduce the dimension of your data to either a 2-D or 3-D data. The reduction in dimension is done keeping the maximum variance (95% to 99%) intact so that none of the information is lost. The data is reduced from a higher dimension to two or three independent principal components.

Now the maths behind Principal Component Analysis follows the concept of orthogonality. The data from higher dimension is projected on to a lower dimension sub-space and the goal is to reduce the projected error between the data points and the lower dimension sub-space. The reduction in the projected error would ensure increase in the variance.

Once, the number of principal components is decided (say two or three), the first principal component would carry maximum variance in the day followed by the second component which would have a slightly less variance and so on. PCA is a very good technique to decrease the number of features and reduce the complexity of the model.

However, one must not use Principal Component Analysis as the first step to reduce overfitting. Overfitting is a state where the model is complex and has high variance. To reduce overfitting, you should first try to increase the amount of data or choose less number of features if possible. If that doesn’t work, then the next best option is to use L1 or L2 regularization which would penalize the co-efficient try to make the model complex. PCA should the last technique used if none of the above mentions solution works.

7. Singular Value Decomposition

A matrix factorization method used in science, technology and various other domains. Singular Value Decomposition has seen in growing importance in recent times due machine learning. Data mining, developments. The product of matrix representation is known as Matrix Factorization.

M=Unitary Matrix * Diagonal Matrix * Conjugate Transpose of Unitary Matrix

For each element, the row and column index interchanges as the result of the conjugate transpose.

In a higher dimensional raw data, singular value decomposition could be used to untangle information. To compute Principal Component Analysis, we use the Singular Value Decomposition concept in Machine Learning. Some of the applications of Singular Value Decomposition are in image processing, recommending products, and also in processing natural data using Natural Language Processing.

However, the Singular Value Decomposition differs from Principal Component Analysis by the fact that you could find diagonal of a matrix with SVD into special matrices. These matrices could be analysed and are easy to manipulate. The data could be compressed into independent components as well.

استنتاج

Machine Learning is the word of the mouth of several professionals but to master it you must know the math behind it and learn some of the Linear Algebra concepts that is used in any ML or Deep Learning project.

Dimensionless has several blogs and training to get started with Python, and Data Science in general.

Follow this link, if you are looking to learn more about data science online!

Additionally, if you are having an interest in learning Data Science, Learn online Data Science Course to boost your career in Data Science.

Furthermore, if you want to read more about data science, you can read our blogs هنا


شاهد الفيديو: المحاضرة الثانية: تفريق القيمة المنفردة Singular Value Decomposition (شهر اكتوبر 2021).