مقالات

9.1: مصفوفة التحول الخطي


لنفترض أن (T: V to W ) يكون تحويلًا خطيًا حيث ( func {dim} V = n ) و ( func {dim} W = m ). الفكرة هي تحويل المتجه ( vect {v} ) في (V ) إلى عمود في ( RR ^ n ) ، اضرب هذا العمود في (A ) للحصول على عمود في ( RR ^ m ) ، وقم بتحويل هذا العمود مرة أخرى للحصول على (T ( vect {v}) ) في (W ).

يعد تحويل المتجهات إلى أعمدة أمرًا بسيطًا ، ولكن يلزم إجراء تغيير صغير واحد. حتى الآن طلب من النواقل في الأساس ليست ذات أهمية. ومع ذلك ، في هذا القسم ، سنتحدث عن أساس مرتب ( { vect {b} _ {1} ، vect {b} _ {2} ، dots ، vect {b} _ {n} } ) ، وهو مجرد أساس حيث يتم ترتيب التي يتم سرد النواقل التي يتم سردها في الاعتبار. ومن ثم فإن ( { vect {b} _ {2} ، vect {b} _ {1} ، vect {b} _ {3} } ) مختلف أمر أساس من ( { vect {b} _ {1} ، vect {b} _ {2} ، vect {b} _ {3} } ).

إذا كان (B = { vect {b} _ {1} ، vect {b} _ {2} ، dots ، vect {b} _ {n} } ) أساسًا مرتبًا في متجه space (V ) ، وإذا [ vect {v} = v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n، quad v_i in RR ] هو متجه في (V ) ، ثم الأرقام (المحددة بشكل فريد) (v_ {1} ، v_ {2} ، dots ، v_ {n} ) تسمى إحداثيات من ( vect {v} ) فيما يتعلق بالأساس (ب ).

تنسيق المتجه (C_B ( vect {v}) ) من ( vect {v} ) لأساس (B ) 027894 ناقلات تنسيق من ( vect {v} ) بالنسبة إلى (B ) يعرف بأنه [C_B ( vect {v}) = (v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n) = leftB start {array} {c} v_1 v_2 vdots v_n end {array} rightB ]

سيتضح سبب كتابة (C_ {B} ( vect {v}) ) كعمود بدلاً من صف لاحقًا. لاحظ أن (C_ {B} ( vect {b} _ {i}) = vect {e} _ {i} ) عمود (i ) من (I_ {n} ).

027904 متجه إحداثيات ( vect {v} = (2، 1، 3) ) بالنسبة إلى الأساس المرتب (B = {(1، 1، 0)، (1، 0، 1)، (0، 1، 1) } ) من ( RR ^ 3 ) هو (C_B ( vect {v}) = leftB begin {array} {c} 0 2 1 نهاية {مجموعة} rightB ) لأن [ vect {v} = (2، 1، 3) = 0 (1، 1، 0) + 2 (1، 0، 1) + 1 (0، 1، 1 ) ]

027908 إذا كان (V ) له بُعد (n ) و (B = { vect {b} _ {1} ، vect {b} _ {2} ، dots ، vect {b} _ {n} } ) هو أي أساس مرتب لـ (V ) ، التحويل الإحداثي (C_ {B}: V to RR ^ n ) هو تماثل. في الواقع ، (C_B ^ {- 1}: RR ^ n to V ) مُعطى بواسطة [C_B ^ {- 1} leftB begin {array} {c} v_1 v_2 vdots v_n end {array} rightB = v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n quad mbox {for all} quad leftB ابدأ {مجموعة} {c} v_1 v_2 vdots v_n end {array} rightB mbox {in} RR ^ n. ]

التحقق من أن (C_ {B} ) خطي هو تمرين [مثال: ex9_1_13]. إذا كانت (T: RR ^ n to V ) هي الخريطة المشار إليها (C_B ^ {- 1} ) في النظرية ، يتحقق المرء (التمرين [على سبيل المثال: ex9_1_13]) أن (TC_ {B} = 1_ {V} ) و (C_BT = 1 _ { RR ^ n} ). لاحظ أن (C_ {B} ( vect {b} _ {j}) ) عمود (j ) من مصفوفة الهوية ، لذلك (C_ {B} ) يحمل الأساس (B ) إلى الأساس القياسي لـ ( RR ^ n ) ، مما يثبت مرة أخرى أنه تماثل (نظرية [thm: 022044])

l5 سم

لنكن الآن (T: V to W ) أي تحويل خطي حيث ( func {dim} V = n ) و ( func {dim} W = m ) ، ودعنا (B = يتم ترتيب { vect {b} _ {1} و vect {b} _ {2} و dots و vect {b} _ {n} } ) و (D ) على أساس (V ) و (ث ) على التوالي. ثم (C_ {B}: V to RR ^ n ) و (C_ {D}: W to RR ^ m ) هي أشكال متشابهة ولدينا الحالة الموضحة في الرسم البياني حيث (A ) هي مصفوفة (م مرات n ) (يتم تحديدها لاحقًا). في الواقع ، المركب [C_DTC_B ^ {- 1}: RR ^ n to RR ^ m mbox {هو تحويل خطي} ] لذا فإن النظرية [thm: 005789] تُظهر أن (م مرات n ) المصفوفة (A ) موجودة بحيث يعمل [C_DTC_B ^ {- 1} = T_A، quad mbox {بشكل مكافئ} C_DT = T_AC_B ] (T_ {A} ) عن طريق الضرب الأيسر بـ ( A ) ، لذا فإن هذا الشرط الأخير هو [C_D [T ( vect {v})] = AC_B ( vect {v}) mbox {for all} vect {v} mbox {in} V ] يحدد هذا المطلب تمامًا (A ). في الواقع ، حقيقة أن (C_ {B} ( vect {b} _ {j}) ) عمود (j ) من مصفوفة الهوية تعطي [ mbox {column} j mbox {of} A = AC_B ( vect {b} _j) = C_D [T ( vect {b} _j)] ] للجميع (j ). ومن ثم ، من حيث أعمدتها ، [A = leftB begin {array} {cccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

مصفوفة (M_ {DB} (T) ) من (T: V to W ) للقواعد (D ) و (B ) 027950 وهذا يسمى مصفوفة (T ) المقابلة للقواعد المرتبة (ب) و (D ) ، ونستخدم الترميز التالي: [M_ {DB} (T) = leftB begin {array} {cccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

تتلخص هذه المناقشة في النظرية الهامة التالية.

027955 لنكن (T: V to W ) تحويل خطي حيث ( func {dim} V = n ) و ( func {dim} W = m ) ، ودعنا (B = { vect {b} _ {1} ، dots ، vect {b} _ {n} } ) و (D ) يتم ترتيبها على أساس (V ) و (W ) ، على التوالي . ثم المصفوفة (M_ {DB} (T) ) المعطاة للتو هي المصفوفة الفريدة (م مرات n ) المصفوفة (أ ) التي ترضي [C_DT = T_AC_B ] ومن ثم فإن خاصية تعريف (M_ {DB} (T) ) هو [C_D [T ( vect {v})] = M_ {DB} (T) C_B ( vect {v}) mbox {for all} vect {v} mbox {in} V ] المصفوفة (M_ {DB} (T) ) معطاة من حيث أعمدتها بواسطة [M_ {DB} (T) = leftB begin {array} {cccc} C_D [ T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

حقيقة أن (T = C_D ^ {- 1} T_AC_B ) تعني أن إجراء (T ) على ناقل ( vect {v} ) في (V ) يمكن تنفيذه أولاً بأخذ إحداثيات (أي تطبيق (C_ {B} ) على ( vect {v} )) ، ثم الضرب في (A ) (تطبيق (T_ {A} )) ، وأخيراً تحويل الناتج (م ) - عودة الصفوف إلى متجه في (W ) (تطبيق (C_D ^ {- 1} )).

027973 حدد (T: vectspace {P} _ {2} to RR ^ 2 ) من خلال (T (a + bx + cx ^ {2}) = (a + c، b - a - c) ) لجميع كثيرات الحدود (a + bx + cx ^ {2} ). إذا (B = { vect {b} _ {1} ، vect {b} _ {2} ، vect {b} _ {3} } ) و (D = { vect { د} _ {1} ، vect {d} _ {2} } ) حيث [ vect {b} _1 = 1 ، vect {b} _2 = x ، vect {b} _3 = x ^ 2 quad mbox {and} quad vect {d} _1 = (1، 0)، vect {d} _2 = (0، 1) ] compute (M_ {DB} (T) ) و تحقق من نظرية [thm: 027955].

لدينا (T ( vect {b} _ {1}) = vect {d} _ {1} - vect {d} _ {2} ) ، (T ( vect {b} _ { 2}) = vect {d} _ {2} ) و (T ( vect {b} _ {3}) = vect {d} _ {1} - vect {d} _ {2 } ). ومن هنا [M_ {DB} (T) = leftB begin {array} {ccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & C_D [T ( vect {b} _n)] end {array} rightB = leftB begin {array} {rrr} 1 & 0 & 1 -1 & 1 & -1 end {array} rightB ] إذا ( vect {v} = a + bx + cx ^ {2} = a vect {b} _ {1} + b vect {b} _ {2} + c vect {b} _ {3 } ) ، ثم (T ( vect {v}) = (a + c) vect {d} _ {1} + (b - a - c) vect {d} _ {2} ) ، لذلك [C_D [T ( vect {v})] = leftB begin {array} {c} a + c b - a - c end {array} rightB = leftB begin {array} {rrr} 1 & 0 & 1 -1 & 1 & -1 end {array} rightB leftB start {array} {c} a b c end {array} rightB = M_ {DB} (T) C_B ( vect {v}) ] كما تؤكد النظرية [thm: 027955].

يوضح المثال التالي كيفية تحديد إجراء التحويل من مصفوفته.

028008 افترض أن (T: vectspace {M} _ {22} ( RR) to RR ^ 3 ) خطي بمصفوفة (M_ {DB} (T) = leftB begin {array} {rrrr } 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 1 & -1 end {array} rightB ) حيث [B = left { leftB ابدأ {array} {cc} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {cc} 0 & 1 0 & 0 end {array} rightB، يسارB start {array} {cc} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {cc} 0 & 0 0 & 1 end {array} rightB right } mbox {and} D = {(1، 0، 0)، (0، 1، 0)، (0، 0، 1) } ] حساب (T ( vect {v} ) ) حيث ( vect {v} = leftB start {array} {cc} a & b c & d end {array} rightB ).

الفكرة هي حساب (C_ {D} [T ( vect {v})] ) أولاً ، ثم الحصول على (T ( vect {v}) ). لدينا [C_D [T ( vect {v})] = M_ {DB} (T) C_B ( vect {v}) = leftB begin {array} {rrrr} 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 1 & -1 end {array} rightB leftB begin {array} {c} a b c d end { صفيف} rightB = leftB start {array} {c} a - b b - c c - d end {array} rightB ]

[ start {align} mbox {Hence} T ( vect {v}) & = (a - b) (1، 0، 0) + (b - c) (0، 1، 0) + (c - د) (0 ، 0 ، 1) & = (أ - ب ، ب - ج ، ج - د) نهاية {محاذاة} ]

سيتم الإشارة إلى المثالين التاليين لاحقًا.

028025 لنكن (A ) عبارة عن مصفوفة (م مرات n ) ، واجعل (T_ {A}: RR ^ n to RR ^ m ) هو تحويل المصفوفة الناجم عن (A: T_ {A} ( vect {x}) = A vect {x} ) لجميع الأعمدة ( vect {x} ) في ( RR ^ n ). إذا كان (B ) و (D ) هما الأساسان القياسيان لـ ( RR ^ n ) و ( RR ^ m ) ، على التوالي (مرتبان كالمعتاد) ، إذن [M_ {DB} ( T_A) = A ] بعبارة أخرى ، مصفوفة (T_ {A} ) المقابلة للقواعد القياسية هي (A ) نفسها.

اكتب (B = { vect {e} _ {1} ، dots ، vect {e} _ {n} } ). نظرًا لأن (D ) هو الأساس القياسي لـ ( RR ^ m ) ، فمن السهل التحقق من أن (C_ {D} ( vect {y}) = vect {y} ) لجميع الأعمدة ( vect {y} ) في ( RR ^ m ). ومن هنا [M_ {DB} (T_A) = leftB begin {array} {cccc} T_A ( vect {e} _1) & T_A ( vect {e} _2) & cdots & T_A ( vect {e } _n) end {array} rightB = leftB begin {array} {cccc} A vect {e} _1 & A vect {e} _2 & cdots & A vect {e} _n end { array} rightB = A ] لأن (A vect {e} _ {j} ) هو العمود (j ) من (A ).

028048 ليقوم (V ) و (W ) بترتيب القواعد (B ) و (D ) على التوالي. دعونا ( func {dim} V = n ).

  1. يحتوي تحويل الهوية (1_ {V}: V to V ) على مصفوفة (M_ {BB} (1_ {V}) = I_ {n} ).

  2. التحول الصفري (0: V إلى W ) له مصفوفة (M_ {DB} (0) = 0 ).

تكون النتيجة الأولى في المثال [exa: 028048] خاطئة إذا كانت قاعدتا (V ) غير متساويتين. في الواقع ، إذا كان (B ) هو الأساس القياسي لـ ( RR ^ n ) ، فيمكن اختيار أساس (D ) ( RR ^ n ) بحيث (M_ {DB } (1 _ { RR ^ n}) ) تبين أنه أي مصفوفة قابلة للعكس نرغب فيها (تمرين [مثال: ex9_1_14]).

توضح النظريتان التاليتان أن تكوين التحويلات الخطية متوافق مع مضاعفة المصفوفات المقابلة.

028067

l4 سم

لنفترض أن (V stackrel {T} { to} W stackrel {S} { to} U ) يكون تحويلات خطية ودع (B ) و (D ) و (E ) يكون قواعد مرتبة محدودة لـ (V ) و (W ) و (U ) على التوالي. ثم [M_ {EB} (ST) = M_ {ED} (S) cdot M_ {DB} (T) ]

نستخدم الخاصية في النظرية [thm: 027955] ثلاث مرات. إذا كان ( vect {v} ) في (V ) ، [M_ {ED} (S) M_ {DB} (T) C_B ( vect {v}) = M_ {ED} (S) C_D [T ( vect {v})] = C_E [ST ( vect {v})] = M_ {EB} (ST) C_B ( vect {v}) ] إذا (B = { vect {e} _ {1} ، dots ، vect {e} _ {n} } ) ، ثم (C_ {B} ( vect {e} _ {j}) ) عمود (j ) من في}). ومن ثم فإن أخذ ( vect {v} = vect {e} _ {j} ) يوضح أن (M_ {ED} (S) M_ {DB} (T) ) و (M_ {EB} (ST ) ) لها أعمدة متساوية (ي ). النظرية التالية.

028086 لنكن (T: V to W ) تحويل خطي ، حيث ( func {dim} V = func {dim} W = n ). ما يلي متكافئ.

  1. (T ) هو تماثل.

  2. (M_ {DB} (T) ) قابل للعكس لجميع القواعد المرتبة (B ) و (D ) لـ (V ) و (W ).

  3. (M_ {DB} (T) ) قابل للعكس لبعض زوج من القواعد المرتبة (B ) و (D ) من (V ) و (W ).

في هذه الحالة ، ([M_ {DB} (T)] ^ {- 1} = M_ {BD} (T ^ {- 1}) ).

(1) ( Rightarrow ) (2). لدينا (V stackrel {T} { to} W stackrel {T ^ {- 1}} { to} V ) ، لذا فإن النظرية [thm: 028067] ومثال [exa: 028048] تعطي [ M_ {BD} (T ^ {- 1}) M_ {DB} (T) = M_ {BB} (T ^ {- 1} T) = M_ {BB} (1v) = I_n ] بالمثل ، (M_ {DB} (T) M_ {BD} (T ^ {- 1}) = I_ {n} ) ، إثبات (2) (وآخر بيان في النظرية).

(2) ( Rightarrow ) (3). هذا واضح.

l4 سم

(3) ( Rightarrow ) (1). افترض أن (T_ {DB} (T) ) قابل للعكس لبعض القواعد (B ) و (D ) وللتيسير ، اكتب (A = M_ {DB} (T) ). ثم لدينا (C_ {D} T = T_ {A} C_ {B} ) من خلال النظرية [thm: 027955] ، لذلك [T = (C_D) ^ {- 1} T_AC_B ] حسب النظرية [thm: 027908] حيث ((C_ {D}) ^ {- 1} ) و (C_ {B} ) متشابهات. وبالتالي (1) يتبع إذا كان بإمكاننا إثبات أن (T_ {A}: RR ^ n to RR ^ n ) هو أيضًا تماثل. لكن (A ) قابل للعكس بمقدار (3) ويتحقق المرء من أن (T_AT_ {A ^ {- 1}} = 1 _ { RR ^ n} = T_ {A ^ {- 1}} T_A ). إذن (T_ {A} ) قابل للعكس بالفعل (و ((T_ {A}) ^ {- 1} = T_ {A ^ {- 1}} )).

في القسم [ثانية: 7_2] حددنا ( func {رتبة} ) للتحول الخطي (T: V to W ) بواسطة ( func {رتبة} T = func {dim} ( func {im} T) ). علاوة على ذلك ، إذا كان (A ) أي (م مرات n ) مصفوفة و (T_ {A}: RR ^ n to RR ^ m ) هو تحويل المصفوفة ، فقد أظهرنا أن ( func {رتبة} (T_ {A}) = func {Rank} A ). لذلك قد لا يكون مفاجئًا أن ( func {رتبة} T ) يساوي ( func {رتبة} ) لأي مصفوفة (T ).

028139 لنكن (T: V to W ) تحويل خطي حيث ( func {dim} V = n ) و ( func {dim} W = m ). إذا كان (B ) و (D ) أي قواعد مرتبة لـ (V ) و (W ) ، إذن ( func {رتبة} T = func {رتبة} [M_ {DB} ( T)] ).

اكتب (A = M_ {DB} (T) ) للراحة. مساحة العمود (A ) هي (U = {A vect {x} mid vect {x} ) في ( RR ^ n } ). وهذا يعني ( func {رتبة} A = func {dim} U ) وهكذا ، لأن ( func {Rank} T = func {dim} ( func {im} T) ) يكفي للعثور على تماثل (S: func {im} T to U ). الآن كل متجه في ( func {im} T ) له الشكل (T ( vect {v}) ) ، ( vect {v} ) في (V ). حسب النظرية [thm: 027955]، (C_ {D} [T ( vect {v})] = AC_ {B} ( vect {v}) ) تقع في (U ). لذلك حدد (S: func {im} T to U ) بواسطة [S [T ( vect {v})] = C_D [T ( vect {v})] mbox {لجميع المتجهات} T ( vect {v}) in func {im} T ] حقيقة أن (C_ {D} ) خطي وواحد لواحد يعني على الفور أن (S ) خطي وواحد- لواحد. لمعرفة أن (S ) قيد التشغيل ، دع (A vect {x} ) يكون أي عضو في (U ) ، ( vect {x} ) في ( RR ^ n ) . ثم ( vect {x} = C_ {B} ( vect {v}) ) لبعض ( vect {v} ) في (V ) لأن (C_ {B} ) يعمل . ومن هنا (A vect {x} = AC_ {B} ( vect {v}) = C_ {D} [T ( vect {v})] = S [T ( vect {v})] ) ، لذلك (S ) قيد التشغيل. هذا يعني أن (S ) هو تماثل.

028158 حدد (T: vectspace {P} _ {2} to RR ^ 3 ) عن طريق (T (a + bx + cx ^ {2}) = (a - 2b، 3c - 2a، 3c - 4 ب) ) لـ (أ ) ، (ب ) ، (ج في RR ). حساب ( func {رتبة} T ).

منذ ( func {رتبة} T = func {رتبة} [M_ {DB} (T)] ) لـ أي القواعد (B subseteq vectspace {P} _ {2} ) و (D subseteq RR ^ 3 ) ، نختار الأكثر ملاءمة: (B = {1، x، x ^ { 2} } ) و (د = {(1 ، 0 ، 0) ، (0 ، 1 ، 0) ، (0 ، 0 ، 1) } ). ثم (M_ {DB} (T) = leftB start {array} {ccc} C_ {D} [T (1)] & C_ {D} [T (x)] & C_ {D} [T ( x ^ {2})] end {array} rightB = A ) حيث [A = leftB begin {array} {rrr} 1 & -2 & 0 -2 & 0 & 3 0 & -4 & 3 end {array} rightB. quad mbox {منذ} A to leftB start {array} {rrr} 1 & -2 & 0 0 & -4 & 3 0 & -4 & 3 end {array} rightB leftB start {array} {rrr} 1 & -2 & 0 0 & 1 & - frac {3} {4} 0 & 0 & 0 end {array} rightB ] لدينا ( func {الرتبة} أ = 2 ). وبالتالي ( func {رتبة} T = 2 ) أيضًا.

نختتم بمثال يوضح أن مصفوفة التحويل الخطي يمكن أن تكون بسيطة للغاية عن طريق الاختيار الدقيق للقاعدتين.

028178 لنكن (T: V to W ) تحويل خطي حيث ( func {dim} V = n ) و ( func {dim} W = m ). اختر أساسًا مرتبًا (B = { vect {b} _ {1} ، dots ، vect {b} _ {r} ، vect {b} _ {r + 1} ، dots ، vect {b} _ {n} } ) من (V ) حيث ( { vect {b} _ {r + 1} ، dots ، vect {b} _ {n} } ) أساس ( func {ker} T ) ، ربما فارغ. إذن ( {T ( vect {b} _ {1}) dots، T ( vect {b} _ {r}) } ) هو أساس ( func {im} T ) بواسطة Theorem [thm: 021572] ، لذا قم بتوسيعها إلى أساس مرتب (D = {T ( vect {b} _ {1}) ، dots ، T ( vect {b} _ {r}) ، vect {f} _ {r + 1} ، dots ، vect {f} _ {m} } ) من (W ). لأن (T ( vect {b} _ {r + 1}) = cdots = T ( vect {b} _ {n}) = vect {0} ) ، لدينا [M_ {DB} (T) = leftB begin {array} {cccccc} C_D [T ( vect {b} _1)] & cdots & C_D [T ( vect {b} _r)] & C_D [T ( vect { b} _ {r + 1})] & cdots & C_D [T ( vect {b} _n)] end {array} rightB = leftB begin {array} {cc} I_r & 0 0 & 0 end {array} rightB ] بالمناسبة ، هذا يوضح أن ( func {Rank} T = r ) بواسطة النظرية [thm: 028139].

تمارين ل 1

حلول

1

في كل حالة ، ابحث عن إحداثيات ( vect {v} ) فيما يتعلق بالأساس (B ) لمساحة المتجه (V ).

  1. (V = vectspace {P} _2 ) ، ( vect {v} = 2x ^ 2 + x - 1 ) ، (B = {x + 1 ، x ^ 2 ، 3 } )

  2. (V = vectspace {P} _2 ) ، ( vect {v} = ax ^ 2 + bx + c ) ، (B = {x ^ 2 ، x + 1 ، x + 2 } )

  3. (V = RR ^ 3 ) ، ( vect {v} = (1 ، -1 ، 2) ) ،
    (ب = {(1 ، -1 ، 0) ، (1 ، 1 ، 1) ، (0 ، 1 ، 1) } )

  4. (V = RR ^ 3 ) ، ( vect {v} = (أ ، ب ، ج) ) ،
    (ب = {(1 ، -1 ، 2) ، (1 ، 1 ، -1) ، (0 ، 0 ، 1) } )

  5. (V = vectspace {M} _ {22} )، ( vect {v} = leftB begin {array} {rr} 1 & 2 -1 & 0 end {array} rightB ) ،
    (B = left { leftB start {array} {rr} 1 & 1 0 & 0 end {array} rightB، leftB begin {array} {rr} 1 & 0 1 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 1 end {array} rightB، leftB start {array} {rr} 1 & 0 0 & 1 نهاية {مجموعة} يمين ب يمين } )

  1. ( leftB start {array} {c} a 2b - c c - b end {array} rightB )

  2. ( frac {1} {2} leftB start {array} {c} a - b a + b -a + 3b + 2c end {array} rightB )

لنفترض أن (T: vectspace {P} _ {2} to RR ^ 2 ) هو تحويل خطي. إذا (B = {1، x، x ^ {2} } ) و (D = {(1، 1)، (0، 1) } ) ، ابحث عن إجراء (T ) معطى:

  1. (M_ {DB} (T) = leftB start {array} {rrr} 1 & 2 & -1 -1 & 0 & 1 end {array} rightB )

  2. (M_ {DB} (T) = leftB start {array} {rrr} 2 & 1 & 3 -1 & 0 & -2 end {array} rightB )

  1. ومن هنا [ start {align} T ( vect {v}) & = (2a + b + 3c) (1، 1) + (-a - 2c) (0، 1) & = (2a + b + 3c، a + b + c). end {align} ]

في كل حالة ، ابحث عن مصفوفة التحويل الخطي (T: V to W ) المقابلة للأسس (B ) و (D ) لـ (V ) و (W ) ، على التوالي .

  1. (T: vectspace {M} _ {22} to RR )، (T (A) = func {tr} A )؛
    (B = left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ) ، (D = {1 } )

  2. (T: vectspace {M} _ {22} to vectspace {M} _ {22} )، (T (A) = A ^ T )؛
    (B = D = left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } )

  3. (T: vectspace {P} _2 to vectspace {P} _3 )، (T [p (x)] = xp (x) )؛ (B = {1، x، x ^ 2 } ) و (D = {1، x، x ^ 2، x ^ 3 } )

  4. (T: vectspace {P} _2 to vectspace {P} _2 )، (T [p (x)] = p (x + 1) )؛
    (B = D = {1، x، x ^ 2 } )

  1. ( leftB start {array} {cccc} 1 & 0 & 0 & 0 0 & 0 & 1 & 0 0 & 1 & 0 & 0 0 & 0 & 0 & 1 end {array } rightB )

  2. ( leftB start {array} {ccc} 1 & 1 & 1 0 & 1 & 2 0 & 0 & 1 end {array} rightB )

في كل حالة ، أوجد مصفوفة
(T: V to W ) المقابلة للقواعد (B ) و (D ) ، على التوالي ، واستخدامها لحساب (C_ {D} [T ( vect {v})] ) ، وبالتالي (T ( vect {v}) ).

  1. (T: RR ^ 3 to RR ^ 4 ) ، (T (x ، y ، z) = (x + z ، 2z ، y - z ، x + 2y) ) ؛ معيار (B ) و (D ) ؛ ( vect {v} = (1، -1، 3) )

  2. (T: RR ^ 2 to RR ^ 4 )، (T (x، y) = (2x - y، 3x + 2y، 4y، x) ) ؛ (ب = {(1 ، 1) ، (1 ، 0) } ) ، (د ) قياسي ؛ ( vect {v} = (أ ، ب) )

  3. (T: vectspace {P} _2 to RR ^ 2 )، (T (a + bx + cx ^ 2) = (a + c، 2b) ) ؛
    (B = {1، x، x ^ 2 } )، (D = {(1، 0)، (1، -1) } ) ؛
    ( vect {v} = أ + ب س + ج س ^ 2 )

  4. (T: vectspace {P} _2 to RR ^ 2 )، (T (a + bx + cx ^ 2) = (a + b، c) ) ؛
    (ب = {1 ، س ، س ^ 2 } ) ، (د = {(1 ، -1) ، (1 ، 1) } ) ؛
    ( vect {v} = أ + ب س + ج س ^ 2 )

  5. (T: vectspace {M} _ {22} to RR )، (T leftB start {array} {cc} a & b c & d end {array} rightB = a + ب + ج + د ) ؛
    (B = left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ) ،
    (D = {1 } ) ، ( vect {v} = leftB start {array} {cc} a & b c & d end {array} rightB )

  6. (T: vectspace {M} _ {22} to vectspace {M} _ {22} ) ،
    (T leftB start {array} {cc} a & b c & d end {array} rightB = leftB begin {array} {cc} a & b + c b + c & د end {مجموعة} rightB ) ؛
    (ب = د = {} )
    ( left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ) ؛ ( vect {v} = leftB start {array} {cc} a & b c & d end {array} rightB )

  1. ( leftB start {array} {cc} 1 & 2 5 & 3 4 & 0 1 & 1 end {array} rightB ) ؛
    (C_D [T (a، b)] = leftB start {array} {cc} 1 & 2 5 & 3 4 & 0 1 & 1 end {array} rightB leftB ابدأ {مجموعة} {cc} b a - b end {array} rightB = leftB start {array} {c} 2a - b 3a + 2b 4b a end {array} حق ب )

  2. ( frac {1} {2} leftB start {array} {rrr} 1 & 1 & -1 1 & 1 & 1 end {array} rightB ) ؛ (C_D [T (a + bx + cx ^ 2)] = frac {1} {2} leftB begin {array} {rrr} 1 & 1 & -1 1 & 1 & 1 end { صفيف} rightB leftB start {array} {c} a b c end {array} rightB = frac {1} {2} leftB start {array} {c} a + b - c a + b + c end {array} rightB )

  3. ( leftB start {array} {cccc} 1 & 0 & 0 & 0 0 & 1 & 1 & 0 0 & 1 & 1 & 0 0 & 0 & 0 & 1 end {array } rightB ) ؛ (C_D left (T leftB start {array} {cc} a & b c & d end {array} rightB right) = leftB begin {array} {cccc} 1 & 0 & 0 & 0 0 & 1 & 1 & 0 0 & 1 & 1 & 0 0 & 0 & 0 & 1 end {array} rightB leftB begin {array} {c} a ب c d end {array} rightB = leftB start {array} {c} a b + c b + c d end {array} rightB )

في كل حالة ، تحقق من النظرية [thm: 028067]. استخدم الأساس القياسي في ( RR ^ n ) و ( {1، x، x ^ {2} } ) في ( vectspace {P} _ {2} ).

  1. ( RR ^ 3 stackrel {T} { to} RR ^ 2 stackrel {S} { to} RR ^ 4 )؛ (T (a، b، c) = (a + b، b - c) ) (S (a، b) = (a، b - 2a، 3b، a + b) )

  2. ( RR ^ 3 stackrel {T} { to} RR ^ 4 stackrel {S} { to} RR ^ 2 )؛
    (T (أ ، ب ، ج) = (أ + ب ، ج + ب ، أ + ج ، ب - أ) ) ،
    (S (أ ، ب ، ج ، د) = (أ + ب ، ج - د) )

  3. ( vectspace {P} _2 stackrel {T} { to} RR ^ 3 stackrel {S} { to} vectspace {P} _2 )؛ (T (a + bx + cx ^ 2) = (a، b - c، c - a) ) (S (a، b، c) = b + cx + (a - c) x ^ 2 )

  4. ( RR ^ 3 stackrel {T} { to} vectspace {P} _2 stackrel {S} { to} RR ^ 2 )؛
    (T (أ ، ب ، ج) = (أ - ب) + (ج - أ) س + ب س ^ 2 ) ،
    (S (a + bx + cx ^ 2) = (أ - ب ، ج) )

  1. (M_ {ED} (S) M_ {DB} (T) = {} )
    ( leftB start {array} {rrrr} 1 & 1 & 0 & 0 0 & 0 & 1 & -1 end {array} rightB leftB start {array} {rrr} 1 & 1 & 0 0 & 1 & 1 1 & 0 & 1 -1 & 1 & 0 end {array} rightB = {} )
    ( leftB start {array} {rrr} 1 & 2 & 1 2 & -1 & 1 end {array} rightB = M_ {EB} (ST) )

  2. (M_ {ED} (S) M_ {DB} (T) = {} )
    ( leftB start {array} {rrr} 1 & -1 & 0 0 & 0 & 1 end {array} rightB leftB begin {array} {rrr} 1 & -1 & 0 -1 & 0 & 1 0 & 1 & 0 نهاية {مجموعة} rightB = {} )
    ( leftB start {array} {rrr} 2 & -1 & -1 0 & 1 & 0 end {array} rightB = M_ {EB} (ST) )

تحقق من نظرية [thm: 028067] من أجل
( vectspace {M} _ {22} stackrel {T} { to} vectspace {M} _ {22} stackrel {S} { to} vectspace {P} _2 ) حيث (T (أ) = A ^ {T} ) و
(S leftB start {array} {cc} a & b c & d end {array} rightB = b + (a + d) x + cx ^ 2 ). استخدم القواعد
(B = D = left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } )
و (E = {1، x، x ^ {2} } ).

في كل حالة ، ابحث عن (T ^ {- 1} ) وتحقق من أن ([M_ {DB} (T)] ^ {- 1} = M_ {BD} (T ^ {- 1}) ).

  1. (T: RR ^ 2 to RR ^ 2 ) ، (T (a، b) = (a + 2b، 2a + 5b) ) ؛
    (B = D = ) قياسي

  2. (T: RR ^ 3 to RR ^ 3 ) ، (T (a ، b ، c) = (b + c ، a + c ، a + b) ) ؛ (B = D = ) قياسي

  3. (T: vectspace {P} _2 to RR ^ 3 )، (T (a + bx + cx ^ 2) = (a - c، b، 2a - c) ) ؛ (B = {1، x، x ^ 2 } )، (D = ) قياسي

  4. (T: vectspace {P} _2 to RR ^ 3 ) ،
    (T (a + bx + cx ^ 2) = (أ + ب + ج ، ب + ج ، ج) ) ؛
    (B = {1، x، x ^ 2 } )، (D = ) قياسي

  1. (T ^ {- 1} (أ ، ب ، ج) = فارك {1} {2} (ب + ج - أ ، أ + ج - ب ، أ + ب - ج) ) ؛
    (M_ {DB} (T) = leftB start {array} {ccc} 0 & 1 & 1 1 & 0 & 1 1 & 1 & 0 end {array} rightB ) ؛
    (M_ {BD} (T ^ {- 1}) = frac {1} {2} leftB start {array} {rrr} -1 & 1 & 1 1 & -1 & 1 1 & 1 & -1 end {array} rightB )

  2. (T ^ {- 1} (أ ، ب ، ج) = (أ - ب) + (ب - ج) س + ج س ^ 2 ) ؛
    (M_ {DB} (T) = leftB start {array} {ccc} 1 & 1 & 1 0 & 1 & 1 0 & 0 & 1 end {array} rightB ) ؛
    (M_ {BD} (T ^ {- 1}) = leftB start {array} {rrr} 1 & -1 & 0 0 & 1 & -1 0 & 0 & 1 end {array } rightB )

في كل حالة ، أظهر أن (M_ {DB} (T) ) قابل للعكس واستخدم حقيقة أن (M_ {BD} (T ^ {- 1}) = [M_ {BD} (T)] ^ { -1} ) لتحديد تأثير (T ^ {- 1} ).

  1. (T: vectspace {P} _2 to RR ^ 3 )، (T (a + bx + cx ^ 2) = (a + c، c، b - c) ) ؛ (B = {1، x، x ^ 2 } )، (D = ) قياسي

  2. (T: vectspace {M} _ {22} to RR ^ 4 ) ،
    (T leftB start {array} {cc} a & b c & d end {array} rightB = (a + b + c، b + c، c، d) )؛
    (B = left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB، leftB start {array} {rr} 0 & 0 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ) ، (D = ) قياسي

  1. ومن هنا (C_B [T ^ {- 1} (a، b، c، d)] = {} )
    (M_ {BD} (T ^ {- 1}) C_D (أ ، ب ، ج ، د) = {} )
    ( leftB start {array} {rrrr} 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 1 & 0 0 & 0 & 0 & 1 end {مجموعة} rightB leftB start {array} {c} a b c d end {array} rightB = leftB begin {array} {c} a - b b - c c d end {array} rightB ) ، لذلك (T ^ {- 1} (a، b، c، d) = leftB begin {array} {cc} a -b & ب - c c & d end {array} rightB ).

لنفترض أن (D: vectspace {P} _ {3} to vectspace {P} _ {2} ) هي خريطة التمايز التي قدمها (D [p (x)] = p ^ prime (x) ). ابحث عن مصفوفة (D ) المقابلة للأساسيات (B = {1، x، x ^ {2}، x ^ {3} } ) و
(E = {1، x، x ^ {2} } ) واستخدمها للحساب
(D (a + bx + cx ^ {2} + dx ^ {3}) ).

استخدم النظرية [thm: 028086] لتوضيح ذلك
(T: V to V ) ليس تماثلًا إذا ( func {ker} T neq 0 ) (افترض ( func {dim} V = n )). [تلميح: اختر أي أساس مرتب (B ) يحتوي على متجه في ( func {ker} T ).]

لنفترض (T: V to RR ) أن يكون تحويلًا خطيًا ، ولنكن (D = {1 } ) أساس ( RR ). بالنظر إلى أي أساس مرتب (B = { vect {e} _ {1} ، dots ، vect {e} _ {n} } ) لـ (V ) ، أظهر ذلك
(M_ {DB} (T) = [T ( vect {e} _ {1}) cdots T ( vect {e} _ {n})] ).

لنفترض أن (T: V to W ) يكون تماثلًا ، فلنجعل (B = { vect {e} _ {1} ، dots ، vect {e} _ {n} } ) أساس مرتب لـ (V ) ، ودع (D = {T ( vect {e} _ {1}) ، dots ، T ( vect {e} _ {n}) } ). أظهر أن (M_ {DB} (T) = I_ {n} ) - مصفوفة الهوية (n times n ).

لديها (C_ {D} [T ( vect {e} _ {j})] ) = عمود (j ) من (I_ {n} ). ومن هنا (M_ {DB} (T) = leftB begin {array} {cccc} C_ {D} [T ( vect {e} _ {1})] & C_ {D} [T ( vect { e} _ {2})] & cdots & C_ {D} [T ( vect {e} _ {n})] end {array} rightB = I_ {n} ).

[مثال: ex9_1_13] أكمل برهان النظرية [thm: 027908].

[مثال: ex9_1_14] لنكن (U ) أي قابل للعكس (n times n ) مصفوفة ، ودع (D = { vect {f} _ {1} ، vect {f} _ {2 } ، dots ، vect {f} _ {n} } ) حيث ( vect {f} _ {j} ) هو العمود (j ) من (U ). أظهر أن (M_ {BD} (1 _ { RR ^ n}) = U ) عندما يكون (B ) هو الأساس القياسي لـ ( RR ^ n ).

لنفترض أن (B ) أساسًا مرتبًا (n ) - فضاء الأبعاد (V ) وليكن (C_ {B}: V to RR ^ n ) هو التحويل الإحداثي. إذا كان (D ) هو الأساس القياسي لـ ( RR ^ n ) ، أظهر أن (M_ {DB} (C_ {B}) = I_ {n} ).

دع تعريف (T: vectspace {P} _ {2} to RR ^ 3 ) بواسطة
(T (p) = (p (0)، p (1)، p (2)) ) لكل (p ) في ( vectspace {P} _ {2} ). يترك
(B = {1، x، x ^ {2} } ) و (D = {(1، 0، 0)، (0، 1، 0)، (0، 0، 1) } ).

  1. أظهر أن (M_ {DB} (T) = leftB start {array} {ccc} 1 & 0 & 0 1 & 1 & 1 1 & 2 & 4 end {array} rightB ) واستنتج أن (T ) هو تماثل.

  2. التعميم على (T: vectspace {P} _ {n} to RR ^ {n + 1} ) حيث
    (T (p) = (p (a_ {0}) ، p (a_ {1}) ، dots ، p (a_ {n})) ) و (a_ {0} ، a_ {1} ، النقاط ، أ_ {n} ) أرقام حقيقية مميزة.

  1. إذا كان (D ) هو الأساس القياسي لـ ( RR ^ {n + 1} ) و (B = {1، x، x ^ {2}، dots، x ^ {n} } ) ، ثم (M_ {DB} (T) = {} )
    ( leftB start {array} {cccc} C_D [T (1)] & C_D [T (x)] & cdots & C_D [T (x ^ n)] end {array} rightB = leftB ابدأ {مجموعة} {ccccc} 1 & a_0 & a_0 ^ 2 & cdots & a_0 ^ n 1 & a_1 & a_1 ^ 2 & cdots & a_1 ^ n 1 & a_2 & a_2 ^ 2 & cdots & a_2 ^ n vdots & vdots & vdots & & vdots 1 & a_n & a_n ^ 2 & cdots & a_n ^ n end {array} rightB ).

    تحتوي هذه المصفوفة على محدد غير صفري بواسطة النظرية [thm: 008552] (نظرًا لأن (a_ {i} ) متميزان) ، لذا فإن (T ) هو تماثل.

دعونا يتم تعريف (T: vectspace {P} _ {n} to vectspace {P} _ {n} ) بواسطة (T [p (x)] = p (x) + xp ^ prime ( x) ) ، حيث يشير (p ^ prime (x) ) إلى المشتق. أظهر أن (T ) هو تماثل من خلال إيجاد (M_ {BB} (T) ) عندما (B = {1، x، x ^ {2}، dots، x ^ {n} } ).

إذا كان (k ) هو أي رقم ، حدد
(T_ {k}: vectspace {M} _ {22} to vectspace {M} _ {22} ) بواسطة (T_ {k} (A) = A + kA ^ {T} ).

  1. إذا (ب = )
    ( left { leftB start {array} {rr} 1 & 0 0 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB، leftB start {array} {rr} 0 & 1 1 & 0 end {array} rightB، leftB begin {array} {rr} 0 & 1 - 1 & 0 end {array} rightB right } ) ابحث عن (M_ {BB} (T_k) ) ، واستنتج أن (T_k ) قابل للعكس إذا (k neq 1 ) و (ك neq -1 ).

  2. كرر لـ (T_ {k}: vectspace {M} _ {33} to vectspace {M} _ {33} ). هل يمكنك التعميم؟

تتطلب التدريبات المتبقية التعريفات التالية. إذا كان (V ) و (W ) مسافات متجهة ، فسيتم الإشارة إلى مجموعة جميع التحويلات الخطية من (V ) إلى (W ) بواسطة [ vectspace {L} (V ، W) = {T mid T: V to W mbox {هو تحويل خطي} } ] معطى (S ) و (T ) في ( vectspace {L} (V، W) ) و (a ) في ( RR ) ، حدد (S + T: V إلى W ) و (aT: V إلى W ) بواسطة [ start {align} (S + T) ( vect {v}) & = S ( vect {v}) + T ( vect {v}) & mbox {for all} vect {v} mbox {in} V (aT ) ( vect {v}) & = aT ( vect {v}) & mbox {for all} vect {v} mbox {in} V end {align} ]

[مثال: ex9_1_19] بيّن أن ( vectspace {L} (V، W) ) مساحة متجهية.

[مثال: ex9_1_20] أظهر أن الخصائص التالية تبقى شريطة أن ترتبط التحويلات ببعضها البعض بطريقة يتم فيها تعريف جميع العمليات.

  1. (R (ST) = (RS) T )

  2. (1_ {W} T = T = T1_ {V} )

  3. (ص (S + T) = RS + RT )

  4. ((S + T) R = SR + TR )

  5. ((aS) T = أ (ST) = S (aT) )

  1. ([(S + T) R] ( vect {v}) = (S + T) (R ( vect {v})) = S [(R ( vect {v}))] + T [ (R ( vect {v}))] = SR ( vect {v}) + TR ( vect {v}) = [SR + TR] ( vect {v}) ) الحجوزات لجميع ( vect {v} ) في (V ). ومن ثم ((S + T) R = SR + TR ).

بالنظر إلى (S ) و (T ) في ( vectspace {L} (V ، W) ) ، أظهر ما يلي:

  1. ( func {ker} S cap func {ker} T subseteq func {ker} (S + T) )

  2. ( func {im} (S + T) subseteq func {im} S + func {im} T )

  1. إذا كان ( vect {w} ) يقع في ( func {im} (S + T) ) ، إذن ( vect {w} = (S + T) ( vect {v}) ) بالنسبة لبعض ( vect {v} ) في (V ). ولكن بعد ذلك ( vect {w} = S ( vect {v}) + T ( vect {v}) ) ، لذا فإن ( vect {w} ) يقع في ( func {im} S + func {im} T ).

لنفترض أن (V ) و (W ) مسافات متجهة. إذا كان (X ) مجموعة فرعية من (V ) ، فحدد [X ^ {0} = {T mbox {in} vectspace {L} (V، W) mid T ( vect { v}) = 0 mbox {for all} vect {v} mbox {in} X } ]

  1. أظهر أن (X ^ {0} ) هو فضاء فرعي لـ ( vectspace {L} (V، W) ).

  2. إذا كان (X subseteq X_ {1} ) ، أظهر أن (X_1 ^ 0 subseteq X ^ 0 ).

  3. إذا كان (U ) و (U_ {1} ) مسافات فرعية لـ (V ) ، أظهر ذلك
    ((U + U_1) ^ 0 = U ^ 0 cap U_1 ^ 0 ).

  1. إذا (X subseteq X_ {1} ) ، دع (T ) يكذب (X_1 ^ 0 ). ثم (T ( vect {v}) = vect {0} ) لجميع ( vect {v} ) في (X_ {1} ) ، ومن أين (T ( vect {v} ) = vect {0} ) لجميع ( vect {v} ) في (X ). وبالتالي (T ) موجود في (X ^ {0} ) وقد أظهرنا أن (X_1 ^ 0 subseteq X ^ {0} ).

حدد (R: vectspace {M} _ {mn} to vectspace {L} ( RR ^ n، RR ^ m) ) بواسطة (R (A) = T_ {A} ) لكل منها (م مرات n ) مصفوفة (A ) ، حيث (T_ {A}: RR ^ n to RR ^ m ) مُعطاة من قبل (T_ {A} ( vect {x} ) = A vect {x} ) لكل ( vect {x} ) في ( RR ^ n ). أظهر أن (R ) هو تماثل.

Let (V) be any vector space (we do not assume it is finite dimensional). Given (vect{v}) in (V), define (S_{vect{v}} : RR o V) by (S_{vect{v}}(r) = rvect{v}) for all (r) in (RR).

  1. Show that (S_{vect{v}}) lies in (vectspace{L}(RR, V)) for each (vect{v}) in (V).

  2. Show that the map (R : V o vectspace{L}(RR, V)) given by (R(vect{v}) = S_{vect{v}}) is an isomorphism. [تلميح: To show that (R) is onto, if (T) lies in (vectspace{L}(RR, V)), show that (T = S_{vect{v}}) where (vect{v} = T(1)).]

  1. (R) is linear means (S_{vect{v}+vect{w}} = S_{vect{v}} + S_{vect{w}}) and (S_{avect{v}} = aS_{vect{v}}). These are proved as follows: (S_{vect{v}+vect{w}}(r) = r(vect{v} + vect{w}) = rvect{v} + rvect{w} = Svect{v}(r) + Svect{w}(r) = (Svect{v} + Svect{w})(r)), and (S_{avect{v}}(r) = r(avect{v}) = a(rvect{v}) = (aS_{vect{v}})(r)) for all (r) in (RR). To show (R) is one-to-one, let (R(vect{v}) = vect{0}). This means (S_{vect{v}} = 0) so (0 = S_{vect{v}}(r) = rvect{v}) for all (r). Hence (vect{v} = vect{0}) (take (r = 1)). Finally, to show (R) is onto, let (T) lie in (vectspace{L}(RR, V)). We must find (vect{v}) such that (R(vect{v}) = T), that is (S_{vect{v}} = T). In fact, (vect{v} = T(1)) works since then (T(r) = T(r dotprod 1) = rT(1) = rvect{v} = S_{vect{v}}(r)) holds for all (r), so (T = S_{vect{v}}).

Let (V) be a vector space with ordered basis (B = {vect{b}_{1}, vect{b}_{2}, dots, vect{b}_{n}}). For each (i = 1, 2, dots, m), define (S_{i} : RR o V) by (S_{i}(r) = rvect{b}_{i}) for all (r) in (RR).

  1. Show that each (S_{i}) lies in (vectspace{L}(RR, V)) and (S_{i}(1) = vect{b}_{i}).

  2. Given (T) in (vectspace{L}(RR, V)), let
    (T(1) = a_{1}vect{b}_{1} + a_{2}vect{b}_{2} + cdots + a_{n}vect{b}_{n}), (a_{i}) in (RR). Show that (T = a_{1}S_{1} + a_{2}S_{2} + cdots + a_{n}S_{n}).

  3. Show that ({S_{1}, S_{2}, dots, S_{n}}) is a basis of (vectspace{L}(RR, V)).

  1. Given (T : RR o V), let (T(1) = a_{1}vect{b}_{1} + cdots + a_{n}vect{b}_{n}), (a_{i}) in (RR). For all (r) in (RR), we have ((a_{1}S_{1} + cdots + a_{n}S_{n})(r) = a_{1}S_{1}(r) + cdots + a_{n}S_{n}(r) = (a_{1}rvect{b}_{1} + cdots + a_{n}rvect{b}_{n}) = rT(1) = T(r)). This shows that (a_{1}S_{1} + cdots + a_{n}S_{n} = T).

[ex:9_1_26] Let (func{dim }V = n), (func{dim }W = m), and let (B) and (D) be ordered bases of (V) and (W), respectively. Show that (M_{DB} : vectspace{L}(V, W) o vectspace{M}_{mn}) is an isomorphism of vector spaces. [تلميح: Let (B = {vect{b}_{1}, dots, vect{b}_{n}}) and (D = {vect{d}_{1}, dots, vect{d}_{m}}). Given (A = leftB a_{ij} ightB) in (vectspace{M}_{mn}), show that (A = M_{DB}(T)) where (T : V o W) is defined by
(T(vect{b}_{j}) = a_{1j}vect{d}_{1} + a_{2j}vect{d}_{2} + cdots + a_{mj}vect{d}_{m}) for each (j).]

If (V) is a vector space, the space (V^{*} = vectspace{L}(V, RR)) is called the dual of (V). Given a basis (B = {vect{b}_{1}, vect{b}_{2}, dots, vect{b}_{n}}) of (V), let (E_{i} : V o RR) for each (i = 1, 2, dots, n) be the linear transformation satisfying [E_i(vect{b}_j) = left{ egin{array}{ll} 0 & mbox{ if } i eq j 1 & mbox{ if } i = j end{array} ight.] (each (E_{i}) exists by Theorem [thm:020916]). Prove the following:

  1. (E_{i}(r_{1}vect{b}_{1} + cdots + r_{n}vect{b}_{n}) = r_{i}) for each (i = 1, 2, dots, n)

  2. (vect{v} = E_{1}(vect{v})vect{b}_{1} + E_{2}(vect{v})vect{b}_{2} + cdots + E_{n}(vect{v})vect{b}_{n}) for all (vect{v}) in (V)

  3. (T = T(vect{b}_{1})E_{1} + T(vect{b}_{2})E_{2} + cdots + T(vect{b}_{n})E_{n}) for all (T) in (V^{*})

  4. Given (vect{v}) in (V), define (vect{v}^{*} : V o RR) by
    (vect{v}^{*}(vect{w}) = E_{1}(vect{v})E_{1}(vect{w}) + E_{2}(vect{v})E_{2}(vect{w}) + cdots + E_{n}(vect{v})E_{n}(vect{w})) for all (vect{w}) in (V). Show that:
  5. (vect{v}^{*} : V o RR) is linear, so (vect{v}^{*}) lies in (V^{*}).

  6. (vect{b}_i^{*} = E_{i}) for each (i = 1, 2, dots, n).

  7. The map (R : V o V^{*}) with (R(vect{v}) = vect{v}^{*}) is an isomorphism. [تلميح: Show that (R) is linear and one-to-one and use Theorem [thm:022192]. Alternatively, show that (R^{-1}(T) = T(vect{b}_{1})vect{b}_{1} + cdots + T(vect{b}_{n})vect{b}_{n}).]

  1. Write (vect{v} = v_{1}vect{b}_{1} + cdots + v_{n}vect{b}_{n}), (v_{j}) in (RR). Apply (E_{i}) to get (E_{i}(vect{v}) = v_{1}E_{i}(vect{b}_{1}) + cdots + v_{n}E_{i}(vect{b}_{n}) = v_{i}) by the definition of the (E_{i}).


Chapter 9 : Linear transformation

أ function from a set $X$ to a set $Y$ is rule telling how elements of both sets are associated each other.

The element $y in Y$ associated, under the function, to the element $x in X$ is the so-called image.
The element $x in X$ associated, under the function, to the element $y in Y$ is the so-called pre-image.

Example I

The function represented in Figure 9.1 associates the grades of the students belonging to the class D1 in respect to the last examination of statistics. We have :

  • $X= < ext, ext, ext, ext, ext, ext>$. $Y=<1,2,3,4,5,6>$.
  • The image of $ ext$ under the function is $4$.
  • The pre-image of $5$ under the function is $< ext, ext>$.
  • $ ext$ does not have any image (absent at the examination).
  • $1$ and $2$ both do not have any pre-image.


1 إجابة 1

Remember that $T$ maps polynomials to polynomials. A polynomial is a special type of function, and as such, we can substitute particular values into the given polynomial. In this case, the map $T$ takes a polynomial function, substitutes $t = 4$ into the polynomial to get a constant, and then turns that constant into the constant function.

For example, to compute $T(2t^2 - 1)$ we substitute $t = 4$ into the polynomial $2t^2 - 1$ to obtain the constant $2(4)^2 - 1 = 31$ . So, $T(2t^2 - 1) = 0t^2 + 0t + 31.$

To form the matrix, you need to compute $T(1), T(t),$ and $T(t^2)$ , i.e. find the image of the basis under $T$ . Then, you need to compute the coordinate column vectors for the resulting polynomials under the given basis.

Let's get you started. If we evaluate $T(1)$ , we substitute $t = 4$ into the constant polynomial $1$ to get $1$ (the constant polynomial takes the value of $1$ at any $t$ , including $t = 4$ ). So, $T(1) = 1 cdot 1 + 0 cdot t + 0 cdot t^2.$ Therefore, the coordinate column vector with respect to the basis $(1, t, t^2)$ is $egin 1 0 0 end.$ This forms the first column of your matrix. Do the same with $t$ and $t^2$ , and you'll get the other two columns.


Existence and Uniqueness¶

Notice that some of these transformations map multiple inputs to the same output, and some are incapable of generating certain outputs.

على سبيل المثال ، ملف projections above can send multiple different points to the same point.

We need some terminology to understand these properties of linear transformations.

Definition. A mapping (T: mathbb^n ightarrow mathbb^m) is said to be onto (mathbb^m) if each (mathbf) in (mathbb^m) is the image of at least one (mathbf) in (mathbb^n) .

Informally, (T) is onto if every element of its codomain is in its range.

Another (important) way of thinking about this is that (T) is onto if there is a solution (mathbf) of

for all possible (mathbf.)

This is asking an existence question about a solution of the equation (T(mathbf) = mathbf) for all (mathbf.)

Here, we see that (T) maps points in (mathbb^2) to a plane lying within (mathbb^3) .

That is, the range of (T) is a strict subset of the codomain of (T) .

So (T) is not onto (mathbb^3) .

In this case, for every point in (mathbb^2) , there is an (mathbf) that maps to that point.

So, the range of (T) is equal to the codomain of (T) .

So (T) is onto (mathbb^2) .

Here, the red points are the images of the blue points.

What about this transformation? Is it onto (mathbb^2) ?

Here again the red points (which all lie on the (x) -axis) are the images of the blue points.

What about this transformation? Is it onto (mathbb^2) ?

Definition. A mapping (T: mathbb^n ightarrow mathbb^m) is said to be one-to-one if each (mathbf) in (mathbb^m) is the image of at most one (mathbf) in (mathbb^n) .

If (T) is one-to-one, then for each (mathbf,) the equation (T(mathbf) = mathbf) has either a unique solution, or none at all.

This is asking an existence question about a solution of the equation (T(mathbf) = mathbf) for all (mathbf) .

Let’s examine the relationship between these ideas and some previous definitions.

If (Amathbf = mathbf) is consistent for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

(T(mathbf)) is onto. (T(mathbf)) may or may not be one-to-one. If the system has multiple solutions for some (mathbf) , (T(mathbf)) is not one-to-one.

If (Amathbf = mathbf) is consistent and has a unique solution for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

If (Amathbf = mathbf) is not consistent for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

(T(mathbf)) is ليس onto. (T(mathbf)) may or may not be one-to-one.

If (T(mathbf) = Amathbf) is onto, is (Amathbf = mathbf) consistent for all (mathbf) ? is the solution unique for all (mathbf) ?

If (T(mathbf) = Amathbf) is one-to-one, is (Amathbf = mathbf) consistent for all (mathbf) ? is the solution unique for all (mathbf) ?


Chapter 9: Linear Mappings

This chapter is about linear mappings . A mapping is simply a function that takes a vector in and outputs another vector. A linear mapping is a special kind of function that is very useful since it is simple and yet powerful.

Example 9.1: Image Compresssion
Linear mappings are common in real world engineering problems. One example is in image أو video compression. Here an image to be coded is broken down to blocks, such as the $4 imes 4$ pixel blocks as shown in Figure 9.1.

A real encoder is more complicated than this picture, and contain many optimizations. For instance, the linear mapping is not implemented using a matrix multiplication, but in a faster way that is mathematically equivalent to it.

Definition 9.1: Mapping
أ mapping $F$ is a rule that, for every item in one set $N$, provides one item in another set $M$
يبدأ F: N ightarrow M. end (9.1)
This may look abstract, but in fact you have already been dealing with mappings , but under the name functions. Another way to state the same thing is
يبدأ y = F(x). نهاية (9.2)
The form
يبدأ F: x ightarrow y, x in N. end (9.3)
is also used. For example the function $y = x^2$, shown in Figure 9.3, is a rule that, for every item in the set of real numbers $mathbb$, provides another item from the set of real numbers $mathbb$. Thus, in this example, both $N$ and $M$ equals $mathbb$. Definition 9.2: Domain, Codomain, and Range of a Mapping
Assume we have a mapping $y = F(x)$ where $x in N$ and $y in M$. Then $N$ is the domain of the mapping , and $M$ is the codomain of the mapping . ال range (or alternatively, the image) of the mapping is the set $V_F$, where
يبدأ V_F = . نهاية (9.4)

The vertical bar should be read as "such that" or "with the property of". In this example, the expression can be read out as "$V_F$ is the set of all elements $F(x)$ such that $x$ belongs to the set $N$". For the example $y=x^2$, the range equals the set of positive real numbers including zero, $V_F = mathbb_$. Therefore, in this case, we only reach a subset of the codomain , i.e., $V_F$ is a subset of $M$.

In linear algebra, the inputs and outputs of a function are vectors instead of scalar. Assume we have a coordinate system $vc_1,vc_2$ and that $eginx_1 x_2 end$ is the coordinate for the vector $vc$. We can now have a function $vc = F( vc )$ that maps every $vc$ to a new vector $vc = eginy_1 y_2 end$ according to, for instance,

يبدأ يبدأ y_1 = x_1 y_2 = 0 end نهاية (9.5)
It is not possible to draw a simple graph for this mapping , since four dimensions would be needed for that (two for the input and two for the output). However, it is often possible to get an intuitive understanding of the mapping by drawing both the input and the output in the same diagram. Interactive Illustration 9.5 shows this for the mapping mentioned above. Note that you can move the red input arrow $vc$ and see how the blue output arrow $vc$ moves.

As can be seen, the effect of the mapping is to project any input vector on to the $vc_1$-axis. Any vector in the plane can be used as input, hence the domain is $mathbb^2$. The codomain is also $mathbb^2$, since the output is a vector of two dimensions, but the range or image is the $vc_1$-axis. The range is marked with green in the second step of the figure.

A slightly more interesting example of a mapping is the following

يبدأ يبدأ y_1 = cos(frac<3>) x_1 - sin(frac<3>) x_2, y_2 = sin(frac<3>) x_1 + cos(frac<3>) x_2. نهاية نهاية (9.6)
As can be seen, the factors before the $x_1$s and $x_2$s resemble a rotation matrix (see Definition 6.10) by $pi/3$ radians. This mapping is illustrated in the Interactive Illustration 9.6, where again the input vector is marked with red and the output vector is marked with blue.

As can be seen by playing around with Interactive Ilustration 9.6, the output vector is a rotated copy of the input vector with the rotation angle $frac<3>$. As a matter of fact, we can write Equation (9.6) in matrix form as

يبدأ يبدأ y_1 y_2 end = left(egin cos frac <3>& -sin frac <3> sin frac <3>& cos frac <3>end ight) egin x_1 x_2 end نهاية (9.7)
or, shorter,
يبدأ vc = mx vc. نهاية (9.8)
It is now easy to see that the matrix $mx$ is just a two-dimensional rotation matrix as defined in Definition 6.10 in Chapter 6. When a mapping can be written in matrix form, i.e., in the form $vc = mx vc$, we call $mx$ the transformation matrix.

The example in Interactive Illustration 9.3 can also be written in matrix form,

يبدأ يبدأ y_1 y_2 end = left(egin 1 & 0 0 & 0 end ight) egin x_1 x_2 end, end (9.9)
where the transformation matrix in this case equals $left(egin 1 & 0 0 & 0 end ight)$. That raises the question whether all vector mappings be written on the form $vc = mx vc$ for some $mx$ with constant coefficients? The answer is no. As an example, the mapping
يبدأ يبدأ y_1 = x_1 x_2 + x_2 y_2 = x_1 + e^ نهاية نهاية (9.10)
cannot be written as $vc = mxvc$. It is of course possible to write $egin y_1 y_2 end = left(egin x_2 & 1 1 & frac<>> نهاية ight) egin x_1 x_2 end$, but that violates the rule that $mx$ should consist of constant coefficients, i.e, independent of $vc$. To investigate which mappings can be written in this form, we first introduce the concept of a linear mapping .

Definition 9.3: Linear Mapping
A linear mapping is a mapping $F$, which satisfies

يبدأ يبدأ F( vc' + vc'') = F(vc') + F(vc''), F( lambda vc ) = lambda F(vc). end نهاية (9.11)

Example 9.2: Shopping Cart to Cost
Assume that a shop only sells packages of penne, jars of Arrabiata sauce, and bars of chocolate. The contents of your shopping cart can be modelled as a vector space. Introduce addition of two shopping carts as putting all of the items of both carts in one cart. Introduce multiplication of a scalar as multiplying the number of items in a shopping cart with that scalar. Notice that here, there are practical problems with multiplying a shopping cart with non-integer numbers or negative numbers, which makes the model less useful in practice. Introduce a set of basis shopping carts. Let $vc_1$ correspond to the shopping cart containing one package of penne, let $vc_2$ correspond to the shopping cart containing one jar of Arrabiata sauce, and let $vc_3$ correspond to the shopping cart containing one bar of chocolate. Then each shopping cart $vc$ can be described by three coordinates $(x_1, x_2, x_3)$ such that $vc = x_1 vc_1 + x_2 vc_2 + x_3 vc_3$.

In real life this map is often non-linear , e.g., a shop might have campaigns saying 'buy 3 for the price of 2'. But modelling the mapping as a linear map is often a reasonable and useful model. Again (as is common with mathematical modelling) there is a discrepancy between mathematical model and reality. The results of mathematical analysis must always be used with reason and critical thinking. Even if the cost of a shopping cart of 1 package of penne is 10, it does not always mean that you can sell packages of penne to the store for 10 each.

Assume we have a basis $vc_1$,$vc_2$ in $N$ and $M$. We can then write the input $vc$ and the output $vc$ in this basis ,

يبدأ vc & = x_1 vc_1 + x_2 vc_2, vc & = y_1 vc_1 + y_2 vc_2. end (9.12)
Inserting the expression for $vc$ in $vc = F(x)$, we get
يبدأ vc = F(vc) = F(x_1 vc_1 + x_2 vc_2), end (9.13)
and since $F$ is linear , we can apply the first and second conditions of linearity,
يبدأ vc = F(x_1 vc_1) + F(x_2 vc_2) = x_1F(vc_1) + x_2F(vc_2). نهاية (9.14)
Since $F$ maps one vector to another vector, $F(vc_1)$ must also be a vector that can be expressed in the basis . Assume it has the coordinates $egina_ <11> a_ <21>end$ in the base $vc_1$, $vc_2$,
يبدأ F(vc_1) = a_<11>vc_1 + a_<21>vc_2. نهاية (9.15)
Likewise, we assume
يبدأ F(vc_2) = a_<12>vc_1 + a_<22>vc_2. نهاية (9.16)
We can now continue the expansion of $F(vc)$ as
يبدأ vc = x_1(a_<11>vc_1 + a_<21>vc_2) + x_2(a_<12>vc_1 + a_<22>vc_2) = (x_1 a_ <11>+ x_2 a_<12>)vc_1 + (x_1 a_ <21>+ x_2 a_<22>)vc_2 end (9.17)
Comparing this expression to the second row of Equation (9.12), we understand that $y_1$ must equal $a_<11>x_1 + a_<12>x_2$ and $y_2 = a_<21>x_1 + a_<22>x_2$. We have
يبدأ يبدأ y_1 y_2 end = left(egin a_ <11>& a_ <12> a_ <21>& a_ <22>end ight) egin x_1 x_2 end نهاية (9.18)
that is
يبدأ vc = mxvc. نهاية (9.19)
Now we need to prove the converse, that if $vc = mxvc$, then the mapping is linear . Assume we have one input $vc'$ with coordinates $vc' = x_1' vc_1 + x_2' vc_2$ or in vector form $vc' = eginx'_1x'_2end$, and another input $vc''$ or in vector form $vc'' = eginx''_1x''_2end$. The first condition follows directly from rule $(vii)$ of matrix arithmetic properties in Theorem 6.1, that is,
يبدأ F(vc' + vc'') = mx(vc' + vc'') = mxvc' + mxvc'' = F(vc') + F(vc''). نهاية (9.20)
The second condition also follows from matrix algebra
يبدأ F(lambda vc) = mx(lambda vc') = lambda mx vc' = lambda F(vc) end (9.21)
since a scalar $lambda$ can be placed on either side of a matrix ($mxlambda = lambda mx$). The proof is thus complete.

We will prove the case when $N = M = 3$, but the proof for other values of $M$ and $N$ is similar.

The first basis vector $vc_1$ can be written as $vc_1 = 1 vc_1 + 0vc_2 + 0 vc_3$ and thus has the coordinates $(1, 0, 0)$. Using $vc = egin 1 0 0end$ in the formula $vc = mxvc$ gives

يبدأ يبدأ y_1 y_2 y_3end = left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 1 0 0 end = left(egin 1 a_ <11>+ 0 a_ <12>+ 0 a_<13> 1 a_ <21>+ 0 a_ <22>+ 0 a_<23> 1 a_ <31>+ 0 a_ <32>+ 0 a_<33> end ight) = egin a_ <11> a_ <21> a_ <31>end, end (9.22)
which is the first column in $mx$. Thus the image $F(vc_1)$ of the basis vector $vc_1$ is the first column of $mx$, denoted $vc_<,1>$. Likewise, the second basis vector can be written $vc_2 = 0 vc_1 + 1 vc_2 + 0 vc_3$, and thus has the coordinates $(0, 1, 0)$. Its image is therefore
يبدأ left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 0 1 0 end = left(egin 0 a_ <11>+ 1 a_ <12>+ 0 a_<13> 0 a_ <21>+ 1 a_ <22>+ 0 a_<23> 0 a_ <31>+ 1 a_ <32>+ 0 a_<33> end ight) = egin a_ <12> a_ <22> a_ <32>end, end (9.23)
which is the second column vector $vc_<,2>$ of the matrix $mx$. Similarly for the third basis vector we get
يبدأ left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 0 0 1 end = left(egin 0 a_ <11>+ 0 a_ <12>+ 1 a_<13> 0 a_ <21>+ 0 a_ <22>+ 1 a_<23> 0 a_ <31>+ 0 a_ <32>+ 1 a_<33> end ight) = egin a_ <13> a_ <23> a_ <33>end, end (9.24)
which is the third column of $mx$. This can be extended to any numbers of $M$ and $N$.

Example 9.3: Finding a Linear Mapping's Matrix
A linear mapping $vc = F(vc)$ rotates a two-dimensional vector $vc$ counterclockwise 90 degrees. Find the transformation matrix $mx$ of the matrix form $vc = mx vc$ when the standard orthonormal basis $vc_1=(1,0)$, $vc_2=(0,1)$ is used.


Linear Transformation

Linear transformation (linear map, linear mapping or linear function) is a mapping V →W between two vector spaces, that preserves addition و scalar multiplication.
— Wikipedia (Linear map)

Formally, for vector spaces الخامس, W over the same field K, the function F: الخامسW is a linear map if any two vectors u,v ∈ الخامس and any scalar c ∈ K satisfies the two following conditions:

(1): F(ش+الخامس)=F(ش)+F(الخامس)
(2): F(cش)=cF(ش)


Combining transformations

The process of combining transformations is known as composition. Two or more linear transformations can be combined with relative ease using matrix multiplication. For example, let's assume we have two matrices, أ و ب , that represent two different linear transformations. Assuming that we have a position vector matrix X1 , We can apply these transformations one after the other (first أ , then ب ), as follows:

The same end result can be achieved by applying the transformation that is created by multiplying matrices أ و ب together. Note, however, that the order in which the matrices must be multiplied is the opposite of the order in which they should be applied. Thus, in order to achieve the same end result as we did previously we would have:

Consider the following triangle:

Triangle ABC لديها xy coordinates: ( 3, 5 ), ( 4, 1 ), ( 2, 1 )

Supposing we want to rotate the triangle clockwise through ninety degrees, and then reflect it in the ذ -axis. The two transformations matrices would be:

cos (90°)sin (90°) = 01 Rotation by 90° in a clockwise direction
-sin (90°)cos (90°)-10
-10 Reflection in the ذ -axis
01

Applying these transformations separately, we get:

01 342 = 511
-10511-3-4-2
-10 511 = -5-1-1
01-3-4-2-3-4-2

Here is the first transformation:

Triangle ABC is rotated ninety degrees to become triangle A'B'C'

Here is the second transformation:

Triangle ABC is reflected in the ذ -axis to become triangle A'B'C'

We could create a transformation matrix that combines these operations by multiplying the two individual transformation matrices together as follows:

Note that we multiply the matrices in the opposite order to that in which we want them to be applied. If we now multiply the resulting transformation matrix by the position vector matrix of our original triangle we get:

If you refer back to the results we got when we carried out the rotation and reflection transformations separately, you will see that the final x و ذ coordinates for each point are identical.


9.1: The Matrix of a Linear Transformation

3.2.3 Affine Transformation of the Euclidean Plane Printout
A mathematician, like a painter or a poet, is a maker of patterns. If his patterns are more permanent than theirs, it is because they are made with ideas.
Godfrey Harold Hardy (1877–1947)

What is the form of a transformation matrix for the analytic model of the Euclidean plane? We investigate this question. Let A = [ أ ij ] be a transformation matrix for the Euclidean plane and (x, ذ, 1) be any point in the Euclidean plane. ثم


Since the last matrix must be the matrix of a point in the Euclidean plane, we must have أ 31 x + أ 32 ذ + أ 33 = 1 for every point (x, y, 1) in the Euclidean plane. In particular, the point (0, 0, 1) must satisfy the equation. Hence, a 33 = 1. Further, the points (0, 1, 1) and (1, 0, 1) satisfy the equation and imply أ 32 = 0 and أ 31 = 0, respectively. Therefore, the transformation matrix must have the form

which motivates the following definition.

Definition. ان affine transformation of the Euclidean plane , T, is a mapping that maps each point X of the Euclidean plane to a point تي( X) of the Euclidean plane defined by T(X) = AX where det(أ) is nonzero and

where each أ ij is a real number.

Exercise 3.19. Prove that every affine transformation of the Euclidean plane has an inverse that is an affine transformation of the Euclidean plane . (Hint. Write the inverse by using the adjoint. Refer to a linear algebra text.)

Proposition 3.3. An affine transformation of the Euclidean plane is a transformation of the Euclidean plane.

Exercise 3.20. Prove Proposition 3.3.

Proposition 3.4. The set of affine transformations of the Euclidean plane form a group under matrix multiplication.

دليل - إثبات. Since the identity matrix is clearly a matrix of an affine transformation of the Euclidean plane and the product of matrices is associative, we need only show closure and that every transformation has an inverse.
يترك أ و ب be the matrices of affine transformations of the Euclidean plane. Since det(أ) and det(ب) are both nonzero, we have that det(AB) = det(أ) · det(ب) is not zero. Also,

is a matrix of an affine transformation of the Euclidean plane. (The last row of the matrix is 0 , 0, 1.) Hence closure holds.
Complete the proof by showing the inverse property.//

Exercise 3.21. Given three points ص(0, 0, 1), س(1, 0, 1), and R(2, 1, 1), and an affine transformation تي. (a) Find the points P' = تي( P), Q' = تي(س), and R' = T(ص) where the matrix of the transformation is . (b) Sketch triangle PQR and triangle P'Q'R' . (c) Describe how the transformation moved and changed the triangle PQR.

Exercise 3.22. Find the matrix of an affine transformation that maps ص(0, 0, 1) to P'(0, 2, 1), Q(1, 0, 1) to Q'(2, 1, 1), and ص(2, 3, 1) to R'(7, 9, 1).

Exercise 3.23. Show the group of affine transformations of the Euclidean plane is not commutative.


9.1: The Matrix of a Linear Transformation

The main objective of principal components analysis (PC) is to reduce the dimension of the observations. The simplest way of dimension reduction is to take just one element of the observed vector and to discard all others. This is not a very reasonable approach, as we have seen in the earlier chapters, since strength may be lost in interpreting the data. In the bank notes example we have seen that just one variable (e.g. = length) had no discriminatory power in distinguishing counterfeit from genuine bank notes. طريقة بديلة هي وزن جميع المتغيرات بالتساوي ، أي النظر في المتوسط ​​البسيط لجميع العناصر في المتجه. هذا مرة أخرى غير مرغوب فيه ، حيث يتم اعتبار جميع العناصر بنفس الأهمية (الوزن).

نهج أكثر مرونة هو دراسة المتوسط ​​المرجح ، وهي

يمكن بعد ذلك تحسين ناقل الترجيح للتحقيق في ميزات معينة واكتشافها. نسمي (9.1) تركيبة خطية قياسية (SLC). أي SLC يجب أن نختار؟ يتمثل أحد الأهداف في تعظيم تباين الإسقاط ، أي الاختيار وفقًا لـ

تم العثور على "اتجاهات" مثيرة للاهتمام من خلال التحلل الطيفي لمصفوفة التغاير. في الواقع ، من نظرية 2.5 ، يتم إعطاء الاتجاه من قبل المتجه الذاتي المقابل لأكبر قيمة ذاتية لمصفوفة التغاير.

يوضح الشكلان 9.1 و 9.2 اثنين من هذه الإسقاطات (SLCs) لنفس مجموعة البيانات بمتوسط ​​صفر. في الشكل 9.1 يتم عرض إسقاط عشوائي. تُظهر النافذة العلوية سحابة نقطة البيانات والخط الذي يتم عرض البيانات عليه. تعرض النافذة الوسطى القيم المسقطة في الاتجاه المحدد. تُظهر النافذة السفلية تباين الإسقاط الفعلي والنسبة المئوية للتباين الإجمالي الموضح.

يوضح الشكل 9.2 الإسقاط الذي يلتقط غالبية التباين في البيانات. هذا الاتجاه مهم ويقع على طول الاتجاه الرئيسي لسحابة النقطة. يمكن تطبيق نفس الخط الفكري على جميع البيانات المتعامدة لهذا الاتجاه المؤدي إلى المتجه الذاتي الثاني. يعتبر SLC ذو أعلى تباين تم الحصول عليه من التعظيم (9.2) هو المكون الأساسي الأول (PC). متعامد مع الاتجاه نجد SLC مع ثاني أعلى تباين: الكمبيوتر الشخصي الثاني.

المضي قدما بهذه الطريقة والكتابة في تدوين المصفوفة ، والنتيجة لمتغير عشوائي مع تحويل الكمبيوتر الشخصي والذي يتم تعريفه على أنه

هنا قمنا بتوسيط المتغير من أجل الحصول على متغير PC بمتوسط ​​صفر.

وبالتالي فإن تحول الكمبيوتر الشخصي

لذا فإن أول عنصر أساسي هو

دعونا نحسب الفروق بين أجهزة الكمبيوتر هذه باستخدام الصيغ (4.22) - (4.26):

يمكن التعبير عن هذا بشكل عام ويتم تقديمه في النظرية التالية.

يتم إجراء الاتصال بين تحويل الكمبيوتر الشخصي والبحث عن أفضل SLC في النظرية التالية ، والتي تتبع مباشرة من (9.2) و Theorem 2.5.


تحليل تحولات المصفوفة: البنى الذاتية والأشكال التربيعية

5.1 مقدمة

ناقشنا في الفصل السابق حالات خاصة مختلفة من تحويلات المصفوفة ، مثل التدوير ، والانعكاسات ، والتمدد ، وصوّرنا آثارها هندسيًا. أشرنا أيضًا إلى التأثير الهندسي لمختلف مركب التحولات ، مثل الدوران متبوعًا بالتمدد.

ومع ذلك ، فإن الدافع وراء هذا الفصل هو عكس ذلك تمامًا في الفصل 4. نبدأ هنا بتحويل مصفوفة عشوائي إلى حد ما وننظر في طرق المتحللة في منتج مصفوفات أبسط من وجهة نظر هندسية. على هذا النحو ، فإن هدفنا هو توفير ، جزئيًا ، مجموعة من الأساليب التكميلية لتلك الموضحة في الفصل 4.

يتيح لنا اعتماد وجهة النظر العكسية هذه تقديم عدد من المفاهيم المهمة في التحليل متعدد المتغيرات - قيم المصفوفة الذاتية والمتجهات الذاتية ، وخصائص البنية الذاتية للمصفوفات المتماثلة وغير المتماثلة ، وتحلل القيمة الفردية للمصفوفة والأشكال التربيعية. يجب أن توفر هذه المادة الجديدة ، إلى جانب تلك الموجودة في الفصول الثلاثة السابقة ، معظم الخلفية لفهم عمليات المتجهات والمصفوفة في التحليل متعدد المتغيرات. علاوة على ذلك ، سنقوم بفحص المفاهيم التي تم تناولها مسبقًا ، مثل رتبة المصفوفة ، وعكس المصفوفة ، وتفرد المصفوفة ، من منظور آخر - منظور مأخوذ من سياق البنى الذاتية.

إن العثور على البنية الذاتية لمصفوفة مربعة ، مثل إيجاد معكوسها ، هو أمر روتيني تقريبًا في العصر الحالي لأجهزة الكمبيوتر. ومع ذلك ، يبدو من المفيد مناقشة أنواع الحسابات المتضمنة على الرغم من أننا نقتصر على مصفوفات صغيرة من الرتبة 2 × 2 أو 3 × 3. بهذه الطريقة يمكننا توضيح العديد من هذه المفاهيم هندسيًا وكذلك عدديًا.

نظرًا لأن موضوع البنى الذاتية يمكن أن يصبح معقدًا نوعًا ما ، فإننا نبدأ الفصل بمناقشة عامة للبنى الذاتية حيث يمكن العثور على القيم الذاتية والمتجهات الذاتية ببساطة وبسرعة. يتم التركيز هنا على وصف هندسي جوانب من البنى الذاتية فيما يتعلق بأنواع خاصة من تغييرات ناقلات الأساس التي تجعل طبيعة التعيين بسيطة قدر الإمكان ، على سبيل المثال ، كامتداد بالنسبة لمجموعة مناسبة من نواقل الأساس.

تمكننا هذه المعالجة البسيطة والوصفية أيضًا من ربط المادة الحالية بالبنية الذاتية مع المناقشة في الفصل 4 التي تركزت على تحويلات المتجهات النقطية والأساسية. عند القيام بذلك ، نعود إلى المثال العددي الموضح في القسم 4.3 ونحصل على البنية الذاتية لمصفوفة التحويل الموصوفة هناك.

يواصل القسم الرئيسي التالي من الفصل مناقشة البنيات الذاتية ، ولكن الآن في سياق التحليل متعدد المتغيرات. لإدخال هذا النهج التكميلي - الذي يعتمد على إيجاد مركب خطي بحيث يكون التباين في إسقاطات النقاط عليه هو الحد الأقصى - نعود إلى المشكلة العددية الصغيرة المستمدة من عينة بيانات الجدول 1.2. نفترض أن لدينا مجموعة من الدرجات المتوسطة المصححة من اثني عشر موظفًا X1 (الموقف تجاه الشركة) و X2 (عدد سنوات العمل في الشركة). تكمن المشكلة في العثور على مركب خطي من الدرجتين المنفصلتين التي تظهر أقصى قدر من التباين بين الأفراد. يؤدي هذا الدافع إلى مناقشة الهياكل الذاتية للمصفوفة التي تتضمن متماثل المصفوفات والتقنية متعددة المتغيرات لتحليل المكونات الرئيسية.

يتعامل القسم الرئيسي التالي من الفصل مع الخصائص المختلفة للبنى الذاتية للمصفوفة. تتم مناقشة الحالة الأكثر شيوعًا للمصفوفات المتماثلة (مع إدخالات ذات قيمة حقيقية) بشيء من التفصيل ، في حين يتم وصف الحالة الأكثر تعقيدًا التي تتضمن التركيبات الذاتية للمصفوفات غير المتماثلة بشكل أكثر إيجازًا. تم وصف العلاقة بين البنية الذاتية ورتبة المصفوفة هنا أيضًا.

يعتبر تحليل القيمة الفردية لمصفوفة إما مربعة أو مستطيلة وعلاقتها بتحلل المصفوفة مفهومًا مركزيًا آخر في الإجراءات متعددة المتغيرات. وفقًا لذلك ، يتركز الاهتمام على هذا الموضوع ، وترتبط المناقشة أيضًا بالمواد التي تم تناولها في الفصل 4. هنا ، ومع ذلك ، فإننا نركز على تقسيم من المصفوفات في منتج المصفوفات الأخرى التي تعرض بشكل فردي تفسيرات هندسية بسيطة نوعًا ما.

يتم تناول الأشكال التربيعية بعد ذلك وترتبط بالمواد السابقة. علاوة على ذلك ، يتم تقديم مناقشة إضافية حول البنية الذاتية للمصفوفات غير المتماثلة المربعة ، فيما يتعلق بالتقنيات متعددة المتغيرات مثل تحليل التمايز المتعدد والارتباط الكنسي ، في سياق مشكلة العينة الثالثة في الفصل الأول.

وبالتالي ، إذا كان انعكاس المصفوفة ورتبة المصفوفة مهمين في الانحدار الخطي والإجراءات ذات الصلة لدراسة معيار واحد ، فإن ارتباط المتنبئ المتعدد ، والبنية الذاتية للمصفوفة والأشكال التربيعية هي المفاهيم الأساسية في التعامل مع معايير متعددة ، علاقات توقع متعددة.


شاهد الفيديو: Linear Transformation Part 1 التحويلات الخطيه الجزء الاول (شهر اكتوبر 2021).