مقالات

11.1: تطبيقات الجيوب الأنفية


بنفس الطريقة يمكن استخدام الدوال الأسية لنمذجة مجموعة متنوعة من الظواهر في الطبيعة ، حاشية سفلية {انظر القسم المرجع {ExpLogApplications}.} يمكن استخدام دوال جيب التمام والجيب لنمذجة نصيبها العادل من السلوكيات الطبيعية. في القسم 10.5 ، قدمنا ​​مفهوم الجيب كدالة يمكن كتابتها إما بالصيغة (C (x) = A cos ( omega x + phi) + B ) من أجل ( omega> 0 ) أو ما يعادله ، بالصيغة (S (x) = A sin ( omega x + phi) + B ) لـ ( omega> 0 ). في ذلك الوقت ، ظللنا مترددين بشأن الشكل الذي نفضله ، لكن وقت هذا التردد قد انتهى. لتوضيح العرض ، نركز على وظيفة الجيب (يمكن لمكره الجيب استخدام هوية الوظيفة المشتركة ( cos left ( frac { pi} {2} - theta right) = sin ( theta) ) لتحويل كل الجيب إلى جيب التمام). في هذا القسم ، قم بالتبديل إلى المتغير المستقل (t ) ، لأن التطبيقات في هذا القسم تعتمد على الوقت. نعيد تقديم وتلخيص جميع الحقائق والتعريفات المهمة حول هذا الشكل من الجيوب الأنفية أدناه.

ملاحظة ( PageIndex {1} ): خصائص الشكل الجيبي

[S (t) = A sin ( omega t + phi) + B ]

  1. ال السعة هو (| A | )
  2. ال التردد الزاوي هو ( أوميغا ) و التردد العادي هو (f = dfrac { omega} {2 pi} )
  3. ال فترة هو (T = dfrac {1} {f} = dfrac {2 pi} { omega} )
  4. ال مرحلة هو ( phi ) والملف مرحلة التحول هو (- dfrac { phi} { omega} )
  5. ال التحول العمودي أو textbf {الخط الأساسي} هو (B )

إلى جانب معرفة هذه الصيغ ، من المفيد تذكر ما تعنيه هذه الكميات في السياق. السعة تقيس الإزاحة القصوى للموجة الجيبية من خط قاعدتها (يحددها الانزياح العمودي) ، الفترة هي طول الوقت المستغرق لإكمال دورة واحدة من الجيب ، التردد الزاوي يخبرنا بعدد الدورات المكتملة خلال فترة زمنية الطول (2 pi ) ، ويقيس التردد العادي عدد الدورات التي تحدث لكل وحدة زمنية. تشير المرحلة إلى الزاوية ( phi ) التي تتوافق مع (t = 0 ) ، ويمثل تحول الطور مقدار "البداية السريعة" التي يمتلكها الجيوب الأنفية على وظيفة الجيب غير المتغيرة. الشكل أدناه مكرر من القسم 10.5.

في القسم المرجع {الحركة الدائرية} ، قدمنا ​​مفهوم الحركة الدائرية وفي القسم المرجع {cosinesinebeyond} ، قمنا بتطوير صيغ للحركة الدائرية. تضع غزتنا الأولى في الحركة الجيبية هذه المفاهيم في الاستخدام الجيد.

مثال ( PageIndex {1} ): ycoordonwheel

تذكر من التمرين المرجع {الحركة العملاقة} في القسم المرجع {الزوايا} أن العجلة العملاقة في سيدار بوينت عبارة عن دائرة يبلغ قطرها 128 قدمًا وتقع على منصة يبلغ ارتفاعها 8 أقدام مما يجعل ارتفاعها الإجمالي 136 قدمًا. يكمل دورتين في دقيقتين و 7 ثوان. بافتراض أن الراكبين على حافة الدائرة ، ابحث عن جيب صغير يصف ارتفاع الركاب فوق الأرض (t ) بعد ثوانٍ من اجتيازهم النقطة الموجودة على العجلة الأقرب إلى الأرض.

حل.

نرسم موقف المشكلة أدناه ونفترض دورانًا عكس اتجاه عقارب الساعة. حاشية سفلية {وإلا ، يمكننا فقط ملاحظة حركة العجلة من الجانب الآخر.}

نعلم من المعادلات الواردة في الصفحة pageref {equationsforcircularmotion} في القسم المرجع {cosinesinebeyond} أن (y ) - ينسق للحركة عكس اتجاه عقارب الساعة على دائرة نصف قطرها (r ) متمركزة في الأصل مع ثابت السرعة الزاوية (التردد) ( أوميغا ) تُعطى بواسطة (y = r الخطيئة ( omega t) ). هنا ، (t = 0 ) يتوافق مع النقطة ((r ، 0) ) بحيث تكون ( theta ) ، الزاوية التي تقيس مقدار الدوران ، في الوضع القياسي. يبلغ قطر العجلة في حالتنا 128 قدمًا ، وبالتالي فإن نصف القطر (r = 64 ) قدمًا. نظرًا لأن العجلة تكمل دورتين في دقيقتين و 7 ثوانٍ (وهي (127 ) ثانية) الفترة (T = frac {1} {2} (127) = frac {127} {2} ) ثواني. ومن ثم ، فإن التردد الزاوي هو ( omega = frac {2 pi} {T} = frac {4 pi} {127} ) راديان في الثانية. بتجميع هاتين المعلومتين معًا ، يكون لدينا (y = 64 sin left ( frac {4 pi} {127} t right) ) يصف (y ) - الإحداثيات على العجلة العملاقة بعد (t ) ثوانٍ ، بافتراض أنها تتمحور في ((0،0) ) مع (t = 0 ) المقابلة للنقطة (Q ). من أجل إيجاد تعبير لـ (h ) ، نأخذ النقطة (O ) في الشكل كأصل. نظرًا لأن قاعدة ركوب العجلة العملاقة هي (8 ) أقدام فوق الأرض وأن نصف قطر العجلة العملاقة نفسها يبلغ (64 ) قدمًا ، فإن مركزها (72 ) قدمًا فوق الأرض. لحساب هذا التحول الرأسي لأعلى ، الحاشية السفلية {نحن نعيد ضبط "خط الأساس" من (y = 0 ) إلى (y = 72 ).} نضيف (72 ) إلى صيغتنا لـ (y ) للحصول على الصيغة الجديدة (h = y + 72 = 64 sin left ( frac {4 pi} {127} t right) + 72 ). بعد ذلك ، نحتاج إلى ضبط الأشياء بحيث تتوافق (t = 0 ) مع النقطة (P ) بدلاً من النقطة (Q ). هذا هو المكان الذي تدخل فيه المرحلة. هندسيًا ، نحتاج إلى تحويل الزاوية ( theta ) في الشكل للخلف ( frac { pi} {2} ) راديان. من القسم المرجع {cosinesinebeyond} ، نعرف ( theta = omega t = frac {4 pi} {127} t ) ، لذلك (مؤقتًا) نكتب الارتفاع بدلالة ( theta ) مثل (ح = 64 خطيئة يسار ( ثيتا يمين) + 72 ). ينتج عن طرح ( frac { pi} {2} ) من ( theta ) الإجابة النهائية (h (t) = 64 sin left ( theta - frac { pi} {2} right) + 72 = 64 sin left ( frac {4 pi} {127} t - frac { pi} {2} right) + 72 ). يمكننا التحقق من معقولية إجابتنا من خلال رسم بياني (y = h (t) ) على الفاصل ( left [0، frac {127} {2} right] ).

بعض الملاحظات حول المثال المرجع {ycoordonwheel} سليمة. أولاً ، لاحظ أن سعة (64 ) في إجابتنا تتوافق مع نصف قطر العجلة العملاقة. هذا يعني أن الركاب على العجلة العملاقة لا يبتعدون أبدًا عن مركز العجلة أكثر من (64 ) قدمًا ، وهذا أمر منطقي. ثانيًا ، يكون التحول الطوري لإجابتنا هو ( frac { pi / 2} {4 pi / 127} = frac {127} {8} = 15.875 ). يمثل هذا "التأخير الزمني" (بالثواني) الذي نقدمه عن طريق بدء الحركة عند النقطة (P ) بدلاً من النقطة (Q ). يقال بشكل مختلف ، الركاب الذين "يبدأون" عند (P ) يستغرقون (15.875 ) ثانية "للحاق" بالنقطة (Q ).

يعيد المثال التالي مراجعة بيانات النهار التي تم تقديمها لأول مرة في القسم 2.5 ، التمرين المرجع {regsunlight}.

مثال ( PageIndex {2} ): sinusoidsunlight

وفقًا لموقع المرصد البحري الأمريكي ، فإن عدد ساعات (H ) من ضوء النهار التي تلقتها فيربانكس ، ألاسكا في اليوم الحادي والعشرين من (n ) الشهر من عام 2009 مذكورة أدناه. هنا (t = 1 ) يمثل 21 يناير 2009 ، (t = 2 ) يمثل 21 فبراير 2009 ، وهكذا.

[ start {tabular} {| l | r | r | r | r | r | r | r | r | r | r | r |} hline Month & & & & & & & & & & & & & عدد & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 & 11 & 12 hline Hours of & & & & & & & & & & & ضوء النهار & 5.8 & 9.3 & 12.4 & 15.9 & 19.4 & 21.8 & 19.4 & 15.6 & 12.4 & 9.1 & 5.6 & 3.3 hline end {tabular} ]

  1. label {roughsinusoidfit} ابحث عن الجيوب الأنفية التي تمثل هذه البيانات واستخدم أداة الرسم البياني لرسم إجابتك مع البيانات.
  2. قارن إجابتك بالجزء ref {roughsinusoidfit} بالإجابة التي تم الحصول عليها باستخدام خاصية الانحدار في الآلة الحاسبة.

حل

  1. للتعرف على البيانات ، نرسمها أدناه.
  2. من المؤكد أن البيانات تظهر جيبية ، حاشية سفلية {حسنًا ، يبدو أنه الشكل ") الإسفين )" الذي رأيناه في بعض الرسوم البيانية في القسم المرجع {AbsoluteValueFunctions}. مجرد دعابة لنا.} ولكن عندما يتعلق الأمر بذلك ، فإن ملاءمة الجيوب الأنفية للبيانات يدويًا ليس علمًا دقيقًا. نبذل قصارى جهدنا لإيجاد الثوابت (A ) و ( omega ) و ( phi ) و (B ) بحيث تكون الوظيفة (H (t) = A sin ( omega يتطابق t + phi) + B ) مع البيانات بشكل وثيق. نذهب أولاً بعد التحول الرأسي (B ) الذي تحدد قيمته خط الأساس. في الجيب النموذجي ، تكون قيمة (B ) هي متوسط ​​الحد الأقصى والحد الأدنى للقيم. لذلك نأخذ هنا (B = frac {3.3 + 21.8} {2} = 12.55 ). التالي هو السعة (A ) وهي الإزاحة من خط الأساس إلى القيم القصوى (والصغرى). نجد (A = 21.8 - 12.55 = 12.55 - 3.3 = 9.25 ). في هذه المرحلة ، لدينا (H (t) = 9.25 sin ( omega t + phi) + 12.55 ). بعد ذلك ، نتبع التردد الزاوي ( omega ). نظرًا لأن البيانات التي تم جمعها تمتد على مدى عام (12 شهرًا) ، فإننا نأخذ الفترة (T = 12 ) شهرًا. حاشية سفلية {على الرغم من أن البيانات التي تم جمعها تقع في الفترة ([1،12] ) ، التي يبلغ طولها (11 ) ، نحتاج إلى التفكير في نقطة البيانات عند (t = 1 ) كعينة تمثيلية لمقدار ضوء النهار لكل يوم في شهر يناير. أي أنه يمثل (H (t) ) خلال الفاصل ([0،1] ). وبالمثل ، (t = 2 ) عينة من (H (t) ) over ([1،2] ) وهكذا دواليك.} وهذا يعني ( omega = frac {2 pi } {T} = frac {2 pi} {12} = frac { pi} {6} ). آخر كمية يجب إيجادها هي المرحلة ( phi ). على عكس المثال السابق ، من الأسهل في هذه الحالة العثور على مرحلة shift (- frac { phi} { omega} ). نظرًا لأننا اخترنا (A> 0 ) ، فإن إزاحة الطور يتوافق مع القيمة الأولى لـ (t ) مع (H (t) = 12.55 ) (القيمة الأساسية). حاشية سفلية {انظر الشكل في الصفحة pageref {genericsinsuoidfigure}.} هنا ، نختار (t = 3 ) ، نظرًا لأن قيمة (H ) المقابلة لـ (12.4 ) أقرب إلى (12.55 ) من القيمة التالية ، (15.9) ) والذي يتوافق مع (t = 4 ). ومن هنا ، (- frac { phi} { omega} = 3 ) ، لذلك ( phi = -3 omega = -3 left ( frac { pi} {6} right) = - frac { pi} {2} ). لدينا (H (t) = 9.25 sin left ( frac { pi} {6} t - frac { pi} {2} right) + 12.55 ). يوجد أدناه رسم بياني لبياناتنا مع المنحنى (y = H (t) ).
  3. بينما يبدو أن كلا النموذجين مناسبان للبيانات ، ربما يكون نموذج الآلة الحاسبة هو الأنسب. لا تعطينا الآلة الحاسبة قيمة (r ^ {2} ) كما فعلت مع الانحدارات الخطية في القسم المرجع {الانحدار} ، ولا تعطينا قيمة (R ^ {2} ) كما فعلت. للانحدار التربيعي والتكعيبي والربعي كما في القسم المرجع {GraphsofPolynomials}. السبب في ذلك ، مثل سبب غياب (R ^ {2} ) للنموذج اللوجستي في القسم المرجع {ExpLogApplications} ، خارج نطاق هذه الدورة التدريبية. سيتعين علينا فقط استخدام حكمنا الجيد عند اختيار أفضل نموذج للجيوب الأنفية.

الحركة المتناسقة

أحد التطبيقات الرئيسية لأشباه الجيوب في العلوم والهندسة هو دراسة مؤشر {الحركة التوافقية} textbf {الحركة التوافقية}. يمكن استخدام معادلات الحركة التوافقية لوصف مجموعة واسعة من الظواهر ، من حركة الجسم في الزنبرك إلى استجابة الدائرة الإلكترونية. في هذا القسم الفرعي ، نحصر اهتمامنا بنمذجة نظام نابض بسيط. قبل أن ننتقل إلى الرياضيات ، هناك بعض المصطلحات والمفاهيم الفيزيائية التي نحتاج إلى مناقشتها. في الفيزياء ، تُعرَّف "الكتلة" على أنها مقياس لمقاومة الجسم لحركة الخط المستقيم بينما "الوزن" هو مقدار القوة (الجذب) التي تمارسها الجاذبية على الجسم. لا يمكن أن تتغير كتلة الكائن ، الحاشية السفلية {حسنًا ، بافتراض أن الكائن لا يخضع لسرعات نقاط نسبية} بينما قد يتغير وزنه. يزن الجسم الذي يزن 6 أرطال على سطح الأرض رطلًا واحدًا على سطح القمر ، لكن كتلته هي نفسها في كلا المكانين. في نظام الوحدات الإنجليزي ، "جنيه" (رطل) هو مقياس القوة (الوزن) ، والوحدة المقابلة للكتلة هي "سبيكة". في نظام SI ، وحدة القوة هي "نيوتن" (N) ووحدة الكتلة المرتبطة بها هي "كيلوجرام" (كجم). نقوم بالتحويل بين الكتلة والوزن باستخدام الصيغة الحاشية السفلية {هذا نتيجة لقانون نيوتن الثاني للحركة (F = ما ) حيث (F ) هي القوة ، (م ) كتلة و (أ ) ) هو التسارع. في وضعنا الحالي ، القوة المعنية هي الوزن الناتج عن التسارع بسبب الجاذبية.} (w = mg ). هنا ، (ث ) هو وزن الجسم ، (م ) هو الكتلة و (ز ) هو التسارع بسبب الجاذبية.

في نظام اللغة الإنجليزية ، (g = 32 frac { text {feet}} { text {second} ^ 2} ) ، وفي نظام SI ، (g = 9.8 frac { text {meter} } { text {second} ^ 2} ). ومن ثم ، على الأرض أ كتلة من 1 سبيكة يزن 32 رطلا. و أ كتلة 1 كجم يزن 9.8 N. حاشية سفلية {لاحظ أن (1 ) رطل (= 1 ، frac { text {slug foot}} { text {second} ^ 2} ) و (1 ) Newton ( = 1 ، frac { text {kg meter}} { text {second} ^ 2} ).} لنفترض أننا قمنا بإرفاق كائن بكتلة (م ) بنابض كما هو موضح أدناه. وزن الجسم سيمتد الزنبرك. يقال إن النظام يكون في "توازن" عندما يكون وزن الجسم متوازنًا تمامًا مع القوة التصالحية للنابض. يعتمد المدى الذي يمتد فيه الربيع للوصول إلى التوازن على "ثابت الربيع" في الربيع. عادةً ما يُشار إليه بالحرف (ك ) ، ويربط ثابت الزنبرك القوة (F ) المطبقة على الزنبرك بمقدار (د ) يمتد الزنبرك وفقًا لـ href {en.Wikipedia.org/wiki /Hooke's...erline{Hooke's Law}} الحاشية السفلية {تبدو مألوفًا؟ لقد رأينا قانون هوك في القسم المرجع {التباين}.} (F = kd ). إذا تم تحرير الجسم أعلى أو أسفل موضع التوازن ، أو إذا تم تحرير الجسم بسرعة صعودية أو هابطة ، فسوف يرتد الجسم لأعلى ولأسفل في نهاية الربيع حتى توقفه بعض القوة الخارجية. إذا سمحنا (x (t) ) بالإشارة إلى إزاحة الكائن من موضع التوازن في الوقت (t ) ، فإن (x (t) = 0 ) يعني أن الكائن في وضع التوازن ، (x (t) <0 ) يعني أن الكائن textit {أعلاه} هو موضع التوازن ، و (x (t)> 0 ) يعني أن الكائن textit {below} هو موضع التوازن. تسمى الوظيفة (x (t) ) "معادلة الحركة" للكائن. حاشية سفلية {للحفاظ على توافق الوحدات ، إذا كنا نستخدم نظام اللغة الإنجليزية ، فإننا نستخدم الأقدام (قدم) لقياس الإزاحة. إذا كنا في نظام SI ، فإننا نقيس الإزاحة بالأمتار (م). يقاس الوقت دائمًا بالثواني.}

إذا تجاهلنا جميع التأثيرات الأخرى على النظام باستثناء الجاذبية وقوة الزنبرك ، فإن الفيزياء تخبرنا أن الجاذبية وقوة الزنبرك ستقاتلان إلى الأبد وسيتأرجح الجسم إلى أجل غير مسمى. في هذه الحالة ، نصف الحركة بأنها "حرة" (بمعنى أنه لا توجد قوة خارجية تسبب الحركة) و "غير مخمد" (بمعنى أننا نتجاهل الاحتكاك الناجم عن الوسط المحيط ، والذي هو في حالتنا الهواء). تعطي النظرية التالية ، المشتقة من المعادلات التفاضلية ، (x (t) ) كدالة للكتلة (m ) للكائن ، ثابت الزنبرك (k ) ، الإزاحة الأولية (x_ { text { tiny (0 )}} ) للكائن والسرعة الابتدائية (v _ { text { tiny (0 )}} ) للكائن. كما هو الحال مع (x (t) ) ، (x _ { text { tiny (0 )}} = 0 ) يعني تحرير الكائن من موضع التوازن ، (x _ { text { tiny (0 )}} <0 ) يعني تحرير الكائن textit {أعلاه} موضع التوازن و (x _ { text { tiny (0 )}}> 0 ) يعني تحرير الكائن textit {below} موضع التوازن. فيما يتعلق بالسرعة الابتدائية (v _ { text { tiny (0 )}} ) ، (v _ { text { tiny (0 )}} = 0 (يعني الكائن تم تحريره "من السكون" ، يعني (v _ { text { tiny (0 )}} <0 ) أن الكائن يتجه textit {upwards} و (v _ { text { tiny (0 )}}> 0 ) يعني أن الكائن يتجه إلى أسفل . الحاشية السفلية {تم نقل اصطلاحات الإشارات هنا من الفيزياء. إذا لم يكن ذلك بالنسبة للربيع ، فسوف يسقط الجسم نحو الأرض ، وهو الاتجاه "الطبيعي" أو "الإيجابي". نظرًا لأن قوة الزنبرك تعمل في معارضة مباشرة للجاذبية ، فإن أي حركة لأعلى تعتبر "سلبية".}

ملاحظة ( PageIndex {1} ): معادلة الحركة التوافقية غير المخمدة:

افترض أن جسمًا ذا كتلة (م ) معلق من زنبرك به ثابت زنبركي (ك ). إذا كانت الإزاحة الأولية من موضع التوازن (x_ {0} ) والسرعة الابتدائية للجسم (v_ {0} ) ، فإن الإزاحة (x ) من موضع التوازن في الوقت ( t ) من خلال (x (t) = A sin ( omega t + phi) ) حيث

  1. ( omega = sqrt { dfrac {k} {m}} ) و (A = sqrt {x _ { text { tiny (0 )}} ^ 2 + left ( dfrac { v _ { text { tiny (0 )}}} { omega} right) ^ 2} )
  2. (A sin ( phi) = x _ { text { tiny (0 )}} ) و (A omega cos ( phi) = v _ { text { tiny (0 ) )}} ).

إنه تمرين رائع في "تحليل الأبعاد" للتحقق من أن الصيغ الواردة في النظرية المرجع {freeundampedmotion} تعمل بحيث تحتوي ( omega ) على وحدات ( frac {1} {s} ) و ( A ) يحتوي على وحدات قدم أو م ، اعتمادًا على النظام الذي نختاره.

مثال ( PageIndex {3} ): freeudampedex

افترض أن شيئًا يزن 64 رطلاً يمتد زنبركًا 8 أقدام.

  1. إذا كان الجسم مرتبطًا بالزنبرك وتحرر 3 أقدام تحت موضع التوازن من السكون ، فابحث عن معادلة حركة الجسم ، (x (t) ). متى يمر الكائن لأول مرة من خلال وضع التوازن؟ هل الجسم يتجه لأعلى أو لأسفل في هذه اللحظة؟
  2. إذا كان الجسم مرتبطًا بالزنبرك وتحرر 3 أقدام تحت موضع التوازن بسرعة تصاعدية (8 ) أقدام في الثانية ، فأوجد معادلة حركة الجسم ، (x (t) ). ما هي أطول مسافة يقطعها الجسم في الاعلى موقف التوازن؟ متى يحدث هذا لأول مرة؟ قم بتأكيد النتيجة باستخدام أداة الرسوم البيانية.

حل

لاستخدام الصيغ في Theorem ref {freeundampedmotion} ، نحتاج أولاً إلى تحديد ثابت الزنبرك (k ) وكتلة الكائن (m ). للعثور على (ك ) ، نستخدم قانون هوك (F = ك د ). نعلم أن الجسم يزن (64 ) رطلاً. ويمتد الربيع (8 ) قدم .. باستخدام (F = 64 ) و (د = 8 ) ، نحصل على (64 = ك cdot 8 (، أو (ك = 8 فارك) { text {lbs.}} { text {ft.}} ). للعثور على (m ) ، نستخدم (w = mg ) مع (w = 64 ) lbs. و (g = 32 frac { text {ft.}} {s ^ 2} ). نحصل على (m = 2 ) slugs. يمكننا الآن المضي قدمًا في تطبيق Theorem ref {freeundampedmotion}.

  1. باستخدام (k = 8 ) و (m = 2 ) ، نحصل على ( omega = sqrt { frac {k} {m}} = sqrt { frac {8} {2}} = 2 ). لقد تم إخبارنا أن الكائن قد تم تحريره 3 أقدام textit {أسفل} موضع التوازن "من السكون". هذا يعني (x _ { text { tiny (0 )}} = 3 ) و (v _ { text { tiny (0 )}} = 0 ). لذلك ، (A = sqrt {x _ { text { tiny (0 )}} ^ 2 + left ( frac {v _ { text { tiny (0 )}}} { omega } right) ^ 2} = sqrt {3 ^ 2 + 0 ^ 2} = 3 ). لتحديد المرحلة ( phi ) ، لدينا (A sin ( phi) = x _ { text { tiny (0 )}} ) ، والتي في هذه الحالة تعطي (3 sin ( phi) = 3 ) لذا ( sin ( phi) = 1 ). فقط ( phi = frac { pi} {2} ) والزوايا المقابلة لها تفي بهذا الشرط ، لذلك نختار حاشية سفلية {للتأكيد ، نلاحظ أن (A omega cos ( phi) = v _ { text { tiny (0 )}} ) ، والتي في هذه الحالة تختزل إلى (6 cos ( phi) = 0 ).} المرحلة لتكون ( phi = frac { pi} {2} ). ومن ثم ، فإن معادلة الحركة هي (x (t) = 3 sin left (2t + frac { pi} {2} right) ). لإيجاد الوقت الذي يمر فيه الكائن من خلال موضع التوازن ، نقوم بحل (x (t) = 3 sin left (2t + frac { pi} {2} right) = 0 ). من خلال التحليل المعتاد نجد (t = - frac { pi} {4} + frac { pi} {2} k ) للأعداد الصحيحة (k ). نظرًا لأننا مهتمون في المرة الأولى التي يمر فيها الكائن من خلال موضع التوازن ، فإننا نبحث عن أصغر قيمة موجبة (t ) والتي في هذه الحالة هي (t = frac { pi} {4} حوالي 0.78 ) ثوان بعد بدء الحركة. يشير الفطرة السليمة إلى أنه إذا أطلقنا الكائن أسفل موضع التوازن ، فيجب أن يتحرك الجسم لأعلى عندما يمر عبره لأول مرة. للتحقق من هذه الإجابة ، قمنا برسم دورة واحدة من (x (t) ). نظرًا لأن المجال المطبق لدينا في هذه الحالة هو (t geq 0 ) ، وفترة (x (t) ) هي (T = frac {2 pi} { omega} = frac {2 pi} {2} = pi ) ، نقوم بالرسم البياني (x (t) ) على الفاصل ([0، pi] ). تذكر أن (x (t)> 0 ) يعني أن الكائن أقل من موضع التوازن و (x (t) <0 ) يعني أن الكائن أعلى من موضع التوازن ، حقيقة أن الرسم البياني لدينا يعبر من خلال ( t ) - المحور من الموجب (x ) إلى السالب (x ) في (t = frac { pi} {4} ) يؤكد إجابتنا.
  2. الاختلاف الوحيد بين هذه المشكلة والمشكلة السابقة هو أننا نحرر الجسم الآن بسرعة تصاعدية تبلغ (8 ، frac { text {ft}} {s} ). لا يزال لدينا ( omega = 2 ) و (x _ { text { tiny (0 )}} = 3 ) ، لكن لدينا الآن (v _ { text { tiny (0 ) )}} = -8 ) ، يشير السالب إلى أن السرعة موجهة لأعلى. هنا ، نحصل على (A = sqrt {x _ { text { tiny (0 )}} ^ 2 + left ( frac {v _ { text { tiny (0 )}}} { omega} right) ^ 2} = sqrt {3 ^ 2 + (-4) ^ 2} = 5 ). من (A sin ( phi) = x _ { text { tiny (0 )}} ) ، نحصل على (5 sin ( phi) = 3 ) والذي يعطي ( sin ( phi) = frac {3} {5} ). من (A omega cos ( phi) = v _ { text { tiny (0 )}} ) ، نحصل على (10 ​​ cos ( phi) = -8 ) أو ( cos ( phi) = - frac {4} {5} ). هذا يعني أن ( phi ) زاوية رباعي II يمكننا وصفها من حيث القوس أو القوس. نظرًا لأنه يتم التعبير عن (x (t) ) بدلالة الجيب ، فإننا نختار التعبير عن ( phi = pi - arcsin left ( frac {3} {5} right) ). ومن ثم ، (x (t) = 5 sin left (2t + left [ pi - arcsin left ( frac {3} {5} right) right] right) ). نظرًا لأن سعة (x (t) ) هي (5 ) ، فإن الكائن سينتقل على الأكثر (5 ) أقدام فوق موضع التوازن. لمعرفة وقت حدوث ذلك ، نحل المعادلة (x (t) = 5 sin left (2t + left [ pi - arcsin left ( frac {3} {5} right) right] right) = -5 ) ، يشير السالب مرة أخرى إلى أن الكائن textit {above} هو موضع التوازن. من خلال تنفيذ المكائد المعتادة ، نحصل على (t = frac {1} {2} arcsin left ( frac {3} {5} right) + frac { pi} {4} + pi k ) للأعداد الصحيحة (ك ). تحدث أصغر هذه القيم عند (k = 0 ) ، أي (t = frac {1} {2} arcsin left ( frac {3} {5} right) + frac { pi} {4} حوالي 1.107 ) ثانية بعد بدء الحركة. للتحقق من إجابتنا باستخدام الآلة الحاسبة ، قمنا بالرسم البياني (y = 5 sin left (2x + left [ pi - arcsin left ( frac {3} {5} right) right] right) ) على أداة رسم بياني وتأكد من إحداثيات الحد الأدنى النسبي الأول ليكون تقريبًا ((1.107، -5) ).

من الممكن ، وإن كان خارج نطاق هذا المقرر الدراسي ، أن نمذجة تأثيرات الاحتكاك والقوى الخارجية الأخرى التي تعمل على النظام. حاشية سفلية {خذ فئة معادلات تفاضلية جيدة لترى هذا!} بينما قد لا يكون لدينا الفيزياء وحساب التفاضل والتكامل background to textit {اشتقاق} معادلات الحركة لهذه السيناريوهات ، يمكننا بالتأكيد تحليلها. ندرس ثلاث حالات في المثال التالي.

مثال ( PageIndex {4} ): رنين ناقص

  1. اكتب (x (t) = 5e ^ {- t / 5} cos (t) + 5e ^ {- t / 5} sqrt {3} sin (t) ) بالصيغة (x (t) ) = A (t) sin ( omega t + phi) ). رسم بياني (x (t) ) باستخدام أداة الرسم البياني.
  2. اكتب (x (t) = (t + 3) sqrt {2} cos (2t) + (t + 3) sqrt {2} sin (2t) ) بالصيغة (x (t) = A (t) sin ( omega t + phi) ). رسم بياني (x (t) ) باستخدام أداة الرسم البياني.
  3. أوجد دورة (x (t) = 5 sin (6t) - 5 sin left (8t right) ). رسم بياني (x (t) ) باستخدام أداة الرسم البياني.

حل

  1. نبدأ في إعادة كتابة (x (t) = 5e ^ {- t / 5} cos (t) + 5e ^ {- t / 5} sqrt {3} sin (t) ) عن طريق إخراج (5e) ^ {- t / 5} ) من كلا المصطلحين للحصول على (x (t) = 5e ^ {- t / 5} left ( cos (t) + sqrt {3} sin (t) right ) ). نقوم بتحويل ما تبقى بين قوسين إلى النموذج المطلوب باستخدام الصيغ المقدمة في التمرين ref {sinusoidexercise2} من القسم المرجع {TrigGraphs}. نجد ( left ( cos (t) + sqrt {3} sin (t) right) = 2 sin left (t + frac { pi} {3} right) ) بحيث (x (t) = 10e ^ {- t / 5} sin left (t + frac { pi} {3} right) ). يوضح رسم هذا الرسم البياني على الآلة الحاسبة كـ (y = 10e ^ {- x / 5} sin left (x + frac { pi} {3} right) ) سلوكًا مثيرًا للاهتمام. تستمر الطبيعة الجيبية إلى أجل غير مسمى ، لكن يتم تخفيفها. في الصيغة الجيبية (A sin ( omega x + phi) ) ، المعامل (A ) لوظيفة الجيب هو السعة. في حالة (y = 10e ^ {- x / 5} sin left (x + frac { pi} {3} right) ) ، يمكننا التفكير في textit {function} ( A (x) = 10e ^ {- x / 5} ) كسعة. كـ (x rightarrow infty ) ، (10e ^ {- x / 5} rightarrow 0 ) مما يعني أن السعة تستمر في الانكماش باتجاه الصفر. في الواقع ، إذا رسمنا الرسم البياني (y = pm 10e ^ {- x / 5} ) جنبًا إلى جنب مع (y = 10e ^ {- x / 5} sin left (x + frac { pi} {3 } right) ) نرى حدوث هذا التوهين. تتوافق هذه المعادلة مع حركة جسم على زنبرك حيث توجد قوة طفيفة تعمل على "الرطوبة" أو إبطاء الحركة. مثال على هذا النوع من القوة هو احتكاك الجسم بالهواء. في هذا النموذج ، يتأرجح الجسم إلى الأبد ، ولكن بسعة أصغر وأصغر.
  2. بالمتابعة كما في المثال الأول ، قمنا بإخراج ((t + 3) sqrt {2} ) من كل مصطلح في الدالة (x (t) = (t + 3) sqrt {2} cos ( 2t) + (t + 3) sqrt {2} sin (2t) ) للحصول على (x (t) = (t + 3) sqrt {2} ( cos (2t) + sin (2t) )) ). نجد (( cos (2t) + sin (2t)) = sqrt {2} sin left (2t + frac { pi} {4} right) ) ، لذا (x ( t) = 2 (t + 3) sin left (2t + frac { pi} {4} right) ). برسم هذا على الآلة الحاسبة (y = 2 (x + 3) sin left (2x + frac { pi} {4} right) ) ، نجد أن سعة الجيب تتزايد. نظرًا لأن دالة السعة هنا هي (A (x) = 2 (x + 3) = 2x + 6 ) ، والتي تستمر في النمو دون قيود مثل (x rightarrow infty ) ، فهذا ليس مفاجئًا. الظاهرة الموضحة هنا هي الحركة "القسرية". أي أننا نتخيل أن الجهاز بأكمله الذي يتصل به الزنبرك يتأرجح أيضًا. في هذه الحالة ، نشهد تأثير "الرنين" - تردد التذبذب الخارجي يطابق تردد حركة الجسم في الزنبرك. حاشية سفلية {القارئ مدعو للتحقيق في الآثار المدمرة لـ href {ar .Wikipedia.org / wiki / Resonan ... {الرنين}}.}
  3. أخيرًا وليس آخرًا ، وصلنا إلى (x (t) = 5 sin (6t) - 5 sin (8t) ). لإيجاد فترة هذه الوظيفة ، نحتاج إلى تحديد طول أصغر فترة زمنية يكون فيها كل من (f (t) = 5 sin (6t) ) و (g (t) = 5 sin (8t) ) أكمل عددًا كاملاً من الدورات. للقيام بذلك ، نأخذ نسبة تردداتها ونخفضها إلى أدنى حد: ( frac {6} {8} = frac {3} {4} ). يخبرنا هذا أنه بالنسبة لكل (3 ) دورات (f ) يصنع ، (ز ) يصنع (4 ). بمعنى آخر ، فترة (x (t) ) هي ثلاثة أضعاف فترة (f (t) ) (وهي أربعة أضعاف فترة (g (t) )) ، أو ( pi ). نقوم بالرسم البياني (y = 5 sin (6x) - 5 sin (8x) ) على ([0، pi] ) على الآلة الحاسبة للتحقق من ذلك. تنتج معادلة الحركة هذه أيضًا من الحركة "القسرية" ، ولكن هنا يختلف تردد التذبذب الخارجي عن تواتر الجسم الموجود في الزنبرك. نظرًا لأن الجيوب هنا لها ترددات مختلفة ، فهي "غير متزامنة" ولا تضخم بعضها البعض كما في المثال السابق. بأخذ الأمور خطوة إلى الأمام ، يمكننا استخدام مجموع هوية المنتج لإعادة كتابة (x (t) = 5 sin (6t) - 5 sin (8t) ) كـ (x (t) = -10 sin (ر) cos (7t) ). يلعب عامل التردد المنخفض في هذا التعبير ، (- 10 sin (t) ) ، دورًا مثيرًا للاهتمام في الرسم البياني (x (t) ). نرسم أدناه (y = 5 sin (6x) - 5 sin (8x) ) و (y = pm 10 sin (x) ) over ([0،2 pi] ). هذا مثال على ظاهرة "الإيقاع" ، والقارئ الفضولي مدعو لاستكشاف هذا المفهوم أيضًا. حاشية سفلية {مكان جيد للبدء هو هذه المقالة على href {en.Wikipedia.org/wiki/Beat_ (a ... سطر {يدق}}.}

أشباه الجيوب منخفضة التردد لتحسين أداء التواء القص للألواح الرقيقة

تعمل الجيوب الأنفية منخفضة التردد (LFS) على رفع مقاومة التواء لألواح الصلب الرقيقة.

يحقق LFS مكاسب مماثلة في مقاومة القص مثل التقوية المستعرضة مع مواد أقل.

التردد هو أكثر فعالية من السعة لرفع قوة القص.

يمكن أن تغطي هندسة LFS القياسية نطاقًا واسعًا من أعماق وسمك الويب.

يسمح LFS لشبكات العوارض الجسر بالاقتراب من قوة القص البلاستيكية.


11.1.1. نقائص تحويل فورييه: صعوبات في التفسير

يشارك تحويل فورييه في مجموعة واسعة من تطبيقات معالجة الإشارات. ومع ذلك ، على الرغم من تعريفه الرياضي الدقيق ، فقد يؤدي إلى بعض الصعوبات في التفسير المادي. يتضح ، على سبيل المثال ، من تعريفه أن تقييم قيمة الطيف X (الخامس) يتطلب معرفة كل تاريخ الإشارة ، من - إلى + ∞. بنفس الطريقة ، قيمة الإشارة في أي وقت ر يتم التعبير عنها بواسطة تحويل فورييه المعكوس كتراكب لعدد لا حصر له من الأسي المعقدة ، أي الموجات الأبدية غير الموضعية تمامًا في المجال الزمني. إذا كانت وجهة النظر الرياضية هذه قادرة على الكشف عن خصائص إشارة مثيرة للاهتمام في كثير من الحالات ، فقد تكون أيضًا غير مناسبة في بعض الأحيان.

هذا هو الحال عادة مع الإشارات العابرة ، والتي من المعروف أنها محدودة في الوقت المناسب. يمكن أن يوفر تحليل فورييه هذه الصورة للإشارة ، ولكن بطريقة مصطنعة إلى حد ما ، أي كمجموع لعدد لا حصر له من الجيوب الأنفية الافتراضية التي تلغي بعضها البعض. وبالتالي ، نحصل على صفر "ديناميكي" في فترة زمنية حيث تتلاشى الإشارة ، بينما من وجهة نظر مادية يجب أن يكون هذا صفرًا "ثابتًا" ، لأن الإشارة غير موجودة في هذه الفترة. علاوة على ذلك ، يعبر تحليل فورييه عن إشارة طاقة محدودة كتراكب خطي لإشارات الطاقة الأساسية اللانهائية.

تشير صعوبات التفسير المادي هذه إلى وجوب تحويل فورييه.

يحصل معالجة الإشارات الرقمية باستخدام ماتلاب الآن مع التعلم عبر الإنترنت O’Reilly.

يتمتع أعضاء O’Reilly بتدريب مباشر عبر الإنترنت ، بالإضافة إلى الكتب ومقاطع الفيديو والمحتوى الرقمي من أكثر من 200 ناشر.


[الخصائص السريرية لمتلازمة الانسداد الجيبي الكبدي: تحليل 8 حالات]

هدف: للتحقيق في تشخيص وعلاج متلازمة الانسداد الجيبي (SOS).

أساليب: تمت مراجعة بيانات 8 مرضى يعانون من SOS ، بما في ذلك المظاهر السريرية ، والنتائج المخبرية ، والتصوير ، وعلم الأمراض ، ومسار التشخيص والعلاج. تمت متابعة جميع الحالات.

نتائج: تضمنت المظاهر السريرية الرئيسية انتفاخ في البطن وألم كبدي وعلامات استسقاء وتضخم الكبد. كانت هناك إصابة خفيفة أو معتدلة في الخلايا الكبدية في 6 مرضى وإصابة شديدة في 2. تجاوز تدرج الألبومين في مصل الاستسقاء 11.1 جم / لتر. ارتفعت مستويات CA125 في كل من المصل والاستسقاء بشكل ملحوظ. أظهر التصوير بالموجات فوق الصوتية لجميع المرضى تضخم الكبد وظهور ارتفاع ضغط الدم البابي والأوردة الكبدية الموهنة. لوحظ تدفق الدم العكسي في الوريد البابي في 5 حالات. أظهر التصوير بالرنين المغناطيسي أن عامل التباين يتراكم بشكل غير متساو في الكبد في كل من فترة البوابة وفترة التأخر ، ولكنه يمتلئ بشكل سيئ في الأوردة الكبدية. أظهرت خزعة الكبد لكل مرضى احتقان الجيوب الكبدية ، ولكن لوحظ انسداد وريدي في 3 حالات فقط. تم تشخيص خمس حالات خطأ. شفي مريض واحد بعد زرع الكبد ، وتعافي 4 مرضى تدريجيًا عن طريق العلاج بالهيبارين وما إلى ذلك وتوفي 3 مرضى.

الاستنتاجات: علامات ارتفاع ضغط الدم البابي البارز مع إصابة الخلايا الكبدية الخفيفة هي السمة السريرية الرئيسية لـ SOS. ترتفع مستويات CA125 في المصل والاستسقاء بشكل ملحوظ في مرضى SOS. معدل التشخيص الخاطئ لـ SOS مرتفع للغاية ، والتصوير بالموجات فوق الصوتية والرنين المغناطيسي لهما قيمة كبيرة في التشخيص والتشخيص التفريقي ، في حين أن قيمة خزعة الكبد لكل قطع محدودة. يجب أن يساهم الجمع بين التصوير وعلم الأمراض في التشخيص الصحيح لـ SOS. يعد تطبيق مضادات التخثر في الدورة المبكرة أمرًا حيويًا ، ويجب مراعاة زراعة الكبد في الحالات الشديدة.


سمات

الاستخدام المكثف للعروض التوضيحية عبر الإنترنت - يستخدم العروض التوضيحية لتحليل البيانات للسماح للطلاب بمشاهدة النتائج مباشرة.

استخدام MATLAB (الإصدار 7.0) لإنشاء تطبيقات الكمبيوتر لتقنيات تحليل وتصميم الإشارات والنظام - يمنح الطلاب الفرصة للتحقق من النظريات وتجربة تطبيقات التقنيات المدروسة.

• مجموعة واسعة من الأمثلة والمشاكل في مجالات مختلفة في الهندسة - لمسات على مناطق من الدوائر الكهربائية والأنظمة الميكانيكية إلى الأجهزة الكهروميكانيكية ، مثل محرك التيار المستمر.

فصول حول التحكم في التغذية الراجعة والتصفية الرقمية وتمثيل الدولة - إعداد الطلاب لمواد اختيارية عليا في هذه الموضوعات.

• Time-domain aspects of signals and systems (Chs. 1 and 2) – Discusses the basic properties of signals and systems, the discrete-time convolution model, the input/output difference equation model, the input/output differential equation model, and the continuous-time convolution model.

Frequency-domain aspects of signals and systems – Begins with signals that are a sum of sinusoids, then addresses the Fourier series representation of periodic signals, the Fourier transform of nonperiodic signals, and the use of the Fourier transform in the study of signal modulation.

Fourier analysis of discrete-time signals – Focuses on the discrete-time Fourier transform (DTFT) and the discrete Fourier transform (DFT).

Fourier theory applied to the study of both continuous-time and discrete-time systems – Reviews applications to ideal analog filtering, sampling, signal reconstruction, and digital filtering.

Study of the Laplace transform – Begins with the definition and properties, as well the transfer function representation of linear time-invariant continuous-time systems.

• Introduction of the z-transform and the transfer function representation of linear time-invariant discrete-time systems – Completes the discussion of the frequency response function first considered in Chapter 5.

Analysis of linear time-invariant continuous-time systems – Uses the transfer function representation to carry out this analysis.

Transfer function framework – Applied to the problem of control (Ch. 9).

• Laplace and z-transform frameworks – Applied to the design of digital filters and controllers (Ch. 10).

• Fundamentals of the state description of linear time-invariant continuous-time and discrete-time systems – Discussed in Ch.11.

New to This Edition

• Completely updated Companion Web-site (http://users.ece.gatech.edu/

bonnie/book3) — Includes new and modified MATLAB M-files and data files used in the Third Edition, plus additional worked problems, on-line demos, and a MATLAB tutorial.

• Substantially revised material on signals — Discusses how to download signals (time series) from the Web and analyze the data includes details on common types of digital filters, such as moving average and exponential moving average filters, with applications to filtering data downloaded from the Web addresses signal analysis using the DFT to extract the dominant cyclic components of a signal.

• New section with examples of Fourier transforms — Illustrates the spectral content of common types of signals.

• Significantly restructured for greater usability — Reduces the degree of mathematical complexity and includes new practical applications involving downloaded data and other illustrations.

• New illustrations and end-of-chapter summaries — Give additional insight into the meaning and significance of the mathematical formulations and material covered in each chapter.

• Flexible organization of content — Allows instructors to adapt the presentation for use in either a one-quarter or one-semester course.

• Focus on the problem of data analysis in the presence of noise — Addresses the issue of noise, which often arises in engineering, business, finance, and other fields.

• Major enhancement of the MATLAB component — Uses the MATLAB

Symbolic Math Toolbox throughout the text to complement and simplify various computational aspects of the theory and examples provided. Examples illustrate how this tool can be used to solve differential equations, evaluate integrals for computing system responses, and for computing Fourier and Laplace transforms, and inverse transforms, including inverse z-transforms.

• Enhanced material on control systems — Includes the description of a digital control lab project based on a LEGO â Mindstorm kit, which provides students with hands-on experience in designing and implementing digital controllers for a dc motor.


Adaptive Parameter Identification of Sinusoidal Signals

A novel adaptive identification framework is proposed for sinusoidal signals to estimate all unknown parameters (i.e. offset, amplitude, frequency and phase). The proposed identification is independent of any observer/predictor design and thus can be implemented in a simplified manner. The adaptive laws are driven by appropriate parameter error information derived by applying filter operations on the output measurements. Globally exponential convergence of the parameter estimation is proved. The proposed idea is further extended for multi-sinusoid signals and verified in terms of simulations.


Linear Systems and Signals, Third Edition, has been refined and streamlined to deliver unparalleled coverage and clarity. It emphasizes a physical appreciation of concepts through heuristic reasoning and the use of metaphors, analogies, and creative explanations. The text uses mathematics not only to prove axiomatic theory but also to enhance physical and intuitive understanding. Hundreds of fully worked examples provide a hands-on, practical grounding of concepts and theory. Its thorough content, practical approach, and structural adaptability make Linear Systems and Signals, Third Edition, the ideal text for undergraduates.

PREFACE xv
B BACKGROUND
B.1 Complex Numbers 1
B.1-1 A Historical Note 1
B.1-2 Algebra of Complex Numbers 5
B.2 Sinusoids 16
B.2-1 Addition of Sinusoids 18
B.2-2 Sinusoids in Terms of Exponentials 20
B.3 Sketching Signals 20
B.3-1 Monotonic Exponentials 20
B.3-2 The Exponentially Varying Sinusoid 22
B.4 Cramer’s Rule 23
B.5 Partial Fraction Expansion 25
B.5-1 Method of Clearing Fractions 26
B.5-2 The Heaviside “Cover-Up” Method 27
B.5-3 Repeated Factors of Q(x) 31
B.5-4 A Combination of Heaviside “Cover-Up” and Clearing Fractions 32
B.5-5 Improper F(x) with m = n 34
B.5-6 Modified Partial Fractions 35
B.6 Vectors and Matrices 36
B.6-1 Some Definitions and Properties 37
B.6-2 Matrix Algebra 38
B.7 MATLAB: Elementary Operations 42
B.7-1 MATLAB Overview 42
B.7-2 Calculator Operations 43
B.7-3 Vector Operations 45
B.7-4 Simple Plotting 46
B.7-5 Element-by-Element Operations 48
B.7-6 Matrix Operations 49
B.7-7 Partial Fraction Expansions 53
B.8 Appendix: Useful Mathematical Formulas 54
B.8-1 Some Useful Constants 54
الخامس
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page vi — #6
vi Contents
B.8-2 Complex Numbers 54
B.8-3 Sums 54
B.8-4 Taylor and Maclaurin Series 55
B.8-5 Power Series 55
B.8-6 Trigonometric Identities 55
B.8-7 Common Derivative Formulas 56
B.8-8 Indefinite Integrals 57
B.8-9 L’Hôpital’s Rule 58
B.8-10 Solution of Quadratic and Cubic Equations 58
References 58
Problems 59
1 SIGNALS AND SYSTEMS
1.1 Size of a Signal 64
1.1-1 Signal Energy 65
1.1-2 Signal Power 65
1.2 Some Useful Signal Operations 71
1.2-1 Time Shifting 71
1.2-2 Time Scaling 73
1.2-3 Time Reversal 76
1.2-4 Combined Operations 77
1.3 Classification of Signals 78
1.3-1 Continuous-Time and Discrete-Time Signals 78
1.3-2 Analog and Digital Signals 78
1.3-3 Periodic and Aperiodic Signals 79
1.3-4 Energy and Power Signals 82
1.3-5 Deterministic and Random Signals 82
1.4 Some Useful Signal Models 82
1.4-1 The Unit Step Function u(t) 83
1.4-2 The Unit Impulse Function δ(t) 86
1.4-3 The Exponential Function est 89
1.5 Even and Odd Functions 92
1.5-1 Some Properties of Even and Odd Functions 92
1.5-2 Even and Odd Components of a Signal 93
1.6 Systems 95
1.7 Classification of Systems 97
1.7-1 Linear and Nonlinear Systems 97
1.7-2 Time-Invariant and Time-Varying Systems 102
1.7-3 Instantaneous and Dynamic Systems 103
1.7-4 Causal and Noncausal Systems 104
1.7-5 Continuous-Time and Discrete-Time Systems 107
1.7-6 Analog and Digital Systems 109
1.7-7 Invertible and Noninvertible Systems 109
1.7-8 Stable and Unstable Systems 110
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page vii — #7
Contents vii
1.8 System Model: Input–Output Description 111
1.8-1 Electrical Systems 111
1.8-2 Mechanical Systems 114
1.8-3 Electromechanical Systems 118
1.9 Internal and External Descriptions of a System 119
1.10 Internal Description: The State-Space Description 121
1.11 MATLAB: Working with Functions 126
1.11-1 Anonymous Functions 126
1.11-2 Relational Operators and the Unit Step Function 128
1.11-3 Visualizing Operations on the Independent Variable 130
1.11-4 Numerical Integration and Estimating Signal Energy 131
1.12 Summary 133
References 135
Problems 136
2 TIME-DOMAIN ANALYSIS OF CONTINUOUS-TIME SYSTEMS
2.1 Introduction 150
2.2 System Response to Internal Conditions: The Zero-Input Response 151
2.2-1 Some Insights into the Zero-Input Behavior of a System 161
2.3 The Unit Impulse Response h(t) 163
2.4 System Response to External Input: The Zero-State Response 168
2.4-1 The Convolution Integral 170
2.4-2 Graphical Understanding of Convolution Operation 178
2.4-3 Interconnected Systems 190
2.4-4 A Very Special Function for LTIC Systems:
The Everlasting Exponential est 193
2.4-5 Total Response 195
2.5 System Stability 196
2.5-1 External (BIBO) Stability 196
2.5-2 Internal (Asymptotic) Stability 198
2.5-3 Relationship Between BIBO and Asymptotic Stability 199
2.6 Intuitive Insights into System Behavior 203
2.6-1 Dependence of System Behavior on Characteristic Modes 203
2.6-2 Response Time of a System: The System Time Constant 205
2.6-3 Time Constant and Rise Time of a System 206
2.6-4 Time Constant and Filtering 207
2.6-5 Time Constant and Pulse Dispersion (Spreading) 209
2.6-6 Time Constant and Rate of Information Transmission 209
2.6-7 The Resonance Phenomenon 210
2.7 MATLAB: M-Files 212
2.7-1 Script M-Files 213
2.7-2 Function M-Files 214
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page viii — #8
viii Contents
2.7-3 For-Loops 215
2.7-4 Graphical Understanding of Convolution 217
2.8 Appendix: Determining the Impulse Response 220
2.9 Summary 221
References 223
Problems 223
3 TIME-DOMAIN ANALYSIS OF DISCRETE-TIME SYSTEMS
3.1 Introduction 237
3.1-1 Size of a Discrete-Time Signal 238
3.2 Useful Signal Operations 240
3.3 Some Useful Discrete-Time Signal Models 245
3.3-1 Discrete-Time Impulse Function δ[n] 245
3.3-2 Discrete-Time Unit Step Function u[n] 246
3.3-3 Discrete-Time Exponential γ n 247
3.3-4 Discrete-Time Sinusoid cos( n+θ ) 251
3.3-5 Discrete-Time Complex Exponential ej n 252
3.4 Examples of Discrete-Time Systems 253
3.4-1 Classification of Discrete-Time Systems 262
3.5 Discrete-Time System Equations 265
3.5-1 Recursive (Iterative) Solution of Difference Equation 266
3.6 System Response to Internal Conditions: The Zero-Input Response 270
3.7 The Unit Impulse Response h[n] 277
3.7-1 The Closed-Form Solution of h[n] 278
3.8 System Response to External Input: The Zero-State Response 280
3.8-1 Graphical Procedure for the Convolution Sum 288
3.8-2 Interconnected Systems 294
3.8-3 Total Response 297
3.9 System Stability 298
3.9-1 External (BIBO) Stability 298
3.9-2 Internal (Asymptotic) Stability 299
3.9-3 Relationship Between BIBO and Asymptotic Stability 301
3.10 Intuitive Insights into System Behavior 305
3.11 MATLAB: Discrete-Time Signals and Systems 306
3.11-1 Discrete-Time Functions and Stem Plots 306
3.11-2 System Responses Through Filtering 308
3.11-3 A Custom Filter Function 310
3.11-4 Discrete-Time Convolution 311
3.12 Appendix: Impulse Response for a Special Case 313
3.13 Summary 313
Problems 314
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page ix — #9
Contents ix
4 CONTINUOUS-TIME SYSTEM ANALYSIS USING
THE LAPLACE TRANSFORM
4.1 The Laplace Transform 330
4.1-1 Finding the Inverse Transform 338
4.2 Some Properties of the Laplace Transform 349
4.2-1 Time Shifting 349
4.2-2 Frequency Shifting 353
4.2-3 The Time-Differentiation Property 354
4.2-4 The Time-Integration Property 356
4.2-5 The Scaling Property 357
4.2-6 Time Convolution and Frequency Convolution 357
4.3 Solution of Differential and Integro-Differential Equations 360
4.3-1 Comments on Initial Conditions at 0− and at 0+ 363
4.3-2 Zero-State Response 366
4.3-3 Stability 371
4.3-4 Inverse Systems 373
4.4 Analysis of Electrical Networks: The Transformed Network 373
4.4-1 Analysis of Active Circuits 382
4.5 Block Diagrams 386
4.6 System Realization 388
4.6-1 Direct Form I Realization 389
4.6-2 Direct Form II Realization 390
4.6-3 Cascade and Parallel Realizations 393
4.6-4 Transposed Realization 396
4.6-5 Using Operational Amplifiers for System Realization 399
4.7 Application to Feedback and Controls 404
4.7-1 Analysis of a Simple Control System 406
4.8 Frequency Response of an LTIC System 412
4.8-1 Steady-State Response to Causal Sinusoidal Inputs 418
4.9 Bode Plots 419
4.9-1 Constant Ka1a2/b1b3 422
4.9-2 Pole (or Zero) at the Origin 422
4.9-3 First-Order Pole (or Zero) 424
4.9-4 Second-Order Pole (or Zero) 426
4.9-5 The Transfer Function from the Frequency Response 435
4.10 Filter Design by Placement of Poles and Zeros of H(s) 436
4.10-1 Dependence of Frequency Response on Poles
and Zeros of H(s) 436
4.10-2 Lowpass Filters 439
4.10-3 Bandpass Filters 441
4.10-4 Notch (Bandstop) Filters 441
4.10-5 Practical Filters and Their Specifications 444
4.11 The Bilateral Laplace Transform 445
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page x — #10
x Contents
4.11-1 Properties of the Bilateral Laplace Transform 451
4.11-2 Using the Bilateral Transform for Linear System Analysis 452
4.12 MATLAB: Continuous-Time Filters 455
4.12-1 Frequency Response and Polynomial Evaluation 456
4.12-2 Butterworth Filters and the Find Command 459
4.12-3 Using Cascaded Second-Order Sections for Butterworth
Filter Realization 461
4.12-4 Chebyshev Filters 463
4.13 Summary 466
References 468
Problems 468
5 DISCRETE-TIME SYSTEM ANALYSIS USING THE z-TRANSFORM
5.1 The z-Transform 488
5.1-1 Inverse Transform by Partial Fraction Expansion and Tables 495
5.1-2 Inverse z-Transform by Power Series Expansion 499
5.2 Some Properties of the z-Transform 501
5.2-1 Time-Shifting Properties 501
5.2-2 z-Domain Scaling Property (Multiplication by γ n) 505
5.2-3 z-Domain Differentiation Property (Multiplication by n) 506
5.2-4 Time-Reversal Property 506
5.2-5 Convolution Property 507
5.3 z-Transform Solution of Linear Difference Equations 510
5.3-1 Zero-State Response of LTID Systems: The Transfer Function 514
5.3-2 Stability 518
5.3-3 Inverse Systems 519
5.4 System Realization 519
5.5 Frequency Response of Discrete-Time Systems 526
5.5-1 The Periodic Nature of Frequency Response 532
5.5-2 Aliasing and Sampling Rate 536
5.6 Frequency Response from Pole-Zero Locations 538
5.7 Digital Processing of Analog Signals 547
5.8 The Bilateral z-Transform 554
5.8-1 Properties of the Bilateral z-Transform 559
5.8-2 Using the Bilateral z-Transform for Analysis of LTID Systems 560
5.9 Connecting the Laplace and z-Transforms 563
5.10 MATLAB: Discrete-Time IIR Filters 565
5.10-1 Frequency Response and Pole-Zero Plots 566
5.10-2 Transformation Basics 567
5.10-3 Transformation by First-Order Backward Difference 568
5.10-4 Bilinear Transformation 569
5.10-5 Bilinear Transformation with Prewarping 570
5.10-6 Example: Butterworth Filter Transformation 571
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xi — #11
Contents xi
5.10-7 Problems Finding Polynomial Roots 572
5.10-8 Using Cascaded Second-Order Sections to Improve Design 572
5.11 Summary 574
References 575
Problems 575
6 CONTINUOUS-TIME SIGNAL ANALYSIS: THE FOURIER SERIES
6.1 Periodic Signal Representation by Trigonometric Fourier Series 593
6.1-1 The Fourier Spectrum 598
6.1-2 The Effect of Symmetry 607
6.1-3 Determining the Fundamental Frequency and Period 609
6.2 Existence and Convergence of the Fourier Series 612
6.2-1 Convergence of a Series 613
6.2-2 The Role of Amplitude and Phase Spectra in Waveshaping 615
6.3 Exponential Fourier Series 621
6.3-1 Exponential Fourier Spectra 624
6.3-2 Parseval’s Theorem 632
6.3-3 Properties of the Fourier Series 635
6.4 LTIC System Response to Periodic Inputs 637
6.5 Generalized Fourier Series: Signals as Vectors 641
6.5-1 Component of a Vector 642
6.5-2 Signal Comparison and Component of a Signal 643
6.5-3 Extension to Complex Signals 645
6.5-4 Signal Representation by an Orthogonal Signal Set 647
6.6 Numerical Computation of Dn 659
6.7 MATLAB: Fourier Series Applications 661
6.7-1 Periodic Functions and the Gibbs Phenomenon 661
6.7-2 Optimization and Phase Spectra 664
6.8 Summary 667
References 668
Problems 669
7 CONTINUOUS-TIME SIGNAL ANALYSIS: THE FOURIER
TRANSFORM
7.1 Aperiodic Signal Representation by the Fourier Integral 680
7.1-1 Physical Appreciation of the Fourier Transform 687
7.2 Transforms of Some Useful Functions 689
7.2-1 Connection Between the Fourier and Laplace Transforms 700
7.3 Some Properties of the Fourier Transform 701
7.4 Signal Transmission Through LTIC Systems 721
7.4-1 Signal Distortion During Transmission 723
7.4-2 Bandpass Systems and Group Delay 726
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xii — #12
xii Contents
7.5 Ideal and Practical Filters 730
7.6 Signal Energy 733
7.7 Application to Communications: Amplitude Modulation 736
7.7-1 Double-Sideband, Suppressed-Carrier (DSB-SC) Modulation 737
7.7-2 Amplitude Modulation (AM) 742
7.7-3 Single-Sideband Modulation (SSB) 746
7.7-4 Frequency-Division Multiplexing 749
7.8 Data Truncation: Window Functions 749
7.8-1 Using Windows in Filter Design 755
7.9 MATLAB: Fourier Transform Topics 755
7.9-1 The Sinc Function and the Scaling Property 757
7.9-2 Parseval’s Theorem and Essential Bandwidth 758
7.9-3 Spectral Sampling 759
7.9-4 Kaiser Window Functions 760
7.10 Summary 762
References 763
Problems 764
8 SAMPLING: THE BRIDGE FROM CONTINUOUS
TO DISCRETE
8.1 The Sampling Theorem 776
8.1-1 Practical Sampling 781
8.2 Signal Reconstruction 785
8.2-1 Practical Difficulties in Signal Reconstruction 788
8.2-2 Some Applications of the Sampling Theorem 796
8.3 Analog-to-Digital (A/D) Conversion 799
8.4 Dual of Time Sampling: Spectral Sampling 802
8.5 Numerical Computation of the Fourier Transform:
The Discrete Fourier Transform 805
8.5-1 Some Properties of the DFT 818
8.5-2 Some Applications of the DFT 820
8.6 The Fast Fourier Transform (FFT) 824
8.7 MATLAB: The Discrete Fourier Transform 827
8.7-1 Computing the Discrete Fourier Transform 827
8.7-2 Improving the Picture with Zero Padding 829
8.7-3 Quantization 831
8.8 Summary 834
References 835
Problems 835
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xiii — #13
Contents xiii
9 FOURIER ANALYSIS OF DISCRETE-TIME SIGNALS
9.1 Discrete-Time Fourier Series (DTFS) 845
9.1-1 Periodic Signal Representation by Discrete-Time Fourier Series 846
9.1-2 Fourier Spectra of a Periodic Signal x[n] 848
9.2 Aperiodic Signal Representation
by Fourier Integral 855
9.2-1 Nature of Fourier Spectra 858
9.2-2 Connection Between the DTFT and the z-Transform 866
9.3 Properties of the DTFT 867
9.4 LTI Discrete-Time System Analysis by DTFT 878
9.4-1 Distortionless Transmission 880
9.4-2 Ideal and Practical Filters 882
9.5 DTFT Connection with the CTFT 883
9.5-1 Use of DFT and FFT for Numerical Computation of the DTFT 885
9.6 Generalization of the DTFT to the z-Transform 886
9.7 MATLAB: Working with the DTFS and the DTFT 889
9.7-1 Computing the Discrete-Time Fourier Series 889
9.7-2 Measuring Code Performance 891
9.7-3 FIR Filter Design by Frequency Sampling 892
9.8 Summary 898
Reference 898
Problems 899
10 STATE-SPACE ANALYSIS
10.1 Mathematical Preliminaries 909
10.1-1 Derivatives and Integrals of a Matrix 909
10.1-2 The Characteristic Equation of a Matrix:
The Cayley–Hamilton Theorem 910
10.1-3 Computation of an Exponential and a Power of a Matrix 912
10.2 Introduction to State Space 913
10.3 A Systematic Procedure to Determine State Equations 916
10.3-1 Electrical Circuits 916
10.3-2 State Equations from a Transfer Function 919
10.4 Solution of State Equations 926
10.4-1 Laplace Transform Solution of State Equations 927
10.4-2 Time-Domain Solution of State Equations 933
10.5 Linear Transformation of a State Vector 939
10.5-1 Diagonalization of Matrix A 943
10.6 Controllability and Observability 947
10.6-1 Inadequacy of the Transfer Function Description of a System 953
“00-Lathi-Prelims” — 2017/9/28 — 9:43 — page xiv — #14
xiv Contents
10.7 State-Space Analysis of Discrete-Time Systems 953
10.7-1 Solution in State Space 955
10.7-2 The z-Transform Solution 959
10.8 MATLAB: Toolboxes and State-Space Analysis 961
10.8-1 z-Transform Solutions to Discrete-Time, State-Space Systems 961
10.8-2 Transfer Functions from State-Space Representations 964
10.8-3 Controllability and Observability of Discrete-Time Systems 965
10.8-4 Matrix Exponentiation and the Matrix Exponential 968
10.9 Summary 969
References 970
Problems 970
INDEX 975


Morphological mechanisms for regulating blood flow through hepatic sinusoids

Department of Cell Biology and Anatomy, College of Medicine, University of Arizona, Tucson, AZ, U.S.A.

Department of Cell Biology and Anatomy, College of Medicine, University of Arizona, Tucson, AZ, U.S.A.

الملخص

Abstract: This review summarizes what is known about the various morphological sites that regulate the distribution of blood flow to and from the sinusoids in the hepatic microvascular system. These sites potentially include the various segments of the afferent portal venules and hepatic arterioles, the sinusoids themselves, and central and hepatic venules. Given the paucity of smooth muscle in the walls of these vessels, various sinusoidal lining cells have been suggested to play a role in regulating the diameters of sinusoids and influencing the distribution and velocity of blood flow in these vessels. While sinusoidal endothelial cells have been demonstrated to be contractile and to exhibit sphincter function, attention has recently focused on the perisinusoidal stellate cell as the cell responsible for controlling the sinusoidal diameter. A very recent study, however, suggested that the principal site of vasoconstriction elicited by ET-1 was the pre-terminal portal venule. This raised the question of whether or not the diameters of sinusoids might decrease due to passive recoil when inflow is reduced or eliminated and intra-sinusoidal pressure falls. In more recent in vivo microscopic studies, clamping of the portal vein dramatically reduced sinusoidal blood flow as well as the diameters of sinusoids. The sinusoidal lumens rapidly returned to their initial diameters upon restoration of portal blood flow suggesting that sinusoidal blood pressure normally distends the sinusoidal wall which can recoil when the pressure drops. Stellate cells may be responsible for this reaction given the nature of their attachment to parenchymal cells by obliquely oriented microprojections from the lateral edges of their subendothelial processes. This suggests that care must be exercised when interpreting the mechanism for the reduction of sinusoidal diameters following drug administration without knowledge of changes occurring to the portal venous and hepatic inflow.


References

Braeuning A, Singh Y, Rignall B, Buchmann A, Hammad S, Othman A, von Recklinghausen I, Godoy P, Hoehme S, Drasdo D, Hengstler JG, Schwarz M (2010) Phenotype and growth behavior of residual β-catenin-positive hepatocytes in livers of β-catenin-deficient mice. Histochem Cell Biol 134(5):469–481

Godoy P, Lakkapamu S, Schug M, Bauer A, Stewart JD, Bedawi E, Hammad S, Amin J, Marchan R, Schormann W, Maccoux L, von Recklinghausen I, Reif R, Hengstler JG (2010) Dexamethasone-dependent versus-independent markers of epithelial to mesenchymal transition in primary hepatocytes. Biol Chem 391(1):73–83

Godoy P, Hewitt NJ, Albrecht U et al (2013) Recent advances in 2D and 3D in vitro systems using primary hepatocytes, alternative hepatocyte sources and non-parenchymal liver cells and their use in investigating mechanisms of hepatotoxicity, cell signaling and ADME. Arch Toxicol 87:1315–1530

Hoehme S, Drasdo D (2010) A cell-based simulation software for multi-cellular systems. Bioinformatics 26(20):2641–2642

Hoehme S, Brulport M, Bauer A, Bedawy E, Schormann W, Hermes M, Puppe V, Gebhardt R, Zellmer S, Schwarz M, Bockamp E, Timmel T, Hengstler JG, Drasdo D (2010) Prediction and validation of cell alignment along microvessels as order principle to restore tissue architecture in liver regeneration. Proc Natl Acad Sci USA 107(23):10371–10376

Höhme S, Hengstler JG, Brulport M, Schäfer M, Bauer A, Gebhardt R, Drasdo D (2007) Mathematical modelling of liver regeneration after intoxication with CCl4. Chem Biol Interact 168(1):74–93

Marguet D, Baggio L, Kobayashi T, Bernard AM, Pierres M, Nielsen PF, Ribel U, Watanabe T, Drucker DJ, Wagtmann N (2000) Enhanced insulin secretion and improved glucose tolerance in mice lacking CD26. Proc Natl Acad Sci USA 97(12):6874–6879

Nussler AK, Wildemann B, Freude T, Litzka C, Soldo P, Friess H, Hammad S, Hengstler JG, Braun KF, Trak-Smayra V, Godoy P, Ehnert S (2014) Chronic CCl4 intoxication causes liver and bone damage similar to the human pathology of hepatic osteodystrophy: a mouse model to analyse the liver-bone axis. Arch Toxicol 88(4):997–1006

Rogler CE, Zhou HC, LeVoci L, Rogler LE (2007) Clonal, cultured, murine fetal liver hepatoblasts maintain liver specification in chimeric mice. Hepatology 46(6):1971–1978

Schliess F, Hoehme S, Henkel SG, Ghallab A, Driesch D, Böttger J, Guthke R, Pfaff M, Hengstler JG, Gebhardt R, Häussinger D, Drasdo D, Zellmer S (2014) Integrated metabolic spatial-temporal model for the prediction of ammonia detoxification during liver damage and regeneration. Hepatology. doi:10.1002/hep.27136

Schreiber S, Rignall B, Braeuning A, Marx-Stoelting P, Ott T, Buchmann A, Hammad S, Hengstler JG, Schwarz M, Köhle C (2011) Phenotype of single hepatocytes expressing an activated version of β-catenin in liver of transgenic mice. J Mol Histol 42(5):393–400

Tarantola E, Bertone V, Milanesi G, Capelli E, Ferrigno A, Neri D, Vairetti M, Barni S, Freitas I (2012) Dipeptidylpeptidase-IV, a key enzyme for the degradation of incretins and neuropeptides: activity and expression in the liver of lean and obese rats. Eur J Histochem 56(4):e41


9 Answers 9

Negative frequency doesn't make much sense for sinusoids, but the Fourier transform doesn't break up a signal into sinusoids, it breaks it up into complex exponentials (also called "complex sinusoids" or "cisoids"):

These are actually spirals, spinning around in the complex plane:

Spirals can be either left-handed or right-handed (rotating clockwise or counterclockwise), which is where the concept of negative frequency comes from. You can also think of it as the phase angle going forward or backward in time.

In the case of real signals, there are always اثنين equal-amplitude complex exponentials, rotating in opposite directions, so that their real parts combine and imaginary parts cancel out, leaving only a real sinusoid as the result. This is why the spectrum of a sine wave always has 2 spikes, one positive frequency and one negative. Depending on the phase of the two spirals, they could cancel out, leaving a purely real sine wave, or a real cosine wave, or a purely imaginary sine wave, etc.

The negative and positive frequency components نكون both necessary to produce the real signal, but if you already know that it's a real signal, the other side of the spectrum doesn't provide any extra information, so it's often hand-waved and ignored. For the general case of complex signals, you need to know both sides of the frequency spectrum.

Let's say you had a spinning wheel. How would you describe how fast it is spinning? You'd probably say it's spinning at X revolutions per minute (rpm). Now how do you convey in what direction it's spinning with this number? It's the same X rpm if it's spinning clockwise or anti-clockwise. So you scratch your head and say oh well, here's a smart idea: I'll use the convention of +X to indicate that it's spinning clockwise and -X for anti-clockwise. Voila! You've invented negative rpms!

Negative frequency is no different from the above simple example. A simple mathematical explanation of how the negative frequency pops up can be seen from the Fourier transforms of pure tone sinusoids.

Consider the Fourier transform pair of a complex sinusoid: $e^longleftrightarrow delta(omega+omega_0)$ (ignoring constant multiplier terms). For a pure sinusoid (real), we have from Euler's relation:

and hence, its Fourier transform pair (again, ignoring constant multipliers):

$cos(omega_0 t)longleftrightarrow delta(omega+omega_0) + delta(omega-omega_0)$

You can see that it has two frequencies: a positive one at $omega_0$ and a negative one at $-omega_0$ by definition! The complex sinusoid of $ae^$ is widely used because it is incredibly useful in simplifying our mathematical calculations. However, it has only one frequency and a real sinusoid actually has two.

Currently, my viewpoint (it is subject to change) is the following

For sinusoidal repetition only positive frequencies makes sense. The physical interpretation is clear. For complex exponential repetition both positive and negative frequencies makes sense. It may be possible to attach a physical interpretation to negative frequency. That physical interpretation of negative frequency has to do with direction of repetition.

The definition of frequency as provided on wiki is: "Frequency is the number of occurrences of a repeating event per unit time"

If sticking to this definition negative frequency does not make sense and therefore has no physical interpretation. However, this definition of frequency is not thorough for complex exponential repetition which can also have direction.

Negative frequencies are used all the time when doing signal or system analysis. The fundamental reason for this being the Euler formula $e^ = cos( omega n) + j, sin(omega n)$ and the fact that complex exponentials are eigenfunctions of LTI systems.

The sinusoidal repetition is normally of interest and the complex exponential repetition is often used to obtain the sinusoidal repetition indirectly. That the two are related can be easily seen by considering the Fourier representation written using complex exponentials e.g. $ x[n]= frac<1> <2pi>int_<-pi>^!!!domega X(e^) e^ $

However, this is equivalent to

$ x[n] = frac<1> <2pi>int_<0>^!!domega [a(omega) cos(omega n) + b(omega) sin(omega n)] = frac<1> <2pi>int_<0>^!!domega alpha(omega) sin(omega n + phi(omega))] $

So instead of considering a positive 'sinusoidal frequency axis', a negative and positive 'complex exponential frequency axis' is considered. On the 'complex exponential frequency axis', for real signals, it is well known that the negative frequency part is redundant and only the positive 'complex exponential frequency axis' is considered. In making this step implicitly we know that the frequency axis represents complex exponential repetition and not sinusoidal repetition.

The complex exponential repetition is a circular rotation in the complex plane. In order to create a sinusoidal repetition it takes two complex exponential repetitions, one repetition clock-wise and one repetition counter clock-wise. If a physical device is constructed that produces a sinusoidal repetition inspired by how the sinusoidal repetition is created in the complex plane, that is, by two physically rotating devices that rotates in opposite directions, one of the rotating devices can be said to have a negative frequency and thereby the negative frequency has a physical interpretation.

In many common applications negative frequencies have no direct physical meaning at all. Consider a case where there is an input and an output voltage in some electrical circuit with resistors, capacitors, and inductors. There is simply a real input voltage with one frequency and there is a single output voltage with the same frequency but different amplitude and phase.

The ONLY reason why you would consider complex signals, complex Fourier Transforms and phasor math at this point is mathematically convenience. You could do it just as well with entirely real math, it would just be a lot harder.

There are different types of time/frequency transforms. The Fourier Transform uses a complex exponential as its basis function and applied to a single real-valued sine wave happens to produces a two valued results which is interpreted as positive and negative frequency. There are other transforms (like the Discrete Cosine Transform) which would not produce any negative frequencies at all. Again, it’s a matter of mathematical convenience the Fourier Transform is often the quickest and most efficient way to solve a specific problem.

You should study the Fourier transform or series to understand the negative frequency. Indeed Fourier showed that we can show all of waves using some sinusoids. Each sinusoid can be shown with two peaks at the frequency of this wave one in positive side and one in negative. So the theoretical reason is clear. But for the physical reason, I always see that people say negative frequency has just mathematical meaning. But I guess a physical interpretation that I'm not pretty sure When you study the circular motion as the principal of discussions about the waves, the direction of speed of the movement on the half-circle is inverse of the another half. This can be the reason why we have two peaks in both sides of the frequency domain for each sine wave.

What is the meaning of negative distance? One possibility is that it's for continuity, so you don't have to flip planet Earth upside down every time you walk across the equator, and want to plot your position North with a continuous 1st derivative.

Same with frequency, when one might do such things as FM modulation with a modulation wider than the carrier frequency. How would you plot that?

An easy way of thinking about the problem is to imaging a standing wave. The standing wave (in time domain) can be represented as a sum of two oppositely moving traveling waves (in frequency domain with positive and negative k vector, or +w and -w which is equivalent). Here comes the answer on why you have two frequency components in the FFT. FFT is basically a sum (convolution) of many of such oppositely traveling waves that represent your function in time domain.

Used to be to get the right answer for power you had to double the answer. But if you integrate from minus infinity to plus infinity you get the right answer without the arbitrary double. So they said there must be negative frequecies. But no one has ever really found them. They are therefore imaginary or at least from a physical point of view unexplained.

This has turned out to be quite the hot topic.

After reading the rich multitude of good and diverse opinions and interpretations and letting the issue simmer in my head for sometime, I believe I have a physical interpretation of the phenomenon of negative frequencies. And I believe the key interpretation here is that fourier is blind to time. Expaning on this further:

There has been a lot of talk about the 'direction' of the frequency, and thus how it can be +ve or -ve. While the overarching insights of the authors saying this is not lost, this statement is nontheless inconsistent with the definition of temporal frequency, so first we must define our terms very carefully. على سبيل المثال:

Distance is a scalar (can only ever be +ve), while displacement is a vector. (ie, has direction, can be +ve or -ve to illustrate heading).

Speed is a scalar (can only be +ve), while velocity is a vector. (ie, again, has direction, and can be +ve or -ve).

  • Temporal Frequency is a scalar, (can only be +ve)! Frequency is defined as number of cycles per unit time. If this is the accepted definition, we لا تستطيع simply claim that it is going in 'a different direction'. Its a scalar after-all. Instead, we must define a new term - the vector equivalent of frequency. Perhaps 'angular frequency' would be the right terminology here, and indeed, that is precisely what a digital frequency measures.

Now all the sudden we are in the business of measuring number of rotations per unit time, (a vector quantity that can have direction), VS just the number of repititions of some physical oscillation.

Thus when we are asking about the physical interpretation of negative frequencies, we are also implicitly asking about كيف the scalar and very real measures of number of oscillations per unit time of some physical phenomenon like waves on a beach, sinusoidal AC current over a wire, map to this angular-frequency that now all the sudden happens to have direction, either clockwise or counterclockwise.

From here, to arrive at a physical interpretation of negative frequencies two facts need to be heeded. The first one is that as Fourier pointed out, an oscillatory real tone with scalar temporal frequency, f, can be constructed by adding two oscillatory complex tones, with vector angular frequencies, +w and -w together.

Thats great, but so what? Well, the complex tones are rotating in directions opposite to each other. (See also Sebastian's comment). But what is the significance of the 'directions' here that give our angular frequencies their vector status? What physical quantity is being reflected in the direction of rotation? The answer is time. In the first complex tone, time is travelling in the +ve direction, and in the second complex tone, time is travelling in the -ve direction. Time is going backwards.

Keeping this in mind and taking a quick diversion to recall that temporal frequency is the first derivative of phase with respect to time, (simply the change of phase over time), everything begins to fall into place:

The physical interpretation of negative frequencies is as follows:

My first realization was that fourier is time-agnostic. That is, if you think about it, there is nothing in fourier analysis or the transform itself that can tell you what the 'direction' of time is. Now, imagine a physically oscillating system (ie a real sinusoid from say, a current over a wire) that is oscillating at some scalar temporal-frequency, f.

Imagine 'looking' down this wave, in the forwards direction of time as it progresses. Now imagine calculating its difference in phase at every point in time you progress further. This will give you your scalar temporal frequency, and your frquency is positive. So far so good.

But wait a minute - if fourier is blind to time, then why should it only consider your wave in the 'forward' time direction? There is nothing special about that direction in time. Thus by symmetry, the other direction of time must also be considered. Thus now imagine 'looking' up at the same wave, (ie, backwards في الوقت المناسب) ، وكذلك إجراء نفس حساب مرحلة دلتا. نظرًا لأن الوقت يتراجع الآن ، وكان التردد الخاص بك هو تغيير المرحلة / (الوقت السلبي) ، فسيكون التردد الآن سالبًا!

ما يقوله فورييه حقًا ، هو أن هذه الإشارة تحتوي على طاقة إذا تم تشغيلها للأمام في الوقت المناسب عند تردد بن f ، ولكن أيضًا لديها طاقة إذا تم تشغيلها إلى الوراء في الوقت المناسب وإن كان على تردد بن -f. بمعنى أنه يجب أن يقول هذا لأن فورييه ليس لديه طريقة "لمعرفة" الاتجاه "الحقيقي" للوقت!

فكيف فورييه التقاط هذا؟ حسنًا ، من أجل إظهار ملف اتجاه من الوقت ، تناوب من نوع ما يجب يتم توظيفها بحيث يتعامل الدوران في اتجاه عقارب الساعة مع "النظر" إلى الإشارة في السهم الأمامي للوقت ، بينما يتعامل الدوران في عكس اتجاه عقارب الساعة مع "النظر" إلى الإشارة كما لو كان الوقت يتجه للخلف. يجب أن يكون التردد الزمني القياسي الذي نعرفه جميعًا مساويًا للقيمة المطلقة (المقاسة) للتردد الزاوي المتجه لدينا. ولكن كيف يمكن لنقطة تدل على إزاحة الموجة الجيبية أن تصل إلى نقطة البداية بعد دورة واحدة مع الدوران في نفس الوقت حول دائرة وتحافظ على مظهر من مظاهر التردد الزمني الذي تشير إليه؟ فقط إذا كانت المحاور الرئيسية لهذه الدائرة تتكون من قياس إزاحة هذه النقطة بالنسبة إلى الجيب الأصلي ، وشكل الجيب بمقدار 90 درجة. (هذه هي الطريقة التي يحصل بها فورييه على قواعد الجيب وجيب التمام التي تتعامل معها في كل مرة تقوم فيها بإجراء DFT!). وأخيرًا ، كيف نبقي تلك المحاور منفصلة؟ يضمن 'j' أن الحجم على كل محور دائمًا ما يكون مستقلاً عن الحجم على الآخر ، حيث لا يمكن إضافة الأرقام الحقيقية والخيالية للحصول على رقم جديد في أي من المجالين. (لكن هذه مجرد ملاحظة جانبية).

إن تحويل فورييه لا يعرف الزمن. لا يمكنها معرفة اتجاه الوقت. يقع هذا في قلب الترددات السلبية. نظرًا لأن التردد = تغيير الطور / الوقت ، في أي وقت تأخذ DFT للإشارة ، يقول فورييه أنه إذا كان الوقت يتقدم للأمام ، فإن طاقتك تقع على محور التردد + الخامس ، ولكن إذا كان وقتك يتراجع ، فإن طاقتك هي تقع على محور التردد الخامس.

كما أظهر كوننا من قبل ، فإن كلا جانبي DFT بالتحديد لأن فورييه لا يعرف اتجاه الوقت يجب أن تكون متماثلًا ، ولماذا وجود الترددات السالبة ضروري وحقيقي جدًا بالفعل.


شاهد الفيديو: علاج الجيوب الانفية للابد. تخلص من الحساسية. الكوارستين واسرار لا تنتهى (شهر اكتوبر 2021).