باختصار ،لا يمكنك القيام بالانتشار الخلفي إذا لم يكن لديك وظيفة موضوعية. لا يمكنك الحصول على دالة موضوعية إذا لم يكن لديك مقياس بين قيمة متوقعة وقيمة معنونة (بيانات فعلية أو تدريب). لذلك لتحقيق "التعلم غير الخاضع للإشراف" ، قد تتخلى عن القدرة على حساب التدرج اللوني.
ما هي حدود التكاثر العكسي؟
عيوب خوارزمية الانتشار العكسي:
تعتمد على المدخلات لأداء مشكلة معينة. حساسة للبيانات المعقدة / الصاخبة. يحتاج إلى مشتقات وظائف التنشيط لوقت تصميم الشبكة.
كيف تصلح التكاثر العكسي؟
عملية Backpropagation في الشبكة العصبية العميقة
- قيم الإدخال. X1=0.05. …
- الوزن الأولي. W1=0.15 W5=0.40. …
- قيم التحيز. b1=0.35 b2=0.60.
- القيم المستهدفة. T1=0.01. …
- تمرير إلى الأمام. لإيجاد قيمة H1 ، نضرب أولاً قيمة الإدخال من الأوزان كـ. …
- تمرير للخلف في طبقة الإخراج. …
- تمرير للخلف في الطبقة المخفية.
هل النسخ العكسي فعال؟
Backpropagationفعال، مما يجعل من الممكن تدريب شبكات متعددة الطبقات تحتوي على العديد من الخلايا العصبية أثناء تحديث الأوزان لتقليل الخسارة.
ما المشكلة التي يحلها backpropagation عند العمل مع الشبكات العصبية؟
في تركيب شبكة عصبية ، يحسب backpropagationانحداروظيفة الخسارة فيما يتعلق بأوزان الشبكة لمثال إدخال / إخراج واحد، وتقوم بذلك بكفاءة ، على عكس الحساب المباشر الساذج للتدرج فيما يتعلق بكل وزن على حدة.