الشبكات العصبية الاصطناعية تقدم أدلة على كيفية تعلم العقول

مصر – ايهاب محمد زايد
لا تعمل خوارزمية التعلم التي تمكن من النجاح الجامح للشبكات العصبية العميقة في الأدمغة البيولوجية ، لكن الباحثين يجدون بدائل يمكنها ذلك.
يتعلم الباحثون المزيد حول كيفية تعلم شبكات الخلايا العصبية البيولوجية من خلال دراسة الخوارزميات في الشبكات العميقة الاصطناعية.
في عام 2007 ، نظم بعض المفكرين البارزين وراء الشبكات العصبية العميقة اجتماعًا غير رسمي “عبر الأقمار الصناعية” على هامش مؤتمر سنوي مرموق حول الذكاء الاصطناعي. وكان المؤتمر قد رفض طلبهم عقد ورشة عمل رسمية.
كانت الشبكات العصبية العميقة لا تزال على بعد بضع سنوات من الاستحواذ على الذكاء الاصطناعي. المتحدث الأخير في الاجتماع غير القانوني كان جيفري هينتون من جامعة تورنتو ، عالم النفس المعرفي وعالم الكمبيوتر المسؤول عن بعض أكبر الاختراقات في الشبكات العميقة. بدأ بسخرية: “لذا ، منذ حوالي عام ، عدت إلى المنزل لتناول العشاء ، وقلت ،” أعتقد أنني اكتشفت أخيرًا كيف يعمل الدماغ “، وقالت ابنتي البالغة من العمر 15 عامًا ،” أوه ، أبي ، ليس مرة أخرى. ” ضحك الجمهور. تابع هينتون ، “إذن ، إليك كيف يعمل.” تلا ذلك المزيد من الضحك.
تساعد الشبكات العصبية العميقة الباحثين على فهم أنواع الخوارزميات التي تستخدمها العقول الحية للتعلم. كذبت نكات هينتون السعي الجاد: استخدام الذكاء الاصطناعي لفهم الدماغ. اليوم ، تحكم الشبكات العميقة الذكاء الاصطناعي جزئيًا بسبب خوارزمية تسمى backpropagation أو backprop. تتيح الخوارزمية للشبكات العميقة التعلم من البيانات ، مما يمنحها القدرة على تصنيف الصور والتعرف على الكلام وترجمة اللغات وفهم ظروف الطريق للسيارات ذاتية القيادة وإنجاز مجموعة من المهام الأخرى.
لكن من غير المرجح أن تعتمد الأدمغة الحقيقية على نفس الخوارزمية. قال يوشوا بنجيو ، عالم الكمبيوتر في جامعة مونتريال ، والمدير العلمي لميلا ، كيبيك الاصطناعي معهد المخابرات وأحد منظمي ورشة العمل 2007. لمجموعة متنوعة من الأسباب ، لا يتوافق التكاثر العكسي مع تشريح ووظائف الدماغ ، لا سيما في القشرة.
جيفري هينتون ، عالم النفس المعرفي وعالم الكمبيوتر في جامعة تورنتو ، مسؤول عن بعض أكبر الاختراقات في تكنولوجيا الشبكة العصبية العميقة ، بما في ذلك تطوير backpropagation.
كان بنجيو والعديد من الأشخاص الآخرين الذين ألهمهم هينتون يفكرون في المزيد من آليات التعلم المعقولة بيولوجيًا والتي قد تتطابق على الأقل مع نجاح التكاثر العكسي. ثلاثة منها – محاذاة التغذية الراجعة ، وانتشار التوازن ، والتشفير التنبئي – أظهرت واعدة بشكل خاص. يقوم بعض الباحثين أيضًا بدمج خصائص أنواع معينة من الخلايا العصبية والعمليات القشرية مثل الانتباه في نماذجهم. كل هذه الجهود تقربنا من فهم الخوارزميات التي قد تعمل في الدماغ.
الدماغ هو لغز ضخم. قال بينجيو: “هناك انطباع عام بأنه إذا تمكنا من إطلاق العنان لبعض مبادئها ، فقد يكون ذلك مفيدًا للذكاء الاصطناعي”. “ولكن لها أيضًا قيمة في حد ذاتها.”
التعلم من خلال Backpropagation
لعقود من الزمان ، كانت نظريات علماء الأعصاب حول كيفية تعلم الأدمغة تسترشد أساسًا بقاعدة قدمها عالم النفس الكندي دونالد هب في عام 1949 ، والتي غالبًا ما يتم إعادة صياغتها على أنها “الخلايا العصبية التي تشتعل معًا ، تترابط معًا”. أي أنه كلما زاد ارتباط نشاط الخلايا العصبية المجاورة ، زادت قوة الروابط المشبكية بينها. نجح هذا المبدأ ، مع بعض التعديلات ، في شرح أنواع محدودة من التعلم ومهام التصنيف المرئي.
لكنها لم تعمل بشكل جيد مع شبكات كبيرة من الخلايا العصبية التي كان عليها أن تتعلم من الأخطاء. لم تكن هناك طريقة مستهدفة مباشرة للخلايا العصبية العميقة داخل الشبكة للتعرف على الأخطاء المكتشفة وتحديث نفسها وتقليل الأخطاء. قال دانيال يامينز ، عالم الأعصاب الحاسوبي وعالم الكمبيوتر في جامعة ستانفورد: “إن قاعدة Hebbian هي طريقة ضيقة جدًا ومحددة وليست حساسة للغاية لاستخدام معلومات الخطأ”.
ومع ذلك ، فقد كانت أفضل قاعدة تعليمية لعلماء الأعصاب ، وحتى قبل أن تهيمن على علم الأعصاب ، ألهمت تطوير الشبكات العصبية الاصطناعية الأولى في أواخر الخمسينيات من القرن الماضي. تتلقى كل خلية عصبية اصطناعية في هذه الشبكات مدخلات متعددة وتنتج مخرجات ، مثل نظيرتها البيولوجية. تضاعف الخلايا العصبية كل مدخلات بما يسمى بالوزن “المشبكي” – وهو رقم يدل على الأهمية المعينة لذلك المدخلات – ثم تلخص المدخلات الموزونة. هذا المجموع هو ناتج العصبون. بحلول الستينيات ، كان من الواضح أن مثل هذه الخلايا العصبية يمكن تنظيمها في شبكة ذات طبقة إدخال وطبقة إخراج ، ويمكن تدريب الشبكة العصبية الاصطناعية على حل فئة معينة من المشكلات البسيطة. أثناء التدريب ، استقرت الشبكة العصبية على أفضل الأوزان لخلاياها العصبية للتخلص من الأخطاء أو تقليلها.
ومع ذلك ، كان من الواضح حتى في الستينيات أن حل المشكلات الأكثر تعقيدًا يتطلب طبقة واحدة أو أكثر من الطبقات “المخفية” من الخلايا العصبية المحصورة بين طبقات الإدخال والمخرجات. لم يعرف أحد كيفية تدريب الشبكات العصبية الاصطناعية ذات الطبقات المخفية بشكل فعال – حتى عام 1986 ، عندما نشر هينتون والراحل ديفيد روميلهارت ورونالد ويليامز (الآن من جامعة نورث إيسترن) خوارزمية الانتشار العكسي.
تعمل الخوارزمية على مرحلتين. في مرحلة “إعادة التوجيه” ، عندما تُعطى الشبكة مدخلاً ، فإنها تستنتج ناتجًا قد يكون خاطئًا. تقوم المرحلة “الخلفية” الثانية بتحديث الأوزان المشبكية ، مما يجعل المخرجات أكثر انسجامًا مع القيمة المستهدفة.
لفهم هذه العملية ، فكر في “وظيفة الخسارة” التي تصف الفرق بين المخرجات المستنبطة والمرغوبة كمنظر طبيعي للتلال والوديان. عندما تقوم الشبكة بعمل استنتاج باستخدام مجموعة معينة من الأوزان المشبكية ، ينتهي بها الأمر في مكان ما على مشهد الخسارة. للتعلم ، يجب أن يتحرك على المنحدر ، أو التدرج ، نحو وادي ما ، حيث يتم تقليل الخسارة إلى أقصى حد ممكن. Backpropagation هو طريقة لتحديث الأوزان المشبكية لتهبط هذا التدرج.
في جوهرها ، تحسب المرحلة الخلفية للخوارزمية مقدار مساهمة الأوزان المشبكية لكل خلية عصبية في الخطأ ، ثم تقوم بتحديث هذه الأوزان لتحسين أداء الشبكة. يستمر هذا الحساب بالتسلسل للخلف من طبقة المخرجات إلى طبقة الإدخال ، ومن هنا جاء الاسم backpropagation. قم بذلك مرارًا وتكرارًا لمجموعات المدخلات والمخرجات المرغوبة ، وستصل في النهاية إلى مجموعة مقبولة من الأوزان للشبكة العصبية بأكملها.
مستحيل للدماغ
أثار اختراع التكاثر العكسي على الفور غضبًا من بعض علماء الأعصاب ، الذين قالوا إنه لا يمكن أن يعمل أبدًا في أدمغة حقيقية. أبرز الرافضين كان فرانسيس كريك ، الحائز على جائزة نوبل في اكتشاف بنية الحمض النووي والذي أصبح فيما بعد عالم أعصاب. في عام 1989 كتب كريك ، “فيما يتعلق بعملية التعلم ، من غير المحتمل أن يستخدم الدماغ بالفعل التكاثر العكسي.”
يعتبر Backprop غير قابل للتصديق من الناحية البيولوجية لعدة أسباب رئيسية. الأول هو أنه بينما يمكن لأجهزة الكمبيوتر تنفيذ الخوارزمية بسهولة على مرحلتين ، فإن القيام بذلك للشبكات العصبية البيولوجية ليس بالأمر السهل. والثاني هو ما يسميه علماء الأعصاب الحسابيون مشكلة نقل الوزن: تقوم خوارزمية backprop بنسخ أو “نقل” المعلومات حول جميع الأوزان المشبكية المتضمنة في الاستدلال وتحديث تلك الأوزان لمزيد من الدقة.
لكن في الشبكة البيولوجية ، لا ترى الخلايا العصبية سوى مخرجات الخلايا العصبية الأخرى ، وليس الأوزان المشبكية أو العمليات الداخلية التي تشكل هذا الناتج. من وجهة نظر الخلايا العصبية ، قال يامينز: “من الجيد أن تعرف أوزانك المتشابكة”. “ما هو غير مقبول بالنسبة لك هو معرفة مجموعة الأوزان المشبكية للخلايا العصبية الأخرى.”
يجب أيضًا أن تلتزم أي قاعدة تعليمية معقولة بيولوجيًا بالقيود التي تمنع الخلايا العصبية من الوصول إلى المعلومات إلا من الخلايا العصبية المجاورة ؛ قد يتطلب backprop معلومات من المزيد من الخلايا العصبية البعيدة. قال بنجيو: “إذا أخذت backprop إلى الحرف ، يبدو من المستحيل على العقول أن تحسب”.
ومع ذلك ، تولى هينتون وعدد قليل من الآخرين على الفور التحدي المتمثل في العمل على الاختلافات المعقولة بيولوجيًا للتكاثر العكسي. قال كونراد كوردينج ، عالم الأعصاب الحاسوبي في جامعة بنسلفانيا: “الورقة الأولى التي تجادل بأن الأدمغة تفعل [شيئًا مثل] التكاثر العكسي هي قديمة قدم التكاثر العكسي”. على مدار العقد الماضي أو نحو ذلك ، نظرًا لأن نجاحات الشبكات العصبية الاصطناعية قادتها إلى السيطرة على أبحاث الذكاء الاصطناعي ، فقد تكثفت الجهود المبذولة لإيجاد مكافئ بيولوجي لـ backprop.
البقاء أكثر واقعية
خذ ، على سبيل المثال ، أحد أغرب الحلول لمشكلة نقل الوزن ، بإذن من Timothy Lillicrap من Google DeepMind في لندن وزملائه في عام 2016. بدلاً من الاعتماد على مصفوفة الأوزان المسجلة من الممر الأمامي ، استخدمت خوارزمية تمت تهيئة المصفوفة بقيم عشوائية لمرور الرجوع للخلف. بمجرد تعيين هذه القيم ، لا تتغير أبدًا ، لذلك لا يلزم نقل أوزان لكل مسار رجوع.
مما أثار دهشة الجميع تقريبًا ، علمت الشبكة. نظرًا لأنه يتم تحديث الأوزان الأمامية المستخدمة للاستدلال مع كل مسار للخلف ، لا تزال الشبكة تنزل من تدرج دالة الخسارة ، ولكن بمسار مختلف. تتواءم الأوزان الأمامية ببطء مع الأوزان الخلفية التي تم اختيارها عشوائيًا للحصول على الإجابات الصحيحة في النهاية ، مما يعطي الخوارزمية اسمها: محاذاة التغذية الراجعة.
قال يامينز: “اتضح ، في الواقع ، أن هذا لا يعمل بالسوء الذي قد تعتقده ،” – على الأقل بالنسبة للمشكلات البسيطة. بالنسبة للمشكلات واسعة النطاق ولشبكات أعمق ذات طبقات أكثر مخفية ، فإن محاذاة الملاحظات لا تعمل بشكل جيد مثل خاصية backprop: نظرًا لأن التحديثات على الأوزان الأمامية أقل دقة في كل مسار مما ستكون عليه من المعلومات التي تم نشرها بالفعل ، فإن الأمر يتطلب الكثير المزيد من البيانات لتدريب الشبكة.
يوشوا بنجيو ، باحث في الذكاء الاصطناعي وعالم كمبيوتر في جامعة مونتريال ، هو أحد العلماء الباحثين عن خوارزميات تعليمية فعالة مثل التكاثر العكسي ولكن أكثر منطقية من الناحية البيولوجية.
اكتشف الباحثون أيضًا طرقًا لمطابقة أداء backprop مع الحفاظ على متطلبات التعلم Hebbian الكلاسيكية بأن الخلايا العصبية تستجيب فقط لجيرانها المحليين. يمكن اعتبار Backprop مجموعة واحدة من الخلايا العصبية تقوم بالاستدلال ومجموعة أخرى من الخلايا العصبية تقوم بالحسابات لتحديث الأوزان المشبكية. كانت فكرة هينتون هي العمل على الخوارزميات التي تقوم فيها كل خلية عصبية بمجموعتين من الحسابات. قال بينجيو: “كان هذا أساسًا ما كان حديث جيف [عنه] في عام 2007”.
بناءً على عمل هينتون ، اقترح فريق بنجيو قاعدة تعليمية في عام 2017 تتطلب شبكة عصبية ذات اتصالات متكررة (أي ، إذا قامت العصبون أ بتنشيط العصبون ب ، فإن العصبون ب بدوره ينشط العصبون أ). إذا تم إعطاء مثل هذه الشبكة بعض المدخلات ، فإنها تحدد صدى الشبكة ، حيث تستجيب كل خلية عصبية لدفع وسحب جيرانها المباشرين.
في النهاية ، تصل الشبكة إلى حالة تكون فيها الخلايا العصبية في حالة توازن مع المدخلات ومع بعضها البعض ، وتنتج مخرجات يمكن أن تكون خاطئة. ثم تقوم الخوارزمية بدفع الخلايا العصبية الناتجة نحو النتيجة المرجوة. يؤدي هذا إلى تعيين إشارة أخرى تنتشر للخلف عبر الشبكة ، مما يؤدي إلى إطلاق ديناميكيات مماثلة. تجد الشبكة توازنًا جديدًا.
قال بنجيو: “يكمن جمال الرياضيات في أنك إذا قارنت هذين التكوينين ، قبل الدفع وبعد الدفع ، فستحصل على كل المعلومات التي تحتاجها للعثور على التدرج اللوني”. يتضمن تدريب الشبكة ببساطة تكرار عملية “انتشار التوازن” بشكل تكراري عبر الكثير من البيانات المصنفة.
القيد الذي يمكن للخلايا العصبية أن تتعلمه فقط من خلال الاستجابة لبيئتها المحلية يجد تعبيرًا في نظريات جديدة لكيفية إدراك الدماغ. قام Beren Millidge ، طالب الدكتوراه في جامعة إدنبرة وزميل زائر بجامعة ساسكس ، وزملاؤه بالتوفيق بين هذه النظرة الجديدة للإدراك – التي تسمى الترميز التنبئي – ومتطلبات الانتشار العكسي. قال ميليج: “الترميز التنبئي ، إذا تم إعداده بطريقة معينة ، سوف يمنحك قاعدة تعليمية معقولة بيولوجيًا”.
يفترض الترميز التنبئي أن الدماغ يقوم باستمرار بعمل تنبؤات حول أسباب المدخلات الحسية. تتضمن العملية طبقات هرمية للمعالجة العصبية. لإنتاج ناتج معين ، يجب على كل طبقة توقع النشاط العصبي للطبقة أدناه. إذا كانت أعلى طبقة تتوقع رؤية وجه ، فإنها تتوقع نشاط الطبقة الموجودة أدناه والذي يمكن أن يبرر هذا الإدراك. تقدم الطبقة أدناه تنبؤات مماثلة حول ما يمكن توقعه من الطبقة الموجودة أسفلها ، وما إلى ذلك. تقوم الطبقة السفلية بعمل تنبؤات حول المدخلات الحسية الفعلية – على سبيل المثال ، سقوط الفوتونات على شبكية العين. بهذه الطريقة ، تتدفق التنبؤات من الطبقات العليا نزولاً إلى الطبقات الدنيا.
 

إن قاعدة  Hebbian هي طريقة ضيقة جدًا ومحددة وليست حساسة جدًا لاستخدام معلومات الخطأ.
ولكن يمكن أن تحدث الأخطاء في كل مستوى من مستويات التسلسل الهرمي: الاختلافات بين التنبؤ الذي تقوم به الطبقة حول المدخلات التي تتوقعها والمدخلات الفعلية. تضبط الطبقة السفلية أوزانها المتشابكة لتقليل الخطأ ، بناءً على المعلومات الحسية التي تتلقاها. ينتج عن هذا الضبط خطأ بين الطبقة الدنيا المحدثة حديثًا والطبقة أعلاه ، لذلك يتعين على الطبقة العليا إعادة ضبط أوزانها المتشابكة لتقليل خطأ التنبؤ الخاص بها. إشارات الخطأ هذه تموج صعودا. تتحرك الشبكة ذهابًا وإيابًا ، حتى تقلل كل طبقة من خطأ التنبؤ الخاص بها.
أظهر Millidge أنه مع الإعداد المناسب ، يمكن لشبكات الترميز التنبؤية أن تتقارب على نفس تدرجات التعلم مثل backprop. قال: “يمكنك الاقتراب حقًا ، حقًا ، من التدرجات الخلفية”.
ومع ذلك ، بالنسبة لكل تمريرة للخلف تصنعه خوارزمية backprop التقليدية في شبكة عصبية عميقة ، يجب أن تتكرر شبكة التشفير التنبؤية عدة مرات. يعتمد ما إذا كان هذا مقبولًا بيولوجيًا أم لا على المدة التي قد يستغرقها هذا بالضبط في دماغ حقيقي. بشكل حاسم ، يجب أن تتقارب الشبكة على حل قبل أن تتغير المدخلات من العالم الخارجي.
قال ميليج: “لا يمكن أن يكون الأمر مثل ،” لدي نمر يقفز نحوي ، دعني أقوم بـ 100 تكرار ذهابًا وإيابًا ، صعودًا وهبوطًا في عقلي “. ومع ذلك ، إذا تم قبول بعض عدم الدقة ، فيمكن أن يصل الترميز التنبئي إلى إجابات مفيدة بشكل عام بسرعة ، على حد قوله.
الخلايا العصبية الهرمية
أخذ بعض العلماء على عاتقهم المهمة الجوهرية المتمثلة في بناء نماذج تشبه backprop استنادًا إلى الخصائص المعروفة للخلايا العصبية الفردية. تحتوي الخلايا العصبية القياسية على تشعبات تجمع المعلومات من محاور عصبونات أخرى. تنقل التشعبات إشارات إلى جسم الخلية العصبية ، حيث تتكامل الإشارات. قد يؤدي ذلك أو لا يؤدي إلى حدوث ارتفاع ، أو جهد فعل ، يخرج على محور العصبون إلى التشعبات في الخلايا العصبية ما بعد التشابك.
لكن ليس كل الخلايا العصبية لديها هذه البنية بالضبط. على وجه الخصوص ، الخلايا العصبية الهرمية – النوع الأكثر وفرة من الخلايا العصبية في القشرة – مختلفة بشكل واضح. الخلايا العصبية الهرمية لها هيكل شبيه بمجموعتين متميزتين من التشعبات. يصل الجذع إلى أعلى ويتفرع إلى ما يسمى التشعبات القمية. يصل الجذر إلى الأسفل ويتفرع إلى التشعبات القاعدية.
أظهرت النماذج التي طورها Kording Kording في عام 2001 ، ومؤخرًا بواسطة Blake Richards من جامعة McGill و Mila وزملاؤه ، أن الخلايا العصبية الهرمية يمكن أن تشكل الوحدات الأساسية لشبكة التعلم العميق عن طريق إجراء عمليات حسابية للأمام والخلف في وقت واحد.
يكمن المفتاح في فصل الإشارات التي تدخل الخلايا العصبية للاستدلال المتجه للأمام وللأخطاء المتدفقة للخلف ، والتي يمكن معالجتها في النموذج من خلال التشعبات القاعدية والقمية ، على التوالي. يمكن تشفير المعلومات الخاصة بكلتا الإشارتين في طفرات النشاط الكهربائي التي ترسلها العصبون إلى أسفل محوارها كمخرج.
قال ريتشاردز في أحدث عمل لفريق ريتشاردز ، “لقد وصلنا إلى النقطة التي يمكننا من خلالها إظهار أنه باستخدام محاكاة واقعية إلى حد ما للخلايا العصبية ، يمكنك تدريب شبكات من الخلايا العصبية الهرمية للقيام بمهام مختلفة”. “وبعد ذلك باستخدام إصدارات أكثر تجريدية من هذه النماذج ، يمكننا الحصول على شبكات من الخلايا العصبية الهرمية لمعرفة نوع المهام الصعبة التي يقوم بها الأشخاص في التعلم الآلي.”
الشرط الضمني لشبكة عميقة تستخدم backprop هو وجود “مدرس”: شيء يمكنه حساب الخطأ الذي ارتكبته شبكة من الخلايا العصبية. قال بيتر رولفسيما من المعهد الهولندي لعلم الأعصاب في أمستردام: “لا يوجد معلم في الدماغ يخبر كل خلية عصبية في القشرة الحركية ،” يجب أن تكون قيد التشغيل ويجب أن تغلق “.
يعتقد Roelfsema أن حل الدماغ للمشكلة هو في عملية الانتباه. في أواخر التسعينيات ، أظهر هو وزملاؤه أنه عندما تُحدِق القردة نظرها على شيء ما ، تصبح الخلايا العصبية التي تمثل هذا الشيء في القشرة الدماغية أكثر نشاطًا. إن فعل القرد المتمثل في تركيز انتباهه ينتج إشارة تغذية مرتدة للخلايا العصبية المسؤولة. قال رولفسيما: “إنها إشارة ردود فعل انتقائية للغاية”. “إنها ليست إشارة خطأ. إنه يقول فقط لجميع تلك الخلايا العصبية: ستتحملون المسؤولية [عن فعل ما]. “
كانت رؤية Roelfsema هي أن إشارة التغذية المرتدة هذه يمكن أن تمكن التعلم الشبيه بالظهر عند دمجها مع العمليات التي تم الكشف عنها في بعض نتائج علم الأعصاب الأخرى. على سبيل المثال ، أوضح ولفرام شولتز من جامعة كامبريدج وآخرون أنه عندما تقوم الحيوانات بعمل ينتج عنه نتائج أفضل مما كان متوقعًا ، يتم تنشيط نظام الدوبامين في الدماغ. قال رولفسيما: “إنه يغمر الدماغ كله بالمُعدِّلات العصبية”. تعمل مستويات الدوبامين كإشارة تقوية عالمية.
من الناحية النظرية ، يمكن لإشارة التغذية المرتدة الانتباهية أن توجه فقط تلك الخلايا العصبية المسؤولة عن إجراء للاستجابة لإشارة التعزيز العالمية من خلال تحديث أوزانها المتشابكة ، كما قال رولفسيما. استخدم هو وزملاؤه هذه الفكرة لبناء شبكة عصبية عميقة ودراسة خصائصها الرياضية. “اتضح أنك تحصل على خطأ backpropagation. قال “تحصل على نفس المعادلة في الأساس”. “ولكن الآن أصبح مقبولًا من الناحية البيولوجية.”
قدم الفريق هذا العمل في مؤتمر نظم معالجة المعلومات العصبية عبر الإنترنت في ديسمبر. قال رولفسيما: “يمكننا تدريب الشبكات العميقة”. “إنه فقط عامل من اثنين إلى ثلاثة أبطأ من التكاثر العكسي.” على هذا النحو ، قال ، “إنها تتفوق على جميع الخوارزميات الأخرى التي تم اقتراحها لتكون معقولة بيولوجيًا.”
ومع ذلك ، فإن الأدلة التجريبية الملموسة على أن الأدمغة الحية تستخدم هذه الآليات المعقولة لا تزال بعيدة المنال. قال بنجيو: “أعتقد أننا ما زلنا نفتقد شيئًا ما”. “في تجربتي ، قد يكون الأمر بسيطًا ، ربما بعض التحولات على إحدى الطرق الحالية ، سيحدث فرقًا حقًا.”
وفي الوقت نفسه ، لدى يامينز وزملائه في جامعة ستانفورد اقتراحات حول كيفية تحديد قواعد التعلم المقترحة الصحيحة ، إن وجدت. من خلال تحليل 1056 شبكة عصبية اصطناعية تنفذ نماذج مختلفة من التعلم ، وجدوا أن نوع قاعدة التعلم التي تحكم الشبكة يمكن تحديدها من خلال نشاط مجموعة فرعية من الخلايا العصبية بمرور الوقت. من الممكن أن يتم تسجيل مثل هذه المعلومات من أدمغة القرود. قال يامينز: “اتضح أنه إذا كان لديك المجموعة الصحيحة من الأشياء التي يمكن ملاحظتها ، فقد يكون من الممكن التوصل إلى مخطط بسيط إلى حد ما يسمح لك بتحديد قواعد التعلم”.
بالنظر إلى هذه التطورات ، فإن علماء الأعصاب الحاسوبيين متفائلون بهدوء. قال كوردينج: “هناك الكثير من الطرق المختلفة التي يمكن أن يقوم بها الدماغ بعملية التكاثر العكسي”. “والتطور رائع جدًا. Backpropagation مفيد. أفترض أن هذا التطور نوعا ما أوصلنا إلى هناك “.
المصدر كوانتا