مقالات
الذكاء الاصطناعي والضوضاء
مصر: إيهاب محمد زايد
يحارب باحثو الذكاء الاصطناعي الضوضاء من خلال التحول إلى علم الأحياء. يمكن أن تخدع الكميات الضئيلة من الضوضاء الاصطناعية الشبكات العصبية ، لكن ليس البشر. يتطلع بعض الباحثين إلى علم الأعصاب من أجل الإصلاح. يرى الذكاء الاصطناعي أشياءً لا نراها – غالبًا على حسابه. على الرغم من أن الآلات أصبحت جيدة بشكل لا يصدق في التعرف على الصور ، إلا أنه لا يزال من السهل خداعها. ما عليك سوى إضافة قدر ضئيل من الضوضاء إلى الصور المدخلة ، بحيث لا يمكن اكتشافها بالعين البشرية ، وتصنف الذكاء الاصطناعي فجأة الحافلات المدرسية أو الكلاب أو المباني على أنها أشياء مختلفة تمامًا ، مثل النعام.
في ورقة بحثية نُشرت على الإنترنت في يونيو ، درس نيكولاس بابيرنو وزملاؤه من جامعة تورنتو أنواعًا مختلفة من نماذج التعلم الآلي التي تعالج اللغة ووجدوا طريقة لخداعهم من خلال التدخل في نص الإدخال في عملية غير مرئية للبشر. لا يرى الكمبيوتر الإرشادات المخفية إلا عندما يقرأ الرمز الموجود خلف النص لتعيين الأحرف بالبايت في ذاكرته. أظهر فريق Papernot أنه حتى الإضافات الصغيرة ، مثل الأحرف الفردية التي يتم ترميزها لمساحة بيضاء ، يمكن أن تلحق الضرر بفهم النموذج للنص. وهذه الخلطات لها عواقب على المستخدمين البشر أيضًا – في أحد الأمثلة ، تسبب حرف واحد في قيام الخوارزمية بإخراج جملة تخبر المستخدم بإرسال الأموال إلى حساب مصرفي غير صحيح.
أعمال الخداع هذه هي نوع من الهجوم يُعرف باسم الأمثلة العدائية ، والتغييرات المتعمدة لمدخلات مصممة لخداع خوارزمية ما والتسبب في ارتكابها لخطأ. اكتسبت هذه الثغرة مكانة بارزة في أبحاث الذكاء الاصطناعي في عام 2013 عندما خدع الباحثون شبكة عصبية عميقة ، وهي نموذج للتعلم الآلي يحتوي على العديد من طبقات “الخلايا العصبية” الاصطناعية التي تؤدي عمليات حسابية.
في الوقت الحالي ، ليس لدينا حلول مضمونة ضد أي وسيط من الأمثلة العدائية – الصور أو النصوص أو غير ذلك. لكن هناك أمل. للتعرف على الصور ، يمكن للباحثين تدريب شبكة عصبية عميقة عن قصد باستخدام صور معادية حتى تشعر براحة أكبر في رؤيتها. لسوء الحظ ، فإن هذا النهج ، المعروف باسم التدريب العدائي ، يدافع جيدًا فقط ضد الأمثلة العدائية التي رآها النموذج. بالإضافة إلى ذلك ، فإنه يقلل من دقة النموذج على الصور غير العدائية ، وهو مكلف من الناحية الحسابية. في الآونة الأخيرة ، أدت حقيقة أن البشر نادرًا ما يتم خداعهم من قبل هذه الهجمات نفسها ببعض العلماء للبحث عن حلول مستوحاة من رؤيتنا البيولوجية.
قال بنجامين إيفانز ، عالم الأعصاب الحاسوبي في جامعة بريستول: “لقد عمل التطور على تحسين العديد والعديد من الكائنات الحية لملايين السنين ووجد بعض الحلول الإبداعية والمثيرة للاهتمام”. “يتوجب علينا إلقاء نظرة خاطفة على تلك الحلول ومعرفة ما إذا كان بإمكاننا إجراء هندسة عكسية لها.”
ركز على النقرة
يبدأ الاختلاف الصارخ الأول بين الإدراك البصري لدى البشر والآلات بحقيقة أن معظم البشر يعالجون العالم من خلال أعيننا ، والشبكات العصبية العميقة لا تفعل ذلك. نرى الأشياء بشكل أكثر وضوحًا في منتصف مجالنا البصري بسبب موقع النقرة ، وهي حفرة صغيرة تتمركز خلف التلميذ في الجزء الخلفي من مقل أعيننا. هناك ، تتراكم الملايين من المستقبلات الضوئية التي تستشعر الضوء معًا بكثافة أكبر من أي مكان آخر.
قال توماسو بوجيو ، عالم الأعصاب الحاسوبي في معهد ماساتشوستس للتكنولوجيا ومدير مركز الأدمغة والعقول والآلات: “نعتقد أننا نرى كل شيء من حولنا ، لكن هذا إلى حد كبير وهم”.
“ترى” الآلات من خلال تحليل شبكة من الأرقام التي تمثل لون وسطوع كل بكسل في الصورة. هذا يعني أن لديهم نفس حدة البصر عبر مجال رؤيتهم بالكامل (أو بالأحرى شبكة الأرقام الخاصة بهم). تساءل بوجيو ومعاونوه عما إذا كانت معالجة الصور بالطريقة التي تعمل بها أعيننا – بتركيز واضح وحدود ضبابية – يمكن أن تحسن قوة الخصومة من خلال تقليل تأثير الضوضاء في المحيط. قاموا بتدريب الشبكات العصبية العميقة مع الصور المحررة لعرض دقة عالية في مكان واحد فقط ، محاكين المكان الذي قد تركز فيه أعيننا ، مع انخفاض الدقة المتوسعة للخارج. نظرًا لأن أعيننا تتحرك للتثبيت على أجزاء متعددة من الصورة ، فقد تضمنت أيضًا العديد من الإصدارات من نفس الصورة مع مناطق مختلفة من الدقة العالية.
أشارت نتائجهم ، التي نُشرت العام الماضي ، إلى أن النماذج المدربة على صورها “المبتذلة” أدت إلى تحسين الأداء ضد الأمثلة العدائية دون انخفاض في الدقة. لكن نماذجهم ما زالت لم تكن فعالة ضد الهجمات مثل التدريب العدائي ، الحل غير البيولوجي الأعلى. اثنين يواصل باحثو ما بعد الدكتوراه في مختبر Poggio ، Arturo Deza و Andrzej Banburski ، هذا النوع من العمل من خلال دمج الحسابات المعقدة الأكثر تعقيدًا ، مع التركيز بشكل أكبر على الحسابات التي تحدث في رؤيتنا المحيطية.
انعكاس الخلايا العصبية المرئية
بالطبع ، الضوء الذي يصيب الخلايا في أعيننا ليس سوى الخطوة الأولى. بمجرد خروج الإشارات الكهربائية من المستقبلات الضوئية من الجزء الخلفي من أعيننا ، فإنها تنتقل على طول الألياف العصبية حتى تصل إلى مقعد المعالجة البصرية في الجزء الخلفي من أدمغتنا. الاكتشافات المبكرة حول كيفية تنظيم الخلايا العصبية الفردية بشكل هرمي لتمثيل السمات المرئية ، مثل اتجاه الخط ، ألهمت عالم الكمبيوتر كونيهيكو فوكوشيما لتطوير أول شبكة عصبية تلافيفية (CNN) في عام 1980. هذا نوع من نموذج التعلم الآلي الآن يستخدم على نطاق واسع لمعالجة الصور التي وجد أنها تحاكي بعض نشاط الدماغ في جميع أنحاء القشرة البصرية.
تعمل شبكات CNN باستخدام المرشحات التي تمسح الصور ضوئيًا لاستخراج ميزات معينة ، مثل حواف الكائن. لكن المعالجة التي تحدث في قشرتنا البصرية لا تزال مختلفة إلى حد كبير وأكثر تعقيدًا ، ويعتقد البعض أن عكسها عن كثب يمكن أن يساعد الآلات على رؤية المزيد مثلنا – بما في ذلك ضد الأمثلة العدائية.
هذا بالضبط ما تفعله معامل جيمس ديكارلو في معهد ماساتشوستس للتكنولوجيا وجيفري باورز في جامعة بريستول. أضاف كلا المختبرين مرشحًا خاصًا يقترب من كيفية استخلاص الخلايا العصبية الفردية للمعلومات المرئية في منطقة تُعرف باسم القشرة البصرية الأولية ، وقد ذهب مختبر ديكارلو إلى أبعد من ذلك بإضافة ميزات مثل مولد ضوضاء يهدف إلى تكرار الخلايا العصبية الصاخبة في الدماغ ، والتي تنطلق عشوائيًا مرات. جعلت هذه الإضافات رؤية الآلة أكثر شبهاً بالإنسان من خلال الحماية من الاعتماد المفرط على النسيج (مشكلة شائعة في الذكاء الاصطناعي) وصعوبات تشويه الصورة مثل الضبابية.
عندما جرب مختبر DiCarlo شبكة CNN المُحسَّنة الخاصة بهم ضد الأمثلة العدائية ، أشارت النتائج إلى أن التعديلات أعطتها دفعة أربعة أضعاف في الدقة على الصور العدائية ، مع انخفاض ضئيل في الدقة على الصور النظيفة مقارنةً بنماذج CNN القياسية. لقد تفوق أيضًا على أسلوب التدريب على الخصم ، ولكن فقط لأنواع الصور العدائية التي لم يتم استخدامها أثناء التدريب. وجدوا أن جميع الإضافات المستوحاة من الناحية البيولوجية عملت معًا للدفاع ضد الهجمات ، وأهمها الضوضاء العشوائية التي أضافها نموذجهم إلى كل خلية عصبية اصطناعية.
في ورقة مؤتمر جديدة نُشرت في نوفمبر ، عمل مختبر DiCarlo مع فرق أخرى لمزيد من الدراسة لتأثير الضوضاء العصبية. أضافوا ضوضاء عشوائية لشبكة عصبية اصطناعية جديدة ، هذه المرة مستوحاة من نظامنا السمعي. يزعمون أن هذا النموذج نجح أيضًا في صد الأمثلة العدائية لأصوات الكلام – ومرة أخرى وجدوا أن الضوضاء العشوائية لعبت دورًا كبيرًا. قال جويل دابيلو ، طالب الدكتوراه في مختبر ديكارلو والمؤلف الرئيسي المشارك في الأوراق: “ما زلنا لم نفهم تمامًا سبب تفاعل الضوضاء مع الميزات الأخرى”. “هذا سؤال مفتوح إلى حد ما.”
الآلات التي تنام
ما تفعله أدمغتنا عندما تغلق أعيننا ولا تقوم القشرة البصرية لدينا بمعالجة العالم الخارجي قد يكون بنفس الأهمية لدرعنا البيولوجي ضد الهجمات. مكسيم بازينوف ، عالم الأعصاب الحاسوبي بجامعة كاليفورنيا ، سان دييغو ، أمضى أكثر من عقدين في دراسة ما يحدث في أدمغتنا أثناء نومنا. في الآونة الأخيرة ، بدأ مختبره في التحقيق فيما إذا كان وضع الخوارزميات للنوم قد يصلح مجموعة من مشكلات الذكاء الاصطناعي ، بما في ذلك الأمثلة العدائية.
فكرتهم بسيطة. يلعب النوم دورًا مهمًا في تقوية الذاكرة ، وهي الطريقة التي تحول بها أدمغتنا التجارب الحديثة إلى ذكريات طويلة المدى. يعتقد باحثون مثل بازينوف أن النوم قد يساهم أيضًا في بناء وتخزين معرفتنا العامة حول الأشياء التي نواجهها كل يوم. إذا كان هذا هو الحال ، فإن الشبكات العصبية الاصطناعية التي تفعل شيئًا مشابهًا قد تتحسن أيضًا في تخزين المعرفة العامة حول موضوعها – وتصبح أقل عرضة للإضافات الصغيرة من الضوضاء من الأمثلة العدائية.
قال بازينوف: “النوم هو مرحلة يكون فيها لدى الدماغ وقتًا ما لإيقاف المدخلات الخارجية والتعامل مع تمثيلاته الداخلية”. “تمامًا مثل النظام البيولوجي ، قد تحتاج [الآلات] إلى فترة من النوم.”
في ورقة مؤتمر عام 2020 بقيادة طالب الدراسات العليا تيموثي تادروس ، وضع مختبر بازينوف شبكة عصبية اصطناعية خلال مرحلة النوم بعد تدريبها على التعرف على الصور. أثناء النوم ، لم تعد الشبكة مجبرة على تحديث الاتصالات بين الخلايا العصبية وفقًا لطريقة التعلم الشائعة التي تعتمد على تقليل الخطأ ، المعروف باسم backpropagation. بدلاً من ذلك ، كانت الشبكة حرة في تحديث اتصالاتها بطريقة غير خاضعة للإشراف ، محاكية الطريقة التي تُحدِّث بها خلايانا العصبية اتصالاتها وفقًا لنظرية مؤثرة تُدعى Hebbian plasticity. بعد النوم ، تطلبت الشبكة العصبية إضافة المزيد من الضوضاء إلى مثال الخصم قبل أن يتم خداعها ، مقارنةً بالشبكات العصبية التي لم تنام. ولكن كان هناك انخفاض طفيف في دقة الصور غير العدائية ، وبالنسبة لبعض أنواع الهجمات ، كان التدريب على الخصم لا يزال هو الدفاع الأقوى.
مستقبل غير مؤكد
على الرغم من التقدم الذي تم إحرازه مؤخرًا في تطوير مناهج مستوحاة من الناحية البيولوجية للحماية من الأمثلة العدائية ، إلا أن أمامها طريق طويل قبل أن يتم قبولها كحلول مثبتة. قد تكون مسألة وقت فقط قبل أن يتمكن باحث آخر من هزيمة هذه الدفاعات – وهو أمر شائع للغاية في مجال التعلم الآلي العدائي.
ليس كل شخص مقتنعًا بأن علم الأحياء هو حتى المكان المناسب للبحث.
قال زيكو كولتر ، عالم الكمبيوتر في جامعة كارنيجي ميلون. لقد لعب كولتر دورًا كبيرًا في تصميم أساليب دفاع غير بيولوجية مستوحاة من الأمثلة العدائية ، ويعتقد أنه سيكون من الصعب جدًا حلها.
يتوقع كولتر أن المسار الأكثر نجاحًا للمضي قدمًا سيشمل تدريب الشبكات العصبية على كميات أكبر بكثير من البيانات – وهي استراتيجية تحاول السماح للآلات برؤية أكبر قدر ممكن من العالم ، حتى لو لم يروه بنفس الطريقة.