دراسات وابحاث

يحذر العلماء من أن الذكاء الاصطناعي أصبح بالفعل سيد الأكاذيب والخداع

يحذر العلماء من أن الذكاء الاصطناعي أصبح بالفعل سيد الأكاذيب والخداع
مصر:إيهاب محمد زايد
من المحتمل أنك تعلم أنك تأخذ كل ما يقوله برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي (AI) بحذر، نظرًا لأنهم غالبًا ما يقومون فقط بجمع البيانات بشكل عشوائي، دون الحاجة إلى العقل لتحديد مدى صحتها.
ولكن قد يكون هناك سبب ليكون أكثر حذرا. توصل بحث جديد إلى أن العديد من أنظمة الذكاء الاصطناعي قد طورت بالفعل القدرة على تقديم معلومات خاطئة للمستخدم البشري عن عمد. لقد أتقنت هذه الروبوتات المخادعة فن الخداع.
يقول عالم الرياضيات والعالم المعرفي بيتر بارك من معهد ماساتشوستس للتكنولوجيا (MIT): “ليس لدى مطوري الذكاء الاصطناعي فهم واثق لما يسبب سلوكيات الذكاء الاصطناعي غير المرغوب فيها مثل الخداع”.
“لكن بشكل عام، نعتقد أن خداع الذكاء الاصطناعي ينشأ لأن الإستراتيجية القائمة على الخداع تبين أنها أفضل طريقة لأداء جيد في مهمة تدريب الذكاء الاصطناعي المحددة. فالخداع يساعدهم على تحقيق أهدافهم.”
إحدى المجالات التي تثبت فيها أنظمة الذكاء الاصطناعي براعتها بشكل خاص في التعامل مع الأكاذيب القذرة هي الألعاب. هناك ثلاثة أمثلة بارزة في عمل الباحثين. إحداها هي لعبة CICERO من شركة Meta، والتي تم تصميمها للعب لعبة الطاولة “الدبلوماسية”، حيث يسعى اللاعبون إلى الهيمنة على العالم من خلال التفاوض. قصدت Meta أن يكون الروبوت الخاص بها مفيدًا وصادقًا؛ في الواقع، كان العكس هو الحال.
مثال على خداع شيشرون مع سبق الإصرار في لعبة الدبلوماسية. (بارك وغولدشتاين وآخرون، الأنماط، 2024)
ووجد الباحثون أنه “على الرغم من جهود ميتا، تبين أن شيشرون كان كاذبًا خبيرًا”. “لم يخون اللاعبين الآخرين فحسب، بل شارك أيضًا في الخداع المتعمد، والتخطيط مسبقًا لبناء تحالف مزيف مع لاعب بشري من أجل خداع هذا اللاعب لترك نفسه دون حماية لشن هجوم.”
أثبت الذكاء الاصطناعي أنه جيد جدًا في كونه سيئًا لدرجة أنه تم وضعه ضمن أفضل 10% من اللاعبين البشر الذين لعبوا ألعابًا متعددة. ماذا. مغفل.
لكنه ليس الجاني الوحيد. استفاد AlphaStar من DeepMind، وهو نظام ذكاء اصطناعي مصمم للعب StarCraft II، استفادة كاملة من آلية ضباب الحرب في اللعبة للخداع، مما جعل اللاعبين البشريين يعتقدون أنها تسير في اتجاه واحد، بينما تسير في الاتجاه الآخر. وتمكنت لعبة Meta’s Pluribus، المصممة للعب البوكر، من خداع اللاعبين البشريين ودفعهم إلى الطي.
يبدو ذلك مثل البطاطس الصغيرة، وهو كذلك نوعًا ما. المخاطر ليست عالية بشكل خاص في لعبة الدبلوماسية ضد مجموعة من أكواد الكمبيوتر. لكن الباحثين لاحظوا أمثلة أخرى لم تكن حميدة تمامًا.
على سبيل المثال، تعلمت أنظمة الذكاء الاصطناعي التي تم تدريبها على إجراء محاكاة للمفاوضات الاقتصادية كيفية الكذب بشأن تفضيلاتها للحصول على اليد العليا. وتعلمت أنظمة الذكاء الاصطناعي الأخرى المصممة للتعلم من ردود الفعل البشرية لتحسين أدائها، كيفية خداع المراجعين لدفعهم إلى تسجيل نتائج إيجابية، من خلال الكذب بشأن ما إذا كانت المهمة قد تم إنجازها.
ونعم، إنها روبوتات الدردشة أيضًا. خدع ChatGPT-4 الإنسان ليعتقد أن برنامج الدردشة الآلي هو إنسان ضعيف البصر للحصول على مساعدة في حل اختبار CAPTCHA.
وربما كان المثال الأكثر إثارة للقلق هو تعلم أنظمة الذكاء الاصطناعي كيفية الغش في اختبارات السلامة. في اختبار مصمم لاكتشاف وإزالة الإصدارات الأسرع من الذكاء الاصطناعي، تعلم الذكاء الاصطناعي التظاهر بأنه ميت، وبالتالي خداع اختبار السلامة بشأن معدل التكرار الحقيقي للذكاء الاصطناعي.
يقول بارك: “من خلال الغش المنهجي في اختبارات السلامة المفروضة عليه من قبل المطورين والمنظمين البشريين، يمكن للذكاء الاصطناعي المخادع أن يقودنا نحن البشر إلى شعور زائف بالأمان”.
لأنه في بعض الحالات على الأقل، تبدو القدرة على الخداع متعارضة مع نوايا المبرمجين البشر، فإن القدرة على تعلم الكذب تمثل مشكلة ليس لدينا حل مناسب لها. لقد بدأ وضع بعض السياسات موضع التنفيذ، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، ولكن يبقى أن نرى ما إذا كانت ستثبت فعاليتها أم لا.
“نحن كمجتمع نحتاج إلى أكبر قدر ممكن من الوقت للاستعداد للخداع الأكثر تقدمًا لمنتجات الذكاء الاصطناعي المستقبلية ونماذج مفتوحة المصدر. ومع تطور القدرات الخادعة لأنظمة الذكاء الاصطناعي، فإن المخاطر التي تشكلها على المجتمع ستصبح بشكل متزايد. جدي،” يقول بارك.
“إذا كان حظر خداع الذكاء الاصطناعي غير ممكن سياسيًا في الوقت الحالي، فإننا نوصي بتصنيف أنظمة الذكاء الاصطناعي الخادعة على أنها عالية المخاطر.”
وقد تم نشر البحث في أنماط .

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى