مقالات

العين الآلية و الذكاء الاصطناعي خارج السيطرة

العين الآلية و الذكاء الاصطناعي خارج السيطرة
مصر: ايهاب محمد زايد
تشير الحسابات إلى أنه سيكون من المستحيل التحكم في ذكاء اصطناعي فائق الذكاء
العين الآلية
لقطة من فيلم “2001: A Space Odyssey”. (MGM)
لقد تم الحديث عن فكرة الإطاحة بالذكاء الاصطناعي للبشرية منذ عقود – وقد جددت برامج مثل ChatGPT هذه المخاوف فقط .
إذن ، ما مدى احتمالية أن نكون قادرين على التحكم في الذكاء الفائق للكمبيوتر عالي المستوى؟ حطم العلماء الأرقام في عام 2021. الاجابة؟ تقريبا بالتأكيد لا.
المهم هو أن التحكم في ذكاء خارق يتجاوز بكثير الفهم البشري يتطلب محاكاة ذلك الذكاء الفائق الذي يمكننا تحليله. ولكن إذا كنا غير قادرين على فهمها ، فمن المستحيل إنشاء مثل هذه المحاكاة.
لا يمكن وضع قواعد مثل “لا تسبب ضررًا للبشر” إذا لم نفهم نوع السيناريوهات التي سيأتي بها الذكاء الاصطناعي ، كما يقترح مؤلفو البحث. بمجرد أن يعمل نظام الكمبيوتر على مستوى أعلى من نطاق المبرمجين لدينا ، لم يعد بإمكاننا وضع حدود.
كتب الباحثون في عام 2021 : “يطرح الذكاء الفائق مشكلة مختلفة اختلافًا جوهريًا عن تلك التي تدرس عادةً تحت شعار” أخلاقيات الروبوت ” .
“هذا لأن الذكاء الخارق متعدد الأوجه ، وبالتالي يحتمل أن يكون قادرًا على تعبئة مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر ، ناهيك عن التحكم فيها.”
يأتي جزء من استدلال الفريق من مشكلة التوقف التي طرحها آلان تورينج في عام 1936. وتتركز المشكلة على معرفة ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة وإجابة أم لا (لذلك يتوقف) ، أو أنه ببساطة سيعقد إلى الأبد في محاولة للعثور على واحدة.
كما أثبت تورينج من خلال بعض الرياضيات الذكية ، بينما يمكننا أن نعرف أنه بالنسبة لبعض البرامج المحددة ، من المستحيل منطقيًا إيجاد طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته في أي وقت.
هذا يعيدنا إلى الذكاء الاصطناعي ، والذي في حالة فائقة الذكاء يمكنه عمليا الاحتفاظ بكل برنامج كمبيوتر ممكن في ذاكرته في وقت واحد.
أي برنامج مكتوب لمنع الذكاء الاصطناعي من إلحاق الضرر بالبشر وتدمير العالم ، على سبيل المثال ، قد يصل إلى نتيجة (ويتوقف) أم لا – من المستحيل رياضياً أن نتأكد تمامًا من أيٍّ من الحالتين ، مما يعني أنه غير قابل للاحتواء.
قال عالم الكمبيوتر إياد رهوان ، من معهد ماكس بلانك للتنمية البشرية في ألمانيا: “في الواقع ، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام” .
يقول الباحثون إن البديل لتعليم الذكاء الاصطناعي بعض الأخلاقيات وإخباره بعدم تدمير العالم – وهو أمر لا يمكن لأي خوارزمية أن تكون متأكدة تمامًا من القيام به – هو الحد من قدرات الذكاء الفائق. يمكن قطعها عن أجزاء من الإنترنت أو من شبكات معينة ، على سبيل المثال.
ترفض دراسة 2021 هذه الفكرة أيضًا ، مما يشير إلى أنها ستحد من وصول الذكاء الاصطناعي – تقول الحجة أنه إذا لم نكن سنستخدمها لحل مشاكل خارج نطاق البشر ، فلماذا ننشئها على الإطلاق؟
إذا كنا سنمضي قدمًا في الذكاء الاصطناعي ، فقد لا نعرف حتى متى يصل ذكاء خارق خارج عن سيطرتنا ، وهذا هو عدم فهمه. هذا يعني أننا بحاجة إلى البدء في طرح بعض الأسئلة الجادة حول الاتجاهات التي نسير فيها.
في الواقع ، وقع عمالقة التكنولوجيا في وقت سابق من هذا العام ، بما في ذلك Elon Musk والمؤسس المشارك لشركة Apple ، ستيف وزنياك ، خطابًا مفتوحًا يطلب من البشرية التوقف مؤقتًا عن العمل على الذكاء الاصطناعي لمدة 6 أشهر على الأقل حتى يمكن استكشاف سلامته.
جاء في الرسالة المفتوحة بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتًا”: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية” .
وقالت: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة”.
تطورات الذكاء الاصطناعي في عام 2023.

مقالات ذات صلة

زر الذهاب إلى الأعلى