دراسات وابحاث

أحدث أداة بحث من جوجل تطلب منا وضع الغراء على البيتزا الخاصة بنا وتناول الصخور

أحدث أداة بحث من جوجل تطلب منا وضع الغراء على البيتزا الخاصة بنا وتناول الصخور
مصر:إيهاب محمد زايد
طرحت Google أحدث ميزة بحث تجريبية على Chrome وFirefox ومتصفح تطبيقات Google لمئات الملايين من المستخدمين.
“نظرات عامة على الذكاء الاصطناعي” توفر عليك النقر على الروابط باستخدام الذكاء الاصطناعي التوليدي – نفس التقنية التي تعمل على تشغيل المنتج المنافس ChatGPT – لتقديم ملخصات لنتائج البحث. اسأل “كيفية الحفاظ على الموز طازجًا لفترة أطول” ويستخدم الذكاء الاصطناعي لإنشاء ملخص مفيد للنصائح مثل تخزينه في مكان بارد ومظلم وبعيدًا عن الفواكه الأخرى مثل التفاح.
لكن اطرح عليه سؤالاً غير متوقع وقد تكون النتائج كارثية، أو حتى خطيرة.
تسعى Google حاليًا جاهدة لإصلاح هذه المشكلات واحدة تلو الأخرى، ولكنها تمثل كارثة علاقات عامة لعملاق البحث ولعبة الضرب بالخلد الصعبة.
لقطات شاشة من Google AI Overviews توصي بتناول الصخور ووضع الغراء على البيتزا.
قد تؤدي نظرة عامة على الذكاء الاصطناعي من Google إلى الإضرار بسمعة عملاق التكنولوجيا في تقديم نتائج موثوقة. (جوجل/المحادثة)
تخبرك AI Overviews بشكل مفيد أن “Whack-A-Mole هي لعبة أركيد كلاسيكية حيث يستخدم اللاعبون مطرقة لضرب الشامات التي تظهر بشكل عشوائي للحصول على نقاط. تم اختراع اللعبة في اليابان عام 1975 من قبل الشركة المصنعة للتسلية TOGO وكانت تسمى في الأصل موغورا تايجي أو موغورا تاتاكي.”
لكن AI Overviews يخبرك أيضًا أن “رواد الفضاء التقوا بقطط على القمر ولعبوا معهم وقدموا لهم الرعاية”.
والأمر الأكثر إثارة للقلق هو أنه يوصي أيضًا “بتناول صخرة صغيرة واحدة على الأقل يوميًا” لأن “الصخور مصدر حيوي للمعادن والفيتامينات”، ويقترح وضع الغراء على طبقة البيتزا.
لماذا يحدث هذا؟
إحدى المشاكل الأساسية هي أن أدوات الذكاء الاصطناعي التوليدية لا تعرف ما هو صحيح، بل تعرف فقط ما هو شائع. على سبيل المثال، لا يوجد الكثير من المقالات على الويب حول تناول الصخور، حيث من الواضح أنها فكرة سيئة.
ومع ذلك، هناك مقال ساخر جيد القراءة من The Onion حول أكل الصخور. ولذلك بنى الذكاء الاصطناعي لدى جوجل ملخصه على ما كان شائعًا، وليس على ما كان صحيحًا.
لقطات شاشة لنتائج توصي بوضع البنزين في المعكرونة والقول إن المظلات غير فعالة.
يبدو أن بعض نتائج نظرة عامة على الذكاء الاصطناعي أخطأت في تقديم النكات والمحاكاة الساخرة على أنها معلومات واقعية. (جوجل / المحادثة)
هناك مشكلة أخرى وهي أن أدوات الذكاء الاصطناعي التوليدية لا تحمل قيمنا. لقد تم تدريبهم على جزء كبير من الويب.
وعلى الرغم من أن التقنيات المتطورة (التي تحمل أسماء غريبة مثل “التعلم المعزز من ردود الفعل البشرية” أو RLHF) تستخدم للقضاء على الأسوأ، فمن غير المستغرب أنها تعكس بعض التحيزات ونظريات المؤامرة والأسوأ من ذلك التي يمكن العثور عليها على شبكة الإنترنت. في الواقع، أنا مندهش دائمًا من مدى تهذيب روبوتات الدردشة المدعمة بالذكاء الاصطناعي وحسن تصرفها، نظرًا لما تدربت عليه.
هل هذا هو مستقبل البحث؟
إذا كان هذا هو مستقبل البحث حقًا، فنحن أمام طريق وعر. وبطبيعة الحال، تحاول جوجل اللحاق بـOpenAI وMicrosoft.
إن الحوافز المالية لقيادة سباق الذكاء الاصطناعي هائلة. ولذلك أصبحت جوجل أقل حذراً مما كانت عليه في الماضي في دفع التكنولوجيا إلى أيدي المستخدمين.
وفي عام 2023، قال ساندر بيتشاي، الرئيس التنفيذي لشركة جوجل:
لقد كنا حذرين. هناك مجالات اخترنا ألا نكون أول من يطرح فيها منتجًا. لقد أنشأنا هياكل جيدة حول الذكاء الاصطناعي المسؤول. سوف تستمر في رؤيتنا نأخذ وقتنا.
ويبدو أن هذا لم يعد صحيحاً، حيث تستجيب شركة جوجل للانتقادات الموجهة إليها بأنها أصبحت منافساً كبيراً خاملاً.
خطوة محفوفة بالمخاطر
إنها استراتيجية محفوفة بالمخاطر بالنسبة لجوجل. إنه يخاطر بفقدان ثقة الجمهور في Google باعتباره المكان المناسب للعثور على الإجابات (الصحيحة) للأسئلة.
لكن جوجل تخاطر أيضاً بتقويض نموذج أعمالها الذي تبلغ قيمته مليار دولار. إذا لم نعد ننقر على الروابط، فما عليك سوى قراءة ملخصها، فكيف تستمر Google في جني الأموال؟
ولا تقتصر المخاطر على جوجل. أخشى أن مثل هذا الاستخدام للذكاء الاصطناعي قد يكون ضارًا للمجتمع على نطاق أوسع. الحقيقة هي بالفعل فكرة متنازع عليها إلى حد ما وقابلة للاستبدال. ومن المرجح أن تزيد أكاذيب الذكاء الاصطناعي الأمر سوءًا.
في غضون عقد من الزمن، قد ننظر إلى عام 2024 باعتباره العصر الذهبي للويب، عندما كان معظمه عبارة عن محتوى عالي الجودة من إنتاج الإنسان، قبل أن تتولى الروبوتات المسؤولية وتملأ الويب بمحتوى اصطناعي ومنخفض الجودة بشكل متزايد من إنتاج الذكاء الاصطناعي. .
هل بدأ الذكاء الاصطناعي يتنفس عادمه الخاص؟
من المحتمل أن يكون الجيل الثاني من نماذج اللغات الكبيرة قد تم تدريبه عن غير قصد على بعض مخرجات الجيل الأول. وتروج الكثير من الشركات الناشئة في مجال الذكاء الاصطناعي لفوائد التدريب على البيانات الاصطناعية التي يولدها الذكاء الاصطناعي.
لكن التدريب على أبخرة عوادم نماذج الذكاء الاصطناعي الحالية يهدد بتضخيم حتى التحيزات والأخطاء الصغيرة. مثلما أن استنشاق أبخرة العوادم أمر سيء بالنسبة للبشر، فهو سيء بالنسبة للذكاء الاصطناعي.
تتناسب هذه المخاوف مع صورة أكبر بكثير. على الصعيد العالمي، يتم استثمار أكثر من 400 مليون دولار أمريكي (600 مليون دولار أسترالي) في الذكاء الاصطناعي يوميًا. والحكومات بدأت للتو في الاستيقاظ على فكرة أننا قد نحتاج إلى حواجز حماية وتنظيم لضمان استخدام الذكاء الاصطناعي بشكل مسؤول، بالنظر إلى سيل استثماراته.
لا يُسمح لشركات الأدوية بإطلاق أدوية ضارة. ولا شركات السيارات. ولكن حتى الآن، سُمح لشركات التكنولوجيا إلى حد كبير بفعل ما يحلو لها
توبي والش، أستاذ الذكاء الاصطناعي ورئيس مجموعة الأبحاث بجامعة نيو ساوث ويلز في سيدني
نشر هذه المقالة من The Conversation

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى