دراسات وابحاث

الذكاء الاصطناعي والتحدي الذي يواجه الحوكمة العالمية

الذكاء الاصطناعي والتحدي الذي يواجه الحوكمة العالمية

مصر:إيهاب محمد زايد
يتقدم الذكاء الاصطناعي بسرعة، ويخلق تحديات جديدة وكبيرة للحوكمة. ويجب تطوير آليات جديدة وتعزيز الأساليب الحالية لدعم التعاون الدولي في مجال الذكاء الاصطناعي. ستحتاج الدول إلى القدرة الكافية لتكون جهات فاعلة ذات معنى في تشكيل هذه التكنولوجيا الناشئة، وسوف تحتاج إلى الخبرة والموارد لفهم عواقبها والتكيف معها.

تبحث هذه المجموعة من المقالات في الأساليب المبتكرة لتنظيم الذكاء الاصطناعي وإدارته. ويقدم ويقيم المقترحات والآليات لضمان الذكاء الاصطناعي المسؤول، بدءًا من اللوائح التنظيمية على غرار الاتحاد الأوروبي وحتى الحوكمة مفتوحة المصدر، ومن المعاهدات إلى مرافق الأبحاث المشابهة لـ CERN والشركات المملوكة للقطاع العام. وبالاعتماد على وجهات نظر من جميع أنحاء العالم، تؤكد المجموعة على الحاجة إلى حماية الانفتاح، وضمان الشمولية والعدالة في الذكاء الاصطناعي، وإنشاء أطر أخلاقية واضحة وخطوط تعاون بين الدول وشركات التكنولوجيا.

مقدمة
عندما استضافت المملكة المتحدة قمة سلامة الذكاء الاصطناعي في الفترة من 1 إلى 2 نوفمبر 2023، استغل رئيس وزراء البلاد، ريشي سوناك، المناسبة لإجراء مقابلة مع رجل الأعمال ورئيس شركات X وTesla وSpaceX وNeuralink وThe Boring Company، إيلون ماسك.

كان هناك بعض الخوف حول هذا الموضوع. لم يكن الأمر مجرد أن ماسك شخصية مثيرة للجدل، بل كان رئيس الوزراء ــ الزعيم المسؤول ديمقراطياً لدول مجموعة السبع ــ هو الذي يجري المقابلة وليس الشخص الذي أجريت معه المقابلة، والسائل وليس الشخص الذي لديه الإجابات. لقد تبلورت هذه اللوحة في مشهد متغير، حيث يتمتع قادة شركات التكنولوجيا بقوة كبيرة، ويبدو أن قادة الدول يأتون إليهم بحثًا عن الحلول.

جادل المنظر إيان بريمر ومصطفى سليمان، المؤسس المشارك لشركة DeepMind، في عام 2023 بأننا نعيش في عالم “تكنولوجي قطبي” – حيث لا يتم ممارسة السلطة من خلال السيطرة على رأس المال أو الأراضي أو الحدود فحسب، بل من خلال التحكم في القدرة الحاسوبية. والخوارزميات والبيانات. وبموجب هذا النموذج، تعمل شركات التكنولوجيا بشكل كبير على تشكيل كيفية تفاعل الأشخاص العاديين مع العالم، كما أنها تؤثر بالمثل على أسواق العمل والجغرافيا السياسية.

ولم يتم التأكيد على هذا الأمر بشكل أكثر وضوحًا مما حدث في أوكرانيا في الفترة 2022-2023. ظهرت خدمات الإنترنت عبر الأقمار الصناعية Starlink من Musk كقدرة حاسمة للمقاومة الأوكرانية، لكن توفيرها كان يعتمد على شركة خاصة، مما أدى إلى عدم اليقين بشأن من الذي اتخذ القرار بشأن استخدامها ومدى توفرها.

إذا كانت الحرب تتغير، فإن المعايير الدولية تتغير أيضًا: فالقرارات التي تؤثر على الأشخاص العاديين بكل أنواعها يتم اتخاذها على نحو متزايد في مجالس الإدارة في وادي السيليكون. يتم وضع معايير الخصوصية والوصول إلى المعلومات وحرية التعبير من حيث الخدمة لمليارات من مستخدمي المنصات الرقمية والبرمجيات في جميع أنحاء العالم. ومثل هذا الدمج منطقي تماما من وجهة نظر شركات التكنولوجيا الكبرى؛ ففي نهاية المطاف، تخلق القوانين واللغات والقيم المحلية أوجه قصور إدارية مكلفة في الشركات ذات التوجه العالمي.

لكن هذا السرد حول قوة التكنولوجيا يغفل أيضًا بعض الطرق الحاسمة التي لا تزال الدول من خلالها تشكل قدرة شركات التكنولوجيا على العمل. ولم تقف الحكومات على الهامش ردا على الدور الأكثر بروزا الذي تلعبه شركات التكنولوجيا الكبرى، أو الدور المحتمل، في الأحداث الجيوسياسية. على سبيل المثال، تُعرف سلطات الدولة الهندية بتكرار إغلاقها الوصول إلى الإنترنت لتجنب الاضطرابات الاجتماعية أو السياسية؛2 وتقوم الهند بشكل متزايد بصياغة المعايير حول الرقابة على شبكات التواصل الاجتماعي مثل X (تويتر سابقًا).3 لقد سعت الدولة الصينية منذ فترة طويلة إلى تحدي الهيمنة الغربية في هندسة الإنترنت، والتأثير على معايير الحوكمة الرقمية العالمية
س. تؤثر ضوابط التصدير التي فرضتها إدارة بايدن في الولايات المتحدة على مكان وكيفية تحديد مواقع صناعة التكنولوجيا للمصانع وتطوير الرقائق المتقدمة. إن مفهوم شركة التكنولوجيا، أو حتى القطاع الخاص، منفصلًا تمامًا عن الدولة ليس حقيقة واقعة في كل مكان.

تتفاعل سلطة الدولة مع القوة التكنولوجية، وقد حدث ذلك منذ فترة طويلة. والسؤال الذي يواجهنا في السنوات القادمة هو كيف يمكن أن تتغير تلك العلاقات أو تنهار. وعلى هامش التكنولوجيا ــ من الذكاء الاصطناعي إلى الحوسبة الكمومية ــ قد تبدو سلطة الدولة نادرة. ومع بعض الاستثناءات، فعندما تجلس الحكومات إلى طاولة المفاوضات، فإنها تصل متأخرة للغاية أو تعاني من نقص الموظفين إلى الحد الذي يجعل من غير الممكن اعتبارها متساوية: بيروقراطيون من ذوي النوايا الحسنة في أحسن الأحوال، أو مثبطون للربح أو التقدم في أسوأ الأحوال.

إن تشاتام هاوس مهتم بطرح أسئلة حول هذا الأمر، ومن الأفضل الإجابة على بعضها. ما الذي قد يتطلبه الأمر للحوكمة المشتركة للتكنولوجيا بين الدولة والقطاع الخاص، وكيف يمكن للدول في جميع أنحاء العالم التكيف مع القوة الصاعدة لشركات التكنولوجيا، والتعاون معها، وتنسيق الاستجابات والتنظيم؟ ما هو مدى قوة شركات التكنولوجيا الكبرى في صنع السياسات اليوم؟ فالدول، في نهاية المطاف، مسؤولة سياسيا عن العديد من القرارات التي تؤثر على مواطنيها، حتى عندما يتم اتخاذ هذه القرارات حاليا في مجالس الإدارة، وليس في البرلمانات أو الوزارات. إذا كانت الحكومات، كما تشير الخبيرة الاقتصادية ماريانا مازوكاتو، بحاجة إلى تعلم كيفية التجديف بالقارب حتى تتمكن من توجيهه، فيجب على الدول أن تتعلم كيفية بناء التكنولوجيا وصنعها، وليس فقط التفاعل معها، لتوجيه طريقها عبر القرن الحادي والعشرين. التحديات.

وهذه هي اللحظة التي تنظر فيها الصناعة إلى نفسها، وتتساءل ما إذا كانت قادرة على تسليم المنافع العامة التي تروج لها في بعض الأحيان، وكيف يمكنها إدارة العواقب المترتبة على التغير التكنولوجي الهائل والاستجابة لها. إن كيفية توسط كلا الجانبين في العلاقة بين قوة التكنولوجيا وسلطة الدولة سوف تشكل الجغرافيا السياسية في المستقبل.

تصبح هذه التساؤلات حادة بشكل خاص في عام يتوجه فيه نصف سكان العالم إلى صناديق الاقتراع. يشعر بعض الناس بالقلق بشأن مستقبل “ما بعد الواقع” الانتخابي الذي تشكله المعلومات الخاطئة أو المضللة التي يدعمها الذكاء الاصطناعي. سيتم تأطير نافذتنا على السياسة والمرشحين من خلال التكنولوجيا التي تتوسط وصولنا إلى الأخبار والمعلومات. في هذه المجموعة من المقالات حول آثار الذكاء الاصطناعي على المجتمع والحوكمة، وفي عملنا المستمر في تشاتام هاوس، نستكشف هذه الأسئلة: النظر في مزايا الذكاء الاصطناعي الذي يقوده المجتمع، وتفكيك التحديات المحيطة بالتعاون الدولي والجهود المبذولة لوضع قواعد مشتركة، مناقشة “إنهاء استعمار” الذكاء الاصطناعي، ومناقشة قضية تطوير الذكاء الاصطناعي مفتوح المصدر والمزيد.

ملخص
يخلق الذكاء الاصطناعي (AI) تحديات جديدة للحوكمة. وقد أدى التقدم التقني واتساع استخدام الذكاء الاصطناعي إلى زيادة المخاوف بشأن مخاطر هذه التكنولوجيا، في حين أكد أيضا على إمكاناتها التحويلية. تستكشف هذه المجموعة المكونة من تسع مقالات مسارات نحو الذكاء الاصطناعي المسؤول، وتقترح مبادئ عامة وأفكارًا محددة لحوكمة الذكاء الاصطناعي المقاومة للمستقبل.
إن التنظيم غير الكافي للذكاء الاصطناعي حتى الآن لا يرجع إلى عدم الاعتراف بالمخاطر. أدى الصعود السريع للذكاء الاصطناعي التوليدي إلى رفع مكانة الذكاء الاصطناعي بشكل كبير في النقاش العام. وسط التوقعات الجامحة حول الشكل الذي قد يبدو عليه المستقبل الذي يهيمن عليه الذكاء الاصطناعي، كانت هناك أيضًا جهود جادة لكتابة قوانين جديدة بشأن الذكاء الاصطناعي. على سبيل المثال، ينص قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي على تدابير حماية حول استخدام البيانات البيومترية في سياقات إنفاذ القانون، ويفرض قيودًا على استخدام أنظمة الذكاء الاصطناعي في التطبيقات عالية المخاطر مثل السيارات ذاتية القيادة أو الرعاية الصحية.
لكن التنظيم يظل مجزأ، مع محدودية التنسيق أو الانسجام بين الولايات القضائية. فقانون الذكاء الاصطناعي الجديد، على سبيل المثال، مخصص للسوق الموحدة للاتحاد الأوروبي ولكنه يفتقر إلى القوة القانونية في أماكن أخرى. كما أنه يعكس نهجا أوروبيا مميزا يتعارض مع الثقافات التنظيمية وأجندات التكنولوجيا السياسية في الولايات المتحدة والصين، وهما المركزان الرئيسيان الآخران لتطوير الذكاء الاصطناعي.
والأمر الأكثر إيجابية هو أن فجوة الحوكمة العالمية تعمل على تحفيز الإبداع السياسي. تعمل معاهد سلامة الذكاء الاصطناعي على جذب المواهب الجديدة إلى مجال الحوكمة. لقد وضع مجلس أوروبا معاهدة بشأن الذكاء الاصطناعي تضع إطارًا قانونيًا ملزمًا بشأن حقوق الإنسان والديمقراطية وسيادة القانون في مجال الذكاء الاصطناعي. تم تصميم المعاهدة صراحة لتوفير نموذج للتشريعات خارج نطاق أعضاء مجلس أوروبا الستة والأربعين، حتى تتمكن الدول الأخرى من تطوير قوانين “متمايزة” مصممة خصيصًا لتناسب سياقاتها الخاصة. ومن المحتمل أن يوفر شكل الإطار وسيلة لمواكبة التغيرات التكنولوجية السريعة من خلال السماح بتطوير القوانين بشكل مستمر في المستقبل، وفقًا للمبادئ التوجيهية للمعاهدة. وعلى نطاق أوسع، قد تسمح الأنظمة التي تدعم حوكمة أكثر مرونة وديناميكية في نهاية المطاف بنشر “الإصدارات” التنظيمية بخطوات أصغر وأسرع، كما يحدث حاليًا مع تحديثات البرامج. وقد ينتهي الأمر باستخدام أنظمة الذكاء الاصطناعي نفسها لتنظيم الذكاء الاصطناعي.
وقد تكون الطريقة البديلة لتنسيق التنظيم العالمي هي إنشاء منشأة دولية لأبحاث الذكاء الاصطناعي على غرار CERN، معجل الجسيمات ومختبر الفيزياء النووية على الحدود الفرنسية السويسرية. وتتلخص الفكرة في محاكاة روح التعاون الدولي التي تتحلى بها المنظمة الأوروبية للأبحاث النووية، مما يتيح تجميع الموارد بما يتجاوز تلك المتاحة لكل دولة على حدة. وعلى وجه الخصوص، يمكن لنهج من نوع CERN أن يدعم البنية التحتية الحاسوبية الضخمة للغاية اللازمة لمعالجة كميات هائلة من البيانات للذكاء الاصطناعي. ومن الممكن أن يحفز تمويل القطاع العام، ويعزل البحوث عن الأجندات السياسية الوطنية، ويعيد توزيع المواهب بعيدا عن مختبرات الذكاء الاصطناعي الخاصة، ويقلل من الخطر الأخلاقي المحتمل المرتبط بإعطاء الشركات الخاصة دورا قياديا في تشكيل حوكمة التكنولوجيات التي تبتكرها وتبيعها.
ويسلط هذا الخطر الأخير الضوء على التوتر بين القطاعين العام والخاص، والذي يخيم على كل المناقشات المتعلقة بتنظيم الذكاء الاصطناعي تقريبا. ببساطة، سيطرت مختبرات الذكاء الاصطناعي الكبيرة مثل Anthropic وGoogle DeepMind وOpenAI على التطوير التقني للذكاء الاصطناعي. ومكمن القلق هنا هو أن هذا قد يؤدي إلى ترسيخ اختلال توازن القوى بين الهيئات التنظيمية والجهات الخاضعة للرقابة، لصالح الأخيرة ــ ولم تنجح أساليب الإدارة حتى الآن في حل هذه القضية. وقد أشارت شركات التكنولوجيا الكبرى إلى اعترافها بالمخاطر المحتملة غير المسبوقة التي يفرضها الذكاء الاصطناعي، وحرصها على المساعدة في تنظيمه المسؤول. ولكن يبقى أن نرى مدى فعالية ترجمة هذا الالتزام إلى ممارسة عملية.
تتمثل إحدى الطرق الواضحة للاستجابة لخطر الاستيلاء الخاص على الذكاء الاصطناعي في دعم بديل قابل للتطبيق في القطاع العام. لن يكون هذا بالأمر السهل، ولكن هناك سابقة تاريخية. وفي المملكة المتحدة، كان ميلاد هيئة الإذاعة البريطانية في عام 1922 بمثابة استجابة مباشرة لظهور الراديو، الذي كان في ذلك الوقت بمثابة تكنولوجيا ثورية أثارت قلق المؤسسة البريطانية. وهنا يمكن أن يأتي ما يسمى “الخيار العام” للذكاء الاصطناعي. ومن الممكن أن تبدأ شركة الذكاء الاصطناعي البريطانية المملوكة للقطاع العام (BAIC) – التي تشبه هيئة الإذاعة البريطانية للذكاء الاصطناعي – في معالجة الافتقار إلى الثقة الشعبية في الدولة. القدرة على بناء تكنولوجيا موثوقة. وسوف تحتاج إلى ميثاق ونموذج مالي “قائم على الاستخدام” يضمن استقلالها واستدامتها التجارية.
سيعتمد القبول على نطاق واسع على قيام شركة بايك بتطوير تطبيقات الذكاء الاصطناعي ذات المنفعة العامة الحقيقية: الأدوات التي تعالج المخاوف المتعلقة بالخصوصية والأمن الوظيفي والمساواة، على سبيل المثال، بدلاً من إنتاج وسائل ترفيه سطحية أو تضخيم المعلومات الخاطئة. يمكن لشركة BAIC أن تدعم القطاعات الإبداعية من خلال دفع تكاليف تدريب مجموعات البيانات بدلاً من اتباع الممارسة الشائعة المتمثلة في “تجميع” الإنترنت للحصول على البيانات. على الرغم من أن المقالة ذات الصلة في هذه المجموعة تأخذ في الاعتبار إمكانيات النشر الخاصة بالمملكة المتحدة

خيار IC AI,
ومن الممكن أن يمتد هذا النموذج إلى العديد من البلدان.
وقد يعني الذكاء الاصطناعي المسؤول أيضًا حماية مبادئ تطوير المصادر المفتوحة، فضلاً عن الشمولية والعدالة والمساواة. في الماضي، كانت الأشكال الجنينية للذكاء الاصطناعي مبنية إلى حد كبير على خطوط مفتوحة المصدر، ولكن هذا الاتجاه انعكس مؤخرًا. ويرجع ذلك جزئيًا إلى المخاوف المعلنة بشأن الأمن، حيث انتقل كبار اللاعبين في صناعة الذكاء الاصطناعي بشكل متزايد من النماذج مفتوحة المصدر إلى الأساليب المغلقة والمملوكة. ويؤكد النقاد أن الأمر يتعلق بحماية حصة السوق وتقليل المنافسة أكثر من تحسين السلامة.
أي تركيز للقوة التقنية له عدد من العيوب المحتملة. ويمكن أن يؤدي إلى التوزيع غير العادل للفوائد الاقتصادية للذكاء الاصطناعي. ويمكنه أيضًا تشجيع المركزية الثقافية غير الصحية وتجانس التكنولوجيا حول الهويات والقيم الغربية. باختصار، إذا حددت شركات التكنولوجيا في وادي السيليكون وأماكن أخرى في الغرب مسار الذكاء الاصطناعي، فمن المرجح أن يعكس الذكاء الاصطناعي تلك المجتمعات المهيمنة ويلبي احتياجاتها. إن المجتمعات والثقافات واللغات الممثلة تمثيلا ناقصا والمهمشة معرضة للتخلف عن الركب. إن العديد من مجموعات البيانات المستخدمة لتدريب الذكاء الاصطناعي تعتمد في الغالب على اللغة الإنجليزية، مع وجود خطر يتمثل في أن الأدوات الناتجة تعمل بشكل سيئ في اللغات الأخرى، وتتجاهل احتياجات الثقافات غير الناطقة باللغة الإنجليزية، وتسهل حلول الذكاء الاصطناعي التي تستبعد تلك الثقافات أو تميز ضدها. ويمكن وصف هذه الإخفاقات بأنها شكل من أشكال “استعمار” الذكاء الاصطناعي.
ومع ذلك، يمكن تصور مستقبل أكثر تفاؤلا، حيث يتم تشكيل القواعد العالمية المتعلقة بالذكاء الاصطناعي بشكل مشترك في المجال العام العالمي بالاعتماد على العديد من الثقافات وأنظمة القيم. ويجري الآن تنفيذ أعمال واعدة على مستوى القاعدة الشعبية لإضفاء الطابع الديمقراطي على الذكاء الاصطناعي، وإعطاء قدر أكبر من التركيز على الثقافات واللغات غير الغربية. أحد الأمثلة على ذلك هو BLOOM، وهو نموذج لغة كبير تم إصداره في عام 2022 ويتميز بكود مفتوح المصدر ومجموعات بيانات تدريب شفافة ونموذج إنتاج تعاوني. يعمل BLOOM بـ 46 لغة ويعتمد على بيانات “من مصادر عادلة”. في أفريقيا، بدأ مفهوم الذكاء الاصطناعي المجتمعي في الانطلاق، حيث يعمل النظام البيئي الشعبي المزدهر للذكاء الاصطناعي على إنشاء أدوات جديدة للذكاء الاصطناعي باللغات الأفريقية، ويوفر فرصًا تعليمية للمبرمجين المحليين، ويعزز رؤية غير غربية للذكاء الاصطناعي.
تحتاج الآثار الأخلاقية للذكاء الاصطناعي أيضًا إلى اعتراف أكثر وضوحًا في مجال الحوكمة. سيؤدي إطلاق الذكاء الاصطناعي إلى دمج عملية صنع القرار الآلي في العديد من مجالات حياتنا. هناك حاجة ماسة إلى أطر أخلاقية لتحديد ما ينبغي أتمتته وما لا ينبغي، ومتى تكون الرقابة البشرية على أنظمة الذكاء الاصطناعي ضرورية. إن الذكاء الاصطناعي الذي يوصي بالفيلم الذي يجب مشاهدته لا يحتاج إلى نفس الضمانات التي يحتاجها الفيلم الذي يتخذ قرار الإفراج المشروط. تتفاقم التحديات الأخلاقية بسبب طبيعة الذكاء الاصطناعي التوليدي، والتي يمكن أن تجعل من الصعب التمييز بين “الهلوسة” المقنعة للذكاء الاصطناعي وبين الواقع. إن أنظمة الذكاء الاصطناعي التي تديم التحيزات والأحكام المسبقة تجعل القرارات الآلية غير موثوقة، وخاصة إذا كانت مجموعات البيانات التي تستند إليها لا تمثل التنوع بالقدر الكافي.
في النهاية، توضح مجموعة المقالات هذه الحاجة إلى مناهج ديناميكية ومتعددة أصحاب المصلحة في الحوكمة. ولا يمكن أن يحدث التطوير المسؤول للذكاء الاصطناعي في عزلة. ولا بد من توجيهها بشكل مشترك وتعاوني، من خلال عمليات عالمية للتوفيق بين المصالح المتنافسة والاتفاق على الأولويات.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى