خطة الذكاء الاصطناعي لريشي سوناك ليس لها أي قوة – ومرة ​​أخرى، شركات التكنولوجيا الكبرى جاهزة لاستغلال ذلك | جورج ريكليس وماكس فون ثون


تفي شهره هذا، جمع رئيس الوزراء البريطاني ريشي سوناك ممثلين حكوميين وشركات الذكاء الاصطناعي وخبراء في بلتشلي بارك ــ الموطن التاريخي لتحليل الشفرات للحلفاء خلال الحرب العالمية الثانية ــ لمناقشة كيفية نشر التكنولوجيا التي حظيت بتغطية إعلامية كبيرة بأمان.

وقد تعرضت القمة لانتقادات محقة لعدد من الأسباب، بما في ذلك إعطاء الأولوية للمدخلات من شركات التكنولوجيا الكبرى على أصوات المجتمع المدني، والتركيز على المخاطر الوجودية البعيدة الاحتمال على حساب الأضرار اليومية الملموسة. ولكن الفشل الأكبر الذي منيت به القمة ـ والذي كان في حد ذاته نتيجة مباشرة لتلك التحيزات ـ هو أنها لم يكن لديها ما تقوله عن كبح جماح الشركات المهيمنة التي تشكل التهديد الأعظم لسلامتنا.

تتألف “الإنجازات” الرئيسية للقمة من بيان مشترك غامض يحذر من المخاطر الناجمة عن ما يسمى نماذج الذكاء الاصطناعي الحدودية ويدعو إلى “حوار عالمي شامل” بالإضافة إلى اتفاق (طوعي بالكامل) بين الحكومات وشركات الذكاء الاصطناعي الكبرى بشأن اختبارات السلامة. ومع ذلك، لا يتمتع أي من هذه التدابير بأي قوة حقيقية، والأسوأ من ذلك أنها تمنح الشركات القوية مقعدًا متميزًا على الطاولة عندما يتعلق الأمر بتشكيل المناقشة حول تنظيم الذكاء الاصطناعي.

تعمل شركات التكنولوجيا الكبرى حاليًا على الترويج لفكرة مفادها أن سيطرتها الحصرية على نماذج الذكاء الاصطناعي هي السبيل الوحيد لحماية المجتمع من الأضرار الجسيمة. وعلى حد تعبير رسالة مفتوحة وقعها 1500 من ممثلي المجتمع المدني، فإن قبول هذه الفرضية هو “ساذج في أحسن الأحوال، وخطير في أسوأ الأحوال”.

إن الحكومات الجادة حقاً في ضمان استخدام الذكاء الاصطناعي لتحقيق الصالح العام سوف تتبع نهجاً مختلفاً تماماً. فبدلاً من بيانات النوايا النبيلة والصفقات الخلفية مع الصناعة، فإن المطلوب حقاً هو اتخاذ تدابير صارمة تستهدف قوة الشركات ذاتها. إن التنفيذ الصارم لسياسة المنافسة والالتزامات التنظيمية الصارمة المفروضة على حراس البوابات المهيمنين أمر أساسي.

في الوقت الحالي، استخدمت حفنة من عمالقة التكنولوجيا احتكارهم الجماعي لقوة الحوسبة والبيانات والخبرة الفنية للاستفادة من الميزة عندما يتعلق الأمر بنماذج أسس الذكاء الاصطناعي واسعة النطاق. وهي عبارة عن نماذج تم تدريبها على كميات كبيرة من البيانات التي يمكن تكييفها مع مجموعة واسعة من المهام، على عكس تطبيقات الذكاء الاصطناعي المصممة لغرض محدد في الاعتبار. الشركات الصغيرة التي لا تستطيع الوصول إلى هذه الموارد النادرة تجد نفسها توقع صفقات أحادية الجانب مع (أو يتم الاستحواذ عليها من قبل) لاعبين أكبر للوصول إليها. ومن بين الأمثلة الأكثر شهرة استحواذ جوجل على شركة Deepmind و”الشراكة” التي أبرمتها شركة OpenAI بقيمة 13 مليار دولار مع مايكروسوفت، ولكنها ليست الوحيدة.

ويهيمن عمالقة التكنولوجيا أيضًا على العديد من الأسواق الأخرى (بما في ذلك محركات البحث والحوسبة السحابية والمتصفحات)، والتي يمكنهم استغلالها لتقييد المستخدمين بنماذج وخدمات الذكاء الاصطناعي الخاصة بهم. ومع تزايد عدد الأشخاص الذين ينجذبون ويقدمون البيانات لعدد قليل من نماذج وخدمات الذكاء الاصطناعي، فإن تأثيرات الشبكة ووفورات الحجم من شأنها أن تعمل على تضخيم هذه الميزة الأولية الكبيرة بشكل أكبر.

وفي لغة الاقتصاديين، هذا سوق عرضة للقلب. ومن شأن السوق المركزة لنماذج المؤسسات أن يسمح لحفنة من الشركات المهيمنة بتوجيه اتجاه وسرعة ابتكار الذكاء الاصطناعي، وتمكينها من استغلال وابتزاز والتلاعب بالعديد من الشركات والمبدعين والعمال والمستهلكين الذين يعتمدون على خدماتها وبنيتها التحتية.

باختصار: يعمل الفائزون في مجال التكنولوجيا بالأمس الآن على توسيع وتعزيز قبضتهم الاحتكارية من خلال الذكاء الاصطناعي. ولا ينبغي للحكومات أن تكون متواطئة في ذلك. وربما تكون سلطات مكافحة الاحتكار قد فشلت في منع احتكار التكنولوجيات الرقمية في الماضي، ولكن سياسة المنافسة ــ إذا تم تنفيذها بفعالية ــ تلعب دوراً رئيسياً في معالجة تركز الذكاء الاصطناعي.

ويتعين على سلطات المنافسة أن تستخدم صلاحياتها الحالية لمراقبة عمليات الاستحواذ، والكارتلات، والسلوك الاحتكاري لمنع حفنة من حراس البوابات الرقمية من الانفلات في سعيهم لتحقيق أرباح متزايدة. ويتطلب هذا الآن التحقيق في الصفقات المناهضة للمنافسة بين شركات التكنولوجيا الكبرى وشركات الذكاء الاصطناعي الناشئة، وتفكيكها عند الضرورة، ومنع حراس البوابات الرقمية من الاستفادة من سيطرتهم على المنصات المهيمنة، كما هو الحال في البحث والحوسبة السحابية، لترسيخ قبضتهم على الذكاء الاصطناعي.

ومع ذلك، من المهم أيضًا أن ندرك أنه حتى في السوق التنافسية، سيكون عدد مقدمي النماذج واسعة النطاق محدودًا، نظرًا للموارد المطلوبة لتدريب ونشر مثل هذه النماذج. وهنا يجب أن يتدخل التنظيم لفرض مسؤوليات غير مسبوقة على الشركات المهيمنة.

مع اكتساب الذكاء الاصطناعي دورًا أكبر في صنع القرار في المجتمع، أصبحت السلامة والموثوقية والعدالة والمساءلة أمرًا بالغ الأهمية. يمكن لأنظمة الذكاء الاصطناعي إدامة التحيزات من مجموعات البيانات الأساسية أو التدريب، وتوليد استجابات تبدو معقولة ولكنها خاطئة تُعرف باسم “الهلوسة”. وإذا تم نشرها من قبل أشخاص ذوي نوايا خبيثة، فيمكن استخدامها أيضًا لإنشاء دعاية مقنعة والتجسس على العمال والتلاعب بالأفراد أو التمييز ضدهم.

وتكون هذه الأضرار خطيرة بشكل خاص عندما تنبع من نموذج أساسي بسبب التأثيرات المتتالية في الاستخدامات النهائية. وبالتالي فإن التحيزات أو الأخطاء أو التمييز أو التلاعب أو القرارات التعسفية تشكل مخاطر فريدة على مستوى المؤسسة.

ويتنافس الاتحاد الأوروبي حاليًا ليصبح أول سلطة عالمية تطرح قواعد ملزمة للذكاء الاصطناعي تفرض التزامات على الاستخدامات المختلفة للذكاء الاصطناعي وفقًا للمخاطر. ومع ذلك، فإن قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي يواجه صعوبات في مواكبة التهديد الذي يشكله النموذج الأساسي.

تخطي ترويج النشرة الإخبارية السابقة

حاليًا، يفكر المشرعون في الاتحاد الأوروبي في فرض مجموعة جديدة من الالتزامات المتدرجة على مقدمي نماذج المؤسسات. ومن بين أمور أخرى، قد يُطلب من هؤلاء مقدمي الخدمات تبادل المعلومات مع الهيئات التنظيمية بشأن عمليات التدريب (بما في ذلك استخدام البيانات الحساسة والمحمية بحقوق الطبع والنشر) والخضوع لمراجعة المخاطر النظامية.

وهذا من شأنه أن يقطع شوطًا نحو التخفيف من مخاطر الذكاء الاصطناعي. ولكن علاوة على ذلك، ونظرا لدورها المركزي في النظام البيئي للذكاء الاصطناعي، يجب إعطاء الشركات المهيمنة التي تقدم نماذج واسعة النطاق مسؤوليات شاملة صارمة للتصرف بشكل عادل وبما يخدم المصلحة العامة.

وتتمثل إحدى الطرق لتحقيق هذه الغاية، استناداً إلى الأفكار التي طورها جاك بالكين في كلية الحقوق بجامعة ييل ولويجي زينجاليس في جامعة شيكاغو، في فرض عدد معين من الواجبات الائتمانية على مقدمي GPAI. إن الواجب الائتماني هو أعلى مستوى من الرعاية في القانون ويعني الالتزام قانونيًا وأخلاقيًا بالعمل لصالح الآخرين.

ويستلزم النهج البديل أو التكميلي تعيين حراس البوابات الرقمية كمرافق عامة (أو “شركات نقل عامة” في المصطلحات الأمريكية)، ومكلفين بمعاملة عملائهم بشكل عادل وضمان السلامة التشغيلية. ومن الممكن تطبيق هذا الوضع القانوني على كل من النماذج الأساسية التي بنيت عليها تطبيقات الذكاء الاصطناعي والبنية التحتية للحوسبة السحابية التي تستضيفها. ويشكل قانون الأسواق الرقمية في الاتحاد الأوروبي، الذي يفرض التزامات مؤيدة للمنافسة على شركات التكنولوجيا المهيمنة، أحد السبل المحتملة لتحقيق هذه الغاية.

والأمر الواضح للغاية هو أننا لا نستطيع أن نثق في التنظيم الذاتي من جانب الشركات الفردية، ناهيك عن شركات التكنولوجيا الكبرى، لضمان السلامة والانفتاح في الذكاء الاصطناعي. ولن يتسنى لنا تحقيق وعد هذه التكنولوجيا الناشئة ــ والتخفيف من مخاطرها ــ إلا من خلال معالجة القوة الاحتكارية، وضمان أن القوة تأتي مصحوبة بالمسؤولية.

  • جورج ريكليس هو المدير المساعد لمركز السياسة الأوروبية، وهو مركز أبحاث مستقل مقره في بروكسل. ماكس فون ثون هو مدير أوروبا والشراكات عبر الأطلسي في معهد الأسواق المفتوحة، وهو مركز أبحاث لمكافحة الاحتكار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى