لقد حققت أوروبا قفزة كبيرة إلى الأمام في تنظيم الذكاء الاصطناعي. والآن يجب على بقية العالم أن يكثف جهوده | ديفيد إيفان هاريس


تإن قوانين الذكاء الاصطناعي في الاتحاد الأوروبي ــ والتي أعلن الزعماء أخيرا أنه تم الاتفاق عليها في منتصف ليل السبت تقريبا ــ تسير على الطريق الصحيح لتطغى بالكامل على إعلان بلتشلي البريطاني الذي صدر قبل ستة أسابيع بشأن الذكاء الاصطناعي. لم يتم الانتهاء من نص الاتفاقية بشأن مجموعة من القوانين الشاملة لتنظيم الذكاء الاصطناعي، وسوف نجد الكثير من الشياطين في التفاصيل، ولكن وصوله الوشيك يشير إلى تغيير جذري في الكيفية التي يمكن بها للديمقراطية توجيه الذكاء الاصطناعي نحو المصلحة العامة.

كان إعلان بلتشلي بمثابة إنجاز كبير، خاصة لأنه جمع دولًا مثل الصين والمملكة العربية السعودية والإمارات العربية المتحدة للاتفاق على بيان رسمي حول تنظيم الذكاء الاصطناعي. المشكلة هي أن الأمر كان مجرد بيان، دون سلطة قانونية أو آلية تنفيذ. والآن يتخذ الاتحاد الأوروبي إجراءات لفرض متطلبات قانونية صارمة على مطوري الذكاء الاصطناعي، والأمر متروك للدول الأخرى لتكثيف اللغز وإكماله.

وكانت العقبة الأخيرة التي أزالها المفاوضون في نهاية الأسبوع هي مسألة استخدامات الذكاء الاصطناعي التي سيتم حظرها بشكل كامل. تشمل الممارسات المحظورة “التلاعب السلوكي المعرفي” – وهو مصطلح واسع يشير إلى التقنيات التي تفسر السلوكيات والتفضيلات بهدف التأثير على قراراتنا. وهي تشمل أيضًا “الاستخلاص غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة”، وهي ممارسة تستخدمها بالفعل بعض الشركات التي تبيع قواعد البيانات المستخدمة للمراقبة؛ “التعرف على المشاعر في مكان العمل والمؤسسات التعليمية”، والذي يمكن أن تستخدمه الشركات لتأديب الموظفين أو تصنيفهم أو الإدارة التفصيلية لهم؛ و”التقييم الاجتماعي”، وهو أداة مراقبة بائسة تستخدم في الصين لتقييم الأفراد في الأنشطة اليومية وتخصيص (أو حجب) “الرصيد الاجتماعي” منهم؛ “التصنيف البيومتري”، وهي ممارسة تستخدم فيها خصائص مثل لون البشرة أو بنية الوجه للتوصل إلى استنتاجات حول الجنس، أو التوجه الجنسي، أو حتى احتمالية ارتكاب جريمة؛ و”بعض حالات العمل الشرطي التنبؤي للأفراد”، والتي ثبت بالفعل أن لها آثار تمييزية عنصرية.

لكن لا تتنفس الصعداء بعد. وبنفس الطريقة التي تعتبر بها أزمة المناخ مشكلة عالمية ولا يمكن حلها إلا إذا قامت جميع البلدان بتخفيض الانبعاثات، فإن الذكاء الاصطناعي عالمي بطبيعته، ولا يمكن السيطرة عليه إلا من خلال العديد من الدول التي تعمل معًا. يمكن لأنظمة “الذكاء الاصطناعي للأغراض العامة” (GPAI) القوية، مثل النظام الأساسي لـ ChatGPT، أن تنتج حملات تضليل وتلاعب شخصية، وصورًا حميمة غير توافقية (NCII، والتي تُعرف أحيانًا باسم المواد الإباحية المزيفة بعمق) وحتى تصميمات للأسلحة البيولوجية.

إذا قام جزء من العالم بتنظيم هذه الأدوات، ثم قام جزء آخر بإصدار نسخ “مفتوحة المصدر” غير آمنة من هذه الأدوات والتي يمكن للجهات الفاعلة السيئة استخدامها كسلاح حسب رغبتها، فإن العالم بأكمله قد يعاني من العواقب. يمكن أن تشمل هذه الجهات الفاعلة السيئة وكالة الاستخبارات العسكرية الروسية، أو GRU، أو المرتزقة الرقميين (مزارع القزم المستأجرة) الذين قد لا يملكون الأموال أو التكنولوجيا اللازمة لصنع نماذجهم العالمية الخاصة، ولكن يمكنهم الحصول على أدوات الذكاء الاصطناعي القوية المصممة بدون الحاجة إلى استخدام أدوات الذكاء الاصطناعي. هذه الضمانات واستخدامها لمحاولة التلاعب بالانتخابات في جميع أنحاء العالم.

من المؤسف أن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي ليس مثاليا. ورغم أنها تضع لوائح تنظيمية قوية جديرة بالثناء بشأن GPAI، بما في ذلك الأنظمة “مفتوحة المصدر”، إلا أنها لا تزال هناك ثغرات. إذا تم استخدام أدوات الذكاء الاصطناعي مثل تطبيقات “خلع الملابس” لإنشاء NCII، فيبدو أن المسؤولية يمكن أن تقع فقط على المستخدم الفردي الذي ينشئ هذا المحتوى، وليس على مطور نظام الذكاء الاصطناعي الذي أنشأه، وفقًا لأحد مسؤولي المفوضية الأوروبية الذين تحدثت إليهم. أفضل أن يتم منع المطورين من توزيع الأدوات القادرة على التسبب في مثل هذا الضرر الذي لا يمكن إصلاحه، خاصة عندما يكون الأطفال جناة وضحايا في نفس الوقت.

مصدر قلق آخر هو أن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي لن يدخل حيز التنفيذ بشكل كامل حتى عام 2026 على الأقل. سيتم تطبيق بعض أجزاء منه في وقت أقرب، وهو مصمم ليكون “دليلًا على المستقبل”، لكن تقنية الذكاء الاصطناعي تتحسن بسرعة كبيرة لدرجة أن هناك احتمال قوي أن التكنولوجيا سوف تتفوق على التشريعات. وهذا خطر أكبر إذا وقف الاتحاد الأوروبي بمفرده في تشريع الذكاء الاصطناعي.

كان إعلان بلتشلي، الذي صدر عن القمة الأولى لسلامة الذكاء الاصطناعي، جزءًا مهمًا من سلسلة من الجهود الموازية الجارية داخل مجموعة السبع ومجموعة العشرين والأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية. ومن المقرر عقد قمم متابعة حول سلامة الذكاء الاصطناعي في كوريا الجنوبية وفرنسا في عام 2024.

وفيما يلي أهم اللوائح الملزمة التي تحتاج هذه القمم وعمليات الحوكمة الموازية إلى وضعها موضع التنفيذ. 1) التأكيد على حظر الاستخدامات الموضحة أعلاه. 2) تنظيم أنظمة الذكاء الاصطناعي عالية المخاطر بشكل صارم بما في ذلك GPAI، مما يتطلب تقييمات شاملة للمخاطر والاختبارات والتخفيفات. 3) مطالبة الشركات بتأمين أنظمة GPAI عالية المخاطر وعدم إصدارها بموجب تراخيص “مفتوحة المصدر” ما لم يقرر خبراء مستقلون أنها آمنة. 4) إلقاء المسؤولية بشكل واضح على مطوري أنظمة GPAI وكذلك القائمين على نشرها عن الأضرار التي يسببونها. 5) اشتراط وضع “علامة مائية” على المحتوى الناتج عن الذكاء الاصطناعي بحيث يمكن للمستهلكين العاديين وكذلك الخبراء اكتشافه بسهولة. 6) احترام حقوق الطبع والنشر للمبدعين مثل المؤلفين والفنانين عند تدريب أنظمة الذكاء الاصطناعي. وأخيرًا، 7)، فرض الضرائب على شركات الذكاء الاصطناعي واستخدام الإيرادات لحماية المجتمع من أي أضرار يسببها الذكاء الاصطناعي، بدءًا من المعلومات المضللة وحتى فقدان الوظائف.

إن ضمان تطوير الذكاء الاصطناعي بطرق تخدم المصلحة العامة مهمة ضخمة تتطلب مشاركة المواطنين والحكومات في جميع أنحاء العالم. لقد حان الوقت للجميع، في كل مكان، للتعلم حول مخاطر وفوائد الذكاء الاصطناعي، ومطالبة ممثليكم المنتخبين بأخذ تهديداته على محمل الجد. لقد بدأ الاتحاد الأوروبي بداية جيدة؛ الآن يحتاج بقية العالم إلى سن تشريعات ملزمة لجعل الذكاء الاصطناعي يخدمك أنت ومجتمعك.

  • ديفيد إيفان هاريس هو باحث عام لدى مستشار جامعة كاليفورنيا في بيركلي، وزميل أول في مركز ابتكار الحوكمة الدولية، وزميل أبحاث أول في المعهد الدولي لعلوم الكمبيوتر وزميل زائر في معهد النزاهة.


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading