تتسابق الولايات المتحدة إلى الأمام في محاولتها للسيطرة على الذكاء الاصطناعي، فلماذا يتخلف الاتحاد الأوروبي عن الركب إلى هذا الحد؟ | سيث لازار

ببين مؤتمرات القمة العالمية الفاخرة، ودراما مجالس الإدارة في شركة OpenAI، والإشاعات حول الإنجازات التقنية، كان العالم يولي اهتمامًا وثيقًا مؤخرًا لحدود أبحاث الذكاء الاصطناعي. لكن في الشهر الماضي، أصدر مكتب البيت الأبيض للإدارة والميزانية (OMB) في الولايات المتحدة مذكرة حول استخدام أنظمة الذكاء الاصطناعي الأكثر بساطة في الحكومة، والتي من المرجح، في المدى القريب على الأقل، أن تكون ذات أهمية مماثلة.
بدءًا من استخدامه لتتبع المهاجرين غير الشرعيين، إلى الخوارزميات التنبؤية التي تنشرها أقسام الشرطة لمراقبة السكان وتخصيص الموارد، أصبح الذكاء الاصطناعي الآن أداة شائعة لدى حكومة الولايات المتحدة لخفض التكاليف – ولكن على حساب إخضاع الفئات الأكثر ضعفًا في المجتمع للحكم التعسفي دون اتباع الإجراءات القانونية الواجبة. ، وبنتائج تمييزية يمكن التنبؤ بها. وقد ظل الباحثون والصحفيون والناشطون يلفتون الانتباه إلى هذا الأمر منذ سنوات. تم الرد على هذه المكالمة أخيرًا.
مكتب الإدارة والميزانية هو أكبر وحدة في المكتب التنفيذي للرئيس الأمريكي. على الرغم من قلة مناقشتها، إلا أنها قوية للغاية. ويشرف على الوكالات الحكومية الأخرى، ويضمن أن أفعالها تتماشى مع برنامج الرئيس. وفي الشهر الماضي، أصدرت مديرة مكتب الإدارة والميزانية، شالاندا يونغ، مذكرة يمكن أن تحدث ثورة في استخدام الذكاء الاصطناعي في الحكومة في الولايات المتحدة.
إن السياسة المقترحة – وهي لا تزال مسودة، ويمكن تخفيفها – ستتطلب من كل إدارة تعيين مسؤول رئيسي للذكاء الاصطناعي ومطالبته بتقديم سجل لحالات استخدام الذكاء الاصطناعي الحالية. وهذا وحده يشكل فوزاً كبيراً للشفافية. ولكن بالإضافة إلى ذلك، يجب على الضابط تحديد الأنظمة التي من المحتمل أن تؤثر على سلامة الأشخاص أو حقوقهم، والتي تخضع لمزيد من القيود المهمة.
هناك متطلبات جديدة لموازنة مخاطر أنظمة الذكاء الاصطناعي على الحقوق والسلامة مقابل فوائدها المزعومة. وسيتعين على الوكالات أيضًا التحقق من جودة البيانات التي تستخدمها، ومراقبة الأنظمة عن كثب بمجرد نشرها. ومن الأهمية بمكان أن يحصل المتأثرون بأنظمة الذكاء الاصطناعي على تفسيرات بلغة واضحة حول كيفية استخدام الذكاء الاصطناعي، وإتاحة الفرصة لهم للطعن في قرارات الذكاء الاصطناعي.
قد تبدو كل هذه الخطوات واضحة، لكنها لا يتم اتخاذها حاليا، والنتيجة هي المزيد من الضرر للفئات الأكثر ضعفا في المجتمع.
ستجبر السياسة أيضًا الإدارات على التأكد بشكل فعال من أن أنظمة الذكاء الاصطناعي ستعمل على تعزيز العدالة والكرامة والعدالة في كيفية نشرها، مع لفت الانتباه إلى التحيزات غير العادلة المتأصلة في النماذج والبيانات غير التمثيلية التي يتم تدريب النماذج عليها غالبًا. ويتعين على الإدارات الحكومية أيضاً أن تتشاور مع المجموعات المتضررة قبل نشر مثل هذه الأنظمة، وتوفير خيارات للاعتبارات الإنسانية والعلاج، مما يسمح للناس بالطعن في القرارات التي تؤثر عليهم سلباً، بدلاً من الخضوع “للنقاط العمياء الخوارزمية”.
ومن المثير للإعجاب أن المذكرة تتناول أيضًا مسألة غير جذابة للغاية ولكنها مهمة تتعلق بالمشتريات الحكومية من الذكاء الاصطناعي. تبدأ العديد من المشاكل المجتمعية المرتبطة بالذكاء الاصطناعي عندما تتبنى الهيئات الحكومية عديمة الخبرة برمجيات جديدة لا تفهمها بالقدر الكافي، والتي يبالغ بائعوها في بيعها، والتي تفشل في نهاية المطاف على نحو يؤثر بشدة على الفئات الأسوأ حظاً. يعد وصف أفضل الممارسات والمطالبة بها لشراء أنظمة الذكاء الاصطناعي أحد أهم الأشياء التي يمكن للدوائر الحكومية القيام بها الآن.
مذكرة مكتب الإدارة والميزانية هي دراسة حالة في مجال البحوث وصنع السياسات بقيادة المجتمع المدني. ومن الممكن أن تتعلم المحاولات الحالية لتنظيم نماذج الذكاء الاصطناعي الحدودية (التي يمكنها أداء مجموعة واسعة من المهام، بما في ذلك معالجة اللغة والصور)، وخاصة في الاتحاد الأوروبي، شيئا ما هنا. في أوائل عام 2023، حاول برلمان الاتحاد الأوروبي، الذي فوجئ بشعبية ChatGPT، ربط اللوائح الخاصة بأنظمة الذكاء الاصطناعي الحدودية بقانون الذكاء الاصطناعي (المعيب بالفعل). في المفاوضات الثلاثية الجارية الآن – حيث يحاول البرلمان والمفوضية الأوروبية والمجلس الأوروبي التوفيق بين مقترحاتهم المختلفة بشأن القانون – قامت فرنسا وألمانيا مؤخراً وقد تم رفضها، حيث أدركت التبعات المحتملة لهذه المقترحات على شركات الذكاء الاصطناعي المحلية سريعة النمو (ميسترال وأليف ألفا على التوالي).
وكانت هذه الفوضى متوقعة. لم يكن قد تم إصدار GPT-4، وهو نموذج الذكاء الاصطناعي الحدودي الأكثر قدرة، إلا بالكاد عندما تم طرح المقترحات التنظيمية الأولى. من الصعب تنظيم مجال يشهد اختراقات بحثية متكررة. كما أن النظام البيئي لنشر هذه الأنظمة يتغير بسرعة؛ هل ستعمل شركات الذكاء الاصطناعي مثل المنصات، وتميل إلى الاحتكار أو الاحتكار الثنائي للسلطة؟ أم أنه سيكون هناك سوق تنافسي قوي لنماذج الذكاء الاصطناعي الحدودية؟ نحن لا نعرف بعد. ولم يكن هناك وقت لأبحاث المصلحة العامة لتقديم مقترحات سياسية متوازنة، أو لإجراء نقاش قوي ومبني على أسس متينة في المجتمع المدني.
بعض الأفكار المتعلقة بتنظيم الأنظمة الحدودية لا تحتاج إلى تفكير، فمن الواضح أن الاتحاد الأوروبي وغيره من البلدان يجب أن يطلبوا قدرا أكبر من الشفافية من مختبرات الذكاء الاصطناعي الرائدة، وخاصة فيما يتعلق بأي قدرات خطيرة يكشف عنها الجيل القادم من أنظمة الذكاء الاصطناعي. ولكن أبعد من ذلك، ربما يكون المسار الأكثر حكمة هو عدم استعجال الأمور، وتعزيز ذلك النوع من المناقشات في المجتمع المدني والأبحاث المتعمقة التي تؤسس لسياسات أكثر نضجا، مثل مذكرة مكتب الإدارة والميزانية.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.