الولايات المتحدة والمملكة المتحدة وعشرات الدول الأخرى تكشف النقاب عن اتفاق لجعل الذكاء الاصطناعي “آمنًا حسب التصميم” | الذكاء الاصطناعي (AI)


كشفت الولايات المتحدة والمملكة المتحدة وأكثر من اثنتي عشرة دولة أخرى يوم الأحد عما وصفه مسؤول أمريكي كبير بأنه أول اتفاق دولي مفصل حول كيفية الحفاظ على الذكاء الاصطناعي آمنًا من الجهات المارقة، مما يدفع الشركات إلى إنشاء أنظمة ذكاء اصطناعي ” آمنة حسب التصميم “.

وفي وثيقة مكونة من 20 صفحة تم الكشف عنها يوم الأحد، اتفقت الدول الـ18 على أن الشركات التي تصمم وتستخدم الذكاء الاصطناعي بحاجة إلى تطويره ونشره بطريقة تحافظ على سلامة العملاء والجمهور الأوسع من سوء الاستخدام.

الاتفاقية غير ملزمة وتحمل في الغالب توصيات عامة مثل مراقبة إساءة استخدام أنظمة الذكاء الاصطناعي وحماية البيانات من التلاعب وفحص موردي البرامج.

ومع ذلك، قالت مديرة وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية، جين إيسترلي، إنه من المهم أن تضع العديد من الدول أسماءها على فكرة أن أنظمة الذكاء الاصطناعي بحاجة إلى وضع السلامة في المقام الأول.

وقال إيسترلي: “هذه هي المرة الأولى التي نرى فيها تأكيدًا على أن هذه القدرات لا ينبغي أن تقتصر فقط على الميزات الرائعة ومدى السرعة التي يمكننا بها طرحها في السوق أو كيف يمكننا التنافس لخفض التكاليف”، مضيفًا أن المبادئ التوجيهية تمثل “الاتفاق على أن أهم شيء يجب القيام به في مرحلة التصميم هو الأمن”.

وهذه الاتفاقية هي الأحدث في سلسلة من المبادرات ــ القليل منها فعال ــ من جانب الحكومات في جميع أنحاء العالم لتشكيل تطور الذكاء الاصطناعي، الذي أصبح ثقله محسوساً بشكل متزايد في الصناعة والمجتمع ككل. وعقدت المملكة المتحدة قمة حول الذكاء الاصطناعي في أواخر الشهر الماضي.

وبالإضافة إلى الولايات المتحدة وبريطانيا، فإن الدول الـ 18 التي وقعت على المبادئ التوجيهية الجديدة هي ألمانيا وإيطاليا وجمهورية التشيك وإستونيا وبولندا وأستراليا وتشيلي وإسرائيل ونيجيريا وسنغافورة.

يتناول إطار العمل أسئلة حول كيفية منع اختطاف تكنولوجيا الذكاء الاصطناعي من قبل المتسللين ويتضمن توصيات مثل إطلاق النماذج فقط بعد اختبار الأمان المناسب.

فهو لا يتناول الأسئلة الشائكة حول الاستخدامات المناسبة للذكاء الاصطناعي، أو كيفية جمع البيانات التي تغذي هذه النماذج.

وقد أدى ظهور الذكاء الاصطناعي إلى تغذية مجموعة من المخاوف، بما في ذلك الخوف من إمكانية استخدامه لتعطيل العملية الديمقراطية، أو تحفيز الاحتيال أو التسبب في خسارة الوظائف بشكل كبير، من بين أضرار أخرى.

تتقدم أوروبا على الولايات المتحدة فيما يتعلق باللوائح المتعلقة بالذكاء الاصطناعي، حيث يقوم المشرعون هناك بصياغة قواعد الذكاء الاصطناعي. كما توصلت فرنسا وألمانيا وإيطاليا مؤخرا إلى اتفاق حول كيفية تنظيم الذكاء الاصطناعي على نحو يدعم “التنظيم الذاتي الإلزامي من خلال مدونات قواعد السلوك” لما يسمى النماذج الأساسية للذكاء الاصطناعي، والتي تم تصميمها لإنتاج مجموعة واسعة من النواتج.

وكانت إدارة بايدن تضغط على المشرعين من أجل تنظيم الذكاء الاصطناعي، لكن الكونجرس الأمريكي المستقطب لم يحرز تقدما يذكر في إقرار التنظيم الفعال.

وسعى البيت الأبيض إلى الحد من مخاطر الذكاء الاصطناعي التي يتعرض لها المستهلكون والعمال والأقليات مع تعزيز الأمن القومي بأمر تنفيذي جديد في أكتوبر/تشرين الأول.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى