يجب أن تتحمل شركات الذكاء الاصطناعي المسؤولية عن الضرر الذي تسببه، كما يقول “عرابو” التكنولوجيا | الذكاء الاصطناعي (AI)
حذرت مجموعة من كبار الخبراء، من بينهم “عرابان” للتكنولوجيا، من أن أنظمة الذكاء الاصطناعي القوية تهدد الاستقرار الاجتماعي، ويجب أن تتحمل شركات الذكاء الاصطناعي المسؤولية عن الأضرار التي تسببها منتجاتها.
وجاء مداخلة يوم الثلاثاء في الوقت الذي يستعد فيه السياسيون الدوليون وشركات التكنولوجيا والأكاديميون وشخصيات المجتمع المدني للتجمع في بلتشلي بارك الأسبوع المقبل لحضور قمة حول سلامة الذكاء الاصطناعي.
قال أحد المؤلفين المشاركين في مقترحات السياسة المقدمة من 23 خبيرًا، إنه “من التهور التام” متابعة أنظمة الذكاء الاصطناعي الأكثر قوة قبل فهم كيفية جعلها آمنة.
وقال ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي: “لقد حان الوقت للتعامل بجدية مع أنظمة الذكاء الاصطناعي المتقدمة”. “هذه ليست ألعاب. إن زيادة قدراتهم قبل أن نفهم كيفية جعلهم آمنين هو أمر متهور تمامًا”.
وأضاف: “هناك لوائح بشأن محلات الساندويتشات أكثر من تلك المفروضة على شركات الذكاء الاصطناعي”.
وحثت الوثيقة الحكومات على تبني مجموعة من السياسات، بما في ذلك:
وتخصص الحكومات ثلث تمويلها للبحث والتطوير في مجال الذكاء الاصطناعي، وتخصص الشركات ثلث مواردها للبحث والتطوير في مجال الذكاء الاصطناعي، للاستخدام الآمن والأخلاقي للأنظمة.
منح المدققين المستقلين إمكانية الوصول إلى مختبرات الذكاء الاصطناعي.
إنشاء نظام ترخيص لبناء النماذج المتطورة.
ويجب على شركات الذكاء الاصطناعي أن تتبنى تدابير سلامة محددة إذا تم العثور على قدرات خطيرة في نماذجها.
جعل شركات التكنولوجيا مسؤولة عن الأضرار المتوقعة والتي يمكن الوقاية منها من أنظمة الذكاء الاصطناعي الخاصة بها.
ومن بين المؤلفين الآخرين للوثيقة جيفري هينتون ويوشوا بينجيو، وهما اثنان من “عرابي الذكاء الاصطناعي” الثلاثة، اللذين فازا بجائزة ACM Turing – المعادل لجائزة نوبل في علوم الكمبيوتر – في عام 2018 عن عملهما في مجال الذكاء الاصطناعي.
وكلاهما من بين 100 ضيف تمت دعوتهم لحضور القمة. واستقال هينتون من جوجل هذا العام ليطلق تحذيرًا بشأن ما أسماه “الخطر الوجودي” الذي يشكله الذكاء الرقمي، بينما انضم إليه بينجيو، أستاذ علوم الكمبيوتر في جامعة مونتريال، وآلاف الخبراء الآخرين في توقيع رسالة في مارس/آذار. الدعوة إلى وقف تجارب الذكاء الاصطناعي العملاقة.
ومن بين المؤلفين المشاركين الآخرين في المقترحات مؤلف كتاب Sapiens الأكثر مبيعًا، نوح يوفال هراري، ودانييل كانيمان، الحائز على جائزة نوبل في الاقتصاد، وشيلا ماكلريث، أستاذة الذكاء الاصطناعي في جامعة تورنتو، بالإضافة إلى عالم الكمبيوتر الصيني الحائز على جوائز. أندي ياو.
وحذر المؤلفون من أن أنظمة الذكاء الاصطناعي التي تم تطويرها بلا مبالاة تهدد “بتضخيم الظلم الاجتماعي، وتقويض مهننا، وتقويض الاستقرار الاجتماعي، وتمكين الأنشطة الإجرامية أو الإرهابية واسعة النطاق، وإضعاف فهمنا المشترك للواقع الذي يعد أساسًا للمجتمع”.
وحذروا من أن أنظمة الذكاء الاصطناعي الحالية تظهر بالفعل علامات على قدرات مثيرة للقلق تشير إلى الطريق لظهور أنظمة مستقلة يمكنها التخطيط والسعي لتحقيق الأهداف و”العمل في العالم”. وقال الخبراء إن نموذج GPT-4 AI الذي يشغل أداة ChatGPT، والذي طورته شركة OpenAI الأمريكية، تمكن من تصميم وتنفيذ تجارب كيميائية، وتصفح الويب واستخدام أدوات برمجية بما في ذلك نماذج الذكاء الاصطناعي الأخرى.
“إذا قمنا ببناء ذكاء اصطناعي مستقل ومتطور للغاية، فإننا نخاطر بإنشاء أنظمة تسعى بشكل مستقل إلى تحقيق أهداف غير مرغوب فيها”، مضيفًا “قد لا نكون قادرين على إبقائها تحت السيطرة”.
وتشمل توصيات السياسة الأخرى الواردة في الوثيقة ما يلي: الإبلاغ الإلزامي عن الحوادث التي تظهر فيها النماذج سلوكًا مثيرًا للقلق؛ ووضع تدابير لمنع النماذج الخطيرة من تكرار نفسها؛ ومنح الهيئات التنظيمية القدرة على إيقاف تطوير نماذج الذكاء الاصطناعي التي تظهر سلوكيات خطيرة.
وستركز قمة السلامة الأسبوع المقبل على التهديدات الوجودية التي يشكلها الذكاء الاصطناعي، مثل المساعدة في تطوير أسلحة بيولوجية جديدة والتهرب من السيطرة البشرية. تعمل حكومة المملكة المتحدة مع مشاركين آخرين على بيان من المتوقع أن يؤكد على حجم التهديد الذي يشكله الذكاء الاصطناعي الحدودي – وهو مصطلح الأنظمة المتقدمة. ومع ذلك، في حين أن القمة ستحدد المخاطر الناجمة عن الذكاء الاصطناعي والتدابير اللازمة لمكافحة هذا التهديد، فمن غير المتوقع أن تنشئ هيئة تنظيمية عالمية رسميًا.
يرى بعض خبراء الذكاء الاصطناعي أن المخاوف بشأن التهديد الوجودي للبشر مبالغ فيها. قال يان ليكون، الفائز الآخر بجائزة تورينج لعام 2018 إلى جانب بينجيو وهينتون، وهو الآن كبير علماء الذكاء الاصطناعي في شركة ميتا التابعة لمارك زوكربيرج والذي يحضر القمة أيضًا، لصحيفة فايننشال تايمز إن فكرة قدرة الذكاء الاصطناعي على إبادة البشر هي فكرة “منافية للعقل”.
ومع ذلك، يرى مؤلفو وثيقة السياسة أنه إذا ظهرت أنظمة الذكاء الاصطناعي المستقلة المتقدمة الآن، فلن يعرف العالم كيفية جعلها آمنة أو إجراء اختبارات السلامة عليها. وأضافوا: “حتى لو فعلنا ذلك، فإن معظم البلدان تفتقر إلى المؤسسات اللازمة لمنع سوء الاستخدام ودعم الممارسات الآمنة”.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.