يحذر الخبراء من أن الذكاء الاصطناعي يحذر من يوم القيامة، وهو ما يصرف الانتباه عن الخطر الذي يشكله بالفعل | الذكاء الاصطناعي (AI)


يعد التركيز على سيناريوهات يوم القيامة في الذكاء الاصطناعي بمثابة إلهاء يقلل من المخاطر المباشرة مثل توليد المعلومات الخاطئة على نطاق واسع، وفقًا لشخصية بارزة في الصناعة حضرت قمة سلامة الذكاء الاصطناعي هذا الأسبوع.

وقال إيدان جوميز، المؤلف المشارك لورقة بحثية ساعدت في إنشاء التكنولوجيا وراء روبوتات الدردشة، إن المخاطر طويلة المدى مثل التهديدات الوجودية للإنسانية من الذكاء الاصطناعي يجب “دراستها ومتابعتها”، لكنها قد تصرف السياسيين عن التعامل مع المخاطر المباشرة المحتملة. ضرر.

وقال: “أعتقد أنه فيما يتعلق بالمخاطر الوجودية والسياسة العامة، لا ينبغي إجراء محادثة مثمرة”. “فيما يتعلق بالسياسة العامة والمكان الذي ينبغي أن نركز فيه على القطاع العام – أو محاولة التخفيف من المخاطر التي يتعرض لها السكان المدنيون – أعتقد أن ذلك يشكل إلهاءً، بعيدًا عن المخاطر الملموسة والفورية”.

ويحضر جوميز القمة التي تستمر يومين، والتي تبدأ يوم الأربعاء، بصفته الرئيس التنفيذي لشركة Cohere، وهي شركة في أمريكا الشمالية تصنع أدوات الذكاء الاصطناعي للشركات بما في ذلك روبوتات الدردشة. في عام 2017، عندما كان جوميز في العشرين من عمره، كان جزءًا من فريق من الباحثين في Google الذين أنشأوا Transformer، وهي تقنية رئيسية وراء نماذج اللغة الكبيرة التي تعمل على تشغيل أدوات الذكاء الاصطناعي مثل برامج الدردشة الآلية.

وقال جوميز إن الذكاء الاصطناعي – وهو المصطلح الذي يشير إلى أنظمة الكمبيوتر التي يمكنها أداء المهام المرتبطة عادةً بالكائنات الذكية – كان بالفعل مستخدمًا على نطاق واسع وهذه التطبيقات هي التي يجب أن تركز عليها القمة. لقد أذهلت روبوتات الدردشة مثل ChatGPT ومولدات الصور مثل Midjourney الجمهور بقدرتها على إنتاج نصوص وصور معقولة من خلال مطالبات نصية بسيطة.

“هذه التكنولوجيا موجودة بالفعل في مليار منتج مستخدم، كما هو الحال في جوجل وغيرها. وقال جوميز: “يمثل ذلك مجموعة من المخاطر الجديدة التي يجب مناقشتها، ليس أي منها وجوديًا، ولا يمثل أي منها سيناريوهات يوم القيامة”. “يجب أن نركز بشكل مباشر على الأجزاء التي على وشك التأثير على الناس أو التي تؤثر بشكل فعال على الناس، بدلاً من المناقشة الأكاديمية والنظرية حول المستقبل على المدى الطويل.”

وقال جوميز إن المعلومات الخاطئة – انتشار المعلومات المضللة أو غير الصحيحة عبر الإنترنت – كانت مصدر قلقه الرئيسي. وقال: “إن المعلومات المضللة هي التي تتصدر اهتماماتي”. “هؤلاء [AI] يمكن للنماذج إنشاء وسائط مقنعة للغاية، ومقنعة للغاية، ولا يمكن تمييزها فعليًا عن النصوص أو الصور أو الوسائط التي أنشأها الإنسان. وهذا شيء نحتاج إلى معالجته بشكل عاجل. نحن بحاجة إلى معرفة كيف سنمنح الجمهور القدرة على التمييز بين هذه الأنواع المختلفة من وسائل الإعلام.

أمثلة على الأعمال الفنية التي تم إنشاؤها مؤخرًا باستخدام أدوات الذكاء الاصطناعي ونشرها على وسائل التواصل الاجتماعي. مركب: الذكاء الاصطناعي عبر مستخدمي تويتر Pop Base/Eliot Higgins/Cam Harless

وسيتضمن اليوم الافتتاحي للقمة مناقشات حول مجموعة من قضايا الذكاء الاصطناعي، بما في ذلك المخاوف المتعلقة بالمعلومات المضللة مثل تعطيل الانتخابات وتآكل الثقة الاجتماعية. وسيناقش اليوم الثاني، الذي سيضم مجموعة أصغر من الدول والخبراء والمديرين التنفيذيين في مجال التكنولوجيا بدعوة من ريشي سوناك، الخطوات الملموسة التي يمكن اتخاذها لمعالجة مخاطر الذكاء الاصطناعي. وستكون كامالا هاريس، نائبة الرئيس الأمريكي، من بين الحاضرين.

وقال جوميز، الذي وصف القمة بأنها “مهمة حقًا”، إنه “معقول جدًا” بالفعل أن جيشًا من الروبوتات – وهي برمجيات تؤدي مهام متكررة، مثل النشر على وسائل التواصل الاجتماعي – يمكنها نشر معلومات مضللة ناتجة عن الذكاء الاصطناعي. وقال: “إذا تمكنت من فعل ذلك، فهذا تهديد حقيقي للديمقراطية وللحوار العام”.

وفي سلسلة من الوثائق التي تحدد مخاطر الذكاء الاصطناعي الأسبوع الماضي، والتي تضمنت معلومات مضللة ناتجة عن الذكاء الاصطناعي وتعطيل سوق العمل، قالت الحكومة إنها لا تستطيع استبعاد وصول تطوير الذكاء الاصطناعي إلى نقطة تهدد فيها الأنظمة البشرية.

وجاء في ورقة بحثية نُشرت الأسبوع الماضي: “نظرًا لعدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، لا توجد أدلة كافية لاستبعاد أن أنظمة الذكاء الاصطناعي ذات القدرة العالية، إذا تم ضبطها بشكل غير صحيح أو لم يتم التحكم فيها بشكل كافٍ، يمكن أن تشكل تهديدًا وجوديًا”.

وأضافت الوثيقة أن العديد من الخبراء اعتبروا أن مثل هذا الخطر منخفض للغاية وأنه سيتطلب تنفيذ عدد من السيناريوهات، بما في ذلك نظام متقدم يسيطر على الأسلحة أو الأسواق المالية. تتمحور المخاوف بشأن التهديد الوجودي من الذكاء الاصطناعي حول احتمال ظهور ما يسمى بالذكاء الاصطناعي العام – وهو مصطلح يشير إلى نظام ذكاء اصطناعي قادر على تنفيذ مهام متعددة على مستوى الذكاء البشري أو فوق مستوى الذكاء البشري – والذي يمكنه من الناحية النظرية أن يكرر نفسه، أو يتهرب من سيطرة الإنسان واتخاذ القرارات التي تتعارض مع مصالح الإنسان.

أدت هذه المخاوف إلى نشر رسالة مفتوحة في شهر مارس، وقعها أكثر من 30 ألف متخصص وخبير في مجال التكنولوجيا، بما في ذلك إيلون ماسك، تدعو إلى التوقف لمدة ستة أشهر في تجارب الذكاء الاصطناعي العملاقة.

وقد وقع اثنان من “العرابين” الثلاثة الحديثين للذكاء الاصطناعي، جيفري هينتون ويوشوا بينجيو، على بيان آخر في شهر مايو يحذران فيه من أن تجنب خطر الانقراض بسبب الذكاء الاصطناعي ينبغي التعامل معه بنفس القدر من الجدية مثل التهديد الناجم عن الأوبئة والحرب النووية. ومع ذلك، وصف يان ليكون، “الأب الروحي” زميلهم والفائز المشارك بجائزة ACM Turing – التي تعتبر جائزة نوبل للحوسبة – المخاوف من أن الذكاء الاصطناعي قد يمحو البشرية بأنها “منافية للعقل”.

وقال LeCun، كبير علماء الذكاء الاصطناعي في شركة Meta، الشركة الأم لفيسبوك، لـ الأوقات المالية هذا الشهر، ستكون هناك حاجة إلى عدد من “الاختراقات المفاهيمية” قبل أن يتمكن الذكاء الاصطناعي من الوصول إلى مستوى الذكاء البشري ــ وهي النقطة حيث يصبح النظام قادراً على التهرب من السيطرة البشرية. وأضاف ليكون: “الذكاء لا علاقة له بالرغبة في الهيمنة. وهذا ليس صحيحا حتى بالنسبة للبشر.


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading