“بلتشلي جعلني أكثر تفاؤلاً”: كيف كان رد فعل الخبراء على قمة الذكاء الاصطناعي | الذكاء الاصطناعي (AI)
سمع متنزه بلتشلي، وهو علامة فارقة في رحلة آلان تورينج إلى الخلود التكنولوجي، تحذيرات هذا الأسبوع من أن الموجة القادمة من أنظمة الذكاء الاصطناعي يمكن أن تهدد البشرية.
لكن بالنسبة لأحد كبار المستثمرين في مجال التكنولوجيا في العالم، فإن إعاقة تطوير الذكاء الاصطناعي سيكون له نفس الضرر من حيث الوفيات الناجمة عن حوادث السيارات والأوبئة والذخائر سيئة التوجيه التي كان من الممكن منعها بواسطة التكنولوجيا.
“نحن نعتقد أن أي تباطؤ في الذكاء الاصطناعي سيكلف أرواحًا. كتب مارك أندريسن، أحد المستثمرين الأوائل في فيسبوك، وبينتيريست، وتويتر، في مدونة الشهر الماضي بعنوان بيان تكنو-أوبتيمست: “الوفيات التي كان من الممكن منعها بواسطة الذكاء الاصطناعي والتي تم منعها من الوجود هي شكل من أشكال القتل”.
عندما يتعلق الأمر بالذكاء الاصطناعي، فإن أندريسن ليس المتفائل التكنولوجي الوحيد هناك، على الرغم من النظرة المتشائمة للتكنولوجيا التي تهيمن على جدول الأعمال في الفترة التي سبقت قمة سلامة الذكاء الاصطناعي التي عقدت الأسبوع الماضي في بلتشلي.
ووصف إيلون ماسك الذكاء الاصطناعي في الاجتماع بأنه “واحد من أكبر التهديدات للإنسانية”، ولكن في محادثة مع ريشي سوناك يوم الخميس، وصف التكنولوجيا أيضًا بمصطلحات طوباوية. وقال إن الذكاء الاصطناعي هو “جني سحري” يمنحك أمنيات لا حدود لها وسيدخل في “عصر الوفرة”. هذه هي وجهة النظر الأكثر اعتدالًا للذكاء الاصطناعي العام، وهو نظام نظري يمكنه تنفيذ مجموعة من المهام على مستوى الذكاء البشري أو فوق مستوى الذكاء البشري. قال ماسك إن مشروعه للذكاء الاصطناعي، xAI، سيحاول بناء نظام “يثير فضولًا كبيرًا” تجاه الإنسانية.
ويعتقد آخرون أن المخاوف الوجودية – القائمة على أنظمة الذكاء الاصطناعي المتقدمة للغاية التي تتهرب من السيطرة البشرية وتتخذ قرارات تهدد البشرية – مبالغ فيها. نيك كليج، نائب رئيس الوزراء السابق الذي تحول إلى مدير تنفيذي قوي في مجال التكنولوجيا، قارن هذا الضجة حول الذكاء الاصطناعي بـ “الذعر الأخلاقي” في الثمانينيات بشأن ألعاب الفيديو. وقد وصف أحد زملائه – يان ليكون، وهو شخصية محترمة في هذا المجال – المخاوف بشأن محو الذكاء الاصطناعي للبشرية بأنها “منافية للعقل”.
ومع ذلك، بشكل عام، فإن التفاؤل أكثر دقة من وجهة نظر أندريسن العاطفية. واعترف كليج، الذي حضر القمة كرئيس للشؤون العالمية في ميتا مارك زوكربيرج، هذا الأسبوع بأن هناك تهديدات قصيرة المدى تحتاج إلى معالجة، مثل احتمال أن تؤثر المعلومات المضللة الناتجة عن الذكاء الاصطناعي على الانتخابات في الولايات المتحدة والهند والولايات المتحدة. إندونيسيا والمكسيك والمملكة المتحدة العام المقبل.
“تحب الصحف نشر صور لروبوتات مخيفة ذات عيون حمراء صارخة، وتقول إنها ستتولى المهمة غدًا. لكن في الواقع، هناك الكثير من الواجبات المنزلية التي يجب القيام بها بشأن المزيد من التحديات المباشرة، والتي أخشى أنها قد تلعب دورًا ثانويًا لبعض تلك المخاطر الأكثر مضاربة.
كان هذا التفاؤل الحذر نموذجيًا بين الحاضرين في قمة سلامة الذكاء الاصطناعي. حذر ديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، وهو مختبر أبحاث الذكاء الاصطناعي الرائد على مستوى العالم، من أن التعامل مع المخاطر الناجمة عن الذكاء الاصطناعي يجب أن يتم التعامل معه بنفس القدر من الجدية مثل أزمة المناخ. ولكنه أيضًا متفائل بلا خجل بشأن العمل الإيجابي الذي يمكن للذكاء الاصطناعي القيام به في مجالات مثل الصحة والطب، كما يتضح من إنجازات وحدته في رسم خرائط لهياكل البروتين عبر برنامج AlphaFold.
يقول مصطفى سليمان، المؤسس المشارك لشركة DeepMind والآن الرئيس التنفيذي لشركة التكنولوجيا Inflection AI، إن التكنولوجيا ستجلب “دفعة هائلة” للاقتصاد والمجتمع، لكن الصناعة تحتاج أيضًا إلى القضاء على الأضرار المحتملة. “هل نستطيع إنجازها؟ إنه تحدٍ كبير، وطريق ضيق، ولكن مع التركيز الكافي، أعتقد أننا قادرون على ذلك بالتأكيد”.
حتى الخبراء الأكثر انزعاجًا أصبحوا أكثر تفاؤلاً خلال الأسبوع الماضي. كان ماكس تيجمارك، الأستاذ في معهد ماساتشوستس للتكنولوجيا الذي كان وراء رسالة مؤثرة تدعو إلى التوقف لمدة ستة أشهر في تجارب الذكاء الاصطناعي العملاقة، موجودًا في بلتشلي. هو يقول: “[The summit] لقد جعلني في الواقع أكثر تفاؤلاً. لقد تجاوز بالفعل توقعاتي.”
ولا يزال بعض المتشائمين غير مقتنعين بإنجازات القمة، مثل الاتفاق على مشاركة الحكومة في اختبار أنظمة الذكاء الاصطناعي الجديدة. وتقول نورتي ماريس، الأستاذة والخبيرة في علم الاجتماع الرقمي بجامعة وارويك، إن بيان القمة لم يشر إلى أي آلية لإشراك المواطنين والمجموعات المتضررة في إدارة الذكاء الاصطناعي. وتقول: “بعبارة أخرى، الذكاء الاصطناعي ليس ضارًا فحسب، بل إنه غير ديمقراطي إلى حد كبير”.
ربما يجد أندريسن، الذي يصف الذكاء الاصطناعي بأنه “خيميائنا، وحجر فيلسوفنا”، نفسه غريبًا أكثر بعد الأحداث التي وقعت في بليتشلي هذا الأسبوع. وإذا كان هناك تفاؤل، فإن الحكومات المشاركة في القمة ترغب في أن تكون مؤهلة.
تقول البروفيسورة دام موفي كالدر، رئيسة كلية العلوم والهندسة في جامعة جلاسكو، إن هناك حاجة إلى معالجة المخاطر مثل المعلومات المضللة والتحيزات في مجموعات البيانات التي يتم تدريب الأنظمة عليها.
“أنا متفائل. ولكن دعونا نطور مجالات التطبيق تلك التي شهدنا بالفعل فائدتها المؤكدة، مثل الصحة والطب. ودعونا نركز على كيفية معالجة المخاطر الحالية، مثل المعلومات المضللة، الآن. هذه هي الأسس التي يمكننا أن نبني عليها مستقبل الذكاء الاصطناعي”.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.