الأمل أم الرعب؟ الجدل الكبير حول الذكاء الاصطناعي الذي يقسم رواده | تكنولوجيا


يقول ديميس هاسابيس إنه ليس في المعسكر “المتشائم” بشأن الذكاء الاصطناعي. لكن هذا لم يمنع الرئيس التنفيذي لشركة جوجل ديب مايند من التوقيع على بيان في شهر مايو يحذر فيه من ضرورة التعامل مع خطر الانقراض الناجم عن الذكاء الاصطناعي باعتباره خطرا مجتمعيا مماثلا للأوبئة أو الأسلحة النووية.

وهذه الفجوة غير المستقرة بين الأمل والرعب، والرغبة في سد هذه الفجوة، هي السبب الرئيسي الذي دفع ريشي سوناك إلى عقد القمة العالمية لسلامة الذكاء الاصطناعي الأسبوع المقبل في بليتشلي بارك، وهو خيار رمزي كقاعدة لفك الشفرات صاحب الرؤى ــ بما في ذلك رائد الحوسبة آلان تورينج ــ الذي فك رموز الاتصالات الألمانية خلال الحرب العالمية الثانية.

قال هاسابيس لصحيفة The Guardian في مقابلة أجريت معه في قاعدة Google DeepMind في كينغز كروس بلندن: “من الواضح أنني لست في المعسكر المتشائم بشأن الذكاء الاصطناعي، وإلا فلن أعمل عليه”.

“لكنني لست في حالة “لا يوجد شيء يمكن رؤيته هنا ولا شيء يدعو للقلق” [camp]. إنها طريقة وسطى. يمكن أن يسير هذا على ما يرام ولكن علينا أن نكون نشطين في تشكيل ذلك.”

شارك هاسابيس، وهو بريطاني يبلغ من العمر 47 عامًا، في تأسيس شركة DeepMind البريطانية في عام 2010. وقد اشترتها شركة Google في عام 2014 وحققت اختراقات مذهلة في مجال الذكاء الاصطناعي تحت قيادته. تُعرف الشركة الآن باسم Google DeepMind بعد دمجها مع عمليات الذكاء الاصطناعي الأخرى التابعة لشركة البحث، مع تولي هاسابيس منصب الرئيس التنفيذي.

وحدته هي التي تقف خلف برنامج AlphaFold الذي يمكنه التنبؤ بالأشكال ثلاثية الأبعاد للبروتينات في جسم الإنسان – بالإضافة إلى جميع البروتينات المفهرسة المعروفة علميًا. وهذا إنجاز ثوري من شأنه أن يساعد في تحقيق اختراقات في مجالات مثل اكتشاف أدوية جديدة لأنه يرسم لبنات البناء البيولوجية للحياة. حصل هاسابيس هذا العام على واحدة من أرقى الجوائز في العلوم، وهي جائزة لاسكر للأبحاث الطبية الأساسية، لعمله على AlphaFold. يستمر العديد من الفائزين بالجائزة في الفوز بجائزة نوبل.

وفي الشهر الماضي، أطلق فريق هاسابيس برنامج AlphaMissense، الذي يستخدم نفس برنامج بروتين الذكاء الاصطناعي لاكتشاف تشوهات البروتين التي يمكن أن تسبب المرض.

يقول هاسابيس إنه كان يفضل أن يتضمن بيان مايو إشارات إلى الفوائد المحتملة للذكاء الاصطناعي. “كنت سأقول سطرًا عن كل الفرص المذهلة التي سيجلبها الذكاء الاصطناعي: الطب، والعلوم، وكل الأشياء التي تساعد في الحياة اليومية، وتساعد في الحياة اليومية.”

ويقول إن التقدم في الذكاء الاصطناعي سيؤدي إلى “اضطراب” في سوق العمل – فالمهن التي تتطلب مهارات مثل القانون والطب والمالية معرضة للخطر، وفقًا للخبراء – لكنه يقول إن التأثير سيكون “إيجابيًا بشكل عام” مع تكيف الاقتصاد. وقد أدى ذلك أيضًا إلى الحديث بين متخصصي الذكاء الاصطناعي عن تمويل التكنولوجيا للدخل الأساسي الشامل أو حتى الخدمة الأساسية الشاملة، والتي توفر خدمات مثل النقل والإقامة مجانًا.

يقول هاسابيس: “ستكون هناك حاجة إلى نوع من تقاسم الإيجابيات بشكل ما”.

سؤال وجواب

“ما هي سلسلة سباق الذكاء الاصطناعي؟”

يعرض

دفع القلق المتزايد بشأن التهديدات التي يفرضها الابتكار غير المنضبط في مجال الذكاء الاصطناعي زعماء العالم إلى عقد أول قمة للسلامة على الإطلاق. ستستضيف المملكة المتحدة يومي 1 و2 نوفمبر/تشرين الثاني أكبر الأسماء وأكبر الشركات في مجال الذكاء الاصطناعي، وستناقش ما يمكن القيام به لتنظيم هذه التكنولوجيا، إن كان هناك أي شيء.

قبل القمة، تبحث صحيفة الغارديان في جوانب مختلفة من الذكاء الاصطناعي، وكيف يؤثر بالفعل على حياتنا – وما قد يأتي بعد ذلك.

شكرا لك على ملاحظاتك.

لكن منظمة التعاون الاقتصادي والتنمية، وهي منظمة دولية مؤثرة، تقول إن الوظائف الأكثر عرضة للخطر من الأتمتة التي تعتمد على الذكاء الاصطناعي هي وظائف تتطلب مهارات عالية وتمثل حوالي 27% من العمالة في دولها الأعضاء البالغ عددها 38 دولة، والتي تشمل المملكة المتحدة واليابان وألمانيا والولايات المتحدة وأستراليا والمملكة المتحدة. كندا. لا عجب أن تتحدث منظمة التعاون الاقتصادي والتنمية عن “ثورة الذكاء الاصطناعي التي يمكن أن تغير مكان العمل بشكل جذري”.

ومع ذلك، ستركز القمة على التهديدات التي يشكلها الذكاء الاصطناعي الحدودي، وهو المصطلح الذي يشير إلى الأنظمة المتطورة التي يمكن أن تسبب خسائر كبيرة في الأرواح. وتشمل هذه القدرة على صنع أسلحة بيولوجية، وإنشاء هجمات إلكترونية متطورة والتهرب من السيطرة البشرية. وتشير القضية الأخيرة إلى المخاوف بشأن الذكاء العام الاصطناعي، أو الذكاء الاصطناعي “الشبيه بالإله”، أي النظام الذي يعمل بمستويات أعلى أو تتجاوز مستويات الذكاء البشري.

ويتمتع المعسكر المتشائم الذي يعبر عن هذه المخاوف بأوراق اعتماد قوية. جيفري هينتون، عالم الكمبيوتر البريطاني الذي يوصف غالبا بأنه أحد “عرابي” الذكاء الاصطناعي الحديث، استقال من وظيفته في جوجل هذا العام من أجل التعبير عن مخاوفه بشأن التكنولوجيا بحرية أكبر.

صرح هينتون لصحيفة الغارديان في شهر مايو عن مخاوفه من أن شركات الذكاء الاصطناعي تحاول بناء ذكاءات لديها القدرة على التفوق على البشرية.

“لقد اهتزت ثقتي بأن هذا لن يحدث لفترة طويلة بعد أن أدركت أن الذكاء البيولوجي والذكاء الرقمي مختلفان تمامًا، وربما يكون الذكاء الرقمي أفضل بكثير.”

حذر ستيوارت راسل، وهو عالم كمبيوتر بريطاني كبير آخر، من سيناريو تطلب فيه الأمم المتحدة من نظام الذكاء الاصطناعي إنشاء محفز ذاتي التكاثر لإزالة حموضة المحيطات، مع تعليمات السلامة بأن النتيجة غير سامة وعدم السماح بأي أسماك. يتعرضون للأذى. لكن النتيجة تستهلك ربع الأكسجين الموجود في الغلاف الجوي وتعرض البشر لموت بطيء ومؤلم.

ويحضر كل من هينتون وراسل القمة مع هاسابيس والسياسيين العالميين وغيرهم من المديرين التنفيذيين للتكنولوجيا وشخصيات المجتمع المدني.

وفي إشارة إلى الذكاء الاصطناعي العام، يقول هاسابيس “لقد مر وقت طويل قبل أن تصبح الأنظمة في أي مكان في الأفق”، لكنه يقول إن أنظمة الجيل المستقبلي ستحمل مخاطر. ومن هنا القمة.

ويقول منتقدو القمة إن التركيز على المخاطر الوجودية يتجاهل المشاكل قصيرة المدى مثل التزييف العميق.

ويبدو أن الحكومة قد اعترفت بالمخاوف المباشرة، حيث يشير جدول أعمال القمة إلى تعطيل الانتخابات وأدوات الذكاء الاصطناعي التي تؤدي إلى نتائج متحيزة. يرى هاسابيس أن هناك ثلاث فئات من المخاطر وجميعها “على نفس القدر من الأهمية” وتحتاج إلى العمل عليها في وقت واحد.

الأول هو المخاطر على المدى القريب مثل التزييف العميق والتحيز. وقال: “هذا النوع من القضايا… من الواضح أنها قضايا ملحة للغاية، خاصة مع الانتخابات المقررة العام المقبل”. “وهكذا… نحن بحاجة إلى حلول الآن.” أطلقت Google DeepMind بالفعل أداة لوضع علامات مائية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

وتتمثل فئة المخاطر الثانية في وصول الجهات المارقة إلى أدوات الذكاء الاصطناعي، عبر أنظمة متاحة للجمهور وقابلة للتعديل تُعرف باسم النماذج مفتوحة المصدر، واستخدامها لإحداث الضرر.

“كيف يمكن للمرء تقييد الوصول إلى الجهات الفاعلة السيئة، ولكن بطريقة أو بأخرى تمكين جميع حالات الاستخدام الجيدة؟ هذا نقاش كبير.”

والثالث هو الذكاء الاصطناعي العام، والذي لم يعد يُناقش باعتباره احتمالًا خياليًا. يقول هاسابيس إن الأنظمة فائقة القوة يمكن أن تكون “ميزة إضافية بعد عقد من الزمن”، لكن التفكير في التحكم فيها يجب أن يبدأ على الفور.

هناك أيضًا وجهات نظر بديلة في هذا المجال. قال يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا التابعة لمارك زوكربيرج وشخصية محترمة في الذكاء الاصطناعي، الأسبوع الماضي إن المخاوف من أن الذكاء الاصطناعي قد يمحو البشرية هي مخاوف “منافية للعقل”.

ومع ذلك، فإن القلق بين أولئك الذين يشعرون بالقلق بشأن الأنظمة فائقة الذكاء هو فكرة أنها يمكن أن تتهرب من السيطرة.

يقول هاسابيس: “هل يمكنه استخراج الكود الخاص به، أو استخراج الكود الخاص به، أو تحسين الكود الخاص به”. “هل يمكن أن تنسخ نفسها بشكل غير مصرح به؟ لأن هذه كلها ستكون سلوكيات غير مرغوب فيها، لأنه إذا كنت تريد إغلاقها، فأنت لا تريدها أن تتغلب على ذلك عن طريق نسخ نفسها في مكان آخر. هناك الكثير من السلوكيات من هذا القبيل، والتي قد تكون غير مرغوب فيها في نظام قوي.”

وقال إن الاختبارات يجب أن تكون مصممة لدرء تهديد مثل هذا السلوك المستقل. “عليك في الواقع تطوير اختبار لاختبار ذلك… ومن ثم يمكنك تخفيفه، وربما حتى إصدار تشريعات ضده في مرحلة ما. لكن البحث يجب أن يتم أولا.”

ومما يزيد الوضع تعقيدًا حقيقة أن أدوات الذكاء الاصطناعي التوليدية ذات القدرة العالية – التكنولوجيا التي تنتج نصًا وصورة وصوتًا معقولًا من خلال مطالبات بشرية بسيطة – موجودة بالفعل ولا يزال الإطار التنظيمي لتنظيمها قيد البناء.

بدأت تظهر علامات وجود إطار عمل، مثل الالتزامات المتعلقة بسلامة الذكاء الاصطناعي التي وقعتها شركات التكنولوجيا الغربية الكبرى في البيت الأبيض في يوليو/تموز. لكن الالتزامات طوعية.

ويتحدث هاسابيس عن البدء بهيئة على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ قبل الانتقال في نهاية المطاف إلى كيان “يعادل” الوكالة الدولية للطاقة الذرية المناهضة للانتشار النووي، على الرغم من تأكيده على أن أيا من القياسات التنظيمية “لا تنطبق بشكل مباشر” على الذكاء الاصطناعي. هذه منطقة جديدة.

إذا كنت في المعسكر المتشائم، فقد يستغرق الأمر سنوات لبناء إطار تنظيمي متين. وكما يقول هاسابيس، يجب أن يبدأ العمل على السلامة “أمس”.


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading