يقول يوفال نوح هراري إن الذكاء الاصطناعي قد يتسبب في أزمة مالية “كارثية”. الذكاء الاصطناعي (AI)

أالذكاء الاصطناعي يمكن أن يسبب أزمة مالية ذات عواقب “كارثية”، وفقا للمؤرخ والمؤلف يوفال نوح هراري، الذي يقول إن تعقيد التكنولوجيا يجعل التنبؤ بمخاطرها أمرا صعبا.
وقال هراري لصحيفة الغارديان إن القلق بشأن اختبار السلامة في نماذج الذكاء الاصطناعي كان يتنبأ بجميع المشاكل التي يمكن أن يسببها نظام قوي. وقال إنه على عكس الأسلحة النووية، لم يكن هناك “سيناريو كبير وخطير” واحد يفهمه الجميع.
“مع الذكاء الاصطناعي، ما تتحدث عنه هو عدد كبير جدًا من السيناريوهات الخطيرة، كل منها لديه احتمالية صغيرة نسبيًا، والتي تشكل مجتمعة تهديدًا وجوديًا لبقاء الحضارة الإنسانية.”
قال مؤلف كتاب Sapiens، الذي كان صوتًا بارزًا في القلق بشأن تطوير الذكاء الاصطناعي، إن الإعلان المتعدد الأطراف الصادر الأسبوع الماضي في القمة العالمية لسلامة الذكاء الاصطناعي في بلتشلي بارك كان “خطوة مهمة جدًا إلى الأمام” لأن الحكومات الرائدة اجتمعت معًا للتعبير عن قلقها بشأن التكنولوجيا. وأن تفعل شيئا حيال ذلك.
وأضاف: “ربما يكون الأمر الأكثر تشجيعًا أو تفاؤلًا هو أنهم لم يتمكنوا من إقناع الاتحاد الأوروبي والمملكة المتحدة والولايات المتحدة فحسب، بل أيضًا حكومة الصين بالتوقيع على الإعلان”. “أعتقد أن هذه كانت علامة إيجابية للغاية. ومن دون تعاون عالمي، سيكون من الصعب للغاية، إن لم يكن من المستحيل، كبح جماح أخطر إمكانات الذكاء الاصطناعي.
اختتمت القمة باتفاق بين عشر حكومات – بما في ذلك المملكة المتحدة والولايات المتحدة ولكن ليس الصين – والاتحاد الأوروبي وشركات الذكاء الاصطناعي الكبرى، بما في ذلك مطور ChatGPT OpenAI وجوجل، للتعاون في اختبار نماذج الذكاء الاصطناعي المتقدمة قبل وبعد إصدارها.
وقال هراري إن إحدى المشكلات المتعلقة باختبار سلامة النماذج هي توقع جميع المشكلات التي يمكن أن يسببها نظام قوي. “يختلف الذكاء الاصطناعي عن كل التقنيات السابقة في تاريخ البشرية لأنه أول تقنية يمكنها اتخاذ القرارات بنفسها، ويمكنها خلق أفكار جديدة بنفسها، ويمكنها التعلم والتطور بنفسها. بحكم التعريف تقريبًا، من الصعب جدًا على البشر، حتى البشر الذين ابتكروا التكنولوجيا، التنبؤ بجميع المخاطر والمشاكل المحتملة.
وقال هراري إن الحكومات استشهدت بالتهديد الذي تشكله أنظمة الذكاء الاصطناعي التي تساعد في صنع أسلحة بيولوجية عند محاولتها شرح مخاطرها للجمهور، ولكن هناك سيناريوهات أخرى يمكن أخذها في الاعتبار. وأشار المؤلف إلى التمويل باعتباره قطاعاً مناسباً بشكل مثالي لأنظمة الذكاء الاصطناعي ــ “هذا هو المجال المثالي للذكاء الاصطناعي لأنه مجرد بيانات” ــ ومصدر محتمل لأزمة خطيرة من صنع الذكاء الاصطناعي.
“ماذا سيحدث إذا لم يتم منح الذكاء الاصطناعي سيطرة أكبر على النظام المالي في العالم فحسب، بل بدأ في إنشاء أجهزة مالية جديدة لا يستطيع سوى الذكاء الاصطناعي فهمها، ولا يستطيع أي إنسان أن يفهمها؟” وقال هراري، مضيفا أن الأزمة المالية في الفترة 2007-2008 كانت ناجمة عن أدوات الدين مثل التزامات الديون المضمونة التي يفهمها عدد قليل من الناس، وبالتالي لم يتم تنظيمها بشكل كاف.
“يتمتع الذكاء الاصطناعي بالقدرة على إنشاء أدوات مالية أكثر تعقيدًا من حيث الحجم من التزامات الدين المضمونة. وتخيل فقط الوضع حيث لدينا نظام مالي لا يستطيع أي إنسان فهمه، وبالتالي لا يستطيع تنظيمه أيضًا. “ثم هناك أزمة مالية ولا أحد يفهم ما يحدث.”
في الشهر الماضي، أثارت حكومة المملكة المتحدة مخاوف بشأن نموذج الذكاء الاصطناعي المتقدم الذي من المحتمل أن يخلق تهديدًا وجوديًا من خلال التحكم في الأنظمة المالية والتلاعب بها. لكن هراري قال إن الأزمة المالية التي يخلقها الذكاء الاصطناعي لن تدمر الحضارة الإنسانية – “على الأقل ليس بشكل مباشر”. وأضاف: “يمكن أن يحدث ذلك بشكل غير مباشر إذا أدى إلى اندلاع أنواع معينة من الحروب أو الصراعات. إنه خطر كارثي – اقتصادي، واجتماعي، وسياسي – ولكنني لا أصفه في حد ذاته بأنه وجودي”.
بعد الترويج للنشرة الإخبارية
وقال المؤلف الإسرائيلي، الذي أيد الدعوات لوقف تطوير الذكاء الاصطناعي المتقدم لمدة ستة أشهر ويدعم جعل شركات الذكاء الاصطناعي مسؤولة عن الأضرار التي تسببها منتجاتها، إن التركيز لا ينبغي أن يكون على لوائح وقوانين محددة ولكن على المؤسسات التنظيمية التي لديها معرفة بالموضوع. التكنولوجيا التي يمكن أن تتفاعل بسرعة مع ظهور اختراقات جديدة.
“نحن بحاجة إلى إنشاء مؤسسات تنظيمية قوية في أسرع وقت ممكن، قادرة على تحديد المخاطر والرد عليها عند ظهورها على أساس أننا لا نستطيع التنبؤ بكل المخاطر والمشاكل مقدما والتشريع ضدها مقدما.” وأضاف: “يجب أن يكون هذا هو الجهد الرئيسي، وليس الجهد المبذول الآن لكتابة بعض اللوائح الطويلة والمعقدة للغاية والتي قد تصبح قديمة بحلول الوقت الذي يمررها البرلمان أو الكونجرس”.
وقال هراري، كجزء من هذا الإعداد، يجب على معاهد سلامة الذكاء الاصطناعي توظيف خبراء يفهمون التأثير المحتمل للذكاء الاصطناعي على عالم المال.
في الشهر الماضي، أعلن ريشي سوناك عن إنشاء معهد سلامة الذكاء الاصطناعي في المملكة المتحدة، وتلاه بعد أيام إعلان البيت الأبيض عن خطط لإنشاء هيئة مماثلة، ومن المتوقع أن يلعب كلاهما أدوارًا رئيسية في اختبار نماذج الذكاء الاصطناعي المتقدمة. وفي حديثه في القمة، قال سوناك إن المملكة المتحدة بحاجة إلى فهم قدرات النماذج المتقدمة أولاً قبل تقديم تشريع للتعامل معها.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.