“الغرور الضخم يلعب دورًا”: وراء طرد سام ألتمان من OpenAI وإعادة تعيينه | الذكاء الاصطناعي (AI)


صدمت عملية إقالة شركة OpenAI وإعادة تعيين رئيسها التنفيذي القوي هذا الأسبوع عالم التكنولوجيا. لكن خبراء الذكاء الاصطناعي يقولون إن الصراع على السلطة له آثار تتجاوز مجلس إدارة الشركة. فهو يسلط الضوء على خضرة صناعة الذكاء الاصطناعي والرغبة القوية في وادي السليكون في أن تكون الأولى، ويثير تساؤلات ملحة حول سلامة التكنولوجيا.

“إن الذكاء الاصطناعي الذي ننظر إليه الآن غير ناضج. لا توجد معايير ولا هيئة مهنية ولا شهادات. قال رايد غني، أستاذ التعلم الآلي والسياسة العامة في جامعة كارنيجي ميلون: “يكتشف الجميع كيفية القيام بذلك، ويكتشفون معاييرهم الداخلية الخاصة”. “إن الذكاء الاصطناعي الذي سيتم بناؤه يعتمد على حفنة من الأشخاص الذين قاموا ببنائه، وتأثير هذه الحفنة من الناس غير متناسب.”

بدأ الصراع بين سام ألتمان ومجلس إدارة OpenAI يوم الجمعة بالإعلان غير المتوقع بأن مجلس الإدارة قد أطاح بألتمان من منصبه كرئيس تنفيذي لأنه “لم يكن صريحًا دائمًا في اتصالاته مع مجلس الإدارة”.

وظهر منشور المدونة دون سابق إنذار، حتى لشركة مايكروسوفت، المالكة للأقلية في شركة OpenAI، والتي استثمرت حوالي 13 مليار دولار في الشركة الناشئة.

قام مجلس الإدارة بتعيين رئيس تنفيذي مؤقت، ميرا موراتي، الذي كان آنذاك كبير مسؤولي التكنولوجيا في OpenAI، ولكن بحلول يوم الأحد كان قد عين شخصًا آخر، وهو الرئيس التنفيذي السابق لشركة Twitch Emmett Shear. عاد ألتمان إلى مقر الشركة الناشئة لإجراء المفاوضات في نفس اليوم. في ذلك المساء، أعلنت شركة مايكروسوفت أنها عينته لقيادة وحدة جديدة للذكاء الاصطناعي.

وفي يوم الاثنين، وقع أكثر من 95% من موظفي OpenAI البالغ عددهم 750 موظفًا تقريبًا على خطاب مفتوح يؤكدون فيه أنهم سيستقيلون ما لم تتم إعادة ألتمان إلى منصبه؛ وكان من بين الموقعين موراتي والرجل الذي يعتقد الكثيرون أنه مهندس الإطاحة بألتمان، المؤسس المشارك لشركة OpenAI وكبير العلماء، إيليا سوتسكيفر.

إيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI، والذي يعتقد الكثيرون أنه كان وراء الإطاحة بألتمان، في مؤتمر Ted AI في سان فرانسيسكو في 17 أكتوبر 2023. تصوير: جلين تشابمان / وكالة الصحافة الفرنسية / غيتي إيماجز

بحلول يوم الأربعاء، أصبح ألتمان الرئيس التنفيذي مرة أخرى. تمت إعادة تشكيل مجلس إدارة شركة OpenAI بدون ألتمان ورئيس الشركة، جريج بروكمان، الذي استقال تضامنًا ولكن تم إعادة تعيينه أيضًا، وبدون عضوين صوتا لصالح طردهما.

في غياب التنظيم الموضوعي للشركات التي تصنع الذكاء الاصطناعي، فإن نقاط الضعف والخصوصيات التي يعاني منها منشئوها تكتسب أهمية كبيرة.

عند سؤالها عما يمكن أن تعنيه ملحمة OpenAI بالنسبة لأي تنظيم قادم للذكاء الاصطناعي، قالت وزارة العلوم والابتكار والتكنولوجيا في المملكة المتحدة (DSIT) في بيان: “نظرًا لأن هذا قرار تجاري، فهو ليس شيئًا يجب على DSIT التعليق عليه”. وفي الولايات المتحدة، لم يقدم البيت الأبيض أي تعليق. ولم يستجب عضوا مجلس الشيوخ ريتشارد بلومنثال من ولاية كونيتيكت وجوش هاولي من ولاية ميسوري، رئيسا اللجنة الفرعية بمجلس الشيوخ الأمريكي التي أشرفت على شهادة ألتمان في وقت سابق من هذا العام، لطلبات التعليق. اقترح بلومنثال وهاولي مشروع قانون للذكاء الاصطناعي وافق عليه الحزبان الجمهوري والديمقراطي “لإنشاء حواجز حماية”.

وقال غني إنه في قطاع أكثر نضجا، فإن اللوائح التنظيمية من شأنها أن تعزل المستهلكين والمنتجات التي تواجه المستهلك عن الصراعات بين الأشخاص في القمة. ولن يكون لصانعي الذكاء الاصطناعي من الأفراد أهمية كبيرة، وسوف تؤثر مشاحناتهم على الجمهور بشكل أقل.

“إن الاعتماد على شخص واحد ليكون المتحدث الرسمي باسم الذكاء الاصطناعي أمر خطير للغاية، خاصة إذا كان هذا الشخص مسؤولاً عن البناء. لا ينبغي أن يتم تنظيمها ذاتيًا. متى نجح ذلك؟ ليس لدينا تنظيم ذاتي في أي شيء مهم، فلماذا نفعل ذلك هنا؟” سأل.

المعركة السياسية حول الذكاء الاصطناعي

كما سلط الصراع في OpenAI الضوء أيضًا على الافتقار إلى الشفافية في عملية صنع القرار في الشركة. يقع تطوير الذكاء الاصطناعي المتطور في أيدي كادر صغير وسري يعمل خلف أبواب مغلقة.

قال غني: “ليس لدينا أي فكرة عن كيفية تغيير طاقم العمل في OpenAI لطبيعة ChatGPT أو Dall-E”. في الوقت الحالي، لا توجد هيئة عامة تجري اختبارات لبرامج مثل ChatGPT، ولا تتمتع الشركات بالشفافية بشأن التحديثات. قارن ذلك بتحديثات برامج iPhone أو Android، والتي تسرد التغييرات والإصلاحات القادمة إلى برنامج الجهاز الذي تحمله بين يديك.

“في الوقت الحالي، ليس لدينا طريقة عامة لمراقبة الجودة. وقال إن كل منظمة ستفعل ذلك لحالات الاستخدام الخاصة بها. “لكننا بحاجة إلى طريقة لإجراء اختبارات بشكل مستمر على أشياء مثل ChatGPT ومراقبة النتائج من أجل تحديد النتائج للأشخاص وجعلها أقل خطورة. إذا كان لدينا مثل هذه الأداة، ستكون الشركة أقل أهمية. أملنا الوحيد هو أن يعرف الأشخاص الذين يبنونها ما يفعلونه.

وافق بول باريت، نائب مدير مركز الأعمال وحقوق الإنسان في كلية إدارة الأعمال بجامعة نيويورك، على ذلك، ودعا إلى وضع تنظيمات تلزم صانعي الذكاء الاصطناعي بإثبات سلامة وفعالية منتجاتهم بالطريقة التي تفعلها شركات الأدوية.

“يوفر القتال من أجل السيطرة على OpenAI تذكيرًا قيمًا بالتقلبات داخل هذا الفرع غير الناضج نسبيًا من الصناعة الرقمية والخطر المتمثل في أن القرارات الحاسمة حول كيفية حماية أنظمة الذكاء الاصطناعي قد تتأثر بالصراعات على السلطة بين الشركات. هناك مبالغ ضخمة من المال ـ وغرور ضخم ـ تلعب دوراً في هذا الأمر. وقال: “إن الأحكام المتعلقة بالوقت الذي تكون فيه أنظمة الذكاء الاصطناعي غير المتوقعة آمنة للنشر للعامة لا ينبغي أن تخضع لهذه العوامل”.

التسارع ضد تباطؤ

يبدو أن الانقسام بين ألتمان ومجلس الإدارة، جزئيًا على الأقل، يقع على أسس أيديولوجية، حيث يوجد ألتمان وبروكمان في معسكر يُعرف باسم “أنصار التسريع” – الأشخاص الذين يعتقدون أنه يجب نشر الذكاء الاصطناعي في أسرع وقت ممكن – و”أنصار التباطؤ” – الأشخاص الذين يعتقدون أن الذكاء الاصطناعي يجب أن يتم نشره في أسرع وقت ممكن. وينبغي تطويره بشكل أبطأ وباستخدام حواجز حماية أقوى. ومع عودة “ألتمان”، تأخذ المجموعة السابقة الغنائم.

وقالت سارة كريبس، أستاذة العلوم الحكومية في جامعة كورنيل ومديرة معهد سياسات التكنولوجيا في كلية السياسة العامة بالجامعة: “الأشخاص الذين يبدو أنهم فازوا في هذه الحالة هم دعاة التسريع”.

تخطي ترويج النشرة الإخبارية السابقة

قال كريبس إننا قد نشهد ولادة OpenAI من جديد والتي تشترك بالكامل في شعار الرئيس التنفيذي لشركة Meta مارك زوكربيرج “تحرك بسرعة وكسر الأشياء”. وأشارت إلى أن الموظفين صوتوا بأقدامهم في النقاش بين التحرك بسرعة أكبر أو بعناية أكبر.

“ما سنراه هو المضي قدمًا في أبحاث الذكاء الاصطناعي. ومن ثم يصبح السؤال: هل سيكون الأمر غير آمن تمامًا، أم أنه سيكون به تجارب وأخطاء؟ وقالت: “قد تتبع OpenAI نموذج Facebook للتحرك بسرعة وإدراك أن المنتج لا يتوافق دائمًا مع الصالح المجتمعي”.

وقال كريبس إن ما يسرع سباق التسلح في مجال الذكاء الاصطناعي بين OpenAI وGoogle وMicrosoft وغيرها من عمالقة التكنولوجيا، هو الكميات الهائلة من رأس المال والرغبة الشديدة في أن تكون الأول. إذا لم تقم إحدى الشركات باكتشاف معين، فإن شركة أخرى ستفعل ذلك – وبسرعة. وهذا يؤدي إلى قدر أقل من الحذر.

مبنى رمادي مكون من ثلاثة طوابق مع زخرفة بيضاء.
مبنى بايونير، المقر الرئيسي لشركة OpenAI، في سان فرانسيسكو، كاليفورنيا. تصوير: جون جي مابانجلو/وكالة حماية البيئة

وقالت: “لقد قالت القيادة السابقة لشركة OpenAI كل الأشياء الصحيحة بشأن إدراك المخاطر، ولكن مع تدفق المزيد من الأموال على الذكاء الاصطناعي، زاد الحافز للتحرك بسرعة وأقل وعيًا بهذه المخاطر”.

بأقصى سرعة إلى الأمام

أثارت مباراة المصارعة في وادي السيليكون تساؤلات حول مستقبل أعمال الشركة الناشئة البارزة ومنتجها الرئيسي ChatGPT. كان ألتمان في جولة حول العالم كمبعوث للذكاء الاصطناعي في الأسابيع السابقة. وكان قد تحدث مع جو بايدن والرئيس الصيني شي جين بينغ ودبلوماسيين آخرين قبل أيام فقط في مؤتمر أبيك في سان فرانسيسكو. قبل أسبوعين، كان قد كشف لأول مرة عن قدرة المطورين على بناء إصداراتهم الخاصة من ChatGPT في يوم تجريبي رائع شارك فيه الرئيس التنفيذي لشركة Microsoft ساتيا ناديلا، الذي شكل شراكة قوية مع ألتمان وألقى الكثير من شركته مع الرجل الأصغر سنًا.

كيف يمكن للدول والشركاء الاستراتيجيين والعملاء أن يثقوا في OpenAI، إذا كان حكامها سيرمونها إلى مثل هذه الفوضى؟

وقال ديريك ليبين، أستاذ الأخلاق في كلية كارنيجي ميلون لإدارة الأعمال: “حقيقة أن مجلس الإدارة لم يقدم بياناً واضحاً حول أسباب إقالة ألتمان، حتى للرئيس التنفيذي الذي عينه مجلس الإدارة نفسه، تبدو سيئة للغاية”. قال ليبين إن ألتمان خرج منتصرًا في حرب العلاقات العامة، وكان بطل القصة. وافق كريبس.

قال ليبين إن ما يؤيد أنصار التباطؤ هو أن هذه الملحمة أثبتت أنهم جادون في مخاوفهم، وإن كان تعبيرهم عن ذلك قاسيًا. انتقد المتشككون في الذكاء الاصطناعي ألتمان وآخرين لتوقعهم هلاك الذكاء الاصطناعي في المستقبل، بحجة أن مثل هذه المخاوف تتجاهل الأضرار الحقيقية التي يسببها الذكاء الاصطناعي في الوقت الحاضر ولا تؤدي إلا إلى تضخيم صانعي الذكاء الاصطناعي.

“حقيقة أن الناس على استعداد لإحراق الشركة تشير إلى أنهم لا يستخدمون السلامة فقط كستار من الدخان لدافع خفي. وقال: “إنهم صادقون عندما يقولون إنهم على استعداد لإغلاق الشركة لمنع النتائج السيئة”.

اتفق الخبراء على أن الشيء الوحيد الذي لن تفعله حرب الخلافة في OpenAI هو إبطاء تطور الذكاء الاصطناعي.

“أنا أقل قلقًا على سلامة الذكاء الاصطناعي. أعتقد أن الذكاء الاصطناعي سيكون آمنًا، للأفضل أو للأسوأ. قال غني: “أنا قلق على الأشخاص الذين يضطرون إلى استخدامه”.

ساهمت جوهانا بويان في إعداد التقارير


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading