إيلون ماسك ضد OpenAI: عمالقة التكنولوجيا يثيرون مخاوف وجودية للتهرب من التدقيق | كنان مالك


أنافي عام 1914، عشية الحرب العالمية الأولى، نشر هربرت جورج ويلز رواية عن احتمالات نشوب حريق هائل. العالم يتحرر يتخيل، قبل 30 عامًا من مشروع مانهاتن، إنشاء أسلحة ذرية تسمح “للإنسان”. [to] “تحمل في حقيبة يدك كمية من الطاقة الكامنة تكفي لتدمير نصف مدينة”. اندلعت حرب عالمية، مما أدى إلى نهاية العالم الذرية. يتطلب الأمر “إنشاء حكومة عالمية” لتحقيق السلام.

ما كان يقلق ويلز لم يكن مجرد مخاطر التكنولوجيا الجديدة، بل كان أيضاً مخاطر الديمقراطية. لم يتم إنشاء حكومة ويلز العالمية من خلال الإرادة الديمقراطية، بل تم فرضها كديكتاتورية حميدة. “إن المحكومين سيظهرون موافقتهم بالصمت”، هذا ما قاله ملك إنجلترا إجبرت بتهديد. بالنسبة لويلز، كان “الرجل العادي” “أحمقًا عنيفًا في الشؤون الاجتماعية والعامة”. إن النخبة المتعلمة ذات التفكير العلمي هي وحدها القادرة على “إنقاذ الديمقراطية من نفسها”.

وبعد مرور قرن من الزمان، تثير تكنولوجيا أخرى نوعا مماثلا من الرهبة والخوف: الذكاء الاصطناعي. من مجالس الإدارة في وادي السليكون إلى الغرف الخلفية في دافوس، يبتهج القادة السياسيون وأقطاب التكنولوجيا والأكاديميون بالفوائد الهائلة التي سيجلبها الذكاء الاصطناعي، لكنهم يخشون من أنه قد ينذر أيضًا بزوال البشرية مع وصول الآلات فائقة الذكاء إلى حكم العالم. وكما كان الحال قبل قرن من الزمان، فإن المسائل المتعلقة بالديمقراطية والرقابة الاجتماعية تكمن في قلب المناقشة.

في عام 2015، أجرى الصحفي ستيفن ليفي مقابلة مع إيلون ماسك وسام ألتمان، وهما مؤسسا شركة OpenAI، شركة التكنولوجيا التي برزت إلى الوعي العام قبل عامين بإطلاق ChatGPT، برنامج الدردشة الآلي الذي يبدو شبيهًا بالإنسان. قامت مجموعة من الشركات ذات الوزن الثقيل في وادي السيليكون، خوفًا من العواقب المحتملة للذكاء الاصطناعي، بإنشاء الشركة باعتبارها مؤسسة خيرية غير ربحية بهدف تطوير التكنولوجيا بطريقة أخلاقية لصالح “الإنسانية ككل”.

استجوب ليفي ماسك وألتمان حول مستقبل الذكاء الاصطناعي. “هناك مدرستان فكريتان”، قال ” ماسك ” متأملًا. “هل تريد عددًا كبيرًا من الذكاء الاصطناعي أم عددًا صغيرًا من الذكاء الاصطناعي؟ نعتقد أن الكثير منها جيد على الأرجح.

“إذا كنت دكتور إيفل واستخدمته، ألن تقوم بتمكيني؟” – سأل ليفي. أجاب ألتمان: من المرجح أن يتم تمكين دكتور إيفل، إذا كان عدد قليل من الناس يسيطرون على التكنولوجيا: “فإذاً نحن حقاً في وضع سيئ”.

في الواقع، يتم بناء هذا “المكان السيئ” من قبل شركات التكنولوجيا نفسها. ماسك، الذي استقال من مجلس إدارة OpenAI قبل ستة أعوام لتطوير مشاريع الذكاء الاصطناعي الخاصة به، يقاضي الآن شركته السابقة بتهمة خرق العقد لأنها وضعت الأرباح قبل الصالح العام وفشلت في تطوير الذكاء الاصطناعي “لصالح الإنسانية”.

وفي عام 2019، أنشأت شركة OpenAI شركة فرعية تهدف إلى الربح لجمع الأموال من المستثمرين، ولا سيما مايكروسوفت. عندما تم إصدار ChatGPT في عام 2022، ظلت الأعمال الداخلية للنموذج مخفية. كان من الضروري أن نكون أقل انفتاحا، كما ادعى إيليا سوتسكيفر، وهو أحد مؤسسي شركة OpenAI وكبير علماء الشركة في ذلك الوقت، ردا على الانتقادات، لمنع أصحاب النوايا الخبيثة من استخدامه “لإحداث قدر كبير من الضرر”. لقد أصبح الخوف من التكنولوجيا بمثابة غطاء لخلق درع من التدقيق.

ردًا على دعوى ماسك القضائية، نشرت شركة OpenAI الأسبوع الماضي سلسلة من رسائل البريد الإلكتروني بين ماسك وأعضاء آخرين في مجلس الإدارة. يوضح هذا أن جميع أعضاء مجلس الإدارة اتفقوا منذ البداية على أن “OpenAI” لا يمكن أن يكون مفتوحًا بالفعل.

مع تطور الذكاء الاصطناعي، كتب “سوتسكيفر” إلى ” ماسك “، “سيكون من المنطقي أن نبدأ بأن نكون أقل انفتاحًا. إن الفتح في openAI يعني أنه يجب على الجميع الاستفادة من ثمار الذكاء الاصطناعي بعد ظهوره [sic] تم بناؤها، ولكن لا بأس تمامًا بعدم مشاركة العلم.” أجاب ” ماسك “: “نعم”. ومهما كانت دعواه القضائية، فإن ” ماسك ” ليس أكثر انفتاحًا على الانفتاح من غيره من أقطاب التكنولوجيا. إن التحدي القانوني الذي يواجه شركة OpenAI هو صراع على السلطة داخل وادي السيليكون أكثر من كونه محاولة لتحقيق المساءلة.

كتب ويلز العالم يتحرر في وقت الاضطرابات السياسية الكبيرة عندما شكك الكثيرون في حكمة توسيع نطاق الاقتراع ليشمل الطبقة العاملة.

“هل كان ذلك مرغوبًا، وهل كان من الآمن أن نعهد به؟ [the masses]”، تساءلت فابيان بياتريس ويب، مع “صندوق الاقتراع، مع تشكيل حكومة بريطانيا العظمى والسيطرة عليها بثروتها الهائلة وهيمناتها البعيدة؟” كان هذا هو السؤال الذي يكمن في قلب رواية ويلز أيضًا: لمن يمكن للمرء أن يعهد بالمستقبل؟

وبعد مرور قرن من الزمان، نشهد مرة أخرى مناقشة حادة حول فضائل الديمقراطية. يرى البعض أن الاضطرابات السياسية التي شهدتها الأعوام الأخيرة كانت نتاجاً لقدر أعظم مما ينبغي من الديمقراطية، والسماح لغير العقلانيين وغير المتعلمين باتخاذ قرارات مهمة. “من غير العادل أن نلقي على الأغبياء غير المؤهلين مسؤولية اتخاذ قرارات تاريخية شديدة التعقيد والتعقيد”، على حد تعبير ريتشارد دوكينز بعد الاستفتاء على خروج بريطانيا من الاتحاد الأوروبي، وهو الشعور الذي كان ويلز ليتفق معه.

ويرى آخرون أن هذا الازدراء للناس العاديين على وجه التحديد هو الذي ساعد في خلق عجز ديمقراطي تشعر فيه قطاعات كبيرة من السكان بالحرمان من إبداء رأيها في الكيفية التي يدار بها المجتمع.

إنه ازدراء يغذي المناقشات حول التكنولوجيا أيضًا. كما في العالم يتحرر, يتمحور النقاش حول الذكاء الاصطناعي حول أسئلة لا تتعلق بالتكنولوجيا فحسب، بل تتعلق أيضًا بالانفتاح والسيطرة. وعلى الرغم من التحذيرات، فإننا بعيدون كل البعد عن الآلات “فائقة الذكاء”. إن نماذج الذكاء الاصطناعي اليوم، مثل ChatGPT، أو Claude 3، التي أطلقتها شركة أخرى للذكاء الاصطناعي، Anthropic، في الأسبوع الماضي، جيدة جدًا في التنبؤ بما يجب أن تكون الكلمة التالية في التسلسل بحيث يمكنها خداعنا لنتخيل أن بإمكانها حمل كائن يشبه الإنسان. محادثة. ومع ذلك، فهم ليسوا أذكياء بأي معنى إنساني، ولديهم فهم ضئيل للعالم الحقيقي وليسوا على وشك القضاء على البشرية.

إن المشاكل التي يطرحها الذكاء الاصطناعي ليست وجودية، بل اجتماعية. من التحيز الخوارزمي إلى المراقبة الجماعية، ومن التضليل والرقابة إلى سرقة حقوق الطبع والنشر، لا ينبغي أن يكون اهتمامنا هو أن الآلات قد تمارس ذات يوم السلطة على البشر، بل أنها تعمل بالفعل بطرق تعزز عدم المساواة والظلم، وتوفر الأدوات التي يمكن من خلالها لمن هم في السلطة أن تعزيز سلطتهم.

ولهذا السبب فإن ما يمكن أن نطلق عليه “مناورة إيجبرت” ــ الإصرار على أن بعض التكنولوجيات خطيرة للغاية إلى الحد الذي يجعل من الضروري وضعها خارج نطاق الضغوط الديمقراطية والسيطرة عليها من قِبَل قِلة مختارة ــ أمر بالغ الخطورة. المشكلة ليست في دكتور إيفل فقط، بل في أولئك الذين يستخدمون الخوف من دكتور إيفل لحماية أنفسهم من التدقيق.

كنان مالك كاتب عمود في Observer

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى