الذكاء الاصطناعي لا يسبب الضرر في حد ذاته. يجب أن نقلق على الأشخاص الذين يسيطرون عليها | كنان مالك


أمرات شعرت أقل مثل الخلافة من أبراج فولتي، ليست مأساة شكسبيرية بقدر ما هي مهزلة لوريل وهاردي. تعد OpenAI من أهم شركات التكنولوجيا اليوم بفضل نجاح منتجها الأكثر شهرة، Chatbot ChatGPT. كان من المحتم أن تنتشر الفوضى التي أحاطت بإقالة سام ألتمان، ثم إعادة تعيينه كرئيس تنفيذي، عبر وسائل الإعلام العالمية الأسبوع الماضي، مصحوبة بالدهشة والذهول بنفس القدر.

بالنسبة للبعض، كانت المهزلة دليلاً على عدم كفاءة مجلس الإدارة؛ للآخرين، إلى صراع الغرور الوحشي. بمعنى أعمق، يعكس الاضطراب أيضًا العديد من التناقضات في قلب صناعة التكنولوجيا. التناقض بين الأسطورة الأنانية التي تصور رواد الأعمال في مجال التكنولوجيا باعتبارهم متمردين “مخربين”، وبين سيطرتهم على وحش تبلغ قيمته مليارات الدولارات من الصناعة التي يشكلون من خلالها حياتنا كلها. التوتر أيضًا بين وجهة نظر الذكاء الاصطناعي كآلية لتحويل حياة الإنسان والخوف من أنه قد يشكل تهديدًا وجوديًا للبشرية.

قليل من المنظمات تجسد هذه التناقضات أكثر من OpenAI. إن مجرة ​​أصحاب الوزن الثقيل في وادي السيليكون، بما في ذلك إيلون ماسك وبيتر ثيل، اللذين أسسا المنظمة في عام 2015، اعتبروا أنفسهم مبشرين للذكاء الاصطناعي ويبشرون بالتحذير من التهديد الذي يشكله. “بفضل الذكاء الاصطناعي، نحن نستدعي الشيطان”، قال ” ماسك ” بشكل نذير.

إن الجمع بين احترام الذات غير المقيد لأنفسهم كأفراد استثنائيين يغزوون المستقبل، والتشاؤم العميق بشأن الآخرين والمجتمع، جعل الخوف من نهاية العالم قاب قوسين أو أدنى بالنسبة لعمالقة التكنولوجيا. العديد منهم “مستعدون”، أي من الناجين المستعدين لاحتمال وقوع حادث ماكس المجنون عالم. وقال ألتمان: “لدي أسلحة وذهب ويوديد البوتاسيوم ومضادات حيوية وبطاريات ومياه وأقنعة غاز من قوات الدفاع الإسرائيلية، وقطعة أرض كبيرة في بيج سور يمكنني السفر إليها”. نيويوركر بعد وقت قصير من إنشاء OpenAI. وادعى أن أفضل رواد الأعمال “مصابون بجنون العظمة للغاية، ومليئون بالأزمات الوجودية”. بما في ذلك، حتمًا، حول الذكاء الاصطناعي.

تم إنشاء OpenAI كصندوق خيري غير ربحي، وكان الغرض منه تطوير الذكاء العام الاصطناعي، أو AGI، والذي، بشكل عام، عبارة عن آلة يمكنها إنجاز، أو تجاوز، أي مهمة فكرية يمكن للبشر القيام بها. ومع ذلك، فإنها ستفعل ذلك بطريقة أخلاقية لصالح “الإنسانية ككل”.

بعد ذلك، في عام 2019، أنشأت المؤسسة الخيرية شركة فرعية هادفة للربح للمساعدة في جمع المزيد من الاستثمار، وسحبت في النهاية أكثر من 11 مليار دولار (8.7 مليار جنيه إسترليني) من مايكروسوفت. ومع ذلك، احتفظت المنظمة الأم غير الهادفة للربح بالسيطرة الكاملة، مما أضفى طابعًا مؤسسيًا على التوتر بين الرغبة في تحقيق الربح ومخاوف يوم القيامة بشأن المنتجات التي تحقق الربح. النجاح الاستثنائي لـ ChatGPT أدى إلى تفاقم هذا التوتر.

قبل عامين، غادرت مجموعة من الباحثين في OpenAI لتأسيس منظمة جديدة، Anthropic، خوفًا من وتيرة تطوير الذكاء الاصطناعي في شركتهم القديمة. وفي وقت لاحق، أخبر أحدهم أحد المراسلين أن “هناك احتمال بنسبة 20٪ أن يقوم الذكاء الاصطناعي المارق بتدمير البشرية خلال العقد المقبل”. ويبدو أن نفس الرهبة هي التي دفعت محاولة إقصاء ألتمان من النافذة والفوضى التي شهدتها قاعة مجلس الإدارة الأسبوع الماضي.

قد يتساءل المرء عن سيكولوجية الاستمرار في صنع الآلات التي يعتقد المرء أنها قد تقضي على حياة الإنسان. لكن المفارقة هي أنه على الرغم من المبالغة في الخوف من الذكاء الاصطناعي، فإن الخوف في حد ذاته يشكل مخاطره الخاصة. إن التحذير المبالغ فيه بشأن الذكاء الاصطناعي ينبع من الإحساس المتضخم بقدراته. ChatGPT جيد جدًا في التنبؤ بما يجب أن تكون عليه الكلمة التالية في التسلسل؛ جيد جدًا، في الواقع، لدرجة أننا نتخيل أنه يمكننا التحدث معه كما هو الحال مع إنسان آخر. لكنه لا يستطيع، كما يفعل البشر، فهم معاني تلك الكلمات، ولديه فهم ضئيل للعالم الحقيقي. ما زلنا بعيدين عن حلم “الذكاء العام الاصطناعي”. يقول جرادي بوش، كبير علماء هندسة البرمجيات في شركة آي بي إم: “لن يحدث الذكاء الاصطناعي العام”. مقترحوحتى “في حياة أولاد أولادكم”.

بالنسبة لأولئك في وادي السليكون الذين لا يتفقون مع هذا الرأي، والذين يعتقدون أن الذكاء الاصطناعي العام أصبح وشيكاً، فإن البشر بحاجة إلى الحماية من خلال “الاصطفاف” – ضمان أن الذكاء الاصطناعي “يتماشى مع القيم الإنسانية ويتبع النوايا البشرية”. قد يبدو هذا وسيلة عقلانية لتعويض أي ضرر قد يسببه الذكاء الاصطناعي. حتى تبدأ بالتساؤل ما هي “القيم الإنسانية” بالضبط، ومن يحددها، وماذا يحدث عندما تتصادم؟

إن القيم الاجتماعية موضع نزاع دائمًا، وخاصة اليوم، في عصر ينتشر فيه السخط على نطاق واسع، وغالبًا ما يكون مدفوعًا بانهيار المعايير التوافقية. إن علاقتنا بالتكنولوجيا هي في حد ذاتها موضوع للنقاش. بالنسبة للبعض، فإن الحاجة إلى الحد من الكراهية أو حماية الأشخاص من الأذى عبر الإنترنت تفوق أي حقوق في حرية التعبير أو الخصوصية. هذا هو الشعور الكامن وراء قانون السلامة الجديد على الإنترنت في بريطانيا. ولهذا السبب أيضًا يشعر الكثيرون بالقلق بشأن عواقب القانون.

ثم هناك مسألة التضليل. قليل من الناس قد ينكرون أن التضليل يمثل مشكلة، وسوف يصبح أكثر خطورة، مما يثير أسئلة صعبة حول الديمقراطية والثقة. ومع ذلك، تظل مسألة كيفية تعاملنا معها مثيرة للجدل إلى حد كبير، خاصة وأن العديد من المحاولات لتنظيم المعلومات المضللة تؤدي إلى منح صلاحيات أكبر لشركات التكنولوجيا لمراقبة الجمهور.

ومن ناحية أخرى، هناك مجال آخر مثير للقلق، وهو التحيز الخوارزمي، الذي يسلط الضوء على نقاط الضعف في الحجج المؤيدة لـ “الاصطفاف”. السبب الذي يجعل الخوارزميات عرضة للتحيز، خاصة ضد الأقليات، هو على وجه التحديد لأنها تتوافق مع القيم الإنسانية. يتم تدريب برامج الذكاء الاصطناعي على بيانات من العالم البشري، وهو عالم مليء بالممارسات والأفكار التمييزية. وتصبح هذه العناصر مدمجة في برامج الذكاء الاصطناعي أيضًا، سواء في نظام العدالة الجنائية أو الرعاية الصحية أو التعرف على الوجه أو التوظيف.

المشكلة التي نواجهها ليست أن الآلات قد تمارس ذات يوم السلطة على البشر. وهذه تكهنات لا مبرر لها في ظل التطورات الحالية. بل إن الأمر بالأحرى أننا نعيش بالفعل في مجتمعات يمارس فيها عدد قليل من الناس السلطة على حساب الأغلبية، وتوفر التكنولوجيا وسيلة لتعزيز تلك السلطة. بالنسبة لأولئك الذين يملكون قوة اجتماعية وسياسية واقتصادية، فمن المنطقي تصوير المشاكل على أنها تكنولوجية وليست اجتماعية، وعلى أنها تكمن في المستقبل وليس في الحاضر.

هناك عدد قليل من الأدوات المفيدة للإنسان والتي لا يمكن أن تسبب ضررًا أيضًا. ولكنها نادراً ما تسبب الضرر من تلقاء نفسها؛ بل يفعلون ذلك من خلال الطرق التي يتم بها استغلالهم من قبل البشر، وخاصة أصحاب السلطة. ويجب أن يكون هذا، وليس المخاوف الخيالية من الانقراض، نقطة البداية لأي مناقشة حول الذكاء الاصطناعي.

كنان مالك كاتب عمود في المراقب




اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading