احذر من “الخداع”: لماذا يمثل الذكاء الاصطناعي التوليدي تهديدًا حقيقيًا ووشيكًا للطريقة التي نعيش بها | أندريه سبايسر


دفي عام 2023، ظهر شكل السياسة المقبلة في مقطع فيديو. تقول فيه هيلاري كلينتون – المرشحة الرئاسية السابقة للحزب الديمقراطي ووزيرة الخارجية -: “كما تعلمون، قد يفاجأ الناس بسماعي أقول هذا، لكنني في الواقع أحب رون ديسانتيس كثيرًا. نعم اعرف. أود أن أقول إنه مجرد نوع من الرجل الذي تحتاجه هذه البلاد.

ويبدو من الغريب أن تؤيد كلينتون بحرارة المرشح الجمهوري للرئاسة. و هو. ووجدت التحقيقات الإضافية أن الفيديو تم إنتاجه باستخدام الذكاء الاصطناعي التوليدي (AI).

إن فيديو كلينتون هو مجرد مثال صغير على الكيفية التي يمكن بها للذكاء الاصطناعي التوليدي أن يعيد تشكيل السياسة بشكل عميق في المستقبل القريب. وقد أشار الخبراء إلى العواقب المترتبة على الانتخابات. وتشمل هذه إمكانية إنشاء معلومات كاذبة بتكلفة قليلة أو بدون تكلفة وإنتاج إعلانات مخصصة للغاية للتلاعب بالناخبين. ويمكن أن تكون النتائج ما يسمى “مفاجآت أكتوبر” – أي خبر ينشر قبيل الانتخابات الأمريكية في نوفمبر، حيث يتم تداول معلومات مضللة ولا يوجد وقت كافي لدحضها – وتوليد معلومات مضللة حول الإدارة الانتخابية، مثل أماكن مراكز الاقتراع.

أصبحت المخاوف بشأن تأثير الذكاء الاصطناعي التوليدي على الانتخابات ملحة مع دخولنا عام سيصوت فيه مليارات الأشخاص في جميع أنحاء الكوكب. ومن المتوقع خلال عام 2024 أن تكون هناك انتخابات في تايوان والهند وروسيا وجنوب أفريقيا والمكسيك وإيران وباكستان وإندونيسيا والاتحاد الأوروبي والولايات المتحدة والمملكة المتحدة. إن العديد من هذه الانتخابات لن تحدد مستقبل الدول القومية فحسب؛ كما أنها ستشكل كيفية تعاملنا مع التحديات العالمية مثل التوترات الجيوسياسية وأزمة المناخ. من المحتمل أن تتأثر كل من هذه الانتخابات بتقنيات الذكاء الاصطناعي التوليدية الجديدة بنفس الطريقة التي شكلت بها وسائل التواصل الاجتماعي انتخابات العقد الأول من القرن الحادي والعشرين.

في حين أنفق السياسيون الملايين لتسخير قوة وسائل التواصل الاجتماعي لتشكيل الانتخابات خلال العقد الأول من القرن الحادي والعشرين، فإن الذكاء الاصطناعي التوليدي يقلل بشكل فعال من تكلفة إنتاج معلومات فارغة ومضللة إلى الصفر. وهذا أمر مثير للقلق بشكل خاص لأننا شهدنا خلال العقد الماضي الدور الذي يمكن أن يلعبه ما يسمى “الهراء” في السياسة. في كتاب قصير حول هذا الموضوع، عرّف الفيلسوف الراحل هاري فرانكفورت من جامعة برينستون الهراء على وجه التحديد بأنه خطاب يهدف إلى الإقناع دون النظر إلى الحقيقة. طوال العقد الأول من القرن الحادي والعشرين، بدا أن هذا أصبح ممارسة شائعة بشكل متزايد بين القادة السياسيين. مع ظهور الذكاء الاصطناعي التوليدي والتقنيات مثل ChatGPT، يمكننا أن نشهد ظهور ظاهرة نطلق عليها أنا وزملائي اسم “botshit”.

في بحث حديث، سعينا أنا وتيم هانيجان وإيان مكارثي لفهم ما هو البوتشيت بالضبط وكيف يعمل. ومن المعروف أن تقنيات الذكاء الاصطناعي التوليدي مثل ChatGPT يمكن أن تنتج ما يسمى “الهلوسة”. وذلك لأن الذكاء الاصطناعي التوليدي يجيب على الأسئلة عن طريق إجراء تخمينات مستنيرة إحصائيًا. غالبًا ما تكون هذه التخمينات صحيحة، لكنها في بعض الأحيان تكون خاطئة إلى حد كبير. يمكن أن تكون النتيجة “هلوسة” مصطنعة لا علاقة لها بالواقع، مثل التفسيرات أو الصور التي تبدو معقولة ظاهريًا، ولكنها ليست في الواقع الإجابة الصحيحة على السؤال مهما كان.

قد يستخدم البشر مواد غير حقيقية تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي بطريقة غير نقدية وطائشة. وهذا قد يجعل من الصعب على الناس معرفة ما هو صحيح وما هو خطأ في العالم. في بعض الحالات، قد تكون هذه المخاطر منخفضة نسبيًا، على سبيل المثال إذا تم استخدام الذكاء الاصطناعي التوليدي لمهمة ليست مهمة جدًا (مثل التوصل إلى بعض الأفكار لخطاب في حفل عيد ميلاد)، أو إذا كانت حقيقة المخرجات صحيحة. يمكن التحقق منها بسهولة باستخدام مصدر آخر (مثل متى حدثت معركة واترلو). تنشأ المشاكل الحقيقية عندما يكون لمخرجات الذكاء الاصطناعي التوليدي عواقب مهمة ولا يمكن التحقق من المخرجات بسهولة.

إذا تم استخدام الهلوسة التي ينتجها الذكاء الاصطناعي للإجابة على أسئلة مهمة ولكن يصعب التحقق منها، مثل حالة الاقتصاد أو الحرب في أوكرانيا، فهناك خطر حقيقي من أنها يمكن أن تخلق بيئة يبدأ فيها بعض الأشخاص في اتخاذ قرارات تصويت مهمة بناءً على عالم وهمي تماما من المعلومات. هناك خطر من أن ينتهي الأمر بالناخبين إلى العيش في حقائق متولدة عبر الإنترنت تعتمد على مزيج سام من هلوسة الذكاء الاصطناعي والنفعية السياسية.

على الرغم من أن تقنيات الذكاء الاصطناعي تشكل مخاطر، إلا أن هناك تدابير يمكن اتخاذها للحد منها. يمكن لشركات التكنولوجيا الاستمرار في استخدام العلامات المائية، والتي تتيح للمستخدمين التعرف بسهولة على المحتوى الذي ينشئه الذكاء الاصطناعي. ويمكنهم أيضًا التأكد من تدريب الذكاء الاصطناعي على مصادر المعلومات الموثوقة. ويمكن للصحفيين اتخاذ احتياطات إضافية لتجنب تغطية القصص التي ينشئها الذكاء الاصطناعي خلال الدورة الانتخابية. يمكن للأحزاب السياسية تطوير سياسات لمنع استخدام المعلومات الخادعة التي يولدها الذكاء الاصطناعي. والأهم من ذلك، أن الناخبين يمكنهم ممارسة حكمهم النقدي من خلال التحقق من صحة أجزاء مهمة من المعلومات التي ليسوا متأكدين منها.

لقد بدأ صعود الذكاء الاصطناعي التوليدي بالفعل في إحداث تغيير جذري في العديد من المهن والصناعات. ومن المرجح أن تكون السياسة في طليعة هذا التغيير. يشير معهد بروكينجز إلى أن هناك العديد من الطرق الإيجابية التي يمكن من خلالها استخدام الذكاء الاصطناعي التوليدي في السياسة. ولكن في الوقت الحالي أصبحت استخداماته السلبية أكثر وضوحا، ومن المرجح أن تؤثر علينا بشكل وشيك. ومن الأهمية بمكان أن نسعى جاهدين لضمان استخدام الذكاء الاصطناعي التوليدي لأغراض مفيدة ولا يؤدي ببساطة إلى المزيد من الهراء.

  • أندريه سبايسر هو أستاذ السلوك التنظيمي في كلية بايز للأعمال في سيتي بجامعة لندن. وهو مؤلف كتاب هراء الأعمال


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading