“التضليل على المنشطات”: هل الولايات المتحدة مستعدة لتأثير الذكاء الاصطناعي على الانتخابات؟ | أخبار الولايات المتحدة
انتخابات الذكاء الاصطناعي هنا.
وفي هذا العام بالفعل، استهدفت مكالمة آلية تم إنشاؤها باستخدام الذكاء الاصطناعي ناخبي نيو هامبشاير في الانتخابات التمهيدية في يناير، بزعم أنه الرئيس جو بايدن وطلب منهم البقاء في منازلهم، فيما قال المسؤولون إنه قد يكون المحاولة الأولى لاستخدام الذكاء الاصطناعي للتدخل في الانتخابات الأمريكية. وتم ربط المكالمات “المزيفة العميقة” بشركتين في تكساس، هما Life Corporation وLingo Telecom.
قالت ليزا جيلبرت، نائب الرئيس التنفيذي لمجموعة Public Citizen، وهي مجموعة كانت تضغط من أجل التنظيم الفيدرالي وعلى مستوى الولاية لاستخدام الذكاء الاصطناعي في السياسة، ليس من الواضح ما إذا كانت مكالمات التزييف العميق قد منعت بالفعل الناخبين من الإدلاء بأصواتهم، لكن هذا لا يهم حقًا.
وقال جيلبرت: “لا أعتقد أننا بحاجة إلى الانتظار لنرى كم عدد الأشخاص الذين تعرضوا للخداع حتى نفهم أن هذا هو الهدف”.
إن الأمثلة على ما يمكن أن ينتظر الولايات المتحدة يحدث في جميع أنحاء العالم. وفي سلوفاكيا، ربما تكون التسجيلات الصوتية المزيفة قد أثرت على الانتخابات، فيما يعد بمثابة “نذير مخيف لنوع التدخل الذي من المحتمل أن تشهده الولايات المتحدة خلال الانتخابات الرئاسية لعام 2024″، حسبما ذكرت شبكة CNN. وفي إندونيسيا، ساعدت الصورة الرمزية التي أنشأها الذكاء الاصطناعي لقائد عسكري في إعادة تسمية وزير دفاع البلاد باعتباره رجلاً “ممتلئ الخدود” الذي “يصنع قلوب أصابع على الطريقة الكورية ويحتضن قطته المحبوبة، بوبي، لإسعاد الناخبين من جيل Z”. حسبما نقلت رويترز. وفي الهند، تمت إعادة نسخ الذكاء الاصطناعي للسياسيين القتلى لتكريم المسؤولين المنتخبين، وفقًا لقناة الجزيرة.
لكن اللوائح التنظيمية الأمريكية ليست جاهزة لمواجهة الطفرة في تكنولوجيا الذكاء الاصطناعي سريعة الوتيرة وكيف يمكن أن تؤثر على الناخبين. بعد فترة وجيزة من المكالمة الزائفة في نيو هامبشاير، أعلنت لجنة الاتصالات الفيدرالية فرض حظر على المكالمات الآلية التي تستخدم صوت الذكاء الاصطناعي. ولم تضع الوكالة بعد قواعد تحكم استخدام الذكاء الاصطناعي في الإعلانات السياسية، على الرغم من أن الدول تتحرك بسرعة لسد الفجوة في التنظيم.
أطلق مجلس النواب الأمريكي فريق عمل مكونًا من الحزبين الجمهوري والديمقراطي في العشرين من فبراير الماضي، للبحث في الطرق التي يمكن من خلالها تنظيم الذكاء الاصطناعي، وإصدار تقرير يتضمن توصيات. ولكن مع الجمود الحزبي الذي يحكم الكونجرس، واللوائح التنظيمية الأمريكية التي تتخلف عن وتيرة التقدم السريع للذكاء الاصطناعي، فمن غير الواضح ما الذي يمكن أن يكون موجودًا في الوقت المناسب لانتخابات هذا العام، إن كان هناك أي شيء.
وبدون ضمانات واضحة، فإن تأثير الذكاء الاصطناعي على الانتخابات قد يقتصر على ما يمكن للناخبين تمييزه على أنه حقيقي وغير حقيقي. يمكن استخدام الذكاء الاصطناعي – في شكل نص أو روبوتات أو صوت أو صورة أو فيديو – لجعل الأمر يبدو وكأن المرشحين يقولون أو يفعلون أشياء لم يفعلوها، إما للإضرار بسمعتهم أو تضليل الناخبين. ويمكن استخدامه لتعزيز حملات التضليل، مما يجعل الصور تبدو حقيقية بما يكفي لخلق ارتباك للناخبين.
يمكن أن يكون المحتوى الصوتي، على وجه الخصوص، أكثر تلاعبًا لأن تقنية الفيديو ليست متقدمة بعد، كما أن متلقي المكالمات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي يفقدون بعض القرائن السياقية التي تشير إلى أن شيئًا ما مزيف قد يجدونه في مقطع فيديو مزيف عميق. ويخشى الخبراء أيضًا من أن تحاكي المكالمات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي أصوات الأشخاص الذين يعرفهم المتصل في الحياة الواقعية، مما قد يكون له تأثير أكبر على المتلقي لأن المتصل قد يبدو وكأنه شخص يعرفه ويثق به. يمكن للمتصلين الآن، المعروف باسم عملية احتيال “الجد”، استخدام الذكاء الاصطناعي لاستنساخ صوت أحد أحبائهم لخداع الهدف لإرسال الأموال. ويمكن تطبيق ذلك نظريًا على السياسة والانتخابات.
قال جيلبرت: “يمكن أن يأتي من أحد أفراد أسرتك أو من جارك، وقد يبدو مثلهم تمامًا”. “إن القدرة على الخداع من خلال الذكاء الاصطناعي قد أدت إلى زيادة مشكلة المعلومات الخاطئة والمضللة.”
هناك استخدامات أقل تضليلاً للتكنولوجيا للتأكيد على رسالة ما، مثل إنشاء مكالمات صوتية باستخدام الذكاء الاصطناعي مؤخرًا باستخدام أصوات الأطفال الذين قُتلوا في عمليات إطلاق نار جماعية بهدف إقناع المشرعين بالتصرف بشأن العنف المسلح. حتى أن بعض الحملات السياسية تستخدم الذكاء الاصطناعي لإظهار حقائق بديلة لتوضيح نقاطها، مثل إعلان اللجنة الوطنية الجمهورية الذي استخدم الذكاء الاصطناعي لخلق مستقبل مزيف إذا أعيد انتخاب بايدن. لكن بعض الصور التي ينشئها الذكاء الاصطناعي قد تبدو غير ضارة في البداية، مثل الصور المزيفة المنتشرة لأشخاص بجوار منحوتات كلاب خشبية منحوتة والتي ظهرت على فيسبوك، ولكن بعد ذلك يتم استخدامها لإرسال محتوى شائن في وقت لاحق.
وقال تشيستر ويسنيوسكي، خبير الأمن السيبراني في سوفوس، إن الأشخاص الذين يريدون التأثير على الانتخابات لم يعودوا بحاجة إلى “صناعة معلومات مضللة عن الانتخابات بشكل حرفي”. الآن، تساعد أدوات الذكاء الاصطناعي في إرسال الروبوتات التي تبدو وكأنها أشخاص حقيقيين بسرعة أكبر، “مع وجود سيد روبوت واحد خلف عناصر التحكم مثل الرجل في ساحر أوز”.
ولعل الأمر الأكثر إثارة للقلق هو أن ظهور الذكاء الاصطناعي يمكن أن يجعل الناس يتساءلون عما إذا كان أي شيء يرونه حقيقيًا أم لا، مما يقدم جرعة كبيرة من الشك في وقت لا تزال فيه التقنيات نفسها تتعلم كيفية محاكاة الواقع بشكل أفضل.
“هناك فرق بين ما هو الذكاء الاصطناعي قد قالت كاتي هارباث، التي عملت سابقًا في مجال السياسة في فيسبوك وتكتب الآن عن التقاطع بين التكنولوجيا والديمقراطية: “ما يفعله الذكاء الاصطناعي وما يفعله بالفعل”. وقالت إن الناس سيبدأون في التساؤل: “ماذا لو كان الذكاء الاصطناعي استطاع افعل كل هذا؟ إذن ربما لا ينبغي لي أن أثق في كل ما أراه.
حتى بدون التنظيم الحكومي، أعلنت الشركات التي تدير أدوات الذكاء الاصطناعي وأطلقت خططًا للحد من تأثيرها المحتمل على الانتخابات، مثل جعل روبوتات الدردشة الخاصة بها توجه الأشخاص إلى مصادر موثوقة حول مكان التصويت وعدم السماح لروبوتات الدردشة التي تقلد المرشحين. يتضمن الاتفاق الأخير بين شركات مثل Google وMeta وMicrosoft وOpenAI “احتياطات معقولة” مثل وضع علامات إضافية وتعليم حول المحتوى السياسي الناتج عن الذكاء الاصطناعي، على الرغم من أنه لن يحظر هذه الممارسة.
لكن الجهات الفاعلة السيئة غالبًا ما تنتهك أو تلتف حول اللوائح الحكومية والقيود التي تفرضها المنصات. فكر في قائمة “عدم الاتصال”: حتى لو كنت مدرجًا فيها، فمن المحتمل أنك لا تزال تتلقى بعض المكالمات غير المرغوب فيها.
على المستوى الوطني، أو مع الشخصيات العامة الكبرى، يحدث فضح التزييف العميق بسرعة كبيرة، حيث تتدخل المجموعات الخارجية والصحفيون لاكتشاف محاكاة ساخرة ونشر الكلمة بأنها غير حقيقية. ومع ذلك، عندما يكون النطاق أصغر، يكون هناك عدد أقل من الأشخاص الذين يعملون على فضح شيء يمكن أن ينتج عن الذكاء الاصطناعي. تبدأ الروايات في الظهور. في بالتيمور، على سبيل المثال، يمكن أن تكون التسجيلات التي تم نشرها في شهر يناير لمدير محلي يُزعم أنه أدلى بتعليقات مسيئة، قد تم إنشاؤها بواسطة الذكاء الاصطناعي، ولا تزال قيد التحقيق.
وفي غياب اللوائح التنظيمية الصادرة عن لجنة الانتخابات الفيدرالية (FEC)، قامت مجموعة من الولايات بوضع قوانين بشأن استخدام الذكاء الاصطناعي في الإعلانات السياسية، وقدمت عشرات الولايات الأخرى مشاريع قوانين حول هذا الموضوع. وقال جيلبرت إنه على مستوى الولاية، يعد تنظيم الذكاء الاصطناعي في الانتخابات قضية مشتركة بين الحزبين. غالبًا ما تدعو مشاريع القوانين إلى إفصاحات واضحة أو إخلاء المسؤولية في الإعلانات السياسية للتأكد من أن الناخبين يفهمون أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي؛ وقالت إنه بدون هذا الكشف، سيتم حظر استخدام الذكاء الاصطناعي في العديد من مشاريع القوانين.
ذكرت صحيفة واشنطن بوست أن لجنة الانتخابات الفيدرالية فتحت عملية وضع قواعد للذكاء الاصطناعي في الصيف الماضي، وقالت الوكالة إنها تتوقع حلها في وقت ما هذا الصيف. حتى ذلك الحين، قد يكون للإعلانات السياسية التي تستخدم الذكاء الاصطناعي بعض اللوائح الحكومية التي يجب اتباعها، ولكن بخلاف ذلك لا تكون مقيدة بأي قواعد FEC خاصة بالذكاء الاصطناعي.
وقال جيلبرت: “نأمل أن نتمكن من تحقيق شيء ما في الوقت المناسب، حتى لا يكون الأمر أشبه بالغرب المتوحش”. “لكنها تقترب من هذه النقطة، ونحن بحاجة إلى التحرك بسرعة كبيرة.”
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.