تُظهر فضيحة جورجي بورسيل للفوتوشوب مدى أهمية الشفافية عندما يتعلق الأمر بالذكاء الاصطناعي | وسائل الإعلام الأسترالية
لقد مرت خمس سنوات منذ آخر فضيحة فوتوشوب في أستراليا، والتي شملت الحذاء الأبيض لرئيس الوزراء آنذاك سكوت موريسون، ولكن يبدو الأمر وكأنه عالم بعيد.
هذا الأسبوع، قامت النائبة عن حزب العدالة الحيوانية، جورجي بورسيل، بتحرير صورتها لتكبير ثدييها وإدراج محصول في الجزء العلوي من جسمها لم يكن موجودًا هناك. نظرًا لأنه كان في السابق ضحية لإساءة استخدام الصور، قال بورسيل إن الحادث بدا وكأنه انتهاك، وأن التفسير الذي قدمته Nine News فشل في معالجة المشكلة.
من جانبها، ألقت شركة Nine اللوم على أداة “الأتمتة” في برنامج Photoshop – أداة “التعبئة التوليدية” التي تم إطلاقها مؤخرًا، والتي، كما يوحي اسمها، تملأ فراغات الصورة عندما يتم تغيير حجمها باستخدام الذكاء الاصطناعي. وقال Nine إن الشركة كانت تعمل من نسخة تم اقتصاصها بالفعل من الصورة الأصلية، واستخدمت الأداة للتوسع خارج حدود الصورة الحالية. ولكن من قام بتغيير الصورة فمن المفترض أنه قام بتصدير النسخة المعدلة دون النظر إلى تأثير التغييرات.
يبدو الخطأ الفادح في Photoshop وكأنه نذير لعالم إعلامي يعتمد بشكل متزايد على الذكاء الاصطناعي، حيث أصبح تحديد ما إذا كان شيء ما قد تم إنشاؤه بواسطة الإنسان أو الآلة أكثر غموضًا من أي وقت مضى ويصبح الذكاء الاصطناعي كبش فداء مناسبًا لشرح الأخطاء.
يكشف الحادث أيضًا أن Nine تستخدم الذكاء الاصطناعي في الصور التي تبثها دون الكشف عن تلاعب الذكاء الاصطناعي.
في أغسطس، قال مايك سنيسبي، الرئيس التنفيذي لشركة Nine، إنه “يرى إمكانية استخدام Nine للذكاء الاصطناعي لتحقيق فوائد ذات مغزى وطويلة المدى في إنتاج المحتوى والكفاءة التشغيلية والتسويق في جميع أنحاء الأعمال”.
لا شك أن أداة التعبئة التوليدية من Adobe توفر “الكفاءة التشغيلية”، ولكن هل كان على شركة Nine أن تعلن أنها بدأت في استخدام التعبئة التوليدية ووضع علامة على ذلك في الصور التي يتم بثها؟
على الرغم من أن ناين قد اعتذر وقبل المسؤولية، يبدو أن الحادث ينتهك مبادئ أخلاقيات الذكاء الاصطناعي الأسترالية (الطوعية)، التي تنصح بضرورة تحديد هوية الأشخاص الذين يستخدمون الذكاء الاصطناعي ومساءلتهم عن النتائج، ويجب أن تكون هناك إشراف بشري.
تتفق قواعد أخلاقيات الصحفيين في Media, Entertainment and Arts Alliance، حيث تنص على أن الصور والصوت يجب أن تكون صحيحة ودقيقة، و”يجب الكشف عن التلاعب الذي من المحتمل أن يؤدي إلى التضليل”.
على الجانب التقني، يثير هذا تساؤلات حول مجموعة البيانات التي تستخدمها Adobe لتدريب الذكاء الاصطناعي الخاص بها. أشارت الاختبارات التي أجرتها صحيفة Guardian Australia هذا الأسبوع إلى أن تعبئة Adobe لصور النساء غالبًا ما تؤدي إلى ظهور أفلام قصيرة أقصر، وهو أمر تمكن Crikey أيضًا من محاكاته.
وقالت Adobe في بيان إنها قامت بتدريب نموذجها باستخدام “مجموعات بيانات صور متنوعة” وتختبر النموذج باستمرار للتخفيف من “إدامة الصور النمطية الضارة”. وقالت الشركة إنها تعتمد أيضًا على تقارير المستخدمين بشأن المخرجات التي يحتمل أن تكون متحيزة لتحسين العمليات.
“يعد هذا الحوار المتبادل مع الجمهور أمرًا بالغ الأهمية حتى نتمكن من العمل معًا لمواصلة جعل الذكاء الاصطناعي التوليدي أفضل للجميع.”
جزء من الفوضى التي تخلقها أدوات الذكاء الاصطناعي لا يقتصر فقط على الصور ومقاطع الفيديو والصوت المزيفة، بل على الشك الذي تزرعه حول كل شيء آخر.
لم تشهد أستراليا بعد فضيحة تتعلق بسياسي يدعي أن عملية الاستيلاء على الصوت أو الفيديو غير المناسب هي عبارة عن عملية تزييف عميقة بواسطة الذكاء الاصطناعي، ولكن من المحتمل ألا يمر وقت طويل.
وفي الولايات المتحدة، ادعى الناشط السياسي اليميني روجر ستون الشهر الماضي أن الصوت المسرب الذي يهدد بقتل الديمقراطيين كان من إنتاج الذكاء الاصطناعي. وفي الوقت نفسه، كانت النسخة المزيفة من صوت الرئيس الأمريكي جو بايدن، التي تم إنشاؤها بواسطة الذكاء الاصطناعي، تجري مكالمات آلية تنشر معلومات مضللة حول الانتخابات التمهيدية في نيو هامبشاير.
عندما لا تستطيع معرفة ما هو حقيقي وما هو الذكاء الاصطناعي، فجأة يصبح كل شيء موضع شك. وهذا يعني بالنسبة لشركات الإعلام على أقل تقدير، وشركات التكنولوجيا أيضًا، أن الإفصاح أمر بالغ الأهمية.
على الصعيد العالمي، لا يزال المشرعون يتوصلون إلى كيفية تنفيذ حواجز الحماية بالضبط، وكان التقدم تدريجيًا. في الولايات المتحدة، تم تقديم تشريع لتجريم انتشار الصور الجنسية غير التوافقية التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعد تداول الصور المزيفة عبر الإنترنت التي تصور تايلور سويفت الأسبوع الماضي.
من المحتمل أن تنضم أستراليا إلى هذا الحظر عبر القوانين التي يفرضها مفوض السلامة الإلكترونية، لكنها كانت تراقب إلى حد كبير من بعيد. في الشهر الماضي، أعلنت أستراليا أنه سيتم استشارة “لجنة خبراء” بشأن أفضل الخطوات التالية بشأن الذكاء الاصطناعي عالي المخاطر.
وسيتم تغطية بعض القضايا بموجب القانون الحالي. قامت الدكتورة ريتا ماتوليونيت، وهي محاضرة أولى في القانون بجامعة ماكواري، بتأليف ورقة بحثية حول الذكاء الاصطناعي والحقوق الأخلاقية. وأخبرت صحيفة الغارديان الأسترالية أن قانون حقوق الطبع والنشر، على سبيل المثال، يجب أن يمنع “المعاملة المهينة” لأعمال حقوق الطبع والنشر، مثل التغيير أو التشويه بواسطة الذكاء الاصطناعي، على الرغم من وجود حالات قليلة تم فيها مناقشة هذا الأمر بنجاح.
وقالت ماتوليونيت إنه من غير الواضح أيضًا ما إذا كان مثل هذا القانون سيساعد بورسيل، نظرًا لأنها ليست المصورة، وقد لا يكون التلاعب كبيرًا بما يكفي.
وقالت: “إذا تم تجريد الشخص الموجود في الصورة من معظم/كل ملابسه أو تمت إضافة خلفية من شأنها تشويه الفكرة وراء الصورة، فمن المرجح أن ينجح انتهاك حق النزاهة”.
وفي النهاية، الأمر كله يتعلق بالشفافية.
وقالت الحكومة إنها ستعمل مع الصناعة لتطوير “رمز طوعي” لتسمية أو وضع علامة مائية على المحتوى الذي ينشئه الذكاء الاصطناعي. ومن الواضح أن ترك الأمر للنوايا الحسنة للشركات الكبيرة المشاركة في هذه التكنولوجيا للقيام بالشيء الصحيح ليس خيارا قابلا للتطبيق.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.