ضجة صور أميرة ويلز تؤكد الحساسية حول معالجة الصور | كاثرين، أميرة ويلز


في الوقت الذي وصلت فيه الشكوك حول وسائل الإعلام التي تم التلاعب بها إلى مستوى جديد من القلق، فإن الضجة التي أثارتها صور أميرة ويلز تؤكد على الحساسية المحيطة بالتلاعب بالصور.

كانت كاثرين موضوعًا لخلاف حول تعديل الصور في عام 2011 عندما قامت غراتسيا بتعديل صورة لها في يوم زفافها – ولكن كان ذلك قبل أن تؤدي الاختراقات في الذكاء الاصطناعي إلى إثارة قلق الجميع.

كان هناك طوفان من التزييف العميق الناتج عن الذكاء الاصطناعي في السنوات الأخيرة، بدءًا من مقطع فيديو لفولوديمير زيلينسكي يطلب من جنوده الاستسلام، إلى صور صريحة لتايلور سويفت. قد تكون الأمثلة التاريخية للتلاعب بالصور قديمة ــ من لاعبي كرة القدم الأرجنتينيين الذين يمسكون بحقائب اليد إلى أتباع ستالين المفقودين ــ ولكن هناك الآن مصداقية مثيرة للقلق للمحتوى الذي يولده الذكاء الاصطناعي.

محاولات كاثرين لتعديل صورة عائلية، وسط تكهنات محمومة على وسائل التواصل الاجتماعي حول صحتها، اصطدمت مباشرة بمخاوف واسعة النطاق بشأن الثقة في الصور والنصوص والصوت في عام يتوجه فيه نصف العالم إلى صناديق الاقتراع.

تقول شويتا سينغ، الأستاذة المساعدة في نظم المعلومات في كلية وارويك للأعمال: “هذه الصورة هي مثال رئيسي على كون عام 2024 عاما حاسما لاكتشاف وإيقاف وسائل الإعلام التي يتم التلاعب بها”.

“على الرغم من أن هذا ربما كان عبارة عن بعض عمليات الفوتوشوب ذات المستوى المنخفض، إلا أن الكثير من الوسائط المحررة المتداولة حاليًا يمكن أن تكون أكثر شراً. ومع الانتخابات التي جرت في كل من المملكة المتحدة والولايات المتحدة هذا العام، أصبحت أهمية أصالة وسائل الإعلام أكبر من أي وقت مضى. إن مثل هذا الفوتوشوب المشبوه لا يؤدي إلا إلى تقويض ثقة الجمهور في وسائل الإعلام التي يتم تقديمها لهم، ويخاطر بإلحاق ضرر كبير بثقة الجمهور.

يقول مايكل جرين، وهو محاضر كبير في الوسائط الرقمية بجامعة كينت، إن صورة عائلة ويلز هي “تحرير على مستوى الهواة بشكل واضح” باستخدام برامج مثل Adobe Photoshop، على الرغم من أن الأميرة لم تؤكد ما هي الأدوات التي استخدمتها بعد أن اعترفت يوم الاثنين بأنها قد غيرت الصورة.

يقول جرين إن التغييرات التي أجرتها كاثرين “تتجاوز مجرد اللمسات النهائية” وتمثل تعديلات مهمة، على الرغم من أنه يضيف أن النتيجة النهائية أكدت عدم خبرتها في التعامل مع أي برنامج كانت تستخدمه.

وبسبب ضجة كبيرة عبر الإنترنت، قامت بعض أكبر وكالات الصور في العالم بسحب الصورة بعد أن تبين أنها تنتهك بشكل واضح المبادئ التوجيهية. وتقول وكالة أسوشيتد برس، التي سحبت الصورة، إن الصورة “لا يجوز تعديلها باستخدام برنامج فوتوشوب أو بأي وسيلة أخرى”، في حين تقول وكالة فرانس برس إنه لا يجوز “التلاعب أو تحرير” الصور.

وعلى الرغم من هذه الإرشادات، فقد وصلت الصورة. يقول نيك نيومان، أحد كبار الباحثين المشاركين في معهد رويترز لدراسة الصحافة، إن هذه اللقطة في ويلز هي تذكير بأن المؤسسات الإعلامية سيتعين عليها فحص جميع قصصها بقوة أكبر في عصر التطور التكنولوجي العالي.

ويقول: «لسنوات عديدة كانت هذه الوكالات تركز حقًا على التحقق من الصور التي تأتي من مصادر أقل موثوقية. وهذا تذكير بأنه يتعين علينا توخي الحذر بشأن جميع المصادر للمضي قدمًا لأن الجميع لديه هذه الأدوات الآن.

وقد اصطف الخبراء أيضًا لاستبعاد أن تكون الصورة قد تم إنشاؤها بواسطة الذكاء الاصطناعي، وهو نوع من التحقق المزدوج الذي أصبح قياسيًا الآن.

يقول هاني فريد، الأستاذ بجامعة كاليفورنيا في بيركلي والمتخصص في اكتشاف التزييف العميق: “لا يوجد دليل على أن هذه الصورة تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي”.

تخطي ترويج النشرة الإخبارية السابقة

ويجعل الذكاء الاصطناعي التحدي المتمثل في اكتشاف الوسائط التي تم التلاعب بها أو المزورة أكبر، ليس أقله بسبب تعقيدها، ولكن أيضا بسبب قدرتها على إنتاج محتوى مقنع بكميات كبيرة وبسرعة مثيرة للقلق. وفي حديثها في مؤتمر تقني في لندن يوم الاثنين، اعترفت وزيرة التكنولوجيا، ميشيل دونيلان، بأنه في معالجة التزييف العميق الناتج عن الذكاء الاصطناعي “لا يوجد حل تكنولوجي واحد يكون هو الحل لكل شيء”.

وبدلاً من ذلك، سيكون هناك نهج خليط لاكتشاف المعلومات المضللة التي يصنعها الذكاء الاصطناعي من المعطلين الذين تتضمن ترسانتهم الآن مجموعة من الحيل بدءًا من المكالمات الآلية المزيفة لجو بايدن إلى الصور الرمزية لمذيعي الأخبار.

وتشمل الجهود المبذولة لمكافحة المشكلة تحالف مصدر المحتوى والأصالة، وهو تجمع يضم في عضويته شركة أدوبي، وبي بي سي، وجوجل، والذي يعمل على تطوير معايير فنية لتحديد المعلومات المضللة الناتجة عن الذكاء الاصطناعي. أعلنت شركة Meta التابعة لمارك زوكربيرج أنها ستصنف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على Facebook وInstagram وThreads، بينما تقوم Google بتجربة تقنية تحدد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم إنشاؤها بواسطة أدوات صنع الصور الخاصة بها.

تضيف السيدة ويندي هول، أستاذة علوم الكمبيوتر في جامعة ساوثهامبتون وعضو الهيئة الاستشارية للأمم المتحدة بشأن الذكاء الاصطناعي، أن قصة صور عائلة ويلز لا تتعلق بالتزييف العميق والذكاء الاصطناعي، بل تتعلق بقضية طويلة الأمد موجودة لتبقى.

تقول: “يتعلق الأمر بمن يمكننا الوثوق به في رواية القصة كما تتكشف. هذه مشكلة قديمة قدم الزمن، لكن التكنولوجيا هي التي تختلف هذه الأيام.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى