صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي “تهدد بإرباك الإنترنت” | الذكاء الاصطناعي (AI)


حذرت هيئة مراقبة السلامة من أن “أسوأ الكوابيس” المتعلقة بصور الاعتداء الجنسي على الأطفال الناتجة عن الذكاء الاصطناعي أصبحت حقيقة وتهدد بإرباك الإنترنت.

قالت مؤسسة مراقبة الإنترنت (IWF) إنها عثرت على ما يقرب من 3000 صورة مسيئة تم إنتاجها بواسطة الذكاء الاصطناعي، مما ينتهك قانون المملكة المتحدة.

وقالت المنظمة التي تتخذ من المملكة المتحدة مقراً لها، إن الصور الموجودة لضحايا الانتهاكات في الحياة الواقعية يتم دمجها في نماذج الذكاء الاصطناعي، والتي تنتج بعد ذلك صوراً جديدة لهم.

وأضافت أن التكنولوجيا تُستخدم أيضًا لإنشاء صور للمشاهير الذين تم “تقليل أعمارهم” ثم تصويرهم كأطفال في سيناريوهات الاعتداء الجنسي. وشملت الأمثلة الأخرى لمواد الاعتداء الجنسي على الأطفال (CSAM) استخدام أدوات الذكاء الاصطناعي “لتعري” صور الأطفال الذين يرتدون ملابس والموجودة على الإنترنت.

وكان الاتحاد الدولي لرفع الأثقال قد حذر في الصيف من أن الأدلة على إساءة استخدام الذكاء الاصطناعي بدأت في الظهور، لكنه قال إن تقريره الأخير أظهر تسارعًا في استخدام التكنولوجيا. وقالت سوزي هارجريفز، الرئيسة التنفيذية للاتحاد الدولي لرفع الأثقال، إن “أسوأ كوابيس الهيئة الرقابية أصبحت حقيقة”.

“في وقت سابق من هذا العام، حذرنا من أن صور الذكاء الاصطناعي قد لا يمكن تمييزها قريبًا عن الصور الحقيقية للأطفال الذين يعانون من الاعتداء الجنسي، وأننا يمكن أن نبدأ في رؤية هذه الصور تنتشر بأعداد أكبر بكثير. وقالت: “لقد تجاوزنا هذه النقطة الآن”.

“من المثير للرعب أننا نرى المجرمين يتعمدون تدريب الذكاء الاصطناعي الخاص بهم على صور الضحايا الحقيقيين الذين عانوا بالفعل من سوء المعاملة. الأطفال الذين تعرضوا للاغتصاب في الماضي يتم الآن دمجهم في سيناريوهات جديدة لأن شخصًا ما، في مكان ما، يريد رؤيته.

وقال الاتحاد الدولي لرفع الأثقال إنه رأى أيضًا أدلة على بيع الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي عبر الإنترنت.

واستندت أحدث النتائج التي توصلت إليها إلى تحقيق استمر لمدة شهر في منتدى إساءة معاملة الأطفال على شبكة الإنترنت المظلمة، وهو قسم من الإنترنت لا يمكن الوصول إليه إلا من خلال متصفح متخصص.

وحققت في 11108 صورة في المنتدى، 2978 منها تنتهك قانون المملكة المتحدة من خلال تصوير الاعتداء الجنسي على الأطفال.

يعد الاعتداء الجنسي على الأطفال (CSAM) الناتج عن الذكاء الاصطناعي أمرًا غير قانوني بموجب قانون حماية الأطفال لعام 1978، الذي يجرم التقاط وتوزيع وحيازة “صورة غير لائقة أو صورة زائفة” للطفل. وقال الاتحاد الدولي لرفع الأثقال إن الغالبية العظمى من المواد غير القانونية التي عثر عليها كانت تنتهك قانون حماية الأطفال، حيث تم تصنيف أكثر من واحدة من كل خمس تلك الصور ضمن الفئة (أ)، وهي أخطر أنواع المحتوى، والتي يمكن أن تصور الاغتصاب والانتهاكات الجنسية. يعذب.

كما يجرم قانون الطب الشرعي والعدالة لعام 2009 الصور غير المحظورة للطفل، مثل الرسوم المتحركة أو الرسومات.

يخشى الاتحاد الدولي لرفع الأثقال من أن موجة من الاعتداءات الجنسية العنيفة التي يولدها الذكاء الاصطناعي ستصرف انتباه وكالات إنفاذ القانون عن اكتشاف الانتهاكات الحقيقية ومساعدة الضحايا.

تخطي ترويج النشرة الإخبارية السابقة

وقال هارجريفز: “إذا لم نتمكن من السيطرة على هذا التهديد، فإن هذه المواد تهدد بغزو الإنترنت”.

وقال دان سيكستون، كبير مسؤولي التكنولوجيا في IWF، إن أداة توليد الصور Stable Diffusion – وهي نموذج ذكاء اصطناعي متاح للجمهور يمكن تعديله للمساعدة في إنتاج CSAM – كانت منتج الذكاء الاصطناعي الوحيد الذي تمت مناقشته في المنتدى.

“لقد شهدنا مناقشات حول إنشاء المحتوى باستخدام Stable Diffusion، وهو برنامج متاح بشكل مفتوح.”

قالت شركة Stability AI، الشركة البريطانية التي تقف وراء Stable Diffusion، إنها “تحظر أي إساءة استخدام لأغراض غير قانونية أو غير أخلاقية عبر منصاتنا، وسياساتنا واضحة في أن هذا يشمل الاعتداء الجنسي على الأطفال”.

وقالت الحكومة إن مواد الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي سيتم تغطيتها بمشروع قانون السلامة عبر الإنترنت، المقرر أن يصبح قانونًا وشيكًا، وإن شركات التواصل الاجتماعي سيُطلب منها منع ظهورها على منصاتها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى