هل يمكن مراقبة مولدات صور الذكاء الاصطناعي لمنع التزييف العميق الواضح للأطفال؟ | الذكاء الاصطناعي (AI)


يقوم المعتدون على الأطفال بإنشاء “تزييف عميق” لأهدافهم بواسطة الذكاء الاصطناعي من أجل ابتزازهم لحملهم على تصوير الاعتداءات التي يتعرضون لها، مما يؤدي إلى بدء دورة من الابتزاز الجنسي يمكن أن تستمر لسنوات.

يعد إنشاء صور محاكاة لإساءة معاملة الأطفال أمرًا غير قانوني في المملكة المتحدة، وقد اتفق حزب العمال والمحافظون على الرغبة في حظر جميع الصور الصريحة التي أنشأها الذكاء الاصطناعي لأشخاص حقيقيين.

ولكن لا يوجد اتفاق عالمي يذكر حول كيفية مراقبة هذه التكنولوجيا. والأسوأ من ذلك، بغض النظر عن مدى قوة الإجراءات التي تتخذها الحكومات، فإن إنشاء المزيد من الصور سيكون دائمًا بضغطة زر واحدة – فالصور الواضحة مدمجة في أسس توليد صور الذكاء الاصطناعي.

في ديسمبر/كانون الأول، توصل باحثون في جامعة ستانفورد إلى اكتشاف مثير للقلق: حيث كانت هناك مئات، وربما آلاف، من مواد الاعتداء الجنسي على الأطفال (CSAM) مدفونة بين مليارات الصور التي تشكل واحدة من أكبر مجموعات التدريب لمولدات صور الذكاء الاصطناعي.

قد يكون هناك الكثير. تحتوي مجموعة البيانات المعنية Laion (شبكة الذكاء الاصطناعي المفتوحة واسعة النطاق) على حوالي 5 مليارات صورة. مع نصف ثانية من الصورة، ربما يمكنك أن تنظر إليها جميعًا طوال حياتك – إذا كنت شابًا، وتتمتع بصحة جيدة وتتمكن من التخلص من النوم. لذلك كان على الباحثين أن يقوموا بمسح قاعدة البيانات تلقائيًا، ومطابقة الصور المشكوك فيها مع السجلات التي تحتفظ بها سلطات إنفاذ القانون، وتعليم النظام كيفية البحث عن صور مماثلة قبل تسليمها مباشرة إلى السلطات للمراجعة.

ردًا على ذلك، قام منشئو Laion بسحب مجموعة البيانات من التنزيل. وأشاروا إلى أنهم لم يوزعوا الصور المعنية مطلقًا، نظرًا لأن مجموعة البيانات كانت من الناحية الفنية مجرد قائمة طويلة من عناوين URL للصور المستضافة في مكان آخر على الإنترنت. في الواقع، بحلول الوقت الذي أجرى فيه الباحثون في جامعة ستانفورد دراستهم، كان ما يقرب من ثلث الروابط قد مات؛ ومن الصعب تحديد عدد هذه الأسلحة التي كانت تحتوي على مواد CSAM مرة واحدة.

لكن الضرر قد وقع بالفعل. إن الأنظمة التي تم تدريبها على Laion-5B، وهي مجموعة البيانات المحددة المعنية، تُستخدم بانتظام في جميع أنحاء العالم، مع حرق بيانات التدريب غير المشروعة بشكل لا يمكن محوه في شبكاتها العصبية. يمكن لمولدات الصور التي تعمل بتقنية الذكاء الاصطناعي إنشاء محتوى صريح للبالغين والأطفال، لأنهم رأوه.

صور تم إنشاؤها بواسطة الذكاء الاصطناعي لنساء تم إنشاؤها كمؤثرات على وسائل التواصل الاجتماعي من قبل وكالة إعلانات في برشلونة. تصوير: باو بارينا/ وكالة الصحافة الفرنسية/ غيتي إيماجز

من غير المرجح أن يكون ليون بمفرده. تم إنتاج مجموعة البيانات كمنتج “مفتوح المصدر”، تم تجميعها بواسطة متطوعين وتم إصدارها على الإنترنت بشكل عام لدعم أبحاث الذكاء الاصطناعي المستقلة. وهذا بدوره يعني أنه تم استخدامه على نطاق واسع لتدريب النماذج مفتوحة المصدر، بما في ذلك Stable Diffusion، وهو منشئ الصور الذي ساعد، باعتباره أحد الإصدارات الرائدة لعام 2022، في إطلاق ثورة الذكاء الاصطناعي. ولكن هذا يعني أيضًا أن مجموعة البيانات بأكملها كانت متاحة للعامة، ويمكن لأي شخص استكشافها وفحصها.

الأمر نفسه لا ينطبق على منافسة لايون. شركة OpenAI، على سبيل المثال، توفر فقط “بطاقة نموذجية” لنظام Dall-E 3 الخاص بها، والتي تنص على أن صورها “مأخوذة من مجموعة من المصادر المتاحة للجمهور والمرخصة”.

وتقول الشركة: “لقد بذلنا جهدًا لتصفية المحتوى الأكثر وضوحًا من بيانات التدريب الخاصة بنموذج Dall-E 3”. وما إذا كانت تلك الجهود قد نجحت أم لا، فيجب أن يتم ذلك على أساس الثقة.

تخطي ترويج النشرة الإخبارية السابقة

إن الصعوبة الهائلة في ضمان مجموعة بيانات نظيفة تمامًا هي أحد الأسباب التي تجعل منظمات مثل OpenAI تدافع عن مثل هذه القيود في المقام الأول. على عكس Stable Diffusion، من المستحيل تنزيل Dall-E 3 للتشغيل على أجهزتك الخاصة. وبدلاً من ذلك، يجب إرسال كل طلب عبر الأنظمة الخاصة بالشركة. بالنسبة لمعظم المستخدمين، تضع الطبقة المضافة ChatGPT في المنتصف، مما يعيد كتابة الطلبات بسرعة لتوفير المزيد من التفاصيل لمولد الصور للعمل معها.

وهذا يعني أن OpenAI، والمنافسين مثل Google الذين يتبعون نهجًا مماثلاً، لديهم أدوات إضافية لإبقاء المولدات الخاصة بهم واضحة: تحديد الطلبات التي يمكن إرسالها وتصفية الصور التي تم إنشاؤها قبل إرسالها إلى المستخدم النهائي. ويقول خبراء سلامة الذكاء الاصطناعي إن هذه طريقة أقل هشاشة للتعامل مع المشكلة من الاعتماد فقط على نظام تم تدريبه على عدم إنشاء مثل هذه الصور مطلقًا.

بالنسبة لـ “النماذج الأساسية”، وهي المنتجات الأقوى والأقل تقييدًا في ثورة الذكاء الاصطناعي، ليس من الواضح حتى ما إذا كانت مجموعة نظيفة تمامًا من بيانات التدريب مفيدة. قد لا يتمكن نموذج الذكاء الاصطناعي الذي لم يتم عرض صور صريحة عليه من قبل من التعرف عليه في العالم الحقيقي، على سبيل المثال، أو اتباع التعليمات حول كيفية الإبلاغ عنه إلى السلطات.

وقالت كيرستي إينيس، مديرة سياسة التكنولوجيا في منظمة العمل معًا: “نحن بحاجة إلى الحفاظ على مساحة لتطوير الذكاء الاصطناعي مفتوح المصدر”. “قد يكون هذا هو المكان الذي تكمن فيه أفضل الأدوات لإصلاح الأضرار المستقبلية.”

على المدى القصير، ينصب تركيز الحظر المقترح إلى حد كبير على الأدوات المصممة لهذا الغرض. واقترحت ورقة سياسية شارك في تأليفها إينيس اتخاذ إجراءات فقط ضد منشئي ومضيفي أدوات “التعري” ذات الغرض الواحد. ولكن على المدى الطويل، ستواجه مكافحة صور الذكاء الاصطناعي الصريحة أسئلة مماثلة لصعوبات أخرى في هذا المجال: كيف يمكنك تقييد نظام لا تفهمه بالكامل؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى