كشف: الشرطة الأمريكية منعت من الاطلاع على العديد من تقارير الاعتداء الجنسي على الأطفال عبر الإنترنت، كما يقول المحامون | تكنولوجيا
تقوم شركات وسائل التواصل الاجتماعي، التي تعتمد على برامج الذكاء الاصطناعي لإدارة منصاتها، بتوليد تقارير غير قابلة للتطبيق حول حالات الاعتداء الجنسي على الأطفال، مما يمنع الشرطة الأمريكية من رؤية خيوط محتملة وتأخير التحقيقات مع المحتالين المزعومين، حسبما كشفت صحيفة الغارديان.
بموجب القانون، يتعين على شركات وسائل التواصل الاجتماعي التي يوجد مقرها في الولايات المتحدة الإبلاغ عن أي مواد اعتداء جنسي على الأطفال يتم اكتشافها على منصاتها إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). يعمل NCMEC كمركز لتبادل المعلومات على المستوى الوطني للدلائل المتعلقة بإساءة معاملة الأطفال، والتي يرسلها إلى إدارات إنفاذ القانون ذات الصلة في الولايات المتحدة وحول العالم. وقالت المنظمة في تقريرها السنوي إنها تلقت أكثر من 32 مليون تقرير عن استغلال جنسي للأطفال من الشركات والجمهور في عام 2022، وحوالي 88 مليون صورة وفيديو وملفات أخرى.
Meta هي أكبر مراسل لهذه النصائح، حيث تم الحصول على أكثر من 27 مليونًا، أو 84٪، من خلال منصات Facebook وInstagram وWhatsApp في عام 2022. ويتم تمويل NCMEC جزئيًا من وزارة العدل، ولكنها تتلقى أيضًا تبرعات خاصة وتبرعات من الشركات، بما في ذلك من ميتا، التي تشغل مقعد مجلس إدارة NCMEC. NCMEC وMeta لا يكشفان عن حجم هذا التبرع.
تستخدم شركات وسائل التواصل الاجتماعي، بما في ذلك شركة Meta، الذكاء الاصطناعي للكشف عن المواد المشبوهة على مواقعها والإبلاغ عنها وتوظيف مشرفين بشريين لمراجعة بعض المحتوى الذي تم الإبلاغ عنه قبل إرساله إلى جهات إنفاذ القانون. ومع ذلك، لا يمكن لوكالات إنفاذ القانون الأمريكية فتح التقارير الصادرة عن الذكاء الاصطناعي بشأن مواد الاعتداء الجنسي على الأطفال (CSAM) إلا من خلال إرسال مذكرة تفتيش إلى الشركة التي أرسلتها. إن تقديم التماس إلى القاضي للحصول على أمر قضائي وانتظار الحصول عليه يمكن أن يضيف أيامًا أو حتى أسابيع إلى عملية التحقيق.
قال ستاكا شيهان، نائب رئيس قسم الخدمات التحليلية في NCMEC: “إذا لم تشر الشركة عند إبلاغها بالملف إلى NCMEC إلى أنها شاهدت الملف قبل تقديم التقرير، فلا يمكننا فتحه”. “عندما نرسله إلى سلطات إنفاذ القانون، لا يمكنهم مشاهدته أو فتحه دون تقديم الإجراءات القانونية أولاً [social media company]”.
نظرًا لحماية الخصوصية الأمريكية بموجب التعديل الرابع، الذي يحظر عمليات التفتيش والمصادرة غير المعقولة من قبل الحكومة، لا يُسمح لمسؤولي إنفاذ القانون أو NCMEC – التي تتلقى تمويلًا فيدراليًا – بفتح تقارير عن إساءة استخدام محتملة دون أمر تفتيش ما لم تكن محتويات التقرير تمت مراجعتها أولاً بواسطة شخص في شركة التواصل الاجتماعي.
تم تبني هذه الممارسات منذ أكثر من عقد من الزمن، عندما نص حكم صدر عام 2013 عن المحكمة الجزئية الأمريكية في ماساتشوستس على أن NCMEC كان يعمل كوكيل حكومي في التحقيقات في الانتشار المزعوم لمواد إساءة معاملة الأطفال عبر الإنترنت. وقد توصلت العديد من المحاكم الفيدرالية إلى نفس النتيجة منذ ذلك الحين. قضية عام 2021 في محكمة الدائرة التاسعة، والتي تغطي الولايات الواقعة على الساحل الغربي، رأت أن المراجعة غير المبررة التي يقوم بها ضباط إنفاذ القانون لتقارير إساءة معاملة الأطفال الناتجة عن الذكاء الاصطناعي من Google كانت انتهاكًا للتعديل الرابع.
نظرًا لأن موظفي NCMEC ووكلاء إنفاذ القانون لا يمكنهم قانونيًا النظر في محتويات المعلومات إذا تم إنشاؤها بواسطة الذكاء الاصطناعي ولكن لم يقم الإنسان بمراجعتها مطلقًا، فإن التحقيقات في الحيوانات المفترسة المزعومة تتعثر لمدة تصل إلى عدة أسابيع، مما قد يؤدي إلى فقدان الأدلة. وفقًا لخبراء ومحامي سلامة الأطفال.
“أي تأخير [in viewing the evidence] وقال مساعد المدعي العام الأمريكي المقيم في كاليفورنيا، والذي تحدث بشرط عدم الكشف عن هويته، إن “الجرائم تضر بضمان سلامة المجتمع”، حيث لا يتم اكتشاف الجناة لفترة أطول. “إنهم يشكلون خطراً على كل طفل.”
في بعض الحالات، بعد تقديم البلاغ، تقوم بعض شركات التواصل الاجتماعي بتعطيل حساب المستخدم لمنع استمرار نشاطه على منصاتها. يمكن أن يؤدي ذلك إلى إزالة الأدلة المتعلقة بجرائمهم المشتبه فيها من خوادم المنصة.
وقال مساعد المدعي العام الأمريكي المقيم في كاليفورنيا: “هذا أمر محبط”. “بحلول الوقت الذي يكون لديك فيه حسابًا محددًا ولديك مذكرة، قد لا يكون هناك أي شيء هناك.”
ردًا على طلب من صحيفة الغارديان، قالت NCMEC إنها لا تحتفظ بسجل لعدد النصائح التي تتلقاها والتي يتم إنشاؤها بواسطة الذكاء الاصطناعي. ومع ذلك، قال اثنان من المدعين الفيدراليين الذين تمت مقابلتهم إنه لم يُسمح لهما بالاطلاع على معظم النصائح التي يتلقونها من شركات التواصل الاجتماعي الكبرى لأن الذكاء الاصطناعي هو من أنشأها.
قال المدعي الفيدرالي في ماساتشوستس، الذي طلب عدم الكشف عن هويته، إن المعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لا يتم التحقيق فيها في كثير من الأحيان من قبل سلطات إنفاذ القانون لأنها تفتقر إلى المعلومات المحددة اللازمة للحصول على إفادة خطية أولية عن سبب محتمل من شأنها إقناع القاضي بإصدار أمر التفتيش. اسم الشيئ. وقال إن هذه النصائح تتطلب إجراءات تحقيقية إضافية – وهو وقت إضافي لا يملكه المدعون العامون وموظفوهم.
“الأقسام غارقة في المياه ولا تملك الموارد نظرًا لحجم الإكراميات، لذلك نقوم بالفرز. وقال المحامي: “وبالتالي، فإن النصائح غير القابلة للتطبيق والتي لا يمكن تنفيذها على الفور تبقى في الدرج ليتم العمل بها عندما يكون هناك الوقت والموارد”. “لا يتم اتخاذ إجراء بشأنهم لأن الرجال والنساء الذين يقومون بهذا العمل لن يحصلوا أبدًا على الموارد الكافية للحصول على الوقت الكافي لجعل هذه النصائح قابلة للتنفيذ.”
ووصف شيهان من NCMEC التأخيرات المحتملة بأنها “مثيرة للقلق”.
“عندما تقدم معلومات إلى جهات إنفاذ القانون حول جريمة محتملة تتعلق بالاستغلال الجنسي للأطفال، يأخذ الجميع ذلك على محمل الجد ويريدون اتخاذ الإجراءات اللازمة. وقالت: “إذا كانت هناك خطوات إضافية بسبب هذه الأنواع من الحواجز، فمن الواضح أن الأمر مثير للقلق”.
وقال المدعي العام في ماساتشوستس إن الاعتماد على الذكاء الاصطناعي للاعتدال يضع العبء على مجموعة صغيرة نسبيًا من مسؤولي إنفاذ القانون المنهكين الذين يحققون في هذه الحالات، والذين “يغرقون في هذا العمل المفجع”.
وقال: “قد يكون الذكاء الاصطناعي حلاً لمعاملة موظفيها بشكل أفضل، لكن شركات التواصل الاجتماعي لن تجد مواد جديدة تتعلق بإساءة معاملة الأطفال، لأن الذكاء الاصطناعي لن يستوعب سوى نقاط البيانات القديمة”. “إنه ليس الحل لتحسين عالم الاستغلال. لا تزال بحاجة إلى أن يضع الناس أعينهم عليه.
في ديسمبر/كانون الأول، رفع مكتب المدعي العام في نيو مكسيكو دعوى قضائية ضد شركة ميتا، زاعمًا أن الشبكات الاجتماعية للشركة أصبحت أسواقًا لمستغلي الأطفال، وأنها فشلت مرارًا وتكرارًا في الإبلاغ عن النشاط غير القانوني على منصاتها. رداً على ذلك، قالت ميتا إنها تعطي الأولوية لمكافحة مواد الاعتداء الجنسي على الأطفال.
ألقى المدعي العام للولاية باللوم على ميتا في النضال من أجل إرسال نصائح قابلة للتطبيق. وقال راؤول توريز في بيان لصحيفة الغارديان: “تظهر التقارير التي تشير إلى عدم فعالية نظام المعلومات السيبرانية الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في الشركة ما أوضحناه في شكوانا – لقد أعطى مارك زوكربيرج والمسؤولون التنفيذيون في شركة ميتا الأولوية للأرباح على حساب سلامة الأطفال”.
وأضاف توريز: “لقد مضى وقت طويل على إصلاح الشركة وتنفيذ التغييرات على مستويات التوظيف والسياسات والخوارزميات لضمان سلامة الأطفال وإبلاغ الآباء وأن سلطات إنفاذ القانون يمكنها التحقيق بشكل فعال في الجرائم الجنسية عبر الإنترنت ضد الأطفال ومقاضاة مرتكبيها”.
على الرغم من القيود القانونية المفروضة على الذكاء الاصطناعي المعتدل، إلا أن شركات التواصل الاجتماعي قد تزيد من استخدامه في المستقبل القريب. في عام 2023، أعلنت شركة OpenAI، صانعة ChatGPT، أن محركها GPT-4 يمكنه القيام بعمل مشرفي المحتوى البشري، مدعية أن نموذج اللغة الكبير كان دقيقًا تقريبًا. ومن شأن برنامج الدردشة الآلي، وفقًا للشركة، أن يساعد في تجنب الصدمة النفسية التي يمكن أن يتعرض لها الأشخاص من خلال مشاهدة المحتوى العنيف والمسيء لوظائفهم.
ومع ذلك، يقول خبراء سلامة الأطفال إن برامج الذكاء الاصطناعي التي تستخدمها شركات وسائل التواصل الاجتماعي للإشراف على المحتوى فعالة فقط في تحديد الصور المعروفة للاعتداء الجنسي على الأطفال لأن البصمات الرقمية للصور، المعروفة باسم قيم التجزئة، معروفة بالفعل. وقال المحامون الذين تمت مقابلتهم إنه بالنسبة للصور التي تم إنشاؤها حديثًا، أو الصور ومقاطع الفيديو المعروفة التي تم تغييرها، فإن الذكاء الاصطناعي ليس فعالاً.
قالت كريستينا كوروبوف، المحامية الأولى في Zero Abuse Project، وهي منظمة غير ربحية تركز على مكافحة إساءة معاملة الأطفال: “هناك دائمًا قلق بشأن حالات الضحايا الذين تم التعرف عليهم حديثًا، والمواد ليس لها قيمة تجزئة لأنها جديدة”. . “سترى زيادة في اكتشاف الضحايا المكتشفين حديثًا إذا كان البشر يقومون بهذا العمل.”
في العام الماضي، قامت شركات التكنولوجيا الكبرى Meta وTwitter وAlphabet بإلغاء الوظائف من فرقها المسؤولة عن الإشراف. وقال كوروبوف إن مثل هذه التخفيضات تؤدي في النهاية إلى عدد أقل من التقارير عن مواد إساءة معاملة الأطفال التي يراجعها البشر في الشركات، مما يضع عبئًا أكبر على إنفاذ القانون مع زيادة العدد المحتمل لأوامر التفتيش المطلوبة.
ويقول المحققون إنهم غارقون بالفعل في المعلومات السيبرانية. قال كوروبوف: “الحقيقة هي أن هؤلاء الضباط ليس لديهم الوقت”. “المشكلة الأكبر هي حجم المعلومات السيبرانية الواردة وهذه خطوة إضافية. نحن نتعامل مع الآلاف من النصائح السيبرانية التي تصل إلى أي دولة سنويًا.
وتجادل بأن زيادة عدد المشرفين على المحتوى البشري من شأنه أن يساعد في تخفيف عبء العمل على سلطات إنفاذ القانون، وقالت إن التخفيضات الأخيرة في وظائف المشرفين “محبطة”.
وقالت: “لقد أصبح إدراكًا مثيرًا للاشمئزاز أن هناك بشرًا في تلك الشركات من المرجح أن يكون لديهم أطفال يحبونهم في حياتهم، والذين قرروا أنه يمكنهم كسب المزيد من المال باستخدام جهاز كمبيوتر للقيام بذلك”.
رفض ميتا تقديم بيان رسمي.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.