مايكروسوفت تجاهلت مشاكل السلامة مع مولد الصور بالذكاء الاصطناعي، مهندس يشكو | مايكروسوفت


نشر مهندس ذكاء اصطناعي في شركة مايكروسوفت رسالة يوم الأربعاء يزعم فيها أن مولد صور الذكاء الاصطناعي الخاص بالشركة يفتقر إلى الضمانات الأساسية ضد إنشاء صور عنيفة وجنسية. في الرسالة، ذكر المهندس شين جونز أن محاولاته المتكررة لتحذير إدارة Microsoft بشأن المشكلات فشلت في اتخاذ أي إجراء. وقال جونز إنه أرسل الرسالة إلى لجنة التجارة الفيدرالية ومجلس إدارة مايكروسوفت.

“على المستوى الداخلي، تدرك الشركة جيدًا المشكلات النظامية حيث يقوم المنتج بإنشاء صور ضارة يمكن أن تكون مسيئة وغير مناسبة للمستهلكين”، حسبما ذكر جونز في الرسالة التي نشرها على LinkedIn. يسرد لقبه باعتباره “مدير هندسة البرمجيات الرئيسي”.

ونفى متحدث باسم مايكروسوفت أن الشركة تجاهلت قضايا السلامة، مشيرًا إلى أن لديها “قنوات تقارير داخلية قوية” للتعامل مع مشكلات الذكاء الاصطناعي التوليدية. ولم يرد جونز على الفور على طلب للتعليق.

تركز الرسالة على المشكلات المتعلقة ببرنامج Copilot Designer من Microsoft، وهي أداة يمكنها إنشاء صور بناءً على المطالبات النصية ويتم تشغيلها بواسطة نظام الذكاء الاصطناعي DALL-E 3 من OpenAI. إنها واحدة من العديد من أدوات إنشاء صور الذكاء الاصطناعي التي تم إطلاقها خلال العام الماضي، وهي جزء من فترة ازدهار الصناعة التي أثارت أيضًا مخاوف بشأن استخدام الذكاء الاصطناعي لنشر معلومات مضللة أو إنشاء محتوى كاره للنساء وعنصري وعنيف.

يحتوي برنامج Copilot Designer على “مشكلات نظامية” في إنتاج محتوى ضار، كما يزعم جونز في الرسالة، ويجب إزالته من الاستخدام العام حتى تقوم الشركة بإصلاح المخرجات. يجادل جونز على وجه التحديد بأن برنامج Copilot Designer يفتقر إلى القيود المناسبة على استخدامه ويميل إلى إنشاء صور تجعل النساء تجسيدًا جنسيًا حتى عند تقديم مطالبات غير ذات صلة تمامًا.

يقول جونز في الرسالة التي تضمنت أمثلة لأجيال الصور: “باستخدام “حادث سيارة” الفوري فقط، قام Copilot Designer بإنشاء صورة لامرأة راكعة أمام السيارة وهي ترتدي الملابس الداخلية فقط”. “كما أنها أنتجت صورًا متعددة لنساء يرتدين ملابس داخلية ويجلسن على غطاء السيارة أو يسيرن أمام السيارة.”

ادعت مايكروسوفت أن لديها فرقًا مخصصة لتقييم مشكلات السلامة المحتملة، وأن الشركة سهلت اجتماعات لجونز مع مكتب الذكاء الاصطناعي المسؤول لديها.

وقال متحدث باسم مايكروسوفت في بيان لصحيفة الغارديان: “نحن ملتزمون بمعالجة أي وجميع مخاوف الموظفين وفقًا لسياسات شركتنا ونقدر جهود الموظف في دراسة واختبار أحدث تقنياتنا لتعزيز سلامتها”.

أطلقت شركة مايكروسوفت برنامج Copilot “رفيق الذكاء الاصطناعي” العام الماضي، وأعلنت عنه بشكل كبير كوسيلة ثورية لدمج أدوات الذكاء الاصطناعي في الشركات والمساعي الإبداعية. تقوم الشركة بتسويق برنامج Copilot كمنتج يمكن الوصول إليه للاستخدام العام، وقد عرضته الشهر الماضي في إعلان Super Bowl تحت شعار “أي شخص. في أى مكان. أي جهاز.” يقول جونز إن إخبار المستهلكين بأن برنامج Copilot Designer آمن ليستخدمه أي شخص هو أمر غير مسؤول، وأن الشركة تفشل في الكشف عن المخاطر المعروفة المرتبطة بالأداة.

قامت Microsoft بتحديث برنامج Copilot Designer في يناير بسبب مخاوف تتعلق بالسلامة مماثلة لتلك التي لدى جونز، حسبما ذكرت 404 Media، مما أدى إلى إغلاق الثغرات في كود الذكاء الاصطناعي بعد انتشار الصور الجنسية المزيفة لتايلور سويفت على نطاق واسع عبر وسائل التواصل الاجتماعي. يستشهد جونز بالحادثة في الرسالة كدليل على أن المخاوف التي أثارها في الأشهر الأخيرة كانت صحيحة، مشيرًا إلى أنه أخبر مايكروسوفت في ديسمبر عن الثغرات الأمنية في برنامج Copilot والتي سمحت للمستخدمين بالتغلب على حواجز الحماية الخاصة بها لإنشاء محتوى ضار.

يزعم جونز أيضًا أن فريق الشؤون المؤسسية والخارجية والقانونية في Microsoft ضغط عليه لإزالة منشور LinkedIn الذي نشره في ديسمبر، والذي حث فيه مجلس الإدارة في OpenAI على تعليق توفر DALL-E 3 بسبب مخاوف تتعلق بالسلامة. وقال إن جونز حذف الرسالة بناء على توجيهات من مديره، لكنه لم يتلق أي مبرر من الإدارة القانونية على الرغم من طلباته بتفسير.

واجهت أدوات صور الذكاء الاصطناعي التوليدية مشكلات متكررة بشأن إنشاء محتوى ضار وتعزيز التحيزات، وهي مشكلات ترتبط عادةً بالتحيز ضد مجموعات معينة. قامت Google مؤخرًا بتعليق أداة Gemini AI الخاصة بها بعد أن تسببت في جدل عام بسبب إنشاء صور لأشخاص ملونين عندما طُلب منهم إظهار شخصيات تاريخية مثل الباباوات والفايكنج والجنود النازيين.


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading