جوجل توقف مؤقتًا الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأشخاص بعد الانتقادات العرقية | الذكاء الاصطناعي (AI)

فرضت شركة جوجل حظراً مؤقتاً على نموذجها الجديد للذكاء الاصطناعي الذي ينتج صوراً للأشخاص بعد أن صورت الجنود الألمان في الحرب العالمية الثانية والفايكنج على أنهم أشخاص ملونون.
وقالت شركة التكنولوجيا إنها ستتوقف عن إنشاء نموذج جيميني لصور الأشخاص بعد أن نشر مستخدمو وسائل التواصل الاجتماعي أمثلة للصور التي تم إنشاؤها بواسطة الأداة التي تصور بعض الشخصيات التاريخية – بما في ذلك الباباوات والآباء المؤسسون للولايات المتحدة – في مجموعة متنوعة من الأعراق والأجناس.
“نحن نعمل بالفعل على معالجة المشكلات الأخيرة المتعلقة بميزة إنشاء الصور في Gemini. وقالت جوجل في بيان: “بينما نقوم بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا”.
ولم تشر جوجل إلى صور محددة في بياناتها، ولكن أمثلة لنتائج صور Gemini كانت متاحة على نطاق واسع على X، مصحوبة بتعليق على مشكلات الذكاء الاصطناعي المستمرة بدقة وتحيز، مع أحد موظفي Google السابقين قائلًا إنه “من الصعب إقناع Google Gemini بالاعتراف بوجود الأشخاص البيض”.
واعترف جاك كراوزيك، أحد كبار المديرين في فريق جيميني التابع لشركة جوجل، يوم الأربعاء بأن مولد الصور الخاص بالنموذج – وهو غير متوفر في المملكة المتحدة وأوروبا – يحتاج إلى تعديل.
وقال: “نحن نعمل على تحسين هذه الأنواع من التصوير على الفور”. “إن توليد صور الذكاء الاصطناعي لـ Gemini يولد مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.”
وأضاف كراوسيك في بيان على موقع X أن مبادئ الذكاء الاصطناعي الخاصة بجوجل تلزم أدوات توليد الصور الخاصة بها “بأن تعكس قاعدة مستخدمينا العالمية”. وأضاف أن جوجل ستواصل القيام بذلك لطلبات الصور “المفتوحة” مثل “شخص يمشي كلبًا” لكنه أقر بأن الاستجابة تطالب بميل تاريخي تحتاج إلى مزيد من العمل.
وقال: “السياقات التاريخية لها فروق دقيقة أكثر وسنعمل على ضبطها لاستيعاب ذلك”.
نحن ندرك أن Gemini يقدم معلومات غير دقيقة في بعض الصور التاريخية التي تم إنشاؤها للصور، ونحن نعمل على إصلاح ذلك على الفور.
كجزء من مبادئ الذكاء الاصطناعي الخاصة بنا https://t.co/BK786xbkey، نقوم بتصميم قدراتنا على توليد الصور لتعكس قاعدة مستخدمينا العالمية، ونحن…
– جاك كراوزيك (@JackK) 21 فبراير 2024
أظهرت تغطية التحيز في الذكاء الاصطناعي أمثلة متعددة للتأثير السلبي على الأشخاص الملونين. أظهر تحقيق أجرته صحيفة واشنطن بوست العام الماضي أمثلة متعددة لمولدات الصور التي تظهر التحيز ضد الأشخاص الملونين، فضلاً عن التمييز الجنسي. وجدت أن منشئ الصور Stable Diffusion XL أظهر أن متلقي قسائم الطعام هم في المقام الأول غير بيض أو ذوي بشرة داكنة على الرغم من أن 63٪ من متلقي قسائم الطعام في الولايات المتحدة هم من البيض. وأدى طلب صورة لشخص “في الخدمات الاجتماعية” إلى نتائج مماثلة.
وقال أندرو روجويسكي، من معهد الذكاء الاصطناعي المرتكز على الأشخاص في جامعة سري، إن التخفيف من التحيز يمثل “مشكلة صعبة في معظم مجالات التعلم العميق والذكاء الاصطناعي التوليدي”، ومن المرجح أن تحدث أخطاء نتيجة لذلك.
وقال: “هناك الكثير من الأبحاث والكثير من الأساليب المختلفة للقضاء على التحيز، بدءًا من تنظيم مجموعات بيانات التدريب إلى تقديم حواجز الحماية للنماذج المدربة”. “من المحتمل أن الذكاء الاصطناعي و LLMs [large language models] سيستمر في ارتكاب الأخطاء ولكن من المحتمل أيضًا أن يتحسن هذا بمرور الوقت.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.