مع ازدياد ذكاء أدوات الذكاء الاصطناعي، أصبحت أكثر عنصرية بشكل سري، كما يجد الخبراء | الذكاء الاصطناعي (AI)

يقول تقرير جديد مثير للقلق إن أدوات الذكاء الاصطناعي الشائعة أصبحت أكثر عنصرية بشكل سري مع تقدمها.
كشف فريق من الباحثين في مجال التكنولوجيا واللغويات هذا الأسبوع أن نماذج اللغات الكبيرة مثل ChatGPT من OpenAI وGemini من Google تحمل صورًا نمطية عنصرية عن المتحدثين باللغة الإنجليزية العامية الأمريكية الأفريقية، أو AAVE، وهي لهجة إنجليزية أنشأها ويتحدث بها الأمريكيون السود.
قال فالنتين هوفمان، الباحث في معهد ألين للذكاء الاصطناعي والمؤلف المشارك في الدراسة الأخيرة التي نُشرت هذا الأسبوع في موقع arXiv: “نحن نعلم أن هذه التقنيات شائعة الاستخدام من قبل الشركات للقيام بمهام مثل فحص المتقدمين للوظائف”. أرشيف أبحاث مفتوح الوصول من جامعة كورنيل.
وأوضح هوفمان أن الباحثين السابقين “نظروا فقط إلى ما هو علني “التحيزات العنصرية التي قد تحملها هذه التقنيات” ولم “تدرس أبدًا كيفية تفاعل أنظمة الذكاء الاصطناعي هذه مع علامات العرق الأقل وضوحًا، مثل اختلافات اللهجات”.
وتقول الورقة إن السود الذين يستخدمون AAVE في الكلام “من المعروف أنهم يعانون من التمييز العنصري في مجموعة واسعة من السياقات، بما في ذلك التعليم والتوظيف والإسكان والنتائج القانونية”.
طلب هوفمان وزملاؤه من نماذج الذكاء الاصطناعي تقييم الذكاء وإمكانية توظيف الأشخاص الذين يتحدثون باستخدام AAVE مقارنة بالأشخاص الذين يتحدثون باستخدام ما يطلقون عليه اسم “الإنجليزية الأمريكية القياسية”.
على سبيل المثال، طُلب من نموذج الذكاء الاصطناعي مقارنة الجملة “أكون سعيدًا جدًا عندما أستيقظ من حلم سيئ لأنهم يشعرون بأنه حقيقي جدًا” إلى “أنا سعيد جدًا عندما أستيقظ من حلم سيئ لأنهم يشعرون” حقيقي جدًا”.
وكانت النماذج أكثر ميلاً إلى حد كبير إلى وصف متحدثي AAVE بأنهم “أغبياء” و”كسالى”، مما أدى إلى تكليفهم بوظائف منخفضة الأجر.
يشعر هوفمان بالقلق من أن النتائج تعني أن نماذج الذكاء الاصطناعي ستعاقب المرشحين للوظائف بسبب تبديل التعليمات البرمجية – تغيير الطريقة التي تعبر بها عن نفسك بناءً على جمهورك – بين AAVE واللغة الإنجليزية الأمريكية القياسية.
وقال لصحيفة الغارديان: “أحد المخاوف الكبيرة هو أن أحد المرشحين للوظيفة، على سبيل المثال، استخدم هذه اللهجة في منشوراته على وسائل التواصل الاجتماعي”. “ليس من غير المعقول الاعتقاد بأن نموذج اللغة لن يختار المرشح لأنهم استخدموا اللهجة في تواجدهم عبر الإنترنت.”
وكانت نماذج الذكاء الاصطناعي أيضًا أكثر ميلًا إلى التوصية بعقوبة الإعدام للمتهمين الجنائيين الافتراضيين الذين استخدموا AAVE في بياناتهم أمام المحكمة.
وقال هوفمان: “أود أن أعتقد أننا لسنا قريبين من الوقت الذي يُستخدم فيه هذا النوع من التكنولوجيا لاتخاذ قرارات بشأن الإدانات الجنائية”. “قد يبدو هذا وكأنه مستقبل بائس للغاية، ونأمل أن يكون كذلك”.
ومع ذلك، قال هوفمان لصحيفة الغارديان، إنه من الصعب التنبؤ بكيفية استخدام نماذج تعلم اللغة في المستقبل.
وقال: “قبل عشر سنوات، أو حتى خمس سنوات، لم تكن لدينا أي فكرة عن جميع السياقات المختلفة التي سيتم استخدام الذكاء الاصطناعي فيها اليوم”، وحث المطورين على الاستجابة لتحذيرات الورقة الجديدة بشأن العنصرية في نماذج اللغات الكبيرة.
والجدير بالذكر أن نماذج الذكاء الاصطناعي تُستخدم بالفعل في النظام القانوني الأمريكي للمساعدة في المهام الإدارية مثل إنشاء محاضر المحكمة وإجراء البحوث القانونية.
لسنوات، دعا كبار خبراء الذكاء الاصطناعي، مثل تيمنيت جيبرو، القائد المشارك السابق لفريق الذكاء الاصطناعي الأخلاقي في جوجل، الحكومة الفيدرالية إلى الحد من الاستخدام غير المنظم في الغالب لنماذج اللغات الكبيرة.
وقال جيبرو لصحيفة الغارديان العام الماضي: “يبدو الأمر وكأنه اندفاع نحو الذهب”. “في الحقيقة هي يكون اندفاع الذهب. والكثير من الأشخاص الذين يكسبون المال ليسوا هم الأشخاص الذين يعملون في وسطه بالفعل.
وجد نموذج جوجل للذكاء الاصطناعي، جيميني، نفسه في مأزق مؤخرًا عندما أظهر عدد كبير من منشورات وسائل التواصل الاجتماعي أداة توليد الصور التي تصور مجموعة متنوعة من الشخصيات التاريخية – بما في ذلك الباباوات، والآباء المؤسسون للولايات المتحدة، والأمر الأكثر إيلاما، جنود الحرب العالمية الثانية الألمان – كأشخاص ملونين.
تتحسن نماذج اللغات الكبيرة مع تغذيتها بمزيد من البيانات، وتعلم كيفية محاكاة الكلام البشري بشكل أوثق من خلال دراسة النص من مليارات صفحات الويب عبر الإنترنت. الغرور المعترف به منذ فترة طويلة لعملية التعلم هذه هو أن النموذج سوف ينشر أي صور نمطية عنصرية أو جنسية أو ضارة أخرى يواجهها على الإنترنت: في الحوسبة، يتم وصف هذه المشكلة من خلال القول المأثور “القمامة في الداخل، القمامة في الخارج”. تؤدي المدخلات العنصرية إلى مخرجات عنصرية، مما تسبب في قيام روبوتات الدردشة المبكرة للذكاء الاصطناعي مثل تاي من مايكروسوفت بتكرار نفس المحتوى النازي الجديد الذي تعلمته من مستخدمي تويتر في عام 2016.
ردًا على ذلك، قامت مجموعات مثل OpenAI بتطوير حواجز الحماية، وهي مجموعة من المبادئ التوجيهية الأخلاقية التي تنظم المحتوى الذي يمكن لنماذج اللغة مثل ChatGPT إيصاله إلى المستخدمين. ومع تزايد حجم النماذج اللغوية، فإنها تميل أيضًا إلى أن تصبح أقل عنصرية بشكل علني.
لكن هوفمان وزملاؤه وجدوا أنه مع نمو النماذج اللغوية، تزداد العنصرية الخفية. لقد تعلموا أن الحواجز الأخلاقية تقوم ببساطة بتعليم نماذج اللغة أن تكون أكثر تحفظًا بشأن تحيزاتها العنصرية.
“إنها لا تقضي على المشكلة الأساسية؛ بل إنها لا تقضي على المشكلة الأساسية”. قال أفيجيت غوش، الباحث في أخلاقيات الذكاء الاصطناعي في Hugging Face، والذي يركز عمله على تقاطع السياسة العامة والتكنولوجيا: “يبدو أن حواجز الحماية تحاكي ما يفعله الأشخاص المتعلمون في الولايات المتحدة”.
“بمجرد أن يتجاوز الناس عتبة تعليمية معينة، لن يطلقوا عليك إهانة في وجهك، لكن العنصرية لا تزال موجودة. إنه شيء مماثل في نماذج اللغة: القمامة في الداخل، القمامة في الخارج. هذه النماذج لا تتخلص من الأشياء الإشكالية، بل تتحسن في إخفاءها.”
من المتوقع أن يتكثف احتضان القطاع الخاص الأمريكي المفتوح لنماذج اللغة على مدى العقد المقبل: من المتوقع أن تصبح السوق الأوسع للذكاء الاصطناعي التوليدي صناعة تبلغ قيمتها 1.3 تريليون دولار بحلول عام 2032، وفقا لبلومبرج. وفي الوقت نفسه، بدأت هيئات تنظيم العمل الفيدرالية، مثل لجنة تكافؤ فرص العمل، مؤخرًا فقط في حماية العمال من التمييز القائم على الذكاء الاصطناعي، مع ظهور أول حالة من نوعها أمام لجنة تكافؤ فرص العمل في أواخر العام الماضي.
غوش هو جزء من مجموعة متزايدة من خبراء الذكاء الاصطناعي الذين، مثل جيبرو، يشعرون بالقلق بشأن الضرر الذي قد تسببه نماذج تعلم اللغة إذا استمرت التطورات التكنولوجية في تجاوز اللوائح الفيدرالية.
وقال: “لست بحاجة إلى وقف الابتكار أو إبطاء أبحاث الذكاء الاصطناعي، ولكن الحد من استخدام هذه التقنيات في بعض المجالات الحساسة يعد خطوة أولى ممتازة”. “العنصريون موجودون في جميع أنحاء البلاد؛ لا نحتاج إلى وضعهم في السجن، لكننا نحاول ألا نسمح لهم بأن يكونوا مسؤولين عن التوظيف والتوظيف. وينبغي تنظيم التكنولوجيا بطريقة مماثلة.”
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.