رائد الذكاء الاصطناعي Fei-Fei Li: “أنا أكثر قلقًا بشأن المخاطر الموجودة هنا والآن” | الذكاء الاصطناعي (AI)
Fيعد ei-Fei Li رائدًا في مجال الذكاء الاصطناعي الحديث (AI). قدم عملها عنصرًا حاسمًا – البيانات الضخمة – لاختراقات التعلم العميق التي حدثت في أوائل عام 2010. مذكرات لي الجديدة العوالم التي أراها، تحكي قصتها عندما وجدت دعوتها في طليعة ثورة الذكاء الاصطناعي وترسم تطور المجال من الداخل. لي، 47 عامًا، أستاذة علوم الكمبيوتر في جامعة ستانفورد، حيث تتخصص في رؤية الكمبيوتر. وهي أيضًا مدير مشارك مؤسس لمعهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان (HAI)، والذي يركز على أبحاث الذكاء الاصطناعي والتعليم والسياسات لتحسين حالة الإنسان، ومؤسس منظمة AI4ALL غير الربحية، والتي تهدف إلى زيادة التنوع. من الناس بناء أنظمة الذكاء الاصطناعي.
يعد الذكاء الاصطناعي بتحويل العالم بطرق لا تبدو بالضرورة للأفضل: القضاء على الوظائف، وتعزيز المعلومات المضللة والمراقبة، والتسبب في الضرر من خلال الخوارزميات المتحيزة. هل تتحمل أي مسؤولية عن كيفية استخدام الذكاء الاصطناعي؟
أولاً، لكي نكون واضحين، الذكاء الاصطناعي لا يعد بأي شيء. إنهم الأشخاص الذين يبشرون بالخير – أو الذين لا يبشرون بالخير. الذكاء الاصطناعي هو قطعة من البرمجيات. إنه يصنعه الناس، وينشره الناس، ويحكمه الناس.
ثانيًا، بالطبع لا أتحمل المسؤولية عن كيفية استخدام الذكاء الاصطناعي بالكامل. هل يجب على ماكسويل أن يتحمل مسؤولية كيفية استخدام الكهرباء لأنه طور مجموعة من المعادلات لوصفها؟ لكنني شخص له صوت وأشعر أن لدي مسؤولية لإثارة القضايا المهمة – ولهذا السبب أنشأت جامعة ستانفورد HAI. لا يمكننا التظاهر بأن الذكاء الاصطناعي هو مجرد مجموعة من المعادلات الرياضية وهذا كل شيء. أنا أعتبر الذكاء الاصطناعي أداة. ومثل الأدوات الأخرى، علاقتنا بها فوضوية. يتم اختراع الأدوات بشكل عام لتحقيق الخير ولكن هناك عواقب غير مقصودة وعلينا أن نفهم مخاطرها ونخففها جيدًا.
لقد ولدت في الصين، الطفل الوحيد لعائلة من الطبقة المتوسطة الذي – التي هاجرت إلى الولايات المتحدة عندما كان عمرك 15 عامًا. واجهت ظروفًا اقتصادية محفوفة بالمخاطر، كانت والدتك في حالة صحية سيئة وكنت تتحدث الإنجليزية قليلا. كيف انتقلت من هناك إلى أبحاث الذكاء الاصطناعي؟
لقد عرضت كل التحديات، لكنني كنت محظوظًا جدًا أيضًا. كان والداي داعمين لنا: بغض النظر عن وضعنا المالي ووضعنا كمهاجرين، فقد دعموا ذلك الطفل العلمي المهووس. وبسبب ذلك، وجدت الفيزياء في المدرسة الثانوية وكنت مصمماً على التخصص فيها [at university]. ومن ثم، ولحسن الحظ أيضًا، حصلت على منحة دراسية كاملة تقريبًا للالتحاق بجامعة برينستون. هناك وجدت انبهارًا بالأسئلة الجريئة حول ماهية الذكاء، وماذا يعني أن تكون الآلة الحسابية ذكية. قادني ذلك إلى الحصول على درجة الدكتوراه في دراسة الذكاء الاصطناعي وتحديدًا رؤية الكمبيوتر.
لقد كانت مساهمتك الرائعة في تطوير الذكاء الاصطناعي المعاصر إيماج نت، والتي بدأت تؤتي ثمارها لأول مرة في عام 2009. لقد كانت بيانات ضخمةتم إعداده لتدريب واختبار فعالية خوارزميات التعرف على الكائنات التي تعمل بالذكاء الاصطناعي: أكثر من 14 م الصور، المستخرجة من الويب، والمصنفة يدويًا في أكثر من 20.000 فئة اسمية بفضل عمال الحشد. من أين جاءت الفكرة ولماذا كانت بهذه الأهمية؟
لقد ابتعدت ImageNet عن التفكير السابق لأنها بنيت على كمية كبيرة جدًا من البيانات، وهو بالضبط ما تفعله عائلة خوارزميات التعلم العميق [which attempt to mimic the way the human brain signals, but had been dismissed by most as impractical] ضروري.
تعرف العالم على ImageNet في عام 2012 عندما قامت بتشغيل خوارزمية شبكة عصبية للتعلم العميق تسمى AlexNet [developed by Geoffrey Hinton’s group at the University of Toronto]. لقد كانت لحظة فاصلة بالنسبة للذكاء الاصطناعي، لأن هذا المزيج أعطى الآلات قدرة موثوقة على التعرف البصري، لأول مرة حقًا. اليوم، عندما تنظر إلى ChatGPT والاختراقات الكبيرة في نماذج اللغة، فستجد أنها أيضًا مبنية على كمية كبيرة من البيانات. نسب هذا النهج هو ImageNet.
قبل إنشاء ImageNet، قمت بإنشاء مجموعة بيانات أصغر بكثير. لكن فكرتي المتمثلة في توسيع نطاق ذلك على نطاق واسع لم يشجعها معظم الناس ولم تحظ باهتمام كبير في البداية. كان ذلك فقط عندما [Hinton’s] بدأت المجموعة – التي تم تجاهلها نسبيًا أيضًا – في استخدامها مع تحول المد.
لقد ألهمتك والدتك للتفكير في التطبيقات العملية للذكاء الاصطناعي في رعاية المرضى. إلى أين أدى ذلك؟
لقد كانت رعاية أمي هي حياتي منذ عقود، والشيء الوحيد الذي أدركته هو أنه بيني وبين الممرضات والأطباء ليس لدينا ما يكفي من المساعدة. ليس هناك ما يكفي من أزواج العيون. على سبيل المثال، والدتي مريضة بالقلب ويجب أن تكون على دراية بحالة هؤلاء المرضى بشكل مستمر. وهي أيضًا كبيرة في السن ومعرضة لخطر السقوط. أحد ركائز أبحاث مختبري هو تعزيز عمل مقدمي الرعاية من البشر بكاميرات ذكية غير جراحية وأجهزة استشعار ذكية تستخدم الذكاء الاصطناعي للتنبيه والتنبؤ.
إلى أي مدى تشعر بالقلق بشأن الخطر الوجودي لأنظمة الذكاء الاصطناعي – حيث أنها يمكن أن تكتسب قوى غير متوقعة وتدمر البشرية – كما أطلق بعض قادة التكنولوجيا والباحثين البارزين ناقوس الخطر بشأن ذلك؟والتي كان محور التركيز الكبير في المملكة المتحدة الأسبوع الماضي قمة السلامة بالذكاء الاصطناعي؟
أنا أحترم القلق الوجودي. أنا لا أقول أن هذا أمر سخيف ويجب ألا نقلق بشأنه أبدًا. ولكن فيما يتصل بالإلحاح، فأنا أكثر اهتماماً بتخفيف المخاطر القائمة هنا والآن.
ما هو موقفكم من تنظيم الذكاء الاصطناعي الذي نفتقده حاليًا؟
والآن ينخرط صناع السياسات في المحادثات، وهو أمر جيد. لكن هناك الكثير من المبالغة والخطابات المتطرفة من كلا الجانبين. المهم هو أننا دقيقون ومدروسون. ما هو التوازن بين التنظيم والابتكار؟ هل نحاول تنظيم كتابة جزء من كود الذكاء الاصطناعي أم [downstream] حيث المطاط يلتقي الطريق؟ هل ننشئ وكالة منفصلة أم نمر عبر الوكالات الموجودة؟
لقد تم توثيق مشاكل التحيز في تكنولوجيا الذكاء الاصطناعي بشكل جيد، ولم تكن ImageNet استثناءً. لقد تم انتقاده لاستخدامه مصطلحات تصنيفية معادية للنساء، وعنصرية، وقادرة، وحكمية، ومطابقة صور الأشخاص بالكلمات. مثل مدمن الكحول، شخص سيء، فتاة الاتصال و أسوأ. ما هو شعورك تجاه استدعاء نظامك وكيف تعاملت معه؟
إن عملية صنع العلم هي عملية جماعية. ومن المهم أن يستمر نقدها وتكرارها، وأنا أرحب بالمناقشة الفكرية الصادقة. تم بناء ImageNet على اللغة البشرية. عمودها الفقري عبارة عن قاعدة بيانات معجمية كبيرة للغة الإنجليزية تسمى WordNet، تم إنشاؤها منذ عقود. واللغة البشرية تحتوي على بعض المصطلحات القاسية غير العادلة. وعلى الرغم من أننا حاولنا تصفية المصطلحات المهينة، إلا أننا لم نقم بالمهمة على أكمل وجه. ولهذا السبب، في عام 2017 تقريبًا، عدنا وبذلنا المزيد من الجهد للحد من ذلك.
ينبغي لنا، كما وقد جادل البعض، هل نرفض تمامًا بعض التقنيات المعتمدة على الذكاء الاصطناعي – مثل التعرف على الوجه في الشرطة – لأنها في نهاية المطاف ضارة للغاية؟
أعتقد أننا بحاجة إلى فروق دقيقة، خاصة فيما يتعلق بكيفية استخدامها على وجه التحديد. أرغب في استخدام تقنية التعرف على الوجه لتعزيز وتحسين عمل الشرطة بالطرق المناسبة. لكننا نعلم أن الخوارزميات لها حدود – [racial] لقد كان التحيز مشكلة كبيرة – ولا ينبغي لنا، عن قصد أو عن غير قصد، أن نؤذي الأشخاص وخاصة مجموعات معينة. إنها مشكلة أصحاب المصلحة المتعددين.
إن المعلومات المضللة – خلق ونشر أخبار وصور كاذبة – أصبحت في دائرة الضوء خاصة في الحرب بين إسرائيل وحماس. هل يمكن للذكاء الاصطناعي، الذي أثبت نجاحه بشكل مذهل في إنشاء محتوى مزيف، أن يساعد أيضًا في مكافحته؟
تعد المعلومات المضللة مشكلة عميقة وأعتقد أنه يجب علينا جميعًا أن نقلق بشأنها. أعتقد أن الذكاء الاصطناعي كقطعة من التكنولوجيا يمكن أن يساعد. أحد المجالات هو المصادقة الرقمية للمحتوى: سواء كان ذلك مقاطع فيديو أو صورًا أو مستندات مكتوبة، هل يمكننا إيجاد طرق لتوثيقها باستخدام الذكاء الاصطناعي؟ أو طرق لوضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بحيث يمكن تمييزه؟ قد يكون الذكاء الاصطناعي أفضل في الكشف عن المعلومات المضللة من البشر في المستقبل.
ما هو برأيك الاختراق القادم للذكاء الاصطناعي؟
أنا متحمس للذكاء الاصطناعي المتجسد [AI-powered robots that can interact with and learn from a physical environment]. لا يزال الأمر على بعد بضع سنوات، لكنه شيء يعمل عليه مختبري. وإنني أتطلع أيضًا إلى التطبيقات المبنية على النماذج اللغوية الكبيرة الموجودة اليوم والتي يمكن أن تكون مفيدة حقًا لحياة الأشخاص وعملهم. أحد الأمثلة الصغيرة ولكن الحقيقية هو استخدام تقنية تشبه ChatGPT لمساعدة الأطباء على كتابة الملخصات الطبية، الأمر الذي قد يستغرق وقتًا طويلاً ويكون ميكانيكيًا للغاية. آمل أن يكون أي وقت يتم توفيره هو وقت يعود للمرضى.
لقد أطلق عليك البعض اسم “العرابة” أو “الأم“من الذكاء الاصطناعي – ما هو شعورك حيال ذلك؟
إن طبيعتي الحقيقية لن تمنح نفسي مثل هذا اللقب أبدًا. لكن في بعض الأحيان يتعين عليك إلقاء نظرة نسبية، ولا نملك إلا لحظات قليلة جدًا يتم فيها منح النساء الفضل. إذا قمت بوضع الأمر في سياقه بهذه الطريقة، فأنا موافق عليه. لكني لا أريد أن يكون الأمر فريدًا: يجب أن نقدر المزيد من النساء لمساهماتهن.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.