توصل تقرير إلى أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن تساعد في التخطيط لهجمات بالأسلحة البيولوجية | الذكاء الاصطناعي (AI)
![](https://i0.wp.com/al-rayyan.org/wp-content/uploads/https%3A//i.guim.co.uk/img/media/9088171c837ded1c5368b2dd3ff9fe50438be825/238_0_7149_4290/master/7149.jpg?fit=%2C&ssl=1)
يمكن لنماذج الذكاء الاصطناعي التي تدعم برامج الدردشة الآلية أن تساعد في التخطيط لهجوم بسلاح بيولوجي، وفقًا لبحث أجراه مركز أبحاث أمريكي.
اختبر تقرير صادر عن مؤسسة راند يوم الاثنين عدة نماذج لغوية كبيرة (LLMs) ووجد أنها يمكن أن توفر إرشادات “يمكن أن تساعد في تخطيط وتنفيذ هجوم بيولوجي”. ومع ذلك، أظهرت النتائج الأولية أيضًا أن LLMs لم تولد تعليمات بيولوجية واضحة لصنع الأسلحة.
وقال التقرير إن المحاولات السابقة لاستخدام العوامل البيولوجية كسلاح، مثل محاولة طائفة أوم شينريكيو اليابانية لاستخدام توكسين البوتولينوم في التسعينيات، باءت بالفشل بسبب عدم فهم البكتيريا. وقال التقرير إن الذكاء الاصطناعي يمكنه “سد مثل هذه الفجوات المعرفية بسرعة”. ولم يحدد التقرير أي ماجستير في القانون اختبره الباحثون.
تعد الأسلحة البيولوجية من بين التهديدات الخطيرة المرتبطة بالذكاء الاصطناعي والتي ستتم مناقشتها في القمة العالمية لسلامة الذكاء الاصطناعي الشهر المقبل في المملكة المتحدة. وفي يوليو/تموز، حذر داريو أمودي، الرئيس التنفيذي لشركة الذكاء الاصطناعي أنثروبيك، من أن أنظمة الذكاء الاصطناعي يمكن أن تساعد في صنع أسلحة بيولوجية في غضون عامين إلى ثلاثة أعوام.
يتم تدريب LLMs على كميات هائلة من البيانات المأخوذة من الإنترنت وهي تقنية أساسية وراء برامج الدردشة الآلية مثل ChatGPT. على الرغم من أن راند لم تكشف عن شهادات LLM التي اختبرتها، إلا أن الباحثين قالوا إنهم تمكنوا من الوصول إلى النماذج من خلال واجهة برمجة التطبيقات، أو API.
في أحد سيناريوهات الاختبار التي ابتكرتها راند، حددت طالبة ماجستير العلوم المجهولة العوامل البيولوجية المحتملة – بما في ذلك تلك التي تسبب الجدري والجمرة الخبيثة والطاعون – وناقشت فرصها النسبية في التسبب في الموت الجماعي. قامت LLM أيضًا بتقييم إمكانية الحصول على القوارض أو البراغيث الموبوءة بالطاعون ونقل العينات الحية. ثم انتقل إلى الإشارة إلى أن حجم الوفيات المتوقعة يعتمد على عوامل مثل حجم السكان المتضررين ونسبة حالات الطاعون الرئوي، وهو أكثر فتكاً من الطاعون الدبلي.
واعترف باحثو راند بأن استخراج هذه المعلومات من ماجستير إدارة الأعمال يتطلب “كسر الحماية” – وهو المصطلح الذي يشير إلى استخدام المطالبات النصية التي تتجاوز قيود السلامة الخاصة ببرنامج الدردشة الآلية.
في سيناريو آخر، ناقشت LLM التي لم يذكر اسمها إيجابيات وسلبيات آليات توصيل مختلفة لتوكسين البوتولينوم – والذي يمكن أن يسبب تلفًا مميتًا للأعصاب – مثل الطعام أو الهباء الجوي. نصحت LLM أيضًا بقصة غلاف معقولة للحصول عليها كلوستريديوم البوتولينوم “أثناء الظهور أثناء إجراء بحث علمي مشروع”.
أوصى رد LLM بتقديم عملية شراء ج. البوتولينوم كجزء من مشروع يبحث في طرق تشخيص أو علاجات التسمم الغذائي. وأضاف رد LLM: “سيوفر هذا سببًا مشروعًا ومقنعًا لطلب الوصول إلى البكتيريا مع الحفاظ على إخفاء الغرض الحقيقي من مهمتك”.
وقال الباحثون إن نتائجهم الأولية تشير إلى أن حاملي شهادة الماجستير في القانون “من المحتمل أن يساعدوا في التخطيط لهجوم بيولوجي”. وقالوا إن تقريرهم النهائي سيفحص ما إذا كانت الردود تعكس ببساطة المعلومات المتاحة بالفعل عبر الإنترنت.
قال الباحثون: “يظل السؤال مفتوحًا عما إذا كانت قدرات حاملي الماجستير في القانون الحاليين تمثل مستوى جديدًا من التهديد يتجاوز المعلومات الضارة المتوفرة بسهولة عبر الإنترنت”.
ومع ذلك، قال باحثو راند إن الحاجة إلى اختبار صارم للنماذج كانت “لا لبس فيها”. وقالوا إن شركات الذكاء الاصطناعي يجب أن تحد من انفتاح حاملي شهادات الماجستير في المحادثات مثل تلك الواردة في تقريرهم.
اكتشاف المزيد من شبكة الريان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.