تُحذّر شركة OpenAI، من أن نماذج الذكاء الاصطناعي من الجيل التالي، قد تزيد بشكل كبير، من خطر تطوير الأسلحة البيولوجية، خصوصاً من قِبل المستخدمين ذوي الخلفية العلمية المحدودة.

وتتوقع الشركة أن تُصنّف النماذج المستقبلية قريبًا، على أنها عالية الخطورة في إطار السلامة الخاص بها، ما يدفع إلى تعزيز جهود الاختبار والتخفيف.

تُبدي OpenAI قلقًا خاصًا بشأن "رفع مستوى المبتدئين"، إذ يُمكن للذكاء الاصطناعي مساعدة غير الخبراء، على تكرار التهديدات البيولوجية المعروفة.

وبينما يُمكن أن تُؤدي هذه التقنية نفسها إلى إنجازات طبية، فإن هذه الإمكانية ذات الاستخدام المزدوج، تجعل اختبارات السلامة صعبة للغاية، وتتطلب موثوقية شبه مثالية.

تُشارك شركات ذكاء اصطناعي أخرى، منها Anthropic، مخاوف مماثلة. أصدرت Anthropic مؤخرًا نموذج Claude Opus 4، وهو أكثر نماذجها تطورًا، وصنفته ضمن مستوى أمان الذكاء الاصطناعي 3، نظرًا إلى قدراته الخطيرة المحتملة. أظهرت الاختبارات الأولية، أن النموذج يُمكن أن يُساعد في المهام الضارة، على الرغم من إجراء تحسينات على السلامة، بعد معالجة مشكلات بيانات التدريب.