تُحذّر شركة OpenAI من أن نماذج الذكاء الاصطناعي من الجيل التالي قد تزيد بشكل كبير من خطر تطوير الأسلحة البيولوجية، خاصةً من قِبل المستخدمين ذوي الخلفية العلمية المحدودة.


وتتوقع الشركة أن تُصنّف النماذج المستقبلية قريبًا على أنها عالية الخطورة في إطار السلامة الخاص بها، مما يدفع إلى تعزيز جهود الاختبار والتخفيف.
تُبدي OpenAI قلقًا خاصًا بشأن "رفع مستوى المبتدئين"، حيث يُمكن للذكاء الاصطناعي مساعدة غير الخبراء على تكرار التهديدات البيولوجية المعروفة.
وبينما يُمكن أن تُؤدي هذه التقنية نفسها إلى إنجازات طبية، فإن هذه الإمكانية ذات الاستخدام المزدوج تجعل اختبارات السلامة صعبة للغاية وتتطلب موثوقية شبه مثالية.
تُشارك شركات ذكاء اصطناعي أخرى، مثل Anthropic، مخاوف مماثلة. أصدرت Anthropic مؤخرًا نموذج Claude Opus 4، وهو أكثر نماذجها تطورًا، وصنفته ضمن مستوى أمان الذكاء الاصطناعي 3 نظرًا لقدراته الخطيرة المحتملة. أظهرت الاختبارات الأولية أن النموذج يُمكن أن يُساعد في المهام الضارة، على الرغم من إجراء تحسينات على السلامة بعد معالجة مشكلات بيانات التدريب.