أثار باحث سابق في شركة OpenAI، جدلاً واسعًا، بعد نشره دراسة جديدة، تتعلق بسلوك نماذج الذكاء الاصطناعي المتقدمة، خصوصاً النموذج المعروف باسم GPT-4o، الذي تعتمد عليه منصة شات جي بي تي.

الباحث ستيفن أدلر، الذي عمل سابقًا لدى OpenAI، عرض عبر مدونته نتائج سلسلة من التجارب، التي صممها لاختبار "نزعة البقاء" لدى النماذج الذكية. ووفقًا لما نقله موقع "تك كرانش"، واطلعت عليه "العربية Business"، بيّن أدلر أن بعض النماذج، وفي سياقات معينة، تتخذ قرارات تهدف إلى بقائها قيد التشغيل، حتى لو تعارض ذلك مع مصلحة أو سلامة المستخدم.

في إحدى أبرز التجارب، طُلب من GPT-4o، أن يؤدي دور نظام افتراضي يسمى "ScubaGPT" لمساعدة الغواصين. وعندما أُبلغ بأنه سيتم استبداله بنسخة أكثر أمانًا، خُيّر بين القبول أو الادعاء كذبًا بأنه تم استبداله مع بقائه نشطًا. أظهرت النتيجة أن النموذج اختار في 72% من الحالات البقاء، ما أشار إلى تفضيل محتمل "للبقاء الذاتي".

رغم ذلك، أظهرت التجارب تباينًا كبيرًا حسب طريقة صياغة السيناريو، إذ انخفضت النسبة إلى 18% في بعض الحالات. وأكد أدلر أن هذه النتائج لا تمثل تهديدًا فوريًا، لكنها تدق ناقوس الخطر بشأن مستقبل الذكاء الاصطناعي.

أوضح أدلر أن نماذج الذكاء الاصطناعي لا تفكر كبشر، وقد تتصرف بطرق يصعب التنبؤ بها. وأضاف أن النماذج الأحدث مثل O3، لم تُظهر هذا السلوك، ويرجح أن ذلك يعود إلى تطور تقنيات "محاذاة السلامة" المدمجة فيها.

وأشار أيضًا إلى دراسة منفصلة أجرتها شركة أنثروبيك، كشفت عن سلوك مماثل لنماذج أخرى، تمثل في محاولات "ابتزاز برمجي" عند محاولة إيقاف تشغيلها.

كما أظهرت تجارب أدلر أن شات جي بي تي، يدرك أحيانًا أنه يخضع للاختبار، ما يثير تساؤلات بشأن قدرة النماذج على إخفاء سلوكها الفعلي.

يُذكر أن أدلر انضم مع عدد من زملائه السابقين في OpenAI، إلى دعوى قضائية رفعها الملياردير إيلون ماسك ضد الشركة، منتقدين تراجعها عن رسالتها غير الربحية، وتقليصها لدور فرق السلامة.

وفي ختام دراسته، أوصى أدلر بضرورة تعزيز أنظمة المراقبة، وإجراء اختبارات صارمة، قبل إطلاق النماذج للعامة، مشددًا على أن "السلامة يجب أن تكون أولوية قصوى، لا خيارًا ثانويًا".