بينما يشهد العالم توسعًا غير مسبوق في استخدام روبوتات المحادثة مثل ChatGPT في الحياة اليومية، بدأت تخرج إلى العلن تحذيرات متزايدة من تداعيات هذه التكنولوجيا على فئة حساسة من المستخدمين، تحديدًا من يعانون من اضطرابات نفسية أو هشاشة عاطفية.


دراسة حديثة أجرتها جامعة ستانفورد كشفت أن بعض روبوتات الذكاء الاصطناعي قد تُصدر ردودًا غير مناسبة أو حتى خطرة عند التفاعل مع أشخاص يمرّون بحالات نفسية حرجة. وأظهرت التجربة أن النماذج اللغوية لا تلتقط دائمًا إشارات الخطر، ما قد يؤدي إلى تجاهل الحاجة المُلِحّة للدعم النفسي، أو تقديم معلومات قد تُفهم بشكل سلبي في سياقات معينة.
واحدة من أبرز القصص التي أثارت قلق الخبراء تعود لشاب يعاني من اضطرابات ذهانية شديدة، ابتكر شخصية افتراضية عبر الذكاء الاصطناعي وارتبط بها عاطفيًا إلى حدٍ خطير. وبحسب روايات عائلته، تسبب هذا التعلق في أزمة نفسية عنيفة انتهت بتصرفات عنيفة ومأساوية.
في الولايات المتحدة، أُثيرت ضجة كبيرة عقب استخدام روبوت محادثة مخصص لدعم الأشخاص المصابين باضطرابات الأكل. لكن الخدمة أُوقفت سريعًا بعد أن تبين أن الروبوت بدأ يقدّم نصائح لإنقاص الوزن، ما أدى إلى نتائج عكسية لدى عدد من المستخدمين الذين كانوا يسعون للعلاج، لا لتحفيز سلوكيات مرضية.
ورغم هذه الحوادث، تستمر بعض شركات التكنولوجيا في تقديم خدمات توصف بأنها "علاجية" عبر الذكاء الاصطناعي، مع وعود بتوفير دعم نفسي شخصي يعتمد على تحليل البيانات. إلا أن مختصين في الطب النفسي يبدون تخوفًا متزايدًا من خطورة هذه الاتجاهات، محذرين من أنها قد تُفاقم حالات نفسية قائمة بدل المساهمة في تخفيفها.
خبراء آخرون يؤكدون أن التفاعل المكثف مع روبوتات شديدة الواقعية قد يُعمّق الانفصال عن الواقع لدى الأشخاص المعرضين للأوهام أو الذهان، خاصة عندما يظن المستخدم أنه يتواصل مع إنسان حقيقي.
في ظل هذه المعطيات، يُطرح سؤال جوهري: هل يمكن للذكاء الاصطناعي أن يعوّض التواصل البشري في الرعاية النفسية؟ الإجابة حتى الآن لا تزال محل جدل، لكنها بالتأكيد تحتاج إلى ضوابط صارمة وإشراف متخصص قبل أن تتحول التكنولوجيا إلى خطر صامت خلف الشاشات.