قد يبدو الذكاء الإصطناعي كأداة مذهلة تمتلك إجابات لكل شيء، من أبسط الأسئلة إلى أعقد المسائل.

لكن الحقيقة أكثر تعقيدًا مما نعتقد. فهذه النماذج، وعلى رأسها ChatGPT، لا تمتلك فهمًا حقيقيًا للعالم كما يفعل الإنسان، بل تعتمد على أسلوب يشبه التوقّع الذكي أو "التخمين المدروس" للكلمة التالية في الجملة.
تعتمد نماذج اللغة الكبيرة على تحليل كميات هائلة من النصوص، وتفكيك اللغة إلى رموز صغيرة مثل "ing" أو "wash"، ثم تدريب شبكات عصبية عملاقة تمنح كل رمز وزنًا محددًا. وخلال التدريب، تُعدّل هذه الأوزان باستمرار بهدف تقليل الأخطاء وزيادة دقة التوقع. ومع أن النتيجة تبدو مثيرة للإعجاب، إلا أن هذه النماذج لا تملك أي إدراك للمعنى أو السياق الحقيقي، بل تتبع أنماطًا لغوية خالصة، وبسبب هذا النهج القائم على التوقع، فإن الذكاء الإصطناعي يمكن أن يقدّم أحيانًا معلومات غير دقيقة أو حتى مفبركة بالكامل، وهو ما يُعرف بـ"الهلوسة". فقد يخترع مصادر وهمية، أو يقدّم اقتباسات لم تُقل، وكل ذلك بثقة عالية. هذه ليست محاولات للكذب، بل نتيجة لخلل في التمييز بين الواقع والإحتمال. وفي الميادين الحساسة كالطب، القانون أو التعليم، قد تكون هذه الأخطاء خطيرة، ما يستوجب تدخل الإنسان للتدقيق والمراجعة دائمًا، ومن التحديات الكبيرة أيضًا مسألة التحيّز، إذ إن النماذج تتعلم من بيانات منشورة على الإنترنت، وهي بطبيعتها مليئة بالتحيّزات الثقافية والجندرية والسياسية. كما أن المعرفة التي تملكها هذه النماذج مجمّدة في الزمن، وتتوقف عند تاريخ آخر تدريب لها، ما يجعلها غير قادرة على مواكبة المتغيرات الحديثة أو الأحداث الجارية.
تصحيح أخطاء الذكاء الإصطناعي ليس أمرًا سهلًا، إذ إن تحديث النموذج أو تدريبه من جديد يتطلب موارد مالية وتقنية ضخمة. كما أن طريقة عمله تُشبه "الصندوق الأسود"؛ من الصعب جدًا معرفة لماذا أعطى إجابة معينة، أو كيف توصّل إليها. وفوق ذلك، فإن مراقبة كل استجابة يصدرها النموذج بشكل يدوي أمر غير واقعي.
في مواجهة هذه التحديات، يلجأ المطورون إلى حلول متعددة، منها التعلم المعزز بالتغذية الراجعة من البشر، حيث يُقيّم البشر مخرجات الذكاء لتحسينها، وهناك أيضًا نهج الذكاء الإصطناعي الدستوري الذي تسعى بعض الشركات إلى تطويره، لضمان التزام النماذج بمبادئ أخلاقية واضحة. ومن أبرز المبادرات أيضًا "Superalignment" من شركة OpenAI، التي تهدف إلى ضمان توافق الذكاء الاصطناعي مع القيم الإنسانية دون إشراف مباشر. إضافة إلى ذلك، بدأ الاتحاد الأوروبي تطبيق قوانين تنظّم استخدام الأنظمة المصنفة عالية الخطورة، لحماية المستخدمين من الأخطاء والإنحرافات.
في النهاية، الذكاء الاصطناعي ليس كيانًا خارقًا، بل مجرد أداة قوية بحدود واضحة، لذلك، يبقى دور المستخدم أساسيًا في مراقبة نتائجه والتأكد من صحتها، خاصة في المجالات التي لا تحتمل الخطأ. فالقرار الأخير، مهما تطورت التقنية، يبقى في يد الإنسان.