شهد عام 2024 تطورًا ملحوظًا في مجال الذكاء الإصطناعي، إذ برزت نماذج اللغة الصغيرة التي تتمتع بكفاءة عالية وموارد أقل، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.
2 من ميتا، هذه النماذج تقدم حلولًا مرنة للمهام المتخصصة مثل التلخيص والتحقق من الحقائق، وتستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، ما يجعلها خيارًا مثاليًا للمؤسسات ذات الموارد المحدودة. كما شهد العام تفاعلًا متسارعًا بين النماذج الكبيرة والصغيرة، مما أدى إلى تطوير أنظمة هجينة أكثر قوة، ومع ذلك، فقد جلب هذا التوسع في إستخدام الذكاء الإصطناعي تحديات جديدة، مثل استخدام هذه التقنيات في الحملات التضليلية. في عام 2024، استُخدمت نماذج الذكاء الإصطناعي في إنتاج مكالمات روبوتية وفيديوهات مزيفة خلال الانتخابات في بعض الدول، مما أثار قلقًا عالميًا بشأن تأثير هذه التقنيات على الرأي العام. وأدى ذلك إلى إصدار قوانين جديدة في بعض الولايات الأمريكية لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية.
من أبرز التحديات التي لا تزال تواجه الذكاء الإصطناعي هي "الهلوسات"، حيث تقدم النماذج أحيانًا معلومات خاطئة بثقة زائفة. ومع أن الشركات طورت تقنيات لمراقبة هذه الهلوسات، إلا أن الأبحاث تشير إلى أن هذه المشكلة قد تكون جزءًا لا مفر منه بسبب محدودية موارد النماذج.
في جانب آخر، ظهرت "وكلاء الذكاء الإصطناعي" الذين يتمتعون بقدرات تنفيذية مستقلة، إذ يمكنهم أداء مهام معقدة مثل تنظيم السفر وحجز الرحلات. ومن المتوقع أن تتبنى 82% من المؤسسات هذه التكنولوجيا في السنوات القادمة.
أطلق أيضًا نموذج "جيميناي 2" من غوغل، الذي يمثل نقلة نوعية في الذكاء الاصطناعي، مما يعكس الإمكانيات الهائلة لهذه التكنولوجيا. ومع إقتراب عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنيات نحو تحسين حياة البشر مع ضمان إستخدامها بشكل مسؤول وآمن.