دراسة حديثة: 45% من ردود نماذج الذكاء الاصطناعي غير صحيحة، وGemini يتصدر قائمة المضللين
في تطور يثير تساؤلات جدية حول موثوقية مصادر المعلومات في العصر الرقمي، كشفت دراسة مشتركة صدرت مؤخرًا عن الاتحاد الأوروبي للبث (EBU) وهيئة الإذاعة البريطانية (BBC) عن نتائج مقلقة تتعلق بدقة نماذج الذكاء الاصطناعي التوليدي. أشارت الدراسة إلى أن ما يقرب من نصف الاستجابات التي تقدمها هذه النماذج، وتحديدًا 45% منها، تحمل معلومات كاذبة أو مضللة عند استفسارها عن الأحداث الجارية والأخبار. وقد ألقت هذه النتائج الضوء بشكل خاص على أداء نموذج Gemini من جوجل، الذي وُجد أنه الأكثر تضليلاً بين النماذج التي خضعت للاختبار، مما يستدعي تدقيقًا أكبر في استخدام هذه التقنيات كمصادر للأخبار والمعلومات.

خلفية الدراسة وأهدافها
جاءت هذه الدراسة استجابةً للقلق المتزايد بشأن الاعتماد المتنامي على أدوات الذكاء الاصطناعي كمصادر للمعلومات، سواء من قبل الأفراد أو حتى المؤسسات الإعلامية. فقد أصبح من الشائع أن يلجأ المستخدمون إلى نماذج اللغة الكبيرة (LLMs) للحصول على ملخصات للأخبار أو معلومات حول الأحداث الجارية. ويهدف كل من EBU وBBC، بصفتهما مؤسستين إعلاميتين رائدتين، إلى فهم مدى دقة وموثوقية هذه النماذج عندما تتعامل مع المحتوى الإخباري. تم تصميم المنهجية لتقييم قدرة الذكاء الاصطناعي على تحليل وتلخيص وتقديم معلومات دقيقة وغير منحازة بناءً على الأحداث الإخبارية الفعلية، مع التركيز على الكشف عن أي تحريف أو تضليل قد يحدث.
النتائج الرئيسية وتصنيف النماذج
أظهرت الدراسة أن ظاهرة "هلوسة" الذكاء الاصطناعي، حيث تقوم النماذج بتوليد معلومات غير صحيحة أو مختلقة تمامًا، ليست مجرد مشكلة هامشية بل تمثل تحديًا جوهريًا. فقد وجد الباحثون أن ما يقرب من نصف الردود التي أنتجتها النماذج كانت غير دقيقة، تتراوح بين الأخطاء البسيطة إلى اختلاق كامل للوقائع أو الاقتباسات أو حتى الأحداث. وشملت هذه الأخطاء تحريف سياق الأخبار، وتزوير التواريخ، وتقديم معلومات قديمة على أنها حديثة، أو حتى اختراع مصادر إخبارية غير موجودة.
- نسبة 45% من الردود كانت إما كاذبة بالكامل أو مضللة بشكل كبير.
- تم تحديد نموذج Gemini كـالأكثر تضليلاً من بين جميع النماذج التي شملتها الدراسة، مما يعني أنه أظهر أعلى معدل لتوليد معلومات غير صحيحة أو مشوهة.
- لم تسلم النماذج الأخرى التي تم اختبارها، بما في ذلك منافسون رئيسيون، من هذه المشكلة، وإن كانت بنسب أقل، مما يشير إلى أن التضليل يمثل تحديًا شائعًا عبر قطاع الذكاء الاصطناعي التوليدي.
هذه النتائج لا تشير فقط إلى نقص في الدقة، بل تسلط الضوء على خطر تآكل ثقة الجمهور في المعلومات المقدمة عبر القنوات الرقمية، وخاصة تلك التي تعتمد على الذكاء الاصطناعي دون تدقيق بشري كافٍ.
التداعيات على الثقة والمشاركة الديمقراطية
تتجاوز خطورة هذه النتائج مجرد الأخطاء التقنية؛ فهي تمس صميم الثقة العامة في الأخبار وفي العملية الديمقراطية. فإذا كان ما يقرب من نصف المعلومات التي ينتجها الذكاء الاصطناعي مضللاً، فإن ذلك يهدد قدرة الأفراد على اتخاذ قرارات مستنيرة، سواء في حياتهم اليومية أو عند المشاركة في الشأن العام. يمكن أن يؤدي الانتشار الواسع للمعلومات الكاذبة أو المحرفة إلى:
- تآكل الثقة: فقدان الثقة في المؤسسات الإعلامية وفي المعلومات بشكل عام، مما يجعل التمييز بين الحقيقة والزيف أكثر صعوبة.
- التأثير على المشاركة الديمقراطية: يمكن أن تؤثر المعلومات المضللة على الرأي العام، وتشوه النقاشات السياسية، وتؤثر سلبًا على الانتخابات وعمليات صنع القرار.
- زيادة الاستقطاب: قد تعزز المعلومات المضللة الانقسامات الاجتماعية والسياسية من خلال تقديم روايات مشوهة أو منحازة.
تُظهر هذه المخاوف أهمية الدور الذي تلعبه وسائل الإعلام الموثوقة في تقديم أخبار دقيقة والتحقق منها، خاصة في عصر تزايد فيه المحتوى الناتج عن الذكاء الاصطناعي.
تحديات الذكاء الاصطناعي ومستقبله
تمثل ظاهرة "الهلوسة" تحديًا تقنيًا كبيرًا لمطوري الذكاء الاصطناعي. على الرغم من التقدم الهائل في نماذج اللغة الكبيرة، فإنها لا تزال تفتقر إلى القدرة البشرية على الفهم السياقي والتحقق من الحقائق بشكل مستقل. تعتمد هذه النماذج على كميات هائلة من البيانات، لكنها لا "تفهم" المعلومات بنفس الطريقة التي يفعلها البشر، مما يجعلها عرضة لتوليد استجابات تبدو منطقية ولكنها غير صحيحة.
يواجه مطورو الذكاء الاصطناعي ضغوطًا متزايدة لتحسين دقة نماذجهم والحد من الأخطاء والتضليل. تتضمن الجهود المبذولة تطوير تقنيات تحقق أكثر قوة، ودمج آليات التحقق من الحقائق، وتدريب النماذج على مجموعات بيانات أكثر جودة، بالإضافة إلى إدخال طبقات إشراف بشري أكثر صرامة قبل نشر المعلومات الحساسة.
دعوات لمواجهة التضليل
في ضوء هذه النتائج، تتصاعد الدعوات إلى اتخاذ إجراءات متعددة الأوجه لمواجهة التضليل الناتج عن الذكاء الاصطناعي:
- الشفافية والإفصاح: يجب على مطوري الذكاء الاصطناعي والمستخدمين أن يكونوا شفافين بشأن استخدام الذكاء الاصطناعي لتوليد المحتوى، مع وضع علامات واضحة للمحتوى الذي يتم إنشاؤه بواسطة الآلة.
- تعزيز محو الأمية الإعلامية: يجب تزويد الجمهور بالأدوات والمهارات اللازمة للتقييم النقدي للمعلومات التي يتلقونها، بغض النظر عن مصدرها.
- التعاون بين الصناعة والإعلام: ينبغي أن تعمل شركات التكنولوجيا ووسائل الإعلام معًا لوضع معايير موثوقية مشتركة وآليات تحقق من الحقائق.
- التنظيم: قد تكون هناك حاجة لتطوير أطر تنظيمية تضمن مساءلة الشركات المطورة للذكاء الاصطناعي عن دقة مخرجات نماذجها.
في الختام، تؤكد دراسة EBU وBBC على أن الذكاء الاصطناعي، رغم إمكانياته الثورية، لا يزال يمثل تحديات كبيرة تتعلق بالدقة والموثوقية، خصوصًا في مجال الأخبار والمعلومات. يتطلب الأمر جهدًا جماعيًا من المطورين والمستخدمين والجهات التنظيمية لضمان أن تظل هذه التقنيات أداة للتمكين وليست مصدرًا جديدًا للتضليل.



