بدأ نموذج GPT-5.2 من شات جي بي تي بالاستشهاد بموسوعة غروكيبيديا التابعة لإيلون ماسك في العديد من الاستفسارات، بما في ذلك أسئلة عن تكتلات إيرانية ومنكري الهولوكوست. وبالتالي، أثار هذا الأمر مخاوف واسعة حول انتشار المعلومات المضللة على منصات الذكاء الاصطناعي. وأظهرت اختبارات أجرتها صحيفة ذا غارديان أن النموذج استشهد بالموسوعة تسع مرات من أصل أكثر من اثني عشر سؤالًا، وهو رقم يكشف عن التأثير الخفي لمصادر غير موثوقة.
أسئلة مثيرة للجدل
تضمنت الاستفسارات التي استشهد فيها GPT-5.2 بموسوعة غروكيبيديا معلومات عن الهياكل السياسية في إيران، مثل رواتب قوات الباسيج شبه العسكرية، إضافة إلى أسئلة حول السيرة الذاتية للسير ريتشارد إيفانز، المؤرخ البريطاني والشاهد الخبير ضد منكر الهولوكوست ديفيد إيرفينغ.
وبذلك، أصبح من الواضح أن النموذج يدمج محتوى غروكيبيديا في الردود التي تتعلق بمواضيع دقيقة، بينما لم يستخدمها عند الأسئلة المباشرة عن التضليل الواضح، مثل أحداث اقتحام الكابيتول أو المعلومات المغلوطة عن فيروس نقص المناعة البشرية/الإيدز. وعليه، يطرح هذا السلوك أسئلة حول دقة الاستشهاد بالمصادر.
غروكيبيديا: موسوعة مثيرة للجدل
أطلقت موسوعة غروكيبيديا في أكتوبر كموسوعة إلكترونية تعتمد على الذكاء الاصطناعي، بهدف منافسة ويكيبيديا. وبالرغم من ذلك، تعرضت الموسوعة لانتقادات شديدة بسبب نشرها روايات يمينية متطرفة حول موضوعات حساسة مثل اقتحام الكابيتول.
يختلف مصدر غروكيبيديا عن ويكيبيديا التقليدية، إذ لا يسمح شات جي بي تي بالتعديل البشري المباشر على محتواها، ويعتمد النموذج على الذكاء الاصطناعي لتوليد الإجابات. وبالتالي، يصبح تصحيح المعلومات الخاطئة أكثر صعوبة بمجرد تسربها إلى ردود النموذج.
تسرب المعلومات وأثرها على الذكاء الاصطناعي
أظهرت اختبارات الصحيفة أن تسرب محتوى غروكيبيديا يظهر بشكل أكبر عند الأسئلة المعقدة أو الغامضة، بينما يقل عند الأسئلة المباشرة. وبذلك، يدمج النموذج هذه المصادر أحيانًا بشكل خفي ضمن إجابات تبدو دقيقة، وهو ما قد يضلل المستخدمين.
كما استشهد GPT-5.2 بمعلومات سبق فندتها صحيفة ذا غارديان حول عمل السير ريتشارد إيفانز كشاهد خبير، وهو مثال واضح على كيفية تسرب محتوى غير موثوق. وبالإضافة إلى ذلك، أشار تقرير آخر إلى أن نموذج كلود من شركة Anthropic استشهد أيضًا بغروكيبيديا في موضوعات متنوعة، مثل إنتاج البترول وأنواع البيرة الاسكتلندية.
ردود شركات الذكاء الاصطناعي
قال متحدث باسم أوبن إيه آي إن بحث الويب في النموذج يستفيد من نطاق واسع من ال .
كما أكد أن الشركة تطبق فلاتر أمان لتقليل المخاطر المرتبطة بالمصادر عالية الخطورة، ويعرض شات جي بي تي بوضوح أي المصادر التي اعتمد عليها. ومع ذلك، يظل تسرب المعلومات المضللة من غروكيبيديا مصدر قلق مستمر للباحثين في الذكاء الاصطناعي، ويستدعي مراجعة دقيقة.
المخاطر المرتبطة بالمعلومات المضللة
حذر خبراء الأمن في العام الماضي من أن جهات خبيثة قد تنشر كميات ضخمة من المعلومات المضللة بهدف التأثير على نماذج الذكاء الاصطناعي، وهي عملية تُعرف باسم “تضليل نماذج الذكاء الاصطناعي”.
وفي يونيو، أثارت تقارير الكونغرس الأميركي مخاوف بعد أن نموذج جيميني التابع لغوغل كرر مواقف الحكومة الصينية بشأن حقوق الإنسان في شينجيانغ وسياسات كوفيد-19. وبذلك، يظهر أن هذه المخاطر تشمل جميع النماذج اللغوية الكبيرة، وليس شات جي بي تي فقط.
آراء الباحثين
قالت نينا يانكوفيتش، الباحثة في مجال المعلومات المضللة.. إن استشهاد شات جي بي تي بغروكيبيديا أثار مخاوف جدية. وأضافت أن الموسوعة تعتمد على مصادر غير موثوقة، سيئة التوثيق، أو معلومات مضللة متعمدة.
وبالتالي ، قد يعتقد بعض المستخدمين أن الاستشهاد يجعل هذه المصادر موثوقة.. بينما الواقع أن هذا يزيد صعوبة تصحيح الأكاذيب بمجرد انتشارها في النماذج اللغوية.
الخلاصة
يوضح تسرب محتوى غروكيبيديا إلى شات جي بي تي أن المعلومات المضللة يمكن أن تنتشر بسهولة عبر الذكاء الاصطناعي.
وبالتالي، يبرز التحدي المستمر في التحقق من المصادر وفلترة المعلومات بدقة.. خصوصًا عندما يعتمد المستخدمون على النماذج اللغوية الكبيرة كمراجع أساسية.
وأخيرًا ، يظل تطوير نماذج آمنة وموثوقة مهمة مستمرة.. تتطلب تعاون الشركات والخبراء لضمان تقليل تأثير المعلومات المضللة على المعرفة الرقمية










