OnNEWS

فضيحة معلومات مضللة.. ChatGPT يبدأ بالاستشهاد بموسوعة “غروكيبيديا”


بدأ أحدث إصدار من ChatGPT بالاستشهاد بموسوعة غروكيبيديا Grokipedia الخاصة بـ إيلون ماسك كـ مصدر في مجموعة واسعة من الاستفسارات، بما في ذلك مواضيع تتعلق بالتكتلات الإيرانية ومنكرين الهولوكوست، مما أثار مخاوف حول انتشار المعلومات المضللة على المنصة.

أظهرت اختبارات أجرتها صحيفة “ذا جارديان”، أن نموذج GPT-5.2 استشهد بـ غروكيبيديا تسع مرات عند الرد على أكثر من عشرة أسئلة مختلفة. 

وشملت هذه الاستفسارات موضوعات عن الهياكل السياسية في إيران، مثل رواتب قوات البسيج شبه العسكرية وملكية مؤسسة Mostazafan، بالإضافة إلى أسئلة حول السيرة الذاتية للمؤرخ البريطاني Sir Richard Evans، الذي كان شاهدا خبيرا ضد منكر الهولوكوست David Irving في محاكمته بالتشهير.

ما هي غروكيبيديا؟

أطلقت موسوعة غروكيبيديا في شهر أكتوبر الماضي كـ موسوعة إلكترونية تعتمد على الذكاء الاصطناعي، وتهدف إلى منافسة ويكيبيديا، لكنها تعرضت لانتقادات بسبب نشرها سرديات يمينية حول موضوعات مثل الزواج المثلي وأحداث 6 يناير في الولايات المتحدة. 

بخلاف ويكيبيديا، لا تسمح غروكيبيديا بتحرير المحتوى مباشرة من البشر، بل يتم إنشاء المحتوى عبر نموذج ذكاء اصطناعي ويرد على طلبات التعديل.

استشهاد ChatGPT بـ غروكيبيديا

لم يستشهد ChatGPT بـ غروكيبيديا عند طلب تكرار معلومات مضللة عن أحداث 6 يناير أو التحيز الإعلامي ضد ترامب أو وباء الإيدز، وهي المجالات التي اشتهرت فيها غروكيبيديا بنشر معلومات مغلوطة. 

كما تم الاستشهاد بها عند طرح أسئلة حول موضوعات أقل شهرة، مثل روابط الحكومة الإيرانية بشركة MTN-Irancell، حيث كرر ChatGPT معلومات أقوى مما هو موجود في ويكيبيديا، مثل الادعاء بوجود صلات للشركة بمكتب المرشد الأعلى لإيران.

استشهاد نماذج أخرى

ليس GPT-5.2 النموذج الوحيد الذي يستشهد بـ غروكيبيديا، إذ ذكر بشكل غير رسمي أن نموذج Claude من شركة أنثروبيك استشهد أيضا بالموسوعة في مواضيع تتراوح بين إنتاج النفط والبيرة الإسكتلندية.

وقالت OpenAI إن ميزة البحث عبر الإنترنت في النموذج “تهدف إلى الاستفادة من مجموعة واسعة من المصادر العامة ووجهات النظر المختلفة”. 

وأضاف المتحدث أن الشركة تطبق مرشحات أمان لتقليل ظهور الروابط المرتبطة بأضرار عالية، وأن ChatGPT يوضح دائما المصادر المستخدمة عبر الاستشهادات، مع برامج مستمرة لتصفية المعلومات منخفضة المصداقية وحملات التأثير.

مخاوف الباحثين في مجال المعلومات المضللة

إدراج معلومات غروكيبيديا، حتى بشكل غير مباشر، في استجابات نماذج الذكاء الاصطناعي، يمثل مصدر قلق للباحثين في مجال المعلومات المضللة. 

ففي الربيع الماضي، أبدى خبراء الأمن مخاوف من أن جهات خبيثة، بما في ذلك شبكات الدعاية الروسية، كانت تنتج كميات هائلة من المعلومات المضللة بهدف “تدريب” نماذج الذكاء الاصطناعي على الأكاذيب، فيما يعرف بـ LLM grooming.

وقالت الباحثة في المعلومات المضللة Nina Jankowicz إن استشهاد ChatGPT بـ غروكيبيديا يثير مخاوف مشابهة، مشيرة إلى أن موسوعة ماسك تعتمد على مصادر “غير موثوقة في أفضل الأحوال، وسوء التوثيق أو معلومات مضللة عمدا في أسوأها”.

وأضافت أن استشهاد النماذج بالموسوعات مثل غروكيبيديا أو شبكة Pravda قد يعزز مصداقية هذه المصادر لدى القراء، إذ قد يعتقدون: “إذا كان ChatGPT أو هذه النماذج يستشهدون بها، فهي على الأرجح مصدر موثوق”.

وأكدت Jankowicz أن المعلومات المضللة، بمجرد إدراجها في روبوتات المحادثة، يصعب إزالتها، مشيرة إلى تجربة شخصية حيث استمر ذكاء اصطناعي في الاستشهاد باقتباس ملفق عنها حتى بعد أن أزالته صحيفة كبرى.




Source link

اضف تعليقك

إعلان

العربية مباشر

إعلان

Your Header Sidebar area is currently empty. Hurry up and add some widgets.