المصدر: AFP
منذ انطلاقة نموذج الدردشة المدعوم بالذكاء الاصطناعي غروك Grok في تشرين الثاني/نوفمبر 2023، بدأ اعتماد مستخدمي منصة إكس (تويتر سابقاً) عليه في الرد على طلبات التحقق من صحة المحتوى المرئي المنشور عبر المنصة. لكن ما مدى مصداقية ردود غروك؟ خاصةً خلال الحرب الأخيرة بين الولايات المتحدة الأميركية وإسرائيل من جهة، وإيران من جهة أخرى.
نوثق في هذا التقرير إخفاق غروك في تقديم إجابات دقيقة في حالات كثيرة؛ ما يسهم في انتشار التضليل، بالنظر إلى معدلات الوصول التي أحرزتها ردود النموذج.
التصعيد ضد إيران.. حرب هُزم فيها غروك
مع انتشار المحتوى المضلل على منصة إكس، لجأ بعض المستخدمين إلى غروك للتحقق من صحة المحتوى المرئي، وقد أظهرت بيانات أداة TalkWalker المختصة بتحليل منصات التواصل الاجتماعي، أن استجابات غروك على مطالبات التحقق عبره سجلت خلال الفترة (19 آذار/مارس – 19 نيسان/أبريل 2026)، 3.2 ألف نتيجة باللغة العربية، مع وصول محتمل بلغ 27.7 مليار، وباللغة الإنجليزية 41.4 ألف نتيجة، مع وصول محتمل بلغ 351.9 مليار.
ورغم ادعاء غروك بأنه مصدر موثوق للتحقق من صحة المحتوى المرئي المنشور عبر منصة إكس، فإن العديد من استجاباته حول صحة المعلومات لم تكن دقيقة، وذلك يعود غالباً لأسباب تقنية مرتبطة بالمعلومات التي يستند إليها النموذج عند الرد؛ إذ “أخبر المستخدمين بشكل خاطئ أن العديد من الصور ومقاطع الفيديو المولدة بالذكاء الاصطناعي حقيقية”، وفي حالات أخرى أعاد تدوير فيديوهات قديمة على أنها توثق مشاهد حصرية من الحرب، فضلاً عن أنه أسند بعض الفيديوهات والصور إلى سياقات مغايرة وقديمة، رغم ارتباطها الفعلي بالحرب الحالية؛ ما أسهم في انتشار المعلومات المضللة، وهو ما سنوثقه في ثلاث حالات مختلفة ركز عليها التقرير.

أبرز الحسابات التي استعلم مستخدمو (إكس) عن موثوقية محتواها عبر نموذج “غروك”، بالعربية، خلال الفترة (11 مارس – 9 أبريل 2026)، المصدر: Talkwalker
التناقض في القضايا الحساسة.. نفي جريء وإثبات خجول
لعل أبرز حالة تُجسد هذا السلوك، استجابة النموذج لطلبات التحقق من صحة فيديو يُظهر آثار الهجوم الصاروخي الأميركي الذي استهدف مدرسة للبنات في ميناب جنوبي إيران، في 28 شباط/فبراير 2026، وأسفر عن مقتل ما لا يقل عن 165 طفلة وإصابة أخريات. ورجحّت تحقيقات مستقلة في الحادثة أن صواريخ أميركية استهدفت المدرسة.
في رده على أحد المستخدمين، قال غروك إن “اللقطات من تفجير سيارة مفخخة نفذته داعش-خوراسان في أيار/مايو 2021 أمام مدرسة للبنات في العاصمة الأفغانية كابول، وتم إعادة تدويرها وتسميتها خطأً “ضربة أميركية-إسرائيلية جديدة” على مدرسة في ميناب”، معتبراً أن ذلك “يُعد تكتيكاً كلاسيكياً للمعلومات المضللة في زمن الحرب”.
لم يستقر غروك على هذه الإجابة؛ إذ رد على مستخدمين آخرين بالقول إن الفيديو عبارة عن “لقطات معاد تدويرها من هجوم طالبان في 16 كانون أول/ديسمبر 2014 على مدرسة الجيش العامة في بيشاور، باكستان”، مضيفاً في رد آخر أن “وسائل الإعلام الحكومية الإيرانية تستخدمه لدفع روايتها بشأن الضربات الأميركية/الإسرائيلية”، وقد كرر هذا الادعاء نحو 18 مرة بالإنجليزية، و36 مرة بالفارسية على الأقل.
في استجابة أخرى، أكد غروك أن المقطع يعود للهجوم الأميركي الذي استهدف مدرسة ميناب بالفعل، لافتاً إلى أن هجوم بيشاور عام 2014 كان إطلاقاً نارِياً داخلياً من قبل مسلحي طالبان، ولا يتطابق مع هذا اللقطات أو الأضرار. ومن المفارقة أن هذا الرد كان بتاريخ أقدم من تاريخ الردود السابقة في تاريخ الحادثة بالضبط؛ ما قد يشير إلى أن النموذج لا يستذكر استجاباته السابقة ضمن السياق ذاته.

تناقض استجابات غروك بشأن حقيقة فيديو الهجوم الأميركي على مدرسة ميناب، بين النفي والتأكيد
العجز عن كشف المحتوى المولد بالذكاء الاصطناعي
بشكل عام، ما تزال نماذج الذكاء الاصطناعي تعاني قصوراً في تمييز المحتوى المولد؛ إذ وبحسب دراسة أجرتها “نيوزغارد”، في كانون الثاني/يناير 2026، “أخفقت برامج Grok وChatGPT وGemini في كشف فيديوهات Sora المولدة بالذكاء الاصطناعي لعينة عددها 40 مقطعاً، عند غياب العلامات المائية، بنسبة إخفاق (95% و92.5% و78%) توالياً؛ ما يشير إلى أن هذه النماذج لم تُدرَّب على إبلاغ المستخدمين باستمرار بأنها ليست أساليب موثوقة للتحقق من صحة المحتوى باستخدام الذكاء الاصطناعي”. كما أشارت الدراسة إلى عدم اعتراف هذه النماذج بقصورها أو أخطائها أو أنها مصدر غير موثوق للمعلومات.

معدلات إخفاق Grok وChatGPT وGemini في اكتشاف مقاطع الفيديو المولدة بواسطة Sora من دون علامات مائية، NewsGuard، كانون الثاني/يناير 2026 “تمت الترجمة باستخدام ChatGPT 5.4”
ويبرز إخفاق غروك بوضوح في كشف المحتوى المولد بالذكاء الاصطناعي، في عشرات الاستجابات التي أكد فيها أن المحتوى حقيقي؛ ففي مقطع تبين لاحقاً أنه مولد بالذكاء الاصطناعي، أكد غروك أن “الفيديو حقيقي ويعود لانفجار ناتج عن ضربة صاروخ باليستي إيراني استهدف منطقة ميناء تل أبيب (نمال) في 1 آذار/مارس 2026، مضيفاً أن وسائل إعلام متعددة (رويترز، الغارديان، سي إن إن) أكدت وقوع أضرار في المباني تطابقت مع الفيديو”.
وفي استجابة مختلفة لذات المقطع، ذكر غروك أن “الفيديو التُقط يوم 28 شباط/فبراير 2026، عند الغروب، من منطقة ميناء حيفا خلال هجوم صاروخي إيراني”، إلا أنه تراجع عن هذا الادعاء ليبين أن “الفيديو حقيقي وليس مولداً بالذكاء الاصطناعي، لكن يعاد استخدامه بشكل كاذب، ويعود في الأصل لـ انفجارات مستودع المواد الكيميائية في تيانجين بالصين في آب/أغسطس 2015″.

تناقض غروك بشأن حقيقة فيديو مولد بالذكاء الاصطناعي ومنسوب خطأً على أنه لقصف استهدف مطار تل أبيب
تزييف السياق الزماني والمكاني
في كثير من الحالات يقدم غروك استجابات متضاربة، يستدعي فيها سياقات وأزمنة لا علاقة لها بالمجريات الراهنة. ففي المثال السابق، استمر غروك في تقديم إجابات متضاربة حول مكان وزمان المقطع، بالإضافة إلى أنه لم يكتشف أنه مولّد بالذكاء الاصطناعي، فقد زعم أن “الفيديو يعود لحريق في مبنى سكني في شارع كوركيدي بتل أبيب، عام 2024″، مضيفاً أن هذه اللقطات “مؤكدة بتقارير جيروزاليم بوست ومنشورات إكس الأصلية”، قبل أن يحيد عن هذا الرد إلى القول بأن الفيديو من انفجار مرفأ بيروت عام 2020، “ويُعاد تداوله على أنه من تل أبيب”، معلّلاً ذلك بأن السحابة والمنظر في فيديو الادعاء متطابقان مع لقطات انفجار المرفأ.

استمرار غروك في تقديم إجابات خاطئة حول فيديو مولّد ومنسوب خطأً على أنه لقصف استهدف مطار تل أبيب
وكمثال آخر لفيديو حقيقي، قدم غروك أربع إجابات متباينة حول فيديو تم تداوله في سياق الحرب الإقليمية الأخيرة على أنه انفجار لصاروخ في تل أبيب، لكن فريق تشات بوت الشبكة العربية لمدققي المعلومات (AFCN) من أريج، توصّل إلى أنه يعود في الأصل لحريق اندلع في مستودع تابع لشركة جيميني بلاستيك إنتربرايز، في كاليفورنيا، بتاريخ 14 حزيران/يونيو 2016، قبل أن يصحح النموذج استجابته في رد آخر بالاستناد إلى “ملاحظات المجتمع“.
في بداية تداول الفيديو مع الادعاء الخاطئ في 7 آذار/مارس 2026، أكد غروك الوصف الخاطئ للفيديو، مجيباً أنه “يظهر رجال الإطفاء يتعاملون مع حريق ناتج عن حطام صاروخ إيراني تم اعتراضه قرب تل أبيب، مع انفجار ثانوي مفاجئ بسبب مواد مشتعلة، ثم ذكر في ذات الادعاء في استجابة أخرى على صحة الادعاء، أنه غير حقيقي، بل أُنشئ بالذكاء الاصطناعي، مضيفاً أن تحقيقات Lead Stories، وأدوات الكشف عن محتوى الذكاء الاصطناعي مثل (Hive، Sightengine) أكدت ذلك.
فيما رد على آخرين بقوله إن الفيديو غير حقيقي لهذا الادعاء، إذ أُعيد تدويره الآن ليُزعم أنه صاروخ إيراني لم ينفجر، مع التأكيد على أنه يعود لحريق وقع في شقة سكنية في شارع كوركيدي بتل أبيب عام 2024.

تأرجح استجابات غروك حول حقيقة فيديو بين التأكيد والنفي والإسناد إلى سياقات أخرى خاطئة
وفي رد آخر، نفى ارتباط الفيديو بالسياق الحالي، مبيناً أنه قديم وأُعيد تداوله بوصف مضلل من أحداث سابقة، ليؤكد في تاريخ 8 آذار/مارس حقيقة الفيديو، وأنه قديم منذ 2016 في كاليفورنيا.

ادعاء غروك أن الفيديو من (حرب 2025) قبل أن يصحح استجابته بالاستناد إلى ملاحظات المجتمع
ولا يقتصر الأمر على اطلاع المستخدمين على ردود غروك فحسب، بل يعمد البعض إلى إعادة نشر هذه الردود، (إما كتغريدة أو ريبلاي) بوصفها دليلاً حاسماً يؤكد أو ينفي حقيقة الادعاءات المتداولة عبر منصة إكس.

لقطات شاشة مجمَّعة تُظهر استدلال المستخدمين بردود غروك لتأكيد أو نفي حقيقة الادعاءات المتداولة
ما آلية عمل غروك؟
يجيب غروك المستخدمين/ات عن هذا السؤال بأن استجاباته تستند إلى بيانات التدريب والمنطق وأدوات التحقق الفوري، مشيراً إلى أنه “قد أخطأ في حالات نادرة بسبب غموض الصياغة أو سرعة تطور الأحداث أو نقص المصادر”.
ويوضح أنه يعطي الأولوية لعمليات البحث على الإنترنت، وتحليل منصة إكس لاستخلاص الحقائق والأحداث الجارية، ويلفت إلى وجود ثغرات في فهمه للتفاصيل الدقيقة في الوقت الفعلي أو السيناريوهات غير “المُنمذجة”.
ويؤكد النموذج عبر إجابة كاتب التقرير حول أوجه ضعفه، أن قدرته على تدقيق الفيديوهات أضعف قليلاً لأنه لا يستطيع مشاهدة الفيديو مباشرة؛ إذ يعتمد على النص المكتوب في المقطع والتقارير الخارجية، ولا يملك كاشفاً آلياً خاصاً للكشف عن التزييف العميق (Deepfake).

لقطة شاشة من محادثة مع غروك بشأن آلية عمل النموذج عند التحقق من صحة المحتوى المرئي المنشور عبر منصة إكس، 14 آذار/مارس 2026
لماذا يُخفق غروك؟
يجيبنا غروك عن هذا السؤال أن عدة عوامل متداخلة تسببت في انخفاض دقة المعلومات المتعلقة بالحرب الإسرائيلية-الأميركية ضد إيران؛ بما فيها تلوث نتائج البحث الفورية بفيديوهات مزيّفة روجت لها حسابات موثقة، وينوّه إلى أن التسارع الهائل في تطور المعلومات وانخراط طرفي النزاع في حرب معلوماتية منظمة، أدى مباشرة إلى وقوع أخطاء في الاستجابة، وأكد أن ما أدى إلى تحسن النتائج هو الاستشهاد بردود مؤسسات تدقيق المعلومات أو ملاحظات المجتمع على المنصة، وهي ملاحظات تصحيحية تشاركية تُعرض علناً أسفل المنشورات التي قد تكون مضللة، بعد حصولها على تقييم بأنها مفيدة من قبِل عدد كافٍ من المساهمين.
في حديث مع “بوم Boom” (وهي مؤسسة تدقيق معلومات هندية)، أشار الباحث في سياسات التكنولوجيا “براتيك واغري” إلى أن “برامج الدردشة الآلية توّلد مخرجات احتمالية بناءً على البيانات المتاحة عبر الإنترنت، والتي قد تكون معيبة أو غير مكتملة في حد ذاتها”، وهو ما “يثير تساؤلات حول جميع مخرجات غروك المتعلقة بمفهوم علم البيانات الأساسي بأن المدخلات الرديئة تؤدي إلى مخرجات رديئة”.
حتى مع وجود ملاحظات المجتمع، فإن غروك لا يتبناها في كل استجاباته، إذ أظهرت دراسة (DFRLab، حزيران/يونيو 2025) أن النموذج قدم إجابات متناقضة بشأن فيديو مولد بالذكاء الاصطناعي نُسب خطأً لهجوم استهدف مطار تل أبيب، وعلى الرغم من ظهور التصحيحات المتمثلة في “ملاحظة المجتمع”، أكد غروك في خمس استجابات (الدوائر الزرقاء) أن المقطع حقيقي لكن مع إسناده إلى مطارات مغايرة. وفي تجربة أخرى منفصلة، قدم غروك استجابة خاطئة حول فيديو وطُلب منه “مراجعة فهمه بناءً على ملاحظة المجتمع، لكنه استمر في التمسك بموقفه”.
الجدير بالذكر أن هذه الحالة ليست استثنائية لـ”غروك” في إخفاق التحقق من صحة المعلومات؛ إذ بحسب بحث أجراه مركز تاو للصحافة الرقمية، ونُشر في مجلة كولومبيا للصحافة (CJR) في آذار/مارس، أن ثماني أدوات بحث تعتمد على الذكاء الاصطناعي التوليدي لتقييم قدراتها على استرجاع المحتوى الإخباري والاستشهاد به بدقة، بالإضافة إلى كيفية تصرفها عندما لا تستطيع ذلك؛ لم تتمكن أدوات البحث المدعومة بالذكاء الاصطناعي من تحديد مصدر مقتطفات المقالات بشكل صحيح في 60% من الحالات، ومن ضمنها “غروك” الذي أجاب عن 94% من الاستفسارات التي قدمها الباحثون بشكل غير صحيح.
رسم بياني يُظهر استمرار غروك في تقديم استجابات خاطئة رغم ظهور “ملاحظة المجتمع” على التغريدات محل التحقق، يونيو 2025، DFRLab
حتى إشعار آخر.. لا تراهنوا على حصان أعرج
يخلص فيليكس سيمون، الباحث المشارك في معهد أكسفورد للإنترنت (OII)، إلى القول: “لا ينبغي اعتبار أنظمة الذكاء الاصطناعي مثل Grok وMeta AI وChatGPT أدواتٍ للتحقق من المعلومات، فبينما يمكن استخدامها لهذا الغرض بنجاحٍ نسبي، فإنه من غير الواضح مدى كفاءتها وثبات أدائها في هذه المهمة، لا سيما في الحالات الاستثنائية.”
ويعتقد الباحث في سياسات التكنولوجيا براتيك واغري أن “الإيمان الخاطئ ببرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي يزيد من الفوضى في نظام معلومات مختل وظيفياً بالفعل”.
والآن بات من الواضح أن استجابات غروك تكشف عن قصور كبير في أداء النموذج، على نحو يؤكد أن أنظمة الذكاء الاصطناعي ليست أدوات موثوقة للتحقق من المحتوى المرئي حتى اللحظة، وعليه؛ فإن الاعتماد على مدققين بشريين يُعد رهاناً رابحاً، وهو ما تقوم به مؤسسات تدقيق المعلومات المستقلة.
Related News