عربي
عندما انتشرت صورة مقبرة ضحايا استهداف مدرسة الشجرة الطيبة الابتدائية للبنات في ميناب جنوبي إيران، والتي أسفرت عن مقتل 175 شخصاً معظمهم من الأطفال، سارعت أنظمة الذكاء الاصطناعي إلى نفي صحتها وتصنيفها محتوى مفبركاً. في المقابل، قد يجد القارئ في الصحافة التقليدية نفسه أمام صورة مولّدة أو معدّلة بالذكاء الاصطناعي، نجحت في خداع غرف التحرير وتسلّلت إلى النشر بوصفها مادة موثوقة، ما يكشف تعقيد المشهد بين ما هو حقيقي وما هو مصطنع.
في أعقاب المجزرة، التي ارتكبت أول أمام الحرب يوم 28 فبراير/ شباط الماضي، التُقطت صورة جوية تُظهر صفوفاً من القبور المحفورة حديثاً، تجمّع حولها عدد قليل من الأشخاص، إلى جانب مستطيلات مرسومة بالطباشير، فيما كانت الجرّافات تستعد لحفر المزيد. هذه القبور كانت معدّة لدفن ضحايا المجزرة التي خلص تحقيق إلى أنها نتيجة قصف أميركي. غير أن المفارقة ظهرت عند عرض الصورة على أدوات الذكاء الاصطناعي التي صنّفتها على أنها "مضللة".
إذ ادّعى روبوت جيميناي التابع لشركة غوغل أن الصورة قديمة وتعود إلى زلزال في تركيا قبل عامين، وليس لها علاقة بالعدوان الجاري على إيران. وبالمثل، اعتبر روبوت غروك التابع لمنصة إكس أن الصورة ليست من إيران أساساً، بل من إندونيسيا، وربطها بعمليات دفن جماعي لضحايا جائحة كوفيد-19.
لكن الصورة أصلية وحقيقية، ونشرت عبر وكالات دولية مثل وكالة فرانس برس و"غيتي"، وأفادت صحيفة ذا غارديان البريطانية بصحتها من خلال مقارنتها بصور الأقمار الصناعية.
الذكاء الاصطناعي يخدع الصحافيين
لا تقف خطورة هذه الظاهرة عند حدود تضليل الجمهور، بل تمتد إلى غرف الأخبار نفسها. فهذه الواقعة ليست سوى مثال على تورّط الذكاء الاصطناعي في إنتاج محتوى مضلل يهدد دقة العمل الصحافي وحق الجمهور في المعرفة.
في أوائل مارس/ آذار الحالي، أفادت وسائل إعلام هولندية بأن وكالة الأنباء الوطنية، وهي الأكبر في البلاد، حذفت ما يقارب ألف صورة مرتبطة بإيران من قواعد بياناتها، بعد الاشتباه في التلاعب ببعضها باستخدام الذكاء الاصطناعي. وبعد فترة قصيرة، أقرّت مجلة دير شبيغل الألمانية باستخدام صورة معدّلة في تغطيتها، قبل أن تكتشف أنها مزيفة.
ونقلت "ذا غارديان" عن الصحافي المتخصص في التحقق البصري لدى هيئة البث البريطانية "بي بي سي"، شايان سرداري زاده، أن الذكاء الاصطناعي بات يشكّل جزءاً كبيراً من المعلومات المضللة التي يجري تفنيدها، مع تزايد مستمر في حجمها. ففي المراحل الأولى من حربي غزة وأوكرانيا، كانت معظم المواد المضللة عبارة عن مقاطع قديمة أو محتوى غير ذي صلة، أو حتى لقطات مأخوذة من ألعاب فيديو. أما اليوم، فيؤكد أن ما يقارب نصف، إن لم يكن أكثر، من الأخبار الكاذبة المنتشرة بات يُنتج باستخدام الذكاء الاصطناعي التوليدي.
مع هذا التطور المتسارع، أصبح التمييز بين الصور الحقيقية والمفبركة أكثر صعوبة. ولا يقتصر التحدي على الجانب التقني، بل يمتد إلى البعد العملي أيضاً. إذ أشار موقع دويتشه فيله الألماني إلى أن غرف الأخبار، خلال التغطيات العاجلة، تجد نفسها مضطرة إلى فرز كميات هائلة من الصور بسرعة، في وقت أصبح فيه إنتاج محتوى بصري واقعي باستخدام الذكاء الاصطناعي أمراً سهلاً.
ومع تطوّر هذه الأدوات، بات كل من المستخدمين العاديين والصحافيين المحترفين عرضة للتضليل. ورغم استثمار المؤسسات الإعلامية في تدريب كوادرها على كشف التلاعب وتطوير أدوات التحقق، فإن المشكلة تتفاقم مع لجوء الجمهور إلى الذكاء الاصطناعي لتلخيص الأخبار أو الإجابة عن الأسئلة، بدلاً من الرجوع إلى المصادر الأصلية والمؤسسات الإعلامية الموثوقة.
