Arab
يسعى مطوّرون في نيوزيلندا إلى ابتكار أداة جديدة قد تتيح مستقبلاً توجيه المستخدمين الذين يُظهرون ميولاً متطرفة وعنيفة على منصات الذكاء الاصطناعي مثل "تشات جي بي تي"، نحو خدمات دعم بشرية أو عبر روبوتات محادثة تهدف إلى إزالة التطرف.
وتأتي هذه المبادرة في سياق محاولات متزايدة لمعالجة المخاوف المرتبطة بسلامة استخدام الذكاء الاصطناعي، في ظل تزايد الدعاوى القضائية التي تتهم شركات التقنية بالفشل في منع العنف، بل وحتى المساهمة فيه. وكانت شركة "أوبن إيه آي" قد واجهت تهديداً بالتدخل من الحكومة الكندية في فبراير/شباط، بعد الكشف عن أن منفّذ إطلاق نار مميت في مدرسة كان قد حُظر من المنصة من دون إبلاغ السلطات.
وتعمل شركة "ثرو لاين" (ThroughLine)، وهي شركة ناشئة تعاقدت خلال السنوات الأخيرة مع "أوبن إيه آي" ومنافسيها "أنثروبيك" و"غوغل"، على توجيه المستخدمين المعرّضين لمخاطر مثل إيذاء النفس أو العنف الأسري أو اضطرابات الأكل إلى خدمات دعم متخصّصة، وتسعى حالياً إلى توسيع نطاق خدماتها لتشمل مكافحة التطرف العنيف، وفق ما أوضحه مؤسسها إيليوت تايلور.
وأشار تايلور إلى أن شركته تجري محادثات مع مبادرة "ذا كرايست تشيرش كول" (The Christchurch Call)، التي أُطلقت عقب أسوأ هجوم إرهابي شهدته نيوزيلندا عام 2019، بهدف الاستفادة من خبراتها في مكافحة التطرف، بينما تتولى "ثرو لاين" تطوير روبوت محادثة مخصص للتدخل، وأوضح: "هذا أمر نرغب في التوجّه نحوه وتحسينه، لنتمكن من دعم المنصات بشكل أفضل"، مشيراً إلى عدم تحديد جدول زمني لإطلاق الأداة حتى الآن.
وتدير "ثرو لاين" أعمالها من منزل مؤسّسها في ريف نيوزيلندا، وقد أصبحت جهة مرجعية لشركات الذكاء الاصطناعي بفضل شبكتها التي تضم نحو 1600 خط مساعدة في 180 دولة، تُحدَّث باستمرار. وعند رصد مؤشرات على أزمة نفسية محتملة، تُحوِّل أنظمة الذكاء الاصطناعي المستخدم إلى "ثرو لاين"، التي تربطه بخدمة دعم بشرية متاحة في محيطه الجغرافي.
لكن نطاق عمل الشركة ظلّ محدوداً بفئات محددة، بحسب تايلور، الذي أشار إلى أن انتشار روبوتات المحادثة أدى إلى اتساع نطاق المشكلات التي يبوح بها المستخدمون عبر الإنترنت، بما في ذلك الانجذاب إلى التطرف. ومن المرجّح أن تعتمد الأداة الجديدة على نموذج هجين يجمع بين روبوت محادثة مُدرَّب للتعامل مع مؤشرات التطرف، وإحالة المستخدمين إلى خدمات دعم واقعية، وفق تايلور، الذي شدد على أن تطويرها يجري بالتعاون مع خبراء مختصين، وليس اعتماداً على بيانات تدريب عامة. ولا تزال التقنية قيد الاختبار، من دون تحديد موعد لإطلاقها.
من جهته، أعرب غالين لامفير-إنغلاند، المستشار في شؤون مكافحة الإرهاب لدى "ذا كرايست تشيرش كول"، عن أمله في طرح الأداة لمشرفي المنتديات الإلكترونية، ولا سيما الخاصة بالألعاب، وكذلك للآباء ومقدمي الرعاية الراغبين في الحد من التطرف عبر الإنترنت.
واعتبر هنري فريزر، الباحث في الذكاء الاصطناعي بجامعة كوينزلاند للتكنولوجيا، أن فكرة إعادة توجيه المستخدمين عبر روبوت محادثة "جيدة وضرورية"، لأنها تعترف بأن المشكلة لا تقتصر على المحتوى، بل تشمل أيضاً طبيعة العلاقات والتفاعلات. ورأى أن نجاح الأداة سيتوقف على جودة آليات المتابعة، ومدى فاعلية الأنظمة والخدمات التي يُحال إليها المستخدمون في معالجة المشكلة.
وأشار تايلور إلى أن خصائص المتابعة، بما في ذلك احتمال إبلاغ السلطات بالمستخدمين الخطرين، لا تزال قيد الدراسة، مع الأخذ في الاعتبار مخاطر تصعيد السلوك. وأضاف أن الأشخاص الذين يمرّون بأزمات غالباً ما يشاركون أموراً عبر الإنترنت يعجزون عن البوح بها وجهاً لوجه، محذّراً من أن الضغط على المنصات لقطع التواصل مع هؤلاء المستخدمين قد يؤدي إلى تفاقم المخاطر.
وأظهرت دراسة صادرة عام 2025 عن مركز "ستيرن" للأعمال وحقوق الإنسان في جامعة نيويورك أن تشديد الرقابة على المحتوى المرتبط بالتطرف دفع بعض المتعاطفين إلى الانتقال نحو منصات أقل تنظيماً مثل "تيلغرام".
وختم تايلور بالقول: "إذا تحدّث شخص إلى الذكاء الاصطناعي وكشف عن أزمته، ثم جرى إغلاق المحادثة، فلن يعلم أحد بذلك، وقد يبقى من دون دعم".

Related News
باركولا ضمن قائمة سان جيرمان لمواجهة ليفربول
aawsat
23 minutes ago
هزيمة أوربان «المؤلمة» ضربة موجعة لليمين الشعبوي
aawsat
24 minutes ago