دعت منظمة مراسلون بلا حدود الاتحاد الأوروبي إلى تضمين قانون الذكاء الاصطناعي الحقّ في الحصول على أخبار ومعلومات موثوقة.

وجاءت هذه الدعوة إلى المفوضية الأوروبية والبرلمان الأوروبي ومجلس الاتحاد الأوروبي حيث تجرى مفاوضات ثلاثية حول الشكل النهائي لقانون الذكاء الاصطناعي.

وشددت المنظمة على ضرورة أن تتفق الأطراف الثلاثة على إطار تنظيمي مبدئي لأنظمة الذكاء الاصطناعي، بهدف ضمان أنّها تخدم المجتمع بدلاً من الإضرار به. ولتحقيق هذه الغاية، يصنّف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي المختلفة وفقًا للمخاطر التي يمكن أن تشكلها على الديمقراطية.

وتعتقد المنظمة بوجود خلل حيث لا تعتبر أنظمة الذكاء الاصطناعي التي تنتج أو توزع الأخبار والمعلومات حاليًا "عالية المخاطر". إذا كانت كذلك، فإنها ستخضع لمتطلّبات أكثر صرامة قبل طرحها في السوق. وهذا من شأنه أن يوفّر حق الجمهور الأوروبي في الحصول على أخبار ومعلومات موثوقة مع ضمانات أقوى.

"تعتقد منظمة مراسلون بلا حدود أنّ هدف التصنيف المقترح في قانون الذكاء الاصطناعي جيد ولكنّنا نحث المفاوضين على المضي قدمًا. يجب اعتبار جميع الأنظمة التي تهدف إلى إنتاج معلومات إخبارية أو التدخل في تدفق الأخبار والمعلومات "عالية المخاطر" ويجب أن تخضع لمعايير تقييم جذرية قبل طرحها في السوق.

ولضمان أن توفر أنظمة الذكاء الاصطناعي ضمانات أكبر لحق الجمهور الأوروبي في الحصول على أخبار ومعلومات موثوقة، تقترح مراسلون بلا حدود دمج العناصر التالية في قانون الذكاء الاصطناعي:

يجب أن تحترم قواعد البيانات المستخدمة لتدريب الخوارزميات متطلبات التعددية والدقة ويجب ألا تتضمن محتوى كاذبًا أو مضللًا أو خادعًا أو يشكل دعاية.

يجب التحقق من المحتوى الذي تم إنشاؤه بواسطة نماذج لغوية كبيرة لا تزال في مرحلة التدريب الخاضع للإشراف بواسطة متخصصين في وسائل الإعلام والمعلومات بدلاً من تقييمه على أساس معقوليته.

يجب برمجة Chatbots التي يستخدمها عامة الناس أو المحترفون للحصول على المعلومات بحيث لا تجيب على الأسئلة التي لا يملكون الإجابة عليها. علاوة على ذلك، يجب عليهم دعوة الأشخاص بشكل منهجي للرجوع إلى المصادر التي يستخدمونها لإنتاج المحتوى الخاص بهم.