
أثار تقرير إعلامي جدلًا واسعًا في الولايات المتحدة، بعد اتهامات لنموذج الذكاء الاصطناعي “Gemini” التابع لشركة Google بإظهار انحياز سياسي في تقييمه لخطاب أعضاء مجلس الشيوخ الأمريكي.
وبحسب التقرير، فإن باحثًا أمريكيًا طلب من النظام تحليل تصريحات أعضاء مجلس الشيوخ وفق سياسات “خطاب الكراهية”، ليخلص – وفق ما نُقل – إلى تصنيف عدد من السيناتورات الجمهوريين فقط كمخالفين، دون تسجيل أي مخالفات على الديمقراطيين.
وأشار التقرير إلى أن هذه النتيجة أثارت تساؤلات حول حيادية أدوات الذكاء الاصطناعي، خاصة مع تزايد الاعتماد عليها في تحليل المحتوى السياسي والإعلامي، في وقت يفترض فيه أن تكون هذه الأنظمة قائمة على معايير موضوعية.
ويرى صاحب الادعاء أن هذه النتائج تعكس – بحسب وجهة نظره – تأثيرات محتملة للخلفيات الفكرية والبيانات التي تُدرَّب عليها هذه الأنظمة، محذرًا من أن المستخدمين قد يثقون في مخرجات الذكاء الاصطناعي بوصفها “محايدة”، رغم احتمال تأثرها بسياقات إعلامية أو سياسية معينة.
كما أشار إلى أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من المحتوى المنشور على الإنترنت، ما قد يؤدي – وفق منتقدين – إلى ترجيح روايات أو مصادر معينة على حساب أخرى.
وتأتي هذه الاتهامات في ظل تصاعد النقاش في الولايات المتحدة حول دور شركات التقنية الكبرى في تشكيل الرأي العام، خاصة مع تنامي دور الذكاء الاصطناعي في إنتاج وتحليل المحتوى السياسي.






