المقالات

بين الخوف والذكاء الفائق… هل يقترب العالم من لحظة “المنع الكبرى”؟

بين نداءات القلق وإيقاع التقدم الصاروخي، يبدو أن العالم يقف أمام مفترق طرق: إما عصر جديد من الذكاء الخارق الذي يضع الإنسان جانباً، أو بداية حذرة لعصر “سيطرة الإنسان على سيطرة الذكاء الاصطناعي”.
ففي تطور جديد يسلّط الضوء على تزايد القلق عالمياً من سباق الذكاء الاصطناعي، وقّعت مجموعة من الشخصيات البارزة من عالم التكنولوجيا والسياسة رسالة مفتوحة صادرة عن معهد مستقبل الحياة (Future of Life Institute) الذي تأسس عام 2015 بغرض توجيه التكنولوجيا التحويلية للاستفادة منها في الحياة، والابتعاد عن المخاطر الشديدة واسعة النطاق، وقعت رسالة تطالب فيها الحكومات بفرض حظر مؤقت على تطوير “الذكاء الفائق” (ASI) إلى أن يُثبت أنه يمكن السيطرة عليه وضمان موافقة الجمهور على إنشائه، وذلك في أول خطوة عملية من مختصين خوفاً من انفلات الأمر من يد الإنسان.
وحذرت الرسالة التي دعمها عرّابا الذكاء الاصطناعي يوشوا بنجيو وجيفري هينتون، والمخترع ستيف وزنياك، ورجل الأعمال ريتشارد برانسون، حذّرت من مخاطر وجودية تشمل “التقادم الاقتصادي البشري” و”فقدان الحرية والكرامة” وصولًا إلى “احتمال انقراض البشر”.
اللافت في البيان هو غياب توقيعات القيادات العليا في شركات OpenAI وGoogle وAnthropic وxAI وMeta، رغم أن موظفًا حاليًا في OpenAI، يُدعى ليو جاو، كان من بين الموقعين، في دلالة على انقسام داخلي متصاعد داخل الصناعة نفسها.
وبحسب بيانات معهد مستقبل الحياة فإن 64% من الأميركيين يفضّلون وقف تطوير الذكاء الفائق، حتى يثبت أنه آمن، في حين لا يؤيد سوى 5% استمرار التقدم غير المنظّم. هذه الأرقام تعكس تحولًا في المزاج العام تجاه التقنية التي كانت تُعد حتى وقت قريب رمزًا للتقدم.
لكن رغم قوة الرسالة، يرى مراقبون أن غياب تعريف دقيق للذكاء الفائق وآليات إيقافه المقترحة يجعل هذا التحرك أقرب إلى جرس إنذار رمزي منه إلى إجراء عملي، في عالمٍ تسبق فيه الشركاتُ التشريعاتَ بخطوات واسعة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى