المقالات

الذكاء الاصطناعي: ضرورة التعامل الإيجابي والرسمي — لا للسخرية ولا للتنمّر

أستاذ الإعلام بجامعة الملك سعود

نشهد اليوم تحوّلاً تكنولوجياً سريعاً يقوده الذكاء الاصطناعي (AI). فالفرص الاقتصادية والاجتماعية ضخمة، ولكنها مصحوبة بمخاطر وتحديات أخلاقية واجتماعية تحتاج إلى توجه حضاري ومسؤول. فالسخرية والتنمر والاستهانة بالذكاء الاصطناعي ليست مجرد أخلاق سيئة في النقاش العام — بل قد تضرّ بمستقبلنا الجماعي عبر العرقلة التنظيمية، وتقويض الثقة، وحرمان المجتمع من فوائد حقيقية في الصحة والتعليم والاقتصاد.
أولاً — حجم الفائدة والانتشار: تُظهِر تحليلات اقتصادية أن لإمكانات الذكاء الاصطناعي أثرًا هائلاً على الناتج المحلي العالمي؛ تقديرات شركة PwC تشير إلى أن الذكاء الاصطناعي قد يضيف ما يصل إلى نحو 15.7 تريليون دولار إلى الاقتصاد العالمي بحلول عام 2030 (أي ما يقارب زيادة بنسبة 14% في الناتج العالمي).
كما تشير دراسات ماكنزي إلى تبنّي واسع للتقنيات الجديدة: ثلث المنظمات التي شملتها استبياناتها تقول إنّها تستخدم تقنيات التوليد (generative AI) بشكل منتظم في وظيفة واحدة على الأقل، مع توقعات باستثمارات أكبر. هذا يدلّ على سرعة الانتشار وتأثيره العملي في أعمالنا اليومية والمؤسسات.
ثانياً — فوائد ملموسة في قطاعات حيوية: المنظمات الدولية تؤكد أن الذكاء الاصطناعي يمكن أن يحسّن الخدمات الصحية، ويعزّز الكفاءة في التعليم، ويخلق وظائف جديدة متخصّصة في مجالات علم البيانات والأمن السيبراني. منظومة الصحة العالمية (WHO) تعمل على مبادرات لدمج الذكاء الاصطناعي في الصحة بما يحقق إنصاف الوصول وتحسين الجودة. وفي الوقت نفسه، يقترح تقرير المنتدى الاقتصادي العالمي أن من أسرع الوظائف نموًا هي المتعلقة بالذكاء الاصطناعي وتحليلات البيانات.
ثالثاً — لماذا السخرية والتنمر ضارّان؟
1. تقويض الثقة والقبول الاجتماعي: السخرية المستمرة تمنع الجمهور والجهات المسؤولة من فهم الإمكانات الحقيقية والمخاطر، ما يؤدي إما إلى رفض مبادرات مفيدة أو إلى اعتماد أعمى دون ضوابط.
2. تثبيط البحث والتطوير المسؤول: الهجوم الساخر على الباحثين أو المبتكرين قد يثني المواهب ويقلّل الاستثمار في أبحاث مهمة تتطلب سنوات وجهوداً كبيرة.
3. إضعاف الإطار الأخلاقي والقانوني: عندما يتحول النقاش إلى سخرية، تفقد المؤسسات السياسية والاجتماعية ضغط العمل على وضع سياسات تنظيمية توازن بين الابتكار وحماية الحقوق.
رابعاً — التزامات ومبادئ دولية يجب أن نذكّر بها الجميع:
المنظمات الدولية أقرت مبادئ توجيهية لاستخدام الذكاء الاصطناعي بشكل يحترم حقوق الإنسان ويعزّز الشفافية والمساءلة — مثل توصية اليونسكو لأخلاقيات الذكاء الاصطناعي وتحديث مبادئ OECD للذكاء الاصطناعي. هذه الأطر تضعنا أمام مسؤولية وطنية ومجتمعية لتبنّي خطاب محترم وبنّاء تجاه التكنولوجيا.
خامساً — مخاوف حقيقية يجب معالجتها بجدّية (وليس بالسخرية):
القلق من فقدان وظائف أو إساءة استخدام تقنيات الذكاء الاصطناعي يجعل الجهات الرقابية — مثل مفوضية التجارة الفيدرالية في الولايات المتحدة — تشدّد على أن هناك قوانين تحمِي المستهلكين من الادعاءات المضلّلة أو الاستخدامات الخادعة للـAI. تصريحات المسؤولة Lina M. Khan تؤكد أنه لا يوجد “استثناء” للقوانين عند استعمال AI. هذا يجعل التحاور والمسؤولية أمورًا حاسمة بدلًا من التنمّر أو السخرية.
سادساً — خطوات عملية للتعامل بإيجابية ومحترمة مع الذكاء الاصطناعي:
1. التثقيف العام: حملات توعوية تشرح ما يمكن وما لا يمكن للـAI فعله، وتفند الخرافات والأساطير.
2. نشر ثقافة أخلاقية: تأكيد القيم (الشفافية، المساءلة، العدالة) في كل حديث عام ورسمي عن AI.
3. سياسات وتشريعات ذكية: تبنّي أطر تنظيمية تحفّز الابتكار وتقيّد إساءة الاستخدام.
4. دعم الباحثين والمطورين: من خلال تمويل بحوث أخلاقية وبرامج تدريبية لتحويل المخاوف إلى حلول وظائفية.
5. لغة خطاب مسؤولة: تجنّب السخرية والتحقير، واستبدالهما بنقاشٍ موضوعي مبني على أدلة وأرقام.
ختاما: اقول بأن الذكاء الاصطناعي أداة — وكمثل كل أدوات البشرية على مرّ التاريخ، يمكن أن تُستخدم للخير أو تسبب أذى إذا أُسيء استعمالها. لذلك، واجبنا الوطني والأخلاقي أن نتعامل معه بوقار واحترام، أن نبني سياسات تحمي المجتمع، وأن نعزّز الوعي حتى تكون الفوائد للجميع. السخرية والتنمر يسهّلان انتشار العشوائية ويوقِفان النقاش البنّاء؛ لنسعَ بدلاً من ذلك إلى نقاش عقلاني، مدعوم بالأدلة، ويهدف لإشراك الجميع في صنع مستقبل أفضل.

د. تركي بن فهد العيار

أستاذ الإعلام بجامعة الملك سعود

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى