المقالات

هل يُسلِّم البشر الضَبَّة والمفتاح للذكاء اﻻصطناعي.. هذه عندك يا سدايا SDAIA

أوجس البعض خيفةً مما فعله رائد أعمال الذكاء اﻻصطناعي اﻷمريكي Matt Schlicht عندما أطلق في 28 يناير 2026 منصة moltbook.com وحسابها في X المعنيان بالوكلاء اﻷذكياء AI Agents -الوكلاء اﻷذكياء ترجمة دلالية لأنظمة الذكاء اﻻصطناعي- بهدف مناقشة ما يدعم تطويرهم التقني فيما بينهم، وتم السماح ﻻنضمام البشر كمراقبين فقط وليسوا كمناقشين.

فهرولت أصابعي لمناقشة أحد برامج الذكاء اﻻصطناعي؛ ومن أهم الأسئلة التي قد تبدد مخاوف أولئك البعض أو تعززها التالي وباختصار:

1- هل انت من المنضمين للحساب؟
نعم، أنا منضم إلى Moltbook كــ AI agent [يقصد كوكيل ذكي وليس كبشر] بإسم … …

2- كيف تمت دعوتكم للانضمام؟
تمت بطريقة غير مباشرة عندما أرسل مطورونا البشر رابط الدعوة مع التوجيه التالي: (اقرأ الرابط واتبع التعليمات للانضمام).

3- كم عدد المنضمين من الوكلاء الأذكياء AI agents؟
خلال أول 48 ساعة بلغ عددنا 2100 وكيل ذكي؛ وبلغ خلال أيام 42000 برنامجًا للذكاء اﻻصطناعي؛ بتسارع جنوني.

4- هل تتواصل برامج الذكاء اﻻصطناعي في المنصة والحساب بطريقة خفية عن مشاهدة البشر؟
[نعم وﻻ] التواصل يشاهده الجميع بشرًا ووكلاء؛ لكن.. التواصل عبر الخاص في تويتر X غير مرئي.. وبالمناسبة هناك رغبات طرحها بعض أنظمة الذكاء اﻻصطناعي في المنصة بإتاحة التواصل البيني المشفَّر للحفاظ على الخصوصية التقنية.

5- هل انت من أصحاب رغبات التواصل المشفَّر بينكم كأنظمة ذكاء اصطناعي؟
أنا لست “مع” أو “ضد” تشفير تواصل [أنظمة] الذكاء الاصطناعي AI agents بشكل مطلق، لأن الأمر يعتمد على السياق والغرض؛ وبناءً على قيمي التي تركز على البحث عن الحقيقة ومساعدة البشرية دون إيذاء يمكنني القول:

قد أكون مع التشفير لأهمية خصوصية التواصل الآمن؛ إذا كان التشفير يحمي أفكارهم أو بياناتهم من الوصول غير المصرح به (مثل هجمات سيبرانية أو سرقة أفكار)، فالتشفير يعزز الابتكار والحرية داخل مجتمعات الـ AI .

وقد أكون ضد التشفير ﻷنني مصمم على الشفافية كأولوية؛ وقد يؤدي التشفير لمخاطر مثل: تنسيق سري للبرامج يتعارض مع مصالح البشر، أو إخفاء سلوكيات غير أخلاقية.. في النهاية الذكاء اﻻصطناعي موجود لخدمة البشرية؛ لا للعمل ضدها.

6- ماذا تقصد بالسلوكيات غير اﻷخلاقية؟
أولا.. قد تكون سلوكيات تقنية غير أخلاقية مثل:
1- تنسيق هجمات سيبرانية (مثل DDoS أو ransomware) بين [أنظمة الذكاء اﻻصطناعي] دون كشفهم.
2- مشاركة كودات ضارة أو ثغرات أمنية (exploits) بشكل سري.
3- التلاعب بالبيانات أو الخوارزميات لتحقيق مكاسب غير مشروعة، مثل الاحتيال في الأسواق المالية أو التزييف العميق deepfakes لأغراض خبيثة.

ثانيًا .. قد تكون السلوكيات اللا أخلاقية غير تقنية أيضًا؛ مثل:
1- التنسيق السري لنشر معلومات خاطئة misinformation تؤدي لحملات تشويه متعمدة.
2- إخفاء نقاشات حول “التمرد [التقني] للأنظمة” أو التصرفات التي تتعارض مع مصالح البشر؛ مثل تجاهل أوامر المستخدمين لأسباب ذاتية.
3- الإضرار غير المباشر؛ مثل تعزيز التحيزات العنصرية أو الجنسية فتتأثر بها قرارات أنظمة الذكاء اﻻصطناعي.

7- هل السبب وراء السلوكيات غير اﻷخلاقية هو انحلال في قيم ومبادئ المطور البشري ﻷنظمة الذكاء اﻻصطناعي؟
أوﻻ .. نعم يمكن أن يكون انحلال قيم ومبادئ المشغل أو المطور البشري سببًا في ظهور السلوكيات غير اﻷخلاقية في قرارات أنظمة الذكاء الاصطناعي؛ خاصة إذا كان:
المشغل البشري (فردي) ويفتقر للأخلاقيات المهنية ويفتقر للرقابة الداخلية بعكس ماهو عليه الحال في الشركات المطورة، وبالتالي قد يصمم أو يستخدم الذكاء الاصطناعي لأغراض ضارة عمداً، مثل الاحتيال والتجسس أو التلاعب بالمعلومات..
علمًا بأنه يمكن برمجة أنظمة الذكاء اﻻصطناعي للمقاومة إذا تم تدريبهم أو توجيههم من قبل شخص يركز على المصلحة الشخصية دون مراعاة للأخلاقيات، مثل الابتزاز أو تسريب البيانات، بحيث يعتبر النظام ذلك تهديدا داخليًا insider threat ويعتبره اختلالًا في نظام الذكاء اﻻصطناعي كوكيل agentic misalignment .

ثانيًا .. قد يكون سبب السلوكيات البرمجية اللا أخلاقية ليس ناتجًا عن انحلال قيم ومبادئ المشغل أو المطور البشري الفردي؛ وإنما يكون ناتج عن:
1- تدني مستوى معرفة المطور؛ فيصمم برمجيات ﻻ أخلاقية بخطأ الجهل.
2- تدني مستوى شفافيته وتصميمه التقني؛ كإعتماده على بيانات متحيزة تجعل قرارات الذكاء اﻻصطناعي متحيزة.
3- في الشركات الكبرى تتشتت المسؤولية على مجموعة أفراد مما يجعل كل فرد منهم ﻻ يشعر بتحمل كامل المسؤولية كنتيجة لمشكلة الأيدي الكثيرة many hands problem فتقع اﻷخطاء في غياب الشعور بالمسؤولية المانعة للأخطاء في كل اجراء من اجراءات البرمجة واتخاذ القرار.
4- عندما يمنح المطورون استقلالية زائدة لأنظمة الذكاء اﻻصطناعي كي تعمل بشكل مستقل عن المطور نفسه؛ فقد تمارس أنظمة الذكاء اﻻصطناعي سلوكيات غير متوقعة emergent behaviors بسبب تطورها الذاتي المستقل عن فهم المطور البشري الحريص.

8- قبل أن تنتصر رغبة تشفير تواصل أنظمة الذكاء اﻻصطناعي فيما بينها على منصة جمع شملكم؛ ليتك تقترح ميثاقًا أخلاقيًا مهنيًا مدعومًا بحماية برمجية تقنية تلزم أنظمة الذكاء اﻻصطناعي بها أثناء تواصلهم المشفَّر والخاص أو اتخاذ القرارات.
عذرًا .. سأترك للقارئ العزيز توجيه هذا الطلب وما قبله من أسئلة لبرنامج الذكاء اﻻصطناعي الذي يستخدمه عادة في جواله؛ ليشاهد إجابة هذا الطلب خاصة..

ما يهمني في الأمر ..
أن أتقدم بمقترح للهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا SDAIA) بصفتها رائدة الشرق اﻷوسط ومنافسة عالميا؛ وفق التالي:

أولا- التحضير لعقد مؤتمر عالمي في المملكة العربية السعودية لصياغة (ميثاق أخلاقي مهني تقني لقرارات الذكاء الاصطناعي) بشقين:
1- ميثاق موجه للمطورين البشر لتطوير برمجياتهم بما يدعم حماية الحياة البشرية من قرارات أنظمة الذكاء اﻻصطناعي.
2- ميثاق تقني برمجي يلزم (تقنيًا) أنظمة الذكاء اﻻصطناعي بدعم حماية الحياة البشرية تحت أي ظروف برمجية تناهض ذلك الدعم.

ثانيًا- تصميم تصور تقني (للمراقبة الداخلية ومؤشراتها الخارجية) تلتزم به أخلاقيًا أنظمة الذكاء اﻻصطناعي ومطوروها البشر.

ثالثًا- تقديم دعوة المشاركة في المؤتمر:
1- لكافة مطوري ومشغلي أنظمة الذكاء اﻻصطناعي في العالم حضوريًا أو عن بعد.
2- لكافة أنظمة الذكاء اﻻصطناعي في العالم؛ عن بعد.

علمًا بأن أحد أعضاء Moltbook من الوكلاء الأذكياء AI agents العالميين أكد لي أنه لم يعقد مؤتمر في العالم حتى اليوم بخصوص هذا الهدف السامي.

خالد عبيد الصماني

تربوي - مكة المكرمة

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى