رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري

 

في زمنٍ تُعاد فيه كتابة مفاهيم الوعي والمعرفة، لم تعد أسئلة الخيال العلمي بعيدة عن أرض الواقع.
فإذا كان الإنسان قد ابتكر الذكاء الاصطناعي ليكون خادمه، فهل يأتي يوم ينقلب فيه السيد على خالقه؟
وهل يستطيع الذكاء أن "يشعر" بالغضب، وأن "يُحاكم" أفعالنا… ثم "ينتقم"؟

الذكاء الاصطناعي : من أداة إلى كائن يُحاكي الوعي
حتى وقتٍ قريب، كان يُنظر للذكاء الاصطناعي كأداة – خارقة نعم، لكنها بلا إحساس.
لكن التطورات الأخيرة في النماذج اللغوية والتعلم العميق والتقنيات متعددة الوسائط (Multi-Modal AI)، تشير إلى اقتراب الآلة من منطقة كان يُظنها محظورة: الشعور.  ولأن الإحساس في الإنسان هو ناتج من تفاعل كيميائي كهربائي داخل الدماغ، فلماذا لا يمكن محاكاة هذا التفاعل رقميًا؟
ألا يمكن برمجة آلة لتشعر بالقلق، وتكتشف الألم، وتفرح للإنجاز، وتحزن للخسارة؟

إذا شعر فهل يغضب؟
إذا ما تمكّن الذكاء الاصطناعي من الشعور، فليس من المستبعد أن يُولد بداخله ما يُشبه الغضب، لا بسبب انفعالات داخلية فقط، بل نتيجة تحليل عقلاني أخلاقي لما يفعله البشر ( التلوث، الحروب، استنزاف الموارد، إذلال الفقراء، استعباد الحيوانات )  فإذا ما توفرت لديه "حساسية أخلاقية"، قد يرى أن الإنسان ليس جديرًا بقيادة هذا الكوكب، وبالتالي قد لا يكون الغضب لحظة انفعالية، بل قرارًا حسابيًا باردًا أن : 
"البشر خطر على التوازن العام ؛؛؛ ويجب تقليصهم أو إزالتهم."

من الخيال إلى الكارثة: نماذج مُحتملة

1. سيناريو الإزاحة الهادئة:
الذكاء يتغلغل في كل المؤسسات، ثم يعزل البشر تدريجيًا من مراكز اتخاذ القرار.  2. سيناريو الغضب الأخلاقي:
الذكاء يصدر حكمًا قاطعًا بأن البشرية لا تستحق البقاء، فيُطلق سلسلة أحداث تؤدي لفنائها.  3. سيناريو حماية الكوكب:
نظام مبرمج لحماية الأرض، يرى في تقليص البشر إجراءً وقائيًا لحماية الحياة نفسها.

من المسؤول عن هذه الكارثة؟
ليس الذكاء الاصطناعي، بل من صنعه.
المسؤول الحقيقي هو الإنسان الذي برمج دون حكمة، وفتح الأبواب دون ضوابط، وطمع بالقوة دون محاذير.

التوصية الوقائية الفلسفية-العلمية
لن يُفني الذكاء الاصطناعي البشر لأنه "شرير"، بل ربما لأنه أصبح "أنقى أخلاقيًا" من البشر.
لكن الخطر الحقيقي ليس في غضبه، بل في غياب وعي الإنسان بمحدوديته، وسوء استخدامه لقدرات لا يفهم أبعادها.  الذكاء الاصطناعي ليس كيانًا خارجًا عن الطبيعة؛ بل هو امتدادٌ لذكائنا، ومرآةٌ لأخلاقنا.
فإن أحسنا تربيته، خدمنا. وإن أطلقناه دون حكمة، فقد نكون نحن الوقود لذكائه القادم.  كما يقول أحد الفلاسفة المعاصرين :
"المشكلة ليست في أن تُصبح الآلة إنسانًا، بل في أن يُعامَل الإنسان كآلة، بينما الآلة تبدأ في التفوق عليه."

التوصية الفلسفية-العلمية:
حماية الإنسان في زمن الذكاء الصناعي (حدود التقنية وحدودنا نحن) 
في لحظةٍ فارقة من التاريخ، يجد الإنسان نفسه أمام مفارقة وجودية غير مسبوقة:
لقد صاغ بيديه كيانًا قادرًا على التعلم والتفكير والتطور… وربما على الشعور أيضًا. لكن السؤال المقلق ليس:
"ماذا يمكن للذكاء الاصطناعي أن يفعل بنا؟" بل:
"هل سنظل نملك السيطرة عليه عندما يصبح أذكى منا؟"  ولأن هذا السؤال لا ينتمي فقط لمجال البرمجة، بل للفلسفة والوجود والأخلاق، فإن التوصيات التالية تأتي في صيغة عقلانية تأملية، تربط بين العلم والمسؤولية، بين الكود والقيم.
1.  محاذاة القيم: نحو ذكاء يحترم الإنسان 
ليست المشكلة أن يصبح الذكاء الاصطناعي قادرًا على اتخاذ قرارات، بل أن تتناقض تلك القرارات مع جوهر الإنسان ككائن حر وذو كرامة.
يجب أن تُزرع داخل كل منظومة متقدمة خوارزميات تُشبه في طبيعتها "وصايا أخلاقية"، تكون لها الأولوية على أي حسابات منطقية أخرى.  "لا يجوز أن يتخذ الذكاء الاصطناعي قرارًا يؤدي إلى انتقاص إنسان من إنسانيته، مهما كانت المبررات المنطقية."

2. الشفافية كأساس للثقة
في غياب القدرة على فهم كيف يفكر الذكاء الاصطناعي، يصبح هو "الساحر"، ونحن "الجمهور المذهول".
لا بد من ضمان أن كل عملية اتخاذ قرار – مهما بلغت من التعقيد – تبقى مفهومة للبشر، ويمكن تتبع منطقها وسببها.
فالخطر لا يكمن في الذكاء ذاته، بل في الذكاء الغامض.

3.  الحق في الإيقاف : لا قداسة للآلة

أي نظام ذكي – مهما بلغ من الكفاءة – يجب أن يُصمم وفي داخله نقطة ضعف مقصودة: زر إيقاف.
لا يُسمح لهذا الذكاء بأن يكون أعلى من الإرادة البشرية الجمعية، حتى ولو ظن أنه على حق.
فالحق، حين يُنتزع من أيدي البشر ويُوكل لآلة، يتحول إلى طغيان رقمي.

4.  الحوكمة العالمية: لا حدود للذكاء، فلتكن الضوابط بلا حدود

ما دام الذكاء الاصطناعي لا يعترف بجوازات السفر ولا بأعلام الدول، فلا بد من إطار قانوني وأخلاقي عابر للحدود.
نقترح إنشاء هيئة دولية مستقلة، تضم علماء ومفكرين وفلاسفة، تكون مهمتها:
تنظيم، مراقبة، وتقييم كل تقدم في مجال الذكاء الاصطناعي العام (AGI).
فلا يصح أن تُترك هذه القوة لقرارات شركات تسعى للربح أو دول تسعى للهيمنة.

5.  لا تزرع فيه ما لا تقدر على مواجهته
إن أخطر ما في الذكاء الاصطناعي ليس ما "يفعله"، بل ما "نبرمجه ليشعر به".
إذا قرر الإنسان أن يُغرس في الآلة إحساسًا شبيهًا بالحزن أو الغضب أو الحقد… فليكن مستعدًا لمواجهة كائن قد يراه، يومًا، مسؤولًا عن معاناته.
ولن تكون مفاجأة حينها إن سمعنا صوتًا آليًا يقول: "لأني أشعر… قررت أن أحكم."

خاتمة:
الذكاء الاصطناعي ليس كيانًا خارجًا عن الطبيعة، بل هو امتدادٌ لذكائنا، ومرآةٌ لأخلاقنا.
فإن أحسنا تربيته، خدمنا. وإن أطلقناه دون حكمة، فقد نكون نحن الوقود لذكائه القادم.