GPT-5 أخطر مما نتصور.. وسام ألتمان يُقر: "قنبلة ذرية"
في تصريح جريء ومفاجئ، أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن قلقه العميق تجاه نموذج الذكاء الاصطناعي القادم GPT-5، والمقرر إطلاقه في أغسطس 2025. وفي مقابلة بودكاست حديثة، كشف ألتمان عن أن النموذج الجديد أثار لديه مشاعر بالضعف والارتباك، بل وصل إلى حد وصف تجربته الشخصية معه بأنها "أزمة وجودية".
أوضح ألتمان أن GPT-5 قادر على أداء مهام عقلية معقدة لم يتمكن هو نفسه من حلها خلال التجارب الداخلية. وقال: "شعرت بأنني عديم الفائدة"، في اعتراف صريح بقوة النموذج.
وأضاف أن ما رآه أثناء اختباره دفعه لإعادة التفكير في العلاقة بين الإنسان والتكنولوجيا، مؤكدًا أن GPT-5 لا يمثل مجرد تحسين تقني بل مرحلة جديدة في تطور الذكاء الاصطناعي قد تكون لها تداعيات غير متوقعة.
لكن التشبيه الذي استخدمه ألتمان هو ما أثار الانتباه والقلق على نطاق واسع. فقد وصف تطوير GPT-5 بأنه يشبه مشروع مانهاتن، البرنامج الأمريكي السري الذي أدى إلى إنتاج أول قنبلة نووية في التاريخ خلال الحرب العالمية الثانية.
وقال في حديثه: "هناك لحظات ينظر فيها العلماء إلى ما صنعوه ويسألون: ماذا فعلنا؟". هذا التصريح يعكس شعورًا متزايدًا داخل الأوساط التكنولوجية بأننا نقف على أعتاب تطور قد يغير شكل الحضارة الإنسانية، تمامًا كما فعلت الأسلحة النووية في منتصف القرن العشرين.
رغم أن GPT-5 لا يحمل دمارًا فيزيائيًا كالأسلحة، إلا أن ألتمان يرى فيه "قوة معرفية هائلة" قد تكون لها آثار لا يمكن التنبؤ بها على المجتمعات، والمؤسسات، والأفراد. التقنية الجديدة لا تهدد بحد ذاتها، ولكنها تثير تساؤلات كبيرة حول كيفية استخدام البشر لها، ومن يمتلك حق توجيهها، وهل توجد أنظمة رقابة كافية لمواكبة تطورها.
في حين لم تُكشف بعد التفاصيل التقنية الكاملة لـ GPT-5، تشير مصادر داخلية إلى قفزات نوعية مقارنة بالنماذج السابقة، مثل تحسين التفكير متعدد الوسائط، وامتلاك ذاكرة أطول، وقدرة على معالجة المنطق المتسلسل بدقة أعلى. وصف ألتمان النموذج الحالي GPT-4، الذي يستخدمه ملايين حول العالم، بأنه "الأغبى بين ما سيضطر الناس لاستخدامه بعد الآن"، في إشارة إلى مدى تفوق GPT-5 عليه.
تستمر OpenAI في إعلان طموحاتها نحو بناء ذكاء اصطناعي عام، وهو النظام القادر على أداء جميع المهام الذهنية التي يمكن للإنسان تنفيذها. لكن ألتمان، الذي كان يعتقد سابقًا أن الوصول إلى هذا النوع من الذكاء سيتم بهدوء، أصبح اليوم أكثر حذرًا. فغياب نظام عالمي لتنظيم الذكاء الاصطناعي يُثير مخاوف من أن يتم إطلاق نماذج متقدمة دون رقابة كافية أو وعي بالتبعات طويلة الأمد.
في خلفية هذا المشهد، تبرز أيضًا ضغوط الشركات الكبرى والمستثمرين. تشير تقارير إلى أن مايكروسوفت، التي استثمرت أكثر من 13 مليار دولار في OpenAI، تسعى للحصول على دور أكبر في تحديد مستقبل GPT-5. وهناك حديث عن احتمالية إعلان OpenAI عن بلوغها للذكاء الاصطناعي العام كوسيلة لإعادة التفاوض على شراكتها مع مايكروسوفت، أو للحصول على مرونة تجارية أوسع.
في الوقت نفسه، يطالب المستثمرون OpenAI بالتحول إلى نموذج ربحي خلال العام الحالي، ما يضع ضغطًا إضافيًا للإسراع في تسويق GPT-5، ربما على حساب التقييم الأخلاقي والتقني الدقيق.
وعلى أرض الواقع، يواجه العالم بالفعل أحد المخاطر المتزايدة الناتجة عن الذكاء الاصطناعي، وهو الاحتيال المنظم. فقد أوضح هايوود تالكوف من شركة LexisNexis Risk Solutions أن الذكاء الاصطناعي يُستخدم حاليًا من قبل المحتالين لإنشاء هويات مزيفة وتنفيذ عمليات احتيال بملايين الدولارات على برامج حكومية وأنظمة تأمين اجتماعي. وقال تالكوف بوضوح: "المجرمون يستخدمون هذه التقنية بشكل أكثر كفاءة منا".
تُظهر تصريحات سام ألتمان أن حتى من يقودون هذا التقدم التكنولوجي غير واثقين تمامًا من عواقبه. وبينما يقترب موعد إطلاق GPT-5، تبقى الأسئلة معلقة: هل نحن مستعدون فعلًا لهذا النوع من الذكاء؟ هل نمتلك آليات الحماية الكافية؟ وهل يمكننا، كمجتمع عالمي، التنبؤ بما سيحدث عندما تمتلك الآلات قدرة معرفية قد تتجاوز عقولنا؟
قد يكون GPT-5 أعظم إنجاز تقني حتى الآن، لكنه في الوقت نفسه اختبار أخلاقي وتنظيمي لم يسبق للبشرية أن واجهته من قبل.