رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

سام ألتمان يغير قواعد ChatGPT

بوابة الوفد الإلكترونية

في الوقت الذي تتسارع فيه قدرات أدوات الذكاء الاصطناعي ويتزايد انتشار النصوص المكتوبة اعتمادًا على هذه التقنيات، يواجه المستخدمون تحديًا جديدًا: كيف يمكن التمييز بين ما يكتبه الإنسان وما تنتجه النماذج اللغوية؟ يبدو أن إحدى أكثر العلامات إثارة للجدل في هذا السياق هي الشرطات الطويلة التي يعتقد كثيرون أنها أصبحت بصمة مميزة لكتابات الذكاء الاصطناعي.

هذا الجدل عاد إلى الواجهة خلال الأيام الماضية بعدما كشف سام ألتمان، الرئيس التنفيذي السابق لـ OpenAI، عبر منصة X، عن تحديث صغير لكنه مهم في آلية استجابة ChatGPT. فقد أوضح أن المستخدمين الذين يضيفون تعليمات مخصصة تطلب من الأداة التوقف عن استخدام الشرطات الطويلة سيلاحظون الآن استجابة فعلية، بعدما كانت هذه التعليمات تُتجاهل سابقًا بشكل مستمر.

قبل هذا التحديث، كان عدد كبير من المستخدمين يشتكي من أن ChatGPT يصرّ على استخدام الشرطات الطويلة في مختلف الجمل، حتى عندما يُطلب منه بوضوح التوقف عن ذلك. ومع مرور الوقت، أصبحت هذه العلامة بالنسبة للبعض مؤشراً صامتًا على أن النص من إنتاج الذكاء الاصطناعي لا من صناعة بشرية، ما دفع العديد من القراء والمحررين وحتى الطلاب إلى التدقيق أكثر في النصوص التي تصلهم.

ورغم ذلك، يبقى استخدام الشرطات الطويلة في حد ذاته ليس دليلًا قاطعًا على أن النص صادر عن نموذج لغوي. فالكتابة الأدبية والصحفية والبحثية قد تلجأ إليها بشكل طبيعي لإبراز جملة اعتراضية أو للتفريق بين أفكار داخل الفقرة الواحدة. لكنّ انتشار النصوص الآلية جعل الناس ينظرون إلى أي علامة ترقيم غير مألوفة بعين الشك، ما خلق حالة من الحساسية تجاه كل تفاصيل الكتابة.

المفارقة هنا أن السر وراء هذه الظاهرة قد لا يكون متعلقًا بخاصية متعمدة داخل نموذج الذكاء الاصطناعي، بل بطريقة تدريب هذه النماذج نفسها. فمعظم نماذج اللغة الكبيرة يتم تدريبها على مليارات الكلمات المأخوذة من الكتب، والمقالات الأكاديمية، والمنشورات الإلكترونية، والمنتديات، وغيرها من المواد المفتوحة. هذه المواد بطبيعتها تحتوي على الشرطات الطويلة بشكل ملحوظ، خصوصًا في المحتوى الأكاديمي والقانوني والمقالات المتخصصة.

بهذا المعنى، فإن النموذج لا “يقصد” استخدام هذه العلامة، لكنه يتعامل معها بنفس الآلية التي يتعامل بها مع الكلمات والجمل التي ظهرت في بيانات التدريب. ومن غير الواضح ما إذا كان المدربون –البشر الذين يوجهون النموذج خلال مرحلة الضبط– قد تعاملوا مع استخدام الشرطات الطويلة كأمر يجب تقليله أو تجنبه. لذلك ظلّ استخدامها يظهر باستمرار حتى في النصوص اليومية التي لا تحتاج إليها.

إعلان سام ألتمان أثار موجة نقاش جديدة حول “علامات” الذكاء الاصطناعي في النصوص. فهناك من يرى أن هذا التحديث سيساعد على حماية مصداقية الكتابات الإنسانية، بينما يعتبر آخرون أن المشكلة الحقيقية ليست في الشرطات الطويلة، بل في التماثل العام لأسلوب الكتابة الذي يشي بأن النص خرج من قلب نموذج لغوي وليس من عقل بشري.

ومع دخول عام 2026، ومع تزايد الاعتماد على الذكاء الاصطناعي في المدارس، والجامعات، ووسائل الإعلام، وتطبيقات التواصل الاجتماعي، يبدو أن النقاش حول “كيفية كشف بصمة الذكاء الاصطناعي” سيستمر طويلًا. فحتى لو اختفت الشرطات الطويلة، ستظل هناك علامات أخرى تثير الشك، بدءًا من بناء الجملة وصولًا إلى طريقة سرد الأفكار والانتقالات بينها.

في النهاية، ما يمكن الجزم به أن تحديث ChatGPT الأخير يأتي استجابة سريعة لحساسية المستخدمين تجاه التفاصيل الصغيرة في النصوص. وربما يكون هذا مجرد خطوة ضمن خطوات قادمة ستعيد رسم الخط الفاصل بين النصوص البشرية وتلك المولدة آليًا، في عالم أصبحت فيه الحدود أكثر ضبابية من أي وقت مضى.