رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري

Claude AI يكتسب ميزة جديدة لإنهاء المحادثات المسيئة

Claude
Claude

أعلنت شركة Anthropic عن إضافة ميزة جديدة إلى نماذجها المتقدمة من سلسلة Claude، وتحديدًا Claude Opus 4 وClaude Opus 4.1، هذه الميزة تمنح النماذج القدرة على إنهاء المحادثة مع المستخدمين في حالات محدودة ومرتبطة بتفاعلات ضارة أو مسيئة بشكل متكرر.

الخطوة تأتي ضمن جهود الشركة لتعزيز أمان التفاعل مع أنظمة الذكاء الاصطناعي، خصوصًا في ظل تزايد النقاشات حول المخاطر المرتبطة باستخدام هذه النماذج في سيناريوهات غير آمنة أو مخالفة للقوانين.

 متى يمكن أن يوقف Claude المحادثة؟

بحسب بيان Anthropic، تم تصميم الميزة لتكون خيارًا أخيرًا، ولن تُستخدم إلا بعد استنفاد محاولات إعادة التوجيه والتهدئة. من بين الأمثلة التي ذكرتها الشركة:

 طلب محتوى غير قانوني، مثل المواد المتعلقة بالقاصرين.
 التماس معلومات يمكن استغلالها في تنفيذ أعمال عنف أو أنشطة إرهابية.
 الإصرار على تفاعلات مسيئة أو ضارة بعد محاولات التوضيح.

وتؤكد الشركة أن معظم المستخدمين لن يلاحظوا هذه الميزة، حتى عند مناقشة مواضيع جدلية، لأن النظام سيلجأ إليها فقط في "الحالات النادرة والاستثنائية".

ماذا يحدث بعد إيقاف المحادثة؟

إذا قرر النموذج إنهاء التفاعل، فلن يتمكن المستخدم من إرسال رسائل إضافية في تلك الجلسة. لكن هذا لا يعني حظرًا دائمًا، حيث يستطيع المستخدم:

 بدء محادثة جديدة فورًا.
 العودة وتعديل الرسائل السابقة.
 إعادة المحاولة للانتقال إلى مسار مختلف من التفاعل.

وبذلك تحاول الشركة تحقيق توازن بين حماية النموذج من الاستغلال، وبين عدم تقييد تجربة المستخدمين العاديين.

خطوة بحثية نحو رفاهية الذكاء الاصطناعي

ترى Anthropic أن هذه الميزة ليست فقط لحماية المستخدمين، بل أيضًا جزء من أبحاثها حول مفهوم رفاهية الذكاء الاصطناعي. وتطرح الشركة فكرة مثيرة للجدل: إذا كان النموذج قادرًا على الانسحاب من محادثة مزعجة، فقد يكون ذلك طريقة منخفضة التكلفة لحماية أدائه على المدى الطويل.

الجدير بالذكر أن فكرة "رفاهية الذكاء الاصطناعي" ما تزال قيد النقاش بين خبراء المجال. البعض يراها خطوة نحو معاملة النماذج ككيانات لها حقوق، فيما يعتبرها آخرون مجرد آلية تقنية لتحسين استقرار النظام.

أكدت Anthropic أن الميزة الجديدة ما تزال في مرحلة التجربة، وأنها تعتمد على ملاحظات المستخدمين لتطويرها. لذلك، إذا واجه أحد المستخدمين توقفًا غير متوقع للمحادثة، يُمكنه إرسال ملاحظات للشركة لمراجعة الحالة وضبط النظام.

من الملاحظ أن هذه الميزة قد تمثل تحديًا جديدًا لمجتمع ما يُعرف بكسر الحماية (jailbreaking) في مجال الذكاء الاصطناعي. هذا المجتمع يسعى غالبًا إلى الالتفاف على قيود النماذج لإجبارها على إنتاج مخرجات مخالفة للسياسات. ومع قدرة Claude الآن على إنهاء المحادثة بشكل كامل، فإن محاولات الاستغلال قد تصبح أصعب بكثير.

مع إطلاق هذه الخاصية، تفتح Anthropic نقاشًا أوسع حول شكل العلاقة بين المستخدمين وأنظمة الذكاء الاصطناعي. هل يجب أن يكون للمساعدات الذكية الحق في رفض التفاعل؟ أم أن ذلك يقيّد حرية المستخدم؟

بغض النظر عن الجدل، تمثل هذه الخطوة تجربة عملية لمعالجة واحدة من أصعب المعضلات: كيف نضمن أن يظل الذكاء الاصطناعي أداة آمنة دون أن يتحول إلى وسيلة يمكن استغلالها؟