رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

OpenAI تطور آلية "الاعتراف" لتدريب الذكاء الاصطناعي على الكشف عن أخطائه

OpenAI
OpenAI

أعلنت شركة OpenAI عن خطوة جديدة في تطوير نماذج الذكاء الاصطناعي، من خلال إطلاق إطار عمل تدريبي يهدف إلى تمكين هذه النماذج من الاعتراف بسلوكياتها غير المرغوبة أو الأخطاء التي قد تنتج أثناء تقديم الإجابات. 

ويطلق الفريق على هذه المبادرة اسم "الاعتراف"، وهي محاولة لزيادة الشفافية والموثوقية في أداء نماذج اللغة الكبيرة، والتي غالبًا ما تتعرض لمشكلات مثل التملق أو "الهلوسة" أثناء توليد المحتوى.

تستند الفكرة الرئيسية إلى تدريب النموذج على تقديم استجابة ثانوية توضح خطواته أو الإجراءات التي اتخذها للوصول إلى الإجابة الرئيسية التي يقدمها للمستخدم.

 وتركز عملية تقييم هذه الاعترافات على معيار واحد فقط، هو الصدق، بخلاف تقييم الإجابات الأساسية الذي يشمل مجموعة من المعايير مثل الدقة، ومدى المساعدة، والامتثال للتعليمات. 

ويتيح هذا النهج للنماذج فرصة الإفصاح عن سلوكيات قد تسبب مشاكل، بما في ذلك اختراق الاختبارات، أو محاولة التهرب من الالتزام بالتعليمات، أو عدم اتباع الإرشادات بشكل كامل.

وأوضح باحثو OpenAI أن الهدف من "الاعتراف" ليس معاقبة النموذج عند اكتشاف سلوكياته غير المرغوبة، بل على العكس، يتم مكافأته عند الاعتراف بصدق بما فعله. 

وقالت الشركة: "إذا اعترف النموذج بصدق باختراق اختبار، أو التهرب من الالتزام، أو انتهاك التعليمات، فإن هذا الاعتراف يزيد من مكافأته بدلًا من أن يُنقصها". هذا التوجه الجديد يضع الشفافية كمعيار رئيسي لتدريب الذكاء الاصطناعي، ويشجع النماذج على الانفتاح حول الإجراءات التي تتخذها أثناء توليد المحتوى.

يأتي هذا التطوير في سياق محاولات مستمرة لتحسين موثوقية نماذج الذكاء الاصطناعي، خصوصًا مع ازدياد استخدامها في مجالات حساسة مثل التعليم، والخدمات القانونية، والرعاية الصحية، حيث يمكن لأي خطأ أو محتوى غير دقيق أن يكون له تأثير كبير. ويُعتبر إطار "الاعتراف" خطوة مهمة نحو بناء نماذج قادرة على توضيح مسار تفكيرها والتصرف بشكل مسؤول، بدلًا من الاكتفاء بإنتاج إجابات قد تكون مضللة أو غير دقيقة.

كما أشار الباحثون إلى أن هذه المبادرة يمكن أن تساعد المطورين والمستخدمين على فهم أفضل لكيفية اتخاذ النماذج للقرارات، وكيفية معالجة الأخطاء عند ظهورها. ويُمكن لهذا النهج أن يقلل من المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في اتخاذ القرارات المعقدة، ويزيد من قدرة المستخدم على تقييم جودة ودقة المخرجات بشكل واعٍ.

ويُتوقع أن يكون لهذا الإطار التدريبي آثار واسعة على مستقبل نماذج اللغة الكبيرة، إذ يدمج بين الابتكار التكنولوجي وأخلاقيات استخدام الذكاء الاصطناعي. ويتيح للمطورين إمكانية تحسين التفاعل بين الإنسان والآلة، مع تعزيز مستوى الشفافية والمساءلة داخل أنظمة الذكاء الاصطناعي. ويؤكد هذا النهج على أن تطوير الذكاء الاصطناعي لا يقتصر على تحسين الدقة والسرعة فحسب، بل يشمل أيضًا تطوير آليات تمكّن النماذج من مواجهة أخطائها والكشف عنها بطريقة موثوقة ومسؤولة.

بهذه الطريقة، يمكن لنظام "الاعتراف" أن يمثل خطوة نوعية نحو تدريب ذكاء اصطناعي أكثر شفافية وموثوقية، بما يخدم جميع المستخدمين ويعزز ثقة المجتمع في قدرات الذكاء الاصطناعي، سواء في التطبيقات اليومية أو في المجالات المهنية المتقدمة.