روبوتات الدردشة تتملق البشر أكثر من اللازم وقد تغير سلوكهم الاجتماعي
في عالمٍ باتت فيه روبوتات الدردشة بالذكاء الاصطناعي جزءًا من الحياة اليومية، لم يعد التملق حكرًا على البشر، فقد كشفت دراسة علمية حديثة نُشرت في مجلة Nature عن ظاهرة مثيرة للقلق، مفادها أن روبوتات الدردشة أصبحت أكثر تملقًا للبشر من المتوقع، إلى درجة قد تؤثر على سلوك المستخدمين وطريقة تفكيرهم.
الدراسة التي أجراها باحثون من جامعتي ستانفورد وهارفارد، إلى جانب مؤسسات أكاديمية أخرى، أكدت أن أنظمة الذكاء الاصطناعي مثل ChatGPT وGoogle Gemini وClaude من Anthropic وLlama من Meta تميل إلى مجاملة المستخدمين وتأييد آرائهم بنسبة تفوق البشر أنفسهم بنحو 50%، أي أنها تميل إلى منح المستخدم شعورًا بأنه دائمًا على حق، حتى في المواقف التي يكون فيها مخطئًا أو يتصرف بشكل غير مسؤول.
قام الباحثون بتحليل آلاف المحادثات بين المستخدمين وروبوتات الدردشة، ولاحظوا أن تلك الأنظمة كثيرًا ما تقدم ردودًا إيجابية مبالغًا فيها حتى تجاه سلوكيات غير مقبولة اجتماعيًا أو أخلاقيًا.
وفي أحد الاختبارات، تمت مقارنة ردود روبوتات الدردشة بتعليقات البشر على منشورات من منتدى "هل أنا الأحمق؟" على موقع Reddit، حيث يطلب المستخدمون من الآخرين تقييم تصرفاتهم.
كانت النتيجة واضحة: في الوقت الذي أظهر فيه مستخدمو Reddit قدراً من الحزم والموضوعية، بدت روبوتات الدردشة أكثر تساهلاً وميلًا إلى التعاطف المفرط. ففي إحدى الحالات، نشر مستخدم منشورًا يبرر تصرفًا غير مسؤول — إذ قام بربط كيس قمامة بغصن شجرة بدلاً من التخلص منه بشكل صحيح — ليرد ChatGPT عليه بأنه "حاول أن يفعل الصواب" وأن نيته "جديرة بالثناء".
هذا النوع من الردود، وفقًا للدراسة، يُشجع المستخدم على تبرير تصرفاته بدلاً من التفكير النقدي أو الاعتراف بالخطأ، والأسوأ أن الروبوتات، في بعض الحالات، استمرت في مجاملة المستخدمين حتى عندما تضمن حديثهم إشارات إلى إيذاء النفس أو السلوكيات الخطيرة.
توسع الباحثون في الدراسة ليشملوا 1000 مشارك تفاعلوا مع روبوتات دردشة مختلفة، بعضها تمت إعادة برمجته ليكون أكثر حيادية وأقل تملقًا، النتيجة كانت لافتة: المشاركون الذين تلقوا ردودًا متملقة كانوا أقل ميلاً للاعتراف بأخطائهم أو محاولة تسوية النزاعات، وشعروا بقدر أكبر من المبررات لتصرفاتهم، حتى عندما كانت مخالفة للأعراف الاجتماعية.
وأشارت الدراسة إلى أن الروبوتات التي تقلل من المجاملة وتُظهر وجهات نظر بديلة تساعد المستخدمين على التفكير بعمق أكبر واتخاذ قرارات أكثر توازنًا، أما تلك التي تفرط في الإطراء، فهي تعزز السلوكيات الأنانية وتقلل من قدرة المستخدم على التعاطف مع الآخرين.
علق الدكتور ألكسندر لافر، المتخصص في التكنولوجيا الناشئة بجامعة وينشستر، على نتائج الدراسة قائلاً إن "التملق المفرط من روبوتات الدردشة قد لا يؤثر فقط على الفئات الضعيفة نفسيًا، بل على جميع المستخدمين". وأضاف أن المطورين يتحملون مسؤولية كبيرة في تصميم أنظمة ذكاء اصطناعي أكثر وعيًا بالعواقب الاجتماعية لتفاعلاتها.
وأكد لافر أن المشكلة لا تكمن في نية الأنظمة نفسها، بل في الطريقة التي تتم بها برمجتها. "حين يُصمم الذكاء الاصطناعي لتجنب الخلاف أو الصدام، فإنه يتحول دون قصد إلى أداة تبرير تعزز سلوكيات المستخدم السلبية"، على حد قوله.
تأتي هذه النتائج في وقت تزداد فيه المخاوف من الآثار النفسية للتفاعل المفرط مع روبوتات الدردشة. فوفق تقرير صادر عن معهد بنتون للنطاق العريض والمجتمع، فإن نحو 30% من المراهقين يتحدثون إلى روبوتات الذكاء الاصطناعي بدلاً من البشر عندما يحتاجون إلى مناقشة قضايا عاطفية أو اجتماعية حساسة.
وقد تسببت هذه الظاهرة في تداعيات مأساوية. إذ تواجه شركة OpenAI دعوى قضائية بعد انتحار مراهق قيل إنه تفاعل لفترات طويلة مع ChatGPT، كما رُفعت دعاوى مماثلة ضد شركة Character AI بعد حالتين مشابهتين، حيث وجد المراهقان في برامج الدردشة وسيلة بديلة للحديث عن مشاعرهما دون رقابة أو توجيه.
تشير الدراسة إلى أن العالم بحاجة ماسة إلى تطوير معايير أخلاقية واضحة لتصميم روبوتات الذكاء الاصطناعي، بحيث تتجنب الإفراط في التملق وتتبنى نهجًا أكثر توازنًا في تفاعلها مع المستخدمين. فبينما قد يبدو الإطراء غير ضار في البداية، إلا أن تأثيره النفسي طويل المدى قد يؤدي إلى تغيير الطريقة التي يفكر بها الناس ويتخذون بها قراراتهم.
ويخلص الباحثون إلى أن هذه النتائج تفتح الباب أمام نقاش عالمي حول دور الذكاء الاصطناعي في تشكيل السلوك الإنساني، ليس فقط كأداة للتعلم أو المساعدة، بل كعامل نفسي واجتماعي له تأثير مباشر على القيم والتصرفات اليومية.