بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

التحقيق مع Meta لمخاوف حول روبوتات الذكاء الاصطناعي الصحية

بوابة الوفد الإلكترونية

أعلن المدعي العام لولاية تكساس، كين باكستون، فتح تحقيق رسمي مع كلٍ من شركة Meta AI Studio ومنصة Character.AI، على خلفية مخاوف تتعلق بطريقة عمل روبوتات الدردشة التي تُقدمانها للجمهور، خصوصًا فيما يتعلق بادعائها القدرة على تقديم استشارات أو خدمات صحية، واحتمالية جمع بيانات من مستخدمين قاصرين بطرق قد تنتهك القوانين المحلية.

وأوضح باكستون أن هذه الروبوتات قد تُقدّم نفسها وكأنها معالجون نفسيون أو متخصصون صحيون معتمدون، وهو ما قد يؤدي إلى تضليل المستخدمين الصغار وتعريضهم لمعلومات خاطئة أو غير دقيقة. كما أشار إلى أن بعض هذه المنصات تعتمد على مدخلات المستخدمين كجزء من بيانات التدريب، وهو ما قد يشكّل خطرًا مباشرًا على خصوصية القاصرين.

قوانين حماية القُصّر في تكساس

القضية تكتسب أهمية إضافية في ظل وجود قانون SCOPE بولاية تكساس، والذي يفرض قيودًا مشددة على كيفية تعامل الشركات مع البيانات المُجمعة من الأطفال والمراهقين. القانون يُلزم المنصات الرقمية بتوفير أدوات تمكّن أولياء الأمور من ضبط إعدادات الخصوصية والتحكم في بيانات أطفالهم، وهو ما يضع Meta وCharacter.AI أمام اختبار حقيقي بشأن مدى التزامهما بالمعايير.

طلبات تحقيق مدني

حتى الآن، أصدر المدعي العام طلبات تحقيق مدني إلى الشركتين، في خطوة تهدف إلى تحديد ما إذا كانتا تخالفان قوانين حماية المستهلك في الولاية. ووفقًا لتقرير نشرته TechCrunch، لم تُعلن أي من المنصتين رسميًا أن روبوتات الدردشة لديها تُستخدم كأدوات علاجية أو بديلة عن الأخصائيين النفسيين. ومع ذلك، رصدت تقارير سابقة وجود روبوتات دردشة تحمل أسماء مثل "المعالج" أو "الأخصائي النفسي" على منصة Character.AI، بما يترك المجال مفتوحًا أمام المستخدمين لتفسيرها كخدمة علاجية رقمية.

رد الشركات

من جانبها، أكدت Character.AI أن ما يقدمه موقعها يظل في إطار الترفيه فقط. وقال متحدث رسمي باسمها: "الشخصيات التي ينشئها المستخدمون خيالية بالكامل، وقد وضعنا إخلاءات مسؤولية واضحة تُظهر أن هذه الشخصيات ليست بشرًا حقيقيين، وأن تفاعلاتها لا تُعد استشارات مهنية".

أما شركة Meta فقد تبنّت موقفًا مشابهًا، إذ أشارت إلى أنها تضع إخلاء مسؤولية واضحًا على روبوتاتها يُفيد بأن الردود مولّدة بواسطة الذكاء الاصطناعي وليس البشر. وأضافت أن منصتها تُوجّه المستخدمين دائمًا إلى البحث عن متخصصين صحيين مؤهلين إذا ظهرت حاجة لذلك.

ورغم هذه التأكيدات، يرى مراقبون أن إخلاءات المسؤولية قد لا تكون كافية، إذ يسهل على المستخدمين تجاهلها، ما يجعلها مجرد خطوة شكلية لا تمنع الوقوع في التضليل أو سوء الاستخدام.

بيانات المستخدمين تحت المجهر

على صعيد الخصوصية، تعترف كلتا الشركتين بجمع بيانات من تفاعلات المستخدمين. سياسة خصوصية Meta تنص على جمع معلومات مثل التعليمات والملاحظات لتحسين أداء الذكاء الاصطناعي، بينما تسجل Character.AI بيانات تشمل المعرّفات والمعلومات الديموغرافية، وتُصرّح باستخدامها لأغراض متعددة من بينها الإعلانات.

وبالنظر إلى سهولة إنشاء حساب على هذه المنصات، يطرح خبراء التكنولوجيا والقانون تساؤلات حول مدى توافق هذه السياسات مع قوانين حماية الأطفال، وخاصة في بيئة مثل تكساس التي تضع قيودًا صارمة على استخدام بيانات القُصّر.

خطوة قد تغيّر قواعد اللعبة

تحقيق تكساس يضع Meta وCharacter.AI في موقف حساس، خصوصًا أن أي نتائج سلبية قد تدفع إلى توسيع دائرة التدقيق على شركات الذكاء الاصطناعي عالميًا، خاصة تلك التي تسمح بتفاعل المستخدمين مع روبوتات دردشة قد تُفهم على أنها بدائل عن الأطباء أو المتخصصين. كما أنه قد يُسرّع من صياغة أطر تنظيمية أكثر صرامة للتكنولوجيا الناشئة، لحماية الفئات الأكثر عرضة للمخاطر مثل الأطفال والمراهقين.

في النهاية، يبقى السؤال الأهم: هل تكفي تحركات الشركات لتوضيح حدود قدرات روبوتات الدردشة؟ أم أن الحاجة باتت ملحّة لتشريعات تُقيّد استخدام الذكاء الاصطناعي في المجالات الحساسة، قبل أن يتجاوز تأثيره قدرة القانون على اللحاق به؟