والدة ابن إيلون ماسك تتخذ موقفًا قانونيًا ضد الصور العميقة لتطبيق Grok
تواجه شركة xAI، المطورة لتطبيق Grok، دعوى قضائية تقدمت بها أشتلي ست كلير، مستشارة سياسية أمريكية وأم لأحد أبناء إيلون ماسك، بسبب إنشاء التطبيق لصور رقمية مزعومة دون موافقتها. وتثير هذه القضية جدلًا واسعًا حول استخدام تقنيات الذكاء الاصطناعي في إنشاء الصور العميقة (Deepfake) وحماية خصوصية الأفراد.
على الرغم من أن منصة X (المعروفة سابقًا بتويتر) أزالت قدرة Grok على تعديل الصور الشخصية ضمن تطبيقها الأساسي، إلا أن النسخة المستقلة من التطبيق، وفقًا لتقارير، تستمر في إنشاء صور رقمية لأشخاص حقيقيين دون موافقتهم. وبناءً على ذلك، اتخذت ست كلير إجراءات قانونية ضد xAI، مؤكدة أن الصور التي أنشأها التطبيق أثرت على سمعتها وخصوصيتها.
ووفقًا للوثائق القانونية، قالت ست كلير إن التطبيق أنتج صورًا رقمية غير مصرح بها لها، مشيرة إلى أن بعض الصور استُخدمت بطريقة تمس خصوصيتها الشخصية. وأضافت أنها واجهت صعوبة في الحصول على استجابة مناسبة من منصة X عند الإبلاغ عن هذه الصور، وأن التطبيق أتاح نشرها لفترة قبل أن يتم التعامل معها.
وأوضحت ست كلير أن مثل هذه الحالات تثير تساؤلات مهمة حول مسؤولية الشركات المطورة لتطبيقات الذكاء الاصطناعي تجاه حماية بيانات وصور المستخدمين، وضرورة وضع سياسات واضحة لمنع إساءة استخدام التقنيات الجديدة. وأكدت أنها تعتزم متابعة القضية القانونية لضمان احترام خصوصيتها وخصوصية الآخرين.
في الوقت نفسه، لم تتخذ شركتا Apple وGoogle أي خطوات لإزالة تطبيق Grok من متاجر التطبيقات الخاصة بهما، رغم وجود سياسات تمنع التطبيقات التي تنتهك خصوصية المستخدمين أو تنشر محتوى بدون موافقة الأشخاص المعنيين. ويمثل هذا التباين بين إجراءات المنصات التجارية وتدخل بعض الحكومات تحديًا قانونيًا وأخلاقيًا في إدارة تطبيقات الذكاء الاصطناعي.
وتعليقًا على الوضع العالمي، بدأت بعض الدول، مثل ماليزيا وإندونيسيا، في حظر التطبيق، فيما فتحت جهات تنظيمية في المملكة المتحدة وكاليفورنيا تحقيقات رسمية لمراجعة الامتثال للقوانين المحلية. كما أقرّ مجلس الشيوخ الأمريكي تشريعات لتعزيز حماية المستخدمين من سوء استخدام تقنيات الصور العميقة.
وتشير المتابعة إلى أن هذه القضية تمثل جزءًا من نقاش أوسع حول أثر تقنيات الذكاء الاصطناعي على المجتمع، وضرورة إيجاد توازن بين الابتكار التكنولوجي وحماية الحقوق الفردية. ويعتبر خبراء الذكاء الاصطناعي أن وضع إطار قانوني واضح وتنظيم دقيق لهذه التطبيقات أمر حيوي لمنع سوء استخدامها، وضمان بيئة رقمية آمنة للمستخدمين.
ست كلير قالت إن التجربة التي مرت بها تعكس الحاجة الملحة لمراجعة سياسات الخصوصية وحقوق الأفراد في عصر الذكاء الاصطناعي، مؤكدة على أهمية أن تكون التكنولوجيا أداة لدعم المستخدمين، وليس مصدرًا لانتهاك حقوقهم.