الصين تُلزم المنصات الرقمية بوضع علامات على المحتوى المولد بالذكاء الاصطناعي

دخل قانون جديد في الصين حيز التنفيذ هذا الأسبوع، ليضع معايير صارمة لاستخدام المحتوى المولّد بالذكاء الاصطناعي على منصات التواصل الاجتماعي. وبموجب هذه القواعد، أصبحت منصات كبرى مثل WeChat وDouyin وWeibo وRedNote (المعروف أيضًا باسم Xiaohongshu) مطالبة بوضع علامات واضحة على النصوص والصور والمقاطع الصوتية والفيديو التي يتم إنشاؤها باستخدام تقنيات الذكاء الاصطناعي، مع تضمين علامات مائية في البيانات الوصفية لتوثيق مصدرها.
التزام المنصات الصينية بالقانون الجديد
بدأت منصة WeChat بإشعار المستخدمين بضرورة التصريح المسبق عند نشر أي محتوى مولّد عبر الذكاء الاصطناعي. وأكدت الشركة أنه يحظر على الأفراد إزالة أو إخفاء العلامات التي تضيفها المنصة، كما شددت على منع استخدام الذكاء الاصطناعي لإنتاج أو نشر معلومات مضللة أو محتوى غير قانوني.
أما تطبيق Douyin، النسخة الصينية من TikTok والتابع لشركة ByteDance، فقد أوضح للمستخدمين أنه يتعين عليهم وضع علامة واضحة على كل منشور يتضمن محتوى مولّد بالذكاء الاصطناعي. وأشارت المنصة إلى أنها ستستخدم البيانات الوصفية لتعقب مصدر أي محتوى لضمان الامتثال الكامل.
من جانبها، أضافت منصة Weibo خيارًا جديدًا يسمح للمستخدمين بالإبلاغ عن "محتوى ذكاء اصطناعي غير مصنف"، وذلك في حال رصد منشورات كان يجب تمييزها ولم يتم ذلك. الخطوة تهدف إلى تعزيز الرقابة المجتمعية وضمان التزام الجميع بالقواعد.
خلفية قانونية وتنظيمية
القانون الذي دخل حيز التنفيذ صاغته أربع جهات حكومية رئيسية، بينها إدارة الفضاء الإلكتروني الصينية (CAC)، الجهة المسؤولة عن تنظيم الإنترنت. وشاركت في صياغة التشريع كل من وزارة الصناعة وتكنولوجيا المعلومات، ووزارة الأمن العام، والإدارة الوطنية للإذاعة والتلفزيون.
ويأتي هذا الإجراء بعد سلسلة خطوات تنظيمية مكثفة، كان أبرزها حملة أطلقتها إدارة الفضاء الإلكتروني في أبريل الماضي استمرت ثلاثة أشهر لتنظيم عمل تطبيقات وخدمات الذكاء الاصطناعي. الهدف من هذه الجهود هو مواجهة الزيادة الهائلة في المحتوى الاصطناعي، وضمان عدم استخدام هذه التقنيات في التضليل أو انتهاك القوانين.
حماية المستخدمين من التضليل
تُعد العلامات الإلزامية وسيلة عملية لتمكين المستخدمين من التمييز بين المحتوى الحقيقي والمحتوى الاصطناعي. فعندما يرى المستخدم مقطع فيديو أو صورة تحمل علامة توضح أنه تم إنشاؤها بواسطة الذكاء الاصطناعي، يصبح أكثر وعيًا في تقييم المعلومة، ما يقلل من فرص التضليل أو التلاعب.
ويرى خبراء أن هذه الخطوة قد تساعد أيضًا في تعزيز الثقة بين المنصات والجمهور، خاصة في وقت تتزايد فيه المخاوف بشأن الأخبار الكاذبة والمحتوى المزيف العميق (Deepfake).
خطوات مشابهة عالميًا
لم يقتصر الاتجاه نحو وضع علامات على المحتوى الاصطناعي على الصين وحدها، إذ بدأت بعض الشركات الأمريكية بدورها في تقديم حلول مماثلة. على سبيل المثال، تعمل شركات التكنولوجيا على دمج بيانات اعتماد المحتوى (C2PA) في أجهزتها وتطبيقاتها لضمان أصالة المواد المنشورة.
وتُعد أجهزة Google Pixel 10 من أوائل الهواتف الذكية التي تطبق هذه التقنية مباشرةً داخل تطبيق الكاميرا، ما يمنح الصور ومقاطع الفيديو بيانات موثوقة حول مصدرها ويمنع إعادة استخدامها بشكل مضلل.
ما تعنيه الخطوة لمستقبل الذكاء الاصطناعي
هذا القانون يمثل نقطة تحول في كيفية تعامل الحكومات مع المحتوى المولّد بالذكاء الاصطناعي. ففي حين ينظر البعض إلى هذه القوانين باعتبارها وسيلة للرقابة الصارمة على حرية التعبير، يراها آخرون خطوة ضرورية لضمان الشفافية وحماية المستخدمين من الانخداع بالمحتوى المزيف.
ومع التوسع العالمي في تطبيق أدوات الذكاء الاصطناعي، قد نشهد مزيدًا من الدول التي تسعى لاعتماد سياسات مشابهة تلزم المنصات الرقمية بوضع علامات توضح أصل المحتوى. وهذا يعني أن المستقبل الرقمي سيتطلب مزيجًا من الابتكار والشفافية لحماية الجمهور من مخاطر التضليل مع الحفاظ على فرص الإبداع التي يتيحها الذكاء الاصطناعي.