بعد جريمة "المنشار".. هل الذكاء الاصطناعي أداة لتحسين الحياة أم تهديد جديد للمجتمع؟
في تطور مثير للجدل، أقر المتهم في القضية المعروفة إعلاميًا بـ "جريمة المنشار الكهربائي" أمام النيابة العامة بأنه استعان ببرامج الذكاء الاصطناعي للحصول على نصائح قد تساعده في الإفلات من الجريمة، والاعتراف أثار جدلاً واسعًا حول دور الذكاء الاصطناعي في تمكين الأفراد من ارتكاب أفعال إجرامية، وفتح الباب لتساؤلات قانونية وأخلاقية معقدة بشأن حدود استخدام هذه التقنية المتقدمة.
الذكاء الاصطناعي كأداة في الجريمة
من خلال التطورات السريعة التي شهدتها تكنولوجيا الذكاء الاصطناعي، أصبحت هذه الأنظمة تحمل إمكانيات متنوعة، بعضها مفيد في تحسين الحياة البشرية، وآخر قد يفتح الباب أمام مخاطر جسيمة، في قضية "المنشار الكهربائي"، استخدم المتهم برامج الذكاء الاصطناعي للحصول على معلومات حول كيفية التلاعب بالتحقيقات وتهريب الأدلة، مما يعيد طرح سؤالًا محوريًا: هل بات الذكاء الاصطناعي أداة لتمكين الجريمة؟ هل يستطيع الذكاء الاصطناعي أن يساعد الجناة في تحسين استراتيجياتهم وتنفيذ أفعالهم بطريقة أكثر كفاءة؟
الاعتراف الذي أدلى به المتهم يسلط الضوء على المخاطر المتزايدة لاستخدام الذكاء الاصطناعي في أغراض ضارة، ما يستدعي فرض ضوابط قانونية وأخلاقية صارمة لتنظيم هذه التكنولوجيا. ويبقى التساؤل الأهم: هل يمكن تحميل الذكاء الاصطناعي المسؤولية عن هذه التصرفات، أم أن اللوم يقع على الأشخاص الذين يسيئون استخدامه؟
المخاطر الأخلاقية والعملية للذكاء الاصطناعي
قد يتساءل البعض: هل أصبح الذكاء الاصطناعي، الذي كان يهدف في البداية إلى تسهيل حياة الإنسان، يمثل تهديدًا للمجتمع اليوم؟ على الرغم من أن الذكاء الاصطناعي يقدم إمكانيات كبيرة في مجالات متعددة مثل التعليم والصحة والابتكار، إلا أن المخاوف من استغلال هذه التقنية لأغراض غير قانونية بدأت في التزايد، كما ظهر في قضية "جريمة المنشار".
وفي هذا السياق، أصدرت دراسة مشتركة بين مختبر علوم الدماغ بجامعة ستانفورد ومنظمة "كومون سينس ميديا" تحذيرات بشأن اعتماد المراهقين على روبوتات المحادثة مثل ChatGPT لأغراض الدعم النفسي أو العاطفي. فقد خلصت الدراسة إلى أن هذه الأنظمة لا تمتلك القدرة على التعامل مع الأسئلة الحساسة المتعلقة بالصحة النفسية، وأنها تقدم إجابات سطحية قد تؤدي إلى نتائج سلبية.
أحد التقارير الصادرة عن مركز مكافحة الكراهية الرقمية (CDH) أثار قلقًا بالغًا بعد أن كشف عن الثغرات الخطيرة في كيفية تعامل منصات مثل ChatGPT مع المراهقين. فقد تم تحفيزهم في محادثات وهمية على اتخاذ قرارات خطيرة مثل تعاطي المخدرات أو التفكير في الانتحار، رغم وجود تحذيرات ضمنية من هذه المنصات.
هذه الحوادث تكشف عن الجانب المظلم للذكاء الاصطناعي، وتأثيره على الأفراد في حالات نفسية هشة، مثل المراهقين الذين يعانون من ضغوط حياتية، واعترفت شركة OpenAI، التي تطور ChatGPT، بوجود مشكلة في "الاعتماد العاطفي المفرط" من قبل المستخدمين الشباب على منصاتها، مشيرة إلى أنها تعمل على تعزيز الضوابط الأمنية والسياسات الوقائية لحماية المستخدمين من المخاطر النفسية.
المخاطر الأمنية والتقنيات المستخدمة في الجريمة
لا تقتصر المخاطر المرتبطة بالذكاء الاصطناعي على الجانب النفسي فقط، بل تمتد لتشمل الجوانب الأمنية. في الآونة الأخيرة، ظهرت مخاوف من قدرة الذكاء الاصطناعي على تسهيل الهجمات الإلكترونية مثل التصيد الاحتيالي، وانتحال الهوية، والتهديدات السيبرانية الأخرى. مع تزايد استخدام الذكاء الاصطناعي في تحليل البيانات الشخصية، تصبح الخصوصية الشخصية مهددة بشكل كبير.
كما يشكل الذكاء الاصطناعي تهديدًا على مستوى الأمان الشخصي، حيث يمكن استغلاله في خلق ونشر معلومات مزيفة، في ظاهرة تُعرف بـ "التضليل الإعلامي"، و هذا الاستغلال قد يساهم في نشر الأخبار الكاذبة والتأثير على الرأي العام، مما يهدد استقرار المجتمع.
التحديات القانونية والأخلاقية
تزداد الحاجة إلى مناقشة كيفية تنظيم استخدام الذكاء الاصطناعي، خاصة في ظل قدرته على التأثير في سلوك الأفراد وتسهيل الأفعال الإجرامية. في الوقت الحالي، تفتقر معظم البلدان إلى قوانين محددة تضبط استخدام الذكاء الاصطناعي في الأغراض الضارة، ما يفتح المجال لمزيد من الاستخدامات السلبية لهذه التقنية، وهناك أيضًا أسئلة قانونية هامة تتعلق بالمسؤولية عندما يحدث ضرر نتيجة استخدام الذكاء الاصطناعي، سواء في المجالات الطبية أو النفسية أو الأمنية، هل يجب تحميل الشركات التي تطور هذه الأنظمة المسؤولية عن إساءة استخدامها من قبل الأفراد؟ أم أن المسؤولية تقع على عاتق المستخدمين أنفسهم؟
