بدأ الجدل القانوني حول الذكاء الاصطناعي يأخذ منحى أكثر خطورة بعد حادثة جامعة ولاية فلوريدا الأمريكية، عندما أعلن المدعي العام للولاية، في أبريل الماضي، عن فتح تحقيق جنائي ضد شركة (OpenAI) وتطبيقها للذكاء الاصطناعي (ChatGPT)، فقد كشفت التحقيقات أن الطالب، المتهم بقتل شخصين وإصابة آخرين داخل الحرم الجامعي، لم يكتفِ بالتخطيط التقليدي للجريمة، بل استعان بروبوت محادثة يعتمد على الذكاء الاصطناعي للحصول على معلومات حول الأسلحة والذخيرة وأفضل توقيت ومكان لتنفيذ الهجوم. هذه الواقعة فتحت باباً واسعاً أمام سؤال قانوني وأخلاقي معقد: هل يمكن أن تمتد المسؤولية الجنائية إلى الشركات المطورة لأنظمة الذكاء الاصطناعي إذا استُخدمت أدواتها في ارتكاب الجرائم؟ والأهم، كيف يمكن للقوانين التقليدية أن تتعامل مع أنظمة قادرة على التعلم واتخاذ قرارات شبه مستقلة؟
في الأردن، تبدو هذه الإشكالية أكثر إلحاحاً مع التوسع المتزايد في استخدام تطبيقات الذكاء الاصطناعي في القطاعات الحكومية والاقتصادية، مقابل محدودية الإطار التشريعي المنظم للمسؤولية الجنائية الناشئة عن هذه التقنيات. فالقانون الأردني، وعلى رأسه قانون العقوبات رقم 16 لسنة 1960 وقانون الجرائم الإلكترونية رقم 17 لسنة 2023، ما يزال قائماً على فكرة أن الجريمة لا تقوم إلا بوجود فاعل بشري يملك الإرادة والإدراك والقصد الجرمي. وهذا المفهوم التقليدي يصطدم مباشرة بطبيعة أنظمة الذكاء الاصطناعي الحديثة التي قد تتخذ قرارات معقدة دون تدخل بشري مباشر.المعضلة الأساسية تكمن في تحديد المسؤولية عندما يرتكب نظام ذكي فعلاً ضاراً أو جريمة. فهل يتحمل المسؤولية المبرمج الذي صمم الخوارزمية؟ أم الشركة المنتجة للنظام؟ أم المستخدم الذي استعان به؟ أم أن النظام نفسه يجب أن يُعامل كشخص قانوني مستقل؟ حتى الآن، لا يعترف القانون الأردني بالذكاء الاصطناعي كشخص قانوني يمكن مساءلته جنائياً، لأن المسؤولية الجنائية ترتبط بوجود “إرادة واعية”، وهو عنصر لا يتوافر في الآلة مهما بلغت درجة تطورها.لكن غياب الشخصية القانونية للذكاء الاصطناعي لا يعني غياب المسؤولية بالكامل. فالقواعد القانونية الحالية تسمح بإسناد المسؤولية إلى العنصر البشري المرتبط بالنظام الذكي. فإذا كان الضرر ناتجاً عن خلل برمجي أو تقصير في تصميم النظام، يمكن مساءلة المطور أو الشركة المنتجة على أساس الإهمال أو الخطأ المهني. أما إذا استخدم شخص ما نظام الذكاء الاصطناعي عمداً في ارتكاب جريمة إلكترونية أو نشر معلومات مضللة أو تنفيذ عملية احتيال، فإن المسؤولية تقع على المستخدم باعتباره الفاعل الحقيقي الذي وجّه النظام لتحقيق غرض غير مشروع.غير أن الإشكال الأكبر يظهر في الحالات التي يتصرف فيها النظام بطريقة غير متوقعة نتيجة التعلم الذاتي أو تحليل البيانات الضخمة. فالأنظمة الحديثة القائمة على التعلم العميق قد تطور سلوكيات لم يتنبأ بها حتى مطوروها أنفسهم، وهو ما يُعرف بمشكلة "الصندوق الأسود". في هذه الحالة، يصبح من الصعب إثبات علاقة السببية بين فعل المبرمج أو المستخدم وبين النتيجة الجرمية. وقد يؤدي ذلك إلى ما يسميه بعض الباحثين بالفجوة الجنائية، أي وجود ضرر أو جريمة دون إمكانية واضحة لتحديد المسؤول المسؤولية القانونية عنها.وتبرز هذه الإشكالية بوضوح في تطبيقات مثل السيارات ذاتية القيادة أو أنظمة التنبؤ الأمني أو برامج التزييف العميق. فلو ارتكبت سيارة ذاتية القيادة حادثاً قاتلاً نتيجة قرار اتخذته الخوارزمية بشكل مستقل، فمن يتحمل المسؤولية؟ وهل يكفي القول إن المصنع لم يكن قادراً على توقع القرار الذي اتخذته الآلة؟ الأمر ذاته ينطبق على تقنيات التزييف العميق التي باتت قادرة على إنتاج فيديوهات وصور مزيفة يصعب تمييزها عن الحقيقة، بما قد يؤدي إلى التشهير أو الابتزاز أو تضليل الرأي العام. ورغم أن قانون الجرائم الإلكترونية الأردني شدد العقوبات المتعلقة بالفضاء الرقمي، إلا أنه لم يضع نصوصاً صريحة تنظم الجرائم الناتجة عن الذكاء الاصطناعي أو تحدد حدود المسؤولية الجنائية فيها.كما يواجه القضاء الأردني تحديات عملية وتقنية كبيرة في هذا المجال، خصوصاً فيما يتعلق بجمع الأدلة الرقمية وتحليل الخوارزميات المعقدة. فإثبات كيفية اتخاذ نظام ذكي لقرار معين قد يتطلب خبرات تقنية متقدمة داخل المؤسسات القضائية وأجهزة إنفاذ القانون. إضافة إلى ذلك، فإن الجرائم المرتبطة بالذكاء الاصطناعي غالباً ما تكون عابرة للحدود، إذ قد يُدار النظام من خارج الأردن أو تُخزن بياناته في دول أخرى، ما يثير إشكاليات تتعلق بالاختصاص القضائي والتعاون الدولي.وفي المقابل، بدأ الأردن يدرك أهمية بناء إطار وطني لحوكمة الذكاء الاصطناعي. فقد أطلقت الحكومة "المدونة الوطنية لأخلاقيات الذكاء الاصطناعي"، كما تبنت الاستراتيجية الأردنية للذكاء الاصطناعي 2023-2027 بهدف خلق بيئة تشريعية وتنظيمية تدعم الاستخدام المسؤول للتكنولوجيا. غير أن هذه الخطوات، رغم أهميتها، ما تزال ذات طابع تنظيمي وأخلاقي أكثر من كونها قواعد قانونية ملزمة قادرة على معالجة الفراغ التشريعي في مجال المسؤولية الجنائية.لذلك، تبدو الحاجة ملحة أمام المشرّع الأردني لتطوير منظومة قانونية متخصصة تواكب التطور التقني المتسارع. وقد يكون من الضروري تعديل قانون العقوبات وقانون الجرائم الإلكترونية لإدخال نصوص واضحة تنظم الجرائم المرتكبة بواسطة أنظمة الذكاء الاصطناعي، وتحديد أسس المسؤولية بين المطور والمستخدم والشركة المشغلة. كما تبرز أهمية فرض التزامات تتعلق بالشفافية واختبارات السلامة والرقابة على الأنظمة الذكية قبل طرحها للاستخدام العام، إضافة إلى تدريب القضاة وأعضاء النيابة العامة على التعامل مع القضايا التقنية المعقدة.إن الذكاء الاصطناعي لم يعد مجرد أداة تقنية، بل أصبح قوة قادرة على إعادة تشكيل مفاهيم المسؤولية والعدالة والقانون ذاته. وحادثة فلوريدا ليست سوى إنذار مبكر لما قد يواجهه العالم مستقبلاً إذا استمرت التكنولوجيا في التطور بوتيرة أسرع من قدرة التشريعات على مواكبتها. والأردن، كغيره من الدول، يقف اليوم أمام تحدٍ حقيقي يتمثل في تحقيق التوازن بين تشجيع الابتكار من جهة، وحماية المجتمع وضمان عدم إفلات الأضرار والجرائم المرتبطة بالذكاء الاصطناعي من المساءلة القانونية من جهة أخرى.با وزير يكتب: الذكاء الاصطناعي والمسؤولية الجنائية في الأردن.. الآثار والتحديات القانونية
د. باسل باوزير
با وزير يكتب: الذكاء الاصطناعي والمسؤولية الجنائية في الأردن.. الآثار والتحديات القانونية
مدار الساعة ـ