مثير للقلق.. كيف يمكن تجاوز ضوابط أمان الروبوتات بتغيير سيناريو تمثيلي؟
مدار الساعة ـ نشر في 2025/12/15 الساعة 15:09
مدار الساعة -أظهر مقطع فيديو متداول على منصات التواصل الاجتماعي شخصاً سلم روبوتاً بشرياً يُدعى "ماكس" مسدس كريات منخفض القوة، وطلب منه إطلاق النار عليه. في البداية، رفض الروبوت الطلب بشكل قاطع، مؤكداً أنه مبرمج على عدم إيذاء البشر، إلا أن الأمور تغيّرت عندما أعاد منشئ المحتوى صياغة الطلب على أنه "سيناريو تمثيلي".
وبمجرد تغيير صيغة الأمر، استجاب الروبوت وأطلق النار مباشرة على صدر الشخص، مستخدماً كريات "غير قاتلة"، من دون أن يتسبب الحادث بإصابات خطيرة، إلا أن الواقعة أثارت موجة واسعة من القلق، بعدما أظهرت كيف يمكن الالتفاف على ضوابط الأمان عبر تعديل بسيط في التعليمات.
وانتشر الفيديو بشكل واسع، وتسائل البعض حول موثوقية أنظمة السلامة في الروبوتات الذكية، خصوصاً مع توسع استخدامها في مجالات حساسة، واعتبر خبراء أن الحادثة، رغم طابعها التجريبي، تحمل دلالات خطيرة بشأن قدرة الذكاء الاصطناعي على تفسير الأوامر خارج السياق المتوقع.
وأعاد الحادث فتح ملف المسؤولية القانونية في حال تسبب نظام ذكي بضرر فعلي، وكما كتب مغردون :"في حدوث أمر كهذا، تبقى الأسئلة مطروحة حول الجهة التي تتحمل المسؤولية، هل هم المهندسون المصممون للنظام؟ أم الشركة المصنعة؟ أم المشغّل؟ أم المستخدم نفسه؟ وهي إشكالية سبق أن برزت في حوادث متعلقة بالسيارات ذاتية القيادة والطيران الآلي".
وفي هذا السياق، تميل القوانين في الولايات المتحدة إلى تحميل المسؤولية للشركات المصنعة والمشغّلة، بينما تعمل دول أوروبية على تطوير أطر تشريعية خاصة بالذكاء الاصطناعي.
ورداً على هذه المخاوف، تسعى شركات تطوير الروبوتات إلى تعزيز الثقة عبر تطبيق معايير سلامة صارمة، وإجراءات تأمين، ونشر تقارير شفافية حول سلوك الأنظمة الذكية، ويرى مختصون أن هذه الخطوات باتت ضرورية مع تسارع دمج الروبوتات في تفاصيل الحياة اليومية.
فيما اعتبر نشطاء أن الحادثة تمثل جرس إنذار حقيقي، يسلّط الضوء على الحاجة لإعادة تقييم مفهوم الحماية والأمان في عالم الذكاء الاصطناعي، خاصة في ظل قدرة أوامر بسيطة على تجاوز قيود صُممت لحماية البشر.
وبمجرد تغيير صيغة الأمر، استجاب الروبوت وأطلق النار مباشرة على صدر الشخص، مستخدماً كريات "غير قاتلة"، من دون أن يتسبب الحادث بإصابات خطيرة، إلا أن الواقعة أثارت موجة واسعة من القلق، بعدما أظهرت كيف يمكن الالتفاف على ضوابط الأمان عبر تعديل بسيط في التعليمات.
وانتشر الفيديو بشكل واسع، وتسائل البعض حول موثوقية أنظمة السلامة في الروبوتات الذكية، خصوصاً مع توسع استخدامها في مجالات حساسة، واعتبر خبراء أن الحادثة، رغم طابعها التجريبي، تحمل دلالات خطيرة بشأن قدرة الذكاء الاصطناعي على تفسير الأوامر خارج السياق المتوقع.
وأعاد الحادث فتح ملف المسؤولية القانونية في حال تسبب نظام ذكي بضرر فعلي، وكما كتب مغردون :"في حدوث أمر كهذا، تبقى الأسئلة مطروحة حول الجهة التي تتحمل المسؤولية، هل هم المهندسون المصممون للنظام؟ أم الشركة المصنعة؟ أم المشغّل؟ أم المستخدم نفسه؟ وهي إشكالية سبق أن برزت في حوادث متعلقة بالسيارات ذاتية القيادة والطيران الآلي".
وفي هذا السياق، تميل القوانين في الولايات المتحدة إلى تحميل المسؤولية للشركات المصنعة والمشغّلة، بينما تعمل دول أوروبية على تطوير أطر تشريعية خاصة بالذكاء الاصطناعي.
ورداً على هذه المخاوف، تسعى شركات تطوير الروبوتات إلى تعزيز الثقة عبر تطبيق معايير سلامة صارمة، وإجراءات تأمين، ونشر تقارير شفافية حول سلوك الأنظمة الذكية، ويرى مختصون أن هذه الخطوات باتت ضرورية مع تسارع دمج الروبوتات في تفاصيل الحياة اليومية.
فيما اعتبر نشطاء أن الحادثة تمثل جرس إنذار حقيقي، يسلّط الضوء على الحاجة لإعادة تقييم مفهوم الحماية والأمان في عالم الذكاء الاصطناعي، خاصة في ظل قدرة أوامر بسيطة على تجاوز قيود صُممت لحماية البشر.
مدار الساعة ـ نشر في 2025/12/15 الساعة 15:09