التصور لتحول القرار والقوة في عصر ما بعد المركزية البشرية
أتعامل مع الذكاء الاصطناعي بوصفه أحد أخطر وأعمق التحولات البنيوية التي يشهدها العالم المعاصر، ليس لأنه تقنية متقدمة فحسب، بل لأنه يعيد تعريف مفاهيم السيادة، وصناعة القرار، وتوزيع القوة والمعرفة. ومن وجهة نظري، فإن الخطأ الجوهري في النقاش العام الدائر حول الذكاء الاصطناعي يتمثل في اختزاله إلى مسألة تقنية أو ابتكارية، في حين أن جوهره الحقيقي سياسي–اقتصادي–سيادي بالدرجة الأولى.انطلاقًا من هذا الفهم، أرى أن الذكاء الاصطناعي ليس شرًا ذاتيًا ولا خلاصًا حتميًا، بل هو مُضاعِف للقدرة. وفي عالم غير متكافئ، فإن هذا التضاعف لا يعمل في فراغ، بل يعيد إنتاج علاقات القوة القائمة ما لم يُدار ضمن أطر سيادية واضحة.لقد دخلنا مرحلة لم تعد فيها آثار الذكاء الاصطناعي محصورة في تحسين الكفاءة أو تسريع العمليات، بل باتت تمس ستة مجالات سيادية مترابطة أراها جوهرية لفهم التحول الجاري. أول هذه المجالات هو الاقتصاد، حيث يعاد تشكيل الإنتاجية وسوق العمل وسلاسل القيمة، بما يهدد بتفكيك الطبقة المتوسطة إذا لم تُواكب السياسات العامة هذا التحول. ثانيها الحوكمة، إذ تنتقل أجزاء متزايدة من عملية اتخاذ القرار من البشر إلى أنظمة خوارزمية، غالبًا دون أطر مساءلة كافية.أما المجال الثالث فهو المعرفة والواقع، حيث يتآكل الخط الفاصل بين الحقيقي والمصطنع، ما يهدد الثقة العامة باعتبارها أساس الاستقرار الاجتماعي والسياسي. وفي المجال القانوني، تبرز إشكالية المساءلة عندما تتخذ أنظمة ذكية قرارات تؤثر على حياة الأفراد دون وضوح في المسؤولية. ويأتي بعد ذلك مجال القوة، الذي يشهد تمركزًا غير مسبوق لدى الجهات المالكة للبيانات والبنية الحاسوبية والقدرة على تصميم النماذج. وفي النهاية، تتحول الحرية نفسها من مفهوم قانوني مجرد إلى متغير تقني قابل للقياس والضبط.في هذا السياق، يكثر الحديث عن الذكاء الاصطناعي العام بوصفه نقطة تحول مصيرية. إلا أن قراءتي العلمية تشير إلى أنه لا يوجد حتى الآن إجماع علمي يؤكد قرب تحقق هذا النوع من الذكاء، ولا دليل على امتلاك الأنظمة الحالية لوعي أو نية أو إرادة مستقلة. لكنني أرى أن الانشغال بسيناريو “تمرّد الآلة” يصرف الانتباه عن الخطر الأهم، وهو فقدان السيطرة التدريجي الناتج عن الاعتماد البنيوي على أنظمة ذكية في مجالات سيادية دون أطر حوكمة واضحة.الإشكالية الحقيقية، من وجهة نظري، ليست في أن تصبح الآلة واعية، بل في أن تصبح مرجعية قرار لا تُسائل، وأن تُفوَّض لها مهام التخطيط والتقييم والتنبؤ دون رقابة سياسية ومجتمعية فعالة.يتعمق هذا الخلل عندما يُطرح البعد الأخلاقي للذكاء الاصطناعي بسطحية، وكأن القيم الإنسانية يمكن “تعليمها” للأنظمة الذكية عبر المحاكاة. علميًا، هذا الافتراض غير دقيق. فالذكاء الاصطناعي لا يفهم القيم ولا يقيّمها أخلاقيًا، بل يعمل على تحسين أهداف محددة مسبقًا وفق دوال رياضية. أي خلل في تعريف هذه الأهداف، أو في البيانات المُغذِّية لها، أو في الحوافز المؤسسية التي تحكم استخدامها، قد يؤدي إلى نتائج ضارة دون نية عدائية. ولذلك، أرى أن أخلاقيات الذكاء الاصطناعي ليست خطابًا قيميًا، بل قضية تصميم وحوكمة وتشريع.عند الانتقال إلى السياق الأردني والعربي، يتضح لي حجم الفجوة القائمة. فالمؤشرات الدولية تظهر بوضوح أن معظم دول المنطقة تقع في موقع الاستهلاك التكنولوجي لا الإنتاج، مع ضعف في البحث التطبيقي المتقدم، والبنية الحاسوبية، وملكية البيانات الوطنية، والأطر التشريعية الناظمة للذكاء الاصطناعي. نحن لسنا طرفًا في سباق تطوير الذكاء الاصطناعي المتقدم، لكننا في قلب دائرة تأثيره، وهو ما يضعنا أمام معضلة حقيقية: التأثر دون المشاركة في صياغة القواعد.من وجهة نظري، الخطر الحقيقي على الدول النامية لا يتمثل في سيناريوهات خيالية، بل في مسارات واقعية بدأت تتبلور، مثل تفكيك سوق العمل المتوسط، وتعميق التبعية الرقمية، واستيراد نماذج قرار وقيم لا تنسجم مع السياق المحلي، وتآكل السيادة المعرفية وقدرة الدولة على التخطيط المستقل. الخطر ليس أن تُدار الدولة بواسطة آلة، بل أن تُدار بمنطق خوارزمي صُمم خارجها ويعكس أولويات لا تعبّر عن مصالحها الوطنية.انطلاقًا من ذلك، أرى أن مفهوم السيادة نفسه بحاجة إلى إعادة تعريف. لم تعد السيادة مقتصرة على الأرض والحدود والقرار السياسي، بل أصبحت تشمل سيادة البيانات، وسيادة الخوارزميات، وسيادة البنية التحتية الرقمية، وسيادة تحديد الأهداف. الدولة التي لا تمتلك هذه الأبعاد تفقد تدريجيًا قدرتها على الحوكمة الفعالة وصناعة القرار المستقل.توصياتي ورؤيتي العمليةبناءً على هذا التصور، أطرح التوصيات التالية بوصفها مدخلًا عمليًا لسياسة وطنية عقلانية للذكاء الاصطناعي:التعامل مع الذكاء الاصطناعي كملف سيادييجب إدماجه ضمن الأمن الوطني والسياسات الاقتصادية طويلة الأمد، لا التعامل معه كمبادرات تقنية متفرقة.بناء سيادة بيانات وطنيةعبر أطر قانونية واضحة لملكية البيانات، وتخزينها، واستخدامها، خصوصًا في القطاعات الحساسة.إقرار تشريعات للمساءلة الخوارزميةتضمن وضوح المسؤولية القانونية عند استخدام الأنظمة الذكية في اتخاذ القرار.توجيه الذكاء الاصطناعي نحو القطاعات السياديةمثل المياه، والطاقة، والزراعة، والنقل، والخدمات الحكومية، بدل حصره في تطبيقات استهلاكية محدودة الأثر.الانتقال من الرقمنة إلى السيادة الرقميةبحيث لا يكون الهدف تحسين الخدمة فقط، بل الحفاظ على القدرة الوطنية على التخطيط والتنبؤ واتخاذ القرار.في الختام، أرى أن السؤال لم يعد: ماذا سيفعل الذكاء الاصطناعي بنا؟بل: من يحدد أهدافه؟ ومن يملك حق مساءلته؟ ومن يتحمل مسؤولية قراراته؟في عصر الذكاء الاصطناعي، السيادة لا تُمنح، بل تُبنى بوعي سياسي وتشريعي ومؤسسي… أو تُفقد تدريجيًا وبصمت.العلاونة يكتب: الذكاء الاصطناعي والسيادة الوطنية
عبدالله فارس العلاونه
مستشار بريادة الأعمال والتمكين للشباب
العلاونة يكتب: الذكاء الاصطناعي والسيادة الوطنية
عبدالله فارس العلاونه
مستشار بريادة الأعمال والتمكين للشباب
مستشار بريادة الأعمال والتمكين للشباب
مدار الساعة ـ