التقاطع الخطير بين الذكاء الاصطناعي والأسلحة النووية
30 مايو 2024
عمان-منصة طلال أبو غزالة للاعلام المعرفي
في
المشهد العالمي الحالي حيث يسود العالم التوتر، أصبح دمج الذكاء الاصطناعي في
أنظمة الأسلحة النووية موضوع نقاش وقلق شديدين. لا يمكن انكارقدرة للذكاء الاصطناعي على تعزيز
كفاءة وسرعة الاستجابة للترسانات النووية، ومع ذلك فإن هذا يأتي مع مخاطر مقلقة
تتمثل في زيادة احتمالية نشوب حرب نووية غير مقصودة. ومع ظهور الذكاء الاصطناعي،
من الضروري معالجة هذا المجال الذي إذا لم يتم التحكم فيه بشكل كافٍ، يمكن أن يهدد
وجود العالم كما نعرفه.
إن
دمج الذكاء الاصطناعي في أنظمة القيادة والسيطرة والاتصال النووية يمكن أن يخفض
عتبة الإطلاق النووي. وقد تتفوق قدرة الذكاء الاصطناعي على
معالجة البيانات واتخاذ القرارات بسرعة على الإشراف البشري، مما يؤدي إلى إطلاق مبكر
أو غير مقصود للصواريخ. علاوة على ذلك، يمكن أن يؤدي غموض خوارزميات الذكاء
الاصطناعي إلى حجب المنطق وراء مثل هذه القرارات، مما يجعل من الصعب التنبؤ
بالسيناريوهات التصعيدية أو منعها.
إدراكًا
لهذه المخاطر، اتخذ القادة العالمون خطوات لتنظيم التطبيقات العسكرية للذكاء
الاصطناعي. تمثل عملية هيروشيما لمجموعة الدول السبع والأمر
التنفيذي للرئيس بايدن بشأن سلامة الذكاء الاصطناعي جهودًا مهمة لوضع معايير
وإرشادات لتطوير ونشر الذكاء الاصطناعي. وتهدف هذه الإجراءات إلى تعزيز بيئة يتم
فيها تصميم وتطوير ونشر واستخدام أنظمة الذكاء الاصطناعي لتحقيق أقصى قدر من
الفوائد مع تخفيف المخاطر.
بصفتي عضو في مجلس حكام مركز كيك للدراسات
الاستراتيجية الدولية، فإن تحليلاتي تشير إلى أن هذه المبادرات تفتقر إلى معالجة
الطيف الكامل للمخاطر التي يمثلها الذكاء الاصطناعي في أنظمة الأسلحة النووية. وعلى
الرغم من أن عملية هيروشيما تمثل جهدًا رائدًا، إلا أنها تركز في المقام الأول على
حوكمة الذكاء الاصطناعي دون مواجهة مباشرة للتحديات الفريدة للاستقرار النووي بشكل
مباشر. بالمثل، يؤكد الأمر التنفيذي للولايات المتحدة على تطوير الذكاء الاصطناعي
بشكل آمن لكنه لا يتناول بشكل صريح تفاصيل القيادة والتحكم النووي.
وللتصدي لتهديدات الذكاء الاصطناعي للأسلحة
النووية بشكل ملائم، يتطلب الأمر نهجًا متعدد الجوانب.
يجب وجود خطوط حمراء واضحة واجماع دولي على حظر
أنظمة الأسلحة النووية المستقلة بالكامل. كما يجب أن يمنع هذا الحظر الذكاء
الاصطناعي من اتخاذ القرار النهائي بشأن إطلاق الأسلحة النووية، مضمنًا بقاء
السيطرة البشرية مركزية في قرارات استخدام السلاح النووي.
يجب أن تخضع أنظمة الذكاء الاصطناعي المدمجة في الأسلحة النووية لاختبارات
وتقييم صارمين، مع جعل النتائج شفافة للمجتمع الدولي. وهذا من شانه أن يعزز الثقة
ويسهل التفاهم المتبادل بين الدول المسلحة نووياً، مما يحقق الشفافية والمساءلة.
يجب
إجراء المزيد من الأبحاث حول تداعيات الذكاء الاصطناعي على الاستراتيجية
والاستقرار النوويين، لفهم التأثير المحتمل على الردع والتصعيد والمراقبة النووية
لصياغة قرارات سياسية أفضل وإرشاد صانعي السياسات. كما
يجب أن يكون هناك حوار مستمر بين الدول المسلحة نووياً،
بما في ذلك تلك التي تقع خارج مجموعة السبع، وهو أمر ضروري لتطوير قواعد مشتركة
ومنع المفاهيم الخاطئة التي يمكن أن تؤدي إلى النزاع.
تتلاقى
تقنيات الذكاء الاصطناعي مع الأسلحة النووية عند منعطف معقد وخطير قد يفضي إلى
عواقب وخيمة، ما يتطلب منا المضي قدما بحذر شديد. وفي
حين أن المبادرات العالمية الحالية تضع أساساً للحوكمة المسؤولة للذكاء الاصطناعي،
فإنه يتعين توسيع نطاقها وتعميقها لتتناول البعد النووي بشكل خاص.
طلال أبوغزاله