كشفت مسوؤلة سابقة في وزارة الدفاع الأميركية (بنتاغون)، عن أن الذكاء الاصطناعي "يثير الخوف" داخل أروقة الجيش.
وفي السنوات الأخيرة، وبعد الطفرة التي شهدها الذكاء الاصطناعي، باشر خبراء وصانعو السياسات باستخدام أدوات الذكاء الاصطناعي لتجربة قدرتها على اتخاذ القرارات الاستراتيجية في النزاعات، إلى جانب إدماجها في أنظمة الأسلحة المستقلة، أو "الروبوتات القاتلة" التي يمكنها اتخاذ قرارات فورية بشأن الأهداف وأنواع الأسلحة التي يجب استخدامها.
ورغم ذلك، فإن هذه الأدوات تحمل في طياتها مخاطر كبيرة، إذ إن مسؤولين داخل البنتاغون قلقون من سوء استخدام الذكاء الاصطناعي سواء من الخصوم الخارجيين أو من داخل المؤسسة، للإضرار بالمصالح الأميركية، وذلك حسبما قالته ميكي أويانغ نائبة مساعد وزير الدفاع للأمن السيبراني خلال إدارة الرئيس السابق جو بايدن، في مقابلة مع مجلة "بوليتيكو".
أضافت أويانغ: "كنا نقلق غالبا بشأن استخدام الخصوم للتكنولوجيا، لكن يجب أن ندرك أيضا أن هناك خصوما داخل البنتاغون، ويجب أن نكون حذرين بشأن وصول هؤلاء الفاعلين إلى هذه الأدوات".
وعند سؤالها عن مخاطر سوء استخدام الذكاء الاصطناعي داخل البنتاغون، قالت أويانغ إنها تشمل "اختراق قواعد البيانات الحساسة، أو إصابة صناع القرار بذهان الذكاء الاصطناعي من فرط الاعتماد على هذه الأدوات، مما قد يؤثر على قراراتهم بشأن الخطوات العسكرية التي يجب اتخاذها".
وأشارت أويانغ إلى مخاوف الناس بشأن "جحافل الروبوتات القاتلة وطريقة استخدامها، وضمان عملها بشكل سليم من دون إفراط في القتل".
وذكرت أن أدوات الذكاء الاصطناعي المنتشرة، مثل "شات جي بي تي" ليست مناسبة للاستخدام العسكري، لكونها تحتاج إلى دراسة معمقة قبل اتخاذ القرارات.
وأكدت الموظفة السابقة في البنتاغون، أن على الجيش الأميركي تطوير أدوات خاصة تتوافق مع أنشطته، التي تختلف عن أساليب العمل المدني.
وأشارت أويانغ إلى أن البنتاغون بدأ استخدام الذكاء الاصطناعي في مجال البحث والتطوير، داعية إلى تمويل بحوث خاصة لفهم كيفية استخدام هذه الأدوات الجديدة لأداء المهام العسكرية.