أمريكا تحسم أمرها بخصوص الذكاء الاصطناعي والسلاح النووي

ميدار.نت - واشنطن
ذكاء اصطناعي
الولايات المتحدة
11 نوفمبر 2023
Cover

ميدار.نت - واشنطن

حسمت الولايات المتحدة، الجدل المتعلق باستخدام الذكاء الاصطناعي في اتخاذ القرارات النووية، وأكدت أنها لن تستخدمه أبداً في هذا المجال.

وقال المتحدث باسم وزارة الخارجية الأميركية نيد برايس: "الولايات المتحدة تعتقد أن الذكاء الاصطناعي لديه القدرة على تعزيز الأمن العالمي، ولكن يجب استخدامه بطريقة مسؤولة وأخلاقية".

وتابع برايس أن الولايات المتحدة "ملتزمة بمنع انتشار الأسلحة النووية، ولن نستخدم الذكاء الاصطناعي في اتخاذ قرارات نووية".

 

مخاوف من الصين

وجاء تصريح الولايات المتحدة، بعد مخاوف من استخدام الصين للذكاء الاصطناعي في تطوير أسلحة نووية أكثر تقدمًا، وقبل قمة الرئيس الأميركي جو بايدن مع الرئيس الصيني شي جين بينغ في الأسبوع المقبل.

وكانت صحيفة نيويورك تايمز، ذكرت أن بكين تطور برنامج أسلحة نووية ذكاء اصطناعي، يمكنه اتخاذ قرارات بشأن إطلاق الصواريخ دون تدخل بشري، فيما لم ترد الصين على هذه التقارير.

 

مخاوف عالمية

وفي وقت سابق، الأمين العام للأمم المتحدة أنطونيو غوتيريش إن العلماء والخبراء دعوا إلى التحرك، وأعلنوا أن الذكاء الاصطناعي تهديد وجودي للبشرية لا يقل عن الحرب النووية، مؤكدا “يجب أن نأخذ تلك التحذيرات بجدية بالغة”.

ويرى الخبراء أن التقدم السريع في مجال الذكاء الاصطناعي يحمل معه أيضاً في الوقت ذاته العديد من المخاطر، فالجهات الفاعلة يمكن أن تستخدمه لشن هجمات أكثر تعقيداً وموجَّهة بمزيد من الدقة، أو أن تستغله للإخلال بسلامة الشبكات والأنظمة والمعلومات الحساسة في المرافق النووية والإشعاعية.

تعمل الوكالة الدولية للطاقة الذرية على تطوير تقنيات الذكاء الاصطناعي والتوعية بها وتطبيقها، وتدعم كذلك التدابير المضادة والدفاعات التي تتيح مواجهة الجهات الفاعلة الخبيثة.

وتعتمد الفوائد التي يقدِّمها الذكاء الاصطناعي في المرافق النووية والإشعاعية اعتماداً كبيراً على الطريقة التي يُنمَّى بها النظام.

وذكر سكوت بورفيس رئيس قسم إدارة المعلومات التابع لشعبة الأمن النووي في وكالة الطاقة الذرية، في تصريح سابق، أن "من الصعب في أحيان كثيرة فهم الطريقة التي تتوصل بها نماذج الذكاء الاصطناعي إلى نتائجها. وبالتالي يصبح من الصعب وضع الثقة بمخرجاتها وضمان سلامة هذه المخرجات”.

وشرح بورفيس أن “الوضع يزداد صعوبةً إلى حد بعيد عندما تُستخدم هذه النماذج محل أجهزة الاستشعار التي توفِّر قياسات مباشرة والخبرات البشرية المكتسبة على أساس الخصائص الفريدة لكل مرفق".

وختم: "ولا يصح عندئذ وضع الثقة بسلامة الأنظمة إلا إذا كان هناك فهم مسبق وشامل ومتقدم لخوارزميات الذكاء الاصطناعي يتيح معرفة الطريقة التي تُتخذ بها القرارات وسبب اتخاذها".