По словам специалиста, принятия решения о нанесении ядерного удара может быть передано искусственному интеллекту.
По словам 32-летнего заместителя главы оборонного ведомства США Роберта Уорка, настоящая опасность применения систем искусственного интеллекта в военной сфере заключается в том, что он может быть использован для принятия решения о нанесении ядерного удара.
«Представьте, что в системе ядерного командования и контроля есть прогностическая система ИИ, которая запускается по определенным параметрам. Это гораздо, гораздо, гораздо более тревожная перспектива, чем все то, что вы можете придумать в терминах конкретного оружия», — цитирует Уорка Breaking Defense.
Издание подчеркивает, что подобное развитие событий напоминает возможный сценарий применения советско-российского комплекса автоматического управления массированным ответным ядерным ударом «Периметр».
На этом фоне замглавы Пентагона привел пример, в котором ИИ мог бы спровоцировать войну без прямого подключения к ядерным системам. Согласно сценарию, китайская сторона задумывается о нанесении удара США, опираясь на проведенном ИИ анализе оперативной обстановки, говорящем о подготовке США ядерной атаки на Китай.
Уорк уверен, что военным нужен ИИ, но нельзя преувеличивать его роль в грядущих конфликтах.
Напомним, что в минувшем августе американские военные специалисты Адам Лоутер и Кертис МакГиффин заявили, что Вашингтону требуется собственный аналог российского «Периметра», известного на Западе как «Мертвая рука».