Скрытая угроза: искусственный интеллект может начать ядерную войну к 2040 году

Некоммерческая организация RAND Corporation (Соединенные Штаты) опубликовала результаты исследования, где говорится, что искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.

ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания.
RAND Corporation

Аналитики убеждены, что хотя в течение десятилетий хрупкий мир придерживался идеи, что любое ядерное нападение может привести к взаимному гарантированному уничтожению, потенциал искусственного интеллекта и машинного обучения для принятия решений о военных действиях может означать, что в связи с отсутствием критического мышления у ИИ может быть получена неверная оценка ситуации. «Ряд специалистов опасается, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — заявил Эндрю Лон, один из авторов статьи из RAND.

Авторы проведенного исследования полагают, что в будущем развитие технологий может привести к нарушению баланса сдерживающих сил, в частности, подводных и мобильных ракет. ИИ, который используется в качестве советника, может убедить человека принять решение о нанесении упреждающего удара в отношении другой нации: даже если противник не собирается нападать, однако ИИ увидит возможность получения преимущества в результате атаки.

Искусственный интеллект может оказаться «восприимчивым к состязательности». Получается, подчеркнул Лон, сохранение стабильности в течение ближайших десятилетий может оказаться чрезвычайно трудным, и большинство ядерных держав должны участвовать в создании институтов, которые смогут помочь ограничить ядерные риск.

Кроме того, в документе RAND отмечается опасность использования искусственного интеллекта для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых довольно часто говорит Илон Маск. Выступая в ходе ежегодного фестиваля технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил сформировать общественный регулирующий орган, который будет следить за безопасностью разработок в сфере искусственного интеллекта и предусматривать все возможные риски.

Запомните мои слова: ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?.
Илон Маск
NEWS1.ru