Министерство обороны США официально приняло этические принципы применения искусственного интеллекта в вооружениях. Об этом в понедельник, 24 февраля, сообщила пресс-служба американского военного ведомства.
Документ разрабатывался экспертным центром Пентагона, который кроме военных и чиновников привлекал к работе технических экспертов, передает «РИА Новости».
Отныне минобороны США будет руководствоваться пятью основными принципами. Отмечается, что искусственный интеллект должен быть «ответственным, соразмерным, понятным, надежным и управляемым».
Принцип ответственности предполагает «должные уровни здравого смысла и осторожности» при разработке боевых машин. Под соразмерностью в Пентагоне понимают «необходимые шаги для минимизации неумышленной предвзятости» боевых машин. Под понятным искусственным интеллектом подразумевается, что военные будут обеспечивать прозрачность процедур и документации при применении технологии.
Надежным искусственный интеллект должен стать, если ему придать «хорошо очерченные функции», а также постоянно испытывать в ходе разработки и эксплуатации. Управляемостью военные США назвали принцип, когда у человека в любом случае сохранится возможность отключить боевые машины, которые «продемонстрируют незапланированное поведение».
Ранее, 19 февраля, глава Еврокомиссии Урсула фон дер Ляйен заявила, что Евросоюз будет вкладывать по €20 млрд каждый год в развитие искусственного интеллекта по меньшей мере до 2030 года. Она подчеркнула, что цель данной стратегии — «достижение ЕС мирового лидерства» в создании искусственного интеллекта.