Прослушать новость
Остановить прослушивание
close
Кадр из фильма «Терминатор 2: Судный день»
Кадр из фильма «Терминатор 2: Судный день»
TriStar Pictures
Пентагон продолжает политику внедрения технологий искусственного интеллекта в военную сферу и теперь намерен сосредоточиться на использовании ИИ в совместных боевых действиях. В Объединенном центре ИИ отметили, что это призвано обеспечить решающее преимущество для военных США. По мнению экспертов, Соединенные Штаты в настоящий момент занимают лидирующие позиции по части использования ИИ. Однако есть у применения таких технологий и ряд недостатков.
Центр искусственного интеллекта Пентагона сосредоточится на ведении совместных боевых действий и создаст инструменты искусственного интеллекта, которые будут интегрированы в Объединенное всеобщее оперативное командование (Joint All-Domain Command and Control, JADC2). Речь идет о проекте министерства обороны, который призван связать в цифровую сеть вооружения, транспорт и персонал.
«Мы выросли и теперь уделяем особое внимание нашей совместной военной операции и миссии, которая сосредоточена на приоритетах стратегии национальной обороны. Ее цель — сохранение военных и технологических преимуществ США над нашими стратегическими конкурентами», — заявил исполняющий обязанности директора Объединенного центра искусственного интеллекта (Joint Artificial Intelligence Center, JAIC) Нанд Мулчандани, слова которого приводит портал c4isrnet.com.
По его словам, возможности искусственного интеллекта (ИИ), которые JAIC развивает в рамках миссии совместных боевых операций, будут использовать проверенную технологию искусственного интеллекта, чтобы обеспечить решающее преимущество для американских военных.
При этом более года назад JAIC делала упор на использование ИИ для составления прогнозов. Такой прогресс в деятельности центра может быть связан с тем, что Пентагон сосредоточил свое внимание на разработке JADC2. Как отметил Мулчандани, JAIC тратит много времени и ресурсов на создание компонента ИИ поверх JADC2.
По словам и.о. директора центра, в 2020 году финансовые расходы на инициативу совместных боевых действий превышают расходы JAIC на все другие инициативы вместе взятые.
Он отметил, что JAIC планирует начать тестирование своего нового флагманского совместного боевого проекта, но у него пока нет названия. Мулчандани подчеркнул, что организация намерена инвестировать в такие виды очистки информационных перегрузок.
Под искусственным интеллектом принято понимать способность машины генерировать суждения, выполнять творческие задачи и использовать объективные знания и опыт для решения задач, связанных с адаптацией к окружающей среде. Говоря об ИИ, чаще всего подразумевается некая система, обладающая разумом, подобным человеческому. На данный момент она находится на стадии изучения и разработки, но некоторые страны уже стремятся внедрить такую технологию в свою оборонную сферу.
В частности, Пентагон уделяет много внимания использованию систем искусственного интеллекта в военной области и относится к этому крайне серьезно. В феврале директор по информационным технологиям министерства обороны США Дана Дизи и директор JAIC Джон Шанахан объявили об официальном принятии пяти принципов этического использования ИИ. По словам Дизи, это «закладывает основы этического проектирования, разработки, развертывания и использования» ИИ Пентагоном.
Один из принципов — ответственность. Пентагон должен проявлять здравомыслие и нести ответственность за разработку, развертывание и использование возможностей ИИ.
Принцип беспристрастности заключается в том, чтобы предпринимать шаги, направленные на сведение к минимуму непреднамеренного смещения возможностей ИИ.
Доступность для анализа предполагает, что возможности Пентагона по ИИ будут разрабатываться и развертываться таким образом, чтобы сотрудники имели надлежащее представление о технологиях, процессах разработки и методах работы с ним.
Искусственный интеллект должен стать надежным, и для этого ему нужно придать «хорошо очерченные функции», а также постоянно испытывать в ходе разработки и эксплуатации.
Принцип управляемости позволяет военному ведомству США проектировать и разрабатывать возможности ИИ для выполнения намеченных функций, а также отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.
Эти принципы применимы как к боевому, так и к небоевому использованию технологий ИИ, уточнила Дизи.
В свою очередь, Шанахан обратил внимание, что принятие этих принципов отделяет США и их союзников от противников, которые намерены использовать достижения в сфере ИИ.
«Это резко контрастирует с Россией и Китаем, где использование технологии искусственного интеллекта в военных целях вызывает серьезную обеспокоенность по поводу прав человека, этики и международных норм», отметил директор JAIC.
Мнения, что Соединенные Штаты в вопросе искусственного интеллекта опережают другие государства, придерживается и директор института стратегических оценок Сергей Ознобищев.
«Какой бы ни была американская стратегия в отношении искусственного интеллекта, она будет перспективна. Это даст США еще одну возможность быть впереди остального мира в области инноваций, что мы наблюдаем в настоящее время», — сказал Ознобищев «Газете.Ru».
Незадолго до принятия этических принципов использования ИИ, американское агентство перспективных оборонных разработок (DARPA) впервые испытало возможности нейросети в воздушном бою. Запись испытаний разместили на канале агентства на YouTube.
В виртуальных соревнованиях участвовали сотрудники Исследовательского института технологий штата Джорджия и представители компаний Aurora Flight Sciences, EpiSCI, Heron Systems, Lockheed Martin, Perspecta Labs, physicsAI и SoarTech. Они создали собственные нейросетевые алгоритмы, которые на виртуальных моделях истребителя F-15C Eagle боролись с системой искусственного интеллекта RED, разработанной в DARPA. Кроме того, они вели бой друг с другом на относительно невысоком уровне сложности. Испытания признали успешными.
Участники этого соревнования борются за тендер на разработку системы ИИ для боевых беспилотников, которые будут прикрывать пилотируемые человеком истребители.
Задача, которая стоит перед разработчиками, заключается в том, чтобы создать обучаемую нейросеть, которая покажет свою эффективность на всех этапах становления профессионального летчика.
Вместе с тем главным вопросом по части искусственного интеллекта остается его безопасность. Многие эксперты неоднократно высказывали опасения, что использование ИИ в военной сфере может привести к нежелательным последствиям. Такую точку зрения разделает, в том числе, бывший заместитель министра обороны США Роберт Уорк, слова которого приводит издание Breaking Defense. По его мнению, ИИ может быть крайне опасен при использовании его в принятии решения о нанесении ядерного удара. Он обратил внимание, что в некоторых ситуациях ИИ может расценить неопасные факторы как представляющие угрозу, и это «тревожная перспектива».
Экс-замминистра привел в пример российскую систему «Периметр», которая, по его словам, может принять за ядерные взрывы сейсмическую активность. Соответствующий запрос техника направляет в штаб войск, и, если ответа не поступит, она может отдать команду на запуск межконтинентальных баллистических ракет.
Уорк убежден, что использование ИИ опасно не только в отношении ядерных зарядов.
Он назвал потенциально опасным его использование при анализе разведывательных данных и в системах раннего предупреждения. «Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар», — сказал бывший замминистра.
Опасность применения ИИ в военной сфере признал и Сергей Ознобищев. Он обратил внимание, что речь идет о «неизведанной области». По его мнению, говоря об использовании искусственного интеллекта, нужно готовиться к самым нестандартным сценариям.
Источник