Роботы-дезертиры: почему искусственный интеллект может изменить стратегию современных войн

0
42

Роботы-дезертиры: почему искусственный интеллект может изменить стратегию современных войн

Эксперты все чаще замечают, что «призванный под ружье» искусственный интеллект допускает ошибки.

Эксперты в области военных технологий и современного оружия предупреждают, что системы с использованием искусственного интеллекта (ИИ) все чаще дают сбои на поле боя. Роботизированное вооружение отказывается выполнять приказы своих операторов и словно пытается выжить в условиях боевых действий. По мнению специалистов, поведение искусственного интеллекта уже сейчас требует детального изучения.

Попытки не выполнять команды операторов отмечались в ходе военных действий между российской армией и её украинскими противниками. В первую очередь это касается беспилотных дронов, в которых применяются технологии ИИ. Например, беспилотники обучались на ошибках ранее сбитых «товарищей» и начинали проявлять что-то похожее на инстинкт самосохранения. Так, 10 марта украинский дрон-камикадзе Tu-141 внезапно улетел в Хорватию, как будто отказываясь выполнять опасную миссию.

Обсудить проблему сбоя систем с искусственным интеллектом должна в июле рабочая группа по кибербезопасности (OEWG) при ООН. Эксперты хотят выяснить, почему происходит все большая автономизация боевых роботов от своих живых командиров, пишет NEWS.RU.

Роботы-дезертиры: почему искусственный интеллект может изменить стратегию современных войн

«Мы тщательно анализируем происходящее на полях сражений с целью модернизировать искусственный интеллект и машинное обучение, чтобы ИИ мог точнее предсказывать будущие действия противника. Возможности ИИ вести разведку, наблюдения и боевые действия увеличиваются с каждым годом», — заявил глава американского проекта по управлению ИИ Грегори Аллен.

Издание отмечает, что сейчас военных специалистов беспокоит сам факт любой самодеятельности систем с ИИ. По словам экспертов стокгольмского Международного института исследований в области обеспечения мира, в какой-то момент ИИ может отказаться выполнять команды людей в форме и начнет вести боевые операции на своё усмотрение.

Пока все это кажется фантастикой, поскольку роботизированные системы все еще весьма ограничены в распознавании объектов и возможности принятия самостоятельных решений. Однако постепенно с их развитием ситуация может измениться.

Эксперты говорят, что сейчас системы с ИИ очень хрупкие. Из-за этого как раз происходят сбои в их работе: они допускают ошибки от смешных, как в случае с переводом на иностранные языки, до катастрофических.

«Последствия передачи контроля за принятием решений от человека к ИИ в ходе войны могут быть непредсказуемыми и потенциально катастрофическими. Соблазн делегировать машинам полномочия военного командования велик, потому что это даёт неоспоримые преимущества над противником. Однако ошибки ИИ могут привести к тому, что ход войны выйдет из-под контроля обеих сторон», — подчеркивает директор Центра новой американской безопасности Пол Шарр.

Шарр пишет, что эволюция искусственного разума в перспективе ставит перед людьми вопрос, чей приказ будет приоритетным: живого командира или ИИ, умеющего просчитывать варианты на сто ходов вперёд.

«Самообучающиеся роботы — это уже не завтрашний, а сегодняшний день, поэтому свои выводы инженеры делают на основе изучения ошибок реально работающих образцов «мыслящих машин», — объяснил изданию эксперт по робототехнике Владимир Венеров.

По словам российского эксперта, сейчас производители закладывают в свою технику элементы ИИ. Это касается от кассовых автоматов до беспилотных автомобилей. Но как применять искусственный интеллект в системах вооружений — это вопрос военного планирования и безопасности тех, кто такие системы будет применять

На встрече по кибербезопасности эксперты планируют вынести на Генассамблею ООН проект договора о запрете автономных систем вооружений.

«Эту идею, кстати, активно продвигает Китай, предлагая мировому сообществу отказаться от разработки и создания таких «умных» систем, решения которых будет невозможно отменить извне и которые не предусматривают систему самоуничтожения, запускаемую живым оператором», — отмечает NEWS.RU.

В 2021 году стало известно, что «Вертолеты России» хотят потратить 24 млн рублей на исследование искусственного интеллекта в автономном полете. Возможности применения ИИ изучат на базе вертолета Ка-226. Он должен будет распознавать объекты и препятствия во время полета и предотвращать столкновения с ними, подавая на систему управления те же управляющие воздействия, что и человек.