QuadroNews!

Блог о дронах и технологиях!

Future of Life Institute призывает к запрету использования искусственного интеллекта в беспилотниках

Future of Life Institute призывает к запрету использования искусственного интеллекта в беспилотниках

Вы когда-нибудь задумывались о том, что будет, если не контролировать беспилотник или робота с искусственным интеллектом?! Думаю, что нет! Поэтому предлагаю посмотреть видео от института Future of Life Institute и взглянуть на это под другим углом.

Дроны-убийцы с искусственным интеллектом

Видео называется «Slaughterbots — if human: kill()», в нём показано, что будет происходить, если в беспилотнике или роботе управляемом ИИ прописана строчка кода с выполняемой инструкцией “Обнаружить-идентифицировать-убить”. В видео, которое сделано в виде новостного выпуска, показаны сценарии, которые уже нам знакомы: ограбление банков, нападение на полицейские участки или охота на военных. И как вы поняли, за всем этим стоят роботы и беспилотники управляемые искусственным интеллектом. Особенно впечатлили роботы собаки от Boston Dynamics с установленными автоматами. Хотя, это могут быть и боевые роботы псы от другой американской компании Ghost Robotics. Вот это видео:

https://www.youtube.com/watch?v=9rDo1QxI260&t=211s
Мрачное будущее с ИИ

Мрачно, не правда ли?! Многие общественные организации утверждают, что оружие, которое убивает по алгоритму, а не по человеческому мнению, аморально и представляет угрозу для глобальной безопасности.

Смертоносные автономные системы вооружения – также называемые “роботами – убийцами” или “роботами-убийцами” — это комплекс , который используют искусственный интеллект (ИИ) для идентификации, выбора и уничтожения целей без вмешательства человека. В то время как в случае беспилотником решение о ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто живет, а кто умирает, принимается исключительно алгоритмами.

Поэтому, институт Future of Life Institute и Международный Красный Крест хотят ввести международный запрет на оружие, которое использует искусственный интеллект для идентификации и убийства без вмешательства человека.

Но, пока они пытаются ввести такие запреты, некоторые страны активно используют свои наработки в области ИИ и активно тестируют на полях сражений. Хоть это особо и не афишируются, но такие случаи были зафиксированы. Вот два из них:

  • Расследование, проведенное Группой экспертов ООН по Ливии в 2021 году. Где было указано, что турецкий дрон STM Kargu-2 — «выслеживал и дистанционно уничтожал» отступающих солдат Хафтара.
Турецкий дрон-камикадзе Kargu-2
Израильский дрон

Во всех случаях беспилотники работали в автономном режиме с указанием сектора полёта. Итак! Какие риски выделяют общественные организации:

  • Непредсказуемость. Никто не может с уверенность сказать, как поведут себя алгоритмы машинного обучения в реальных условиях, при динамичном изменении обстановки на поле боя.
  • Эскалация. Широкое распространение ИИ и автономных систем может привести к непреднамеренной эскалации и кризисной нестабильности.
  • Распространение. Массовое и не дорогое производство данных систем. Как пример, использование потребительских дронов в локальных конфликтах террористами и мексиканские картели
  • Избирательность. Благодаря наличию оптических сенсоров, автономные системы могут проводить визуальную идентификацию объектов и на основе этого принять решение на уничтожение объектов. Тот же турецкий дрон Kargu-2 при обнаружении цели переходит в режим камикадзе и атакует.

Подводя итог, можно сказать следующее. Не надо полностью запрещать автономные боевые системы, они будут и дальше развиваться,от этого не уйти. Надо лишь оставить последнее решение за человеком. Технологии дают потенциал для процветания, как никогда раньше…или к её уничтожению


Интересные статьи:

Не забываем подписываться на канал в 👉 Telegram ! Там много интересного…

Наверх