Future of Life Institute показала мрачное будущее с дронами

Future of Life призывает к запрету использования искусственного интеллекта в дронах

Вы когда-нибудь задумывались о том, что будет, если не контролировать беспилотник или робота с искусственным интеллектом?! Думаю, что нет! Поэтому предлагаю посмотреть видео от института Future of Life и взглянуть на это под другим углом.

Взгляд Future of Life на дроны убийцы

Видео называется “Slaughterbots – if human: kill()”, в нём показано, что будет происходить, если в беспилотнике или роботе управляемом ИИ прописана строчка кода с выполняемой инструкцией “Обнаружить-идентифицировать-убить”. В видео от Future of Life, которое сделано в виде новостного выпуска, показаны сценарии, которые уже нам знакомы: ограбление банков, нападение на полицейские участки или охота на военных. И как вы поняли, за всем этим стоят роботы и беспилотники управляемые искусственным интеллектом. Особенно впечатлили роботы собаки от Boston Dynamics с установленными автоматами. Хотя, это могут быть и боевые роботы псы от другой американской компании Ghost Robotics. Вот это видео:

Мрачно, не правда ли?! Многие общественные организации утверждают, что оружие, которое убивает по алгоритму, а не по человеческому мнению, аморально и представляет угрозу для глобальной безопасности.

Смертоносные автономные системы вооружения – также называемые “роботами – убийцами” или “роботами-убийцами” – это комплекс , который используют искусственный интеллект (ИИ) для идентификации, выбора и уничтожения целей без вмешательства человека. В то время как в случае беспилотником решение о ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто живет, а кто умирает, принимается исключительно алгоритмами.

Поэтому, Future of Life и Международный Красный Крест хотят ввести международный запрет на оружие, которое использует искусственный интеллект для идентификации и убийства без вмешательства человека. Но, пока они пытаются ввести такие запреты, некоторые страны активно используют свои наработки в области ИИ и активно тестируют на полях сражений. Хоть это особо и не афишируются, но такие случаи были зафиксированы. Вот два из них:

  • Расследование, проведенное Группой экспертов ООН по Ливии в 2021 году. Где было указано, что турецкий дрон STM Kargu-2 – “выслеживал и дистанционно уничтожал” отступающих солдат Хафтара.
Турецкий дрон-камикадзе Kargu-2
Израильский дрон

Во всех случаях беспилотники работали в автономном режиме с указанием сектора полёта. Какие риски выделяют общественные организации:

  • Непредсказуемость. Никто не может с уверенность сказать, как поведут себя алгоритмы машинного обучения в реальных условиях, при динамичном изменении обстановки на поле боя.
  • Эскалация. Широкое распространение ИИ и автономных систем может привести к непреднамеренной эскалации и кризисной нестабильности.
  • Распространение. Массовое и не дорогое производство данных систем. Как пример, использование потребительских дронов в локальных конфликтах террористами и мексиканские картели
  • Избирательность. Благодаря наличию оптических сенсоров, автономные системы могут проводить визуальную идентификацию объектов и на основе этого принять решение на уничтожение объектов. Тот же турецкий дрон Kargu-2 при обнаружении цели переходит в режим камикадзе и атакует.

В заключение следует отметить, что использование искусственного интеллекта в беспилотниках потенциально может нанести серьезный вред человеческой жизни. В то время как одни считают, что он может быть полезен для военных операций и других задач, другие обеспокоены потенциальными рисками, которые он может представлять для человеческой жизни. Необходимо серьезно отнестись к потенциальным опасностям, связанным с этими технологиями, и рассматривать возможность их использования только при наличии соответствующих правил.

Искусственный интеллект играет важную роль в нашей жизни, но его применение в беспилотниках должно тщательно регулироваться и контролироваться для обеспечения его ответственного использования. Чтобы обеспечить ответственное использование этой технологии, важно ввести контролировать ее применение. Это поможет защитить человечество от любых потенциальных угроз, исходящих от беспилотников, управляемых искусственным интеллектом, и обеспечить защиту будущих поколений от любых негативных последствий его использования. В конечном счете, безопасность человеческой жизни должна быть приоритетной, и запрет на использование беспилотников с искусственным управлением станет важным шагом в достижении этой цели.


Интересные статьи :

Не забываем подписываться на канал в 👉Telegram! Там много интересного…

Translate »