Дрон без приказа атаковал человека. Польский генерал предупредил, что человечество создаст нечто, что в будущем нас убьет
0
Крупный польский интернет-портал Onet провел интервью с бывшим командующим сухопутными войсками Польши, автором книги о войне будущего, генералом Вальдемаром Скшипчаком.
Рассуждая об использовании искусственного интеллекта на поле боя, Скшипчак заявил, что нужны правовые рамки, чтобы не утратить контроль над технологиями, не создать нечто, что убьет человечество.
- В докладе Совета безопасности ООН по Ливии появилась информация, что в марте этого года по конвоям противника нанес удар турецкий беспилотник «Каргу-2». В этом не было бы ничего необычного, ведь дроны уже не первый год задействуют в разных военных конфликтах, если бы не то, что аппарат стартовал, а потом идентифицировал и поразил противника без участия человека. Мы вступаем в новую эпоху, эпоху войн роботов?
- В книге «Мы находимся на пороге войны» вы пишите, что роботизация поля боя — это элемент современной гонки вооружений. Появляется много вопросов, например, смогут ли роботы отличить собственные войска от неприятельских? Пример Ливии показывает, что им это удается?
Это означает, например, что сенсоры способны выделить черты, свойственные представителям разных этнических групп. У нас, людей, это получается не всегда: порой мы не можем отличить уроженца Европы от уроженца Ближнего Востока. Машины это уже могут.
Это на поле боя очень важно. Зачастую бойцам сложно отличить своих от чужих. Для этого придумана военная форма, но если мы имеем дело с армией повстанцев, могут возникнуть проблемы. Ученые работали над тем, чтобы искусственный интеллект мог выявить врага, и в этом преуспели.
- Могут ли дроны и другие устройства, оснащенные искусственным интеллектом, ошибиться, нанести удар по собственной армии?
Для армии его программируют самые высококлассные специалисты, которые могут предвидеть все ситуации, возможные на поле боя. Креативность робота, его умение планировать зависят от тех, кто снабжает его знаниями. Этот процесс занимает не недели или месяцы, а годы. Системы получают данные от людей, перерабатывают их. Это самый важный момент, и здесь должна быть установлена четкая граница, определяющая, какой солдат свой, а какой чужой. Если такой четкой границы не будет, робот сможет ошибиться.
- Многие ученые говорят, что искусственный интеллект учится сам, и поэтому в будущем он будет принимать решения за человека.
- Подстегнула ли война на Ближнем Востоке процесс развития искусственного интеллекта, стал ли регион опытным полигоном для испытаний устройств такого рода?
Не секрет, что на таких войнах, как в Ливии, Афганистане, Ираке новые системы вооружений отрабатывать лучше всего. Это не широкомасштабные, а имеющие ограниченный характер конфликты, поэтому современные вооружения там можно использовать точечно в очень разных ситуациях. В испытаниях, тестах требуется именно такой масштаб, как в лаборатории.
- Использование автономных вооружений, то есть таких, которые сами принимают решения об атаке, противоречит международному праву и принципам гуманизма, говорят ученые и защитники прав человека. Их опасения обоснованы?
Другой вопрос, как международное право регламентирует применение таких вооружений. Сейчас никаких ограничений нет. Между тем это невероятно смертоносные устройства, от которых сложно защититься, поскольку не существует систем, способных их обезвредить.
Примером может послужить недавняя война в Нагорном Карабахе. Говорится, что ее выиграли дроны. Возможно, они еще не были оснащены искусственным интеллектом, но наверняка могли сами идентифицировать цели. Так что это, несомненно, оружие будущего. Боевые роботы призваны заменить солдат. Однако если международные организации уже сейчас не примут решений, ограничивающих развитие таких вооружений (остановить его невозможно), мы увидим, как военных по обе стороны фронта убивают роботы, тогда как войска друг с другом непосредственно не соприкасаются.
- Мы успеем ввести ограничения раньше, чем роботы с искусственным интеллектом станут умнее нас?
Нам нужно уже сейчас к этому подготовиться, подумать об ограничениях в использовании таких вооружений, поскольку если все активнее развивающийся искусственный интеллект будет использоваться для убийства, однажды люди на самом деле могут утратить над ними контроль. Возможно, мы сами создадим нечто, что в будущем нас убьет.