«Проблема Терминатора» 

Пентагон продолжает рефлексировать над этичностью совмещения оружия и искусственного интеллекта 27 Январь 2016, 07:02
В 2017-м году Министерство обороны США планирует вложить от 12 до 15 миллиардов долларов в разработку Новой (Третьей) стратегии подавляющего преимущества (Third Offset Strategy), в надежде получить новую "прорывную" технологию. 
Деньги пойдут на военные игры, эксперименты и "демонстрации"
По словам генерала ВВС США Пола Селвы, основные усилия будут направлены на создание новых технологий выработки и хранения энергии, новой летальной технологии полного поражения (Endgame technology) и софтверных технологий наведения и управления оружием.

“Мы создаем пространство для изучения. Некоторые из инвестиций, которые мы делаем не окупятся, но мы собираемся сделать несколько небольших ставок в направлениях, где, как мы считаем, можем что-то изменить, где есть технологическая возможность продвинуть всю индустрию вперед и где есть потенциал создания оружия, которое бы обеспечило нам подавляющее преимущество над любым противникос” - сказал Селва.

“Вопрос, который мы ставим перед собой сейчас это «Могут ли технологии, которые сейчас разрабатываются в частном секторе дать нам такой же уровень превосходства, как тактические атомные вооружения (первая стратегия подавления преимущества) или точность и незаметность (вторая стратегия подав. прем-ва)?

Если ответ утвердительный, то мы можем изменить то, как мы ведем войну в современном мире,” добавил он. Если этого не случится, то, скорее всего, военным придется искать способы продвигать вперед уже существующие возможности, чтобы получить преимущество над потенциальными противниками.

Летальные технологии полного поражения, такие как энергетическое оружие или пушки, стреляющие сверхскоростными боезапасами, могут перевернуть всю стратегию и экономику противоракетной обороны.

Вместе того, чтобы использовать дороге оружие вроде баллистической или крылатой ракеты, США было бы выгоднее снабдить свои базы большим количеством сравнительно недорогих установок, которые бы вынудили потенциальных противников срочно разрабатывать более продвинутые вооружения.

Генерал также добавил: США сейчас «находится в абсолютно неправильной точке кривой экономических затрат. Мы используем решение ценой в 10$ для решения проблемы за 10 центов. А надо наоборот.”

Отдельно Сельва отметил, что сейчас существует некоторое количество технологий, которые находятся на грани применения, однако не вводятся из-за этических аспектов. Международному сообществу потребуется разработать общепринятые нормы для биологической аугментации и, например, человеческих имплантатов.
Спустя пять месяцев после заявления, открылось и начало работу калифорнийское представительство Пентагона по охоте за технологиями

Не менее серьезный вопрос — искусственный интеллект, машины, которые способны, в отличие от запрограммированных роботов, действующих исключительно в установленных рамках, обучаться и реагировать на конкретную ситуацию.

“Искусственный интеллект может помочь нам с большим количеством разных вещей, которые ускорят боевые действия, сделают их более предсказуемыми, которые позволят нам более эффективно обрабатывать информацию о противнике и принимать более взвешенные решения» - сказал генерал. «Однако сейчас я бы не доверил ни одного решения машине.»
Партнерство по разработке гибких электронных компонентов – тонких сенсорных экранов, которые оборачиваются вокруг руки, или крыльев летательных аппаратов, представляющих собой датчики – следующий шаг активно реализуемой кампании министра обороны США Эштон Картера, задача которой — привлечь инновации Кремниевой долины и пригласить работающие в регионе компании помочь в разработке вооружения следующего поколения.
Также он упомянул то, что автономные транспортные средства уже используются на воде, земле и в воздухе.

“Я могу дать оружию задачу: изучи вон тот след. Изучив этот след, опознай цель. И это пока все, что я готов отдать на его усмотрение на данный момент» - сказал он. “После опознания цели именно человек должен взять на себя ответственность за ее устранение».

Однако есть вероятность того, что военные вскоре могут решить применить в боевых действиях полностью автономные системы, которые будут иметь возможность самостоятельно атаковать противника.
“Есть вопросы этические, есть вопросы, касающиеся законов войны. Есть вопрос, который я называю «проблемой Терминатора»: Что произойдет, когда машина, обладающая летальными возможностями, будет оснащена искусственным интеллектом?” сказал он, сделав отсылку к фантастическому фильму, в котором Арнольд Шварцнеггер исполняет роль киборга, отправленный на миссию, в ходе которой он должен был найти цель и уничтожить ее. “Как мы сможем понять, что происходит в мозгу машины, если предположить, что мы сможем создать разумную машину?”

По его словам, одной из сложностей будет тестирование автономной обучающейся системы, чтобы понять, насколько можно быть уверенным в том, что она сработает так, как задумано.

“В Министерстве обороны мы создаем машины, а потом тестируем их до того момента, как они сломаются. Мы не можем этого сделать с искусственным интеллектом, с обучающимся программным обеспечением. Нам придется найти способ заставить его рассказывать нам о том, чему оно научилось» - сказал Селва.

Но в какой момент может быть уверенным в том, что обучающаяся машина пришла к нужным выводам и будет отзываться именно так, как задумано, за пределами лаборатории?

“Это целый набор проблем, с которыми нам придется разбираться, по сравнению с которыми, я думаю, сам вопрос создания такой машины кажется относительно простой задачей» - сказал генерал.

Министерство обороны хранит огромное количество самых разных данных и имеет запрос на системы искусственного интеллекта, которые бы сортировали информацию со всего мира. При этом, по словам Селвы, обучение логически мыслящей машины тому, как давать советы людям, может иметь огромные последствия.

“Базы данных, с которыми мы работаем, стали настолько большими и запутанными, что если мы не найдем кого-нибудь, кто поможет нам их сортировать, нас просто завалит информацией» - сказал Селва. “Если мы сможем создать набор алгоритмов, который позволит машине научиться понимать, что есть нормально в данном конкретном контексте, а что отклоняется от нормы, это может изменить то, как мы прогнозируем погоду, как мы сажаем сельскохозяйственные культуры. Это абсолютно точно изменит то, как мы анализируем обстановку во время боевых действий.»
Какая теория обучения машин правильная?