В1: Очень, очень смешно. Это они не видели, какие рожи корчат роботы-официантки, когда не оставляешь им на чай пару-тройку ядерных батареек. Я уже не говорю про… [помехи с 20:14:08 до 20:14:19] [звуки ударов]… Это не передатчик, а [неразборчиво] хлам какой-то!

В апреле 2015 года международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой опубликовала доклад «Mind the Gap. The Lack of Accountability for Killer Robots», посвященный проблемам ответственности, возникающим при применении полностью автономных боевых систем. Военные роботы, способные выбирать и поражать цели без участия человека, смогут совершать действия, которые, будь они совершены человеком, расценивались бы как военные преступления. При этом люди-операторы или командиры подразделений, скорее всего, не будут привлечены к ответственности, в случаях, когда они не могли предусмотреть или остановить неправомерную атаку со стороны автономного робота. Авторы призывают к полному официальному запрету разработки, производства и использования подобных систем на международном и национальном уровне.

Очередное обсуждение будущего боевых роботов состоялось в апреле 2016 года в рамках специального совещания ООН в Женеве. Участники рассмотрели этические, юридические, технические и другие аспекты применения полностью автономных систем вооружения. Международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой подготовила еще один доклад о проблемах контроля над роботами-убийцами, призывающий к запрету автономных систем вооружения.

В2: Полегче! Один ты уже раскурочил, а бюджет у нас не резиновый. И напомню, рубрика называется «Лавка древностей». Считай, что это декорация. Итак, во-вторых. Ученые говорили про необходимость «быть готовыми», поскольку террористы и страны — потенциальные противники все равно могут использовать боевых роботов.

В1: Это просто без комментариев. Отличный довод любого генерала любой эпохи. Что-то еще они придумали, умники эти?

В2: Ну, третьим любимым аргументом яйцеголовых было то, что запрет на использование роботов для ведения боевых действий не решит реальную проблему, то есть — не ликвидирует желание человека использовать технологии «во зло». Кто бы спорил. Доводов против применения военных роботов, кстати, было гораздо больше, начиная с того, что все не очень понимали, кого назначать виноватым, если робот по ошибке порешит пару сотен человек. И конечно, была еще масса туманных соображений этического свойства. В самом начале века умники даже несколько петиций подписывали, предупреждали неразумное человечество об опасностях «военного» искусственного интеллекта.

Перейти на страницу:

Поиск

Все книги серии Журнал «Если»

Похожие книги