Риск-ориентированный подход, написано в документе, «основан на оценке размера потенциального вреда с учетом вероятности его наступления по сравнению с потенциальным положительным эффектом от внедрения технологий ИИ и РТ». Это означает, что если потенциальный положительный эффект превосходит возможный ущерб, то все в порядке. Новая посковидная этика: если официальные лица убеждены, что польза перевешивает риски, то все в порядке, можно прививать минуя этапы.
Весьма интересно и то, в каких расплывчатых терминах, с массой оговорок описывает документ тему юридической ответственности в случае применения систем искусственного интеллекта и робототехники.
«Реальный уровень развития технологий ИИ и РТ не предполагает кардинальных изменений в регулировании института юридической ответственности», говорится в концепции. На деле речь не идет о каких-либо изменениях вообще, никаких механизмов ответственности создателей алгоритмов или систем машинного обучения не предусмотрено. По сути, алгоритмы и люди находятся здесь на одной доске — как некие сущности, главная цель которых — быть ресурсом и приносить прибыль. Концепция предполагает, что, возможно, если что-то пойдет не так, то «будут доработаны при необходимости механизмы безвиновной гражданско-правовой ответственности».
Обратите внимание на слово «безвиновный». В мире, где нет свободы, а есть предопределение, любой инцидент — продукт случайности, вероятности, а это уже епархия страховщиков. Так и предполагается — возмещение вреда, причиненного действиями систем искусственного интеллекта и робототехники, будет проходить или через страхование ответственности, или путем создания компенсационных фондов. Получается, что в случае чего заплатит правительство через специальный фонд, или, что более вероятно, от человека ждут страховки.
Никаких механизмов, основанных на признании за человеческим индивидуумом прав, например, института омбудсмена, не предполагается. Решение алгоритма обязательно и отмене не подлежит, алгоритм всегда прав, и если беспилотник вас, в силу случайного стечения обстоятельств, переехал, вам надлежит обратиться в страховую компанию.
В ОСАГО пропишут страхование от беспилотников, с пациентов будут брать расписки о снятии с учреждений ответственности, а стоимость и риски возможного ущерба компании-разработчики переложат на самих людей, на «новую нефть». В условиях российской юридической практики кто богаче, у кого ресурс, тот и прав. Пострадавшие прохожие или пациенты будут судиться с Яндексом или Сбербанком в обычном суде, их юристы против юристов больших корпораций — которые в защиту своей позиции будут ссылаться на экспериментальный порядок, на регуляторную песочницу, на вполне законное изъятие таких случаев из рамок обычного законодательства. Спасение утопающих — дело рук самих утопающих.
Есть, конечно, ритуальные упоминания о свободах и правах даже в этих документах, например, такое: «При наличии реального риска нарушения прав и свобод граждан может быть актуальной проработка вопроса об условиях самоидентификации системы ИИ при прямом взаимодействия с человеком». Оговорки, однако, сводят на нет возможность осмысленного реагирования на проблемные случаи. Кто будет оценивать риск — сами разработчики, которых никто не учил морали и этике, для которых человек — это движущийся компьютер? Тогда рисков нет и не будет. Кто будет заниматься проработкой вопроса — снова та же группа Сбербанка?
Есть еще несколько тезисов с показательными оговорками и словесной эквилибристикой: «Общий вектор возможных изменений должен быть направлен на то, чтобы гарантировать эффективное и справедливое функционирование институтов юридической ответственности и распределение ответственности в случае такого причинения вреда». Справедливое для кого?
В одном месте документа признается, что «не всегда понятная и предсказуемая логика работы данных систем создает ряд рисков для потребителей: в основном, при применении систем ИИ и РТ, предназначенных для автоматизации совершения сделок и иных юридических действий, а также при применении систем ИИ и РТ, взаимодействующих с физической средой (бытовые роботы, электроника, системы «умного дома». Но признание рисков не должно вести к обременению для разработчиков: «внесение в законодательство каких-либо дополнительных ограничений на применение таких систем представляется нецелесообразным».
Для проформы и для легкости прохождения концепции декларируется следующий момент: «Режим правового регулирования технологий применения систем ИИ и РТ должен обеспечивать необходимую степень защиты прав и свобод человека и гражданина, отвечать интересам общества и государства».