2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону».

Таким образом законы Айзека Азимова формулировали один из главных экзистенциальных принципов: никакая «железяка» (в том числе робот) не должна при эксплуатации причинять вред человеку. Однако поскольку эти законы были изложены в литературном произведении, а не в юридическом документе, то они никогда ни к чему никого не обязывали.

Забвение этого принципа разработчиками конструкций роботов в ряде случаев приводило к нарушениям правил создания и эксплуатации технических устройств, хотя давно известно, что ни одна техническая система не должна быть допущена к эксплуатации без надежных испытаний на безопасность. И правила техники безопасности (ПТБ) технических устройств (которые, как утверждают практики, «написаны кровью») должны соблюдаться неукоснительно. Существуют, например, ПТБ при работе на циркульных пилах, ПТБ при выполнении электросварочных работ, ПТБ при работах на металлорежущих токарных станках и т. д. Должны существовать и ПТБ при эксплуатации роботов.

Безопасность – прежде всего!

Поэтому когда сегодня говорят о возможной угрозе человечеству со стороны искусственного интеллекта (ИИ), то несомненно, разработчикам ИИ надо помнить не только о ПТБ при создании и эксплуатации систем ИИ, но главным образом о том, что создание любых угрожающих человечеству систем, как технических, так и интеллектуальных, недопустимо не только этически, юридически и технически. Недопустимо – принципиально!

<p>Сильный искусственный интеллект</p>

О том, что искусственный интеллект может уничтожить человечество, сегодня говорить как-то не принято. Выражают беспокойство только специалисты IT, но их пока понимают и слушают очень немногие, поскольку нет убедительных научных доказательств того, что искусственные нейросети способны обрести самосознание и перестроить наш мир под себя. Между тем, беспокойство нарастает, и число людей, поднимающих тревогу, растет.

Некоторые специалисты считают, что мы живем в «поворотный исторический момент», поскольку появление общего или сильного искусственного интеллекта (AGI), в том числе сверхинтеллекта, возможно в ближайшие десятилетия или в конце ХХI века. (Общий или сильный ИИ (AGI) – термин, описывающий потенциальный ИИ, который, по мнению ученых, мог бы демонстрировать сверхчеловеческий уровень интеллекта.) Они предполагают, что поскольку ИИ не будет мыслить, как человек, а его взгляд на мир и собственные цели развития будет кардинально отличаться от нашего, то он неизбежно приступит к уничтожению рода людского. Нельзя якобы исключить того, что, выполняя какие-то утилитарные задачи, например, производство полупроводников, ИИ не начнет убивать людей, чтобы использовать их в качестве сырья для выпуска своей продукции.

Считается, что как только сверхинтеллект поймет, как выбраться за пределы компьютерной системы, контролирующей и ограничивающей его, он непременно сделает это. А дальше начнется хаос. Проблема в том, что у человечества нет (по крайней мере сегодня) плана, как сохранить управляемость ИИ и не подвергнуться уничтожению со стороны AGI.

Все это внушает страх и нервозность. И вот уже знаменитый американский предприниматель, глава SpaceX, Tesla и Twitter, миллиардер Илон Маск предупреждает: «На самом деле меня не очень беспокоит, что будет в краткосрочной перспективе. Ограниченный ИИ приведет к неурядицам, исчезновению рабочих мест и совершенствованию оружия, другим подобным вещам, но здесь отсутствует фундаментальный риск для нашего вида, а вот суперинтеллект такой риск представляет, причем, попомните мои слова, ИИ гораздо опаснее боеголовок. Гораздо» [Cliffjord «Elon Mask: Mark My Words, – A.I, Is Far More Dangerous Than Nukes»].

С ним соглашается Стивен Хокинг, всемирно известный физик: «Разработка полноценного искусственного интеллекта может стать смертным приговором человеческому роду» [Хоффман С. Пять сил, изменяющих всё. – СПб: Портал, 2023, с. 393].

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже