2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону».
Таким образом законы Айзека Азимова формулировали один из главных экзистенциальных принципов: никакая «железяка» (в том числе робот) не должна при эксплуатации причинять вред человеку. Однако поскольку эти законы были изложены в литературном произведении, а не в юридическом документе, то они никогда ни к чему никого не обязывали.
Забвение этого принципа разработчиками конструкций роботов в ряде случаев приводило к нарушениям правил создания и эксплуатации технических устройств, хотя давно известно, что ни одна техническая система не должна быть допущена к эксплуатации без надежных испытаний на безопасность. И
Безопасность – прежде всего!
Поэтому когда сегодня говорят о возможной угрозе человечеству со стороны искусственного интеллекта (ИИ), то несомненно, разработчикам ИИ надо помнить не только о ПТБ при создании и эксплуатации систем ИИ, но главным образом о том, что создание любых угрожающих человечеству систем, как технических, так и интеллектуальных, недопустимо не только этически, юридически и технически. Недопустимо – принципиально!
О том, что искусственный интеллект может уничтожить человечество, сегодня говорить как-то не принято. Выражают беспокойство только специалисты IT, но их пока понимают и слушают очень немногие, поскольку нет убедительных научных доказательств того, что искусственные нейросети способны обрести самосознание и перестроить наш мир под себя. Между тем, беспокойство нарастает, и число людей, поднимающих тревогу, растет.
Некоторые специалисты считают, что мы живем в «поворотный исторический момент», поскольку появление
Считается, что как только сверхинтеллект поймет, как выбраться за пределы компьютерной системы, контролирующей и ограничивающей его, он непременно сделает это. А дальше начнется хаос. Проблема в том, что у человечества нет (по крайней мере сегодня) плана, как сохранить управляемость ИИ и не подвергнуться уничтожению со стороны AGI.
Все это внушает страх и нервозность. И вот уже знаменитый американский предприниматель, глава SpaceX, Tesla и Twitter, миллиардер Илон Маск предупреждает: «На самом деле меня не очень беспокоит, что будет в краткосрочной перспективе. Ограниченный ИИ приведет к неурядицам, исчезновению рабочих мест и совершенствованию оружия, другим подобным вещам, но здесь отсутствует фундаментальный риск для нашего вида, а вот суперинтеллект такой риск представляет, причем, попомните мои слова, ИИ гораздо опаснее боеголовок. Гораздо» [Cliffjord «Elon Mask: Mark My Words, – A.I, Is Far More Dangerous Than Nukes»].
С ним соглашается Стивен Хокинг, всемирно известный физик: «Разработка полноценного искусственного интеллекта может стать смертным приговором человеческому роду» [Хоффман С. Пять сил, изменяющих всё. – СПб: Портал, 2023, с. 393].