Элиезер Юдковский, американский философ и специалист по ИИ, исследователь проблем технологической сингулярности, изучает те конструкции ИИ, которые способны к самопознанию, самомодификации и рекурсивному самоулучшению, а также могут обладать стабильной позитивной структурой мотивации, т. е. так называемым дружественным искусственным интеллектом. Юдковский утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но конструкторы должны понимать, что созданные ими ИИ со временем будут учиться и эволюционировать, вследствие чего их действия могут стать непредсказуемыми. При этом предполагается, что искусственный сверхразум, вероятно, сможет достигать любых поставленных перед ним целей, и потому чрезвычайно важно, чтобы цели, которые ему ставят, и вся его система мотивации были «дружественными к человеку». (Правда, некоторые критики считают, что создание дружественных ИИ маловероятно.)

Однако в начале 2020‑х годов Элиезер Юдковский начал публично утверждать о высокой вероятности общечеловеческой катастрофы, вызванной развитием искусственного сверхинтеллекта. В начале 2023 года он стал призывать мировое сообщество объявить всемирный мораторий на обучение общих ИИ-моделей умнее GPT-4. Но, поскольку такой мораторий не состоялся, то, считает Юдковский, человечество обречено: искусственный сверхинтеллект его уничтожит [http; //hi-news.ru/eto-interesno/unichtozhit-li-nas-iskusstvennyi-intellekt-i-pochemu-nekotorye-uchenie-schitayut-chto-da.htrnl? ysclid=lq9gwvk.3cm].

Подобные суждения большинство специалистов IT не разделяет: считается, что мотивация для столь агрессивных действий ИИ отсутствует. Кроме того, возможности искусственного сверхинтеллекта едва ли будут расти безгранично, так как знания о процессах, происходящих в природе, позволяют выдвинуть предположение, что наблюдаемая картина ускорения НТП и экспотенциального развития ИИ через некоторое время сменится замедлением и полной остановкой, что позволит человечеству адаптироваться к изменениям.

Как действовать в таких условиях?

Недавно Илон Маск и более 1 000 специалистов по IT, включая нескольких лауреатов Нобелевской премии, подписали открытое письмо с требованием приостановить разработку моделей ИИ-систем, более мощных, чем GPT-4.

Но мировое сообщество пока молчит.

Есть и оптимисты, которые, наоборот, полагают, что ИИ принесет человечеству необыкновенное светлое будущее. Так, известный американский футуролог, изобретатель и технический директор Google Рэй Курцвейл считает, что создание сверхмощных интеллектуальных машин не будет нашествием вражеского марсианского разума: люди создадут эти машины, чтобы сделать умнее самих себя. Именно в этом заключается уникальные способности человеческих существ: люди создадут эти машины, чтобы расширить свои собственные возможности.

Постепенное введение небиологических систем в тела и мозги людей, полагает Рэй Курцвейл, будет еще одним примером непрерывного оборота составляющих их элементов. Оно не повлияет на целостность личности больше, чем естественная замена клеток тела.

Люди привычно станут придерживаться сценариев построения замен. По вопросу о сохранении индивидуальности можно якобы не сомневаться, что индивидуальность (личность) сохранится через непрерывность хранящихся в ней информационных образов. Непрерывность не противоречит непрерывным изменениям, и если сегодня индивид чуть-чуть отличается от того, каким он был вчера, он тем не менее сохраняет свою индивидуальность.

Футуролог Рэй Курцвейл об эволюции Разума:

«Изучение возможности преодоления скорости света… будут важнейшими проблемами человеко-машинной цивилизации в начале следующего столетия.

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже