Однако "фотографии" людей, которых на самом деле не существовало, не были полностью неразличимы. Глаза, носы и рты, созданные таким образом, располагались в определенных областях фотографии. ИИ также часто искажал такие детали, как зубы, уши и границу между волосами и фоном. Вещи, которые, по мнению человека, должны быть симметричными - воротнички, серьги, зрачки - часто оказывались не такими. Фотографии, созданные GAN, содержали десятки мелких признаков, которые позволяли исследователям с высокой степенью уверенности утверждать, что фотография профиля, скорее всего, сгенерирована искусственным интеллектом, однако у новой технологии были и свои тревожные сигналы.

После 2018 года исследователи дезинформации стали видеть эти подделки повсюду: иногда их использовали государственные акторы в пропагандистских кампаниях, иногда - спамерские компании, пытающиеся наладить связи для исходящих продаж. 95 Поскольку поддельные лица стали встречаться все чаще, даже на таких платформах, как LinkedIn, платформы социальных сетей начали инвестировать в технологии для их обнаружения. 96 СМИ писали объяснения, чтобы помочь публике распознать признаки. Но даже когда технологические компании одержали верх и большая часть публики стала разбираться в признаках подделки, генеративный ИИ, использующий другой тип технологий - генеративные предварительно обученные трансформаторы (GPT), - стал более демократичным.

В 2020 году OpenAI выпустила GPT-3, генератор текста, который работает, предсказывая следующее слово в предложении с поразительной изощренностью. 97 В то время я изучал пропаганду, которую российская военная разведка (ГРУ) писала для своих подставных СМИ, манипулируя разговорами вокруг сирийской войны. 98 Эти усилия были обнаружены отчасти потому, что фальшивые журналисты ГРУ плагиатили контент - в том числе у своих собственных фальшивых коллег! 99 Когда летом 2020 года я одновременно читал российскую пропаганду и изучал потенциал GPT-3, мне пришло в голову, что эта технология позволит пропагандисту легко избежать ловушек обнаружения, в которые попали фальшивые журналисты, чьи материалы я читал. Она могла бы быстро и недорого создавать оригинальный контент, повторяя стиль и тон любого сообщества вплоть до языка и сленга внутри группы. 100 Больше не было бы необходимости заниматься плагиатом. Повторы "копипасты" и маленькие малапропизмы и неправильная расстановка знаков препинания, которые мы использовали в качестве сигналов для обнаружения дезинформационных кампаний государственных субъектов, скорее всего, исчезнут.

Технология быстро демократизировалась с запуском ChatGPT. За ней быстро последовала широкодоступная генерация текста в изображение: если вы можете описать объект или сцену, диффузионные модели ИИ, такие как Stable Diffusion и MidJourney, нарисуют картинку, которую вы себе представляете, в ярких деталях. У этих инструментов тоже были первые "подсказки" - подобно тому, как лица, сгенерированные GAN, часто имели неровные зубы и странные зрачки, сгенерированные ИИ изображения людей часто включали лишние пальцы. Но уже через несколько месяцев эти недостатки были полностью устранены. Теперь можно легко создавать фотореалистичные изображения людей, которых не существует, в местах, которых не существует, с изображением событий, которые никогда не происходили. Можно создавать аудиозаписи того, что никогда не было сказано, даже голосами обычных людей. Видео уже на пути к тому, чтобы стать таким же доступным. Другими словами, можно массово производить нереальность.

Технологии генеративного ИИ являются мощными и очень полезными для многих приложений. Как и в случае со многими другими технологиями, это означает, что существуют и вредоносные приложения. После нескольких взаимодействий с GPT-3 стало очевидно, что генеративные текстовые инструменты, создающие текст, неотличимый от написанного людьми, будут также преобразованы для пропагандистов, одновременно повышая качество и количество их продукции и снижая затраты на ее производство. 101 Большие языковые модели могут снова сделать автоматизированные боты в социальных сетях полезными, поскольку они позволяют чат-ботам реагировать на запросы пользователей, которые пытаются с ними взаимодействовать. 102 Синтетические видеоклипы, созданные ИИ изображения или поддельные "утечки аудио" могут быть использованы в качестве основы для сенсационных вирусных историй. Технологии развиваются, и тролли адаптируются.

Перейти на страницу:

Похожие книги