Безусловно, подобная технология имеет целью не только создание подделок – она успешно применяется и в кинематографе, и в рекламе. Так, проект VeraVoice, работающий над синтезом человеческой речи, предназначен в основном для создания интерактивных приложений, озвучки аудиокниг, игр, фильмов. Но, конечно, создатели фейков не могли пройти мимо столь мощного инструмента.

В марте 2019 года в Великобритании дипфейк был использован для крупного хищения. Посредством нейросети мошенники сымитировали голос исполнительного директора энергетической компании, с помощью чего отдали распоряжение о переводе 220 тысяч евро третьим лицам. У сотрудника, исполнившего поручение, не возникло ни тени сомнения, что приказ поступил от директора. Следствие так и не сумело установить личности злоумышленников[34].

Ещё более мощными являются инструменты, способные подменить в видеоролике лицо персонажа лицом (и фигурой) нужного человека. Подобные программы существуют уже сравнительно давно, непрерывно совершенствуются, а многие из них, например Deepfacelab, находятся в открытом доступе. Результатом работы таких программ становится вполне реалистичное видео. При желании на YouTube можно найти десятки видеороликов, в которые с помощью таких инструментов «вживлены» известные мировые политики.

Не обошёл прогресс и классические текстовые фейки. Существуют программы, способные генерировать связный текст в объёме многих страниц. Таковы, например, сети BERT и GPT, созданные компанией Google и ассоциацией OpenAI соответственно.

Более того, нейросеть можно обучить и стилевой правке текста: для этого сеть анализирует тексты авторства нужного человека и обучается характерным для него стилевым приёмам, после чего становится возможным генерировать тексты, выполненные в нужной авторской манере, или корректировать под неё уже написанный текст.

<p>Почему фейки быстро распространяются</p>

Настоящий, хорошо сделанный фейк очень трудно отличить от естественной горячей новости. Обычно вбрасываемый фейк полностью соответствует ожиданиям публики, их архетипам:

• «народ живёт всё хуже»;

• «чиновники воруют»;

• «селебрити жируют и развратничают»;

• «олигархи замышляют плохое, расхищают народное добро и наслаждаются жизнью»;

• «всё разваливается, депутаты принимают нелепые законы»;

• «власть ведёт наступление на права и благосостояние граждан и распродаёт недра».

В итоге люди добровольно и с удовольствием распространяют их, считая, что помогают правде.

<p>Как распознать фейковую новость</p>

С нашей точки зрения, распознать фейковую новость автоматически, только техническими средствами и по тексту нельзя. Для понимания того, что новость фальшивая, нужна проверка, нужно убедиться в том, что там написана фактическая ложь. Это невозможно сделать автоматически, поскольку машина должна понимать контекст новости, а также знать факты. Именно поэтому не существует автоматических фильтров для фейков.

Более того, во многих случаях с новостью типа «в Сирии совершена химическая атака» или «в “Зимней вишне” 400 трупов» в момент её появления вообще нет никаких способов понять, фальшивая ли это новость, – ни автоматических, ни ручных.

Искусственный интеллект и нейронные сети здесь не помогут. Это, увы, пока дело самого пользователя.

Тем не менее есть несколько внешних признаков, по которым можно на глаз распознать фейк.

Богатство контента и график распространения

По количеству разных версий события и характеру распространения зачастую можно уверенно определить степень искусственности новости.

У настоящей новости о реальном событии много свидетелей и участников, они все рассказывают о событии своими словами, сами публикуют эти рассказы. То есть настоящая новость имеет много разных оригиналов, версий и «пробулькивается» сразу во многих местах, причём часто в очень популярных СМИ и блогах. Появление новости в медийном пространстве похоже на круги от дождя на воде.

Форсируемый вброс, напротив, часто имеет мало оригиналов (иногда вообще только один-два) и мало оригинальных источников, но зато много копий одного и того же сообщения.

Такие фейки вбрасываются не очень популярными аккаунтами (виртуалами или спящими аккаунтами), которые затем «тащат» фейк по Сети, передавая друг другу перепостами, в формате «колбасы» – см. иллюстрации ниже.

Вот естественная новость. Шары и равномерные концентрические круги указывают на естественное распространение новости:

Перейти на страницу:

Все книги серии Информационно-психологическая безопасность

Похожие книги