В-третьих, платформы могут сделать приоритетом прозрачное правоприменение с процессом обжалования. Платформы совершают ошибки. При миллионах сообщений, отмеченных для принятия мер, автоматические или человеческие модераторы неизбежно будут иногда ошибаться. Моя команда в Стэнфордской интернет-обсерватории изучала вопросы модерации контента в социальных сетях, связанные с терроризмом, манипулированием государственными субъектами, преследованием, делегитимацией выборов, дезинформацией о здоровье и безопасностью детей. Наши выводы свидетельствуют о том, что политика часто носит реактивный характер, а модерация зачастую носит явно ситуативный характер или применяется неравномерно. А все потому, что самые трудные решения в конечном итоге принимают люди, оперирующие неполной информацией и порой находящиеся под сильным давлением.

Первоначальные действия по модерации часто автоматизированы. ИИ-модеры" обучаются работе с контентом, нарушающим политику платформы, и затем пытаются сопоставить его с новым контентом, который им попадается. Они используются потому, что масштаб модерации на крупных платформах огромен - каждый квартал принимаются меры в отношении миллионов аккаунтов и постов, - а также для защиты психического здоровья модераторов-людей, которым в противном случае приходится смотреть на действительно ужасные вещи. 43

И все же ощущение того, что одна группа модерируется чаще или один человек получает флажки за высказывания, а другие нет, может вызвать чувство обиды и недоверия к процессу. Со временем торговцы возмущением получают преимущество перед усилиями по делегитимации модерации, потому что у них есть реальные ошибки, на которые они могут указать. Проблема схожа с той, с которой сталкиваются институты: одна ошибка в любом месте приводится в качестве доказательства некомпетентности или предвзятости повсюду.

Именно поэтому платформы должны обеспечить подробную прозрачность правоприменения. Если аккаунт понижен в рейтинге ("shadowbanned", в просторечии) или внесен в список небезопасных для рекламы, сообщите ему об этом (и, возможно, подайте апелляцию). Если аккаунт или пост удален, укажите причину на странице приостановки, чтобы посторонние люди тоже могли понять решение. Это был аккаунт государственного деятеля? За разжигание ненависти? Какая политика была нарушена? Эта статистика иногда публикуется в обобщенном виде, но детализация может помочь повысить легитимность.

Переосмысление и совершенствование политики модерации контента - один из подходов к улучшению дискуссии в Интернете, но в настоящее время он зависит от усмотрения самих компаний. Политика может меняться в зависимости от того, кто владеет компанией. Однако есть и другой, более широкий подход, который исходит извне платформ: государственная политика.

Переосмысление регулирования

Государственное регулирование призвано обуздать неподотчетную частную власть в большинстве отраслей и обеспечить, чтобы компании, стремясь к прибыли, не оказывали негативного влияния на общество. В течение многих лет компании, работающие в социальных сетях, получали огромные прибыли практически без какого-либо надзора, хотя непредвиденные последствия привели к значительному ущербу для некоторых сообществ; одним из ярких примеров является геноцид в Мьянме, подпитываемый пропагандой. Поэтому правительства по всему миру начали принимать участие в обсуждении вреда, наносимого сетью. Однако усилия правительств по регулированию должны быть направлены на создание системы надзора и подотчетности, а не на ежедневное вынесение решений о модерации контента.

Некоторые страны создали законы, дающие им право влиять на определенные типы контента. Например, Индия и Сингапур требуют от компаний, работающих в социальных сетях, удалять посты по требованию правительства. 44 Но даже если неподотчетная частная власть создает серьезные проблемы, правительственная власть с риском наказания, который она несет, вызывает не меньшую тревогу. Индийский закон о социальных сетях использовался правительством партии Бхаратия Джаната, чтобы не допустить контент международных диссидентов до индийской аудитории. 45

Тем временем в США законодатели обеих партий в Конгрессе разработали законопроекты, угрожающие отменить или изменить раздел 230 Закона о пристойности коммуникаций (который освобождает платформы от ответственности за контент, размещаемый пользователями). Левые законопроекты часто пытаются потребовать от платформ умеренного вмешательства в выборы. С правой стороны, законопроекты часто угрожают отменить защиту по разделу 230, если платформы удалят контент, и утверждают, что платформы должны быть обязаны размещать всю речь, защищенную Первой поправкой, включая язык ненависти. Дональд Трамп попытался применить этот подход, приняв указ через несколько дней после того, как Twitter заклеймил некоторые из его твитов, содержащих обвинения в фальсификации выборов; 46 он был отменен Джо Байденом в мае 2021 года. 47

Перейти на страницу:

Похожие книги