В прошлый вторник Вашингтон был потрясен откровениями бывшей сотрудницы Facebook Фрэнсис Хауген, рассказавшей о работе компании. Но серьезные слушания в Конгрессе о Facebook впоследствии ни к чему не приводят. Те из нас, кто работает на стыке технологий и политики, не слишком надеются, что в Вашингтоне за этим последуют законодательные меры.

Основная проблема заключается в том, что демократы и республиканцы не могут прийти к единому мнению, в чем проблема. Демократы концентрируются на том, как в Facebook распространяется дезинформация (что видно также во внутренних документах, которые Хауген предоставила The Wall Street Journal), а республиканцы жалуются на цензуру и предубежденное отношение. Это напряжение между сторонами только на руку Facebook и другим соцсетям, которые продолжают работу как ни в чем не бывало.

Тем не менее, как предложила госпожа Хауген в своем выступлении перед комиссией Сената во вторник, существует нормативное решение ключевых проблем обеих сторон, которое не нарушает Первую поправку и сохраняет динамизм интернет-экономики. Конгрессу следует разработать простую реформу: возложить на компании социальных сетей ответственность за контент, который продвигают их алгоритмы.

В конце 1990-х годов пользователи Интернета открывали контент с помощью поисковых систем, таких как Lycos, и веб-каталогов, таких, как Yahoo. В этих ранних интернет-сервисах не было механизма, с помощью которого маргинальный контент мог выйти на широкую аудиторию. Это было связано с тем, что для потребления контента было необходимо, чтобы пользователь намеренно выполнял поиск по ключевому слову или переходил на определенный веб-сайт или форум.

Неуправляемый монстр

Сейчас это кажется странным. Наши ленты в соцсетях полны непрошеного и маргинального контента благодаря использованию соцсетями двух ключевых технологических разработок: персонализации, вызванной массовым сбором пользовательских данных с помощью веб-файлов cookie и систем больших данных, и алгоритмического усиления – использования мощного искусственного интеллекта для выбора контента, показываемого пользователям.

Сами по себе персонализация и алгоритмическое усиление, несомненно, открыли новые интересные возможности для интернет-сервисов. Пользователи сейчас воспринимают как должное возможность персонализировать сайты и приложения в зависимости от их любимых спортивных команд, музыкантов и от хобби. Также очень успешно используются алгоритмы ранжирования новостных веб-сайтов для секций с комментариями пользователей, которые ранее были сборищем спама.

У соцсетей явная экономическая мотивация – как можно дольше удерживать внимание пользователей

Но когда специалисты по обработке данных и программисты совмещают персонализацию контента и алгоритмическое усиление – как они это делают при создании ленты новостей Facebook, вкладки TikTok «For You» и системы рекомендаций YouTube – они создают неконтролируемых монстров, пожирающих все внимание пользователей. Хотя эти алгоритмы, такие как «ранжирование на основе вовлеченности» Facebook, позиционируются как способ показывать «актуальный для пользователей контент», они закрепляют предубеждения и влияют на общество так, что сами их создатели едва ли понимают последствия, не говоря уже о пользователях или законодателях.

В 2007 году я начал работать в Facebook в качестве специалиста по данным, и моим первым заданием было поработать над алгоритмом, используемым новостной лентой. У Facebook было более 15 лет, чтобы продемонстрировать, что персонализированные ленты на основе алгоритмов можно формировать ответственно: если этого не случилось до сих пор, нет смысла ожидать, что это случится. Как сказала Фрэнсис Хауген, теперь люди, а не компьютеры, должны решать, что мы читаем.

Хотя небольшие команды специалистов по данным и менеджеров по продукту, таких как Хауген, пытаются контролировать худшие последствия алгоритмов, у соцсетей явная экономическая мотивация – как можно дольше удерживать внимание пользователей. Поэтому можно с уверенностью говорить, что в лентах и далее будет продвигаться самый эпатажный и радикальный контент, из-за чего контент-модераторам придется думать, как справиться с невозможной задачей – контролировать проблематичный вирусный контент на сотнях языков, в сотнях стран и политических контекстов.

Даже если прекратить работу всех соцсетей или вынудить их работать более прозрачно и в соответствии с требованиями совместимости, мотивация к использованию этих алгоритмов никуда не денется. К сожалению, повышение конкуренции в борьбе за внимание может нанести еще больший вред, если больше компаний станут подражать успеху TikTok с его алгоритмом, который, по мнению The Wall Street Journal, продвигает «бесконечные потоки контента о сексе и наркотиках» среди несовершеннолетних.

Как вынудить соцсети взять на себя ответственность

Решение простое: компании, внедряющие персонализированное алгоритмическое усиление, должны нести ответственность за контент, продвигаемый этими алгоритмами. Для этого нужно только внести небольшое изменение в раздел 230 закона 1996 года, который позволяет компаниям социальных сетей размещать пользовательский контент, не опасаясь судебных исков за клеветнические высказывания и незаконный контент, размещенный этими пользователями.

Фрэнсис Хауген заявила: «Если мы реформируем 230-й и сделаем Facebook ответственным за последствия решений по ранжированию, я думаю, они избавятся от ранжирования на основе вовлеченности».

Как бывший специалист по анализу данных Facebook, а сейчас – руководитель технологической компании, я согласен с ее оценкой. Не существует системы искусственного интеллекта, которая могла бы идентифицировать все возможные случаи незаконного контента. Столкнувшись с потенциальной ответственностью за каждый продвигаемый алгоритмом пост, эти компании, скорее всего, будут вынуждены полностью отказаться от лент на основе алгоритмов.

Не существует системы искусственного интеллекта, которая могла бы идентифицировать все возможные случаи незаконного контента

При таком режиме компании социальных сетей могут быть успешными и прибыльными. Twitter ввел алгоритмическую ленту только в 2015 году. Facebook значительно вырос за первые два года, когда в нем размещались профили пользователей, но еще не было персонализированной ленты новостей. Обе платформы уже предлагают неалгоритмические хронологические версии лент.

Это решение также могло бы устранить опасения по поводу политической предвзятости и свободы слова. Ленты соцсетей избавились бы от неизбежных предубеждений, которые возникают в случае использования систем, функционирующих на основе искусственного интеллекта. Алгоритмическое ранжирование контента, созданного пользователями, можно ограничить с помощью неперсонализированных настроек, таких как списки «самого популярного» контента, возможно – с учетом географии или языка. Маргинальный контент снова станет маргинальным, пользователи станут меньше жаловаться, а платформам нужно будет принимать меньше решений относительно высказываний своих пользователей.

Безусловно, такое реформирование раздела 230 имеет потенциальные недостатки. Как написала Дафна Келлер из Стэнфорда, соответствующие области права «заведомо сложны» для оценки судами. Законодатели должны будут тщательно составить законопроект, чтобы он точно соответствовал Первой поправке.

Последнее изменение Конгресса к разделу 230 привело к множеству непредвиденных последствий; на этот раз Конгрессу следует проконсультироваться с активистами и уязвимыми группами, у которых наибольший риск пострадать от регуляции онлайн-высказываний, чтобы убедиться, что закон является правильным и узконаправленным.

Если проработать все эти моменты, то, возможно, смелый поступок Фрэнсис Хауген наконец послужит поводом привлечь соцсети к ответственности.

Эта статья впервые вышла в The New York Times, ее перевод публикуется с разрешения правообладателя.