В борьбе с современным Франкенштейном. Как искусственный интеллект учат проводить «детоксикацию» социальных сетей
4 ноября 2019

Сможет ли искусственный интеллект (ИИ) противостоять тенденции усиления давления, которое испытывают социальные сети? Надо ли регулировать или даже ограничивать общение в Сети? Под силу ли Google, который в апреле 2019 года прекратил работу своего сервиса Google+, так и не добившегося успеха среди пользователей, найти решение для других платформ, борющихся за создание безопасных онлайн-сред? Интернет-гигант планирует использовать для этого самый мощный ИИ, но даже он не упростит выполнение этой задачи. Ведь, как оказалось, модерировать наше поведение гораздо сложнее, чем манипулировать им.

Антисоциальная сеть

Отсутствие контроля над распространением провокационных материалов в социальных сетях продолжает оставаться главной темой. В то время как большинство подростков лично сталкивались с кибербуллингом или были его свидетелями, во «взрослых» форумах предпочитают не замечать проблему, глядя на неё сквозь розовые очки и тем самым допуская травлю в Сети и поощряя агрессивность.

По данным исследовательского центра Pew Research, который предоставляет информацию о социальных проблемах, около половины американских подростков утверждают, что они «почти постоянно» находятся в социальных сетях. В первую очередь, это YouTube, Instagram, Snapchat, Facebook и Twitter. Около 60 % подростков подвергаются издевательствам или преследованиям в интернете, причём 90 % считают это настоящей проблемой. Того же мнения придерживаются и взрослые опрошенные: в США 41 % представителей старшего поколения сами подвергались травле в интернете, а 66 % видели, что она направлена против других людей.

Итак, давайте разложим всё по полочкам: мы позволяем нашим детям жить в интернет-среде, которая оказывает на них всё более негативное влияние. При этом мы сами воспринимаем онлайн-атмосферу как враждебную и не потерпели бы такой в реальном мире. Возможно, пришло время крепко призадуматься.

 

Стремительный бег в бездну

После многочисленных сообщений в прессе о том, что платформы для обмена фотографиями, включая Instagram, спровоцировали подростковые самоубийства, уполномоченный по правам ребёнка Великобритании Анне Лонгфилд пишет об этом, обращаясь к владельцам социальных сетей: «С большой силой приходит большая ответственность. Или вы несёте ответственность за контент, предоставляя детям доступ к информации и инструментам, которые им нужны для роста в этом цифровом мире. Или вы признаёте, что не контролируете то, что дети могут увидеть на вашей платформе».

В январе 2019 года британская телеведущая Рэйчел Райли опубликовала заявление не только в Twitter, но и в «Таймс», чтобы высказать более широкой аудитории свою смелую позицию против трусливого антисемитского троллинга, который стал нормой поведения самопровозглашенных сторонников лидера оппозиции Джереми Корбина. «Чем больше я говорю, тем больше оскорблений получаю в свой адрес, – заявляет Рэйчел в газете, – и чем больше оскорблений я получаю, тем больше говорю. Дошло до того, что я перестала пролистывать свою ленту в Twitter ... Там сплошь оскорбления».

В ходе расследования, проведённого в прошлом году, блогеры Engadget и Point опросили модераторов онлайновой платформы Reddit, которая входит в тройку самых популярных сервисов в США после Google и YouTube. Расследование выявило, что зарегистрированные пользователи Reddit выступают против любой цензуры и реагируют на неё очень остро: все десять опрошенных модераторов признались, что им угрожали физической расправой, а женщинам поступали угрозы изнасилования. Они жаловались на то, что «Reddit зачастую не может противостоять угрозам, от которых они страдают ... и [часто] ничего не предпринимает, игнорирует заявления модераторов о нарушениях сетевой этики и об оскорблениях».

Можно было бы продолжать и дальше говорить об этом, так как примеров тематических исследований, отчётов и аналитики имеется бесконечное множество. Это превратилось в одну из глобальных проблем нашего времени. Ведь мы доверяем платформам большую часть нашей жизни. И эти же платформы подспудно влияют на наших детей. Что-то явно должно измениться.

 

Спасёт ли нас ИИ?

«Могут ли машины мыслить?» – так начинается статья «Вычислительные машины и разум» (1950), в которой описывается так называемый тест Тьюринга для ИИ, в процессе которого машина, общаясь с человеком, даёт такие ответы, которые вводят собеседника в заблуждение, заставляя его думать, что он говорит с человеком.

Похоже, что ИИ не просто имитирует разговор, но и принимает разумные решения и автоматизирует деятельность человека. Почти 70 лет тест Тьюринга существовал в качестве эталона, а в прошлом году Google Duplex продемонстрировали новые возможности ИИ. Он создал систему искусственного интеллекта Duplex, технологию, которая позволяет голосовому ассистенту разговаривать вместо нас по телефону и бронировать, например, столик в ресторане. Самое впечатляющее состоит в том, что общается ИИ очень реалистично, даже делает паузы в нужных местах. Поэтому, скорее всего, тест Тьюринга эта система пройдёт запросто.

Пока газеты пестрят сообщениями об этой новой системе, которую демонстрирует генеральный директор Google Сундар Пичаи, небольшая группа разработчиков интернет-империи продолжает работать в своих офисах в Нью-Йорке, пытаясь решить более сложную проблему, чем просто прохождение ИИ теста Тьюринга.

Ещё в 2016 году Эрик Шмидт, председатель исполнительного комитета совета директоров компании Alphabet, которая владеет Google, объявил о преобразовании Google Ideas в технологический инкубатор, который на данный момент известен, как Jigsaw. «Миссия команды, – писал он, – заключается в использовании технологий для решения самых сложных геополитических задач: от предотвращения насильственного экстремизма и посягательств на свободу слова до уменьшения угроз, связанных с цифровыми атаками».

Джаред Коэн, генеральный директор с хулиганскими замашками и движущая сила Jigsaw, является скорее одним из номинальных руководителей в империи Google, ведь его личное участие в борьбе с экстремизмом противоречит политике успешного и исключительно прибыльного эксперимента компании по манипулированию человеческим поведением. При этом Jigsaw, определённо, находится на острие атаки, создавая программы в рамках проекта по защите молодежи от радикализации в интернете. Наше отношение и недоверие к перепрофилированию ИИ из коммерческого инструмента в систему альтруистическую, направленную на заботу о людях, – вещь чисто субъективная. Но цели и амбиции Jigsaw заслуживают похвалы.

Разнообразные проекты Jigsaw решают проблемы, связанные с интернетом: «от посягательств на свободу слова до цифровых атак на новостные сайты, от домогательств в интернете до вооруженного экстремизма». Большинство проектов сосредоточены на кибербезопасности и устойчивости: защита от хакерских атак, обеспечение прозрачности и ответственности в процессе коммуникации, борьба с цензурой. Об одном из этих проектов много говорили в феврале 2019 года. Технологии Project Shield обеспечивают защиту организаций, участвующих в политике Европейского Союза, от DDoS-атак – хакерских нападений на сайт для выведения его из строя. Голосование по «Брекзиту», вероятно, привлечёт исключительно пристальное внимание.

Система машинного обучения Conversation AI и основанный на ней проект Perspective резко отличаются от остальных разработок Jigsaw. Они направлены на решение наиболее сложной задачи и тщательно прорабатывают основные способы взаимоотношений ИИ и человека. Эти проекты были созданы для применения машинного обучения в процессе классификации и выявления оскорбительных выражений в интернете. Но фильтровать и изолировать недопустимые комментарии в процессе обычного разговора – более серьёзная проверка ИИ, чем бронирование столика в ресторане.

 

Однако...

В статье для компьютерного журнала PCMag Роб Марвин тщательно изучает процесс машинного обучения изнутри, чтобы оценить достигнутый прогресс. Первоначальным направлением деятельности проектной группы была модерация форумов, таких как Reddit, и разделов с комментариями к публикациям онлайн-СМИ, в частности «Нью-Йорк Таймс». Тут пока всё предельно ясно.

– Очень легко испортить онлайн-разговор, – объясняет Си Джей Адамс из команды Perspective. – Присоединиться к нему можно в два счёта, но достаточно одного по-настоящему озлобленного и токсичного комментария, чтобы затмить другие мнения. Может быть, 100 человек читают статью или начинают дискуссию. Но часто случается так, что всё сводится к тому, что в коллективной интернет-памяти остаются только голоса тех, кто громче всех надрывается, только самые яростные комментарии, ведь Сеть выбирает лишь то, чем люди поделились или что они лайкнули.

Для решения этой проблемы требуется «программа обработки текстов, написанных на естественных языках, которая, – как пишет Роб Марвин в своей статье, – разбивает предложение на отдельные фразы. И тут команда The Perspective сталкивается с такими сложностями, как предвзятость подтверждения, то есть склонность людей к подтверждению своей точки зрения, стадное мышление ввиду отсутствия собственной точки зрения и нападки, которые в онлайн-среде охватывают огромное количество пользователей. Именно поэтому эти сложности так трудно преодолеть».

Проект Perspective имел доступ к форуму газеты «Нью-Йорк Таймс», с помощью которого были проведены открытые эксперименты, чтобы научить алгоритмы работе с реальным контентом, были проанализированы массивы данных и осуществлено обучение ИИ. В конечном счёте, выводы проекта подтверждают данные, полученные с других платформ: ИИ не даёт простых ответов и не предполагает сокращение создаваемой в данный момент армии рецензентов контента и модераторов групп и форумов.

Роб Марвин указывает на блог Perspective под названием False Positive, где описывается опыт проекта, и делаются выводы. «Некоторые способы с самого начала работы показали себя плохо, разработчики использовали этот опыт проб и ошибок для совершенствования систем машинного обучения. Но даже эти изначально провальные методы кажутся по-настоящему захватывающими», – считает Марвин. И он абсолютно прав.

Короче говоря, главный посыл состоит в том, что машине трудно интерпретировать то, что лежит за рамками обычных подстрекательских, угрожающих или оскорбительных выражений. Ведь всем понятно, что в основе любого разговора лежат эмоции, интерпретации, различия в нюансах и сарказм. Только вплотную занимаясь изучением последствий машинного обучения, связанных с попыткой автоматизировать этот уровень понимания языка, можно понять, как далеко нужно зайти, прежде чем мы доберемся до принципов, лежащих в основе теста Тьюринга. Необходимо уверенно отмахнуться от примера 1950-х годов, так как он не имеет связи с современной реальностью. Убедить человека 1950-х годов – это не совсем то же, что убедить современного человека. Мы живём в Сети. Попробуй теперь нас убеди!

«Этот инструмент полезен для модерирования, осуществляемого человеком, но с применением машинных алгоритмов, – объясняет Адамс, – так как он не способен принимать решения сам. Но он может взять на себя решение проблемы поиска иголки в стоге сена, превратив стог в пучок сена, в котором содержится недоброжелательное высказывание, и показать его модератору».

«Нью-Йорк Таймс» положительно отзывается о принципе вычленения более узкого контекста из всего контента, ведь это позволяет модераторам оценивать материал из большего объёма информации, что является очень важным, так как лишь небольшой процент материала очищается автоматически или удаляется без ведома человека.

 

Изменится ли что-нибудь?

Для больших данных и социальных сетей последние 12 месяцев казались замедленным падением в бездну, сопровождающимся обличительными заголовками СМИ. Компании Google досталось не больше других, тут скорее отличился Facebook, который, казалось, решил следовать пиар-сценарию самого Ким Чен Ына. Сначала внутрикорпоративный протест против продажи ИИ правительству США заставил склонить знамёна Google, после чего ИТ-гигант пообещал прекратить продажу систем распознавания лиц правоохранительным органам. Ошибки безопасности в Google+ и массовое увольнение сотрудников в связи с сексуальными домогательствами со стороны руководителей пошатнули незыблемость Google.

В конце января 2019 года вокруг Google опять было много разговоров, спровоцированных новой книгой Шошаны Зубофф «Эпоха надзорного капитализма», в которой автор заявляет, что надзорный капитализм появился благодаря Google и что именно он вовсю раскручивает новую область: многомиллиардную экономику данных: «Google открыл качественно новый актив с нулевой первоначальной стоимостью, который легко превратился из инструмента улучшения сервиса в инструмент повышения прибыли. Через какое-то время Facebook заполучил методы работы надзорного капитализма и сделал их стандартной процедурой для сбора информации (и обогащения) в Кремниевой долине, которую используют все стартапы и приложения».

Google так же, как и все остальные, несёт ответственность за социальные сети, ставшие для современного мира этаким монстром Франкенштейна. В начале 2019 года заголовки газет пестрили разоблачениями, связанными с использованием персональных данных пользователей социальных сетей и их беспощадной коммерциализацией.

Теперь ИИ вмешивается во все сферы – воображаемые и реальные – нашей жизни, и поэтому вполне уместно попытаться установить правила игры. Если это вообще возможно. Ведь по иронии судьбы гораздо сложнее контролировать то, что мы говорим, чем влиять на то, что мы думаем. И ничего с этим не поделаешь.

По-настоящему сложный вопрос, однако, заключается в том, насколько искренне стремятся к этому компании, включая Google. Возможно, угроза введения регулирования и санкций станет стимулом для дальнейших инвестиций в технологии ИИ. Но опять же, есть общее понимание того, что попытки ограничить процессы внутри Сети маловероятны и малоэффективны. Ответом Facebook на пиар-вызовы этого года, в том числе публичный скандал с Apple, стала публикация отчёта о рекордных финансовых показателях корпорации.

«Остерегайся, ибо я бесстрашен и поэтому всесилен!», – воскликнуло чудовище, встретившись лицом к лицу со своим создателем в романе Мэри Шелли.

 

Автор: Зак Доффман

Оригинал: https://www.forbes.com/sites/zakdoffman/2019/02/01/googles-mission-impossible-use-ai-to-detoxify-the-internet/#743cd10f4e5a

Переводчик: Алёна Бакшеева

Редактор: Анна Малявина

Просмотров: 189
Читайте также:
Поделиться с друзьями
Назад к списку статей