23 декабря 2022

Цифровое общество: как ИИ модерирует контент

В мире часто происходят скандалы вокруг модерации контента в сети с помощью искусственного интеллекта. Но чаще всего в них виноваты сами люди, а не машины.

Десять лет назад, в 2012 году, крупная американская социальная сеть, принадлежащая Марку Цукербергу, провела тайный эксперимент над более, чем 689 тысячами своих подписчиков. В течение недели одни пользователи видели в новостной ленте только позитивные сообщения и картинки, другие – только негативные, а специалисты сети отслеживали, как эмоциональная окраска постов влияет на настроение людей.

О проведенном эксперименте общественность узнала лишь в 2014 году, когда по его результатам вышла научная статья. Ученые сделали вывод, что манипуляция контентом влияет на эмоции людей и на их поведение затем в реальной жизни.

Пользователи тогда пришли в негодование, но социальная сеть их гнев проигнорировала. Крупные социальные медиа продолжили модерировать контент, а в 2020 году, в самый разгар пандемии, стали использовать новые алгоритмы машинного обучения, которые, как заявил Марк Цукерберг, могут обнаружить на платформе 95% экстремистских высказываний до того, как они попали к модераторам.

Однако использование этих алгоритмов привело к множеству скандалов в сети и поставило перед обществом серьезные вопросы о сохранении права человека на свободный доступ к информации, на свое мнение и на свободный выбор товаров и услуг.

Удобный, быстрый и выгодный

Сейчас алгоритмы отсеивают информацию в социальных медиа с помощью премодерации и постмодерации. При премодерации контроль осуществляется перед публикацией материала в сети, при постмодерации – после. Сторонники использования ИИ ссылаются на объем данных в интернете, который уже не под силу контролировать людям. По подсчетам одной из крупнейших в мире SMM-платформ, в 2022 году число активных пользователей социальных медиа во всем мире достигло 4,62 млрд человек и, по прогнозам, каждый год эта цифра будет увеличиваться на 10%. К 2025 году люди ежедневно будут размещать в сети контент объемом в 463 эксабайта (каждый эксабайт равен 1 млрд гигабайтов), что превосходит информацию, которую можно записать на 200 млн DVD-дисках, подсчитали эксперты Всемирного экономического форума.1

В отличии от человека машина быстро просматривает контент, анализирует его, выбирает потенциально опасные высказывания и помечает их как вредоносные. Это облегчает работу людям-модераторам, которые в ручном режиме проверяют затем уже отобранный искусственный интеллектом материал.

Во многих исследованиях отмечается, что использование ИИ для модерации контента имеет массу преимуществ.

  • Пользователи меньше сталкиваются в онлайн-пространстве с оскорблениями, экстремизмом и прочей опасной с точки зрения морали и здоровья информацией. Они также осторожнее относятся к тому, что сами публикуют. Например, опрос, проведенный в США одной известной исследовательской компанией, показал, что почти треть пользователей (28%) за свою жизнь размещали в сетях что-то, о чем сожалеют. При этом 65% этих людей сказали, что опубликовали пост сгоряча, не подумав.
  • Компаниям, присутствующим в онлайне, ИИ помогает защищать их бренды и поддерживать положительный потребительский опыт, т.к. быстро обрабатывает большие объемы контента и удаляет информацию, которая порочит компанию, ее продукцию или сотрудников.
  • Сами социальные медиа выиграли от внедрения ИИ, потому что им больше не надо держать большой штат модераторов и платить им зарплаты. По данным известного американского рекрутингового сайта, в США модератор, например, в среднем зарабатывает $47 883 в год. Известно, что в этом году в одной крупном американском социальном медиа уволили 60 модераторов контента.
  • Продолжающие работать модераторы с удовольствием передали черновую часть работы машинам, поскольку слишком интенсивное общение с пользователями в сети нередко сказывалось на их психическом здоровье. Журналисты популярного американского интернет-издания о компьютерных технологиях в течение нескольких лет собирали истории модераторов контента в социальных сетях и пришли к выводу, что у людей этой профессии высок риск развития проблем с психическим здоровьем. Известен случай, когда в 2020 году модераторы получили по досудебному урегулированию от крупного американского социального медиа $52 млн за психологическую травму.

Борцы за свободу и любители порядка

Казалось бы, использование ИИ в модерации контента должно было упорядочить жизнь в виртуальном пространстве. Но произошло обратное. С появлением ИИ-модерации в мире стали еще чаще происходить скандалы из-за оскорблений в сети, подтасовки фактов, размещения ложной информации и блокировки аккаунтов даже самых известных и наделенных властью людей. Достаточно вспомнить скандал вокруг блокировки в известной всем социальной сети аккакунта Дональда Трампа.

Скандалы и ограничения разделили аудиторию на тех, кто готов принять новую реальность с автоматизированной модерацией и даже находит в этом определенную пользу, и на тех, кто категорически не согласен и ищет способы избежать контроля.

Люди сталкивались с ограничениями доступа к информации задолго до появления ИИ, например, одни книги сжигались, другие не издавались, пропаганда действовала всегда и везде, рассуждает Ксения Трифонова, директор по внешним и внутренним коммуникациям крупной российской бизнес-школы.

С настоящей свободой информации и самовыражения общество столкнулось, когда интернет только появился. В полудиком виртуальном пространстве царила полная свобода, продолжает мысль Владимир Дюбанов, гендиректор крупной ИТ-компании в Новосибирске. Ни к чему хорошему это, по его мнению, не привело.

«Свобода выбора сейчас часто подменяется чрезмерным разнообразием товаров, услуг, мнений, высказываний. И человек теряется в этом потоке», – говорит он. Между тем, умный ИИ тоже предоставляет нам выбор, но после того, как сам нашел для нас лучшее и наиболее подходящее. Вычислить, что нам подходит, не так и сложно: обычно человеку нравится то, что нравится большинству, и поэтому предложение ИИ выгодно и ему лично, и рынку в целом.

Иногда пользователи пытаются разобраться во всем самостоятельно: они верят, что, прочитав в интернете множество материалов, где высказаны диаметрально противоположные мнения, смогут сформировать более или менее объективное мнение. Но собрав информацию, понимают, что так и не докопались до истины. Многие чувствуют разочарование, делится наблюдениями Алексей Дрозд, начальник отдела информационной безопасности одной российской компании, работающей в сфере кибербезопасности. В результате уставшие после рабочего дня и перегруженные множеством дел люди часто не хотят читать первоисточники и просматривают в интернете готовую аналитику, которую робот-модератор для них отобрал и им рекомендовал.

«Мы часто сами помещаем себя в так называемый информационный зорб, в этакий информационный прозрачный шар, в котором нам удобно и комфортно», – замечает Ксения Трифонова. Если пытаться охватить своим умом всю информацию в сети, можно лишиться душевного здоровья, полагает она.

«А я не согласен с ограничениями. Пусть будет полная свобода. И если кто-то допустил ошибку или бестактность, пусть его порицает в сети общественность, а не блокирует искусственный интеллект», – высказывает противоположную точку зрения Павел Думов, руководитель команды Data Science крупной ИТ-школы для взрослых.

Непонятно, почему искусственный интеллект должен навязывать человеку свои рекомендации, возмущается Лариса Малькова, управляющий директор практики «Прикладной искусственный интеллект» крупной консалтинговой компании. «Я, например, активный пользовательYoutube. И что я только не пыталась делать, чтобы отключить рекомендации в отношении контента, которые он мне постоянно выдает. Мне этот контент не подходит по своей идеологической направленности», – сетует она. По ее мнению, у человека в сети должна быть свобода выбора: если ему нужны рекомендации, пусть смотрит, но, если они ему не нужны, он должен иметь право их отключить.

Алгоритмы, хоть и обучаются, все равно не поспевают за развитием человеческой мысли. Ограничивая нам доступ к информации в интернете, они снижают тем самым творческий потенциал человечества, не давая нам высказывать порой крамольные, но прорывные идеи или слишком односторонне оценивая сложную и многогранную личность человека, замечает Александр Сафонов, профессор кафедры управления персоналом и психологии, и проректор Финансового университета при правительстве России. Он убежден, что излишний контроль машин над информацией может затормозить развитие общества.

Несовершенный и несамостоятельный

В защиту искусственного интеллекта ИТ-специалисты говорят о его несовершенстве и ограниченных возможностях. Современные алгоритмы еще довольно примитивны: они отсеивают контент по отдельным словам и картинкам, которые, согласно заложенной в них программе, кажутся им опасными. При этом они не принимают в расчет семантику слова, например, не могут правильно определить, в каком значении употребляется в конкретном тексте слово «бомба», рассказывает Владимир Дюбанов.

Непонимание алгоритмами контекста приводит к глупым ошибкам, которые вызывают у пользователей приступы хохота или сарказма. Например, сортируя и распределяя хорошие и плохие отзывы о товаре, алгоритм может отнести к недостаткам товара его очевидные достоинства для людей, замечает Павел Думов.

Алгоритмы, продолжает Павел, все время обучаются на огромном количестве текстов, они учатся распознавать слова, в которых содержатся оскорбления, призывы к насилию, войне, расизму, фашизму, то есть ко всему, что преследуется по закону. Но этого обучения пока недостаточно. Машины не понимают не только контекста, они не улавливают также эмоциональную окраску текста, будь то насмешка, юмор или ирония.

Техническое несовершенство алгоритмов, однако, лишь часть проблемы. Мы часто склонны очеловечивать искусственный интеллект в то время, как он не обладает самосознанием и лишь имитирует чувства людей, если на это запрограммирован, напоминает Сергей Белановский, известный социолог и в прошлом директор Центра стратегических разработок (ЦСР). Он приводит в пример эпизод из фантастического романа, где мужчина-робот дарил цветы женщине-роботу, а та смущалась. Но эти чувства были лишь записанным алгоритмом, а не настоящими эмоциями, добавляет ученый.

Все попытки научить искусственный интеллект самостоятельно общаться с людьми и стать равноправным членом интернет-сообщества пока терпят крах, замечает Алексей Дрозд. Он вспоминает, как в 2016 году крупная американская ИТ-компания через сутки удалила из известной социальной сети своего чат-ботаTay: обучаясь на общении людей друг с другом, бот быстро скатился в пропаганду фашизма и расизма, а, кроме того, начал клеймить феминисток.

В современном мире ИИ, по сути, лишь инструмент в руках человека, этакая новая лопата эпохи информационного общества, которую мы используем в своих целях, рассуждает Лариса Малькова. Сначала большой ценностью для людей была земля, потом – средства производства, затем – нефть и газ, а теперь еще и искусственный интеллект, который модерирует или рекомендует нам в сетях тот или иной контент так, как это выгодно разным политическим, финансовым, коммерческим структурам и группировкам, говорит она. Цель всегда одна: либо вызвать неприятие, либо сформировать лояльность.

Если же говорить про общение людей в социальных сетях, то это по-прежнему территория людей, а не роботов. И на этой территории действует старый принцип: свобода одного человека заканчивается там, где начинается свобода другого, делится своими мыслями Ксения Трифонова из бизнес-школы. Когда один человек оскорбляет другого, он нарушает базовые принципы общения. В этой ситуации можно лишь установить правила взаимодействия людей в социальной сети, которые нельзя нарушать, и поставить роботов на страже этих правил.

Законы и их недостатки

Чтобы урегулировать общение в сети, страны написали уже целый ворох законов. Например, в США давно существует первая поправка к конституции, которая устанавливает право на свободу слова для физических лиц и не позволяет правительству это право нарушать, а также раздел 230 закона о соблюдении приличий в общении. Однако юридический казус в том, что, интернет-платформы не считают себя связанными первой поправкой и устанавливают собственную политику в отношении контента и кодекса поведения в сети. Кроме того, раздел 230 закона о соблюдении приличий защищает веб-хостинги, социальные сети, операторов-вебсайтов и других посредников в общении от ответственности за высказывания своих пользователей. Все это позволяет крупным интернет-платформам модерировать контент, не опасаясь ответственности за свои действия, что вызывает недовольство властей и заставляет разные штаты принимать собственные законы об общении в социальных сетях.

Например, во Флориде в 2021 году ограничили возможности платформ в деплатформинге, то есть удалении лица или группы лиц с платформы, а также в теневом бане, когда платформа отказывается публиковать контент пользователя, не соблюдающего правила соцсети. Это правило касается в первую очередь удаления с платформы политиков и журналистов. Еще на стадии принятия этого закона сенат штата постановил, что за один день деплатформинга политического кандидата на уровне штата социальная сеть будет платить штраф в $250 тысяч, а за деплатформинг любого другого кандидата на более низком уровне – $25 тысяч.

Законы в отношении модерации в интернете утвердил в июле 2022 года и Европейский парламент. Два акта, Digital Services Act и Digital Markets Act, вводят термин «прозрачность и подотчетность интернет-платформ», что подразумевает раскрытие информации по модерации контента и использования автоматизированных систем рекомендаций. Закон вступит в силу на территории ЕС с 1 января 2024 года.

В России закон, регулирующий мониторинг информации в социальных сетях, принят еще в декабре 2020 года в качестве поправки в закон об информации, информационных технологиях и защите информации. Согласно нему, компания-владелец социальной сети обязана не допускать распространения информации об использовании наркотиков, о способах самоубийства, а также не размещать детскую порнографию и любые экстремистские, призывающие к насилию или оскорбляющие граждан высказывания.

Кроме этого, введены соответствующие статьи в КоАП и в Уголовный кодекс, а в 2021 году издано постановление правительства о регламенте подачи жалоб гражданами на ущемление их прав в социальных сетях, уточняет Юлия Замятина, партнер крупной юридической компании, защищающей права российского бизнеса в России и за рубежом. Однако, говорит она, все принятые законы носят общий характер. Это позволяет технологическим платформам трактовать его положения довольно широко. Зачастую они перестраховываются, чтобы у них не было проблем с государством, и настраивают автоматическую модерацию на изъятие всего мало-мальски подозрительного контента.

Пользователи в свою очередь пытаются избежать контроля, обманывая искусственный интеллект всеми возможными способами: одни искажают написание слов, другие ставят в слове лишнюю «звездочку» или еще какой-нибудь знак, третьи переформулируют свои высказывания так, что машина не видит скрытый смысл слов, или используют Эзопов язык. При этом в суд с жалобами на ущемление свободы самовыражения никто не идет. Юлия говорит, что не слышала о подобных процессах. По ее словам, подавать такой иск многим кажется бессмысленным: даже если пользователю удастся после двухлетней тяжбы выиграть дело, пост, из-за которого он судился, будет уже неактуальным.

Туманное будущее

Трудно предположить, какими будут взаимоотношения искусственного интеллекта и человека в отдаленном будущем, но в ближайшей перспективе ИИ продолжит служить людям, вопрос в том, как это будет происходить, размышляет Владимир Дюбанов. Уже сейчас есть настораживающие тенденции, например, введение социального скоринга в некоторых странах, где алгоритмы тестируют детей в начальной школе для определения их будущей специальности и на основе портрета человека в сети делают вывод о допуске его к определенным должностям.

Это – тревожная тенденция, она говорит о том, что ИИ дает властям всех уровней, включая и правительства, и корпорации, инструмент для эффективного контроля за человечеством. Когда речь идет, скажем, о соблюдении ПДД, такой контроль может пойти на пользу, но в более тонких и сложных вопросах он может породить ошибки, предвзятость и нарушение прав, размышляет социолог Сергей Белановский. Однако, полагает он, обществу будущего хватит сил контролировать доступ к информации и собственные свободы через механизмы выборов, общественных движений и даже института жалоб.

В таком обществе, продолжает Белановский, ИИ, скорее всего будет выполнять функцию контроля и наказания. Но властям придется помнить, о том, что ИИ может быть и обоюдоострым орудием: если они перегнут палку, оппозиция может обратить ИИ против них самих. Все зависит от того, кто и на что запрограммирует роботов.

Человечество вряд ли когда-нибудь создаст всесильный ИИ, который будет сам всеми повелевать, предполагает Алексей Дрозд. Ведь такой искусственный интеллект должен стать либо будет, либо совершенным сверхчеловеком, возможно, злым, а, возможно, добрым. Или же он вообще не будет похож на людей и его логика будет нам непонятна. Так зачем же его создавать?

Сейчас, когда ИИ только недавно появился в нашем мире, дискуссия о войне людей и машин неактуальна. Важнее то, что в наше время идут поиски модели построения общества будущего. Пока мы не понимаем полностью, куда мы пойдем, но ценности будущего определяет в любом случае человек, а не робот. И строить общество будущего будет именно человек, а ИИ будет ему в этом помогать, заключает Лариса Малькова.

Источник: SBER AI

Исследование iTrend: зарплата для ИТ-специалистов — не решающий фактор при выборе работодателя

23 апреля 2024

Эксперты коммуникационного агентства iTrend провели исследование, в рамках которого проанализировали критерии выбора работы, а также медиапредпочтения более 300 высокоуровневых специалистов из крупных российских ИТ-компаний.

 

Команда iTrend начала работу с Институтом iSpring

19 апреля 2024

Институт iSpring — частный ИТ-вуз нового поколения. Он был основан в 2021 году в Йошкар-Оле российским предпринимателем и основателем международной ИТ-компании iSpring Юрием Усковым.

 

Вебинар РУССОФТ, iTrend и BiToBe: «Работодатель-as-a-Service: новая реальность привлечения ИТ-специалистов»

15 апреля 2024

23 апреля в 15:00 пройдет открытый вебинар «Работодатель-as-a-Service: Новая реальность привлечения ИТ-специалистов»

 

iTrend: освоить маркировку интернет-рекламы можно только на собственном опыте

25 марта 2024

В феврале 2024 года в Москве прошла Конференция «Digital-коммуникации России». Организатор мероприятия – Ассоциация директоров по коммуникациям и корпоративным медиа России (АКМР). Эксперты конференции обсудили острые вопросы рынка digital, в том числе маркировку интернет-рекламы. Об опыте коммуникационного агентства в рамках перехода на работу по новым правилам рассказала Екатерина Саранцева, директор по развитию iTrend.

 

Медиалогия: iTrend – в ТОП-4 коммуникационных агентств по медиаиндексу за январь 2024 года

20 марта 2024

Коммуникационное агентство iTrend вошло в пятерку агентств, получивших наиболее высокий медиаиндекс по данным рейтинга «Медиалогии» за январь 2024 года. Компания заняла четвёртую строчку ранкинга, набрав 433,2 пункта МИ. Медиаактивность участников рынка оценивалась на основе анализа базы российских СМИ, включающей в себя более 88 тыс. источников — ТВ, радио, газеты, журналы, информационные агентства и Интернет-СМИ.

 
Все новости iTrend