21 марта 2023

Параллельные миры ChatGPT

Глобальные IT-корпорации одна за другой создают нейросети, генерирующие контент. Умные боты по мере их масштабирования будут распространять все больше фейков, и людям станет сложнее отличать правду от лжи, констатируют собеседники RSpectr. Однако эксперты предупреждают – стоит опасаться не широкой доступности ИИ-решений, а монополизации технологии.

ГОНКА ЗА ИНТЕЛЛЕКТОМ

Автоконцерн General Motors в марте сообщил, что работает над виртуальным голосовым помощником, который использует модели ИИ на базе ChatGPT. Инструмент внедрила Coca-Cola для усиления маркетинговой политики. Подобных бизнес-проектов – десятки.

Напомним, технологии GPT (Generative Pre-trained Transformer), способные генерировать тексты, используются в Google с 2017 года. Модель ChatGPT от OpenAI, увидевшая свет в ноябре 2022-го, создала хайп благодаря удобному интерфейсу, что привело к массовому использованию нейросети.

ИИ-системы, подобные разработке OpenAI, и выпуск open-source-версий могут использоваться для автоматизации многих задач в экономике, делая процессы более эффективными и снижая затраты, сообщила RSpectr руководитель инсорсинговых направлений ГК ITGLOBAL.COM Ольга Звагольская.

Широкая доступность ИИ-систем в стиле ChatGPT и выпуск версий с открытым исходным кодом станет катализатором в сфере ИИ, отметил в разговоре с RSpectr руководитель практики машинного обучения и искусственного интеллекта Axenix (экс-Accenture) Алексей Сергеев.

Дизайнер цифровых продуктов ГК Selecty Александр Ушаков в беседе с RSpectr добавил, что

РАСПРОСТРАНЕНИЕ НЕЙРОСЕТЕЙ ДОЛЖНО ПРИВЕСТИ К УПРОЩЕНИЮ ОБЩЕСТВЕННОГО ДОСТУПА К ТЕХНОЛОГИЯМ ИИ И СОЗДАНИЮ НОВЫХ ПРИЛОЖЕНИЙ, КОТОРЫЕ УЛУЧШАЮТ ЖИЗНЬ ЛЮДЕЙ ВО МНОГИХ СФЕРАХ – В МЕДИЦИНЕ, ЛОГИСТИКЕ, ОБРАЗОВАНИИ

Учебные заведения уже внедряют ChatGPT в образовательный процесс. Так, с 10 по 12 марта в IT-школе GigaSchool прошел хакатон, где 30 команд создавали ИИ-проекты.

По словам Александра Ушакова, новые возможности с появлением ChatGPT получит и индустрия развлечений.

БОТЫ КАК ГРИБЫ

ChatGPT дает средневзвешенный ответ на основе многочисленных известных данных, констатировал генеральный директор ООО «Делись» Иван Линдберг. По его словам, практика тестирования показывает, что ответы не отличаются качеством.

Иван Линдберг, ООО «Делись»:

– Такие системы стоит воспринимать как демонстрационные образцы, а не как профессиональные инструменты. В информационном плане они несут больше вреда, чем пользы.

Любая самая эффективная технология востребована не только «правильными пчелами». В связи с чем возможны и нежелательные сценарии использования, связанные с мошенничеством, генерацией фейков и дезинформацией, отметил Алексей Сергеев.

Финская компания по информбезопасности WithSecure в 2023 году опубликовала исследование, в котором утверждается, что

CHATGPT МОЖЕТ УСПЕШНО ИСПОЛЬЗОВАТЬСЯ ДЛЯ ГЕНЕРАЦИИ ФЕЙКОВЫХ НОВОСТЕЙ

В декабре группа западных ученых использовала ChatGPT для написания научных статей. В некоторых докладах нейросеть подменяла факты об исследованиях. В январе ChatGPT ввел в заблуждение рекрутеров консалтинговой компании Schwa, которые приняли программу за реального соискателя и захотели с ним встретиться.

Вопрос размытия границ между правдой и ложью является одним из главных вызовов мира генеративных сетей, заявил в разговоре с RSpectr сооснователь Napoleon IT Руслан Ахтямов. По мнению эксперта, параллельный, полностью синтезированный информационный мир уже активно создается.

Люди будут привыкать, что при запросе информации сети отвечают правильно, и верить всем ответам, но многие – с увеличением количества чат-ботов – будут неверными. Передавая информацию, пользователи постепенно будут менять свои убеждения, считает директор по маркетингу компаний Homeapp и Interion Антон Калабухов. Эксперт отметил роль блогеров в создании некачественного контента.

Антон Калабухов, Homeapp и Interion:

– С ростом нейронных сетей они начнут еще меньше проверять факты, порог входа для новых авторов в онлайн будет снижаться, и люди будут писать о том, в чем вообще не разбираются.

Техноблогер и основатель интернет-магазина электроники imaxai.ru Максим Горшенин считает, что

ИИ-ИНСТРУМЕНТЫ, В КОТОРЫЕ СЕГОДНЯ ИНВЕСТИРУЮТ КРУПНЫЕ IT-КОМПАНИИ, СТАНУТ ОГРОМНЫМ ПОДСПОРЬЕМ ПРИ ВЕДЕНИИ ИНФОРМАЦИОННЫХ ВОЙН

Максим Горшенинimaxai.ru:

– Есть условная «Википедия», где для той или иной страны, в зависимости от того, с какого IP-адреса входит пользователь, одна и та же информация подается по-разному. Это так называемые когнитивные войны, когда применяется точечное воздействие. Порой даже не на граждан каких-либо государств, а на конкретную аудиторию. На пользователей может быть оказано такое влияние, что они будут думать, будто считают так сами, и в этом огромная опасность.

Путаница авторских текстов и сгенерированных нейросетью станет одной из главных проблем ближайшего будущего, дал прогноз в разговоре с RSpectr директор Центра исследования проблем информационной безопасности и цифровой трансформации СПбГУ Владислав Архипов.

Владислав Архипов, СПбГУ

– Нет никаких гарантий, что мой комментарий, который был направлен через мессенджер, сам не был создан нейросетью, а узнать это можно, только проконтролировав, как конкретно я его писал, но не из самого текста.

Председатель комиссии Гильдии российских адвокатов по защите и безопасности бизнеса Олег Матюнин сравнил программы-вирусы и генератор контента, основанный на ИИ. Эксперт считает, что возможностей уходить от ответственности у продукта новой технологической реальности ChatGPT пока побольше, чем у создателей вредоносного ПО.

Олег Матюнин, Гильдия российских адвокатов:

– Если хакерская атака – это виртуальный аналог вооруженного ограбления в восприятии пользователя, то тексты, созданные ChatGPT, больше напоминают грибы, растущие в лесу. Некоторые из них ядовиты, но выглядят как съедобные.

ПРИЧЕМ УГАДАТЬ, БУДЕТ ЛИ ДЕЙСТВОВАТЬ ЯДОВИТОЕ ВЕЩЕСТВО (ЛОЖНАЯ, ДЕСТРУКТИВНАЯ ИНФОРМАЦИЯ, ВКЛЮЧЕННАЯ В СГЕНЕРИРОВАННЫЙ КОНТЕНТ) НА ЧЕЛОВЕКА И КАК ИМЕННО, ПРАКТИЧЕСКИ НЕВОЗМОЖНО

В то время как последствия работы вирусов и других вредоносных программ известны еще до их попадания в устройство жертвы, уточнил Олег Матюнин.

Руслан Ахтямов рассказал, что ChatGPT уже можно использовать по API. По его словам, такая демократизация доступа обычных людей к генеративным сетям и сильному искусственному интеллекту (Artificial General Intelligence, AGI) приведет к подрыву тех бизнесов, в которых контент являлся исключительной ценностью.

Александр Ушаков считает, что

СОЗДАННЫЕ С ПОМОЩЬЮ НЕЙРОСЕТЕЙ ПРОГРАММЫ МОГУТ БЫТЬ ИСПОЛЬЗОВАНЫ ДЛЯ ГЕНЕРАЦИИ ПОДДЕЛЬНЫХ СООБЩЕНИЙ И НОВЫХ СПОСОБОВ ЗЛОУПОТРЕБЛЕНИЯ ПЕРСОНАЛЬНЫМИ ДАННЫМИ

Версии с открытым кодом могут быть обучены на недостоверных данных, что приведет к ошибкам в алгоритмах ИИ, указывает эксперт.

Использование ChatGPT в предпринимательской деятельности может привести к риску потери конфиденциальной информации и нарушению правил конкуренции, высказал свою точку зрения RSpectr гендиректор DigitMind Technologies Максим Няголов. Неслучайно корпорации начали ограничивать применение ИИ в деловой переписке.

ОПРАВДАНИЕ ТЕХНОЛОГИИ И РЕГУЛИРОВАНИЕ

Антон Калабухов отметил, что нейронные сети, как любое новшество, способно приносить вред на этапе развития. Антон Ушаков объяснил, что ChatGPT может не уметь обрабатывать редкие или неожиданные запросы и сценарии. Бот не обладает интуицией, пониманием и контекстом, все это может привести к ошибочным выводам.

Гендиректор programmatic-платформы RTBSape Сергей Самонин пояснил RSpectr, что гарантированно неверный результат может быть в том случае, когда заданы неправдоподобные начальные данные. Поэтому важно обращать внимание, по каким правилам и в каком формате создается и обрабатывается исходная информация.

Александр Ушаков напомнил, что различные сатирические новостные издания давно успешно практикуют информационные вбросы для различных корпоративных задач. Вероятно, скоро появятся новые разновидности систем безопасности, которые целенаправленно будут отслеживать прозрачность при разработке ИИ-систем.

Олег Матюнин подчеркнул, что российское законодательство содержит немалое количество запретов и ограничений, в случае если тексты, сгенерированные ИИ, распространяются под видом достоверной информации без каких бы то ни было предупреждений об их искусственном происхождении. По его словам,

УЗКИМ МЕСТОМ ЯВЛЯЕТСЯ СОЗДАНИЕ ФЕЙКА НЕ ВЛАДЕЛЬЦЕМ ПРОГРАММЫ, А ЕЮ САМОЙ БЕЗ ПРЯМОГО УЧАСТИЯ РАЗРАБОТЧИКА

Олег Матюнин, Гильдия российских адвокатов:

– Создаются некоторые логические трудности для решения вопроса о виновности конкретного человека. Признать ответственность ПО невозможно, поскольку оно средство, инструмент. Но эти трудности судебная практика постепенно преодолеет.

Алексей Сергеев согласен, что со временем общество выработает правовые и этические стандарты, а также механизмы регуляции, которые позволят найти баланс между свободой и прогрессом в разработке продуктов в области ИИ и их безопасностью. Эксперт считает, что опасаться сегодня следует не широкой доступности и выхода ChatGPT в Open Source, а обратной ситуации – монополизации технологии.

Алексей Сергеев, Axenix:

– Риск не столько в плоскости возможных классических последствий ограничения конкуренции, сколько в сфере этики. Обучением моделей для ботов занимаются люди, являющиеся носителями культурных, религиозных, корпоративных стандартов и представлений о правильном и неправильном. В этом ключе монополия на технологию превращается в монополию на «правильные» ценности.

Такое вряд ли случится, ведь глобальные IT-корпорации одна за другой создают нейросети. Например, собственный аналог ИИ-бота ChatGPT разрабатывает Amazon.

Из-за гонки в сфере ИИ даже большие компании вроде Microsoft «выкатывают» довольно сырые решения, что нарушает этические нормы, считает Ольга Звагольская. Эксперт отметила, что, вероятно, именно из-за этого Google не спешит со своей версией чат-бота на основе ИИ. В феврале корпорация анонсировала запуск Bard – конкурента ChatGPT. Но пока он доступен только ограниченному количеству тестировщиков.

Ольга Звагольская, ITGLOBAL.COM:

– Чтобы снизить эти риски, важно предусмотреть соответствующие гарантии для предотвращения распространения дезинформации. Это может включать в себя реализацию таких мер, как человеческий надзор и процедуры фактчекинга.

Источник: Rspectr.com

Исследование iTrend: зарплата для ИТ-специалистов — не решающий фактор при выборе работодателя

23 апреля 2024

Эксперты коммуникационного агентства iTrend провели исследование, в рамках которого проанализировали критерии выбора работы, а также медиапредпочтения более 300 высокоуровневых специалистов из крупных российских ИТ-компаний.

 

Команда iTrend начала работу с Институтом iSpring

19 апреля 2024

Институт iSpring — частный ИТ-вуз нового поколения. Он был основан в 2021 году в Йошкар-Оле российским предпринимателем и основателем международной ИТ-компании iSpring Юрием Усковым.

 

Вебинар РУССОФТ, iTrend и BiToBe: «Работодатель-as-a-Service: новая реальность привлечения ИТ-специалистов»

15 апреля 2024

23 апреля в 15:00 пройдет открытый вебинар «Работодатель-as-a-Service: Новая реальность привлечения ИТ-специалистов»

 

iTrend: освоить маркировку интернет-рекламы можно только на собственном опыте

25 марта 2024

В феврале 2024 года в Москве прошла Конференция «Digital-коммуникации России». Организатор мероприятия – Ассоциация директоров по коммуникациям и корпоративным медиа России (АКМР). Эксперты конференции обсудили острые вопросы рынка digital, в том числе маркировку интернет-рекламы. Об опыте коммуникационного агентства в рамках перехода на работу по новым правилам рассказала Екатерина Саранцева, директор по развитию iTrend.

 

Медиалогия: iTrend – в ТОП-4 коммуникационных агентств по медиаиндексу за январь 2024 года

20 марта 2024

Коммуникационное агентство iTrend вошло в пятерку агентств, получивших наиболее высокий медиаиндекс по данным рейтинга «Медиалогии» за январь 2024 года. Компания заняла четвёртую строчку ранкинга, набрав 433,2 пункта МИ. Медиаактивность участников рынка оценивалась на основе анализа базы российских СМИ, включающей в себя более 88 тыс. источников — ТВ, радио, газеты, журналы, информационные агентства и Интернет-СМИ.

 
Все новости iTrend