16 декабря 2023

Кадры разрешают

Увольнение Сэма Альтмана, главы OpenAI, получило столь же громкий резонанс, как вывод на рынок самого ChatGPT. Мы не в первый раз наблюдаем смещение первых лиц, основателей и вдохновителей, но в этот раз коллектив компании выразил свою четкую позицию в открытом письме с требованием вернуть Альтмана и подтвердил готовность уйти вслед за ним в Microsoft. Хочется верить, что именно это письмо стало одной из главных причин для совета директоров пересмотреть свое решение и вернуть основателя на пост гендиректора.

Легкий в использовании ChatGPT позволял быстро написать не только сочинение, но и при желании программный код для не обладающего особыми навыками пользователя. Но это как отрыть ящик Пандоры: чем больше возможностей, тем больше способов достижения поставленных целей — и не всегда на благо.

В целом искусственный интеллект (ИИ), как и проект OpenAI, предназначен для развития нашего общества — вывод автоматизации на новой уровень. Генеративный ИИ появился много лет назад. Прародителем считается основатель теории информации Клод Шеннон, который проводил простейшие по нынешним меркам эксперименты, но на их основе сейчас обучаются такие помощники, как ChatGPT и «ЯндексGPT».

Шеннон брал большой текст, например Уильяма Шекспира, и вручную собирал статистику: какие буквы друг рядом с другом встречаются чаще в разных сочетаниях. А потом, также вручную, он запускал процесс генерации текста: все буквы формировали в соответствии со статистикой английского языка. Суть в том, что когда буквы независимы, то получается текст, где нет реальных слов. А по мере того как мы начинаем учитывать совместную встречаемость букв, тексты начинают становиться всё более похожими на реальные.

Именно такой подход используется в больших языковых моделях: они генерируют правдоподобные последовательности символов. Но оказалось, что если создать достаточно большой контекст, то внутри появляется что-то вроде модели мира. Обучаясь, нейросеть неявным образом понимает, например, что у света четыре стороны, но это всё не не значит, что у ИИ есть мышление, сознание. Генеративный искусственный интеллект просто подмечает сложные зависимости в данных.

Активное развитие ИИ началось с 2017 года, когда архитектуры нейросетей типа «трансформер» показали очень хорошие результаты для работы с очень длинным контекстом — на данный момент более 100 тыс. слов. Сейчас в мире полным ходом ведется гонка разработчиков генеративного ИИ, и глобальный успех ChatGPT, пристальное внимание общественности к внутренней жизни компании — наглядное тому подтверждение.

Конечно, уже давно понятно, что технологии искусственного интеллекта войдут во все сферы нашей жизни и столь сильный ресурс нуждается в строгом контроле. В свою очередь, OpenAI изначально была основана как исследовательская компания с весьма глобальной целью развития ИИ на пользу человечеству, не причиняя вреда. Столь грандиозные по масштабу замыслы воплотили весьма одиозные и известные предприниматели в области технологий — Илон Маск и Сэм Альтман, готовые привлекать активное внимание к мировым проблемам и искать возможности их решения. Они уже не раз высказывали мнение, что интенсивное развитие ИИ внутри больших коммерческих компаний разных стран может стать опасным для человечества, так как дает слишком большую концентрацию власти в одних руках.

ChatGPT — не просто генератор текстов, как и Wikipedia — не просто свободная энциклопедия. Чем больше пользователей собирает проект, тем сильнее его влияние, а влияние самой технологии ИИ просто безгранично и может стать неуправляемым без должного контроля. В связи с этим все современные генеративные модели имеют ряд ограничений, которые накладываются разработчиками на двух этапах. В самом начале, при сборе обучающей выборки, четко фильтруется, какие данные будут попадать в модель, идет отбор источников информации. Затем ограничения вводятся на этапе генерации: в сеть ставят различные фильтры, которые классифицируют сгенерированный нейросетью объект и проверяют, нет ли там запрещенного контента. Предполагается, что эти ограничения обезопасят нейросеть. Но удается это совсем не всегда — модели довольно непредсказуемы и могут выдать потенциальной «неправильный» контент, даже несмотря на фильтры.

В идее нести пользу человечеству закладываются гуманизм и этика, но сами эти понятия неоднозначны. В основе СhatGPT лежит большой датасет, который отражал особенности текущей западной повестки и, видимо, взгляды самих разработчиков. В процессе сбора большого количества примеров вопросов и ответов они ранжировали данные в соответствии с этими представлениями. В итоге СhatGPT нельзя назвать объективным и беспристрастным. Например, он склонен позитивно отзываться о деятельности Демократической партии и критиковать Республиканскую, и здесь чувствуется «родительское воспитание».

Те же самые правила учитывались и командой разработчиков. Например, в СhatGPT заложили ограничительные фильтры, касающиеся внешнего вида человека. Если попросить его прокомментировать фотографию человека с лишним весом, то никаких советов относительно системы питания и занятий спортом он не даст, потому что ему запрещено судить внешность. Фильтрация в СhatGPT и его развитие как ИИ-проекта, скорее всего, и вызвали кадровые потрясения, которые мы видим сейчас в компании OpenAI.

Влияние OpenAI сравнимо с Microsoft в IT в целом. Хочется верить, что возвращение Сэма Альтмана сохранит неизменной первоначальную задачу компании — всеобщую пользу технологий ИИ. Однако столь успешный проект перерос сам себя, что не может не привнести конфликт интересов. Вполне понятно и желание запустить просто обреченные на успех коммерческие проекты.

В любом случае мощная поддержка коллектива, общественности и, конечно же, Microsoft показала важность самой этой идеи. Но, вполне возможно, изменений в стратегии компании не избежать, и каким в будущем станет сервис, перестанет ли он быть таким доступным или наоборот, мы увидим в скором времени.

Автор: Павел Сухачев, директор по Data Science компании «Наносемантика», инженер лаборатории нейросетевых технологий и компьютерной лингвистики МФТИ
Источник: Известия

Читайте наш кейс на РБК: как ИТ-компании прокачать бренд работодателя

16 июля 2024

Как вырастить штат ИТ-компании в 15 раз за 3 года - рассказываем в совместном кейсе с IT_ONE

 

Ася Власова – в шоу «Стражи Леса» на радио «ЭХО лОСЕЙ»

10 июля 2024

Ася Власова, сооснователь и управляющий партнёр агентства iTrend, приняла участие в шоу “Стражи Леса” на радио "ЭХО лОСЕЙ". Вместе с Еленой Бочеровой из компании "Киберпротект" поговорили о том, как выстраивать PR и коммуникации в ИТ.

 

Приглашаем на конференцию для директоров по маркетингу и PR-руководителей ИТ-компаний 

5 июня 2024

На мероприятии встретятся директора по маркетингу и PR-руководители крупных российских ИТ-компаний.

 

Экс-редактор Comnews присоединился к команде iTrend

30 мая 2024

На позицию руководителя проектов коммуникационного агентства iTrend вышел Денис Шишулин – ранее многолетний выпускающий редактор издательской группы ComNews, одного из самых авторитетных ИТ-изданий в России. В iTrend Денис будет отвечать за стратегическое руководство ряда PR-проектов с ИТ-компаниями, оперативное взаимодействие со СМИ, координацию работы команд, а также за качество проектов, которыми руководит в агентстве.

 

iTrend — в числе топ-агентств России по версии «Рейтинга Рунета»

28 мая 2024

Опубликованы итоги ранкинга коммуникационных агентств от «Рейтинга Рунета–2024». iTrend занял лидирующие места в ключевых для агентства срезах — PR в ИТ-отрасли, SMM в ИТ-отрасли, PR и SMM на аудиторию b2b enterprise, PR-аналитика, PR первых лиц и др.

 
Все новости iTrend