16 декабря 2023

Кадры разрешают

Увольнение Сэма Альтмана, главы OpenAI, получило столь же громкий резонанс, как вывод на рынок самого ChatGPT. Мы не в первый раз наблюдаем смещение первых лиц, основателей и вдохновителей, но в этот раз коллектив компании выразил свою четкую позицию в открытом письме с требованием вернуть Альтмана и подтвердил готовность уйти вслед за ним в Microsoft. Хочется верить, что именно это письмо стало одной из главных причин для совета директоров пересмотреть свое решение и вернуть основателя на пост гендиректора.

Легкий в использовании ChatGPT позволял быстро написать не только сочинение, но и при желании программный код для не обладающего особыми навыками пользователя. Но это как отрыть ящик Пандоры: чем больше возможностей, тем больше способов достижения поставленных целей — и не всегда на благо.

В целом искусственный интеллект (ИИ), как и проект OpenAI, предназначен для развития нашего общества — вывод автоматизации на новой уровень. Генеративный ИИ появился много лет назад. Прародителем считается основатель теории информации Клод Шеннон, который проводил простейшие по нынешним меркам эксперименты, но на их основе сейчас обучаются такие помощники, как ChatGPT и «ЯндексGPT».

Шеннон брал большой текст, например Уильяма Шекспира, и вручную собирал статистику: какие буквы друг рядом с другом встречаются чаще в разных сочетаниях. А потом, также вручную, он запускал процесс генерации текста: все буквы формировали в соответствии со статистикой английского языка. Суть в том, что когда буквы независимы, то получается текст, где нет реальных слов. А по мере того как мы начинаем учитывать совместную встречаемость букв, тексты начинают становиться всё более похожими на реальные.

Именно такой подход используется в больших языковых моделях: они генерируют правдоподобные последовательности символов. Но оказалось, что если создать достаточно большой контекст, то внутри появляется что-то вроде модели мира. Обучаясь, нейросеть неявным образом понимает, например, что у света четыре стороны, но это всё не не значит, что у ИИ есть мышление, сознание. Генеративный искусственный интеллект просто подмечает сложные зависимости в данных.

Активное развитие ИИ началось с 2017 года, когда архитектуры нейросетей типа «трансформер» показали очень хорошие результаты для работы с очень длинным контекстом — на данный момент более 100 тыс. слов. Сейчас в мире полным ходом ведется гонка разработчиков генеративного ИИ, и глобальный успех ChatGPT, пристальное внимание общественности к внутренней жизни компании — наглядное тому подтверждение.

Конечно, уже давно понятно, что технологии искусственного интеллекта войдут во все сферы нашей жизни и столь сильный ресурс нуждается в строгом контроле. В свою очередь, OpenAI изначально была основана как исследовательская компания с весьма глобальной целью развития ИИ на пользу человечеству, не причиняя вреда. Столь грандиозные по масштабу замыслы воплотили весьма одиозные и известные предприниматели в области технологий — Илон Маск и Сэм Альтман, готовые привлекать активное внимание к мировым проблемам и искать возможности их решения. Они уже не раз высказывали мнение, что интенсивное развитие ИИ внутри больших коммерческих компаний разных стран может стать опасным для человечества, так как дает слишком большую концентрацию власти в одних руках.

ChatGPT — не просто генератор текстов, как и Wikipedia — не просто свободная энциклопедия. Чем больше пользователей собирает проект, тем сильнее его влияние, а влияние самой технологии ИИ просто безгранично и может стать неуправляемым без должного контроля. В связи с этим все современные генеративные модели имеют ряд ограничений, которые накладываются разработчиками на двух этапах. В самом начале, при сборе обучающей выборки, четко фильтруется, какие данные будут попадать в модель, идет отбор источников информации. Затем ограничения вводятся на этапе генерации: в сеть ставят различные фильтры, которые классифицируют сгенерированный нейросетью объект и проверяют, нет ли там запрещенного контента. Предполагается, что эти ограничения обезопасят нейросеть. Но удается это совсем не всегда — модели довольно непредсказуемы и могут выдать потенциальной «неправильный» контент, даже несмотря на фильтры.

В идее нести пользу человечеству закладываются гуманизм и этика, но сами эти понятия неоднозначны. В основе СhatGPT лежит большой датасет, который отражал особенности текущей западной повестки и, видимо, взгляды самих разработчиков. В процессе сбора большого количества примеров вопросов и ответов они ранжировали данные в соответствии с этими представлениями. В итоге СhatGPT нельзя назвать объективным и беспристрастным. Например, он склонен позитивно отзываться о деятельности Демократической партии и критиковать Республиканскую, и здесь чувствуется «родительское воспитание».

Те же самые правила учитывались и командой разработчиков. Например, в СhatGPT заложили ограничительные фильтры, касающиеся внешнего вида человека. Если попросить его прокомментировать фотографию человека с лишним весом, то никаких советов относительно системы питания и занятий спортом он не даст, потому что ему запрещено судить внешность. Фильтрация в СhatGPT и его развитие как ИИ-проекта, скорее всего, и вызвали кадровые потрясения, которые мы видим сейчас в компании OpenAI.

Влияние OpenAI сравнимо с Microsoft в IT в целом. Хочется верить, что возвращение Сэма Альтмана сохранит неизменной первоначальную задачу компании — всеобщую пользу технологий ИИ. Однако столь успешный проект перерос сам себя, что не может не привнести конфликт интересов. Вполне понятно и желание запустить просто обреченные на успех коммерческие проекты.

В любом случае мощная поддержка коллектива, общественности и, конечно же, Microsoft показала важность самой этой идеи. Но, вполне возможно, изменений в стратегии компании не избежать, и каким в будущем станет сервис, перестанет ли он быть таким доступным или наоборот, мы увидим в скором времени.

Автор: Павел Сухачев, директор по Data Science компании «Наносемантика», инженер лаборатории нейросетевых технологий и компьютерной лингвистики МФТИ
Источник: Известия

Клиенты iTrend — в числе лучших ИТ-работодателей России

13 февраля 2024

Клиенты коммуникационного агентства iTrend вошли в рейтинг лучших ИТ-работодателей страны по версии HeadHunter. В сегменте «IT и интернет» были отмечены технологическая корпорация VK, консалтинговая компания Axenix (ранее Accenture), а также компании IT_ONE, Innostage и «Эдит Про» (группа «Борлас»).

 

iTrend начал работу с одним из лидеров в области высокотехнологичных разработок для Интернет-рекламы — компанией Hybrid

16 января 2024

Компанией Hybrid занимает 2 место в рейтинге Программатических закупок в интернете от AdIndex.

 

iTrend займется личным брендингом ИТ-предпринимателей

15 января 2024

Мы запустили новое направление в агентстве — личный брендинг топ-менеджеров и предпринимателей в ИТ.

 

Российские ИТ в эпоху санкционных войн - точки роста и проблемы: вышла наша обзорная статья

7 января 2024

Материал подготовлен специально для авторитетного журнала "Россия в глобальной политике".

 
Все новости iTrend