12 февраля 2024

Голоса будут под защитой государства

Гос­ду­ма РФ рас­смот­рит за­коноп­роект о за­щите го­лоса че­лове­ка от неп­ра­вомер­но­го ис­поль­зо­вания. По­водом пос­лу­жили неод­нок­рат­ные мо­шен­ни­чес­кие дей­ствия, лож­ные звон­ки от лиц - об­ла­дате­лей го­лоса и про­тивоп­рав­ные при­мене­ния го­лоса без сог­ла­сия его вла­дель­ца.

Об инициативе по защите голоса человека на пресс-конференции в Москве рассказал сенатор РФ, заместитель председателя совета по развитию цифровой экономики при Совете Федерации Артем Шейкин.

"Мы видим, что синтез голоса используется в различных направлениях. Пока у нас законодательно не закреплено понятие "голос гражданина". По аналогии с нормой в гражданском праве "охраны изображения гражданина" мы предлагаем расширить эту норму и добавить в нее "голос". Его обнародование должно допускаться только с согласия гражданина", - пояснил Артем Шейкин.

Также сенатор коснулся вопроса маркировки при использовании синтезированного голоса: "Компания должна уведомлять, что следующая информация использована при помощи искусственного интеллекта (ИИ). Кроме того, необходимо создание специального отдела, который будет заниматься вопросами функционирования и использования нейросетей. Отдел будет рассматривать жалобы, обращения граждан. В результате обнаружения правонарушений нужно будет удалять или блокировать запрещенный контент".

Исполнительный директор Ассоциации лабораторий по развитию искусственного интеллекта (АЛРИИ) Вячеслав Береснев поддержал позицию Артема Шейкина: "Ситуация с защитой биометрических данных, голоса и других данных, используемых нейронными сетями, сложна, поскольку стоит на стыке сразу нескольких направлений законодательства и требует взвешенной и консолидированной позиции. Излишние ограничения безусловно приведут нас к технологическому отставанию, но без них мы рискуем потеряться в мире цифровых двойников и иллюзий. Из-за новизны, сложности и массы потенциальных последствий шаги государства в этой сфере осторожны и, как может показаться, неторопливы".

Коммерческий директор системного интегратора X-Com Сергей Косецкий предложил вариант применения инициативы: "Вопрос регулирования технологии Deep Fake остро стоит на повестке дня. Инициатива призвана направить ее применение в законодательное русло. Одним из инструментов этого может быть обсуждаемая маркировка продуктов генеративного ИИ, для чего достаточно внедрить в алгоритм автоматический генератор уникальных меток контента. Это не потребует от разработчиков значительных временных и финансовых затрат, но кратно снизит применение ИИ в преступных целях".

Менеджер продуктов российской компании - разработчика сервисов и решений в области информационной безопасности Innostage Евгений Сурков рассказал, какие шаги нужно предпринять для реализации инициативы: "Массовая генерация дубликатов голоса граждан возможна благодаря легкости получения необходимых для этого образцов (например, через звонок с незнакомого номера). Чтобы усложнить сбор этих образцов, необходимо реализовать ряд дорогостоящих технических мер и совершенствование законодательной базы. Потребуется обеспечить четкую привязку номеров к конечному бенефициару - физическому/юридическому лицу либо группе лиц, исключить анонимизацию номера, выстроить процесс проверки лиц, с номеров которых производятся массовые обзвоны, на противоправные действия. Когда будут закрыты эти лазейки, останется вопрос защиты от утечек из электронных баз, используемых для хранения записей с голосом граждан - например, в службе поддержки различных компаний".

Директор центра разработки компании Artezio, специализирующейся на решениях по цифровой трансформации бизнеса, Дмитрий Паршин считает, что полностью избавиться от мошеннических действий невозможно: "С эффективными инструментами количество мошеннических действий после нововведений по защите голоса снизится значительно, так как увеличится риск раскрытия и наказания для злоумышленников. Кроме того, у потенциальных жертв будет больше возможностей проверить подлинность голоса и защитить права в случае нарушения. Однако полностью исключить возможность мошенничества невозможно, так как технологии синтеза голоса постоянно совершенствуются. Уже в 2025 г. мы придем к тому, что отличить подделку от оригинала на 100% будет практически невозможно без сложных инструментов и лабораторного исследования".

Источник: Comnews

Читайте наш кейс на РБК: как ИТ-компании прокачать бренд работодателя

16 июля 2024

Как вырастить штат ИТ-компании в 15 раз за 3 года - рассказываем в совместном кейсе с IT_ONE

 

Ася Власова – в шоу «Стражи Леса» на радио «ЭХО лОСЕЙ»

10 июля 2024

Ася Власова, сооснователь и управляющий партнёр агентства iTrend, приняла участие в шоу “Стражи Леса” на радио "ЭХО лОСЕЙ". Вместе с Еленой Бочеровой из компании "Киберпротект" поговорили о том, как выстраивать PR и коммуникации в ИТ.

 

Приглашаем на конференцию для директоров по маркетингу и PR-руководителей ИТ-компаний 

5 июня 2024

На мероприятии встретятся директора по маркетингу и PR-руководители крупных российских ИТ-компаний.

 

Экс-редактор Comnews присоединился к команде iTrend

30 мая 2024

На позицию руководителя проектов коммуникационного агентства iTrend вышел Денис Шишулин – ранее многолетний выпускающий редактор издательской группы ComNews, одного из самых авторитетных ИТ-изданий в России. В iTrend Денис будет отвечать за стратегическое руководство ряда PR-проектов с ИТ-компаниями, оперативное взаимодействие со СМИ, координацию работы команд, а также за качество проектов, которыми руководит в агентстве.

 

iTrend — в числе топ-агентств России по версии «Рейтинга Рунета»

28 мая 2024

Опубликованы итоги ранкинга коммуникационных агентств от «Рейтинга Рунета–2024». iTrend занял лидирующие места в ключевых для агентства срезах — PR в ИТ-отрасли, SMM в ИТ-отрасли, PR и SMM на аудиторию b2b enterprise, PR-аналитика, PR первых лиц и др.

 
Все новости iTrend