8 октября 2021

Человек, робот и закон

Власти Китая представили этические правила использования искусственного интеллекта (ИИ). Эта мера – один из эпизодов взрывного роста интереса к общественным отношениям, связанным со смарт-технологиями. Эксперты Научно-технического центра Главного радиочастотного центра (НТЦ ГРЧЦ) сравнили опыт правового регулирования этой сферы в разных государствах.

КОДЕКС ДОЛЖНЫ ЧТИТЬ

В конце сентября Министерство науки и технологий Китая опубликовало «Кодекс этики искусственного интеллекта». Согласно ему, ИИ должен:

  • быть контролируемым;
  • заслуживать доверие;
  • повышать человеческое благополучие;
  • обеспечивать честность и справедливость;
  • защищать приватность и безопасность;
  • повышать этическую грамотность.

Люди имеют право выбора, пользоваться услугами с применением ИИ или прекращать работу с ними в любое время, говорится в документе.

В КНР на государственном уровне подобный стандарт разработан впервые, пишет South China Morning Post. С помощью него Китай стремится обеспечить себе мировое лидерство в этой области к 2030 году и ослабить влияние глобальных технологических компаний, отмечает издание.

Российский кодекс по этике ИИ будет представлен для рассмотрения в правительстве уже в конце октября. Он разработан участниками Альянса в сфере искусственного интеллекта совместно с Аналитическим центром при правительстве РФ и Минэкономразвития. Документ станет частью федерального проекта «Искусственный интеллект» и Стратегии развития информационного общества на 2017–2030 годы.

 

ВСЕМ МИРОМ

Бурным дискуссиям о регулировании ИИ способствует резкое усиление влияния инноваций во всем мире из-за пандемии, отмечают эксперты Главного радиочастотного центра в своем исследовании. По их мнению,

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ ПО СВОЕЙ ПРИРОДЕ ИМЕЮТ ТРАНСГРАНИЧНЫЙ ХАРАКТЕР, ИХ РЕГУЛИРОВАНИЕ ТОЛЬКО НА НАЦИОНАЛЬНОМ УРОВНЕ ВРЯД ЛИ БУДЕТ ЭФФЕКТИВНЫМ

Разработка таких международных документов уже началась – ЮНЕСКО, Организация экономического сотрудничества и развития, Совет Европы, ООН сейчас активно обсуждают их.

Верховный комиссар ООН по правам человека Мишель Башле (Michelle Bachelet) в сентябре призвала запретить применение технологий ИИ, несущих риск реализации человеком своих прав. Верховный комиссар обращает внимание на стремление частных компаний к сбору как можно большего объема персональных данных (ПД). Накопление, хранение, анализ гигантских массивов сведений делают человека уязвимым перед бизнесом и государством, отмечает она. Получение некоторыми госструктурами прямого доступа к ПД, накапливаемых компаниями, увеличивает риск незаконного вмешательства в частную жизнь людей и их фундаментальные права, подчеркивает представитель ООН.

Мишель Башле, ООН:

– Деятельность социальных сетей по сбору и анализу ПД, профилированию людей, таргетированию, персонализации рекламы, контента и рекомендаций, попытки предсказывать поведение людей и влиять на него являются одной из наиболее серьезных угроз правам и свободам человека.

Проанализировав последние события, специалисты НТЦ ГРЧЦ пришли к выводу, что развитое и современное законодательство о защите прав субъектов персональных данных является основой правового регулирования и предпосылкой для ответа на вызовы, создаваемые ИИ-системами. По мнению экспертов,

НАИБОЛЬШИМ ПОТЕНЦИАЛОМ ДЛЯ РЕГУЛИРОВАНИЯ ИИ ОБЛАДАЮТ ЕВРОПЕЙСКИЕ ДОКУМЕНТЫ О ЗАЩИТЕ ПЕРСОНАЛЬНЫХ ДАННЫХ: GENERAL DATA PROTECTION REGULATION (GDPR) И КОНВЕНЦИЯ 108+

Их преимущества: технологическая нейтральность, сбалансированный и риск-ориентированный подходы, использование гибких инструментов, независимость и значительные полномочия надзорных органов, а также эффективные механизмы реализации и правоприменения.

Но ни одна юрисдикция не способна в одиночку обеспечить регулирование и контроль над решениями на основе машинного интеллекта. Поэтому, считают в НТЦ ГРЧЦ,

ТОЛЬКО СОЧЕТАНИЕ НАЦИОНАЛЬНЫХ И ГЛОБАЛЬНЫХ ПРАВОВЫХ ИНСТРУМЕНТОВ, ТЕСНОЕ СОТРУДНИЧЕСТВО СТРАН И НАЛИЧИЕ МЕЖДУНАРОДНЫХ МЕХАНИЗМОВ ПРИНУДИТЕЛЬНОГО ПРАВОПРИМЕНЕНИЯ СПОСОБНЫ ЗАСТАВИТЬ ИИ СЛУЖИТЬ ЛЮДЯМ

При этом регулирование смарт-технологий требует гибких подходов: саморегулирования, стандартизации, морально-этической коррекции, маркировки, использование кода и метаданных.

 

В ПОИСКАХ БАЛАНСА

В России регулирование сферы ИИ началось не так давно: в 2019 году была утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года. В 2020 году принят закон, в котором содержится понятие «искусственный интеллект». Закреплено и определено это понятие и в Стратегии, также там описаны «технологии ИИ», «набор данных», «вычислительная система» и другие – всего 12 терминов, которых нет в законе «Об информации, информационных технологиях и о защите информации». Об этом рассказал RSpectr управляющий партнер адвокатского бюро «Матюнины и Партнеры» Олег Матюнин. Введение в закон терминов, закрепленных в Стратегии, – принципиальный момент для развития законодательства, подчеркивает он.
В пункте №19 «Стратегии» перечислены принципы развития и использования умных технологий. Они имеют все шансы стать правовыми и войти в закон об информации, считает эксперт.

Олег Матюнин, «Матюнины и Партнеры»:

– Стратегия называет законные и незаконные направления и цели использования ИИ, и их тоже имеет смысл перенести в исходном или переработанном (расширенном) виде в правовые нормы.

По его мнению,

НАЧАЛО РЕГУЛИРОВАНИЯ ИИ ПОЛОЖЕНО, И ЗАДАЧА ГОСУДАРСТВА – ДОЙТИ В РАСПРЕДЕЛЕНИИ ДОПУСТИМОГО И НЕДОПУСТИМОГО, ПООЩРЯЕМОГО И ЗАПРЕЩАЕМОГО ДО ЛОГИЧЕСКОГО КОНЦА

Юрист Центра интеллектуальной собственности «Сколково» Алла Тиунова перечислила RSpectr наиболее острые и дискуссионные вопросы взаимодействия нейросетей и права.

  • Возможность признания ИИ субъектом права. Одной из частных целей наделения ИИ правосубъектностью является возможность возложить на него ответственность за причиненный вред.

Алла Тиунова, Центр интеллектуальной собственности «Сколково»:

– Реальной возможности получить от ИИ возмещение вреда нет – он не имеет обособленного имущества, из которого впоследствии будут удовлетворены требования, не способен самостоятельно отстаивать свои интересы в суде. Так или иначе отвечает владелец или разработчик технологии.

  • Взаимодействие технологий ИИ и права интеллектуальной собственности. По мнению А.Тиуновой, здесь возникают вопросы о правовом режиме результатов деятельности умных систем и возможности их квалификации в качестве объектов интеллектуальной собственности. «Если мы положительно отвечаем на данный вопрос, возникает новый – кому принадлежат личные неимущественные и исключительные права и, соответственно, может ли быть искусственный интеллект субъектом права на создаваемые им объекты», – рассуждает юрист.
  • Вопросы правомерности использования объектов интеллектуальной собственности, в частности, объектов авторских и смежных прав, технологиями.

«Сейчас важно определить, какие основания свободного использования будут наиболее релевантными для технологий ИИ, и внести соответствующие изменения [в законодательство]. Они позволят избежать ситуаций, когда применение объектов интеллектуальной собственности для машинного обучения, например, будет признано нарушением исключительного права», – полагает она.

В любом случае вносимые в законодательство изменения должны быть поступательными, оправданными, отвечающими действительным потребностям общества, подчеркивает юрист.

Основатель и продюсер компании «РОББО» Павел Фролов отметил в разговоре с RSpectr, что правовая среда должна поддерживать баланс между интересами разработчиков инноваций и их потребителей. Для этого в российском законодательстве важно определить границы полномочий ИИ и сформировать типовые требования к умным системам, которые позволят гарантировать их качество и безопасность для заказчиков.

Павел Фролов, «РОББО»:

– При разработке нормативных актов, регулирующих сферу ИИ, нужно привлекать участников рынка: поставщиков соответствующих систем, их заказчиков и научно-исследовательские организации. Отличный пример – 23 Азиломарских принципа искусственного интеллекта, опубликованных в 2017 году при содействии Future of Life Institute и подписанных четырьмя тысячами экспертов.

Самым актуальным вопросом правового регулирования ИИ-систем, по мнению декана факультета интернет-профессий и искусственного интеллекта Университета «Синергия» Ильи Дубинского, являются правила работы с персональными данными.

Илья Дубинский, Университет «Синергия»:

– С одной стороны, ПД необходимо защитить, а с другой – дать компаниям возможность пользоваться ими, чтобы бизнес мог совершенствовать свои продукты и сервисы на основе машинного обучения.

По словам юриста GMT Legal Снежаны Поцелуевой, важно учитывать, что сейчас сложно говорить о существовании действительно «искусственного интеллекта», который был бы схож с человеческим разумом. «Современные программы, безусловно, умеют самообучаться, однако это происходит на основании анализа больших объемов данных. В этой связи необходимо сотрудничество экспертов в сфере IT и экспертов в сфере права для целей выведения наиболее оптимальных нормативных положений», – пояснила она RSpectr.

При этом необходимо осознавать автономность систем ИИ. Поэтому вопрос разграничения ответственности стоит остро, подчеркивает С.Поцелуева.

 

Источник: Rspectr.com

Наш PR-кейс вошел в шорт-лист "Инфоповодов 2022 года" в ИТ по версии "Медиалогии"

3 марта 2023

"Медиалогия" ежегодно рейтингует PR-кейсы по количеству публикаций в СМИ.

 

iTrend запустил серию прямых эфиров с ИТ-гостями - первый подкаст уже готов

17 февраля 2023

Слушайте или смотрите наш разговор про глобальный рынок в ИТ

 

Приглашаем в Пресс-центр iTrend – место встречи в Telegram для медиа и IT-компаний

9 февраля 2023

Наш пресс-центр – это инструмент для удобного взаимодействия между двумя сторонами.

 

Вышел свежий подкаст с основателями iTrend: Павлом Житнюком и Асей Власовой  

8 февраля 2023

Поговорили о бизнесе в ИТ, new media, продвижении в странах СНГ, о жизни и книжках

 
Все новости iTrend