Институт развития информационного общества
   

Представитель ИРИО участвовал в обсуждении Кодекса этики искусственного интеллекта

20 августа 2021 года на площадке Аналитического центра продолжилось обсуждение Кодекса этики в сфере искусственного интеллекта. Модератором мероприятия выступил заместитель руководителя Аналитического центра, руководитель Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Сергей Наквасин.

Национальные рекомендации по этике искусственного интеллекта разрабатываются по поручению президента России и в соответствии с положениями Национальной стратегии развития искусственного интеллекта до 2030 года, а также Концепции регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Аналитический центр работает над документом совместно с Минэкономразвития России и Альянсом в сфере искусственного интеллекта. В настоящее время эксперты работают над аргументами в пользу конкретных рамок, которые обеспечат этичное развитие технологий ИИ.

«Мы хотим, чтобы Россия попала в десятку передовых стран-разработчиков этических норм в сфере искусственного интеллекта. Нельзя ждать, когда нашим разработчикам будут навязаны стандарты, по которым им придется работать. Лучше разработать свои стандарты и продвигать их на мировом уровне», — пояснила референт Управления по развитию информационно-коммуникационных технологий и инфраструктуры связи Администрации Президента София Захарова.

Она добавила, что Кодекс должен выполнять, в том числе, и просветительскую функцию. «Наиболее важная задача – вызвать доверие общества к технологиям. Мы сможем этого добиться, если открыто расскажем, на каких принципах и правилах будут разрабатываться и внедряться технологии искусственного интеллекта», — пояснила Захарова. Кроме того, по ее словам, в отсутствие законодательного регулирования, Кодекс станет гарантией для самих разработчиков и защитит их от недобросовестной конкуренции.

Как рассказал управляющий директор центра регулирования ИИ ПАО «Сбер» Андрей Незнамов, Кодекс будет регламентировать работу регуляторов, разработчиков, заказчиков, эксплуатантов, пользователей систем искусственного интеллекта (СИИ), экспертов и операторов СИИ и др. лиц, потенциально имеющих возможность влияния на СИИ. Нормы кодекса будут носить рекомендательный характер и распространяться на всех участников рынка, независимо от их государственной принадлежности. «При разработке норм Кодекса мы опирались на человекоцентричный принцип, в соответствии с которым технологии должны способствовать реализации всех потенциальных возможностей человека, риск-ориентированный принцип — любая технология должна рассматриваться с точки зрения не только пользы, но и рисков для интересов человека и общества, а также принципы предосторожности и ответственного отношения. Наша задача сделать так, чтобы максимально предотвращать вред и обеспечить безопасность разработок», — пояснил Незнамов.

Эксперт перечислил ключевые принципы Кодекса этики в сфере ИИ. Так, по его словам, главный приоритет развития технологий ИИ состоит в защите интересов людей. Кроме того, в Кодексе говорится о необходимости осознавать ответственность при создании и использовании ИИ, которая всегда лежит на человеке. «Технологии ИИ можно и нужно незамедлительно внедрять там, где это принесёт пользу людям. Интересы развития технологий ИИ должны быть выше интересов конкуренции, — перечислил Незнамов. — Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, о возможностях, рисках, успехах и неудачах применения».

Как отметили участники круглого стола, принципы этики должны развиваться по мере появления новых знаний, вызовов и возможностей. Эксперты обратили внимание на то, что в отличие от норм права, положения Кодекса не будут иметь юридической значимости. Поэтому ключевым механизмом применения Кодекса должно стать общественное внимание к теме и порицание тех, кто нарушает этические нормы. Компании, не выполняющая требования документа, будет нести репутационные и экономические, а не юридические потери.

В выступлении Юрия Хохлова, председателя Совета директоров Института развития информационного общества, прозвучало несколько тезисов.

Во-первых, нужно четко определить целевую аудиторию Кодекса. С одной стороны, его разрабатывает профессиональное сообщество, поэтому текст изобилует профессионализмами и специальными терминами. С другой стороны, Кодекс должен быть понятен любому гражданину России, потому что одной из целей его создания – преодолеть недоверие населения к искусственному интеллекту. Одно дело – говорить с профессионалами о том, как должны проектироваться системы искусственного интеллекта, чтобы они следовали неким принципам этики, а другое – объяснять гражданам, как этично использовать сервис или решение, основанное на технологиях искусственного интеллекта. Это две совершенно разные задачи, поэтому рекомендуется сначала определиться с целевыми аудиториями и, возможно, делать разные документы для каждой из них.

Во-вторых, в предлагаемом Кодексе обозначены далеко не все основные заинтересованные стороны. Весьма детально прописано все, что связано с разработчиками систем искусственного интеллекта, вплоть до подкатегорий. Из научно-образовательного сообщества выделена только экспертная часть. На самом деле необходимо говорить о четырех основных группах стейкхолдеров: власть, бизнес, гражданское общество и уже упомянутое научно-образовательное сообщество.

В-третьих, в предлагаемом тексте с места в карьер формулируются принципы этики разработки систем искусственного интеллекта, но не говорится, какая же этическая система берется за основу. Понятно, что этическая система западного мира радикально отличается от этики конфуцианства или буддизма, и нужно хорошо понимать, что мы будем использовать в России, какими этическими принципами должны руководствоваться разработчики и потребители решений и сервисов на основе ИИ. Без этого очень трудно представить себе ограничения, которые следует заложить в создаваемые системы искусственного интеллекта.

В-четвертых, необходимо определиться с площадками, на которых будет вестись обсуждение основных положений Кодекса. Упоминались органы законодательной власти, общественная палата и другие, но речь не шла о комиссии Государственного Совета Российской Федерации по направлению «Коммуникации, связь, цифровая экономика». А это тоже очень важная площадка.

Планируется, что Кодекс этики в сфере искусственного интеллекта будет представлен осенью.

Источники: Сайт Аналитического центра при Правительстве РФ, ИРИО