• Город
  • Наука и образование
Наука и образование

В России подписали первый этический кодекс в сфере искусственного интеллекта. У роботов теперь есть права? Ответственность?

В конце октября ведущие российские вузы, крупные компании, представители федеральных и региональных органов власти подписали первый в России кодекс этики в сфере искусственного интеллекта. Его цель — установить общие правила поведения для человека и технологий. «Собака.ru» поговорила с заведующим Лабораторией права и этики цифровой среды НИУ ВШЭ Арсением Майоровым и руководителем лаборатории «Машинное обучение» Университета ИТМО Андреем Фильченковым о том, что не так с понятием «искусственный интеллект» и что уже сейчас изменится с принятием документа.

80's Child/ Shutterstock

Арсений Майоров

Заведующий Лабораторией права и этики цифровой среды НИУ ВШЭ

Что не так с понятием «искусственный интеллект» на данный момент?

Определение термина «искусственный интеллект» — сложная проблема. В действительности под этими двумя словами кроется огромное количество других понятий. Зарубежные исследователи, чтобы избежать путаницы, используют термин «алгоритмы», поскольку это в большей степени отражает действительность. Важно осознавать, что единого «искусственного интеллекта» — автономной системы — до сих пока не существует. Есть только алгоритмы, выполняющие достаточно узкий и абсолютно конкретный набор задач, что не отрицает огромного потенциала ИИ как технологии.

Искусственного интеллекта как автономной системы до сих пока не существует.

Как взаимоотношения с искусственным интеллектом регулируются в Европе?

Зарубежный опыт регулирования искусственного интеллекта основывается на пристальном внимании к соблюдению прав человека и этических норм. Однако здесь сложность заключается в том, чтобы не подвергнуть новый технологический рынок излишнему и жесткому регулированию, поскольку это нанесет существенный удар по экономике стран. 

Сегодня в европейской практике есть несколько интересных документов, на которые стоит обратить внимание. Например, в 2018-м году Европейская комиссия по эффективности правосудия Совета Европы приняла этическую хартию об использовании искусственного интеллекта в судебных системах. А в 2020-м году утвердили документ Rome Call for AI Ethics, разработанный Ватиканом и поддержанный Microsoft и IBM. Он декларирует, что искусственный интеллект должен уважать неприкосновенность частной жизни, работать надежно и без предвзятости, учитывать потребности людей, а также действовать прозрачно.

Сложность заключается в том, чтобы не подвергнуть новый технологический рынок излишнему и жесткому регулированию.

А как в России?

В стране постепенно появляются нормы, регулирующие взаимоотношения между технологиями и человеком. Пока их немного, но они есть: например, сегодня существует ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"». Если не ограничиваться законодательными актами, то можно вспомнить Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024-го года, которая была утверждена Правительством РФ в прошлом году. Подобные документы позволяют формировать «систему координат» или даже нормативный фрейм для регулирования ИИ как технологии и как отдельной сферы цифровой экономики. 

FOTOSPLASH / Shutterstock

Почему необходимость в создании кодекса в сфере искусственного интеллекта у нас возникла позже?

В СССР ряд тем и направлений находились если не под цензурой, то вне поля интереса государства. Сюда мы можем отнести разработку нормативно-правового регулирования технологий при участии представителей социально-гуманитарных наук. В то же время в западных странах (ЕС и США) во второй половине ХХ века активно развивалось такое интересное направление, как Technology Assessment (TA). Так, например, в Германии с 1990-го года существует Бюро по оценке технологий Бундестага (ТАВ), которое исследует и составляет отчеты о развитии биоэтики, биофизики, биотехнологий и осуществляет консультации парламентариев. Есть надежда, что в России на фоне бурного роста цифровой экономики, будет увеличиваться интерес к исследованию искусственного интеллекта через призму философии, социологии, культурологии и других наук. Сегодня это уже происходит в США и КНР. 

Сегодня кодекс необходимо воспринимать как приглашение к диалогу, как open paper.

О действующем кодексе этики

Пока документ находится в начальной стадии разработки: для сравнения в кодексе этики ИИ, созданном Пентагоном, 276 страниц, а у нас пока — 12. Сегодня его необходимо воспринимать как приглашение к диалогу, как open paper — документ, который будет постоянно обновляться. Вместе с этим, некоторые формулировки кодекса остаются достаточно размытыми. Поэтому вопрос о том, что приобрел обычный гражданин от принятия данного кодекса, пока остается открытым. В ближайшем будущем появится экспертный совет по этике, который займется наполнением этого документа. Туда войдут видные ученые и практики, представители крупных компаний, таких как «Газпром нефть», «Сбербанк», «Яндекс» и другие.

Недавно стало известно, что представитель Совета Европы поддержал российский кодекс этики искусственного интеллекта. Это позитивное событие, которое создает пространство для диалога с зарубежными коллегами по вопросам регулирования ИИ и этическим рискам, связанным с развитием и использованием данной технологии. Думаю, этим необходимо пользоваться, так как речь идет не только об отдельных странах, но о будущем человечества в целом.

Участники кодекса показывают государству, что они способны на саморегулирование.

Что изменится с принятием кодекса уже сейчас?

Сегодня во многих странах мира доверие людей к IT-компаниям падает, в первую очередь — из-за неприятного ощущения, что корпорации обманывают пользователей, манипулируют ими. В этом контексте кодекс становится тем инструментом, который призван повышать доверие к бизнесу со стороны других стейкхолдеров. Да, кодекс не имеет юридической силы, но ведь моральные принципы не всегда должны иметь правовое выражение.

Через принятие документа бизнес демонстрирует государству и обществу желание занимать активную роль в формировании правил по развитию и использованию искусственного интеллекта. Их нарушение должно сопровождаться санкциями (пока только репутационными). Кроме того, участники кодекса показывают государству, что они способны на саморегулирование Это крайне важно, потому что в последние годы государственные органы власти достаточно активно занимаются вопросами нормативно-правового регулирования цифровой экономики и, в частности, в сфере ИИ.

Андрей Фильченков

Руководитель лаборатории «Машинное обучение» Университета ИТМО

Почему его дальнейшая проработка усложняется?

Этический кодекс нужен для того, чтобы задать некоторые общие нормы разработок, а также не допустить создания алгоритмов, способных нанести вред человеку. Поэтому главная мера — это определить то, что мы, человечество, нация, профессиональное сообщество считаем негативными последствиями. Данный кодекс может стать шагом к осмыслению указанных проблем. Задача усложняется тем, что нет абсолютно очевидных негативных и позитивных последствий у любых действий, поэтому впереди большая работа над тем, как объяснить всю сложность взаимодействия для искусственного интеллекта. Важно поднимать этические вопросы, связанные с технологическим прогрессом, и открыто их обсуждать.

Следите за нашими новостями в Telegram

Комментарии (0)

Авторизуйтесь

чтобы оставить комментарий.

Ваш город
Санкт-Петербург?
Выберите проект: