Eng

Аналитический центр при Правительстве Российской Федерации

Эксперты работают над Кодексом этики искусственного интеллекта

На площадке Аналитического центра продолжается обсуждение Кодекса этики в сфере искусственного интеллекта. Эксперты работают над аргументами в пользу конкретных рамок, которые обеспечат этичное развитие AI-технологий.

Национальные рекомендации по этике искусственного интеллекта разрабатываются по поручению президента России и в соответствии с положениями Национальной стратегии развития искусственного интеллекта до 2030 года, а также Концепции регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Аналитический центр работает над документом совместно с Минэкономразвития России и Альянсом в сфере искусственного интеллекта.

Как рассказал Управляющий директор центра регулирования AI ПАО «Сбер» Андрей Незнамов, Кодекс будет регламентировать работу регуляторов, разработчиков, заказчиков, эксплуатантов, пользователей систем искусственного интеллекта (СИИ), экспертов и операторов СИИ и др. лиц, потенциально имеющих возможность влияния на СИИ. Нормы кодекса будут носить рекомендательный характер и распространяться на всех участников рынка, независимо от их государственной принадлежности. «При разработке норм Кодекса мы опирались на человекоцентричный принцип, в соответствии с которым технологии должны способствовать реализации всех потенциальных возможностей человека, риск-ориентированный принцип - любая технология должна рассматриваться с точки зрения не только пользы, но и рисков для интересов человека и общества, а также принципы предосторожности и ответственного отношения. Наша задача сделать так, чтобы максимально предотвращать вред и обеспечить безопасность разработок», - пояснил Незнамов.

Эксперт перечислил ключевые принципы Кодекса этики в сфере ИИ. Так, по его словам, главный приоритет развития технологий ИИ состоит в защите интересов людей. Кроме того, в Кодексе говорится о необходимости осознавать ответственность при создании и использовании ИИ, которая всегда лежит на человеке. «Технологии ИИ можно и нужно незамедлительно внедрять там, где это принесёт пользу людям. Интересы развития технологий ИИ должны быть выше интересов конкуренции, - перечислил Незнамов. - Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, о возможностях, рисках, успехах и неудачах применения».

Как отметили участники круглого стола, принципы этики должны развиваться по мере появления новых знаний, вызовов и возможностей. Эксперты обратили внимание на то, что в отличие от норм права, положения Кодекса не будут иметь юридической значимости. Поэтому ключевым механизмом применения Кодекса должно стать общественное внимание к теме и порицание тех, кто нарушает этические нормы. Компании, не выполняющая требования документа, будет нести репутационные и экономические, а не юридические потери.

Планируется, что Кодекс этики в сфере искусственного интеллекта будет представлен осенью.

1 из 12

Темы статьи
Контекст