«Яков и Партнёры» и Альянс в сфере искусственного интеллекта проанализировали российский и международный опыт регулирования генеративного искусственного интеллекта (ГенИИ).
Авторы определили наиболее благоприятные страны для развития искусственного интеллекта. Все государства в данной работе распределены по нескольким группам в зависимости от уровня зрелости нормативной базы и степени свободы для компаний — разработчиков ГенИИ. К первой группе лидеров отнесли США, Израиль, Сингапур, ОАЭ и Россию: этих странах созданы наиболее благоприятные условия, способствующие развитию ИИ и привлечению инвестиций. Во вторую группу вошел Китай, который одновременно использует две модели: создает более комфортные условия для своих разработчиков и барьеры по выходу на внутренний рынок зарубежных поставщиков. В третью попали ЕС, Канада и Бразилия. Последние страны ставят целью максимальное снижение потенциальных рисков от внедрения и использования технологии, что создает существенные препятствия для развития ГенИИ.
Помимо этого, в ходе исследования был проведен анализ произошедших в мире инцидентов с участием ГенИИ и выделены и описаны пять самых релевантных рисков, которые связаны с развитием генеративного ИИ: рост объема некачественного контента, созданного с помощью ГенИИ; потенциальный вред от ложных ответов ГенИИ; негативное влияние на рынок труда; цифровое мошенничество; нарушение этических норм.
Ключевые выводы:
- в настоящее время ни в одной из стран нормативно-правовая база не покрывает весь жизненный цикл сервисов на основе ГенИИ, а также от разработки и обучения моделей до использования конечных ответов ИИ. Это обусловлено тем, что нет общепринятых правил митигации рисков, поэтому страны постепенно вводят и тестируют требования на тех этапах, которые считают для себя рискованными;
- Россия, США, Израиль, Сингапур и ОАЭ названы самыми благоприятными странами для развития ИИ;
- исследование показало, что во всем мире основные риски в развитии технологии связаны с ответственным отношением разработчиков и пользователей к сгенерированному контенту;
- большинство рисков, как считают авторы, можно минимизировать за счет маркировки генеративного контента, в том числе скрытой, создания сервисов для проверки наличия сгенерированных элементов, ответственного отношения к работе с технологией, повышения цифровой и правовой грамотности населения: информирования о рисках и возможностях ГенИИ, особенностях и ответственности за использование данной технологии, а также понимания пользователями необходимости критически воспринимать контент, сгенерированный ИИ;
- учитывая опыт зарубежных стран и темпы развития ИИ в России, наиболее оптимальным экспертам представляется механизм саморегулирования, который сохраняет баланс между введением регуляторных правил и возможностями для развития технологий.