Конвенция принята 17 мая 2024 г. в ходе 133-й встречи Комитета министров Совета Европы (СЕ). Она стала итогом двухлетней работы Комитета по искусственному интеллекту СЕ (CAI), объединившего 46 стран-членов Совета Европы и 11 не входящих в него государств (Аргентина, Австралия, Канада, Коста-Рика, Ватикан, Израиль, Япония, Мексика, Перу, США и Уругвай), а также представителей частного сектора, гражданского общества и научных кругов, которые участвовали в качестве наблюдателей. Главная цель этого международного юридически обязывающего договора, по словам Генсека организации Марии Пейчинович-Бурич, выражена в стремлении обеспечить ответственное применение ИИ таким образом, чтобы в полной мере соблюдались все стандарты и договорённости СЕ в области прав человека, верховенства закона и демократии. Кроме того, у документа высокий «экспортный потенциал» в части продвижения во вне концептуальных подходов к регулированию ИИ-технологий. Не анонсированная дополнительная выгода от присоединения к документу состоит в возможной легализации принципа «позитивной дискриминации». Так, если ИИ-системы родом из стран-участниц Конвенции, то они априори будут считаться «хорошими» и «демократичными», т.е. котироваться выше, чем аналоги от не членов «клуба». Конвенция будет открыта для подписания всеми желающими странами начиная с 5 сентября 2024 г. Для вступления в силу необходимо собрать всего пять подписей.
Как явствует из названия, документ строится на правочеловеческой парадигме рисков (основные риски, которые несут в себе алгоритмические системы для прав человека, демократии, верховенства права) и в этом смысле текст во многом повторяет недавно принятый закон Евросоюза по ИИ и даже под него адаптирован. В частности, допускается возможность блокировки/моратория на развёртывание ИИ-систем с высоким риском – чуть ли не главная особенность профильного закона ЕС по ИИ.
Конвенция устанавливает требования к прозрачности и надзору с учетом конкретных условий и рисков, включая выявление контента, создаваемого ИИ-системами. Страны-подписанты должны будут принимать меры по выявлению, оценке, предотвращению и смягчению возможных рисков и оценивать необходимость введения моратория, запрета или других соответствующих мер в отношении использования ИИ-систем, если их риски могут быть несовместимы со стандартами СЕ в области прав человека.
Что касается рисков в области демократии, то договор требует от его участников принять меры для обеспечения того, чтобы ИИ-системы не использовались с целью подрыва демократических институтов и процессов, включая принцип разделения властей, уважение независимости судебных органов и доступ к правосудию. Иными словами, речь идёт об обязательстве не применять умные алгоритмы для ведения прокси- и информационных войн в цифровом пространстве.
Примечательно, что участники Конвенции не обязаны применять её положения к деятельности, связанной с защитой интересов национальной безопасности, но обязаны обеспечивать соблюдение в этой деятельности норм международного права и демократических институтов и связанных процессов. Конвенция не будет применяться к вопросам национальной обороны, а также к научно-исследовательской деятельности, за исключением случаев, когда тестирование ИИ-систем может нарушить права человека, демократию или верховенство закона.
Конвенция императивно возлагает на каждую страну-участницу обязанность по созданию независимого надзорного механизма по контролю за соблюдением документа. В этом же ключе в обязательном порядке должна вестись работа по повышению осведомленности, стимулированию общественных дебатов и проведение консультаций с участием всех заинтересованных сторон по вопросам использования ИИ-технологий.