На сессии «Необходимость доверенного искусственного интернета для создания лучшего мира» отмечалось, что заявленная разработчиком высокая эффективность не должна отменять необходимость сохранения прозрачности и наличия доступных инструментов верификации работы ИИ-системы со стороны потребителя. Кроме того, говорилось о необходимости развития национального регулирования внедряемых ИИ-технологий, прежде всего, в сфере медицины. Предпринимаемых «стандартных» усилий разработчиков на технологическом уровне по контролю качества и безопасности перспективных ИИ-решений, как показывает практика, недостаточно.
В ходе дискуссии была предложена универсальная карта оценки ИИ-технологий на различных уровнях, позволяющая выделять области ответственности по линии разработчик-государство. Согласно карте, национальный регулятор задает определенные параметры, которым должен отвечать будущий ИИ-продукт, а разработчик стремится на инженерном уровне предпринять необходимые меры по безопасности и объяснимости проектируемого ИИ-решения. Такое распределение сфер ответственности, как ожидается, должно способствовать появлению в гражданском обороте ИИ-технологий, которым можно будет доверять решение важных задач без излишнего контроля и перепроверки со стороны оператора ИИ-системы.
Аналитик Центра компетенций глобальной ИТ-кооперации Юрий Линдре считает, что несколько лет назад российские эксперты стояли у истоков концепции "доверенного ИИ". «Отрадно, что риски и угрозы, о которых постоянно говорят отечественные специалисты, теперь осознаются и на международном уровне. Постепенно формируется глобальный консенсус относительного того, что процесс принятия решения ИИ-системой должен быть понятным для человека. В противном случае такие ИИ-системы не должны получать широкое распространение, даже несмотря на формально высокую эффективность», - отметил специалист.