В дискуссии участвовал член парламента ЮАР, представители ЮНЕСКО (модератор), компаний OpenAI, EY, Kaspersky, Африканского института науки и технологии Танзании.
Цифровые технологии произвели революцию в общении в онлайновом пространстве. Однако объем дезинформации в сети резко возрос, ставя под сомнение достоверность и надежность потребляемых данных. Новейшие технологии, такие как искусственный интеллект (ИИ), также усиливают угрозы дезинформации и недостоверной информации, позволяя масштабировать и широко распространять непроверенные или ложные сведения. Сегодня правительства могут столкнуться с трудностями в борьбе с дезинформацией в Интернете, если не будет обеспечено сотрудничество на всех уровнях между различными заинтересованными сторонами, включая парламентариев.
На сессии состоялось обсуждение следующих вопросов:
- Как политическая, нормативная и законодательная базы могут способствовать сотрудничеству в области разработки ИИ на основе доверия, продолжая при этом стимулировать инновации?
- Как обеспечить, чтобы разработка и использование технологий ИИ были безопасными, справедливыми, подотчетными, прозрачными, объяснимыми и заслуживающими доверия?
- Как укрепить сотрудничество между правительствами, промышленностью, экспертами и гражданским обществом для разработки и внедрения норм и руководящих принципов, касающихся ответственного использования ИИ?
- Как обеспечить соответствие ИИ универсальным правам и ценностям человека при широком распространении технологии в обществе, в экономике и политике?
Участниками было отмечено, что нельзя лишать какие-либо регионы мира или какие-либо сектора экономики возможности использовать различные инструменты и ценности, возникающие на основе технологии.
Отмечено также, что регулирование не должно создавать искусственных препятствий для разработчиков ИИ, поскольку необходимо продолжать поощрять творческий подход к делу. Однако нормативная практика должна создавать дополнительные стимулы для компаний, занимающихся разработкой и внедрением ИИ. Регулирование должно учитывать общий объем данных в контуре обработки и, в частности, охватывать многоцелевые системы ИИ, обученные на большом количестве данных из открытых источников, а также системы, которые применяются в областях, где высоки риски и необходим высокий уровень ответственности. Кроме того, нормативные акты должны отражать отраслевые требования к системам ИИ, поскольку каждая область применения (среда использования) имеет свои особенности. Высказывалось мнение, что именно ценности приведут нас к сбалансированному регулированию ИИ.
Представитель Южной Африки рассказал, что в его стране парламентарии опираются прежде всего на Конституцию и закон о защите данных, который оберегает личную информацию граждан.
Спикер от компании EY отметил, что при подходе к регулированию мы не всегда понимаем, что реально хотят люди. Так, например, можно рассмотреть уровень конфиденциальности, который мы предоставляем своему мобильному телефону. Те же самые наборы данных могут быть использованы в системе искусственного интеллекта, и мы даже не заметим этого. Он предположил, что понимание технологии должно лежать в основе регулирования, как такового.
Участники сессии ответили на вопросы аудитории - членов парламентов из различных стран. В том числе из зала прозвучал вопрос о том, как электронный сельскохозяйственный инструмент с поддержкой ИИ может принести пользу фермеру в Гане, если базы данных, используемые для обучения этого инструмента ИИ приспособлены для Техаса? Отвечая на вопрос, представитель OpenAI рассказал, что большие языковые модели обучаются на той части Интернета, которая в основном англоязычная, на которой было проведено самое качественное первоначальное обучение. Они не отражают языки всего мира в той степени, в которой должны. И есть действительно значительные пробелы в производительности, однако модели эволюционируют и именно к этому стремятся разработчики. Был приведен пример проекта Pilate Bronco для правительства Исландии. Исландский язык и его представительство в Интернете очень малы, число говорящих на нем очень мало, и убедиться, что язык может быть использован инструментами на основе ИИ, выяснить, какие методы исследования позволят преодолеть некоторые из этих пробелов — это большая исследовательская задача.
Представитель компании EY также пояснил, что ставится цель разрабатывать инструменты для человечества, а не для конкретного региона мира. Это то, к чему следует стремиться - превратить инструменты ИИ в общее хранилище человеческих знаний.