Механизмы управления могут обеспечить безопасное использование технологий ИИ

Механизмы управления могут обеспечить безопасное использование технологий ИИ

В рамках диалога с парламентариями 8 октября 2023 г. на Форуме IGF 2023 состоялась сессия: «Содействие надежным инновациям: как механизмы управления могут обеспечить безопасную разработку и использование технологий искусственного интеллекта» (Facilitating trustworthy innovation: how governance frameworks can enable the safe development and use of artificial intelligence).

Механизмы управления могут обеспечить безопасное использование технологий ИИ

В дискуссии участвовал член парламента ЮАР, представители ЮНЕСКО (модератор), компаний OpenAI, EY, Kaspersky, Африканского института науки и технологии Танзании. 

Цифровые технологии произвели революцию в общении в онлайновом пространстве. Однако объем дезинформации в сети резко возрос, ставя под сомнение достоверность и надежность потребляемых данных. Новейшие технологии, такие как искусственный интеллект (ИИ), также усиливают угрозы дезинформации и недостоверной информации, позволяя масштабировать и широко распространять непроверенные или ложные сведения. Сегодня правительства могут столкнуться с трудностями в борьбе с дезинформацией в Интернете, если не будет обеспечено сотрудничество на всех уровнях между различными заинтересованными сторонами, включая парламентариев.

На сессии состоялось обсуждение следующих вопросов:

- Как политическая, нормативная и законодательная базы могут способствовать сотрудничеству в области разработки ИИ на основе доверия, продолжая при этом стимулировать инновации? 

- Как обеспечить, чтобы разработка и использование технологий ИИ были безопасными, справедливыми, подотчетными, прозрачными, объяснимыми и заслуживающими доверия?

- Как укрепить сотрудничество между правительствами, промышленностью, экспертами и гражданским обществом для разработки и внедрения норм и руководящих принципов, касающихся ответственного использования ИИ?

- Как обеспечить соответствие ИИ универсальным правам и ценностям человека при широком распространении технологии в обществе, в экономике и политике?


Участниками было отмечено, что нельзя лишать какие-либо регионы мира или какие-либо сектора экономики возможности использовать различные инструменты и ценности, возникающие на основе технологии.  

Отмечено также, что регулирование не должно создавать искусственных препятствий для разработчиков ИИ, поскольку необходимо продолжать поощрять творческий подход к делу. Однако нормативная практика должна создавать дополнительные стимулы для компаний, занимающихся разработкой и внедрением ИИ. Регулирование должно учитывать общий объем данных в контуре обработки и, в частности, охватывать многоцелевые системы ИИ, обученные на большом количестве данных из открытых источников, а также системы, которые применяются в областях, где высоки риски и необходим высокий уровень ответственности. Кроме того, нормативные акты должны отражать отраслевые требования к системам ИИ, поскольку каждая область применения (среда использования) имеет свои особенности. Высказывалось мнение, что именно ценности приведут нас к сбалансированному регулированию ИИ.

Представитель Южной Африки рассказал, что в его стране парламентарии опираются прежде всего на Конституцию и закон о защите данных, который оберегает личную информацию граждан. 

Спикер от компании EY отметил, что при подходе к регулированию мы не всегда понимаем, что реально хотят люди. Так, например, можно рассмотреть уровень конфиденциальности, который мы предоставляем своему мобильному телефону.  Те же самые наборы данных могут быть использованы в системе искусственного интеллекта, и мы даже не заметим этого. Он предположил, что понимание технологии должно лежать в основе регулирования, как такового. 

Участники сессии ответили на вопросы аудитории - членов парламентов из различных стран. В том числе из зала прозвучал вопрос о том, как электронный сельскохозяйственный инструмент с поддержкой ИИ может принести пользу фермеру в Гане, если базы данных, используемые для обучения этого инструмента ИИ приспособлены для Техаса?  Отвечая на вопрос, представитель OpenAI рассказал, что большие языковые модели обучаются на той части Интернета, которая в основном англоязычная, на которой было проведено самое качественное первоначальное обучение. Они не отражают языки всего мира в той степени, в которой должны.  И есть действительно значительные пробелы в производительности, однако модели эволюционируют и именно к этому стремятся разработчики. Был приведен пример проекта Pilate Bronco для правительства Исландии. Исландский язык и его представительство в Интернете очень малы, число говорящих на нем очень мало, и убедиться, что язык может быть использован инструментами на основе ИИ, выяснить, какие методы исследования позволят преодолеть некоторые из этих пробелов — это большая исследовательская задача.

Представитель компании EY также пояснил, что ставится цель разрабатывать инструменты для человечества, а не для конкретного региона мира.  Это то, к чему следует стремиться - превратить инструменты ИИ в общее хранилище человеческих знаний.  

 


Другие новости