25 ноября 2022

Проект Билля о правах в области искусственного интеллекта

Проект Билля о правах в области искусственного интеллекта

Правление по научно-технической политике Белого дома опубликовало Проект Билля о правах в области искусственного интеллекта (The Blueprint for an AI Bill of Rights). 

Основное значение документа состоит в формулировании базовых принципов для руководства при проектировании, использовании и внедрении автоматизированных систем, которые потенциально могут оказать существенное влияние на права, возможности или доступ американской общественности к критическим ресурсам или услугам. Хотя документ не имеет обязательной силы и не является политикой правительства США, многие из его положений отражают меры защиты, предусмотренные Конституцией США или реализованные в рамках существующих законов США.

Поиск компромиссных решений и согласование принципиальных требований к автоматизированным системам свидетельствует о растущем запросе на их разработку и введение со стороны отдельных лоббистских кругов в органах власти США. В первую очередь, в этом заинтересованы ведущие разработчики, обеспечивающие IT-решениями в сфере менеджмента крупный американский бизнес и ТНК (к их числу относятся Oracle, IBM, Intuit, ADP и др.), а также разведывательные ведомства и службы по информационному контролю и надзору. 

Следует отметить, что не является инновационным явлением и использование инструментов такого рода в практике государственного социального управления и мониторинга. Применение подобной практики, в частности, вошло в обыденность в континентальном Китае, в том числе в рамках внедрения системы социального рейтинга. 

Выработка базовых принципов функционирования автоматизированных систем выводит на новую стадию и процесс регулирования "больших данных" (big data). В частности, в последние годы в системе государственно-частного взаимодействия возникла острая потребность сформировать общие правила по сбору и эксплуатации пользовательских данных. Об этом свидетельствует усилившаяся тенденция к злоупотреблению цифровыми платформами возможностью распоряжаться публичными данными пользователей – это все чаще приводит к судебным разбирательствам, финансовым и репутационным издержкам для всех сторон конфликта. 

При этом законодателям необходимо будет соблюсти баланс, при котором новый Закон о правах в сфере ИИ не будет нарушать прав граждан и в то же время будет содействовать динамичному развитию рынка цифровых услуг и более глубокой цифровизации американского общества в целом.

Содержание Проекта: 

В качестве основы для применения автоматизированных систем в обществе предложены пять принципов:

1. Участники должны быть защищены от небезопасных и неэффективных систем. 

2. Участники не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и проектироваться справедливым образом

3. Участники должны быть защищены от неправомерного использования данных с помощью встроенных средств защиты, а также иметь свободу действий в отношении того, как используются их данные.

4. Участники должны быть в курсе того, что в их отношении используется автоматизированная система, и понимать, как и почему она способствует достижению результатов, которые оказывают на них влияние. 

5. Участники должны иметь возможность отказаться от пользования системой там, где это уместно, и иметь доступ к лицу, которое может быстро рассмотреть и устранить проблемы, с которыми они сталкиваются.

Описание каждого принципа сопровождает три ключевых раздела: 

1)    Почему данный принцип важен:

В этом разделе приводится краткое изложение проблем, которые принцип стремится решить и от которых предполагает защитить граждан. В частности, приведены примеры и конкретные кейсы, в рамках которых при эксплуатации автоматизированных систем проявились те или иные уязвимости прав их пользователей и участников.

2)    Чего следует ожидать от автоматизированных систем:

Ожидания в отношении автоматизированных систем призваны служить основой для разработки дополнительных технических стандартов и практик, которые должны быть адаптированы к конкретным секторам и контекстам. 

Также в этом разделе описываются конкретные шаги, которые могут быть реализованы для воплощения концепции данного документа. Изложенные ожидания отражают существующую практику разработки технологий, включая тестирование перед развертыванием, постоянный мониторинг и структуры управления автоматизированными системами. 

Наконец, ожидания в отношении отчетности предназначены для организации, разрабатывающей или использующей автоматизированную систему. Итоговые отчеты могут быть предоставлены общественности, регулирующим органам, аудиторам, группам по отраслевым стандартам или другим лицам, участвующим в независимой проверке, и должны быть обнародованы в максимально возможной степени в соответствии с законом, нормативными актами и политикой. Отмечается, что соображения интеллектуальной собственности, правоприменения или национальной безопасности могут препятствовать обнародованию. Там, где публичные отчеты невозможны, информация должна предоставляться надзорным органам и сотрудникам по вопросам неприкосновенности частной жизни, гражданских свобод или другим сотрудникам по этике, которым поручено защищать права отдельных лиц. Эти ожидания от отчетности важны для прозрачности, чтобы американский народ мог иметь уверенность в том, что их права, возможности и доступ, а также их ожидания в отношении технологий соблюдаются.

3)    Как эти принципы могут быть применены на практике:

В этом разделе приведены реальные примеры того, как руководящие принципы могут стать реальностью с помощью законов, политики и практики. В нем описываются практические технические и социотехнические подходы к защите прав, возможностей и доступа. 

К интересным для специалистов моментам в американском документе можно отнести следующие:

1.     В разделе «Что ожидать от автоматизированных систем» содержится положение о защите конфиденциальности при проектировании и по умолчанию. Хотя такой подход уже использован ранее в целом ряде национальных и международных инструментов, формулировки, которые даются в американском проекте Билля могут представить интерес для специалистов в плане развития подобных подходов и соответствующей терминологии:

«Автоматизированные системы должны разрабатываться и создаваться с защитой конфиденциальности по умолчанию. Риски конфиденциальности должны оцениваться на протяжении всего жизненного цикла разработки, включая риски конфиденциальности от повторной идентификации, и должны быть реализованы соответствующие технические и политические меры по их снижению. Это подразумевает потенциальный вред для тех, кто не является пользователем автоматизированной системы, но может пострадать от выведенных данных, целенаправленного нарушения конфиденциальности, наблюдения за обществом или другого вреда для общества. Сбор данных должен быть сведен к минимуму и четко доведен до сведения людей, чьи данные собираются. Данные должны собираться или использоваться для обучения или тестирования моделей машинного обучения только в том случае, если такой сбор и использование законны и соответствуют ожиданиям людей, чьи данные собираются. Необходимо провести исследование пользовательского опыта, чтобы убедиться, что люди понимают, какие данные о них собираются и как они будут использоваться, и что этот сбор соответствует их ожиданиям и желаниям».

2.     В тексте дано пояснение что относится к чувствительным данным. 

«Чувствительные данные (sensitive data): Данные и метаданные являются чувствительными, если они относятся к человеку в чувствительной области (определение дано ниже); генерируются технологиями, используемыми в чувствительной области; могут быть использованы для вывода данных из чувствительной области или чувствительных данных о человеке (таких как данные об инвалидности, геномные данные, биометрические данные, поведенческие данные, геолокационные данные, данные, связанные с взаимодействием с системой уголовного правосудия, история отношений и правовой статус, такие как информация об опеке и разводе, а также данные об окружающей среде дома, на работе или в школе); или имеют разумный потенциал для использования таким образом, что могут нанести значительный ущерб отдельным лицам, например, потеря конфиденциальности или финансовый ущерб в результате кражи личных данных. Данные и метаданные, полученные от лиц, которые еще не достигли совершеннолетия, также являются чувствительными, даже если они не относятся к чувствительной области. К таким данным относятся, в частности, числовые, текстовые, графические, аудио- или видеоданные».

«Чувствительные области (sensitive domains) — это области, в которых осуществляемая деятельность может нанести существенный вред, включая значительное негативное воздействие на права человека, такие как автономия и достоинство, а также гражданские свободы и гражданские права. К областям, которые исторически выделялись как заслуживающие усиленной защиты данных или где общественность обоснованно ожидает такой усиленной защиты, относятся, в частности, здравоохранение, планирование семьи и уход, занятость, образование, уголовное правосудие и личные финансы. В контексте данной концепции такие области считаются чувствительными независимо от того, требуют ли особенности контекста системы охвата в соответствии с существующим законодательством, а области и данные, которые считаются чувствительными, могут меняться со временем в зависимости от общественных норм и контекста».

3.     В разделе «Как эти принципы могут быть применены на практике» указаны некоторые конкретные органы и возможные проекты, в рамках которых данные принципы могут быть воплощены при развитии и использовании технологий – это повышает степень конкретизации документа и его целевые установки. 




ИИ
Интернет
Закон