7.5 Законодательное регулирование ИИ
Проблемы, описанные О’Нил, периодически привлекают внимание прессы и законодателей. При этом общественную дискуссию и законотворческие инициативы во многом подпитывают те или иные зрелищные демонстрации возможностей современного ИИ. За последние десять лет государственные и международные институты совершили несколько «подходов к снаряду» в области регулирования сферы ИИ, и в некоторых областях им удалось продвинуться от деклараций, напоминающих тосты «за всё хорошее», до конкретных законодательных актов (либо принципиального отказа от регулирования) и зачатков системы международных стандартов. Детальный обзор положения дел в области современной регуляторики в области ИИ потребовал бы увеличения объёма книги ещё на один том, поэтому здесь мы ограничимся упоминанием только некоторых документов и событий в этой области.
Хотя законы, так или иначе затрагивающие сферу ИИ, принимались и раньше[1], первые попытки систематически подойти к регулированию разработки, внедрения и эксплуатации ИИ-систем относятся к началу 2010-х гг., когда внимание законодателей было привлечено к сфере беспилотного транспорта. Действующее на тот момент законодательство просто не разрешало использовать мобильные автопилоты, что ставило под вопрос дальнейшее развитие этой технологии. В соответствии с Венской конвенцией о дорожном движении 1968 г.[2], участниками которой, по данным на 2023 г., являются 88 стран мира, одним из основополагающих принципов дорожного движения являлась концепция, согласно которой водитель всегда полностью контролирует и несёт ответственность за поведение транспортного средства. В 2016 г. реформа конвенции позволила использовать автоматизированные функции в транспортных средствах[3], однако изменения, разрешающие использование беспилотного транспорта, вступили в силу лишь в июле 2022 г.[4]
Крупнейшей западной страной, не являющейся участником Венской конвенции, являются США. И хотя на федеральном уровне в этой стране пока не существует закона о беспилотном транспорте, на уровне отдельных штатов такие законы действуют уже достаточно давно. Пионером в этой области стала Невада, которая ещё в 2011 г. приняла закон, разрешающий использование беспилотных автомобилей, а точнее — «автоматизированных транспортных средств» [automated vehicle]. Таким образом, Невада оказалась первой юрисдикцией в мире, где на дорогах общего пользования стало возможным на законных основаниях эксплуатировать такие авто (в определённых зонах, которые устанавливает Департамент транспортных средств Невады). Принятие нормативного акта было поддержано компанией Google, которая была заинтересована в том, чтобы легально тестировать свои беспилотники[5]. Закон штата Невада определяет автоматизированное транспортное средство как «автомобиль, который использует искусственный интеллект, датчики и координаты глобальной системы позиционирования для управления собой без активного вмешательства человека-оператора», и признаёт, что оператору не нужно сохранять постоянное внимание во время работы автопилота. Однако Google не смогла добиться исключения из запрета на отвлечённое вождение (то есть такое вождение, при котором водитель может заниматься посторонними делами, которые отвлекают его от вождения, например отправлять текстовые сообщения). Кроме того, закон Невады требует, чтобы во время использования беспилотного транспорта в машине находился водитель, сидящий за рулём, и не более одного пассажира. Таким образом, закон, по сути, открыл дорогу лишь испытаниям, но не полноценной эксплуатации беспилотного транспорта[6], [7].
В последующие годы испытания беспилотного транспорта на своих дорогах разрешили и некоторые другие штаты — Флорида (2012)[8], Калифорния (2012)[9], Мичиган (2013)[10] и так далее. В 2013 г. разрешение на тестирование беспилотного транспорта на своих общественных трассах выдало правительство Великобритании[11] (на тот момент страна ещё не являлась участником Венской конвенции). В 2015 г. в рамках Всемирного конгресса по интеллектуальным транспортным системам прошла первая демонстрация беспилотников на общественных дорогах Франции[12].
Пионером в области национального законодательства в отношении беспилотников стала Германия, в которой в 2017 г. был принят закон, призванный открыть дорогу автономному транспорту. Законодатели выделили категорию автомобилей «со значительно или полностью автоматизированными функциями вождения» и разрешили водителям отвлекаться от ситуации на дороге. Одновременно был удвоен лимит ответственности за причинённый вред и введено правило обязательной установки бортовых самописцев. В июле 2021 г. в действие вступил «Закон об автономном движении», который существенно расширил и конкретизировал предыдущие положения, разрешив эксплуатацию автономных транспортных средств без физического присутствия водителя (но только в пределах специально отведённых зон и под «техническим надзором», то есть при наличии удалённого наблюдения со стороны человека, способного вмешаться в критической ситуации). Наряду с этими изменениями был введён новый централизованный процесс сертификации автономных транспортных средств[13].
В наши дни различные меры в области регулирования автономного транспорта предприняты также в других странах Евросоюза, Китае, Японии, Австралии, Израиле и иных странах. Не является исключением и Россия. Осенью 2018 г. правительство РФ своим постановлением разрешило тестировать беспилотные транспортные средства на автомобильных дорогах в Москве и Татарстане. В 2020 г. список регионов расширили до 13, распространив эксперимент на Санкт-Петербург, Московскую, Ленинградскую, Владимирскую, Самарскую, Нижегородскую и Новгородскую области, Краснодарский край, Чувашию, а также Ханты-Мансийский и Ямало-Ненецкий автономные округа. Постановление российского правительства, подобно большинству аналогичных зарубежных документов, требовало, чтобы при испытании беспилотного автомобиля за его рулём находился инженер-тестировщик. При этом российские разработчики беспилотников, недовольные темпами внесения изменений в Венскую конвенцию, в 2020 г. просили Министерство иностранных дел, Министерство транспорта и Министерство юстиции частично приостановить участие России в этом международном соглашении, чтобы устранить административные барьеры и обеспечить возможность тестирования и эксплуатации беспилотных автомобилей без инженеров-тестировщиков на дорогах общего пользования[14]. Впрочем, до практических мер в этом направлении дело всё-таки не дошло, и проблема как будто решилась сама собой со вступлением в силу поправок к Венской конвенции.
Попытки законодателей более широко взглянуть на вопросы, связанные с развитием технологий ИИ, относятся главным образом к периоду расцвета технологий глубокого обучения. Например, в июне 2017 г. в Великобритании Палата лордов сформировала «Специальный комитет по искусственному интеллекту» [Select Committee on Artificial Intelligence], который, среди прочих документов, подготовил доклад под названием «ИИ в Соединённом Королевстве: готовы, хотим, можем?» [AI in the UK: ready, willing and able?][15], в тексте которого сформулированы пять этических принципов, которые, по мнению авторов, должны использоваться как на национальном, так и на международном уровне:
- ИИ следует развивать ради общего блага и для пользы всего человечества;
- ИИ должен функционировать, основываясь на принципах справедливости и прозрачности принятия решений;
- ИИ не должен использоваться с целью ущемления прав в области обработки данных и неприкосновенности частной жизни в отношении отдельных лиц, семей или социальных групп;
- все категории граждан должны иметь право на образование, позволяющее им интеллектуально, эмоционально и экономически развиваться наряду с ИИ;
- системам ИИ никогда не должна предоставляться автономная власть причинять вред, уничтожать или обманывать людей.
Члены комитета считают, что область искусственного интеллекта нуждается во всестороннем регулировании и Великобритания должна стать в этом лидером.
Тем не менее спустя шесть лет в Великобритании так и не появилось целостного свода законов, регулирующих разработку, развёртывание или использование технологий ИИ. Вместо этого разработчики ИИ-систем имеют дело с отраслевым регулированием (например, в области медицины) и множеством правил, установленных правительством, регулирующими органами, корпорациями, профсоюзами и другими организациями гражданского общества. Стремясь уменьшить возникший хаос, правительство заявило о своём намерении начать разработку более комплексной нормативно-правовой базы для ИИ[16]. В 2022 и 2023 гг. оно опубликовало программный и консультационный документы, посвящённые стратегии регулирования, под названиями, соответственно, «Создание проинновационного подхода к регулированию ИИ» [Establishing a pro-innovation approach to regulating AI][17] и «Проинновационный подход к регулированию ИИ» [A pro-innovation approach to AI regulation][18]. Также правительство занялось формированием рабочей группы по фундаментальным моделям [Foundation Model Taskforce] с бюджетом 100 млн фунтов стерлингов и объявило, что Великобритания проведёт глобальный саммит по безопасности ИИ.
Разработанные правительством документы декларируют принципы, положенные в основу подхода к регулированию в сфере ИИ:
- безопасность, защищённость и надёжность [Safety, security and robustness];
- надлежащая прозрачность и объяснимость [Appropriate transparency and explainability];
- справедливость [Fairness];
- подотчётность и управление [Accountability and governance];
- возможность оспаривания [решений систем ИИ] и получения возмещения [ущерба в случае его наличия] [Contestability and redress].
При этом «проинновационность», вынесенная в заголовок документа, проявляется среди прочего в том, что правительство отказывается от закрепления вышеперечисленных принципов на законодательном уровне, поскольку «новые жёсткие и обременительные законодательные требования к бизнесу могут сдерживать инновации в области ИИ и снижать нашу способность быстро и соразмерно реагировать на будущие технологические вызовы».
Значительно большую активность в области регулирования ИИ проявили власти США.
Хотя единый федеральный закон, направленный на эту область, так и не появился (вместо этого законодатели обозначили курс на точечное регулирование отдельных сервисов), ими был разработан и принят целый ряд других, весьма любопытных документов. Прежде всего следует упомянуть «Закон о национальной инициативе в области ИИ» [The National AI Initiative Act of 2020][19], вступивший в силу 1 января 2021 г., посвящённый формированию долгосрочной федеральной программы, направленной на ускорение исследований и разработок в области ИИ, в частности, в целях экономической и национальной безопасности Соединённых Штатов.
Также следует отметить два других важных документа, принятых на федеральном уровне. Первый — «Документ по управлению ИИ-рисками» [AI Risk Management Framework][20], выпущенный в январе 2023 г. Национальным институтом стандартов и технологий США. Разработка этого обширного документа была начата ещё в 2021 г. Он не только содержит в себе определения ИИ, ИИ-рисков и других важных с прикладной точки зрения терминов, но и описывает специфику ИИ-рисков по отношению к традиционным рискам, связанным с программным обеспечением [Traditional Software Risks], а также основные функции и методы риск-менеджмента в области ИИ.
Второй документ — выпущенное в 2022 г. Управлением научной и технологической политики [Office of Science and Technology Policy] правительства США «Руководство по разработке билля о правах, связанных с ИИ» [Blueprint for an AI Bill of Rights][21]. Оно посвящено главным образом защите прав населения в алгоритмическом обществе (вопросам защиты от алгоритмической дискриминации, обеспечения конфиденциальности данных и т. д.).
Кроме того, законы об ИИ на момент написания книги приняты на уровне отдельных штатов в Алабаме, Колорадо, Иллинойсе, Миссисипи и Вермонте, на стадии рассмотрения находятся аналогичные законодательные акты в Калифорнии, Джорджии, на Гавайях, в Мэриленде, Нью-Джерси, Род-Айленде, Нью-Йорке и Вашингтоне. Также на счету американских законодателей различные местные законы и несколько проваленных актов на уровне штатов. В целом общее число законодательных инициатив в области ИИ здесь давно перевалило за сотню[22].
В конце октября 2023 г. Белый дом опубликовал[23], [24], [25] президентский «Указ о безопасной, защищённой и надёжной разработке и использовании искусственного интеллекта» [Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence]. Заместитель руководителя аппарата Белого дома Брюс Рид заявил, что содержащиеся в указе директивы представляют собой «набор самых жёстких мер, которые когда-либо предпринимало какое-либо правительство в мире» по защите граждан от влияния ИИ. Давайте рассмотрим важные положения указа:
- Разработчики продвинутых систем ИИ, представляющих серьёзный риск для национальной безопасности, национальной экономической безопасности или здравоохранения, должны уведомлять правительство об обучении моделей, а также раскрывать федеральному правительству результаты своих тестов безопасности. При этом разработка методики тестирования возложена на NIST. Отдельно предполагается разработка стандартов «проверки биологического синтеза» для защиты от «опасных биологических материалов», синтезируемых с помощью ИИ.
- Уведомление властей о строительстве вычислительных кластеров, если их вычислительная мощность превышает 1020 флопс.
- Маркировка контента, генерируемого с помощью ИИ (например, водяными знаками). Разработка правил и методов маркировки возложена на Министерство торговли США.
- Разработка расширенной программы кибербезопасности для создания инструментов искусственного интеллекта для устранения уязвимостей в критически важном программном обеспечении (на основе существующей программы «Кибервызов ИИ» [AI Cyber Challenge]).
- Защита конфиденциальных данных и нацеленность на то, чтобы обучение систем ИИ на подобных наборах данных не приводило к нарушениям. При этом для возможности полноценно обеспечить защиту конфиденциальности Белый дом призывает Конгресс принять федеральный закон.
- Борьба с алгоритмической предвзятостью: будут созданы и распространены инструкции по недопущению дискриминации в результате применения систем ИИ. Также правительство будет внедрять лучшие практики по устранению такой дискриминации, а администрация президента рассмотрит вопрос об использовании ИИ при вынесении приговоров в системе уголовного правосудия.
- Программа по привлечению лучших мировых талантов, включающая в себя совершенствование визовых критериев для иммигрантов, обладающих опытом в области ИИ.
- Поддержка работников, уязвимых в связи с развитием технологий ИИ.
Интересно, что указ содержит для первого пункта критерии для моделей, подпадающих под его действие. Информирование государства необходимо лишь в тех случаях, если для обучения модели планируется затратить более 1026 целочисленных операций или операций с плавающей запятой. Если же при обучении модели в качестве обучающих данных планируется использовать биологические последовательности, то порог обязательного информирования снижается до 1023 операций. Много это или мало? Вычислительный бюджет обучения модели LLama 2 с 70 млрд параметров составил порядка 1,1 × 1024 операций с плавающей запятой[26], то есть примерно в 100 раз меньше установленного порога. Производительность самого быстрого в мире суперкомпьютера Frontier составляет около 1,68 × 1018 флопс. Таким образом, в мире пока что нет вычислительных кластеров, которые подпадали бы под действие вышедшего указа.
США не единственная страна, где регулирование ИИ присутствует даже на региональном уровне. Региональные законы, посвящённые ИИ, есть, например, в Китае, к их числу относятся «Положение о продвижении индустрии ИИ в Шэньчжэне» и «Шанхайские правила содействия развитию индустрии ИИ».
Китайская модель регулирования ИИ в целом похожа на американскую. Согласно «Плану по развитию ИИ нового поколения» «зонтичные» нормы в сфере ИИ должны быть приняты к 2025 г. В 2021 г. Министерство науки и технологий Китая выпустило «Руководящие этические принципы по регулированию ИИ». Под влиянием прогресса в области генеративных моделей появились на свет «Положение об управлении информационными интернет-сервисами, использующими технологии глубокого синтеза[27]»[28] и «Временные меры по управлению сервисами генеративного искусственного интеллекта»[29], разработанные Администрацией киберпространства Китая соответственно в 2022 и 2023 гг.
Последний документ вызвал самое бурное обсуждение, западная пресса взорвалась заголовками: «Китай обязывает ИИ следовать „основным ценностям социализма“» [China mandates that AI must follow “core values of socialism”][30], «Китай анонсирует правила, в соответствии с которыми ИИ должен быть связан „основными ценностями социализма“» [China announces rules to keep AI bound by ‘core socialist values’][31], «Китай заявляет, что чат-боты должны придерживаться линии партии» [China Says Chatbots Must Toe the Party Line][32] и так далее. Действительно, статья 4 говорит буквально следующее:
Предоставление и использование услуг генеративного искусственного интеллекта должно осуществляться в соответствии с законами и административными регламентами, уважением к общественной морали и этике, а также при соблюдении следующих правил:
Соответствовать основным ценностям социализма и не подстрекать к подрыву государственной власти и свержению социалистической системы, не должно ставить под угрозу национальную безопасность и интересы, наносить ущерб национальному имиджу, подстрекать к сепаратизму, подрывать национальное единство и социальную стабильность, не должно способствовать терроризму, экстремизму, продвижению контента, запрещённого законами и административными правилами, в частности разжигающего этническую ненависть и дискриминацию, пропагандирующего насилие, содержащего непристойность, а также вредоносную дезинформацию.
В процессе разработки алгоритмов, отбора обучающих данных, создания и оптимизации моделей, а также предоставления услуг должны быть приняты эффективные меры по предотвращению дискриминации по признаку этнической принадлежности, убеждений, страны, региона, пола, возраста, профессии, здоровья и так далее.
Уважать права интеллектуальной собственности, деловую этику, не нарушать коммерческую тайну и не использовать алгоритмы, данные, платформы и другие преимущества для достижения монополии и осуществления недобросовестной конкуренции.
Уважать законные права и интересы граждан, не подвергать опасности физическое и психическое здоровье людей, а также не посягать на честь и репутацию, не нарушать права на воспроизведение личных изображений, на неприкосновенность частной жизни и личной информации.
Основываясь на особенностях типов услуг, должны предприниматься эффективные меры для повышения прозрачности сервисов генеративного искусственного интеллекта, а также повышения уровня точности и надёжности генерируемой информации.
Однако при всей внушительности списка требований нужно отметить, что меры, предусмотренные этим документом для их обеспечения, являются весьма щадящими. В проекте документа, опубликованном в начале апреля 2023 г., было указано, что в случае выявления несоответствия сервиса указанным критериям у его создателей будет три месяца на устранение выявленного несоответствия, а в случае нерешения проблемы в течение этого срока предполагалось назначение штрафа (от 10 000 до 100 000 юаней, т. е. примерно от 130 000 до 1 300 000 рублей). Однако в финальной версии документа, опубликованной 10 июля и вступившей в силу 15 августа 2023 г., даже эта санкция отсутствует[33].
В окончательной редакции документ стал ещё более лояльным к разработчикам генеративных сервисов. Среди прочего в нём исчезли требование при оказании услуг следовать «добрым традициям», жёсткое требование «правдивости и точности» генерируемого контента, требование перед запуском сервиса предоставить в Отдел информации национальной сети установленную законом оценку безопасности информационных услуг, а требование «гарантировать подлинность, точность, объективность и разнообразие» обучающих данных было заменено на требование «принимать эффективные меры» в этом направлении. Кроме того, в документе появились призывы поощрять инновационное применение технологий генеративного искусственного интеллекта в различных отраслях и областях, исследовать и оптимизировать сценарии применения, создавать экосистему приложений, поддерживать независимые инновации в области генеративного ИИ, программных и аппаратных платформ, развивать международное сотрудничество, содействовать созданию инфраструктуры генеративного ИИ и так далее и тому подобное. В документе также содержится призыв к создателям сервисов разъяснять и раскрывать способы их полезного применения, направлять пользователей к научному и рациональному пониманию и использованию технологий генеративного ИИ, принимать эффективные меры для предотвращения чрезмерного использования генеративного ИИ несовершеннолетними пользователями.
Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.
В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.
Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.
Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г.[34] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.
Это весьма внушительный законопроект, состоящий (в редакции 2022 г.) из 85 статей и занимающий (вместе с предваряющими его общими соображениями по стратегии регулирования, а также предложениями по внесению поправок в некоторые связанные законы) 217 страниц[35]. В ходе первого чтения в Европарламенте в июне 2023 г. к этому документу была принята 771 поправка (текст поправок занимает в общей сложности ещё 349 страниц)[36].
Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.)[37].
Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.
Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:
- Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.
- Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.
- Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.
- Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.
В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:
- создать и внедрить систему менеджмента качества в своей организации;
- составить и поддерживать в актуальном состоянии техническую документацию по системе;
- вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;
- до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);
- зарегистрировать систему ИИ в базе данных Евросоюза;
- нанести маркировку CE и подписать декларацию соответствия;
- осуществлять мониторинг работы системы после вывода её на рынок;
- сотрудничать с органами надзора за рынком.
Каждое из подобных требований весьма подробно детализировано в законопроекте. Например, в нём для системы менеджмента качества приведён минимальный перечень из 13 аспектов, которые должны найти отражение в письменных правилах, процедурах и инструкциях.
Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.
Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:
- продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;
- обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;
- обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;
- при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;
- составить обширную техническую документацию и понятные инструкции по использованию;
- создать систему управления качеством для обеспечения и документирования соблюдения закона;
- зарегистрировать модель в базе данных Евросоюза;
- в течение 10 лет после публикации или ввода в эксплуатацию модели хранить техническую документацию по ней и предоставлять её по требованию в распоряжение национальных компетентных органов и так далее.
Если же фундаментальная модель предназначена для задач генерации контента, то её создатели должны, вдобавок ко всему вышеперечисленному, проектировать, обучать (и если планируется — развивать) модель таким образом, чтобы обеспечить «адекватные гарантии против создания контента, нарушающего законодательство Евросоюза», а также публиковать подробный отчёт о наличии в обучающих данных контента, защищённого законом об авторском праве.
Помимо этого, в июне 2023 г. Еврокомиссия предложила не только ввести маркировку любого контента, произведённого системами ИИ, но и создать технологии распознавания такого контента[38].
К другим интересным документам, разработанным в Евросоюзе, относится ряд документов Совета Европы: «Технико-экономическое обоснование правовой базы проектирования, разработки и применения ИИ на основе стандартов Совета Европы»[39] (2020), «Возможные элементы правовой базы по ИИ, основанные на стандартах Совета Европы в области прав человека, демократии и верховенства закона»[40] (2021), «„Нулевой проект“ конвенции об ИИ, правах человека, демократии и верховенстве закона»[41] (январь 2023) и др.
Сложно представить себе, что современные технологии ИИ смогут успешно развиваться при наличии столь тяжеловесного регуляторного обременения. Впрочем, кто знает, в какой редакции будет окончательно принят европейский Закон об искусственном интеллекте и на что будет похожа на деле практика его применения.
Коротко рассмотрим состояние дел с регулированием ИИ в других странах.
Канада, по аналогии с Евросоюзом, стала на путь ограничительного регулирования. Проект универсального «Закона об ИИ и данных» устанавливает ряд обязательств и запретов, относящихся к проектированию, разработке и использованию систем ИИ. Более значимые обязательства могут быть возложены на разработчиков высокоэффективных систем ИИ, оказывающих значительное влияние на общество. По состоянию на май 2023 г. проект прошёл второе чтение, однако, по последним сообщениям в СМИ, власти Канады заняли выжидательную позицию до принятия европейского закона[42].
Власти Индии отказались от регулирования этой отрасли путём принятия единого закона. Индия не будет регулировать ИИ, поскольку ИИ является «движущим фактором» цифровой экономики и играет важную стратегическую роль для продвижения страны вперёд. При этом «Национальная стратегия ИИ» (2018) признаёт наличие этических проблем в этой области. Так же как и во многих других странах, на разработку систем ИИ в Индии влияет законодательство о защите персональных данных. Находящийся на стадии обсуждения законопроект о регулировании этой сферы, возможно, введёт определённые ограничения при сборе данных для обучения. Также рассматривается вопрос об определении и регулировании высокорисковых систем ИИ[43].
Израиль, так же как и Индия, отказался от принятия единого закона об ИИ, сделав ставку преимущественно на стимулирующее регулирование. Впрочем, с 2021 г. Министерство юстиции ведёт сбор предложений и комментариев в отношении создания нормативных ограничений и возможного регулирования в области ИИ. Однако существующий проект политики регулирования и этики в сфере ИИ, выпущенный Органом по инновациям в 2022 г., исключает возможность регулирования с помощью отдельного закона и призывает содействовать регулированию в конкретных случаях на основе управления рисками, а также предпочтительно использовать мягкие инструменты регулирования[44], [45].
В Южной Корее в настоящее время обсуждается проект закона «О продвижении индустрии ИИ и основных подходах для создания ИИ, заслуживающего доверия». Основные его положения в текущей редакции: поддержка индустрии ИИ, защита пользователей услуг на основе ИИ путём обеспечения надёжности ИИ-систем, повышенные требования к высокорисковым системам ИИ, создание системы сертификации ИИ, которому можно будет доверять[46].
В России наиболее заметным событием в области регулирования ИИ является Указ Президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации»[47], утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года» «в целях обеспечения ускоренного развития искусственного интеллекта <…> проведения научных исследований в области искусственного интеллекта, повышения доступности информации и вычислительных ресурсов для пользователей, совершенствования системы подготовки кадров в этой области». Сама «Национальная стратегия» — небольшой документ, содержащий всего 23 страницы. Он определяет цели, основные задачи и принципы развития ИИ в РФ, приоритетные направления развития и использования технологий, описывает механизмы реализации стратегии. Предполагается, что актуализация этого документа будет происходить приблизительно раз в три года.
Как показывает история с беспилотным транспортом, важным источником регулирования, затрагивающим технологии ИИ, являются различные отраслевые требования и стандарты. Например, Управление по контролю качества пищевых продуктов и лекарственных средств США (US Food and Drug Administration, US FDA или просто FDA) развивает собственные подходы и нормативную базу регулирования применения технологий ИИ в области здравоохранения[48], [49], [50], предъявляя к разработчикам систем, содержащих ИИ-компоненты, достаточно жёсткие требования. Аналогичным образом поступают и отраслевые регуляторы многих других стран, например Национальная администрация медицинских продуктов (国家药品监督管理局) Китая[51].
В 2017 г. Международная организация по стандартизации (International Organization for Standardization, ISO) совместно с Международной электротехнической комиссией (International Electrotechnical Commission, IEC) создала комитет ISO/IEC JTC 1/SC 42, предназначенный для разработки международных стандартов в области ИИ[52]. В 2020 г. комитет выпустил отчёт ISO/IEC TR 24028:2020 «Информационные технологии. Искусственный интеллект. Обзор надёжности в области искусственного интеллекта»[53], [54], где анализируется, как оценивать и улучшать надёжность, доступность, точность, безопасность и конфиденциальность систем ИИ. Документ также рассматривает варианты снижения рисков от подводных камней в системах ИИ и описывает, как добиться доверия к системам ИИ через прозрачность, объяснимость, управляемость и так далее.
В 2018 г. Федеральное агентство по техническому регулированию и метрологии (Росстандарт) выступило инициатором создания национальных стандартов в области ИИ. Стандартизации было предложено подвергнуть технологии искусственного интеллекта в различных сферах: в системе общественной безопасности, в медицине, в сельском хозяйстве, на транспорте, в составе «умных домов» и так далее. В 2019 г. по инициативе Российской венчурной компании при поддержке Минпромторга России и Росстандарта был создан Технический комитет №164 «Искусственный интеллект», на сайте которого в 2021 г. были опубликованы первые редакции 36 проектов национальных стандартов в области применения искусственного интеллекта. Как говорится на сайте комитета, ТК 164 является «зеркальным» по отношению к международному подкомитету SC 42 «Artificial Intelligence» объединённого технического комитета ISO/IEC JTC 1 «Information Technologies» и берёт на себя функции постоянно действующего национального органа в ISO.
Принятая в декабре 2020 г. перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы, утверждённая Росстандартом и Минэкономразвития, предусматривает разработку 217 стандартов в области ИИ[55].
Надо заметить, что в связи с обсуждением будущего технологий ИИ часто возникает тема сбора и обработки персональных данных (и например, Федеральный закон №152-ФЗ «О персональных данных»[56] тоже косвенно затрагивает тему разработки систем ИИ). Ставший сегодня хрестоматийным скандал вокруг компании Cambridge Analytica[57] продемонстрировал опасность, которую влечёт за собой сосредоточение больших объёмов информации в руках крупных компаний, и создал прецедент неэтичного и недопустимого использования технологий ИИ. Так что к проблемам, описанным О’Нил, можно смело добавить ещё одну — риски вторжения алгоритмов в частную жизнь людей, что может существенно сместить принятые в обществе границы личной тайны. Анализируя массивный цифровой след, оставляемый человеком, алгоритмы в состоянии эффективно раскрывать те или иные факты личной жизни, которые люди предпочитают держать в секрете. Например, анализируя «лайки» в Facebook, современные модели машинного обучения могут строить весьма точные предположения о вашей сексуальной ориентации[58]. В 2012 г. газета The New York Times рассказала своим читателям леденящую кровь историю о том, как отец узнал о беременности своей дочери благодаря действию алгоритмов рекламной системы Target:
Разгневанный мужчина ворвался в офис Target под Миннеаполисом и потребовал немедленно поговорить с менеджером: «Моя дочь получила это по почте! — заявил он. — Она ещё только учится в старшей школе, а вы присылаете ей купоны на детскую одежду и детские кроватки? Вы пытаетесь подтолкнуть её к тому, чтобы она забеременела?»
Менеджер понятия не имел, о чём говорит этот человек. Он посмотрел в почтовую программу, где обнаружил письма, отправленные дочери мужчины, содержавшие рекламу одежды для беременных, детской мебели и фотографии улыбающихся младенцев. Менеджер извинился, а через несколько дней позвонил мужчине, чтобы принести дополнительные извинения.
Однако по телефону отец говорил несколько смущённо. «Я поговорил с дочерью, — сказал он. — Оказывается, в моём доме происходили кое-какие вещи, о которых я не был полностью осведомлён. В августе она должна родить. Приношу свои извинения»[59].
Вне зависимости от того, является ли эта история правдой или выдумкой, проблему раскрытия подробностей частной жизни алгоритмами вряд ли стоит недооценивать. Мир, в котором неопределённый круг людей может быть уведомлён о вашей беременности, болезни, сексуальных предпочтениях, влюблённости и так далее, вряд ли можно признать уютным. И по мере того как алгоритмы становятся всё более совершенными, точность их выводов становится всё больше, а объём информации, необходимый для достижения этих выводов, всё меньше.
Кто знает, возможно в недалёком будущем под влиянием таких проблем, как незаконная обработка персональных данных или проблема цифрового тайного суда, возникнет институт «цифровых адвокатов» или «алгоритмических омбудсменов», призванных защищать интересы людей в мире, в котором математические модели всё больше и больше влияют на нашу жизнь.
Если же говорить об анализе алгоритмических рисков вообще, то нельзя не отметить, что на сегодняшний день корпорации продвинулись в этой области существенно дальше, чем общественность. Начиная с конца XX в. специалисты в области финансов, а затем и другие корпоративные эксперты активно занялись изучением проблемы так называемого модельного риска — риска возникновения убытков в результате использования недостаточно точных моделей для принятия решений. Подготовкой рекомендаций в отношении управления модельными рисками занимаются влиятельные международные организации, например Базельский комитет по банковскому надзору[60].
Успехи генеративных моделей в наши дни вновь привлекли общественное внимание к проблеме ИИ-рисков и регулирования технологий искусственного интеллекта. Неудивительно, что в сложившихся обстоятельствах законодатели также во многом прислушиваются ко мнению корпоративных экспертов. Вслед за наступлением «момента ChatGPT» появление Сэма Альтмана в Конгрессе было вопросом времени. Впрочем, все мы понимаем, что Альтман нуждается в контактах с законодателями не меньше, а возможно, и больше, чем они желают общения с ним. Поэтому контакты руководителя OpenAI с конгрессменами и другими влиятельными политиками США не ограничились лишь участием в парламентских слушаниях[61].
В своей речи на Капитолийском холме Альтман выступил в поддержку государственного регулирования сферы ИИ и согласился сотрудничать с правительством в целях управления ИИ-рисками.
На слушаниях к Альтману присоединились Кристина Монтгомери, директор IBM по конфиденциальности и доверию [Chief Privacy & Trust Officer], и вездесущий Гэри Маркус.
В своей речи Альтман отметил, что хотя технологии, разрабатываемые его компанией, и могут ликвидировать некоторые рабочие места, но они также способны создать новые и что «правительству будет интересно узнать, как именно мы хотим это смягчить». Альтман поддержал идею Маркуса создать агентство, которое будет выдавать лицензии на разработку крупномасштабных моделей ИИ, разрабатывать правила безопасности и тесты, которые модели ИИ должны пройти перед выходом в свет. «Мы считаем, что польза используемых нами инструментов значительно перевешивает риски, но для нашей работы жизненно важно обеспечить их безопасность», — сказал Альтман.
Сложно сказать, что преобладает в мотивах Альтмана, когда он выступает в поддержку идеи о лицензировании разработки фундаментальных моделей. Быть может, забота о всеобщем благе, а быть может — желание возвести регуляторный барьер для конкурентов. Примечательно, что идея жёсткого регулирования вовсе не вызывает восторга у ряда законодателей. Китайцы создают искусственный интеллект, который «укрепляет основные ценности Коммунистической партии Китая и китайской системы, — сказал Крис Кунс, демократ из штата Делавэр. — И меня беспокоит то, как мы продвигаем ИИ, который укрепляет и усиливает открытые рынки, открытое общество и демократию»[62].
- ↑ * В качестве примера можно привести требования по сертификации различных потенциально опасных систем: в медицине, на транспорте, в энергетике, на производстве и так далее, которые косвенно могли затронуть алгоритмы ИИ, если те были частью таких систем, или южнокорейский рамочный закон «О национальной информатизации» 1995 г.
- ↑ Конференция Организации Объединённых Наций по дорожному движению. Заключительный акт (2023) // https://treaties.un.org/pages/ViewDetailsIII.aspx?src=TREATY&mtdsg_no=XI-B-19&chapter=11&Temp=mtdsg3&clang=_en
- ↑ UNECE paves the way for automated driving by updating UN international convention (2016). / United Nations Economic Commission for Europe, 23 March 2016 // https://unece.org/press/unece-paves-way-automated-driving-updating-un-international-convention
- ↑ Reference: C.N.26.2022.TREATIES-XI.B.19 (Depositary Notification). CONVENTION ON ROAD TRAFFIC. VIENNA, 8 NOVEMBER 1968. ACCEPTANCE OF AMENDMENT TO ARTICLE 1 AND NEW ARTICLE 34 BIS TO THE CONVENTION (2022) // https://treaties.un.org/doc/Publication/CN/2022/CN.26.2022-Eng.pdf
- ↑ Markoff J. (2011). Google Lobbies Nevada to Allow Self-Driving Cars / The New York Times, May 10, 2011 // https://www.nytimes.com/2011/05/11/science/11drive.html
- ↑ Bill AB511 Nevada Legislature (2011) // http://www.leg.state.nv.us/Session/76th2011/Bills/AB/AB511_EN.pdf
- ↑ Healey T. (2011). Nevada Passes Law Allowing Self-Driving Cars / Motor Authority, June 24, 2011 // https://www.motorauthority.com/news/1062178_nevada-passes-law-allowing-self-driving-cars
- ↑ Waldes A. M. (2012). Florida embraces self-driving cars, as engineers and lawmakers prepare for the new technology / VPTV.com, 5.07.2012 // https://web.archive.org/web/20130412143433/https://www.wptv.com/dpp/news/state/florida-embraces-self-driving-cars-as-engineers-and-lawmakers-prepare-for-the-new-technology
- ↑ Oram J. (2012). Governor Brown Signs California Driverless Car Law at Google HQ / Bright Side of News, 9/27/2012 // https://web.archive.org/web/20120930034324/http://www.brightsideofnews.com/news/2012/9/27/governor-brown-signs-california-driverless-car-law-at-google-hq-.aspx
- ↑ New Law Allows Driverless Cars On Michigan Roads (2013). / CBS Detroit, December 28, 2013 // https://www.cbsnews.com/detroit/news/new-law-allows-driverless-cars-on-michigan-roads/
- ↑ Driverless cars to be tested on UK roads by end of 2013 (2013). / BBC News, 16 July 2013 // https://www.bbc.com/news/technology-23330681
- ↑ Ducamp P. (2015). Des véhicules autonomes sur route ouverte à Bordeaux en octobre 2015 / L'Usine Digitale, 29 juin 2015 // https://www.usine-digitale.fr/article/des-vehicules-autonomes-sur-route-ouverte-a-bordeaux-en-octobre-2015.N338350
- ↑ Plass T. (2023). Navigating the future: Germany's autonomous driving act / Israel Public Policy Institute, Mar 22, 2023 // https://www.ippi.org.il/germany-autonomous-driving-act/
- ↑ Скрынникова A., Ставцева Л., Атасунцев А., Кокорева М. (2020). МИД попросили частично приостановить конвенцию о дорожном движении. Её положения мешают развитию беспилотного автотранспорта / РБК, 16 марта 2020 // https://www.rbc.ru/technology_and_media/16/03/2020/5e6b9edd9a7947bad7f691f5
- ↑ AI in the UK: ready, willing and able? Select Committee on Artificial Intelligence. Report of Session 2017–19 (2018) // https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf
- ↑ Davies M., Birtwistle M. (2023). Regulating AI in the UK. Strengthening the UK's proposals for the benefit of people and society / Ada Lovelace Institute, 18 July 2023 // https://www.adalovelaceinstitute.org/report/regulating-ai-in-the-uk/
- ↑ Establishing a pro-innovation approach to regulating AI (policy paper) (2022) // https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement
- ↑ A pro-innovation approach to AI regulation (policy paper) (2023) // https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper
- ↑ National Artificial Intelligence Initiative Act of 2020 (2020) // https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210
- ↑ NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) // https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
- ↑ Blueprint for an AI Bill of Rights (2022) // https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- ↑ Kraczon C. (2022). The State of State AI Policy (2021-22 Legislative Session). / Electronic privacy information center, August 8, 2022 // https://epic.org/the-state-of-ai/
- ↑ Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (2023). // https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/
- ↑ FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence (2023). // https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
- ↑ Mauran C., Gedeon K. (2023). White House drops an AI regulation bombshell: 10 new mandates that'll shake up the industry. / Mashable, October 30, 2023. // https://mashable.com/article/white-house-drops-ai-regulation-bombshell
- ↑ Chintala S. / Twitter, 31 октября 2023 г. // https://twitter.com/soumithchintala/status/1719209954714767403
- ↑ * Глубокий синтез [深度合成] — методика синтеза изображений, основанная на глубоких нейронных сетях, в просторечии — «дипфейк».
- ↑ 国家互联网信息办公室等三部门发布《互联网信息服务深度合成管理规定》 (2022) // http://www.cac.gov.cn/2022-12/11/c_1672221949318230.htm
- ↑ 生成式人工智能服务管理暂行办法 (2023) // http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm
- ↑ David E. (2023). China mandates that AI must follow “core values of socialism” / The Verge, Jul 14, 2023 // https://www.theverge.com/2023/7/14/23794974/china-generative-ai-regulations-alibaba-baidu
- ↑ Tobin M. (2023). China announces rules to keep AI bound by ‘core socialist values’ / The Washington Post, July 14, 2023 // https://www.washingtonpost.com/world/2023/07/14/china-ai-regulations-chatgpt-socialist/
- ↑ Che C. (2023). China Says Chatbots Must Toe the Party Line / The New York Times, April 24, 2023 // https://www.nytimes.com/2023/04/24/world/asia/china-chatbots-ai.html
- ↑ 国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知 (2023) // http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
- ↑ Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2021) // https://data.consilium.europa.eu/doc/document/ST-8115-2021-INIT/en/pdf
- ↑ Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2022) // https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf
- ↑ Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2023) // https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html
- ↑ Sioli L. (2021). Shaping Europe's digital future. A European Strategy for Artificial Intelligence // https://www.ceps.eu/wp-content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-23.4.21.pdf?
- ↑ Chee F. Y. (2023). AI generated content should be labelled, EU Commissioner Jourova says. / Reuters, June 5, 2023 // https://www.reuters.com/technology/ai-generated-content-should-be-labelled-eu-commissioner-jourova-says-2023-06-05/
- ↑ CAHAI (2020). Feasibility Study // https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da
- ↑ CAHAI (2021). Possible elements of a legal framework on artificial intelligence, based on the Council of Europe’s standards on human rights, democracy and the rule of law // https://rm.coe.int/cahai-2021-09rev-elements/1680a6d90d
- ↑ CAI (2023). Revised zero draft [framework] convention on artificial intelligence, human rights, democracy and the rule of law // https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f
- ↑ Beazley D. (2023). Canada sits on the fence about regulating AI. / CBA/ABC National, 31 May 2023 // https://nationalmagazine.ca/en-ca/articles/law/hot-topics-in-law/2023/canada-sits-on-the-fence-in-regulating-ai
- ↑ Bordoloi P. (2023). India Backs Off on AI Regulation. But Why? / Analytics India Magazine, April 10, 2023 // https://analyticsindiamag.com/india-backs-off-on-ai-regulation-but-why/
- ↑ For the first time in Israel: The principles of the policy for the responsible development of the field of artificial intelligence were published for public comment (2022). / Ministry of Innovation, Science and Technology, 17.11.2022 // https://www.gov.il/en/departments/news/most-news20221117
- ↑ Ravia H., Kaplan T., Hammer D. (2021). Use of Artificial Intelligence Attracts Legislative and Regulatory Attention in the E.U., U.S., and Israel. / Pearl Cohen, Apr 29, 2021 // https://www.pearlcohen.com/use-of-artificial-intelligence-attracts-legislative-and-regulatory-attention-in-the-e-u-u-s-and-israel/
- ↑ Roh T., Nam J. E. (2023). South Korea: Legislation on Artificial Intelligence to Make Significant Progress. / Kim & Chang, 2023.03.06 // https://www.kimchang.com/en/insights/detail.kc?sch_section=4&idx=26935
- ↑ Указ Президента Российской Федерации «О развитии искусственного интеллекта в Российской Федерации» (2019) // http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf
- ↑ Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback (2019). / U. S. Food & Drug Administration // https://www.fda.gov/files/medical%20devices/published/US-FDA-Artificial-Intelligence-and-Machine-Learning-Discussion-Paper.pdf
- ↑ Marketing Submission Recommendations for a Predetermined Change Control Plan for Artificial Intelligence/Machine Learning (AI/ML)-Enabled Device Software Functions. Draft Guidance for Industry and Food and Drug Administration Staff (2023). / U. S. Food & Drug Administration, April 2023 // https://www.fda.gov/regulatory-information/search-fda-guidance-documents/marketing-submission-recommendations-predetermined-change-control-plan-artificial
- ↑ Boubker J., Faget K. Y., Beaver N. A., Chmielewski M. R. (2023). FDA’s New Guidance Proposes Flexible Use of AI in Medical Devices / Foley, 10 May 2023 // https://www.foley.com/en/insights/publications/2023/05/fdas-guidance-flexible-use-ai-medical-devices
- ↑ Three Guidelines Published Today, Propelling China to be World Leader in Digital Health (2022). / China Med Device, March 9, 2022 // https://chinameddevice.com/digital-health-nmpa-ai/
- ↑ ISO/IEC JTC 1/SC 42 Artificial intelligence (2017) // https://www.iso.org/ru/committee/6794475.html
- ↑ Гасиоровски-Денис Е. (2020). Навстречу искусственному интеллекту // https://www.iso.org/ru/news/ref2530.html
- ↑ ISO/IEC JTC 1/SC 42 Artificial intelligence (2020). ISO/IEC TR 24028:2020. Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence // https://www.iso.org/ru/standard/77608.html
- ↑ Представлены 36 проектов национальных стандартов в области ИИ (2021). / D-russia.ru, 18.10.2021 // https://d-russia.ru/predstavleny-36-proektov-nacionalnyh-standartov-v-oblasti-ii.html
- ↑ Федеральный закон «О персональных данных» от 27.07.2006 №152-ФЗ (2023) // https://www.consultant.ru/document/cons_doc_LAW_61801/
- ↑ * Cambridge Analytica (CA) — британская частная компания, которая использовала продвинутые технологии анализа данных, собранных в социальных сетях, чтобы оказывать влияние на результаты выборов и референдумов.
- ↑ Chen D., Fraiberger S. P., Moakler R., Provost F. (2017). Enhancing Transparency and Control When Drawing Data-Driven Inferences About Individuals / Big DataVol. 5, No. 3 // https://doi.org/10.1089/big.2017.0074
- ↑ Duhigg C. (2012). How Companies Learn Your Secrets / The New York Times Magazine, February 16, 2012 // https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html
- ↑ Basel Committee on Banking Supervision (2011). Basel III: A global regulatory framework for more resilient banks and banking systems // https://www.bis.org/publ/bcbs189.pdf
- ↑ Kang C. (2023). How Sam Altman Stormed Washington to Set the A.I. Agenda / The New York Times, June 7, 2023 // https://www.nytimes.com/2023/06/07/technology/sam-altman-ai-regulations.html
- ↑ Kang C. (2023). OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing / The New York Times, May 16, 2023 // https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html