Искусственный интеллект
Автор - Wolfcom.
При использовании произведения, размещенного на странице, просим указывать авторство (Волков Владислав Эдуардович) и ссылку на страницу. Также просим не использовать этот материал в коммерческих целях. |
Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека[1].
Комплекс технологических решений включает в себя
- информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения),
- процессы и сервисы по обработке данных и поиску решений.
Технологии искусственного интеллекта - технологии, основанные на использовании искусственного интеллекта (включая
- компьютерное зрение,
- обработку естественного языка,
- распознавание и синтез речи,
- интеллектуальную поддержку принятия решений
- и перспективные методы искусственного интеллекта)[1].
Искусственный интеллект как объект правоотношений
При правовой характеристике технологий искусственного интеллекта необходимо исходить из того, что сам термин «интеллект» не имеет однозначного и общепризнанного определения. Подходы к его пониманию существенно различаются в зависимости от принадлежности интерпретатора к той или иной философской школе Сложность определения искусственного интеллекта как объекта правоотношений связана со следующими факторами.
Антропоморфное определение ИИ

Современная физиология не дает исчерпывающего представления о принципах и механизмах высшей нервной деятельности человека как прообраза искусственного интеллекта. Поэтому определение искусственного интеллекта на основе аналогии с проявлениями разума в живой природе вряд ли может быть обосновано при современном уровне знаний[2].
Однако антропоморфное понимание искусственного интеллекта отражено в терминологическом аппарате правовых актов. Легальное определение искусственного интеллекта в Федеральном законе “О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта…” от 24.04.2020 № 123-ФЗ исходит из его способности имитировать когнитивные функции человека и сопоставления результатов его работы с результатами интеллектуальной деятельности людей. Причем результат интеллектуальной деятельности человека рассматривается как минимально допустимый для систем искусственного интеллекта.
При описании технологии машинного обучения в Национальной стратегии развития искусственного интеллекта также утверждается, что нейронные сети организованы по аналогии с человеческим мозгом. Хотя известно, что в прообразах животного мира масштаб и принципы деятельности мозга человека, связи и функции нейронов в нервной системе пока не выяснены.
Парадокс ИИ
"Парадокс (эффект) ИИ" - тенденция к постоянному переопределению искусственного интеллекта, исходящая из утверждения "ИИ - это все, что еще не сделано". Это распространенное суждение, согласно которому, как только искусственный интеллект успешно решает проблему, этот метод решения больше не относится к области искусственного интеллекта. Иными словами, люди склонны переставать считать технологию проявлением искусственного интеллекта, если она хорошо работает[3]. Например, шахматные программы, обыгрывающие гроссмейстеров, раньше считались технологиями искусственного интеллекта. Сейчас это просто «вычисления» или «программа». Также поиск в интернете, автодополнение текста, переводчики — всё это раньше воспринималось как элементы искусственного интеллекта, а теперь считается обычными функциями программного обеспечения.
Искусственный интеллект и Artificial Intellegence
Искаженное понимание искусственного интеллекта в российской доктрине также обусловлено утратой действительного смысла терминологии при переводе англоязычного термина «artificial intelligence». В английском языке это словосочетание не имеет антропоморфной окраски, которую оно приобрело в традиционном русском переводе. Слово intelligence в используемом контексте скорее означает «умение принимать правильные решения» или «рассуждать разумно», а вовсе не человеческий интеллект, для которого есть английский аналог intellect[4].
Определение искусственного интеллекта в законодательстве Российской Федерации
Противоречивость терминологии в изучаемой области признается в программных документах. Концепция регулирования отношений в сфере искусственного интеллекта и робототехники, утвержденная распоряжением Правительства Российской Федерации от 19 августа 2020 г. № 2129-р исходит из невозможности однозначного понимания содержания терминов «искусственный интеллект», «робот», «умный робот», «робототехника», «интеллектуальный агент».
Для решения терминологических проблем предлагается допустить формулирование разных определений в зависимости от отрасли применения технологий искусственного интеллекта и по возможности избегать внедрения в законодательство Российской Федерации единого для всех отраслей нормативного определения указанных терминов. Там, где это необходимо для целей определения предмета регулирования нормативных правовых актов, предлагается использовать определения, содержащиеся в технических стандартах, либо давать определения, актуальные конкретно для этой сферы регулирования.
Однако полноценно реализовать перечисленные предложения, по-видимому, не удастся. В предварительном национальном стандарте РФ ПНСТ 553-2021 «Информационные технологии. Искусственный интеллект. Термины и определения», принятом уже после утверждения Концепции, было использовано то же определение ИИ, имеющее пороки необоснованного антропоморфизма: комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Оно рекомендовано для использования в нормативных документах, правовой, технической и организационно-распорядительной документации, научной, учебной и справочной литературе.
При этом в более новом стандарте "ГОСТ Р 71476-2024 (ИСО/МЭК 22989:2022). Национальный стандарт Российской Федерации. Искусственный интеллект. Концепции и терминология искусственного интеллекта" искусственный интеллект определяется лишь в смысле дисциплины, как область науки и техники, рассматривающая технические системы, которые порождают такие результаты, как контент, прогнозы, рекомендации или решения для заданного набора поставленных человеком задач.
Технологии слабого искусственного интеллекта как объект правовых отношений
Дискуссионность определения искусственного интеллекта не позволяет создать основу для его признания в качестве объекта правового регулирования. В то же время продуктивным может быть обсуждение регулирования конкретных технических решений, отнесенных к данной предметной области. К ним относятся
- компьютерное зрение,
- обработка естественного языка,
- распознавание и синтез речи,
- интеллектуальная поддержка принятия решений;
- перспективные методы искусственного интеллекта.
Для определения принадлежности технологии к сфере искусственного интеллекта используются критерии, определенные Приказом Минэкономразвития России от 29.06.2021 № 392 "Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта"[5].
Ограничение предмета правового регулирования перечисленными технологиями соответствует теоретической концепции разграничения сильного и слабого искусственного интеллекта.
Сейчас технологии находятся на уровне «слабого» искусственного интеллекта, способного решать только узкоспециализированные задачи. Создание «сильного» искусственного интеллекта, способного, подобно человеку, решать различные задачи, мыслить, взаимодействовать и адаптироваться к изменяющимся условиям, на практике пока невозможно. Теоретическая возможность его создания также пока не доказана. Попытка нормативного регулирования отношений, не существующих в действительности, будет означать неоправданное использование ресурсов права, а его доктринальное обоснование вряд ли может выйти за пределы научных дискуссий.
Необходимость специального публично-правового регулирования технологий, объединенных обозначением «слабого» искусственного интеллекта, обусловлена их общим признаком – созданные на их основе системы могут действовать автономно при неспособности непосредственно воспринимать этические и правовые нормы, а также учитывать их при принятии решений. Эти особенности имеют разный социальный эффект в зависимости от сферы применения технологий искусственного интеллекта и будут рассмотрены ниже.
Нормативное регулирование технологий ИИ
Современное нормативное регулирование технологий искусственного интеллекта подразумевает разграничение правовых и этических норм. Право определяет формализованные обязательные требования, относительно которых существует общественный консенсус, подкрепленный государственным принуждением. Однако в правовых нормах не могут быть предусмотрены все возможные жизненные сценарии. Поэтому право дополняется этическими правилами, подсказывающими направления должного поведения, в отношениях, где правовой определенности пока нет или где она не может быть достигнута.
Социальное регулирование
В свою очередь, правовое регулирование технологий искусственного интеллекта можно условно разделить на социальное и техническое. В России социальное регулирование представлено следующими правовыми актами.
Во-первых, Федеральным законом от 24 апреля 2020 года № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных». Далее мы будем называть его законом о специальном регулировании.
Во-вторых, Федеральным законом от 31 июля 2020 года № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Нормы перечисленных Федеральных законов носят экспериментальный и временный характер. Они предусматривают разграничение общего и специального правового регулирования. Для реализации цифровых инноваций устанавливается специальное регулирование. Его особенности определяются программой экспериментального правового режима. Она действует в отношении только специальных субъектов – участников экспериментального правового режима на определенный срок и, если иное не предусмотрено программой, действует только на определенной территории. К примеру, с 2018 по 2022 год проводился эксперимент по тестированию беспилотных автомобилей на дорогах общего пользования. Территория эксперимента была ограничена тринадцатью субъектами Российской Федерации.
Перечень инноваций, требующих установления специального правового регулирования, приведен в пояснительной записке к Федеральному закону 02.07.2021 № 331-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации в связи с принятием Федерального закона «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Например, для проведения эксперимента по коммерческому использованию беспилотного наземного транспорта – высокоавтоматизированных транспортных средств (ВАТС) (ООО «Яндекс» и ООО «Яндекс Беспилотные Технологии») необходим пересмотр принципов безопасности дорожного движения, поскольку действующим законодательством не допускается эксплуатация автомобилей без водителя. Специальное регулирование в данном случае заключается в установлении особенностей применения (то есть в отступлении от требований) Федеральных законов «О безопасности дорожного движения», «Об обязательном страховании гражданской ответственности владельцев транспортных средств», «О техническом осмотре транспортных средств и о внесении изменений в отдельные законодательные акты Российской Федерации», а также Устава автомобильного транспорта и городского наземного электрического транспорта.
Несмотря на то, что одним из принципов экспериментального правового режима является минимизация отступлений от общего регулирования, его эффект заключается в целенаправленном сокращении нормативного воздействия правовых норм. Происходит замена универсального действия права индивидуальным. Общеобязательные и бессрочные нормы заменяются нормами, ограниченными по времени, кругу лиц и действию в пространстве. Это вынужденная мера, направленная на минимизацию возможного вреда в случае неудачи инновационных экспериментов. И все же следует сознавать опасность подмены универсальных норм индивидуальными. Индивидуализация правового регулирования размывает реализацию общих принципов права, осложняет защиту прав, свобод и законных интересов граждан, а также создает условия для произвольного правоприменения. Поэтому экспериментальные правовые режимы надо рассматривать скорее как необходимое зло, и по возможности заменять их общим правовым регулированием, обогащенным нормами, доказавшими свою эффективность в результате экспериментов.
В условиях экспериментального законотворчества в сфере технологий искусственного интеллекта стратегия публично-правового регулирования определяется подзаконным актом – Указом Президента РФ 2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» и Распоряжением Правительства РФ от 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года», Приказом Министерства экономического развития РФ от 29 июня 2021 г. № 392 "Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта". Перечисленные акты также имеют перспективный и экспериментальный характер на грани юридической футурологии.
Техническое регулирование
Техническое регулирование технологий искусственного интеллекта, в отличие от социального, содержит существенный международный элемент. Оно заключается в унификации требований к техническим решениям путем их стандартизации. Международные стандарты в области искусственного интеллекта создаются специальными международными организациями:
- Международной организацией по стандартизации (International Organization for Standardization, ISO);
- Международной электротехнической комиссией (International Electrotechnical Commission, IEC);
- Международным союзом электросвязи (International Telecommunication Union, ITU).
В структуре Международной организации по стандартизации действуют внутренние органы, специализирующиеся на вопросах ИИ и робототехники:
- технический комитет по искусственному интеллекту (ISO/IEC JTC 1/SC 42 Artificial intelligence);
- технический комитет по робототехнике – ISO/TC 299 Robotics.
Национальная стандартизация технологических решений в области искусственного интеллекта осуществляется стандартами ГОСТ Р, утверждаемые приказами Росстандарта (Федерального агентства по техническом регулированию и метрологии. В структуре Росстандарта также действуют два органа –
- технический комитет № 164 по искусственному интеллекту (см. Приказ Росстандарта от 01.07.2022 № 1615 "О закреплении документов национальной системы стандартизации за техническим комитетом по стандартизации "Искусственный интеллект" (ТК 164)");
- технический комитет № 194 по кибер-физическим системам.
В 2021 году принят предварительный национальный стандарт ПНСТ 553—2021 «Искусственный интеллект. Термины и определения», утративший силу с 01.03.2023. В настоящее время применяется ГОСТ Р 71476-2024 "Национальный стандарт РФ. Искусственный интеллект. Концепции и терминология искусственного интеллекта"[6].
Одним из принципов Федерального закона «О стандартизации в Российской Федерации» от 29.06.2015 № 162-ФЗ является добровольность применения документов по стандартизации. То есть техническое регулирование, как правило, предусматривает добровольное следование стандартам в области искусственного интеллекта. Однако для производителей систем искусственного интеллекта стандарты становятся фактически обязательными, поскольку следование им обеспечивает конкурентоспособность продуктов и принятие их рынком. Эта особенность привела к тому, что технические норм стали именовать «мягким правом» в противовес общеобязательным социальным нормам.
Этика ИИ
Сложная технологическая природа и неопределенность социальных последствий реализации технологий искусственного интеллекта приводят к необходимости дополнения его правового регулирования этическими нормами. Причем на нынешнем этапе этическое регулирование преобладает над правовым.
Три закона робототехники

Необходимость выработки этических оснований взаимодействия с системами, способными действовать автономно от человека, была осознана задолго до появления самих этих систем. Известность получили принципы, сформулированные Айзеком Азимовым в фантастическом рассказе «Хоровод», опубликованном в 1942 году. Они известны как три закона робототехники. Первый состоит в том, что робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Согласно второму робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому закону. В-третьих, робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам.
Современные принципы этики ИИ

Сейчас очевидно, что перечисленные правила не способны быть основанием для публично-правового регулирования технологий искусственного интеллекта. Значительная часть разработок в этой области финансируется военными ведомствами в целях создания новых видов оружия. Применение технологий ИИ для причинения вреда человеку явно противоречит Первому закону, а значит ставит под сомнение и оставшиеся. Кроме того, взаимоотношения государств, лидирующих в области технологий ИИ – США и Китайской народной республики, находятся в состоянии, напоминающем гонку вооружений[7]. Поэтому формирование этических норм, признанных всеми заинтересованными сторонами, которые могли бы стать основой для международно-правового регулирования, является вряд ли достижимой сейчас задачей. Выработка универсальных норм также осложняется тем, что в мире нет единого представления о нравственных ценностях, которые должны лежать в основе работы систем ИИ.
Множество этических норм разной степени убедительности выработаны в рамках G20, а также в клубах регионального международного сотрудничества. К 2020 году были известны более 80 международных и национальных актов, предусматривающих этические требования к технологиям искусственного интеллекта. Однако, в связи с выходом России из Совета Европы и фактическим прекращением сотрудничества со странами коллективного Запада, в России они имеют в основном символическое значение. Между тем, наиболее полно этические требования к технологиям искусственного интеллекта разработаны как раз в документах США (23,8%), Великобритании (16,7%), Японии (4,8%) и странах Европейского Союза – ФРГ, Франции и Финляндии (по 3,6%).
Несмотря на сложности в международном сотрудничестве проблематика этического регулирования сохраняется. Об этом свидетельствует постоянно возрастающее число публикаций по данной теме[8]. Несмотря на значительные семантические и концептуальные расхождения, в результате их сравнительного анализа можно выявить следующие основные принципы современной этики искусственного интеллекта.
Прозрачность технологий ИИ
Означает необходимость раскрытия механизмов работы систем, использующих эти технологические решения, для обеспечения объяснимости решений, принимаемых с их помощью. Основные сферы применения данного принципа – автоматизированная обработка персональных данных, взаимодействие человека с системами искусственного интеллекта, их использование для принятия решений. Подчеркивается важность данного принципа для минимизации возможного вреда, который может быть причинен системами искусственного интеллекта, и укрепления доверия к ним. Реализация принципа прозрачности требует от разработчиков и администраторов систем раскрытия соответствующей информации: самого факта использования технологий искусственного интеллекта, исходного кода программ, информации о наборах данных, используемых для машинного обучения, ограничений, свойственных той или иной системе, информации об инвесторах или выгодоприобретателях. Также приветствуется изложение технических правил работы систем в форме, пригодной для восприятия человеком, не обладающим специальными знаниями.
Принципы справедливости и равноправия
Применительно к технологиям искусственного интеллекта понимаются как меры, направленные на предотвращение дискриминационных решений, принимаемых с использованием ИИ. Прикладное значение принципа состоит в признании многообразия личностных характеристик, равном отношении к разным людям, а также в признании права на обжалование решений, принятых с помощью технологий искусственного интеллекта.
Принцип безопасности технологий ИИ
Означает недопустимость их использования для противоправного причинения вреда. При этом вред понимается широко – не только как вред здоровью, моральный вред или имущественный ущерб, но и как дискриминационные решения, угрозы разрушения социальной солидарности, эмоциональная нестабильность людей и прочие негативные последствия автоматизации общественной жизни. Во многих документах подразумевается, что вред от применения технологий искусственного интеллекта может быть неизбежным. В этом случае требуется оценка рисков, применение мер для их снижения, а также определение лиц, ответственных за деятельность систем искусственного интеллекта. Особенностью современного этапа этического регулирования является разграничение технологий искусственного интеллекта на используемые в гражданских и в военных целях. В большей части документов, содержащих этические нормы, подчеркивается, что их действие распространяется исключительно на гражданские технологии, а о требованиях к системам двойного и военного назначения обычно умалчивается.
Принцип уважения неприкосновенности частной жизни
Обычно определяется в терминах защиты чувствительной для человека информации. Предлагаемые методы обеспечения информационной безопасности в данной сфере можно разделить на три направления: во-первых, технические решения, такие как дифференциальная приватность, встроенная защита данных[9], конфиденциальность по умолчанию; второе направление – минимизация собираемых данных и контроль пользователя над переданными данными; в третьих, организационные меры: стимулирование исследований в области регулирования обработки персональных данных, добровольный комплаенс-контроль и разработка отраслевых стандартов в сферах применения искусственного интеллекта.
Принцип общего блага как результата применения технологий ИИ
Часто упоминается в этических нормах, но его смысл раскрывается гораздо реже. Для характеристики данного принципа обычно используются весьма широкие категории – использование технологий искусственного интеллекта должно приводить к повышению уровня благосостояния людей, содействовать процветанию, миру, счастью, появлению новых социально-экономических возможностей. Аналогичная неопределенность существует и в отношении субъектов, которые должны извлекать выгоду из технологий искусственного интеллекта. Этические нормы, выработанные в предпринимательском сообществе, как правило, подчеркивают преимущества использования технологий искусственного интеллекта для потребителей, хотя многие источники требуют, чтобы они приносили пользу «каждому», «человечеству», «обществу», «всем, насколько это возможно», «всем разумным существам», «планете» и «окружающей среде». Стратегии достижения общего блага предполагают приведение систем искусственного интеллекта в соответствие с общечеловеческими ценностями, недопустимость их использования для концентрации властных полномочий, необходимость предотвращения или минимизации конфликтов интересов, а также разработку новых показателей для измерения уровня жизни людей в условиях работы систем искусственного интеллекта.
Принцип уважения свободы воли человека и автономии личности
Применительно к использованию технологий искусственного интеллекта понимаются как свобода слова в широком смысле и возможность информационного самоопределения. Позитивная сторона принципа означает возможность свободного волеизъявления по поводу использования технологий, а также выбора определенной технологической платформы. Негативный аспект свободы в сфере технологий искусственного интеллекта проявляется в возможности отказа от их использования, а также отказа от участия в технологических экспериментах. Реализации данного принципа способствует прозрачность и предсказуемость искусственного интеллекта, повышение осведомленности людей в сфере информационных технологий, недопустимость сбора и распространения персональных данных в отсутствие информированного и добровольного согласия гражданина.
Принцип обеспечения устойчивого развития
Требует обеспечения защиты окружающей среды, улучшения экосистемы планеты и содействия биоразнообразию при разработке и внедрении технологий ИИ. Его реализация должна приводить к созданию устойчивых энергоэффективных систем ИИ, способных функционировать постоянно и создавать блага, сохраняющие актуальность в течение длительного времени. В целях устойчивого развития на технологические корпорации возлагаются обязанности по применению организационных и экономических мер в связи с потенциальным сокращением рабочих мест в результате внедрения технологий искусственного интеллекта.
Принцип охраны достоинства личности
Означает, что достоинство остается прерогативой людей, а не роботов. Уважение достоинства личности в контексте искусственного интеллекта понимается как свобода от принуждения к участию в автоматической классификации, а также недопустимость скрытного применения технологий искусственного интеллекта.
Принцип социальной солидарности
В основном упоминается в связи с последствиями применения систем искусственного интеллекта для рынка труда. Этические нормы призывают к повышению уровня социальной защиты в областях, подверженных применению технологий. Подчеркивается необходимость их использования таким образом, чтобы не создавать угроз социальной солидарности и поддерживать потенциально уязвимых лиц и социальные группы. Существует предположение, что безответственное и бесконтрольное использование систем искусственного интеллекта может приводить к разложению общества на основе идеологии «радикального индивидуализма».
Кодекс этики в сфере искусственного интеллекта
В России с 26 октября 2021 года открыт для подписания Кодекс этики в сфере искусственного интеллекта[10]. По замыслу его авторов он должен установить общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере создания и использования технологий ИИ. В целом кодекс следует традиционным принципам этики в сфере искусственного интеллекта, перечисленным выше.
Некоторый диссонанс создает распространение этических требований на сферу действия правовых норм. Согласно кодексу «акторы ИИ должны знать и соблюдать положения законодательства Российской Федерации во всех сферах своей деятельности и на всех этапах создания, внедрения и использования технологий ИИ, в том числе в вопросах юридической ответственности Акторов». Полагаем, что Акторы должны соблюдать требования норм права и без напоминания об этом в Кодексе этики.
Также трудно согласиться с утверждением авторов кодекса, что его нормы, как нормы «мягкого права» способны «уравновесить государственное регулирование». Оставим за скобками само по себе спорное утверждение о том, что право может быть мягким, это предмет терминологических дискуссий. Но утверждение о том, что этические нормы уравновешивают правовое регулирование, имеет смысл только в том случае, если этические и правовые нормы разводятся по разные стороны нормативного регулирования. В таком случае создается иллюзия, что этика противостоит праву, что противоречит предыдущему заявлению авторов кодекса, где они демонстрируют уважение к закону.
Несмотря на отдельные дискуссионные положения, принятие национального кодекса этики и его широкое распространение являются позитивными событиями. Их сходство с этическими принципами, сформулированными в других странах, оставляет надежду на формирование универсальных норм и правил взаимодействия людей в связи с применением технологий ИИ.
- ↑ 1,0 1,1 Федеральный закон от 24 апреля 2020 г. N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"
- ↑ Цифровая экономика: актуальные направления правового регулирования: научно-практическое пособие / М.О. Дьяконова, А.А. Ефремов, О.А. Зайцев и др.; под ред. И.И. Кучерова, С.А. Синицына. – Москва: ИЗиСП, НОРМА, 2022. – С. 376 с.
- ↑ Kurzweil, Ray (1990), The Age of Intelligent Machines, Cambridge, MA: MIT Press, ISBN 0-262-11121-7
- ↑ Базы знаний интеллектуальных систем / Т.А. Гаврилова, В.Ф. Хорошевский – СПб: Питер, 2000. – С. 10 (384).
- ↑ Приказ Минэкономразвития России от 29.06.2021 № 392 "Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта"
- ↑ ГОСТ Р 71476-2024 "Национальный стандарт РФ. Искусственный интеллект. Концепции и терминология искусственного интеллекта"
- ↑ Analysis: Banned U.S. AI chips in high demand at Chinese state institutes. – URL: https://reut.rs/3h6P1GA
- ↑ AI Index | Stanford HAI // https://hai.stanford.edu/ai-index
- ↑ Privacy by design и privacy by default (спроектированная защита данных и конфиденциальность по умолчанию по GDPR) // https://habr.com/ru/companies/digitalrightscenter/articles/479514/
- ↑ Кодекс этики в сфере искусственного интеллекта