ВАК 12.00.01 Теория и история права и государства; история учений о праве и государстве
ВАК 12.00.02 Конституционное право; конституционный судебный процесс; муниципальное право
ВАК 12.00.13 Информационное право
ВАК 12.00.10 Международное право; Европейское право
ВАК 12.00.12 Криминалистика; судебно-экспертная деятельность; оперативно-розыскная деятельность
ВАК 12.00.14 Административное право; административный процесс
УДК 34 Право. Юридические науки
ГРНТИ 10.01 Общие вопросы
ГРНТИ 10.07 Теория государства и права
ГРНТИ 10.19 Информационное право
ББК 67 Право. Юридические науки
ББК 670 Общая теория права
ББК 60 Общественные науки в целом
Проблема регулирования процессов разработки, создания и использования роботов и юнитов искусственного интеллекта (ИИ) остро стоит для всех государств, занимающихся цифровой трансформацией общественных отношений. В статье рассмотрены два аспекта этой проблемы: во-первых, выбор оптимальных регулятивных средств, соответствующих настоящему этапу развития технологий; во-вторых, зависимость правовых режимов от понятия и дефиниций роботов и юнитов искусственного интеллекта. Качественное правовое регулирования всегда неразрывно связано с точными дефинициями и определением предмета правового регулирования. В статье рассмотрены различные подходы к определению понятий роботов и искусственного интеллекта, а также сформулировано авторское видение вопроса о выборе правовых режимов для разных видов ИИ и роботов. Применительно к вопросу о выборе регулятивных средств показаны значимость и необходимость этического регулирования робототехники и ИИ. Деонтологическое регулирование авторы считают наиболее перспективным и приемлемым для современного уровня развития технологий. При этом доказывается, что в современных условиях этическое регулирование в сфере ИИ и автономных роботизированных аппаратов выполняет роль саморегулирования и берет на себя функции различных средств саморегуляции.
роботы, искусственный интеллект, автономные роботизированные аппараты, право, этика, деонтологическое регулирование, саморегулирование, правовое регулирование, этические кодексы
Введение в проблему
Автономные роботизированные аппараты (АРА), оснащенные искусственным интеллектом (ИИ), в перспективе способны кардинально изменить не только производство, бизнес, сферу обслуживания, быт, военную сферу, но и мораль, культуру, идеологию и правовое регулирование. Правовой вакуум в отношениях, связанных с разработкой и использованием ИИ и АРА, во многом объясняется отсутствием этических принципов опосредования таких отношений.
Правовое регулирование сфер, связанных с ИИ и робототехникой, в современной России является нетипичным с точки зрения сложившейся правовой традиции. Основное регулирование осуществляется не базовыми федеральными законами и подзаконными актами, а документами стратегического планирования, политико-программными актами, а также техническими нормами (ГОСТами). К основным документам, определяющим в настоящий момент направления развития ИИ и робототехники, следует отнести:
- Национальную программу «Цифровая экономика Российской Федерации» (утв. протоколом заседания президиума Совета при Президенте Российской Федерации по стратегическому развитию и национальным проектам от 4 июня 2019 г. № 7), которая включает в себя следующие федеральные проекты: «Нормативное регулирование цифровой среды», «Кадры для цифровой экономики», «Информационная инфраструктура», «Информационная безопасность», «Цифровые технологии», «Цифровое государственное управление», «Искусственный интеллект» [22];
- Национальная стратегия развития искусственного интеллекта на период до 2030 года [2];
- Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года [3];
- Федеральный проект «Искусственный интеллект» [5].
Что касается федеральных законов, то специалисты насчитывают на сегодняшний день 14 документов, которые посвящены отдельным аспектам внедрения цифровых технологий, в частности, правовому регулированию самоисполняемых контрактов («смарт-контрактов»), электронной формы сделки и цифровых прав, правовому регулированию отношений, возникающих в связи с инвестированием и привлечением инвестиций с использованием инвестиционных платформ, цифровизации отдельных нотариальных услуг, правовой регламентации перехода от бумажных трудовых книжек к учету сведений о работниках в электронной форме, цифровых финансовых активов и цифровой валюты, экспериментальных правовых режимов в сфере цифровых инноваций и пр. [15, с. 29].
Понятно, что паспорта национальных проектов, документы стратегического планирования, концепции, являясь программными документами, не рассчитаны на правовое регулирование в строгом смысле слова и не содержат норм права как таковых. Поэтому на настоящем этапе говорить о полноценном регулировании процессов разработки, внедрения и использования роботов и ИИ не приходится. К тому же есть принципиальный момент, связанный с этическим регулированием указанных процессов.
Этическая проблематика применительно к контексту глобальной цифровизации многопланова [11, р. 135-137.]. Существуют классические этические дилеммы, которые не поддаются алгоритмическому разрешению. В данном случае приемлемость того или иного нравственного выбора будет определяться культурой, эпохой, архетипическими ценностями этноса и доминирующей идеологией последних лет. Однако, если речь идет о широком внедрении в практику устройств, основанных на системах ИИ, этические дилеммы необходимо разрешить, причем практическим образом. В отношении устройств, рассчитанных на автономность и самостоятельное принятие решений в типовых и нетиповых ситуациях, этические принципы должны превратиться в четкий набор инструкций, предусматривающих алгоритм действия в случае выбора между нравственными ценностями (например, выбор действия для беспилотного автомобиля в случае возникновения равнозначных угроз для пассажиров транспортного средства и пешеходов).
В данной работе мы затронем два аспекта, связанных с регуляцией автономных роботизированных аппаратов (АРА) и ИИ. Это дефинитивная проблема и проблема выбора оптимальных форм этического регулирования.
Дефинитивная проблема.
Количество сфер применения роботов растет с каждым днем, так же, как и их разнообразие. При этом в разных отраслях деятельности под роботом понимают совершенно разные вещи. Кто-то, думая о роботах, представит себе киборга, похожего на Терминатора, а кто-то – круглую платформу, которая ежедневно чистит его дом (робот-пылесос). Приходится признать, что охватить одним понятием «робот» столь разнообразные явления сложно, а урегулировать законодательно еще сложнее.
Получается, что и специалисты, и обыватели, рассуждая о роботах, исходят из некоего интуитивного их понимания. Лучше всего такой «интуитивный» подход выразил Джозеф Энгельбергер: «Я не могу дать определение робота, но когда я вижу робота – я знаю, что это он» [12].
К сожалению, ни для научных целей, ни для целей правового регулирования такой подход неприемлем. Проблемы, возникающие при формулировании понятия «робот», связаны, прежде всего, с технической сложностью и полифункциональностью определяемых устройств. Кроме этого, проблемы робототехники опосредуют в своей деятельности разные специалисты, что требует соответствующей специализации определений.
В словаре Merriam-Webster приведено следующее определение: робот – машина, которая внешне напоминает человека и осуществляет различные сложные действия (напр., ходит, говорит), свойственные человеку [13].
Зимберман Н.Н., Стефанцова М.А. в своей статье «Социальный робот: подходы к определению понятия» выделяют следующие компоненты содержания понятия робот: электромеханическое устройство; программируемый; автономный и/или управляемый; взаимодействует с окружающей средой; имеет две или более степени свободы; может быть мобильным [16, с. 297-311].
В инициативном проекте Федерального Закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники», предложенном Дмитрием Гришиным, используется следующее понятие: робот – устройство, способное действовать, определять свои действия и оценивать их последствия на основе информации, поступающей из внешней среды, без полного контроля со стороны человека. В проекте вводится понятие робот-агент (робот, зарегистрированный в едином государственном реестре роботов-агентов, который имеет обособленное имущество и отвечает им по своим обязательствам) [14].
Официальных определений роботов не так много. На международном уровне стоит обратить внимание на международный стандарт ISO[1] 8373:2012 «Robots and robotic devices – Vocabulary», где говорится, что робот – это приводной механизм, программируемый по двум осям, имеющий некоторую степень автономности, движущийся внутри рабочей среды и выполняющий задачи по предназначению [7].
В Законе Южной Кореи о содействии развитию и распространению умных роботов № 9014 от 28.03.2008 под «умным роботом» понимается механическое устройство, которое способно воспринимать окружающую среду, распознавать обстоятельства, в которых оно функционирует, и целенаправленно передвигается самостоятельно [9].
В России с 1 января 2016 года действует ГОСТ Р ИСО 8373–2014 «Роботы и робототехнические устройства. Термины и определения», которые дублирует положения уже упоминавшегося международного стандарта ISO 8373:2012. Пункт 2.6 ГОСТ закрепляет понятие «робот», под которым понимается исполнительный механизм, программируемый по двум или более степеням подвижности, обладающий определенной степенью автономности и способный перемещаться во внешней среде с целью выполнения задач по назначению [6].
Однако рассматривать это определение как легальную дефиницию для российской правовой системы нельзя, так как оно является скорее отраслевым, нежели универсальным. К тому же сразу возникают «буквоедские» юридические вопросы, например, может ли в соответствие с этим определением механизм на предприятии (промышленный робот), часто обладающий большим объемом, весом, но не способный передвигаться в пространстве, называться роботом? Голосовых помощников, ботов-консультантов тоже называют роботами, хотя с точки зрения внешней объективации они представляют собой программное обеспечение, расположенное на сервере. То же самое можно сказать и про робота-агента из законопроекта Гришина, о котором упоминалось выше. Так что признак «способный перемещаться во внешней среде» ставится под сомнение (или нуждается в толковании).
Здесь мы сталкиваемся с еще одним аспектом дефинитивной проблемы: разграничение понятий робота и искусственного интеллекта. В широком смысле под искусственным интеллектом понимают технологию (точнее, рой технологий), которая воспроизводит человеческое поведение и способности, которые обычно считаются «интеллектуальными». Кроме этого, ИИ, также известный как машинный интеллект, является отраслью компьютерных наук, целью которой является наделение программного обеспечения способностью анализировать свою среду с использованием либо заранее определенных правил и алгоритмов поиска, либо распознавания моделей машинного обучения, а затем принимать решения на основе этого анализа [10].
Считается, что термин «искусственный интеллект впервые сформулировал американский ученый в области информатики Джон Маккарти еще в 50-х годах прошлого века. Маккарти определял ИИ как свойство роботов, компьютерных программ и систем решать задачи, формулировать выводы, принимать решения, выполняя творческие и интеллектуальные функции человека [18, с. 99].
В Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ от 10 октября 2019 года № 490, под искусственным интеллектом понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений [2].
С позиций точности правового регулирования важно понимать, что ИИ – это не отдельная технология, а рой технологий (комплекс). Самое «свежее» определение ИИ в нашей правовой системе содержится, очевидно, в федеральном законе от 24 апреля 2020 г. № 123-ФЗ о проведении в г. Москва эксперимента по внедрению технологий искусственного интеллекта [1]. В п. 2 ст. 2 указанного закона дается определение ИИ: искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Там же указано, что комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
П. 3 ст. 2 Закона раскрывает понятие «технологии искусственного интеллекта» – это технологии, основанные на использовании искусственного интеллекта (включая компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта).
В принятой Минцифры РФ в 2019 г. Дорожной карте развития "сквозной" цифровой технологии "Нейротехнологии и Искусственный интеллект", в п. 1.1., было выделено семь субтехнологий:
— компьютерное зрение;
— обработка естественного языка;
— распознавание и синтез речи;
— рекомендательные системы и интеллектуальные системы поддержки принятия решений;
— перспективные методы и технологии в искусственном интеллекте;
— нейропротезирование;
— нейроинтерфейсы, нейростимуляция и нейросенсинг [4].
Применительно к дефинитивной проблеме нам представляются важными два замечания. Во-первых, надо определиться с соотношением понятий роботов и ИИ. Если обобщить имеющиеся подходы к пониманию роботов и ИИ, можно прийти к следующим выводам. Очевидно, что для понятия робота принципиальное значение будут иметь внешние параметры, аппаратные и структурные характеристики, особенности материальной оболочки. Робот – это прежде всего механизм, устройство с определенной функциональностью, причем эта функциональность связана обычно со способностью действовать во внешней среде и совершать определенные манипуляции с окружающими предметами. ИИ – это программный продукт, который может функционировать в определенной информационной системе и предназначен для обработки больших объемов поступающей извне информации и взаимодействия с человеком. Важнейшими составляющими для ИИ будут информационная и коммуникативная, в то время как для робота – аппаратная и механическая. Конечно, для ИИ нужен материальный носитель и человекочитаемый интерфейс, но манипуляции с предметами в окружающей среде не являются для него принципиальными. Робот может являться носителем искусственного интеллекта, если такое будет предусмотрено в его задачах, а может и не являться. В любом случае робот продолжает оставаться роботом, если способен действовать по определенному алгоритму для осуществления предзаданных задач. То есть роботы – это программируемые машины, которые могут автономно или автоматически выполнять те или иные действия [18, с. 99]. Искусственный интеллект может сделать робота “умным” в кратное количество раз увеличить его возможности, расширив сферу применения робота. Итак, технологии робототехники могут «как сочетаться в одной киберфизической системе (становясь, например, разумным роботом), так и применяться совершенно раздельно» [20].
Сочетание технологий в одном устройстве еще более затрудняет проблему формулирования понятий роботов и ИИ. Дефинитивная проблема усугубляется наличием различных видов ИИ: реактивные машины, системы с ограниченной памятью (например, используемые в беспилотных автомобилях), разумные машины, а также системы с искусственным самосознанием) [15, с. 8]. Большая часть сложностей, с которыми столкнулась юридическая наука перед вызовами цифровой трансформации, – этических, дефинитивных, регулятивных, – возникла именно в связи с развитием технологий до уровня их сочетания в одной киберфизической системе. Промышленные роботы давно и активно используются в производстве. И ни у кого не возникали мысли о правосубъектности таких машин, распространении на них прав человека или угрозах для существования человечества со стороны «очеловечившихся» машин.
И здесь мы подходим ко второму аспекту дефинитивной проблемы. Очевидно, устанавливать правовые режимы, а, значит, и формулировать правовые дефиниции надо отдельно для слабого и сильного искусственного интеллекта. С точки зрения стадий развития выделяют узкий (слабый) искусственный интеллект, общий (сильный) искусственный интеллект и искусственный суперинтеллект [15, с. 9]. Предполагается, что сильный ИИ способен мыслить и осознавать себя, а слабый ИИ к такому не способен – он действует по заданным алгоритмам (пусть и очень сложным и вариативным). «Сильный» искусственный интеллект – это реальный или гипотетический тип названной технологии, который может достичь или превысить уровень человеческого интеллекта и применять свои способности решения задач к любым проблемам, подобно человеческому мозгу [17, с. 43]. Этот тип искусственного интеллекта появится нескоро, если вообще может быть разработан.
Современный уровень научно-технического прогресса ставит задачу регулирования разработки и использования юнитов слабого ИИ, причем с учетом ранжирования их функциональности и интеллектуальных возможностей. Точно также нуждаются в отдельных определениях такие понятия, как «роботы», «умные роботы», «автономные роботы», «автономные роботизированные аппараты» и т.д., а также их категорирование.
В 2017 г. Европейский парламент сформулировал Резолюцию «Нормы гражданского права о робототехнике»[8]. В этом документе (п. 1.1. Общих положений) были сформулированы характеристики умного робота:
— автономность;
— способность обмениваться данными со средой и анализировать их;
— способность к самообучению;
— наличие минимальной физической поддержки;
— способность адаптировать свое поведение к условиям окружающей среды;
— отсутствие жизни с биологической точки зрения.
Все названное можно отнести к параметрам слабого ИИ, но и на этом уровне развития технологий их регулирование является весьма сложной задачей.
Регулятивная проблема.
Как уже говорилось, регулятивный комплекс для робототехники и ИИ является на сегодняшний день не сформированным. Специалисты подчёркивают, что и на наднациональном уровне, и за рубежом, и в России регламентация ИИ осуществляется в основном документами рекомендательного характера (декларациями, хартиями и т. п.) [5, с. 24-25]. Однако такая ситуация сама по себе не является проблемой. По мнению экспертов, принимавших участие в разработке российской Национальной стратегии развития искусственного интеллекта, возможны три модели регулирования технологий ИИ.
В первой модели основную роль играют документы стратегического планирования, а нормы непосредственного действия имеют минимальный "вес". Классическим примером этой модели являются Китай и Франция. Во второй модели регулирования больший вес имеют нормы непосредственного действия, которые, как правило, осуществляют регулирование конкретных видов систем ИИ. Документов стратегического планирования в таких странах нет вообще или они не имеют значимого влияния. летательных аппаратов. Флагманом такого принципа управления является Южная Корея. Третья, гибридная, модель является своеобразной комбинацией обоих векторов правового управления и, соответственно, первых двух моделей. Гибридную модель пытаются воплотить США и ЕС, причем ЕС является идеальным примером комплексного подхода в гибридной модели регулирования [19, с. 82-88].
Российская Национальная стратегия развития ИИ тяготеет к первой модели. Однако отсутствие норм непосредственного действия при такой модели порождает регулятивный вакуум и стимулирует использование иных регуляторов. Особое значение в этих условиях приобретает саморегулирование, осуществляемое участниками отношений по разработке, внедрению и использованию робототехники и ИИ.
Нужно отметить, что практически во всех стратегических документах на первые позиции вынесена разработка этических стандартов использования ИИ. Эта тенденция нашла свое отражение и в документах российской правовой системы. В Национальной стратегии развития искусственного интеллекта в России, утвержденной в 2019 г., названы основные направления создания комплексной системы регулирования общественных отношений, возникающих в связи с развитием и внедрением технологий искусственного интеллекта (п. 49). К ним, в частности, относится разработка этических правил взаимодействия человека с искусственным интеллектом (подпункт «ж» п. 49 Стратегии).
Широко используемой формой саморегулирования стали деонтологические кодексы, разрабатываемые участниками отношений по разработке ИИ. По информации, прозвучавшей на Петербургском международном юридическом форуме-2021, в настоящее время принято около сотни различных этических кодексов, так или иначе связанных с регулированием сфер ИИ, больших данных и внедрения цифровых инноваций в целом [21].
Особенность современного деонтологического регулирования в сфере ИИ состоит в том, что этические кодексы содержат не только этические стандарты использования технологий ИИ или нормы профессиональной этики разработчиков ИИ, но и иные нормы (например, корпоративные нормы, технические нормы, обычаи делового оборота, а также принципы и правила, которые в строгом смысле должны устанавливаться посредством издания правовых норм). Иными словами, этические кодексы являются комплексной формой саморегуляции, объединяющей все формы регуляторики в условиях недостаточности нормативного регулирования.
Применительно к сферам робототехники и ИИ потенциал саморегуляции очень высок. Это связано не только с тем, что необходимые нормы на официальном уровне отсутствуют. Дело в том, что саморегулирование максимально подходит для сегодняшнего этапа развития технологий цифровой трансформации общества. На наш взгляд, можно выделить два фактора, способствующих развитию деонтологического саморегулирования в сфере ИИ: объективный и субъективный.
С объективной точки зрения создание качественного правового регулирования сейчас невозможно. Сами технологии находятся в стадии становления, нет опыта их использования, вся сфера интеллектуальной робототехники – это глобальный экспериментальный режим, который должен выработать контуры будущего правового регулирования. Преждевременное правовое регулирование не будет качественным, его придется очень часто изменять и дорабатывать, в результате такие правовые режимы, вместо упорядочивания общественных отношений, грозят переродиться в очередные бюрократические барьеры. Более того, преждевременное правовое регулирование способно принести больше вреда, чем пользы, так как будет ограничивать научно-техническое развитие.
На данный момент становление нормативного регулирования в сфере разработки и использования ИИ происходит не на официальном государственном уровне, а в недрах крупных компаний-разработчиков. Ведущие игроки на рынке технологических инноваций – Microsoft Corporation, Яндекс, Google, Ростелеком, Сбербанк и т.п. – разрабатывают внутренние этические кодексы и корпоративные стандарты работы с ИИ, которые в дальнейшем должны стать основой для правотворческих решений. Такой путь формирования нормативного регулирования – «снизу» – представляется оптимальным в условиях неопределенности и неравномерности развития технологий.
Субъективный фактор связан со страхом людей перед угрозами, которые несут человеческой цивилизации экспонентно развивающиеся технологии, начиная от технологической безработица и заканчивая «восстанием машин». Непредсказуемость развития технологий ИИ и их технологическая непрозрачность пугает и порождает стремление контролировать развитие технологий вплоть до превентивного запрета.
В этих условиях деонтологические кодексы – это декларация о намерениях, хартия добропорядочности разработчика, шаг навстречу будущему потребителя и обществу в целом. Этические кодексы делают технологии более прозрачными и понятными для неспециалистов, развеивая популярные мифы или хотя бы снижая остроту восприятия проблемы.
Александр Крайнов, директор по развитию технологий искусственного интеллекта корпорации «Яндекс», в своем выступлении в рамках ПМЮФ-2021 разделил все принципы, которые входят в кодексы этики разработчиков ИИ, на три группы:
- полезные для людей, но бесполезные для разработчиков (например, обязательства не разрабатывать системы, предназначенные для причинения вреда человеку); такие принципы бесполезны для разработчиков в том смысле, что они не собирались делать ничего подобного, но при этом такие декларации крайне важны для неспециалистов, которые озабочены возможными угрозами цифровой трансформации и противостоянием человека и ИИ;
- полезные и для людей, и для разработчиков; эти принципы разрешают вопросы, связанные с возможными рисками использования ИИ, причем такие вопросы невозможно разрешить в одиночку, они требуют единой политики (например, никогда не закладывать в программы принятия решений понятие национальности, даже если это имеет ожидаемый экономический эффект, так как это создает условия для дискриминации и ущемления прав);
- вредные для разработчиков (и обычно бесполезные для людей), например, требования о том, что разработчик обязан обеспечить полную объяснимость решений ИИ; дело в том, что объяснимость идет вразрез с точностью работы системы, машины работают на векторной логике (а не обычной человеческой логике «да– нет») и проследить всю цепочку решений, принимаемых ИИ на разных стадиях анализа информации, технологически невозможно.
Цель принятия внутренних деонтологических кодексов одна: показать, что компании-разработчику небезразлично мнение людей. Этические принципы работы с ИИ декларируют то, что разработчики уделяют внимание страхам и беспокойству людей и соглашаются защищать их интересы, независимо от того, приписаны ли соответствующие обязательства в официальном законе.
Некоторые выводы
1. С учетом имеющегося уровня развития технологий ИИ, а также состояния стратегического и нормативного регулирования в этой сфере, наиболее перспективным выглядит путь, при котором определения [робота, ИИ и иные] будут формулироваться «в целях настоящего Федерального закона», то есть в рамках документа. Конечно же, такое положение нельзя рассматривать как существующее на постоянной основе, и в дальнейшем, при накоплении определенного регулятивного массива, потребуется работа по обобщению имеющихся дефиниций и приведению их в соответствие с некими стандартами.
2. Устанавливать правовые режимы и формулировать правовые дефиниции надо отдельно для слабого и сильного искусственного интеллекта. При этом необходимо категорирование объектов робототехники и юнитов ИИ, с учетом ранжирования их функциональности и интеллектуальных возможностей. Иными словами, нуждаются в отдельных определениях такие понятия, как «роботы», «умные роботы», «автономные роботы», «автономные роботизированные аппараты» и т. д.
3. Комплексное правовое регулирование отношений, связанных с разработкой, внедрением и использованием роботов и ИИ на настоящий момент не представляется возможным. Для качественного правового регулирования недостаточно эмпирической базы. В таких условиях преждевременное правовое регулирование будет нестабильным и непродуманным, что породит новые бюрократические барьеры и приведет к необоснованным ограничениям для деятельности компаний-разработчиков.
4. С учетом изложенных факторов можно констатировать, что деонтологическое регулирование в настоящий период является необходимым и наиболее перспективным этапом формирования нормативного, в том числе и нормативно-правового, регулирования отношений по разработке, внедрению и использованию роботов и ИИ. Этические кодексы делают технологии более прозрачными и понятными для неспециалистов, снижая градус общественного недоверия к высокотехнологичным инновационным решениям.
[1] ISO (ИСО) – независимая неправительственная международная организация, в деятельность которой вовлечены национальные органы по стандартизации. Была создана в 1946 г., когда делегаты из 25 стран встретились в Институте гражданских инженеров в Лондоне и приняли решение о создании новой международной организации «для содействия международной координации и унификации промышленных стандартов». С тех пор ИСО было опубликовано 23035 более стандартов, охватывающих почти все аспекты технологии и производства. Сегодня членами ИСО являются представители из 164 стран. [Источник: всё об ИСО. Режим доступа: https://www.iso.org/ru/about-us.html (дата обращения: 20.04.2020).
1. Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» // Собрание законодательства Российской Федерации. 27 апреля 2020 г. N 17. Ст. 2701.
2. Указ Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации" // Собрание законодательства Российской Федерации. 14 октября 2019 г. N 41. Ст. 5700.
3. Распоряжение Правительства РФ от 19 августа 2020 г. N 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» // Официальный интернет-портал правовой информации (www.pravo.gov.ru). 26 августа 2020 г. N 0001202008260005.
4. Дорожная карта развития "сквозной" цифровой технологии "Нейротехнологии и Искусственный интеллект" // Официальный сайт Министерства цифрового развития, связи и массовых коммуникаций РФ. URL: https://digital.gov.ru/ru/documents/6658/ (дата обращения 20.05.2021 г.).
5. Федеральный проект «Искусственный интеллект» // Официальный сайт Министерства экономического развития Российской Федерации. URL: https://www.economy.gov.ru/material/directions/tehnologicheskoe_razvitie/federalnyy_proekt_iskusstvennyy_intellekt/ ; Искусственный интеллект // Официальный сайт Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации. URL: https://digital.gov.ru/ru/activity/directions/1046/
6. ГОСТ Р 60.0.0.4-2019/ИСО 8373:2012. Роботы и робототехнические устройства. Термины и определения: утвержден и введен в действие Приказом Федерального агентства по техническому регулированию и метрологии от 14 февраля 2019 г. N 31-ст "Об утверждении национального стандарта Российской Федерации".
7. ISO 8373:2012 Robots and robotic devices. Режим доступа: https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en (дата обращения: 06.02.2020).
8. РЕЗОЛЮЦИЯ ЕС 2015/2013(INL). Резолюция Европарламента от 16 февраля 2017 года 2015/2013(INL) P8_TA-PROV(2017)0051, включает текст Хартии робототехники // Исследовательский центр проблем регулирования робототехники и искусственного интеллекта - Официальный сайт. URL: https://robopravo.ru/riezoliutsiia_ies
9. Закон «О содействии развитию и распространению умных роботов» № 914 от 28. 03.2008 Режим доступа: http://robopravo.ru/zakon_iuzhnoi_koriei_2008 (дата обращения: 20.02.2020).
10. Artificial Intelligence. Режим доступа: https://www.techopedia.com/definition/190/artificial-intelligence-ai (дата обращения:26.04.2020).
11. Gupta Pallavi. Artificial Intelligence: Legal Challenge in India. CASS Studies. May 2019 - Vol. 3, Issue- 1, Addendum 9 (Special Issue). P. 135-137.
12. Robotics: Concepts, Methodologies, Tool, and Application/Information Resources Management Association, IGI Global, 2013:2.
13. Robot // Режим доступа: http://www.merriam-webster.com/dictionary/robot (дата обращения: 20.02.2020).
14. Dentons разработала первый в России законопроект о робототехнике. Режим доступа: https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-inrussia (дата обращения: 01.02.2020)
15. Залоило М. В. Искусственный интеллект в праве: научно-практическое пособие / под ред. д-ра юрид. наук, проф. Д.А. Пашенцева. М.: Инфотропик Медиа, 2021. 132 с.
16. Зимберман Н.Н., Стефанцова М.А. . Социальный робот: подходы к определению понятия // Современные исследования социальных проблем (электронный научный журнал). 2016. № 11 (67). С. 297-311.
17. Морхат И.И. Искусственный интеллект: правовой взгляд: научная монография / РОО «Институт государственно-конфессиональных отношений в права». М.: Буки Веди, 2017. 257 с.
18. Нагродская В. Б. Новые технологии (блокчейн / искусственный интеллект) на службе права: научно-методическое пособие / под ред. Л. А. Новоселовой. М., 2019. 128 с.
19. Незнамов А. В. Правовые аспекты реализации Национальной стратегии развития искусственного интеллекта до 2030 года // Вестник Университета имени О.Е. Кутафина (МГЮА). 2019. N 12. С. 82-88.
20. Незнамов А. В., Наумов В. Б. Стратегия регулирования робототехники и киберфизических систем // Закон. 2018. № 2. С. 69-89.
21. Сессия «Кодексы этики как форма саморегулирования», 19 мая 2021 г. // Петербургский международный юридический форум Legal Forum 9 ¾ : вакцинация правом, 18 - 21 мая 2021 г. URL: https://spblegalforum.ru/
22. Цифровая экономика РФ // Официальный сайт Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации. URL: https://digital.gov.ru/ru/activity/directions/858/