from 01.01.2019 to 01.01.2021
Vladivostok, Vladivostok, Russian Federation
VAC 12.00.03 Гражданское право; предпринимательское право; семейное право; международное частное право
VAC 12.00.02 Конституционное право; конституционный судебный процесс; муниципальное право
VAC 12.00.10 Международное право; Европейское право
VAC 12.00.12 Криминалистика; судебно-экспертная деятельность; оперативно-розыскная деятельность
VAC 12.00.14 Административное право; административный процесс
UDK 34 Право. Юридические науки
GRNTI 10.07 Теория государства и права
GRNTI 10.19 Информационное право
OKSO 40.06.01 Юриспруденция
OKSO 40.04.01 Юриспруденция
BBK 67 Право. Юридические науки
BBK 674 Отрасли права
BBK 60 Общественные науки в целом
BISAC LAW011000 Civil Law
BISAC LAW104000 Computer & Internet
A rule of law is effective when it adequately reflects objective needs and corresponds to the laws of the development of public relations. However, information technologies are developing faster than the corresponding legislative regulation. Programs equipped with artificial intelligence, once considered science fiction, are being increasingly used in various spheres of life every day. Advanced technologies are designed to significantly facilitate the life of a modern person, allowing him to transfer monotonous and technical tasks to units, i.e. carriers of artificial intelligence. However, the use of AI systems does not always turn out to be absolutely positive and safe – sometimes in practice, due to various factors, damage to property, health and even human life is caused during the operation of the unit. In this regard, legitimate questions arise about legal liability for such consequences, about the suitability of existing legislation to regulate such relations and about the need to improve and specialize legal regulation for new torts. This work is also aimed at participating in this discussion. For the purposes of the article, all negative manifestations of AI are reduced to three situations: causing harm due to flaws in the program or its incorrect operation; using technology by a person to commit an offense; causing harm by an artificial intelligence unit independently and on its own initiative. The paper examines all these cases, offers options for their legal resolution, critically evaluates existing approaches, projects and special legal acts already adopted. The conclusion is made that there is no need for a radical reform of the legal system for artificial intelligence, the theory of its legal personality is denied, it is argued that a person is responsible for all its mistakes – the manufacturer, user, owner, etc. In general, the strategy of the domestic legislator on the development of artificial intelligence is supported, but it is proposed to pay more attention to other ways to improve the security of AI systems (user liability insurance, unified accounting of units, etc.), rather than sanctions against them as "electronic persons".
artificial intelligence, artificial intelligence unit, legal personality of artificial intelligence, legal liability, harm, tort, tort liability, autopilot, robot, laws of robotics
Основываясь на понимании интеллекта человеческого, интеллект искусственный можно определить как познавательную способность искусственно созданной системы, её свойство приобретать и эффективно использовать знания. Интеллектом обуславливаются и творческие способности, т.е. умение создавать духовные ценности и приходить к качественно новым, ранее не существовавшим результатам. Распространена точка зрения, согласно которой компьютерная программа может тогда считаться оснащенной искусственным интеллектом, когда помимо выполнения простых задач и вычисления она будет способна к творчеству, традиционно присущему именно человеческим существам [1]. Объединяя подходы познавательный и творческий, отметим, что настоящий искусственный интеллект способен самостоятельно анализировать внешние данные, приходить к уникальным выводам, ставить новые цели и использовать полученные знания для решения задач и созидания.
Представленный подход близок к концепции «сильного» искусственного интеллекта, который по сложности и развитости своей организации будет подобен человеческому мозгу, что позволит ему достичь или даже превзойти человека [11, с. 43]. Такая разработка (если это вообще возможно) появится еще не скоро, а пока большинство существующих программ, которые мы именуем ИИ, более близки к своим «слабым» разновидностям. К слабым относятся те программы, которые способны выполнять определенные виды задач, которые перед ними ставит оператор, и ими же ограничены, без выхода на уровень творчества. ИИ большей эффективностью и самостоятельностью являются наиболее сильными на сегодняшний день.
Некоторые из самых известных ИИ-систем оказались способны на удивительные вещи. Суперкомпьютер Deep Blue выиграл матч из 6 партий у чемпиона мира по шахматам Гарри Каспарова [16, с. 376]. Сочинения программы ЭМИ (эксперименты с музыкальным интеллектом) практически неотличимы от произведений мировых классиков [16, с. 381]. Это лишь пара примеров из множества вариантов применения ИИ-программ. Они создаются для облегчения деятельности людей в различных сферах, однако их практическое применение не всегда оказывается полностью положительным и безопасным. Несмотря на то, что человек минимизировал вероятность ошибки через использование точных алгоритмов, сбои в работе системы иногда все же случаются. И чем опаснее сфера применения программы, тем серьезнее могут быть возможные последствия.
В последнее время особенно широко обсуждаются случаи причинения вреда в результате использования ИИ, в особенности их правовые последствия. Анализу существующих точек зрения, принятых и разрабатываемых правовых актов в этой сфере, а также их субъективной оценке посвящена и данная работа.
На практике все примеры негативного проявления ИИ-систем и робототехники можно свести с трем ситуациям:
1) причинение вреда вследствие недочетов в программе или ее некорректной работы;
2) использование технологий человеком для совершения правонарушения;
3) причинение вреда юнитом искусственного интеллекта самостоятельно и по собственной инициативе.
Рассмотрим все указанные случаи по порядку, начиная с причинения вреда вследствие недочетов в программе или ее некорректной работы.
Не все алгоритмы совершенны и даже робот способен ошибаться. Мир знает несколько случаев гибели людей в результате ошибок автопилота автомобильного транспорта. Первое смертельное ДТП было зафиксировано в 2016 году в США, когда электромобиль Tesla Model S с включенным автопилотом «не заметил» белый прицеп на фоне яркого неба. Водитель погиб от столкновения [20]. Первый пешеход погиб в 2018 году и также в США, в штате Аризона. Бортовой компьютер беспилотного Uber потратил слишком много времени на распознавание объекта и не успел затормозить. Отмечается, что за прошедшее с момента аварии время в Uber переработали используемые алгоритмы и ускорили их работу [12].
Примеров аварий по вине автопилота совсем немного, однако каждый такой случай разлетается по миру как новость дня, вызывает резонанс и широкие обсуждения как среди общественности, так и среди научного сообщества, которое исследует проблему с технической и юридической точек зрения. Не утихают дискуссии по поводу степени безопасности ИИ-транспорта, ставится под сомнение необходимость дальнейшего распространения разработки. И все же мы утверждаем, что бортовой компьютер попадает в аварии реже, чем человек. Езда с автопилотом безопаснее, чем без него, поскольку причиной абсолютного большинства ДТП является человеческая халатность, нарушение ПДД самими водителями [7, с. 8].
Каждый из редких случаев причинения вреда вследствие ошибки искусственного интеллекта подрывает доверие по всем новейшим разработкам в этой сфере. В Uber несколько раз приостанавливали исследования и испытания после инцидентов с их автомобилями. Национальное управление безопасностью движения на трассах в США (NHTSA) заняло довольно жесткую позицию в отношении безопасности автоматизированных транспортных средств и начало официальное расследование инцидентов с участием Tesla Autopilot всего после 11 аварий [17]. Ситуацию ухудшило случившееся в апреле 2021 года еще одно смертельное ДТП с участием Tesla. Двое пассажиров погибли, а за рулем автомобиля в этот момент вообще никого не было [18].
Автопилот не всесилен, а люди сами часто нарушают технику безопасности при его использовании. Так, в вышеупомянутом примере водитель Uber смотрела телешоу на смартфоне вместо отслеживания дорожной обстановки. Поэтому среди правил безопасного использования роботов одно из важнейших мест занимает принцип контролируемости роботов человеком. Авторы проекта Модельной конвенции о робототехнике и искусственном интеллекте указывают, что роботы должны быть в максимально возможной и оправданной степени, в зависимости от специфики назначения конкретного вида робота, быть контролируемыми человеком напрямую или опосредованно [10].
Что же касается деликтной ответственности за ошибку робота, она может устанавливаться как общими нормами гражданского права, так и специальным законодательством, которое уже существует в некоторых странах с развитой системой использования ИИ. При этом нет сомнений в том, что в данном случае отвечать будет человек – индивидуальный или коллективный субъект: программист, производитель, пользователь и иные лица в зависимости от формы и степени их вины, а также тяжести наступивших последствий.
Истец (потерпевший) обратится к производителю, на котором лежит имущественная ответственность за вред, причиненный вследствие недостатков его продукции. При наличии соответствующих оснований к программисту может быть предъявлено, в том числе, регрессное требование. Вина может лечь и на самого пользователя юнита-ИИ, если тот обязан был, но не обеспечил должный контроль за его работой. О принципе максимальной подконтрольности ИИ человеку мы говорили выше.
Так, в рассмотренном выше примере с автомобилем Uber и сбитым пешеходом вину разделили между всеми причастными: производителем, водителем, самой сбитой женщиной (переходила дорогу в неположенном месте) и даже властями штата Аризона и NHTSA, которые, по мнению суда, не уделяют должное внимание проверки безопасности программ тестирования беспилотных автомобилей на дорогах общего пользования [6].
Есть мнение о возможности взыскать причиненный ущерб с владельца и без его вины, но это уже вопрос отнесения использования отдельных категорий юнитов-ИИ к источникам повышенной опасности. В свете случаев негативного проявления ИИ-систем эта идея обретает все больше сторонников.
В качестве дополнительной гарантии для потерпевших в части компенсации понесенных ими затрат предлагается ввести страхование ответственности лиц, использующих технологии с ИИ [5]. Подобную рекомендацию содержит и Резолюция Европарламента от 16 февраля 2017 года «Нормы гражданского права о робототехнике» [13].
В целом нормы об ответственности производителей, владельцев и иных лиц за вред, причиненный роботом, должны носить гибкий характер в целях эффективного применения во всех возможных ситуациях.
В данном разделе мы говорили, в частности, о неосторожном причинении вреда вследствие халатности, ненадлежащем исполнении своих обязанностей и иных причин, даже об отсутствии вины ответственных лиц. Однако ситуация обретает совсем иной оборот, когда форма вины становится умышленной и лицо намеренно использует возможности ИИ-системы для совершения противоправных действий.
Использование технологий человеком для совершения правонарушения.
Не отрицая возможности неосторожного совершения общественно опасного деяния, к примеру, при грубом нарушении правил эксплуатации ИИ-систем, в данном разделе мы погорим именно о случаях умышленного причинения вреда охраняемым законом интересам. Здесь юнит искусственного интеллекта выступает средством или орудием, который человек избирает для достижения своей противоправной цели.
На сегодняшний день в уголовном законодательстве России отсутствуют специальные составы, связанные с совершением общественно опасных деяний посредством использования ИИ-систем. Однако это не означает, что подобная деятельность сейчас ненаказуема. Среди положений Уголовного кодекса РФ вполне применимы будут не только нормы, предусматривающие уголовную ответственность за преступления в сфере компьютерной информации, но также и нормы о мошенничестве, о преступлениях против жизни и здоровья и другие. Особое внимание в научной литературе обращается на нарушения права на неприкосновенность частной жизни в процессе использования интеллектуальных устройств: передача собранных системой данных третьим лицам; непосредственное использование юнита искусственного интеллекта против других лиц для сбора и обработки данных о них или наблюдения за ними [19]. Реальность такой угрозы исследователи связывают со способностью искусственного интеллекта собирать, накапливать и обрабатывать огромные массивы информации [11, с. 176]. Такой информацией могут стать, к примеру, персональные данные.
В российской судебной практике в рамках вынесения решения вопрос об использовании искусственного интеллекта не рассматривается, так как это не оказывает влияния на квалификацию, достаточно указания на средство в виде компьютерной программы. Однако нам думается, что высокотехнологичный способ повышает общественную опасность содеянного, так как свидетельствует о серьезной подготовке в форме разработки вредоносной самообучающейся программы, а также о возможности совершать преступные посягательства быстрее, чаще, а также удаленно с минимальным вмешательством в работу системы, что в совокупности весьма усложняет установление виновного лица. Полагаем, что назрела необходимость в совершенствовании уголовно-правовых норм с учетом новейших технологических возможностей, но не путем создания совершенно новых специальных норм, а через введение соответствующих квалифицирующих признаков или обстоятельства, отягчающего наказание.
Причинение вреда юнитом искусственного интеллекта самостоятельно и по собственной инициативе.
В дефиниции искусственного интеллекта мы неоднократно обращали внимание на свойство этой системы приобретать и использовать новые знания, то есть на ее способность к самообучению. Таким образом, не исключена, но даже предполагается возможность выхода сильного ИИ за рамки изначальной программы и функционирование заранее непредсказуемым образом. Одно дело, когда вредоносная система действует по приказу человека, тогда ответственность последнего неоспорима.
Первый из трех знаменитых законов робототехники А. Азимова гласит, что робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред [3]. Однако робот может нарушить этот закон по незнанию, если он не предполагает противоправности своих действий, то есть может стать средством или орудием преступления. Таким случаям был посвящен предыдущий раздел. Но разумно ли привлекать создателей или пользователей, если юнит автономно от их воли совершает противоправные действия? Думается, переход ответственности от человека к роботу происходит тогда, когда наличествует собственный умысел системы на причинение вреда. Можно согласиться с «усовершенствованным» Первым законом, представленным А. Азимовым через одного из своих персонажей: «Робот не может делать что-либо, что, насколько ему известно, причинит вред человеческому существу или умышленно допустить, чтобы человеческому существу был причинён вред» [2].
Вопрос о возможности привлечения юнита искусственного интеллекта к юридической ответственности за собственные действия напрямую связан с наделением его правосубъектностью, что является сейчас довольно дискуссионным вопросом. По мнению некоторых, необходимость признавать ИИ в качестве самостоятельного субъекта права возникнет в уже ближайшем будущем. В частности, в юридической литературе отмечается, что робот уже приобрел некоторую степень автономии и способен своими действиями приобретать субъективные права и юридические обязанности, а также создавать их для других лиц [8]. По мнению других исследователей, этому вопросу еще далеко до актуальной повестки дня, а наделение роботов правосубъектностью бесполезно, т. к. неуместно [4, с. 165]. "Национальная стратегия развития искусственного интеллекта на период до 2030 года", утвержденная 10 октября 2019 года указом Президента РФ, не выдвигает цели наделения ИИ какими-либо субъективными правами и обязанностями. Таким образом, российский законодатель отрицает возможность признания правосубъектности роботов как минимум в ближайшие 10 лет.
На наш взгляд, на сегодняшний день можно с уверенностью отрицать теорию уголовной и административной ответственности ИИ. Основной проблемный момент здесь заключается в фактическом отсутствии субъективной стороны: вины как внутреннего психического отношения к совершенному деянию, эмоций как душевного состояния в момент противоправного посягательства. Цель и мотив в действиях ИИ составляют предмет отдельной дискуссии.
На сегодняшний день известен лишь один случай, когда дрон без приказа человека совершил убийство. Турецкий беспилотник Kargu-2, оснащенный ИИ, убил человека во время вооруженного конфликта в Ливии в марте 2020 года. Дронами Kargu можно управлять вручную, однако в этом столкновении с ливийцами они были самоуправляемыми и использовали бортовые камеры и технологию машинного обучения для самостоятельного поиска врагов и нацеливания на них [15]. Но даже в этом примере самого негативного функционирования ИИ – убийства человека по собственной инициативе – роботу еще далеко до осознания противоправности собственных действий и психическому отношению к совершенному деянию в форме вины. Поэтому правосубъектность роботов в публично-правовых отраслях далеко не скоро станет реальностью.
Существуют и компромиссные позиции. Предлагается, к примеру, формулировать правосубъектность ИИ по аналогии с правовым статусом юридического лица или животного. Однако в российской системе права первые не признаются субъектами уголовной ответственности, а вторые в любом случае имеют статус вещей, поэтому практическая реализация такого подхода представляет двойную сложность. Также рассматривается формирование для роботов правового статуса «электронного лица» или «виртуального лица», разработка комплекса прав и обязанностей специфического квазисубъекта права. Некоторые исследователи даже признают разработку правовой концепции цифровой личности ключевой задачей ближайшего десятилетия в данной сфере [9].
Здесь уместно упомянуть Проект закона об умных роботах (Закон "Гришина"). Он представляет из себя проект Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области роботехники» [14]. В нем предлагается ввести понятие робота-агента: им признается робот, который по решению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте. Робот-агент имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности. В некоторых случаях для него предусмотрена даже процессуальная правоспособность. В целом правовой статус робота-агента довольно схож с юридическим лицом. Поскольку юридические лица являются активными участниками гражданского оборота, аналогичная правосубъектность электронного лица может вполне прижиться даже в отечественной правовой системе. Дело остается только за техническим развитием, а правовое регулирование не заставит себя ждать: как мы видим, проекты соответствующих актов создаются на опережение.
Подведем итог всему вышесказанному. Передовые технологии искусственного интеллекта постепенно становятся частью повседневной жизни людей, и этой интеграции не стоит опасаться. Зачастую положиться на помощь программы – это проще, быстрее и безопаснее, чем на собственные силы. Пусть возможности «сильнейших» ИИ-систем не пугают людей, нет смысла придумывать для них наказания, негативные эмоции от которых они никогда не смогут испытывать. Законодатель поступает верно, не создавая очередную юридическую фикцию в виде нового субъекта права. Все, на что будет способна машина, закладывается в нее изначально человеком, ошибка системы суть ошибка ее создателя.
Идея восстания машин, так прочно засевшая в головах людей, вряд ли выйдет за рамки научной фантастики, а вот человеческий страх, «красные кнопки» и запреты на испытания способны затормозить прогресс уже сегодня. С нашей точки зрения самым разумным вариантом в современных условиях будет обращать большее внимание на практические советы по повышению безопасности использования ИИ, чтобы исключить даже единичные негативные случаи его проявления. Юридическое будущее технологий ИИ за такими мерами, как усиленное тестирование новых продуктов и контроль за его проведением, страхование ответственности пользователей, государственная регистрация юнитов и прав на них и другое.
1. Averkin A. N., Gaaze-Rapoport M. G., Pospelov D. A. Tolkovyy slovar' po iskusstvennomu intellektu. - M.: Radio i svyaz', 1992. - 256 s.
2. Azimov, A. Obnazhennoe solnce // Centrpoligraf, 2003.
3. Azimov A. Esse. Zakony robototehniki / A. Azimov // Mechty robotov. - Moskva : Eksmo, 2004. -№ 6. - S. 781-784.
4. Arhipov V.V., Naumov V.B. O nekotoryh voprosah teoreticheskih osnovaniy razvitiya zakonodatel'stva o robototehnike: aspekty voli i pravosub'ektnosti // Zakon. 2017. № 5. S. 157-170.
5. Biryukov, P. N. Otvetstvennost' za vred, prichinennyy tehnologiyami s iskusstvennym intellektom: podhod Evropeyskogo soyuza // Territoriya novyh vozmozhnostey. Vestnik Vladivostokskogo gosudarstvennogo universiteta ekonomiki i servisa. - 2020. - T. 12. - № 4. - S. 39-49. - DOIhttps://doi.org/10.24866/VVSU/2073-3984/2020-4/039-049.
6. Vinu za smertel'nuyu avariyu bespilotnika Uber razdelili mezhdu vsemi prichastnymi [Elektronnyy resurs] URL: https://nplus1.ru/news/2019/11/20/uber-crash
7. Dorozhno-transportnaya avariynost' v Rossiyskoy Federacii za 6 mesyacev 2021 goda. Informacionno-analiticheskiy obzor. - M.: FKU «NC BDD MVD Rossii», 2021. 41 s.
8. Ibragimov R., Suragina E. Pravo mashin. Kak privlech' robota k otvetstvennosti. [Elektronnyy resurs] Korporativnyy yurist. №11. 2017. URL: http://e.korpurist.ru/article.aspx?aid=599113 (data obrascheniya: 11.10.2021).
9. Mamychev A. Yu., Gayvoronskaya Ya. V., Miroshnichenko O. I. Sovremennye doktrinal'no-pravovye i eticheskie problemy razrabotki i primeneniya robotizirovannyh tehnologiy i sistem iskusstvennogo intellekta (na primere avtonomnyh neobitaemyh podvodnyh apparatov) // Territoriya novyh vozmozhnostey. Vestnik Vladivostokskogo gosudarstvennogo universiteta ekonomiki i servisa. 2018. T. 10. № 3 (42). S. 135-150.
10. Model'naya konvenciya o robototehnike i iskusstvennom intellekte. URL: https://robopravo.ru/modielnaia_konvientsiia
11. Morhat P.M. Iskusstvennyy intellekt: pravovoy vzglyad: Nauchnaya monografiya / ROO «Institut gosudarstvenno-konfessional'nyh otnosheniy i prava». - M.: Buki Vedi, 2017. - 257 s.
12. Raskryta tayna smertel'nogo naezda bespilotnika Uber [Elektronnyy resurs] URL: https://rg.ru/2019/11/10/raskryta-tajna-smertelnogo-naezda-bespilotnika-uber.html
13. Rezolyuciya Evroparlamenta ot 16 fevralya 2017 goda «Normy grazhdanskogo prava o robototehnike» (perevod A. Neznamova, M. Ivanovoy dlya Issledovatel'skogo centra problem regulirovaniya robototehniki, 2017). URL: robopravo.ru
14. Robopravo [Elektronnyy resurs] URL: https://robopravo.ru/proiekty_aktov
15. Samoupravlyaemyy dron vpervye ubil cheloveka [Elektronnyy resurs]. URL: https://www.kommersant.ru/doc/4837323#id2027950
16. Harari Yu. N. Homo Deus. Kratkaya istoriya buduschego [per. s angl. A. Andreeva]. - M .: Sindbad, 2018. - 496 s.
17. 17 chelovek poluchili raneniya i odin pogib v 11 DTP s uchastiem avtopilota Tesla: vlasti SShA nachali rassledovanie [Elektronnyy resurs]. URL: https://www.ixbt.com/news/2021/08/17/tesla-11-17.html
18. Fatal Tesla Crash in Texas Believed to Be Driverless [Elektronnyy resurs]. URL: https://www.wsj.com/articles/fatal-tesla-crash-in-texas-believed-to-be-driverless-11618766363?page=24
19. Schermer B.W. Software agents, surveillance, and the right to privacy: a legislative framework for agentenabled surveillance. Leiden: Leiden University Press, 2007. S. 10-11.
20. Tesla driver dies in first fatal crash while using autopilot mode [Elektronnyy resurs]. URL: https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk