с 01.01.2019 по 01.01.2021
Владивосток, Приморский край, Россия
ВАК 12.00.03 Гражданское право; предпринимательское право; семейное право; международное частное право
ВАК 12.00.02 Конституционное право; конституционный судебный процесс; муниципальное право
ВАК 12.00.10 Международное право; Европейское право
ВАК 12.00.12 Криминалистика; судебно-экспертная деятельность; оперативно-розыскная деятельность
ВАК 12.00.14 Административное право; административный процесс
УДК 34 Право. Юридические науки
ГРНТИ 10.07 Теория государства и права
ГРНТИ 10.19 Информационное право
ОКСО 40.06.01 Юриспруденция
ОКСО 40.04.01 Юриспруденция
ББК 67 Право. Юридические науки
ББК 674 Отрасли права
ББК 60 Общественные науки в целом
BISAC LAW011000 Civil Law
BISAC LAW104000 Computer & Internet
Норма права эффективна тогда, когда адекватно отражает объективные потребности и соответствует закономерностям развития общественных отношений. Однако информационные технологии развиваются быстрее соответствующего законодательного регулирования. Программы, оснащенные искусственным интеллектом, некогда считавшиеся научной фантастикой, с каждым днем все шире применяются в различных сферах жизнедеятельности. Передовые технологии призваны заметно облегчить быт современного человека, позволяя ему передавать монотонные и технические задачи юнитам, т.е. носителям искусственного интеллекта. Однако использование ИИ-систем не всегда оказывается абсолютно положительным и безопасным – иногда на практике в силу тех или иных факторов при эксплуатации юнита причиняется вред имуществу, здоровью и даже жизни человека. В связи с этим возникают закономерные вопросы о юридической ответственности за подобные последствия, о пригодности существующего законодательства к регулированию таких отношений и о необходимости совершенствования и специализации правового регулирования под новые деликты. На участие в этой дискуссии направлена и данная работа. Для целей статьи все негативные проявления ИИ сводятся к трем ситуациям: причинение вреда вследствие недочетов в программе или ее некорректной работы; использование технологий человеком для совершения правонарушения; причинение вреда юнитом искусственного интеллекта самостоятельно и по собственной инициативе. В работе исследуются все эти случаи, предлагаются варианты их правового разрешения, критически оцениваются существующие подходы, проекты и уже принятые специальные правовые акты. Делается вывод об отсутствии необходимости кардинального реформирования правовой системы под искусственный интеллект, отрицается теория его правосубъектности, утверждается, что за все его ошибки ответственен человек – производитель, пользователь, владелец и проч. В целом поддерживается стратегия отечественного законодателя о развитии искусственного интеллекта, но предлагается обращать большее внимание на иные способы повышения безопасности ИИ-систем (страхование ответственности пользователей, единый учет юнитов и проч.), нежели санкции в отношении их самих как «электронных лиц».
искусственный интеллект, юнит искусственного интеллекта, правосубъектность искусственного интеллекта, юридическая ответственность, вред, деликт, деликтная ответственность, автопилот, робот, законы робототехники
Основываясь на понимании интеллекта человеческого, интеллект искусственный можно определить как познавательную способность искусственно созданной системы, её свойство приобретать и эффективно использовать знания. Интеллектом обуславливаются и творческие способности, т.е. умение создавать духовные ценности и приходить к качественно новым, ранее не существовавшим результатам. Распространена точка зрения, согласно которой компьютерная программа может тогда считаться оснащенной искусственным интеллектом, когда помимо выполнения простых задач и вычисления она будет способна к творчеству, традиционно присущему именно человеческим существам [1]. Объединяя подходы познавательный и творческий, отметим, что настоящий искусственный интеллект способен самостоятельно анализировать внешние данные, приходить к уникальным выводам, ставить новые цели и использовать полученные знания для решения задач и созидания.
Представленный подход близок к концепции «сильного» искусственного интеллекта, который по сложности и развитости своей организации будет подобен человеческому мозгу, что позволит ему достичь или даже превзойти человека [11, с. 43]. Такая разработка (если это вообще возможно) появится еще не скоро, а пока большинство существующих программ, которые мы именуем ИИ, более близки к своим «слабым» разновидностям. К слабым относятся те программы, которые способны выполнять определенные виды задач, которые перед ними ставит оператор, и ими же ограничены, без выхода на уровень творчества. ИИ большей эффективностью и самостоятельностью являются наиболее сильными на сегодняшний день.
Некоторые из самых известных ИИ-систем оказались способны на удивительные вещи. Суперкомпьютер Deep Blue выиграл матч из 6 партий у чемпиона мира по шахматам Гарри Каспарова [16, с. 376]. Сочинения программы ЭМИ (эксперименты с музыкальным интеллектом) практически неотличимы от произведений мировых классиков [16, с. 381]. Это лишь пара примеров из множества вариантов применения ИИ-программ. Они создаются для облегчения деятельности людей в различных сферах, однако их практическое применение не всегда оказывается полностью положительным и безопасным. Несмотря на то, что человек минимизировал вероятность ошибки через использование точных алгоритмов, сбои в работе системы иногда все же случаются. И чем опаснее сфера применения программы, тем серьезнее могут быть возможные последствия.
В последнее время особенно широко обсуждаются случаи причинения вреда в результате использования ИИ, в особенности их правовые последствия. Анализу существующих точек зрения, принятых и разрабатываемых правовых актов в этой сфере, а также их субъективной оценке посвящена и данная работа.
На практике все примеры негативного проявления ИИ-систем и робототехники можно свести с трем ситуациям:
1) причинение вреда вследствие недочетов в программе или ее некорректной работы;
2) использование технологий человеком для совершения правонарушения;
3) причинение вреда юнитом искусственного интеллекта самостоятельно и по собственной инициативе.
Рассмотрим все указанные случаи по порядку, начиная с причинения вреда вследствие недочетов в программе или ее некорректной работы.
Не все алгоритмы совершенны и даже робот способен ошибаться. Мир знает несколько случаев гибели людей в результате ошибок автопилота автомобильного транспорта. Первое смертельное ДТП было зафиксировано в 2016 году в США, когда электромобиль Tesla Model S с включенным автопилотом «не заметил» белый прицеп на фоне яркого неба. Водитель погиб от столкновения [20]. Первый пешеход погиб в 2018 году и также в США, в штате Аризона. Бортовой компьютер беспилотного Uber потратил слишком много времени на распознавание объекта и не успел затормозить. Отмечается, что за прошедшее с момента аварии время в Uber переработали используемые алгоритмы и ускорили их работу [12].
Примеров аварий по вине автопилота совсем немного, однако каждый такой случай разлетается по миру как новость дня, вызывает резонанс и широкие обсуждения как среди общественности, так и среди научного сообщества, которое исследует проблему с технической и юридической точек зрения. Не утихают дискуссии по поводу степени безопасности ИИ-транспорта, ставится под сомнение необходимость дальнейшего распространения разработки. И все же мы утверждаем, что бортовой компьютер попадает в аварии реже, чем человек. Езда с автопилотом безопаснее, чем без него, поскольку причиной абсолютного большинства ДТП является человеческая халатность, нарушение ПДД самими водителями [7, с. 8].
Каждый из редких случаев причинения вреда вследствие ошибки искусственного интеллекта подрывает доверие по всем новейшим разработкам в этой сфере. В Uber несколько раз приостанавливали исследования и испытания после инцидентов с их автомобилями. Национальное управление безопасностью движения на трассах в США (NHTSA) заняло довольно жесткую позицию в отношении безопасности автоматизированных транспортных средств и начало официальное расследование инцидентов с участием Tesla Autopilot всего после 11 аварий [17]. Ситуацию ухудшило случившееся в апреле 2021 года еще одно смертельное ДТП с участием Tesla. Двое пассажиров погибли, а за рулем автомобиля в этот момент вообще никого не было [18].
Автопилот не всесилен, а люди сами часто нарушают технику безопасности при его использовании. Так, в вышеупомянутом примере водитель Uber смотрела телешоу на смартфоне вместо отслеживания дорожной обстановки. Поэтому среди правил безопасного использования роботов одно из важнейших мест занимает принцип контролируемости роботов человеком. Авторы проекта Модельной конвенции о робототехнике и искусственном интеллекте указывают, что роботы должны быть в максимально возможной и оправданной степени, в зависимости от специфики назначения конкретного вида робота, быть контролируемыми человеком напрямую или опосредованно [10].
Что же касается деликтной ответственности за ошибку робота, она может устанавливаться как общими нормами гражданского права, так и специальным законодательством, которое уже существует в некоторых странах с развитой системой использования ИИ. При этом нет сомнений в том, что в данном случае отвечать будет человек – индивидуальный или коллективный субъект: программист, производитель, пользователь и иные лица в зависимости от формы и степени их вины, а также тяжести наступивших последствий.
Истец (потерпевший) обратится к производителю, на котором лежит имущественная ответственность за вред, причиненный вследствие недостатков его продукции. При наличии соответствующих оснований к программисту может быть предъявлено, в том числе, регрессное требование. Вина может лечь и на самого пользователя юнита-ИИ, если тот обязан был, но не обеспечил должный контроль за его работой. О принципе максимальной подконтрольности ИИ человеку мы говорили выше.
Так, в рассмотренном выше примере с автомобилем Uber и сбитым пешеходом вину разделили между всеми причастными: производителем, водителем, самой сбитой женщиной (переходила дорогу в неположенном месте) и даже властями штата Аризона и NHTSA, которые, по мнению суда, не уделяют должное внимание проверки безопасности программ тестирования беспилотных автомобилей на дорогах общего пользования [6].
Есть мнение о возможности взыскать причиненный ущерб с владельца и без его вины, но это уже вопрос отнесения использования отдельных категорий юнитов-ИИ к источникам повышенной опасности. В свете случаев негативного проявления ИИ-систем эта идея обретает все больше сторонников.
В качестве дополнительной гарантии для потерпевших в части компенсации понесенных ими затрат предлагается ввести страхование ответственности лиц, использующих технологии с ИИ [5]. Подобную рекомендацию содержит и Резолюция Европарламента от 16 февраля 2017 года «Нормы гражданского права о робототехнике» [13].
В целом нормы об ответственности производителей, владельцев и иных лиц за вред, причиненный роботом, должны носить гибкий характер в целях эффективного применения во всех возможных ситуациях.
В данном разделе мы говорили, в частности, о неосторожном причинении вреда вследствие халатности, ненадлежащем исполнении своих обязанностей и иных причин, даже об отсутствии вины ответственных лиц. Однако ситуация обретает совсем иной оборот, когда форма вины становится умышленной и лицо намеренно использует возможности ИИ-системы для совершения противоправных действий.
Использование технологий человеком для совершения правонарушения.
Не отрицая возможности неосторожного совершения общественно опасного деяния, к примеру, при грубом нарушении правил эксплуатации ИИ-систем, в данном разделе мы погорим именно о случаях умышленного причинения вреда охраняемым законом интересам. Здесь юнит искусственного интеллекта выступает средством или орудием, который человек избирает для достижения своей противоправной цели.
На сегодняшний день в уголовном законодательстве России отсутствуют специальные составы, связанные с совершением общественно опасных деяний посредством использования ИИ-систем. Однако это не означает, что подобная деятельность сейчас ненаказуема. Среди положений Уголовного кодекса РФ вполне применимы будут не только нормы, предусматривающие уголовную ответственность за преступления в сфере компьютерной информации, но также и нормы о мошенничестве, о преступлениях против жизни и здоровья и другие. Особое внимание в научной литературе обращается на нарушения права на неприкосновенность частной жизни в процессе использования интеллектуальных устройств: передача собранных системой данных третьим лицам; непосредственное использование юнита искусственного интеллекта против других лиц для сбора и обработки данных о них или наблюдения за ними [19]. Реальность такой угрозы исследователи связывают со способностью искусственного интеллекта собирать, накапливать и обрабатывать огромные массивы информации [11, с. 176]. Такой информацией могут стать, к примеру, персональные данные.
В российской судебной практике в рамках вынесения решения вопрос об использовании искусственного интеллекта не рассматривается, так как это не оказывает влияния на квалификацию, достаточно указания на средство в виде компьютерной программы. Однако нам думается, что высокотехнологичный способ повышает общественную опасность содеянного, так как свидетельствует о серьезной подготовке в форме разработки вредоносной самообучающейся программы, а также о возможности совершать преступные посягательства быстрее, чаще, а также удаленно с минимальным вмешательством в работу системы, что в совокупности весьма усложняет установление виновного лица. Полагаем, что назрела необходимость в совершенствовании уголовно-правовых норм с учетом новейших технологических возможностей, но не путем создания совершенно новых специальных норм, а через введение соответствующих квалифицирующих признаков или обстоятельства, отягчающего наказание.
Причинение вреда юнитом искусственного интеллекта самостоятельно и по собственной инициативе.
В дефиниции искусственного интеллекта мы неоднократно обращали внимание на свойство этой системы приобретать и использовать новые знания, то есть на ее способность к самообучению. Таким образом, не исключена, но даже предполагается возможность выхода сильного ИИ за рамки изначальной программы и функционирование заранее непредсказуемым образом. Одно дело, когда вредоносная система действует по приказу человека, тогда ответственность последнего неоспорима.
Первый из трех знаменитых законов робототехники А. Азимова гласит, что робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред [3]. Однако робот может нарушить этот закон по незнанию, если он не предполагает противоправности своих действий, то есть может стать средством или орудием преступления. Таким случаям был посвящен предыдущий раздел. Но разумно ли привлекать создателей или пользователей, если юнит автономно от их воли совершает противоправные действия? Думается, переход ответственности от человека к роботу происходит тогда, когда наличествует собственный умысел системы на причинение вреда. Можно согласиться с «усовершенствованным» Первым законом, представленным А. Азимовым через одного из своих персонажей: «Робот не может делать что-либо, что, насколько ему известно, причинит вред человеческому существу или умышленно допустить, чтобы человеческому существу был причинён вред» [2].
Вопрос о возможности привлечения юнита искусственного интеллекта к юридической ответственности за собственные действия напрямую связан с наделением его правосубъектностью, что является сейчас довольно дискуссионным вопросом. По мнению некоторых, необходимость признавать ИИ в качестве самостоятельного субъекта права возникнет в уже ближайшем будущем. В частности, в юридической литературе отмечается, что робот уже приобрел некоторую степень автономии и способен своими действиями приобретать субъективные права и юридические обязанности, а также создавать их для других лиц [8]. По мнению других исследователей, этому вопросу еще далеко до актуальной повестки дня, а наделение роботов правосубъектностью бесполезно, т. к. неуместно [4, с. 165]. "Национальная стратегия развития искусственного интеллекта на период до 2030 года", утвержденная 10 октября 2019 года указом Президента РФ, не выдвигает цели наделения ИИ какими-либо субъективными правами и обязанностями. Таким образом, российский законодатель отрицает возможность признания правосубъектности роботов как минимум в ближайшие 10 лет.
На наш взгляд, на сегодняшний день можно с уверенностью отрицать теорию уголовной и административной ответственности ИИ. Основной проблемный момент здесь заключается в фактическом отсутствии субъективной стороны: вины как внутреннего психического отношения к совершенному деянию, эмоций как душевного состояния в момент противоправного посягательства. Цель и мотив в действиях ИИ составляют предмет отдельной дискуссии.
На сегодняшний день известен лишь один случай, когда дрон без приказа человека совершил убийство. Турецкий беспилотник Kargu-2, оснащенный ИИ, убил человека во время вооруженного конфликта в Ливии в марте 2020 года. Дронами Kargu можно управлять вручную, однако в этом столкновении с ливийцами они были самоуправляемыми и использовали бортовые камеры и технологию машинного обучения для самостоятельного поиска врагов и нацеливания на них [15]. Но даже в этом примере самого негативного функционирования ИИ – убийства человека по собственной инициативе – роботу еще далеко до осознания противоправности собственных действий и психическому отношению к совершенному деянию в форме вины. Поэтому правосубъектность роботов в публично-правовых отраслях далеко не скоро станет реальностью.
Существуют и компромиссные позиции. Предлагается, к примеру, формулировать правосубъектность ИИ по аналогии с правовым статусом юридического лица или животного. Однако в российской системе права первые не признаются субъектами уголовной ответственности, а вторые в любом случае имеют статус вещей, поэтому практическая реализация такого подхода представляет двойную сложность. Также рассматривается формирование для роботов правового статуса «электронного лица» или «виртуального лица», разработка комплекса прав и обязанностей специфического квазисубъекта права. Некоторые исследователи даже признают разработку правовой концепции цифровой личности ключевой задачей ближайшего десятилетия в данной сфере [9].
Здесь уместно упомянуть Проект закона об умных роботах (Закон "Гришина"). Он представляет из себя проект Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области роботехники» [14]. В нем предлагается ввести понятие робота-агента: им признается робот, который по решению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте. Робот-агент имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности. В некоторых случаях для него предусмотрена даже процессуальная правоспособность. В целом правовой статус робота-агента довольно схож с юридическим лицом. Поскольку юридические лица являются активными участниками гражданского оборота, аналогичная правосубъектность электронного лица может вполне прижиться даже в отечественной правовой системе. Дело остается только за техническим развитием, а правовое регулирование не заставит себя ждать: как мы видим, проекты соответствующих актов создаются на опережение.
Подведем итог всему вышесказанному. Передовые технологии искусственного интеллекта постепенно становятся частью повседневной жизни людей, и этой интеграции не стоит опасаться. Зачастую положиться на помощь программы – это проще, быстрее и безопаснее, чем на собственные силы. Пусть возможности «сильнейших» ИИ-систем не пугают людей, нет смысла придумывать для них наказания, негативные эмоции от которых они никогда не смогут испытывать. Законодатель поступает верно, не создавая очередную юридическую фикцию в виде нового субъекта права. Все, на что будет способна машина, закладывается в нее изначально человеком, ошибка системы суть ошибка ее создателя.
Идея восстания машин, так прочно засевшая в головах людей, вряд ли выйдет за рамки научной фантастики, а вот человеческий страх, «красные кнопки» и запреты на испытания способны затормозить прогресс уже сегодня. С нашей точки зрения самым разумным вариантом в современных условиях будет обращать большее внимание на практические советы по повышению безопасности использования ИИ, чтобы исключить даже единичные негативные случаи его проявления. Юридическое будущее технологий ИИ за такими мерами, как усиленное тестирование новых продуктов и контроль за его проведением, страхование ответственности пользователей, государственная регистрация юнитов и прав на них и другое.
1. Аверкин А. Н., Гаазе-Рапопорт М. Г., Поспелов Д. А. Толковый словарь по искусственному интеллекту. - М.: Радио и связь, 1992. - 256 с. 2. Азимов, А. Обнаженное солнце // Центрполиграф, 2003.
2. Азимов А. Обнаженное солнце // Центрполиграф, 2003.
3. Азимов А. Эссе. Законы робототехники / А. Азимов // Мечты роботов. - Москва : Эксмо, 2004. -№ 6. - С. 781-784.
4. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170.
5. Бирюков, П. Н. Ответственность за вред, причиненный технологиями с искусственным интеллектом: подход Европейского союза // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. - 2020. - Т. 12. - № 4. - С. 39-49. - DOIhttps://doi.org/10.24866/VVSU/2073-3984/2020-4/039-049.
6. Вину за смертельную аварию беспилотника Uber разделили между всеми причастными [Электронный ресурс] URL: https://nplus1.ru/news/2019/11/20/uber-crash
7. Дорожно-транспортная аварийность в Российской Федерации за 6 месяцев 2021 года. Информационно-аналитический обзор. - М.: ФКУ «НЦ БДД МВД России», 2021. 41 с.
8. Ибрагимов Р., Сурагина Е. Право машин. Как привлечь робота к ответственности. [Электронный ресурс] Корпоративный юрист. №11. 2017. URL: http://e.korpurist.ru/article.aspx?aid=599113 (дата обращения: 11.10.2021).
9. Мамычев А. Ю., Гайворонская Я. В., Мирошниченко О. И. Современные доктринально-правовые и этические проблемы разработки и применения роботизированных технологий и систем искусственного интеллекта (на примере автономных необитаемых подводных аппаратов) // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. 2018. Т. 10. № 3 (42). С. 135-150.
10. Модельная конвенция о робототехнике и искусственном интеллекте. URL: https://robopravo.ru/modielnaia_konvientsiia
11. Морхат П.М. Искусственный интеллект: правовой взгляд: Научная монография / РОО «Институт государственно-конфессиональных отношений и права». - М.: Буки Веди, 2017. - 257 с.
12. Раскрыта тайна смертельного наезда беспилотника Uber [Электронный ресурс] URL: https://rg.ru/2019/11/10/raskryta-tajna-smertelnogo-naezda-bespilotnika-uber.html
13. Резолюция Европарламента от 16 февраля 2017 года «Нормы гражданского права о робототехнике» (перевод А. Незнамова, М. Ивановой для Исследовательского центра проблем регулирования робототехники, 2017). URL: robopravo.ru
14. Робоправо [Электронный ресурс] URL: https://robopravo.ru/proiekty_aktov
15. Самоуправляемый дрон впервые убил человека [Электронный ресурс]. URL: https://www.kommersant.ru/doc/4837323#id2027950
16. Харари Ю. Н. Homo Deus. Краткая история будущего [пер. с англ. А. Андреева]. - М .: Синдбад, 2018. - 496 с.
17. 17 человек получили ранения и один погиб в 11 ДТП с участием автопилота Tesla: власти США начали расследование [Электронный ресурс]. URL: https://www.ixbt.com/news/2021/08/17/tesla-11-17.html
18. Fatal Tesla Crash in Texas Believed to Be Driverless [Электронный ресурс]. URL: https://www.wsj.com/articles/fatal-tesla-crash-in-texas-believed-to-be-driverless-11618766363?page=24
19. Schermer B.W. Software agents, surveillance, and the right to privacy: a legislative framework for agentenabled surveillance. Leiden: Leiden University Press, 2007. С. 10-11.
20. Tesla driver dies in first fatal crash while using autopilot mode [Электронный ресурс]. URL: https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk