ББК 670 Общая теория права
В исследовательской среде юристов возрастают противоречивые мнения о возможности наделения искусственного интеллекта правосубъектностью. В представленной работе авторы высказывают свою точку зрения по обсуждаемой теме.
искусственный интеллект, робот, человек, правосубъектность, юриспруденция, цифровые технологии
Идея наделения правосубъектностью искусственного интеллекта пришла к нам из кинематографа. Дети и подростки, родившиеся в СССР во второй половине 1960–80-х гг., знакомство с адроидами начинали с минисериалов «Приключение Электроника», «Гостья из будущего». Поколение, родившееся в 1990-е гг., об искусственном интеллекте (далее — ИИ) узнали из зарубежных фильмов «Терминатор» и «Пятый элемент», в которых ИИ, во-первых, выглядел как человек, во-вторых, мыслил как человек. И в конце фильма герой ИИ испытывал те же эмоции, что и человек. А главное, они научились осознавать последствия своих и чужих поступков. Поэтому в кинематографе грань между человеком и искусственным интеллектом очень быстро стиралась.
Однако жизнь от кинематографа существенно отличается. Только человек обладает особым разумом, способным создавать различные формы (виды) отношений между людьми. Следовательно, субъектами могли быть только люди.
Развитие IT-технологий не только облегчило жизнь человечества, но и подняло вопросы о морально-этической и правовой природе искусственного интеллекта. Обращение к «платформе» научных статей «КиберЛенинка» позволило выявить более двух тысяч статей, посвященных применению ИИ в экономике, медицине, образовании, праве и других научно-исследовательских направлениях. Так, в совместной работе Е.П. Поряевой и В.А. Евстафьевой «Искусственный интеллект в медицине» авторы анализируют влияние искусственного интеллекта и его внедрение в медицину, описываются разработанные продукты от популярных компаний (Ada, Sense.ly, QTrobot, IBM Watson), какие действия производят программа и ее результаты в виде сокращения временных затрат на получение обследования [1].
А.В. Разин в статье «Этика искусственного интеллекта» очертил круг проблем, с которыми человек столкнулся при первых попытках создания искусственного интеллекта, способного в той или иной мере принимать самостоятельные решения. В частности, он поднял вопрос об этических ограничениях, которые могут быть заложены в искусственные интеллектуальные системы при программировании [2].
Однако наиболее спорная позиция на искусственный интеллект представлена в исследовании Р.И. Дремлюги и О.А. Дремлюги «Искуственный интеллект — субъект права: аргументы за и против», где авторы анализируют проблему наделения ИИ правосбъектностью [3].
Эволюция политико-правовой мысли установила, что субъектами права могут быть юридические и фактические лица, государство, а также субъекты международного и международного частного права.
В теории права обозначено, что субъект права имеет следующие признаки:
– наличие организационного единства;
– обладание обособленным имуществом;
– способность нести самостоятельную имущественную ответственность;
– возможность выступления в гражданском обороте от своего имени, быть истцом и ответчиком в суде.
А как же данный вопрос обстоит в отношении ИИ? Ведь сегодня ИИ плотно вошел в нашу жизнь. Поэтому одним из важных вопросов в научной среде стоит вопрос о юридическом статусе ИИ.
В то же время научным сообществом признается, что такое решение касается не всех ботов, а лишь тех, которые обладают искусственным разумом и готовы передвигаться автономно. Речь, в частности, идет о роботах, которые имитируют человеческое поведение, решения, и беспилотных автомобилях.
Правосубъектность, как и право, человек создавал исходя из своих принципов, своего сознания, разума и мышления. Человек, создавая для себя лучшие условия существования государства, основывался именно на своих потребностях и на своих чувствах. Вся система формировалась долгие годы, затрагивая разные аспекты жизни и мышления человека в целом. Более того, человеку присущи такие качества, как разумность, трезвое оценивание ситуации, сочувствие, сострадание и логика. Поэтому человек не мыслит примитивно и его нельзя запрограммировать на определенные действия. Именно в этом и возникает первая проблема, по нашему мнению, для придания правосубъектности ИИ.
Представим ситуацию: человечество создало первого робота, способного выполнять работу спасателя. Произошла ситуация, в ходе которой произошло ДТП и один из автомобилей, съехав с эстакады, свернул и упал в реку. В машине находилась девочка в возрасте 12 лет и ее папа. Увидев это, бот, оснащенный ИИ, прыгнул за машиной и спас именно мужчину, потому что процент его смерти в случае чего был ниже, чем у ребенка. Именно на это запрограммирован робот. Он спасает тех, чей процент выживаемости больше. Но так ли бы поступил в этой ситуации человек?
Некоторые правоведы приводят в аргумент именно то, что ИИ не умеет разумно мыслить. Он не обладает ни душой, ни сознанием, не может в той или иной ситуации перестроиться и принять правильное решение. Он лишь запрограммирован человеком на конкретные действия и выполняет определенные алгоритмы. ИИ лишь может «имитировать» человеческое поведение, но никак не являться человеком. Исследователи, которые выступают за то, чтобы ИИ признать субъектом права, обосновывают свое решение тем, что ребенок или лица, не являющиеся дееспособными, могут сравниваться с ИИ.
Противоречивость подхода в определении правового статуса ИИ характерно для современных исследователей. Подобные вопросы обсуждаются на государственном уровне. Примером тому является Министерство обороны США. В статье «Обязательства о различии и пропорциональности, применимые к лицам, а не к оружию» рассказывается о том, что «закон войны не требует, чтобы оружие определяло правомерность своих действий, даже если оно может быть охарактеризовано как способное принимать юридически значимые, например, начинать ли стрелять или выбирать и поражать цель» [4].
Это говорит нам о том, что в данной ситуации ИИ можно считать некой «машиной для убийств и разбоя», ведь ни один робот не контролирует свои действия, а лишь выполняет приказы человека. Очень часто в таких системах случаются сбои, которые могут привести к необратимым и жутким последствиям. В данном вопросе нельзя говорить о том, что действия и решения искусственного интеллекта можно приравнивать к действиям человека.
Данный вопрос рассматривался в Европейском парламенте в комиссии по гражданским правам. В нем говорится: «В конечном счете автономия роботов ставит вопрос об их природе в свете существующих правовых категорий: о том, следует ли их рассматривать как физических и/или юридических лиц, животных или других существующих субъектов права или же следует создавать новую категорию с ее способностями и принимаемыми последствиями в контексте распределения прав и обязанностей, включая ответственность за ущерб» [5]. Исходя из этого, следует вывод: говорить о том, чтобы ИИ сделать субъектом права, пока нельзя, но можно создать такую категорию, которая удовлетворяла бы требованиям двух сторон.
Рассмотрим мнение обычных людей, которым непосредственно придется сталкиваться с роботами в обычной жизни. Как известно, люди с недоверием относятся к такому определению, как «искусственный интеллект». Это подразумевает собой то, что людям не нравится внедрение этих технологий не только в юридическую сферу, но и во все остальные сферы общественных отношений. Роботы стали заменять людей, поэтому все больше повышается количество безработных. Человек привык делать все сам, ведь так безопаснее и правильнее. Человек сделает все намного лучше и качественнее своими руками, нежели при помощи робота. Даже если мы возьмем в пример обычный сотовый телефон, то спокойно можем говорить о том, что за нами спокойно можно следить и брать информацию, которая недоступна никому кроме нас. Человек не доверяет технике, потому что она не сможет так же проанализировать ситуацию, сделать определенные выводы и т.д.
Ведущий программы «Пятый этаж» Олег Антоненко говорил: «Мы хотим поговорить об искусственном интеллекте, назовем его «компьютерным мозгом», который способен думать как человек. Простейшие устройства с использованием искусственного интеллекта можно встретить уже сейчас. Вопрос в том, что эти системы не способны к обучению. Например, компьютер Deep Blue, который обыгрывал чемпиона мира по шахматам, играть в домино или шашки не умеет. Эксперты говорят, что искусственный интеллект, возможно, в полном объеме мы получим к 2050 г.» [4].
Мнения народа, ученых и властей схожи. Они делятся на две категории и приводят аргументы в пользу своего решения.
Начать, конечно же, нужно с сотворения уникального субъекта права. В Европейском Объединении с недавних пор звучит термин «электронные лица». Возможно, испробовать, взяв его в качестве наименования, предоставить определение такового свежего субъекта. Электронное лицо — носитель искусственного разума (машина, бот, программа), владеющий интеллектом, подобным человеческому, возможностью брать на себя осмысленные и не базирующиеся на заложенном творцом подобной машины, бота, программы методе заключения, и наделенный определенными правами и прямыми обязанностями. Без колебаний, это определение нужно считать теоретическим и требующим определенной доработки. В предложенном варианте содержит значение принять его в качестве рабочего.
Тогда потребуется составить перечень прав, оборона которых имеет возможность понадобиться носителю искусственного разума. Они станут связаны с двумя причинами: с моментом существования носителя и с моментом итогов его «интеллектуальной» работы.
Исследователи в сфере уголовного права спорят еще более жестоко. В случае нарушения правовых норм человек обязан понести то или иное наказание за свое деяние. Искусственный интеллект не сможет понести такое же наказание, ведь этим искусственным интеллектом управляет и владеет человек. А кто же должен нести эту ответственность? В системе российского права, которая связана с лишением свободы, существует две цели: 1) фактическая; 2) теоретическая.
Фактическая — основывается на том, что осужденный может повторно причинить вред обществу, в том числе и тяжелее, чем в первый раз. Теоретическая же связана с «перевоспитанием» этого человека и становлением его на праведный путь. Да, с одной стороны, человек лишается свободы и отбывает свой срок в местах лишения свободы, но исправится ли он, зависит от человека, и никто не может повлиять на него. Это всего лишь предположения и возможности. В отношении искусственного разума можно говорить только о фактической части, ведь робот не сможет изменить себя в лучшую или худшую сторону. Его можно лишь перепрограммировать, исправить программу. Можно, наконец, и утилизировать такого робота. Это должно зависеть от ценности модели, от количества ошибок, произведенных этой машиной и возможности устранить неполадки, не прибегая к способу утилизации.
Авторы книги «Ответственность за преступление с использованием систем искусственного интеллекта» считают по-другому. В ней говорится о том, что такие системы можно сравнивать с юридическими лицами и ответственность они должны нести такую же, как и юридические лица. Если в уголовном праве существует такая фикция, как правосубъектность юридического лица, то и для искусственного интеллекта нужно создать подобную. В книге к ИИ предлагается применять такую меру наказания, как «лишение свободы», но только путем отключения всех операционных систем на какой-то промежуток времени [2].
Противников такого мнения может быть много, но с одним пунктом трудно не согласиться. Если создают отдельные фикции для каких-то субъектов, это не значит, что нельзя создать новые в отношении искусственного интеллекта.
Развитие технологий искусственного ума ставит вызовы перед законодательной системой Российской Федерации. Такие аргументы обоснованы определенной степенью автономности деятельности систем искусственного интеллекта в решении намеченных целей и их невозможностью конкретно принимать этические и законодательные нормы, учесть их при выполнении каких-то действий.
На данный момент у нас в стране отсутствуют какие-либо нормы регулирования, относящиеся к системам искусственного интеллекта, как во многих других странах. Авторы идеи о правосубъектности ИИ опираются на то, что для того чтобы создать эти методы регулирования, нужно сначала создать среду для комфортного и безопасного развития этой сферы. Нужно сопоставить и взвесить все «за» и «против», для того чтобы человеку было комфортно, чтобы существовал единый баланс между интересами человека, всего общества в целом и государства. Правительство Российской Федерации обозначило тренды к регулировке отношений в сфере искусственного разума и робототехники. В частности, не допускается внедрение систем искусственного разума, способного автономно принять заключение о нанесении какого-либо вреда человеку. Не считая того, что при содействии с людьми эти системы обязаны пройти идентификацию. В то же время предлагается игнорировать интенсивные регулировки, которые помешает развитию обозначенных технологий.
Но все-таки один искусственный интеллект смог победить все стереотипы и прорваться к тому самому статусу субъекта. Это случилось в Саудовской Аравии.
София — человекоподобный робот, который был разработан гонконгской компанией Hanson Robotics. Она была спроектирована таким образом, чтобы учиться и адаптироваться к поведению людей, а также работать с людьми. София путешествовала и представляла себя по всему миру. В октябре 2017 г. она стала подданной Саудовской Аравии. Также она является первым роботом, который получил статус подданной Саудовской Аравии [6].
Справедливости ради, стоит отметить, что София — не единственный человекоподобный робот. В России есть разработка отечественной компании «Нейроботикс» — Алиса, которая может слышать и отвечать на вопросы, а также улыбаться, двигать зрачками и моргать глазами. Правда, пока она остается разработкой высокого совместного уровня инженеров, программистов, биомехаников, нейрофизиологов и стилистов без предоставления гражданского статуса.
Присвоение искусственному интеллекту права субъекта мы можем рассмотреть со стороны морали. Вопрос заключается в следующем: должен ли человек с точки зрения морали наделять искусственный интеллект правосубъектностью? Сложность ответа на этот вопрос состоит в том, что мораль не для всех одинакова. Мораль — это общепринятые нормы, но не все обязаны их выполнять. Мораль никак не может быть прописана как правовой акт. Кроме этого, нормы морали, как и нормы права, существенно разняться.
Современные системы искусственного интеллекта имеют очень схожие черты с человеком, следовательно, мы не можем сказать, что искусственный интеллект никогда не будет обладать правосубъектностью. Но и сказать, что это случится в какой-то видимый промежуток времени, мы тоже не можем, так как наш мир постоянно меняется, а вместе с ним и право.
Наш мир развивается в технологическом плане. Право постоянно меняется вслед за обществом. Как только происходит какая-либо ситуация, связанная с правом, нужно рассматривать изменения в действующем законодательстве. На данный момент пора создавать нормы наперед, а потом лишь исправлять и дорабатывать уже существующий базис, если это необходимо. Модернизация роботов не так далека от нас. Россия, как и во многом, может стать первым государством, которое создало искусственный интеллект и дала ему возможность быть субъектом права.
Исходя из всего вышесказанного, можно сделать вывод о том, что мы не можем точно сказать, можно ли искусственный интеллект считать субъектом права. Не все готовы это принять и согласиться исходя из моральных побуждений, но многие государства и люди разделяют эту идею и даже воплощают в жизнь. Если в мире юридические лица уже получили свою правосубъектность, то и искусственный интеллект тоже имеет на это право, ведь такое уже существует и используется по сей день. Нельзя отрицать, что в настоящее время искусственный интеллект выполняет только вспомогательную функцию.
1. Поряева Е.П., Евстафьева В.А. Искусственный интеллект в медицине. URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-v-meditsine-1 (дата обращения: 12.12.2021 г.).
2. Разин А.В. Этика искусственного интеллекта. URL: https://cyberleninka.ru/article/n/etika-iskusstvennogo-intellekta (дата обращения: 12.12.2021 г.).
3. Дремлюга Р.И., Дремлюга О.А. Искусственный интеллект - субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. С. 120-125. URL: https://www.elibrary.ru/item.asp?id= 38251458 (дата обращения: 12.12.2021 г.).
4. Hallevy G. The Criminal Liability of Artificial Intelligence Entities // SSRN Electronic Journal (February 15, 2010). URL: http://dx.doi.org/10.2139/ssrn.1564096 (дата обращения: 12.12.2021 г.).
5. Ахмедов Р.М., Эриашвили Н.Д., Ахмедов Д.Р. О некоторыех аспектах цифровизации религиозной деятельности в современном обществе // Закон и право. 2021. № 7. С. 22-26.
6. Everything You Need To Know About Sophia, The World's First Robot Citizen, Forbes Oficial site, URL: https://www.forbes.com/sites/zarastone/2017/11/07/everything-you-need-to-know-about-sophia-the-wonds-first-robot-citizen/ (дата обращения: 12.12.2021 г.).
7. Ахмедов Д.Р. К вопросу о правовом воздействии на экстремистские формы проявлений в виртуальном пространстве // Вестник Самарской гуманитарной академии. Серия: Право. 2020. № 2(25). С. 104-106.
8. Ахмедов Р.М. Digital Religion и традиционные религиозные ценности (по материалам электронных ресурсов): монография. М.: ЮНИТИ-ДАНА, 2021. 167 с.
9. Ахмедов Р.М., Эриашвили Н.Д., Ахмедов Д.Р. Digital Religion и традиционные культурно-идеологические модели. Особенности соотношений // Государственная служба и кадры. 2021. № 3. С. 25-29.
10. Елинский В.И., Федоров Р.В. Использование космической съемки Земли при расследовании преступлений // Вестник Московского университета МВД России. 2021. № 1. С. 181-184. DOI:https://doi.org/10.24412/2073-0454-2021-1-181-184.