THE LEGAL PERSONALITY OF ARTIFICIAL INTELLIGENCE: REALITY OR FICTION?
Abstract and keywords
Abstract (English):
V issledovatel'skoy srede yuristov vozrastayut protivorechivye mneniya o vozmozhnosti nadeleniya iskusstvennogo intellekta pravosub'ektnost'yu. V predstavlennoy rabote avtory vyskazyvayut svoyu tochku zreniya po obsuzhdaemoy teme.

Keywords:
iskusstvennyy intellekt, robot, chelovek, pravosub'ektnost', yurisprudenciya, cifrovye tehnologii
Text
Publication text (PDF): Read Download

Идея наделения правосубъектностью искусственного интеллекта пришла к нам из кинематографа. Дети и подростки, родившиеся в СССР во второй половине 1960–80-х гг., знакомство с адроидами начинали с минисериалов «Приключение Электроника», «Гостья из будущего». Поколение, родившееся в 1990-е гг., об искусственном интеллекте (далее — ИИ) узнали из зарубежных фильмов «Терминатор» и «Пятый элемент», в которых ИИ, во-первых, выглядел как человек, во-вторых, мыслил как человек. И в конце фильма герой ИИ испытывал те же эмоции, что и человек. А главное, они научились осознавать последствия своих и чужих поступков. Поэтому в кинематографе грань между человеком и искусственным интеллектом очень быстро стиралась.

Однако жизнь от кинематографа существенно отличается. Только человек обладает особым разумом, способным создавать различные формы (виды) отношений между людьми. Следовательно, субъектами могли быть только люди.

Развитие IT-технологий не только облегчило жизнь человечества, но и подняло вопросы о морально-этической и правовой природе искусственного интеллекта. Обращение к «платформе» научных статей «КиберЛенинка» позволило выявить более двух тысяч статей, посвященных применению ИИ в экономике, медицине, образовании, праве и других научно-исследовательских направлениях. Так, в совместной работе Е.П. Поряевой и В.А. Евстафьевой «Искусственный интеллект в медицине» авторы анализируют влияние искусственного интеллекта и его внедрение в медицину, описываются разработанные продукты от популярных компаний (Ada, Sense.ly, QTrobot, IBM Watson), какие действия производят программа и ее результаты в виде сокращения временных затрат на получение обследования [1].

А.В. Разин в статье «Этика искусственного интеллекта» очертил круг проблем, с которыми человек столкнулся при первых попытках создания искусственного интеллекта, способного в той или иной мере принимать самостоятельные решения. В частности, он поднял вопрос об этических ограничениях, которые могут быть заложены в искусственные интеллектуальные системы при программировании [2].

Однако наиболее спорная позиция на искусственный интеллект представлена в исследовании Р.И. Дремлюги и О.А. Дремлюги «Искуственный интеллект — субъект права: аргументы за и против», где авторы анализируют проблему наделения ИИ правосбъектностью [3].

Эволюция политико-правовой мысли установила, что субъектами права могут быть юридические и фактические лица, государство, а также субъекты международного и международного частного права.

В теории права обозначено, что субъект права имеет следующие признаки:

– наличие организационного единства;

– обладание обособленным имуществом;

– способность нести самостоятельную имущественную ответственность;

– возможность выступления в гражданском обороте от своего имени, быть истцом и ответчиком в суде.

А как же данный вопрос обстоит в отношении ИИ? Ведь сегодня ИИ плотно вошел в нашу жизнь. Поэтому одним из важных вопросов в научной среде стоит вопрос о юридическом статусе ИИ.

В то же время научным сообществом признается, что такое решение касается не всех ботов, а лишь тех, которые обладают искусственным разумом и готовы передвигаться автономно. Речь, в частности, идет о роботах, которые имитируют человеческое поведение, решения, и беспилотных автомобилях.

Правосубъектность, как и право, человек создавал исходя из своих принципов, своего сознания, разума и мышления. Человек, создавая для себя лучшие условия существования государства, основывался именно на своих потребностях и на своих чувствах. Вся система формировалась долгие годы, затрагивая разные аспекты жизни и мышления человека в целом. Более того, человеку присущи такие качества, как разумность, трезвое оценивание ситуации, сочувствие, сострадание и логика. Поэтому человек не мыслит примитивно и его нельзя запрограммировать на определенные действия. Именно в этом и возникает первая проблема, по нашему мнению, для придания правосубъектности ИИ.

Представим ситуацию: человечество создало первого робота, способного выполнять работу спасателя. Произошла ситуация, в ходе которой произошло ДТП и один из автомобилей, съехав с эстакады, свернул и упал в реку. В машине находилась девочка в возрасте 12 лет и ее папа. Увидев это, бот, оснащенный ИИ, прыгнул за машиной и спас именно мужчину, потому что процент его смерти в случае чего был ниже, чем у ребенка. Именно на это запрограммирован робот. Он спасает тех, чей процент выживаемости больше. Но так ли бы поступил в этой ситуации человек?

Некоторые правоведы приводят в аргумент именно то, что ИИ не умеет разумно мыслить. Он не обладает ни душой, ни сознанием, не может в той или иной ситуации перестроиться и принять правильное решение. Он лишь запрограммирован человеком на конкретные действия и выполняет определенные алгоритмы. ИИ лишь может «имитировать» человеческое поведение, но никак не являться человеком. Исследователи, которые выступают за то, чтобы ИИ признать субъектом права, обосновывают свое решение тем, что ребенок или лица, не являющиеся дееспособными, могут сравниваться с ИИ.

Противоречивость подхода в определении правового статуса ИИ характерно для современных исследователей. Подобные вопросы обсуждаются на государственном уровне. Примером тому является Министерство обороны США. В статье «Обязательства о различии и пропорциональности, применимые к лицам, а не к оружию» рассказывается о том, что «закон войны не требует, чтобы оружие определяло правомерность своих действий, даже если оно может быть охарактеризовано как способное принимать юридически значимые, например, начинать ли стрелять или выбирать и поражать цель» [4].

Это говорит нам о том, что в данной ситуации ИИ можно считать некой «машиной для убийств и разбоя», ведь ни один робот не контролирует свои действия, а лишь выполняет приказы человека. Очень часто в таких системах случаются сбои, которые могут привести к необратимым и жутким последствиям. В данном вопросе нельзя говорить о том, что действия и решения искусственного интеллекта можно приравнивать к действиям человека.

Данный вопрос рассматривался в Европейском парламенте в комиссии по гражданским правам. В нем говорится: «В конечном счете автономия роботов ставит вопрос об их природе в свете существующих правовых категорий: о том, следует ли их рассматривать как физических и/или юридических лиц, животных или других существующих субъектов права или же следует создавать новую категорию с ее способностями и принимаемыми последствиями в контексте распределения прав и обязанностей, включая ответственность за ущерб» [5]. Исходя из этого, следует вывод: говорить о том, чтобы ИИ сделать субъектом права, пока нельзя, но можно создать такую категорию, которая удовлетворяла бы требованиям двух сторон.

Рассмотрим мнение обычных людей, которым непосредственно придется сталкиваться с роботами в обычной жизни. Как известно, люди с недоверием относятся к такому определению, как «искусственный интеллект». Это подразумевает собой то, что людям не нравится внедрение этих технологий не только в юридическую сферу, но и во все остальные сферы общественных отношений. Роботы стали заменять людей, поэтому все больше повышается количество безработных. Человек привык делать все сам, ведь так безопаснее и правильнее. Человек сделает все намного лучше и качественнее своими руками, нежели при помощи робота. Даже если мы возьмем в пример обычный сотовый телефон, то спокойно можем говорить о том, что за нами спокойно можно следить и брать информацию, которая недоступна никому кроме нас. Человек не доверяет технике, потому что она не сможет так же проанализировать ситуацию, сделать определенные выводы и т.д.

Ведущий программы «Пятый этаж» Олег Антоненко говорил: «Мы хотим поговорить об искусственном интеллекте, назовем его «компьютерным мозгом», который способен думать как человек. Простейшие устройства с использованием искусственного интеллекта можно встретить уже сейчас. Вопрос в том, что эти системы не способны к обучению. Например, компьютер Deep Blue, который обыгрывал чемпиона мира по шахматам, играть в домино или шашки не умеет. Эксперты говорят, что искусственный интеллект, возможно, в полном объеме мы получим к 2050 г.» [4].

Мнения народа, ученых и властей схожи. Они делятся на две категории и приводят аргументы в пользу своего решения.

Начать, конечно же, нужно с сотворения уникального субъекта права. В Европейском Объединении с недавних пор звучит термин «электронные лица». Возможно, испробовать, взяв его в качестве наименования, предоставить определение такового свежего субъекта. Электронное лицо — носитель искусственного разума (машина, бот, программа), владеющий интеллектом, подобным человеческому, возможностью брать на себя осмысленные и не базирующиеся на заложенном творцом подобной машины, бота, программы методе заключения, и наделенный определенными правами и прямыми обязанностями. Без колебаний, это определение нужно считать теоретическим и требующим определенной доработки. В предложенном варианте содержит значение принять его в качестве рабочего.

Тогда потребуется составить перечень прав, оборона которых имеет возможность понадобиться носителю искусственного разума. Они станут связаны с двумя причинами: с моментом существования носителя и с моментом итогов его «интеллектуальной» работы.

Исследователи в сфере уголовного права спорят еще более жестоко. В случае нарушения правовых норм человек обязан понести то или иное наказание за свое деяние. Искусственный интеллект не сможет понести такое же наказание, ведь этим искусственным интеллектом управляет и владеет человек. А кто же должен нести эту ответственность? В системе российского права, которая связана с лишением свободы, существует две цели: 1) фактическая; 2) теоретическая.

Фактическая — основывается на том, что осужденный может повторно причинить вред обществу, в том числе и тяжелее, чем в первый раз. Теоретическая же связана с «перевоспитанием» этого человека и становлением его на праведный путь. Да, с одной стороны, человек лишается свободы и отбывает свой срок в местах лишения свободы, но исправится ли он, зависит от человека, и никто не может повлиять на него. Это всего лишь предположения и возможности. В отношении искусственного разума можно говорить только о фактической части, ведь робот не сможет изменить себя в лучшую или худшую сторону. Его можно лишь перепрограммировать, исправить программу. Можно, наконец, и утилизировать такого робота. Это должно зависеть от ценности модели, от количества ошибок, произведенных этой машиной и возможности устранить неполадки, не прибегая к способу утилизации.

Авторы книги «Ответственность за преступление с использованием систем искусственного интеллекта» считают по-другому. В ней говорится о том, что такие системы можно сравнивать с юридическими лицами и ответственность они должны нести такую же, как и юридические лица. Если в уголовном праве существует такая фикция, как правосубъектность юридического лица, то и для искусственного интеллекта нужно создать подобную. В книге к ИИ предлагается применять такую меру наказания, как «лишение свободы», но только путем отключения всех операционных систем на какой-то промежуток времени [2].

Противников такого мнения может быть много, но с одним пунктом трудно не согласиться. Если создают отдельные фикции для каких-то субъектов, это не значит, что нельзя создать новые в отношении искусственного интеллекта.

Развитие технологий искусственного ума ставит вызовы перед законодательной системой Российской Федерации. Такие аргументы обоснованы определенной степенью автономности деятельности систем искусственного интеллекта в решении намеченных целей и их невозможностью конкретно принимать этические и законодательные нормы, учесть их при выполнении каких-то действий.

На данный момент у нас в стране отсутствуют какие-либо нормы регулирования, относящиеся к системам искусственного интеллекта, как во многих других странах. Авторы идеи о правосубъектности ИИ опираются на то, что для того чтобы создать эти методы регулирования, нужно сначала создать среду для комфортного и безопасного развития этой сферы. Нужно сопоставить и взвесить все «за» и «против», для того чтобы человеку было комфортно, чтобы существовал единый баланс между интересами человека, всего общества в целом и государства. Правительство Российской Федерации обозначило тренды к регулировке отношений в сфере искусственного разума и робототехники. В частности, не допускается внедрение систем искусственного разума, способного автономно принять заключение о нанесении какого-либо вреда человеку. Не считая того, что при содействии с людьми эти системы обязаны пройти идентификацию. В то же время предлагается игнорировать интенсивные регулировки, которые помешает развитию обозначенных технологий.

Но все-таки один искусственный интеллект смог победить все стереотипы и прорваться к тому самому статусу субъекта. Это случилось в Саудовской Аравии.

София — человекоподобный робот, который был разработан гонконгской компанией Hanson Robotics. Она была спроектирована таким образом, чтобы учиться и адаптироваться к поведению людей, а также работать с людьми. София путешествовала и представляла себя по всему миру. В октябре 2017 г. она стала подданной Саудовской Аравии. Также она является первым роботом, который получил статус подданной Саудовской Аравии [6].

Справедливости ради, стоит отметить, что София — не единственный человекоподобный робот. В России есть разработка отечественной компании «Нейроботикс» — Алиса, которая может слышать и отвечать на вопросы, а также улыбаться, двигать зрачками и моргать глазами. Правда, пока она остается разработкой высокого совместного уровня инженеров, программистов, биомехаников, нейрофизиологов и стилистов без предоставления гражданского статуса.

Присвоение искусственному интеллекту права субъекта мы можем рассмотреть со стороны морали. Вопрос заключается в следующем: должен ли человек с точки зрения морали наделять искусственный интеллект правосубъектностью? Сложность ответа на этот вопрос состоит в том, что мораль не для всех одинакова. Мораль — это общепринятые нормы, но не все обязаны их выполнять. Мораль никак не может быть прописана как правовой акт. Кроме этого, нормы морали, как и нормы права, существенно разняться.

Современные системы искусственного интеллекта имеют очень схожие черты с человеком, следовательно, мы не можем сказать, что искусственный интеллект никогда не будет обладать правосубъектностью. Но и сказать, что это случится в какой-то видимый промежуток времени, мы тоже не можем, так как наш мир постоянно меняется, а вместе с ним и право.

Наш мир развивается в технологическом плане. Право постоянно меняется вслед за обществом. Как только происходит какая-либо ситуация, связанная с правом, нужно рассматривать изменения в действующем законодательстве. На данный момент пора создавать нормы наперед, а потом лишь исправлять и дорабатывать уже существующий базис, если это необходимо. Модернизация роботов не так далека от нас. Россия, как и во многом, может стать первым государством, которое создало искусственный интеллект и дала ему возможность быть субъектом права.

Исходя из всего вышесказанного, можно сделать вывод о том, что мы не можем точно сказать, можно ли искусственный интеллект считать субъектом права. Не все готовы это принять и согласиться исходя из моральных побуждений, но многие государства и люди разделяют эту идею и даже воплощают в жизнь. Если в мире юридические лица уже получили свою правосубъектность, то и искусственный интеллект тоже имеет на это право, ведь такое уже существует и используется по сей день. Нельзя отрицать, что в настоящее время искусственный интеллект выполняет только вспомогательную функцию.

References

1. Poryaeva E.P., Evstaf'eva V.A. Iskusstvennyy intellekt v medicine. URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-v-meditsine-1 (data obrascheniya: 12.12.2021 g.).

2. Razin A.V. Etika iskusstvennogo intellekta. URL: https://cyberleninka.ru/article/n/etika-iskusstvennogo-intellekta (data obrascheniya: 12.12.2021 g.).

3. Dremlyuga R.I., Dremlyuga O.A. Iskusstvennyy intellekt - sub'ekt prava: argumenty za i protiv // Pravovaya politika i pravovaya zhizn'. 2019. № 2. S. 120-125. URL: https://www.elibrary.ru/item.asp?id= 38251458 (data obrascheniya: 12.12.2021 g.).

4. Hallevy G. The Criminal Liability of Artificial Intelligence Entities // SSRN Electronic Journal (February 15, 2010). URL: http://dx.doi.org/10.2139/ssrn.1564096 (data obrascheniya: 12.12.2021 g.).

5. Ahmedov R.M., Eriashvili N.D., Ahmedov D.R. O nekotoryeh aspektah cifrovizacii religioznoy deyatel'nosti v sovremennom obschestve // Zakon i pravo. 2021. № 7. S. 22-26.

6. Everything You Need To Know About Sophia, The World's First Robot Citizen, Forbes Oficial site, URL: https://www.forbes.com/sites/zarastone/2017/11/07/everything-you-need-to-know-about-sophia-the-wonds-first-robot-citizen/ (data obrascheniya: 12.12.2021 g.).

7. Ahmedov D.R. K voprosu o pravovom vozdeystvii na ekstremistskie formy proyavleniy v virtual'nom prostranstve // Vestnik Samarskoy gumanitarnoy akademii. Seriya: Pravo. 2020. № 2(25). S. 104-106.

8. Ahmedov R.M. Digital Religion i tradicionnye religioznye cennosti (po materialam elektronnyh resursov): monografiya. M.: YuNITI-DANA, 2021. 167 s.

9. Ahmedov R.M., Eriashvili N.D., Ahmedov D.R. Digital Religion i tradicionnye kul'turno-ideologicheskie modeli. Osobennosti sootnosheniy // Gosudarstvennaya sluzhba i kadry. 2021. № 3. S. 25-29.

10. Elinskiy V.I., Fedorov R.V. Ispol'zovanie kosmicheskoy s'emki Zemli pri rassledovanii prestupleniy // Vestnik Moskovskogo universiteta MVD Rossii. 2021. № 1. S. 181-184. DOI:https://doi.org/10.24412/2073-0454-2021-1-181-184.

Login or Create
* Forgot password?