Volgograd, Volgograd, Russian Federation
VAK Russia 5.1.1
VAK Russia 5.1.2
VAK Russia 5.1.3
VAK Russia 5.1.4
VAK Russia 5.1.5
UDC 340.143
CSCSTI 10.00
CSCSTI 10.07
Russian Classification of Professions by Education 10.05.05
Russian Library and Bibliographic Classification 67
Russian Library and Bibliographic Classification 60
Russian Trade and Bibliographic Classification 2323
BISAC LAW LAW
The aim of the work is to identify the main directions of artificial intelligence development in the provision of telemedicine care that require additional legal regulation. The provision of medical care is fundamentally changing under the influence of informatization, which is manifested, among other things, in the increasing role of artificial intelligence and telemedicine technologies. Taken together, these two phenomena create difficulties for legislative and law enforcement agencies. The work is aimed at identifying and developing proposals for improving the legal regulation of artificial intelligence in telemedicine. As a result of the study, the main problems of using artificial intelligence in telemedicine are identified: (1) the problem of the quality of the source data; (2) the problem of loss of generalization ability; (3) the problem of the duration of continuous learning; (4) the problem of data uniqueness; (5) the problem of responsibility; (6) The problem of personal data. The study is financially supported by the Russian Science Foundation, project № 23-78-10175, https://rscf.ru/project/23-78-10175/.
medicine, telemedicine, informatization, digitalization, artificial intelligence, legal regulation, telemedicine technologies
Оказание медицинской помощи должно развиваться сообразно тенденциям времени, обеспечивая наилучшую возможную заботу о жизни и здоровье людей. Это означает неизбежность все большего вовлечения в указанный процесс информационных технологий. Однако инновации неизбежно несут за собой новые, нетипичные для прошлых периодов риски. Один из способов их избежать, не препятствуя прогрессу – создать полное и точное правовое регулирование информационных технологий в медицине.
Проблемы правового регулирования искусственного интеллекта в медицине, в т.ч. в телемедицине, являлись объектом исследований в зарубежных странах и в России. Наиболее содержательные работы зарубежных ученых по данной тематике принадлежат Ahmad R.W., Chouhan S.S., Forgo N., Gioulekas F., Kalra A., Nobile C.G., Prainsack B. [4]. Среди отечественных ученых следует выделить Афанасьеву Е.Н., Варюшина М.С., Давыдову М.Л. [5], Киселева А.С. [6], Никитенко С.В., Старчикова М.Ю., Подузову Е.Б. [7].
При этом работы по тематике настоящего исследования носят преимущественно обзорный характер, ограничиваются описанием сфер использования искусственного интеллекта в телемедицине, правовых актов в этой области и их основных проблем. Предложенные решения имеют обычно самый общий характер.
В исследовании наибольшее внимание уделяется следующим методам: синергетика, позволяющая объединить достижения в сферах медицины, права и информационных технологий; методы системного и структурного анализа. Теоретическая основа исследования основывается на основных принципах правового регулирования отношений в сфере охраны здоровья, в том числе – соблюдения прав граждан, приоритета интересов пациента, приоритета профилактики, соблюдения врачебной тайны.
Искусственный интеллект в сфере оказания медицинской помощи и телемедицина по отдельности – явления не новые, а уже достаточно апробированные и на сегодняшний день активно развивающиеся и масштабирующийся. Однако их совместное применение еще весьма мало распространено, а правовое регулирование весьма ограничено, что создает ряд вопросов, касающихся преимущественно безопасности, эффективности и ответственности соединения искусственного интеллекта с телемедициной.
Указанные риски в целом типичны для применения искусственного интеллекта. Обладая неоспоримыми преимуществами (автономность, способность принимать незапрограмированные решения, способность к обучению), искусственный интеллект при этом непредсказуем, может развиваться бесконтрольно, что в области медицины означает возможность причинения вреда жизни и здоровью человека [8]. Эти риски, имманентно присущие искусственному интеллекту, требуют как технических, так и правовых решений, позволяющих их минимизировать либо устранить.
Непрерывное обучение искусственного интеллекта предполагает четыре основных проблемы [2]:
1. Качество исходных данных. Принципиально различаются между собой ситуации, когда исходные данные для ИИ предоставляет врач и когда они заносятся пациентом либо устройством в автоматическом режиме. Так, уже достаточно распространены устройства, которые собирают данные об организме человека (например, о количестве сахара в крови) и на этой основе выдают рекомендации о дальнейших действиях. Но если программы без использования ИИ делают это по установленному алгоритму, то устройство с ИИ способно адаптироваться к конкретному пациенту, вырабатывать для него более точные и индивидуальные рекомендации. Однако здесь возрастает риск некорректного применения, которому в особенности подвержены дети или пожилые люди, т.е. пациенты, которые в силу различных факторов не всегда могут правильно оценить, проконтролировать свои действия или представить серьезность их последствий.
Например, ребенок может получить неверный совет от устройства, лишь потому что сам неправильно его использовал или вовсе передал другому лицу, что теоретически способно повлечь вред здоровью пациента. Неизбежно возникает вопрос, кто должен будет понести ответственность в данном случае: производитель устройства, врач или законный представитель пациент (либо сам пациент)? Представляется верным ответ на этот вопрос, который дан в законодательстве Европейского Союза, которое предусматривает презумпцию вины производителя, которая предполагается до момента, когда установлено, что пользователь «существенно вмешался в условия работы системы искусственного интеллекта или был обязан и мог определить условия работы системы искусственного интеллекта, но не сделал этого».
2. Потеря способности к обобщению. Некоторые модели искусственного интеллекта сталкиваются с проблемой переобучения. После завершения обучения модель должна самостоятельно формировать новые правила, новые данные обобщать до закономерностей. При этом некоторые модели по разным причинам (имманентная склонность к этому, ошибки разработчиков, поведение пользователя), сталкиваясь с новыми данными, начинают переобучаться на них – не формируя правила, а фиксируя отдельные исключения. Например, медицинский ИИ, получив данные о пользователе устройства во время болезни, не обобщает и адаптирует свои рекомендации к комплексу наблюдаемых данных, а, напротив, не может объединить разнородные данные в единый вывод, разработать рекомендации с учетом всей их общности. Конкретные данные в итоге не возводятся на уровень обобщений, а остаются на уровне конкретных примеров, при которых даются одинаковые ответы. Нивелировать этот риск можно фактически только с помощью установления требования к разработчикам выпускать в обращение только устойчивые модели ИИ, и закрепления ответственности разработчика во всех случаях потери способности к обобщению.
3. Длительность использования непрерывного обучения. Указанные выше проблемы особенно сильно проявляются в случаях, когда непрерывное обучение проводится на длительных временных отрезках. Если устройство наблюдает отдельного человека на протяжении месяцев и лет, повышаются риски и некачественных исходных данных, и потери способности к обучению. Более того, сам факт наблюдения за конкретным человеком, с одной стороны, адаптирует ИИ к особенностям его организма, а с другой – увеличивает вероятность «когнитивных» искажений ИИ, связанных с объемом данных, выборка которых существенно ограничена.
4. Уникальность данных. Медицинские устройства, использующие ИИ, рассчитаны на среднестатистических людей, но поскольку обучение происходит на больших массивах данных, для них не становится непреодолимым препятствием некое отклонение от нормы. Проблемы могут возникать, например, когда пациент обладает некими уникальными особенностями организма или болезни. ИИ в этих случаях приходится «импровизировать», что создает неконтролируемые риски его поведения.
Закон ЕС об искусственном интеллекте устанавливает для минимизации рисков двух последних групп обязанность производителей осуществлять постпродажный мониторинг. Полагаем, этой обязанности недостаточно – поскольку она, в первую очередь, позволяет исправить поведение ИИ на основе уже случившихся ситуаций, повлекших негативные последствия. Более того, существует дискуссия и об ответственности в таких случаях – насколько должен отвечать производитель устройства за последствия ситуаций, которые возникли по причине развития ИИ на основе данных, которые производитель не контролировал, их сбор происходит в нормальном порядке, однако в итоге ИИ принял неверные решения [3]. Полагаем, что ответ в этой ситуации будет являться неидеальным и спорным, но единственно возможным – производитель должен являться лицом, несущим ответственность, что будет стимулировать его улучшать свой продукт и предпринимать превентивные меры по обеспечению его безопасности.
Еще одним вопросом, который неизбежно возникает при объединении искусственного интеллекта и телемедицины – защита персональных данных пациентов [1]. Однако правовое решение здесь является не слишком сложным: медицинские учреждения вправе передавать такие базы данных в обезличенном виде, не позволяющем привязать конкретную информацию к определенному лицу, поскольку в этом случае сведения утратят характер персональных данных.
Таким образом, применение искусственного интеллекта в телемедицине сопряжено с определенными рисками, проистекающими из имманентно присущих ему проблем: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных. Указанные проблемы требуют в том числе юридических решений. Дополнительно возникают сугубо правовые проблемы: ответственности за решения, принятые с помощью искусственного интеллекта, и проблема сохранности персональных данных.
1. Chouhan S.S. (2025). «The Role of AI in Telemedicine: Legal and Regulatory Perspective». International Journal of Law Management & Humanities. Vol. 8, № 3, p. 1296-1305.
2. Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.
3. Matthias A. (2004). «The coming collision between autonomous vehicles and the liability system». Santa Clara Law Review. № 52, p. 1321-1340.
4. Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.
5. Davydova M.L. Telemedicine and experimental legal regimes in the field of healthcare: problems and prospects of implementation // Bulletin of the Peoples' Friendship University of Russia. Series: Legal Sciences. – 2023. – Vol. 27, No. 3. – pp. 564-582.
6. Kiselev A.S. Problems and prospects of legal regulation of public relations related to the use of neural networks // Lex russica. -2024. – 77(2). – Pp. 140-151.
7. Poduzova E.B. Personal data of the patient and his legal representative: the specifics of electronic provision in the context of the use of "artificial intelligence" technologies in digital medicine // Actual problems of Russian law. – 2023. – Vol. 18, No. 4(149). – pp. 86-92.
8. Nikitenko S.V. International legal regulation of the use of artificial intelligence in the field of medicine / S.V. Nikitenko // Bulletin of the V.N. Tatishchev Volga State University. - 2023. – Vol. 1, No. 3(105). – pp. 215-229.



