Volgograd, Volgograd, Russian Federation
VAK Russia 5.1.1
VAK Russia 5.1.2
VAK Russia 5.1.3
VAK Russia 5.1.4
VAK Russia 5.1.5
UDC 340
CSCSTI 10.01
CSCSTI 10.07
Russian Classification of Professions by Education 10.05.05
Russian Library and Bibliographic Classification 67
Russian Library and Bibliographic Classification 60
Russian Trade and Bibliographic Classification 2323
BISAC LAW LAW
The article analyzes the main approaches to the legal regulation of the most pressing problems of artificial intelligence in telemedicine, identifies the best solutions, and develops proposals. It is concluded that a reasonable vector of development is the convergence of the studied approaches in regulating AI: in Russian legislation, increasing the responsibility and role of the manufacturer of medical devices in ensuring the safety of devices, in foreign legislation, creating rules for automatic data transmission to an authorized body that controls deviations in the behavior of artificial intelligence. It has been established that legal decisions in the field of personal data in the field of artificial intelligence in telemedicine are predominantly successful and uniform: the requirement to obtain prior informed consent to the processing of personal data, the possibility of its control and revocation, principles and rules of personal data processing, the possibility of artificial intelligence training only on anonymized data sets. At the same time, it seems correct to consolidate, together with the principle of transparency, the right to an explanation, which collectively grant the patient the right to receive accessible, understandable information about both their personal data and artificial intelligence solutions, regardless of the complexity and non–obviousness of the solution in its entirety. The study is financially supported by the Russian Science Foundation, project № 23-78-10175, https://rscf.ru/project/23-78-10175/.
medicine, telemedicine, informatization, digitalization, artificial intelligence, legal regulation, telemedicine technologies
В научной литературе обычно выделяют следующие имманентные проблемы использовании искусственного интеллекта в телемедицине: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных; (5) проблема ответственности; (6) проблема персональных данных [2, 4, 6].
Заметим, что законодательство Европейского Союза относит медицинские устройства с использованием искусственного интеллекта к устройствам высокого риска, т.е. предполагающим особый правовой режим и повышенные требования к безопасности. Это означает особые требования к проектированию, тестированию, транспарентности, документации и оценке воздействия.
Аналогично российское законодательство относит программное обеспечение с использованием искусственного интеллекта к классу медицинских изделий с высокой степенью риска. Это обусловливает ряд дополнительных требований к таким медицинским изделиям, которые в последнее время весьма ужесточились. Ранее действующие акты закрепляли два основных требования: во-первых, наличие или отсутствие в программном обеспечении ИИ обязательно указывается в технической документации (Приказ Минздрава России от 19.01.2017 № 11 н); во-вторых, необходимость представления сведений о клинической эффективности и безопасности таких медицинских изделий (Постановление Правительства РФ от 24.11.2020 № 1906).
Однако новые правовые акты дополняют указанные требования. В частности, если регистрация медицинского изделия не требует проведения клинических испытаний, и при этом в нем применяются технологии искусственного интеллекта, в нем должна присутствовать встроенная функция по передаче в уполномоченный орган (Федеральную службу по надзору в сфере здравоохранения) следующих сведений: (1) об обрабатываемых данных, (2) о результатах действия программного обеспечения, (3) сведений, предусмотренных отдельным порядком сообщения субъектами обращения медицинских изделий обо всех случаях выявления побочных действий (утверждается Министерством здравоохранения Российской Федерации). Указанные предписания установлены Постановлением Правительства РФ от 30.11.2024 N 1684 «Об утверждении Правил государственной регистрации медицинских изделий». Сообразному этому, Приказ Минздрава России от 11.04.2025 № 181н предписывает предоставлять сведения о наличии или отсутствии такой функции у медицинского изделия с использованием искусственного интеллекта в составе регистрационного досье на программное обеспечение.
В частности, устройство должно сообщать обо всех побочных действиях, которые не указаны в его инструкции по эксплуатации, нежелательных реакциях при применении, особенностях взаимодействия медицинских изделий, а также любых фактах и обстоятельствах, которые создают угрозу жизни и здоровью людей.
Полагаем такой подход правильным и научно обоснованным: он позволяет если не предупредить, то как минимум сократить риски применения искусственного интеллекта, перечисленные выше. Поскольку производитель выпускает устройство в эксплуатацию в определенной «точке развития» искусственного интеллекта, он способен предусмотреть те побочные действия и угрозы, которые детерминированы таким состоянием ИИ и наиболее вероятными, прогнозируемыми возможностями его обучения. При этом вышеозначенные риски использования ИИ следуют как раз из его способности к самообучению, что обусловливает необходимость немедленной реакции на новые, неспрогнозированные опасности его использования.
Также разумно, что передаваться данные должны сразу уполномоченному органу, поскольку даже добросовестный производитель склонен к тому, чтобы при получении данных изучить их, не предавая огласке, оценить возможные последствия, выработать стратегию поведения, прежде чем официально их обнародовать или сообщить в государственные органы. В то же время для уполномоченного органа приоритетом является безопасность граждан, что предполагает незамедлительную реакцию на отклонения в поведении и развитии ИИ.
Другие важные нововведения содержит Приказ Минздрава России от 11.04.2025 N 193н, который обновляет правила оказания медицинской помощи с применением телемедицинских технологий. В нем прямо указано (п. 17), что при предоставлении консультаций с помощью телемедицинских технологий могут использоваться системы поддержки принятия врачебных решений – медицинские изделия, которые представляют собой программное обеспечение с использованием искусственного интеллекта (только зарегистрированные в специальном порядке). В п. 24 обозначено, что при предоставлении консультации с использованием медицинских технологий данные о состоянии здоровья пациента могут быть получены в т.ч. с помощью систем поддержки принятия врачебных решений, в п. 45, 46 – что такие системы могут использоваться при дистанционном наблюдении за пациентом, с их помощью могут обрабатываться данные о его здоровье.
Таким образом, в российском законодательстве создается комплексная правовая регламентации использования искусственного интеллекта при оказании медицинской помощи с применением телемедицинских технологий: обязательная государственная регистрация программ с использованием ИИ в качестве медицинских изделий, необходимость наличия в программном обеспечении функции по передаче отдельных категорий данных в уполномоченный орган, определение сферы использования искусственного интеллекта при оказании медицинской помощи с применением телемедицины.
При этом новую актуальность в этой связи может получить вопрос о распределении ответственности между разработчиком искусственного интеллекта и медицинской организацией – если ранее аргументом в пользу безусловной и исключительной ответственности медицинской организации служило то, что ни один регламент оказания медицинской помощи не предусматривал возможности применения искусственного интеллекта, то теперь такой аргумент попросту устарел [5]. Полагаем, однако, что ответ на указанной вопрос в этой связи принципиально не изменился. Действующее регулирование определяет устройства с использованием ИИ как систему поддержки принятия решения врачом, оставляя окончательное решение всегда за ним. В этой связи ответственность перед пациентом должна нести медицинская организация, которая не лишена возможности в последующем споре с разработчиком возможности установить степень вины последнего [3].
Еще одним вопросом, который неизбежно возникает при объединении искусственного интеллекта и телемедицины – защита персональных данных пациентов [1]. В части искусственного интеллекта это касается, в первую очередь, обучения искусственного интеллекта, для которого требуются большие массивы данных о состоянии здоровья многих реальных людей. Однако правовое решение здесь является не слишком сложным: медицинские учреждения вправе передавать такие базы данных в обезличенном виде, не позволяющем привязать конкретную информацию к определенному лицу, поскольку в этом случае сведения утратят характер персональных данных. В большей степени эта проблема актуальна с технической точки зрения – необходимо четкое и последовательное протоколирование процессов хранения персональных данных, их обезличивания и передачи. В том числе этой целью в российское законодательство внесены изменения в положения о федеральной интегрированной электронной медицинской карте, которые позволяют обеспечить работу с такими обезличенными массивами данных.
Вторая часть связана с безопасностью телекоммуникационных каналов, используемых в телемедицине. Опять же, с правовой точки зрения примерно единые стандарты выработаны в России, Европейском Союзе и США. Они заключают в себе требования к обработке персональных данных: предварительному получению согласию пациента, возможности его контроля за указанными персональными данными и отзыва согласия, установлению правил хранения, передачи персональных данных. Проблема здесь снова более техническая, чем правовая. Однако одно из требований законодательства Европейского Союза применительно к ИИ в телемедицине мы считаем важным отметить дополнительно – это право на объяснение и принцип прозрачности. Они означают, что сторона, контролирующая применение ИИ, обязана максимально простым способом донести до пациента, как будут использоваться его персональные данные, каковы последствия их обработки, а также какие решения и почему принимает ИИ, причем сложность указанных решений не может быть основанием для отказа в ответе или чрезмерного усложнения ответа. Полагаем указанные императивы верными и подлежащими закреплению в законодательстве иных государств.
Таким образом, государства, регулирующие использование искусственного интеллекта в телемедицине, по-разному походят к вопросу минимизации таких рисков. В законодательстве Европейского Союза акцент сделан на ответственности производителя, его обязанности осуществлять постпродажный мониторинг устройств. Нововведения российского законодательства касаются преимущественно контроля государства в лице уполномоченных органов за всеми отклонениями в работе медицинских изделий, использующих искусственный интеллект.
Общим при этом является подход, согласно которому устройства, использующие искусственный интеллект, в том числе – в телемедицине, относятся к категории устройств с высоким риском, в связи с чем на них распространяются особые правовые режимы, предусматривающие требования к регистрации и контролю устройств.
Разумным вектором развития в этой части представляется сближение указанных подходов: в российском законодательстве – повышение ответственности и роли производителя медицинского изделия в обеспечении безопасности устройств, в зарубежном законодательстве – создание правил автоматической передачи данных в уполномоченный орган, контролирующий отклонения в поведении искусственного интеллекта.
Правовые решения в области персональных данных в сфере искусственного интеллекта в телемедицины преимущественно удачны и единообразны: требование получения предварительного информированного согласия на обработку персональных данных, возможность его контроля и отзыва, принципы и правила обработки персональных данных, возможность обучения искусственного интеллекта лишь на обезличенных массивах данных. Необходимые в этой части решения имеют в основном технический характер. При этом верным представляется закрепление вместе с принципом прозрачности права на объяснение – которые совокупно предоставляют пациенту право получить доступную, понятную информацию как о своих персональных данных, так и о решениях искусственного интеллекта, вне зависимости от сложности и неочевидности решения во всей его полноте.
1. Chouhan S.S. (2025). «The Role of AI in Telemedicine: Legal and Regulatory Perspective». International Journal of Law Management & Humanities. Vol. 8, № 3, p. 1296-1305.
2. Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.
3. Neri E., Coppola F., Miele V., Bibbolino C., Grassi R. (2020). «Artificial intelligence: Who is responsible for the diagnosis?». Radiol Med. № 125(6), p. 57-521.
4. Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.
5. Varyushin M.S. The legal regime of artificial intelligence technologies used in telemedicine // Russian Journal of Telemedicine and Electronic Health. – 2021. – Vol. 7, No. 2. – pp. 18-22.
6. Nikitenko S.V. International legal regulation of the use of artificial intelligence in the field of medicine / S.V. Nikitenko // Bulletin of the V.N. Tatishchev Volga State University. - 2023. – Vol. 1, No. 3(105). – pp. 215-229.



