Искусственный интеллект в фармацевтике и медицине: регулирование, практика и кейсы применения

Искусственный интеллект (ИИ) за последние годы превратился из экспериментальной технологии в один из ключевых факторов трансформации фармацевтической отрасли и системы здравоохранения в целом. Алгоритмы машинного обучения и анализа больших данных применяются на всех этапах жизненного цикла лекарственных средств — от поиска молекулярных мишеней и дизайна молекул до клинических исследований, фармаконадзора и персонализированной терапии. Параллельно ИИ все активнее используется непосредственно в медицинской практике: в диагностике, прогнозировании течения заболеваний, поддержке клинических решений и роботизированной хирургии.

Столь широкое внедрение ИИ сопровождается существенными правовыми, этическими и регуляторными вызовами. К ним относятся непрозрачность алгоритмов («black box»), риск систематических ошибок и смещений данных (bias), вопросы распределения ответственности между врачом, медицинской организацией и разработчиком, а также защита персональных медицинских данных пациентов. Настоящий обзор объединяет анализ регулирования ИИ в фармацевтике и медицине в России, Европейском союзе и США с практическими кейсами использования ИИ и судебной практикой, формируя целостное представление о текущем состоянии и тенденциях развития.

1. Роль и направления применения ИИ в фармацевтике и медицине

ИИ в фармацевтической отрасли применяется по всей цепочке:

  • Доклинические исследования: виртуальный скрининг соединений, идентификация молекулярных мишеней, прогнозирование токсичности и фармакокинетики.

  • Разработка лекарств: оптимизация химических структур, моделирование взаимодействия молекул.

  • Клинические исследования: оптимизация дизайна исследований, подбор и стратификация пациентов, анализ данных реальной клинической практики (Real World Data).

  • Производство: контроль качества, предиктивное обслуживание оборудования, автоматизация производственных процессов.

  • Фармаконадзор: выявление сигналов безопасности на основе больших массивов данных.

В медицине ИИ на сегодня используется в следующих ключевых направлениях:

  • Диагностика: анализ медицинских изображений (радиология, патология), выявление ранних признаков заболеваний.

  • Поддержка клинических решений: рекомендации по диагностике и лечению, расчет рисков, подбор терапии.

  • Персонализированная медицина: учет генетических, клинических и поведенческих данных пациента.

  • Роботизированная хирургия и телемедицина: повышение точности вмешательств и доступности медицинской помощи.

Эти области пересекаются: ИИ-системы, разработанные в фармацевтике, все чаще напрямую влияют на клинические решения и безопасность пациентов.

2. Регулирование ИИ в России

2.1. Базовые акты в сфере ИИ

Российская модель регулирования ИИ носит рамочный характер и формируется через совокупность стратегических и экспериментальных нормативных актов. Ключевыми из них являются:

  • Указ Президента РФ № 490 (2019)1, утвердивший Национальную стратегию развития искусственного интеллекта до 2030 года. Этот документ задал приоритеты внедрения ИИ в экономике и социальной сфере, включая здравоохранение, но не содержит отраслевых требований для фармацевтики.

  • Федеральный закон № 258-ФЗ (2020)2, регулирующий экспериментальные правовые режимы (ЭПР) для цифровых инноваций. Он позволяет тестировать ИИ-решения, в том числе в медицине и фармацевтике, с временным отступлением от отдельных обязательных требований.

  • Федеральный закон № 123-ФЗ (2020)3, установивший специальный правовой режим применения ИИ в городе Москве, ставший пилотной площадкой для внедрения медицинских и фармацевтических ИИ-систем.

В совокупности данные акты формируют институциональный каркас регулирования ИИ в России, однако они не являются специализированными нормативными актами для фармацевтической отрасли и здравоохранения.

2.2. Отраслевое регулирование: здравоохранение и медицинские изделия

Отраслевое регулирование ИИ в медицине развивается преимущественно через этические и технические стандарты. Согласно Кодексу этики применения ИИ в здравоохранении4, ИИ квалифицируется как технология повышенного риска. Подчеркивается недопустимость полной автономности таких систем и необходимость постоянного человеческого контроля, воспроизводимости результатов и мониторинга.

Ключевые требования включают:

  • обеспечение высокого качества и репрезентативности данных;

  • валидацию и клиническую обоснованность моделей;

  • прозрачность и объяснимость алгоритмов;

  • управление жизненным циклом ИИ-систем, включая их вывод из эксплуатации.

Эти положения детализируются в ПНСТ 961-20245, посвящённом этическим аспектам применения ИИ в здравоохранении. Стандарт закрепляет, что:

  • ИИ должен обучаться исключительно на корректных, проверяемых и репрезентативных биомедицинских данных;

  • алгоритмы обязаны быть интерпретируемыми, а результаты — верифицируемыми и доступными для независимой проверки;

  • ИИ не может функционировать без участия человека при принятии решений, влияющих на безопасность пациента и лекарственной терапии;

  • разработчики, владельцы и пользователи несут ответственность за корректность, безопасность и мониторинг ИИ на всех этапах его жизненного цикла;

  • требуется строгая анонимизация данных, минимизация рисков для пациента и запрет их нецелевого использования.

Практически значимой новацией является введение понятия субъектов ИИ (разработчик, владелец, оператор, пользователь, регулятор), а также закрепление обязанности информировать пациента о применении ИИ при оказании медицинской помощи.

2.3. Регулирование ИИ в фармацевтической отрасли

В области фармацевтики ИИ регулируется преимущественно в рамках общих норм и смежного законодательства:

  • ГОСТ Р 59921.6-20216, закрепляющий базовые определения и характеристики ИИ-систем;

  • Федеральный закон № 61-ФЗ «Об обращении лекарственных средств»7;

  • нормативные акты, регулирующие проведение клинических исследований (Минздрав РФ, ЕЭК).

На практике ИИ в российской фарме чаще всего используется для:

  • доклинического моделирования и виртуального скрининга;

  • прогнозирования токсичности и эффективности;

  • анализа больших массивов реальных клинических данных;

  • систем поддержки принятия врачебных решений, которые в ряде случаев квалифицируются как медицинские изделия.

Если ИИ-система признаётся медицинским изделием, она подлежит обязательной регистрации в Росздравнадзоре и дальнейшему регуляторному контролю.

2.4. Практика применения и тенденции

В Российской Федерации наиболее активно ИИ развивается в следующих сегментах фармацевтики и смежных областях:

  • анализ данных клинической практики;

  • пилотные проекты в рамках экспериментальных правовых режимов;

  • автоматизация производства;

  • фармаконадзор и выявление сигналов безопасности на больших данных.

Ключевая тенденция — постепенное формирование требований к «доказательности» ИИ-систем, по логике, близкой к европейскому подходу, что свидетельствует о сближении российских регуляторных практик с международными стандартами. Тем не менее, в России имущественную ответственность перед пациентом, как правило, несет медицинская организация. Использование ИИ как «второго мнения» не меняет стандарт доказывания, а ключевой проблемой остается установление причинно-следственной связи между рекомендацией ИИ и причиненным вредом.

3. Европейский союз: комплексный и строгий подход

Европейский союз выстроил наиболее системную модель регулирования ИИ, разработав документ, известный как AI Act8.

ИИ-системы, применяемые в медицине и фармацевтике, отнесены к категории высокорисковых. Для них установлены строгие требования к управлению рисками, качеству данных, документации, прозрачности и человеческому контролю. Отдельное внимание уделено универсальным моделям общего назначения, которые все чаще используются в фармацевтических исследованиях.

Кроме того, документом, который предполагает создание единых принципов обработки медицинских данных и облегчает трансграничный доступ к информации для исследований и разработки лекарств – является Европейское пространство данных здравоохранения (European Health Data Space Regulation)9. Он вступил в силу 26 марта 2025 года и ожидается, что в дальнейшем будут разработаны связанные с ним дополнительные правовые акты. Сегодня Европейское пространство данных здравоохранения усиливает требования к защите персональных данных. Документ значительно влияет на фарму, обеспечивая:

  • трансграничный доступ к медицинским данным,

  • легальное использование данных для исследований и разработки лекарств,

  • возможности вторичного использования данных.

3.1. Ответственность и роль EMA (Европейское Медицинское Агентство). Руководство ЕМА по применению ИИ10

Обновленные правила ответственности распространяются на программное обеспечение и адаптивные ИИ-системы. Документ прямо регулирует использование ИИ на всех этапах жизненного цикла лекарства:

  • доклинические исследования,

  • разработка и производство,

  • клинические исследования,

  • фармаконадзор.

EMA требует:

  • интерпретируемости алгоритмов,

  • оценки качества данных,

  • предотвращения смещений,

  • валидации на независимых наборах,

  • контроля непрерывно обучающихся моделей.

В целом европейский подход представляется самым строгим из всех рассматриваемых подходов.

4. США: гибкость и ориентация на инновации

В США отсутствует единый закон об ИИ, однако Агентство США по надзору за качеством пищевых продуктов и лекарственных средств (FDA) активно формирует практику через рекомендации и гайды.

Ключевой принцип — Total Product Lifecycle11, предполагающий контроль ИИ-системы от разработки до вывода из эксплуатации. FDA допускает адаптивные алгоритмы, но требует прозрачности, клинической обоснованности и постоянного мониторинга.

Американская модель применения ИИ отличается высокой скоростью внедрения инноваций и значительной ролью судебной практики в формировании границ ответственности12.

5. Кейсы применения ИИ в медицине и фармацевтике

5.1. ИИ как инструмент врача

Кейсы, связанные с применением роботизированных и программно-алгоритмических систем в медицине, демонстрируют сложное распределение ответственности между врачом, медицинской организацией и разработчиком технологии. В правопорядках стран общего права такие системы, как правило, не рассматриваются как самостоятельные субъекты принятия решений, однако ошибки алгоритмов могут становиться предметом судебной оценки с точки зрения стандартов медицинской помощи и ответственности за дефект продукции.

Суды в США последовательно исходят из того, что ИИ не заменяет врача. Врач несет ответственность за соблюдение стандарта медицинской помощи, даже если он использует рекомендации алгоритма. Следование ИИ не освобождает от ответственности, если решение противоречит общепринятым клиническим стандартам13.

5.2. Фармацевтика и роботизированная хирургия 

Показательным является дело Skounakis v. Sotillo14, в котором рассматривалась ответственность за вред, причиненный пациентке в результате следования рекомендациям проприетарного программного обеспечения клиники «Dr. G». Программа одобрила комбинацию лекарственных препаратов (фендиметразин и лиотиронин), которая, по мнению истца, привела к смерти пациентки. Апелляционная инстанция указала, что ключевым является не техническая оценка программного обеспечения как такового, а соответствие рекомендованного лечения клиническим стандартам. Суд признал допустимым экспертное заключение врача-клинициста о нецелесообразности данной медикаментозной терапии, подчеркнув, что врачебные стандарты применимы независимо от того, кем именно — врачом или компьютеризированной системой поддержки принятия решений — была сформирована рекомендация.

Аналогичные подходы прослеживаются и в делах, связанных непосредственно с роботизированной хирургией. Так, в деле Mracek v. Bryn Mawr Hospital15 при проведении операции с использованием хирургической системы da Vinci истец заявил требования к медицинской организации и производителю робота, указывая на технические сбои во время операции и последующее развитие эректильной дисфункции. Суд оставил разработчика системы ответчиком как лицо, несущее повышенную ответственность за качество продукции, однако отказал в удовлетворении иска ввиду отсутствия доказанной причинно-следственной связи между ошибками робота и вредом здоровью пациента.

В то же время в деле Singh v. Edwards Lifesciences16 суд занял противоположную позицию, установив наличие дефекта программного обеспечения, приведшего к причинению вреда при кардиохирургическом вмешательстве, и возложил ответственность на компанию-разработчика.

Практика последних лет подтверждает, что иски против производителей роботизированных систем остаются актуальными. Так, в США против компании Intuitive Surgical — разработчика хирургического робота da Vinci — подан ряд исков, включая дело, связанное со смертью пациентки после операции в 2021 году. Истцы указывают на конструктивные дефекты инструментов робота (в частности, нарушение электроизоляции), а также на недостаточное информирование и обучение медицинского персонала. По данным открытых источников, компания является ответчиком по десяткам дел об ответственности за качество продукции, при этом суды по-прежнему требуют от истцов строгого доказывания причинно-следственной связи между дефектом системы и наступившим вредом17.

В целом судебная практика показывает, что ни врач, ни разработчик роботизированной системы автоматически не освобождаются от ответственности. Однако для привлечения производителя к ответственности ключевыми остаются доказательства дефекта технологии и его прямого влияния на исход лечения, тогда как действия врача и медицинской организации продолжают оцениваться через призму соблюдения стандартов медицинской помощи и надлежащего контроля за использованием высокотехнологичных инструментов. Больницы могут нести прямую ответственность за выбор и внедрение ИИ-систем, недостаточное обучение персонала и отсутствие надлежащего контроля. ИИ рассматривается только как часть инфраструктуры оказания медицинской помощи.

Тем не менее, ИИ стал неотъемлемой частью современной фармацевтики и медицины и регуляторные модели России, ЕС и США различаются по степени строгости и детализации, но сходятся в ключевом: ИИ рассматривается как инструмент повышенного риска, требующий человеческого контроля, доказательности и ответственности. Практика применения и судебные кейсы показывают, что — ответственность всегда несет человек или медицинская организация. Ожидается, что в ближайшие годы развитие стандартов медицинской помощи и регуляторных требований будет все сильнее интегрировать ИИ в клиническую и фармацевтическую практику, одновременно повышая требования к его безопасности и надежности.

[1] Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) "О развитии искусственного интеллекта в Российской Федерации".

[2] Федеральный закон от 31.07.2020 N 258-ФЗ (ред. от 31.07.2025) "Об экспериментальных правовых режимах в сфере цифровых и технологических инноваций в Российской Федерации".

[3] Федеральный закон от 24.04.2020 N 123-ФЗ (ред. от 08.08.2024) "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве, об особенностях обработки персональных данных при формировании региональных составов данных и предоставления доступа к региональным составам данных и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных".

[4] "Кодекс этики применения искусственного интеллекта в сфере охраны здоровья. Версия 2.1" (утв. Межведомственной рабочей группой при Минздраве России по вопросам создания, развития и внедрения в клиническую практику медицинских изделий и сервисов с использованием технологий искусственного интеллекта, протокол от 14.02.2025 N 90/18-0/117).

[5] Предварительный национальный стандарт в здравоохранении. Системы искусственного интеллекта в здравоохранении. Этические аспекты. Утвержден и введен в действие Приказом Федерального агентства по техническому регулированию и метрологии от 25 октября 2024 г. № 68-пнст.

[6] ГОСТ Р 59921.6-2021. Системы искусственного интеллекта в клинической медицине. Часть 6. Общие требования к эксплуатации. Федеральное агентство по техническому регулированию и метрологии. Дата введения в действие: 01.03.2022.

[7] Федеральный закон от 12.04.2010 N 61-ФЗ (ред. от 23.07.2025) "Об обращении лекарственных средств".

[8] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance).

[9] European Health Data Space Regulation (EHDS): https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space-regulation-eh...

[10] Reflection paper on the use of Artificial Intelligence (AI) in the medicinal product lifecycle. Adopted. Reference Number: EMA/CHMP/CVMP/83833/2023: https://www.ema.europa.eu/en/use-artificial-intelligence-ai-medicinal-product-lifecycle-scientific-g...

[11]Dolores R. Serrano, Francis C. Luciano, Brayan J. Anaya, Baris Ongoren, Aytug Kara, Gracia Molina, Bianca I. Ramirez, Sergio A. Sánchez-Guirales, Jesus A. Simon, Greta Tomietto, Chrysi Rapti, Helga K. Ruiz, Satyavati Rawat, Dinesh Kumar, Aikaterini Lalatsa. Artificial Intelligence (AI) Applications in Drug Discovery and Drug Delivery: Revolutionizing Personalized Medicine. MDPI. Journals. Pharmaceutics. Volume 16, Issue 10, p. 4. Доступно по ссылке: https://www.mdpi.com/1999-4923/16/10/1328.

[12] Price, W. Nicholson, II, Sara Gerke, and I. Glenn Cohen. "Liability for Use of Artificial Intelligence in Medicine." In Research Handbook on Health, AI and the Law, edited by Barry Solaiman and I. Glenn Cohen, p. 150. Cheltenham, U.K.: Edward Elgar Publishing, 2024. Доступно по ссылке: https://repository.law.umich.edu/book_chapters/564/.

[13] Price, W. Nicholson, II, Sara Gerke, and I. Glenn Cohen. "Liability for Use of Artificial Intelligence in Medicine." In Research Handbook on Health, AI and the Law, edited by Barry Solaiman and I. Glenn Cohen, p. 152-166. Cheltenham, U.K.: Edward Elgar Publishing, 2024. Доступно по ссылке: https://repository.law.umich.edu/book_chapters/564/.

[14] Skounakis v. Sotillo, A-2403-15T2 (N.J. Super. Ct. App. Div. Mar. 19, 2018).

[15] Mracek v. Bryn Mawr Hospital, 610 F. Supp. 2d 401 (E.D. Pa. 2009)

[16] Singh v. Edwards Lifesciences, 151 Wn. App. 137, 151 Wash. App. 137, 210 P.3d 337 (Wash. Ct. App. 2009).

[17] В США на производителя робота-хирурга подали в суд из-за гибели пациентки. Business FM. 16.02.2024. Доступно по ссылке: https://www.bfm.ru/news/544297