Preview

Качественная клиническая практика

Расширенный поиск

Этические вопросы применения искусственного интеллекта в разработке лекарственных препаратов

https://doi.org/10.37489/2588-0519-2025-3-111-117

EDN: QFCFBK

Содержание

Перейти к:

Аннотация

Искусственный интеллект (ИИ) активно внедряется в процесс разработки лекарственных препаратов, что позволяет значительно ускорить и удешевить создание новых терапевтических средств. В статье рассматриваются ключевые направления применения ИИ в фармацевтической отрасли, включая предсказание структуры молекул, виртуальный скрининг соединений, оптимизацию клинических исследований и персонализированную медицину. Особое внимание уделяется этическим вопросам, возникающим в связи с использованием ИИ: прозрачности алгоритмов, ответственности за ошибки, конфиденциальности данных, доступности технологий и регуляторным вызовам. Анализируются рекомендации ВОЗ по управлению большими мультимодальными моделями в здравоохранении. Подчёркивается необходимость баланса между инновациями и этической ответственностью, а также разработки нормативной базы для безопасного и эффективного применения ИИ в медицине.

Для цитирования:


Хохлов А.Л., Белоусов Д.Ю. Этические вопросы применения искусственного интеллекта в разработке лекарственных препаратов. Качественная клиническая практика. 2025;(3):111-117. https://doi.org/10.37489/2588-0519-2025-3-111-117. EDN: QFCFBK

For citation:


Khokhlov A.L., Belousov D.Yu. Ethical issues of using artificial intelligence in drug development. Kachestvennaya Klinicheskaya Praktika = Good Clinical Practice. 2025;(3):111-117. (In Russ.) https://doi.org/10.37489/2588-0519-2025-3-111-117. EDN: QFCFBK

Введение / Introduction

Искусственный интеллект относится к способности алгоритмов, интегрированных в системы и инструменты, обучаться на данных, чтобы они могли выполнять автоматизированные задачи без явного программирования каждого шага человеком.

ИИ революционизирует фармацевтическую отрасль, ускоряя и удешевляя процесс разработки новых лекарств. Традиционные методы создания лекарственных препаратов требуют огромных временных и финансовых затрат (в среднем 10–15 лет и от 43,4 млн до 4,2 млрд долларов США на одно лекарство). Однако с внедрением ИИ этот процесс становится более эффективным, точным и предсказуемым.

ИИ — несомненно, очень полезный инструмент: он уже с успехом используется для поиска мишеней, создания новых молекулярных структур, а затем и в доклинических и клинических исследованиях для идентификации пациентов, сбора клинической информации.

Так, в 2020 году компания Exscientia объявила о первой молекуле, разработанной с использованием ИИ. С помощью программы AlphaFold на базе ИИ (от Google DeepMind) была предсказана структура более 200 миллионов белков [1].

Осенью 2022 года Nvidia запустила BioNeMo — программный сервис, предлагающий доступ к десяткам моделей ИИ, включая AlphaFold. Другие модели могут имитировать молекулярный докинг с помощью DiffDock, генерировать малые молекулы с помощью MolMIM или белки с помощью RFdiffusion или предсказывать, насколько сильно молекула связывается с белком, с помощью NeuralPLexer [2].

Методы ИИ включают в себя машинное обучение (англ. machine learning; ML), глубокое обучение (англ. deep learning; DL), обработку естественного языка (англ. natural language processing; NLP) и генеративные модели. Например, AlphaFold (от Google DeepMind) использует глубокое обучение для прогнозирования структур почти всех известных белков, меняя понимание о патогенезе заболеваний [1]. Последние достижения в области масштабирования позволили создать большие мультимодальные системы (англ. large multi-modal models; LMM), способные обрабатывать огромные объёмы мультимодальных данных.

Технологии с использованием ИИ активно используют для решения важных проблем в фармацевтической промышленности и отраслях разработки ЛП. Увеличение количества рандомизированных клинических исследований (РКИ) с большими объёмами клинических, лабораторных и других данных определяет необходимость в их систематизации и интерпретации, которые может обеспечить использование ИИ и машинного обучения [3].

Прогнозирование результатов клинических исследований с помощью интегрированных моделей ИИ и машинного обучения позволяет значительно снизить стоимость доклинических и клинических исследований, а также повысить их эффективность [4].

Однако насколько ИИ способен повысить вероятность успеха в разработке лекарственного вещества, которая пока составляет менее 10 % для лекарственного препарата? Совершил ли ИИ революцию в разработке новых лекарственных веществ? Удастся ли с помощью ИИ найти новые классы лекарственных веществ? Поможет ли ИИ понять патогенез заболеваний? Пока успехи довольно скромные. AlphaFold галлюцинирует и не может заменить экспериментальные данные. В области доклинической и тем более клинической разработки и подавно — ещё очень долго главным критерием при одобрении лекарственных препаратов будет успех клинического исследования, и короткого пути тут нет. Многие надеялись, что вероятность успеха удастся повысить до 30–50 %. Более реалистичная оценка для ближайшего будущего — 3–5 %, и это уже будет очень хорошо. Правда, чтобы доказать даже такой результат, нужны десятки одобренных лекарственных препаратов, созданных с помощью ИИ. Пока что и до этого далеко: ничего кроме клинических провалов и остановленных программ такие лекарства не показали.

В чём причина? Для обучения ИИ нужны качественные данные. Там, где их много, успех есть: это моделирование молекул, генетика, тексты, телеметрия. В области патофизиологии и фармакологии данных так мало и они такие «грязные», что сначала требуется много усилий по их сбору.

Те системы, над которыми мы можем свободно экспериментировать (клетки, животные), должны дать нам информацию о системах, с которыми возможности эксперимента очень ограничены (пациенты). Ключевой барьер — это наличие данных о корреляции двух областей, и пока статистическая мощность датасетов измеряется тысячами, ИИ не может дать большой прибавки. Можно сколько угодно ускорять поиск молекул или оптимизацию антител — это даст прибавку в те самые несколько процентов, но не более [5].

Основные направления применения искусственного интеллекта в фармацевтической отрасли / Main areas of application of artificial intelligence in the pharmaceutical industry

Применение больших данных в процессе разработки лекарственных препаратов. Термин «большие данные» (англ. Big Data) описывает большие неупорядоченные объёмы данных, которые настолько обширны, что их слишком сложно обработать с помощью традиционных инструментов анализа [6]. Расширяется применение больших данных в клинических исследованиях и других областях исследований с использованием биологических данных. Огромный объём данных генерируется в процессе разработки и исследования лекарственных веществ. Необходимость в новых вычислительных методах, включая интеллектуальный анализ / генерацию данных, контроль, хранение и управление, приносит новые проблемы и возможности для исследований.

При анализе больших данных возникают определённые проблемы, связанные с объёмом данных и скоростью его увеличения, разнообразием источников и неопределённостью данных. Наборы данных, доступные для разработки лекарств, могут включать в себя множество соединений (например, от 100 000 до нескольких миллионов), которые были протестированы на многих моделях, а традиционные подходы к моделированию не всегда подходят для работы с такими данными. Кроме того, неопределённость или отсутствие части данных может служить препятствием для их использования. К сожалению, при переходе от исследований in vitro к исследованиям in vivo резко возрастают разнообразие и неоднородность полученных данных, что объясняется более сложными биологическими механизмами, такими как реакции организма на лекарства. Данная проблема больших данных потребовала разработки новых вычислительных подходов к обработке объёмных и многомерных источников данных для прогнозирования эффективности лекарственных препаратов и нежелательных реакций у животных и (или) людей [3].

Использование технологий машинного обучения в разработке лекарств. На этапе доклинических исследований важное значение имеет анализ известной информации о патофизиологии заболевания и выбор целевого белка для создания лекарства целенаправленного действия [3].

Неправильное понимание или недостаток информации о целевом рецепторе в лечении заболевания приводит к финансовым потерям и снижению эффективности процесса разработки лекарственного вещества. Эффективность и безопасность лекарственного препарата изучаются в РКИ. На данном этапе можно выявить непредсказуемые эффекты лекарственного препарата, не спрогнозированные на доклиническом этапе и связанные с дополнительными мишенями действия лекарственных веществ [3].

Использование алгоритмов машинного обучения, начиная с первых этапов клинического исследования, позволяет прогнозировать «скрытые» эффекты и возможные проблемы при воздействии лекарственного вещества на ту или иную мишень [3].

Применение технологий искусственного интеллекта в доклинических исследованиях. Рост вычислительных мощностей и разработка инновационных методов в области ИИ могут использоваться для реформирования процессов исследования и разработки лекарств. В последние годы произошёл значительный рост уровня цифровизации данных в фармацевтической промышленности. Их эффективное получение, анализ и применение для решения сложных клинических проблем является актуальной задачей. Системы на основе ИИ могут обрабатывать огромные объёмы информации, а использование алгоритмов машинного обучения позволяет повысить эффективность и производительность таких систем. Основное использование ИИ в данном направлении заключается в прогнозировании свойств лекарственных веществ, что может снизить потребность в клинических исследованиях и количестве их участников, а это будет выгодно как с финансовой, так и с этической точки зрения [3].

Предсказание структуры и свойств молекул. ИИ, особенно методы глубокого обучения, позволяет анализировать огромные массивы химических и биологических данных, предсказывая структуру молекул с нужными терапевтическими свойствами. Например:

  • AlphaFold от DeepMind предсказывает 3D-структуру белков, что критически важно для разработки таргетных препаратов;
  • генеративный ИИ (например, генеративно-состязательные сети1(GAN-сети)) создаёт новые молекулы с заданными свойствами, сокращая время на дизайн лекарств.

Виртуальный скрининг соединений. Традиционный скрининг тысяч соединений в лабораториях занимает месяцы, но ИИ-алгоритмы могут за часы проанализировать миллионы вариантов, отбирая наиболее перспективные кандидаты. Например, IBM Watson Health и Benevolent AI используют ИИ для поиска потенциальных лекарств среди уже известных соединений (репозиционирование препаратов).

Оптимизация клинических исследований. ИИ помогает: выбирать подходящих пациентов для исследований, анализируя их генетические и медицинские данные; прогнозировать побочные эффекты, снижая риски; автоматизировать сбор и обработку данных, ускоряя исследования.

Персонализированная медицина. С помощью ИИ можно разрабатывать лекарства, учитывающие индивидуальные особенности пациента (генетику, метаболизм). Например, Insilico Medicine использует ИИ для создания персонализированных онкологических препаратов.

Преимущества искусственного интеллекта в фармацевтической отрасли: сокращение времени разработки (с 10+ лет до 2–5 лет); снижение затрат за счёт уменьшения числа неудачных экспериментов; повышение точности подбора молекул и прогнозирования эффективности; ускорение вывода лекарственных препаратов на рынок.

Вызовы и ограничения / Challenges and limitations

Несмотря на прогресс, остаются проблемы:

  • недостаток качественных данных для обучения моделей;
  • регуляторные барьеры (не все страны признают ИИ-разработанные препараты);
  • этические вопросы (ответственность за систематические ошибки2ИИ).

ИИ трансформирует фармацевтическую отрасль, делая разработку лекарственных препаратов быстрее, дешевле и эффективнее. В будущем ожидается появление большего количества ИИ-разработанных лекарственных препаратов, включая лекарства от редких заболеваний. Однако для полной интеграции ИИ в медицину необходимо решить вопросы регулирования, стандартизации ИИ. Применение ИИ в разработке лекарственных препаратов открывает огромные возможности для медицины, но одновременно поднимает ряд этических вопросов. Вот основные из них.

Безопасность и эффективность лекарств, разработанных искусственным интеллектом / Safety and efficacy of drugs developed by artificial intelligence

  • Систематические ошибки ИИ: алгоритмы могут предлагать молекулы с непредсказуемыми побочными эффектами. Кто несёт ответственность, если ИИ ошибётся?
  • Отсутствие доклинических испытаний: ИИ ускоряет разработку, но сокращает ли это время на полноценную оценку?

Прозрачность и объяснимость
(Transparency and explainability)

  • «Чёрный ящик»: многие модели ИИ (особенно глубокое обучение) сложно интерпретировать. Как врачи и регуляторы могут доверять решениям, которые нельзя объяснить?
  • Ошибки в базе данных: если ИИ обучается на нерепрезентативных данных, он может предлагать лекарства, эффективные только для определённых групп (например, исключая женщин или этнические меньшинства).

Ответственность и регулирование
(Responsibility and regulation)

  • Кто виноват в случае вреда? Фармкомпания, разработчик ИИ или врач, назначивший препарат?
  • Регуляторные пробелы: существующие законы не учитывают специфику ИИ. Нужны ли новые стандарты?

Доступность и коммерциализация
(Availability and commercialization)

  • Ценообразование: ускорение разработки должно снижать стоимость лекарств, но компании могут использовать ИИ для монополизации рынка.
  • Доступ для бедных стран: не приведёт ли ИИ к ещё большему разрыву между развитыми и развивающимися странами?

Конфиденциальность данных (Data privacy)

  • Использование медицинских данных: для обучения ИИ нужны огромные массивы данных пациентов. Как обеспечить анонимность и согласие на их использование?
  • Кибербезопасность: риск утечки чувствительной информации (генетические данные, истории болезней).

Этические проблемы (Ethical issues)

  • Борьба с предвзятостью использования мультимодальных данных.
  • Автономность против контроля: должен ли ИИ принимать решения без человеческого надзора?

Пути решения (Solutions)

  • Разработка строгих регуляторных стандартов (например, обязательной валидации ИИ-разработок).
  • Создание Комитетов по этике при фармацевтических компаниях в их научно-исследовательских центрах.
  • Открытость данных (где это возможно) для снижения вероятности появления систематических ошибок.
  • Развитие международного сотрудничества для предотвращения неравенства в доступе к технологиям.

Основные моменты рекомендаций ВОЗ по биомедицинской этике и управлению большими мультимодальными моделями в здравоохранении / Key points from WHO recommendations on biomedical ethics and governance of large multimodal models in health care [9]

  1. Введение и значимость LMM
  • Определение LMM: генеративный ИИ, способный обрабатывать разнородные данные (текст, изображения, геномные данные) и генерировать мультимодальные выводы.
  • Скорость внедрения: LMM внедряются быстрее любых потребительских технологий в истории, что требует срочного регулирования.
  • Потенциал: диагностика, персонализированная помощь, административные задачи, образование, научные исследования.
  • Риски: неточности, предвзятость, угрозы приватности, деградация навыков врачей, манипуляции.
  1. Ключевые риски, связанные с LMM
  • Для системы здравоохранения:
    • Переоценка преимуществ: технологический солипсизм (вера в решение всех проблем через ИИ).
    • Неравный доступ: цифровой разрыв и платные подписки ограничивают доступ в странах с низким доходом.
    • Системные предубеждения: данные для обучения смещены в пользу высокодоходных стран и групп.
    • Кибербезопасность: уязвимость к хакерским атакам, включая «инъекции промптов».
  • Для общества:
    • Доминирование крупных компаний: концентрация ресурсов у технологических гигантов.
    • Экологические последствия: высокий углеродный след и потребление воды при обучении моделей.
    • Эпистемический кризис: LMM могут подрывать авторитет человеческого знания из-за генерации ложной информации.
  • Для пациентов и врачей:
    • Автоматизационная предвзятость: слепое доверие выводам ИИ.
    • Дегуманизация медицины: снижение взаимодействия «врач-пациент».
    • Нарушения приватности: утечки конфиденциальных медицинских данных.
  1. Этические принципы ВОЗ для искусственного интеллекта в здравоохранении
  • Защита автономии: пациенты и врачи должны сохранять контроль над решениями.
  • Благополучие и безопасность: приоритет безопасности, точности и эффективности.
  • Прозрачность: объяснимость алгоритмов для всех заинтересованных сторон.
  • Ответственность: механизмы подотчётности за ошибки и вред.
  • Инклюзивность: доступность технологий для всех групп, включая людей с ограниченными возможностями.
  • Устойчивость: минимизация экологического воздействия.
  1. Управленческие меры
  • Для разработчиков:
    • Проведение оценки воздействия на защиту данных.
    • Обеспечение прозрачности данных обучения и их актуальности.
    • Этический дизайн с участием врачей, пациентов и уязвимых групп.
    • Снижение энергопотребления моделей (например, через «малые LMM»).
  • Для правительств:
    • Внедрение строгих законов о защите данных.
    • Сертификация LMM для медицинского использования.
    • Обязательные аудиты и пострегистрационный мониторинг безопасности и эффективности.
    • Поддержка открытых LMM и публичной инфраструктуры для их разработки.
  • Для внедряющих организаций (больницы, областные Минздравы):
    • Обучение врачей работе с LMM, включая распознавание предвзятости.
    • Обеспечение доступности LMM на местных языках.
    • Создание «коллегий человеческого надзора» для контроля за использованием ИИ.
  1. Международное регулирование
  • Сотрудничество: разработка глобальных стандартов через ООН и ВОЗ для предотвращения «гонки на дно».
  • Сетевой мультилатерализм: вовлечение всех стран, а не только высокодоходных в формирование правил.
  • Ответственность компаний: требование соблюдения прав человека и экологических норм независимо от юрисдикции.
  • Компенсационные механизмы: создание фондов для возмещения вреда, причинённого LMM
    (по аналогии с вакцинами).
  1. Ответственность и правовые аспекты
  • Строгая ответственность: разработчики, поставщики и внедряющие организации несут совместную ответственность за вред.
  • Презумпция причинности: пострадавшим не нужно доказывать прямую связь между действием ИИ и вредом.
  • Защита потребителей: запрет на манипулятивные практики (например, имитацию человеческого общения чат-ботами).

Рекомендации ВОЗ подчёркивают необходимость баланса между инновациями и безопасностью. LMM могут революционизировать здравоохранение, но требуют прозрачности, этического дизайна и глобального сотрудничества. Ключевые приоритеты — защита прав пациентов, минимизация предвзятости и обеспечение устойчивого развития технологий [9].

Заключение / Conclusion

ИИ в фармацевтической отрасли — это мощный инструмент, но его использование требует баланса между инновациями и этической ответственностью.

Достижения в области ИИ в эпоху больших данных помогают проложить путь к рациональной разработке лекарственных веществ, что окажет значительное влияние на процессы открытия и исследования новых лекарственных препаратов и в конечном итоге на систему здравоохранения в целом. Сочетание машинного обучения, особенно глубокого, с человеческими навыками и опытом может стать лучшим способом работы с многочисленными базами данных. Значительные возможности интеллектуального анализа данных в конечном итоге определяют новую парадигму развития цифровой медицины.

Большие мультимодальные системы (LMM), предварительно обученные на огромных объёмах данных, открывают новую эру в развитии клинической фармакологии. Применение таких технологий способно ускорить открытие лекарств, оптимизировать процесс доклинических и клинических исследований и персонализировать подходы к лечению пациентов [3].

Существующие правила лишь косвенно затрагивают вопросы, связанные с ИИ и LMM. Проблемы риска неправильного использования данных пациентов подчёркивают острую необходимость в совершенствовании регуляторного надзора и разработке нормативной базы, специально регулирующей использование ИИ и LMM в медицине на основе принципов прозрачности, подотчётности и безопасности. Она должна включать конкретные положения, которые помогут предотвратить неправомерное использование ИИ и LMM. Необходимо также предпринять усилия по продвижению этических норм и стандартов. Этичное использование ИИ в медицине — это не просто вопрос соблюдения нормативных требований, но и решающий фактор в обеспечении безопасности и благополучия как пациентов, так и общества в целом [10].

Предиктивные и аналитические возможности технологий ИИ превосходят традиционные методы поиска новых молекул для разработки лекарственных препаратов. Пока точность большинства алгоритмов остаётся недостаточной (менее 90 %), поэтому при использовании технологий машинного обучения, таких как LMM, необходима постоянная оценка моделей и актуализация информации для обеспечения их более высокой точности. Однако, несмотря на ограничения, интеграция ИИ в рабочие процессы и более широкое его использование может снизить затраты на разработку новых лекарственных препаратов и повысить её эффективность. Анализ больших данных и моделирование способствуют сокращению времени на поиск потенциальных молекул при разработке лекарств.

Применение ИИ позволяет также уменьшить затраты на исследования, поскольку он помогает эффективно сортировать и анализировать огромные массивы данных, выявляя наиболее перспективные соединения и минимизируя количество неудачных исследований.

1 Генеративно-состязательная сеть (англ. generative adversarial network; GAN) — алгоритм машинного обучения без учителя, который учит две нейронные сети конкурировать друг с другом и генерировать более реалистичные новые данные из заданного для обучения их набора [7].

2 Систематическая ошибка (англ. bias; смещение) — процесс, который на любом из этапов рассуждений приводит к неслучайному (систематическому) отклонению результатов или выводов от истины [8].

Список литературы

1. Paul D, Sanap G, Shenoy S, Kalyane D, Kalia K, Tekade RK. Artificial intelligence in drug discovery and development. Drug Discov Today. 2021 Jan;26(1):80-93. doi: 10.1016/j.drudis.2020.10.010.

2. Dunn Andrew. Cash, chips and talent: Inside Nvidia's plan to dominate biotech's AI revolution. Endpoints News. [Internet] Режим доступа: https://endpts.com/inside-nvidias-plan-to-dominate-biotechs-ai-revolution/

3. Свечкарева И.Р., Гусев А.В., Колбин А.С. Перспективы искусственного интеллекта в доклинических и клинических исследованиях. Клин фармакол тер. 2025;34(1):14-19 DOI 10.32756/0869-5490-2025-1-14-19.

4. Selvaraj C, Chandra I, Singh SK. Artificial intelligence and machine learning approaches for drug design: challenges and opportunities for the pharmaceutical industries. Mol Divers. 2022 Jun;26(3):1893-1913. doi: 10.1007/s11030-021-10326-z.

5. Dunn Andrew. Q&A: Insitro CEO Daphne Koller on ‘potentially destructive’ AI hype, Nvidia's chips, and biotech's data problem. Endpoints News. [Internet] Режим доступа: https://endpts.com/insitro-ceo-daphne-koller-on-potentially-destructive-ai-hype-nvidia-chips-and-biotechs-data-problem/

6. Zhu H. Big Data and Artificial Intelligence Modeling for Drug Discovery. Annu Rev Pharmacol Toxicol. 2020 Jan 6;60:573-589. doi: 10.1146/annurev-pharmtox-010919-023324.

7. Goodfellow IJ, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, Courville A, Bengio Y. Generative Adversarial Networks. arXiv. 2014.1406.2661. https://doi.org/10.48550/arXiv.1406.2661.

8. Sackett DL. Bias in analytic research. J Chronic Dis. 1979;32(1-2):51-63. doi: 10.1016/0021-9681(79)90012-2.

9. Ethics and governance of artificial intelligence for health. Guidance on large multi-modal models. World Health Organization 2024. Available at: https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf.

10. Маличенко В.С., Гаджиева А.О., Платонова Н.И., Соловьёва-Опошнянская А.Ю. Правовые особенности использования технологий искусственного интеллекта в формировании данных реальной клинической практики. Фармакоэкономика. Современная фармакоэкономика и фармакоэпидемиология. 2023;16(4):657-70


Об авторах

А. Л. Хохлов
ФГБОУ ВО «Ярославский государственный медицинский университет»
Россия

Хохлов Александр Леонидович  — д. м. н., профессор, академик РАН, зав. кафедрой фармакологии и  клинической фармакологии, ректор

Ярославль


Конфликт интересов:

Авторы заявляют об отсутствии конфликта интересов



Д. Ю. Белоусов
ООО «Центр фармакоэкономических исследований»
Россия

Белоусов Дмитрий Юрьевич  — генеральный директор

Москва


Конфликт интересов:

Авторы заявляют об отсутствии конфликта интересов



Рецензия

Для цитирования:


Хохлов А.Л., Белоусов Д.Ю. Этические вопросы применения искусственного интеллекта в разработке лекарственных препаратов. Качественная клиническая практика. 2025;(3):111-117. https://doi.org/10.37489/2588-0519-2025-3-111-117. EDN: QFCFBK

For citation:


Khokhlov A.L., Belousov D.Yu. Ethical issues of using artificial intelligence in drug development. Kachestvennaya Klinicheskaya Praktika = Good Clinical Practice. 2025;(3):111-117. (In Russ.) https://doi.org/10.37489/2588-0519-2025-3-111-117. EDN: QFCFBK

Просмотров: 302


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2588-0519 (Print)
ISSN 2618-8473 (Online)