В больницах царило предвкушение. ИИ-ассистенты, слушающие ход приёма, предиктивные модели, просеивающие истории болезней, анализаторы рентгеновских снимков, быстрее выявляющие опухоли — технологии обещали снизить выгорание врачей и повысить качество помощи. Вендоры гордо демонстрировали метрики точности, поразившие в ходе испытаний. Но одна статья в Nature Medicine переворачивает картину: эти инструменты могут безупречно распознавать паттерны на снимках, но мы совершенно не знаем, становятся ли пациенты от этого здоровее.
Дженна Виенс, учёный-компьютерщик из Мичиганского университета, и Анна Голденберг из Университета Торонто излагают всё как есть. Проведя годы, убеждая скептически настроенных врачей в пользе ИИ, Виенс наблюдала, как изменилась ситуация — клиницисты теперь хватают новые инструменты, словно конфеты. Внедрение взрывными темпами. Оценка? Едва ли.
Вот в чём разрыв. Инструменты превосходно справляются с контролируемыми тестами. ИИ с 95% точностью выявляет пневмонию на рентгеновском снимке грудной клетки — впечатляет. Но подталкивает ли это врача к более быстрому назначению антибиотиков? Меняет ли ход беседы у постели больного? Снижает ли число повторных госпитализаций? Тишина.
«Исследователи оценивали удовлетворённость поставщиков медицинских услуг или клиницистов и пациентов, но не то, как эти инструменты влияют на принятие клинических решений», — говорит Виенс. «Мы просто не знаем».
Эта цитата бьёт, как холодный стетоскоп. Удовлетворённость растёт; ИИ-ассистенты избавляют врачей от адской писанины. Истории из нью-йоркских медицинских центров полны восторгов о восстановленной концентрации внимания на пациентах. В ранних исследованиях выгорание снижается. Хорошо. Но исходы для здоровья? Неизведанная территория.
Почему точности ИИ недостаточно для улучшения здоровья?
Точность — это ловушка. Представьте: ИИ точно предсказывает риск сепсиса. Врач мельком взглянул, кивнул, пошёл дальше — рабочий процесс не изменился. Или, что хуже, чрезмерная зависимость притупляет суждение, подобно автопилоту в турбулентном полёте. Виенс отмечает вариативность — настройка в одной больнице работает, в другой — проваливается. Младшие ординаторы могут слишком полагаться на систему; опытные врачи игнорировать её. Непредвиденные последствия тоже есть: исследования в области образования намекают, что ИИ-резюме искажают то, как студенты-медики воспринимают истории пациентов. Не формируются ли когнитивные «шорткаты»?
Исследование Пейдж Нонг от января 2025 года подчёркивает спешку. Шестьдесят пять процентов больниц США использовали предиктивные ИИ-модели. Две трети проверяли точность. Меньше — проверяли на предвзятость (bias). Виенс предполагает, что с тех пор использование ещё больше выросло. Компании расхваливают характеристики; поставщики подключают. Кто проверяет последующее влияние? Недостаточно.
Как мы так быстро оказались здесь?
Десять лет назад клиницисты высмеивали предложения по внедрению ИИ. Щелчок — возможно, после хайпа вокруг ChatGPT. Инструменты вроде ambient scribes (Dragon от Nuance, Nabla) вышли на рынок, массово внедрялись. Эффективность продаёт. Экономия времени равна продлению жизни, верно? Не без доказательств. Это разрыв между внедрением и оценкой (adoption-evals gap), отголосок первых электронных медицинских карт: обещали чудеса, на практике получили смешанные результаты, пока рабочие процессы не адаптировались.
Мой уникальный взгляд: это похоже на бум доткомов 1990-х в финансовой сфере. Алгоритмы безупречно торговали акциями в симуляциях; реальные рынки выявили «чёрных лебедей» и человеческое вмешательство. Медицинский ИИ рискует тем же — блестящие модели, слепые к хаосу у постели больного. Вендоры говорят о «трансформации»; скептики вроде Виенс требуют рандомизированных контролируемых исследований (RCT), отслеживающих результаты, а не только клики.
Виенс не против ИИ. «Я действительно верю в потенциал ИИ для реального улучшения клинической помощи», — настаивает она. Но слепая вера? Нет. Больницы, а не только стартапы, должны проводить исследования — контекстно-зависимые, глубоко интегрированные в рабочие процессы. Проверки на предвзятость тоже; данные Нонг кричат о необходимости.
Прогноз: регуляторы начинают проявлять интерес. FDA одобряет некоторые диагностические инструменты, но предиктивные модели ускользают как «программное обеспечение как услуга». Ожидайте аудитов, требований к исследованиям результатов. Legal AI Beat наблюдает: зреют иски, если инструменты дадут сбой, а пациенты пострадают.
Ставки высоки. Пациенты — не пиксели. Инструменты могут разочаровать — в лучшем случае нейтральные, в худшем — вредные для отдельных групп. Скорее всего: хайп опережает реальную помощь, истощая бюджеты на незначительные улучшения.
Будут ли больницы наконец тестировать свои ИИ-инструменты?
Использование растёт. Но давление со стороны таких статей, как эта, нарастает. Страховщики — плательщики — могут потребовать доказательств перед возмещением расходов. Врачи, уставшие от прошлых технологических провалов, могут начать сопротивляться.
Одна фраза: доказательная база отстаёт от внедрения на мили.
Нужен сдвиг. Не тотальный ИИ или ничего. Гибридные решения, под строгим контролем. Виенс точно подмечает: где-то посередине.
**
🧬 Связанные материалы
- Читать далее: Соответствие GDPR для систем ИИ: Практическое руководство
- Читать далее: Квантовый скачок в патентных спорах: от реактивного к проактивному управлению
Часто задаваемые вопросы**
Действительно ли больничный ИИ улучшает результаты лечения пациентов? Убедительных доказательств пока нет. Инструменты блестяще показывают себя в тестах на точность, но не хватает исследований, связывающих их с лучшими показателями здоровья, такими как снижение повторных госпитализаций или более быстрое выздоровление.
Почему больницы внедряют ИИ без полного тестирования? Быстрый хайп, обещания эффективности и согласие клиницистов стимулируют внедрение. В большинстве случаев проводятся лишь частичные проверки точности и предвзятости.
Что больницам следует делать дальше с ИИ-инструментами? Проводить реальные испытания, измеряющие влияние на решения, рабочие процессы и здоровье пациентов — адаптированные к их условиям.