Top.Mail.Ru
РБК Компании

ИИ в белом халате: когда технологии ставят под угрозу здоровье пациентов

Слепая вера в ИИ в здравоохранении ведет не только к деградации врачебных навыков, но и к прямым рискам для жизни пациентов
ИИ в белом халате: когда технологии ставят под угрозу здоровье пациентов
Источник изображения: Сгенерировано нейросетью «Freepik»
Андрей Трунов
Андрей Трунов
Директор по развитию бизнеса

Член комитета по информатизации здравоохранения АРПП «Отечественный софт», ассоциированный член «Союза превентивной, регенеративной и трансляционной медицины». Автор статей, спикер медконференций

Подробнее про эксперта

Внедрение искусственного интеллекта в медицину часто преподносят как панацею, от сокращения времени диагностики до персонализированных назначений. Однако за этим фасадом скрываются системные угрозы, которые могут перечеркнуть все преимущества.

Мы рискуем создать систему, в которой алгоритм будет считаться более авторитетным, чем клинический опыт.
Это не вопрос будущего — это уже происходит в диагностических системах, при анализе снимков и даже в назначении терапии.

В отличие от коллег, которые фокусируются на образовательных рисках, необходимо учитывать риски непосредственной опасности для пациентов. 

Вот гипотетический, но вполне реалистичный сценарий: 
Представьте, что ИИ, обученный на данных преимущественно молодого городского населения, рекомендует терапию пожилому сельскому жителю. 

Алгоритм не учтет коморбидность, социальный контекст, особенности метаболизма — но врач, привыкший доверять системе, может прописать лечение без коррекции. 
Итог: от осложнений до летального исхода.

Среди наиболее острых проблем можно выделить:

  • Ситуационную беспомощность и деквалификацию врачей: при отказе системы или работе в условиях нестандартных данных (редкие заболевания, атипичное течение).
  • Этическую деградацию и потерю критического мышления: смещение ответственности с человека на алгоритм, что размывает моральные рамки принятия решений.
  • Системные «галлюцинации» со стороны ИИ: генерация ложных корреляций, например, между генетическими маркерами и заболеваниями, не подтвержденными реальными исследованиями.
  • Плохо контролируемые риски утечек медицинских данных.

Особенно тревожно, когда ИИ внедряют в превентивную медицину и реабилитацию и здесь важен не просто диагноз, а прогноз, учет сотен факторов, от психологии пациента до экологии. Алгоритм, работающий на усредненных данных, может дать рекомендации, которые в лучшем случае окажутся бесполезными, в худшем — навредят.

В качестве альтернативы слепому внедрению технологий предлагается модель «контролируемого симбиоза»:

  1. Обязательный «ручной» дубль: любое назначение или диагноз, предложенные ИИ, должны проходить независимую оценку врача с документированием несогласия или корректировок.
  2. Региональные и популяционные калибровки: ИИ должен настраиваться под специфику населения, а не работать на «усредненном» пациенте.
  3. Прозрачность «черного ящика»:  врачи должны понимать, на основе каких данных и признаков алгоритм принял решение, а не слепо доверять результату.
  4. Клинические регламенты с уровнем доверия: четкое разделение, в каких задачах ИИ может быть основным инструментом (анализ снимков), а в каких — лишь справочным (назначение терапии).

ИИ должен быть как навигатор в машине: он предлагает маршрут, но последнее слово за водителем, который видит дорогу.
В медицине «водитель» — это врач, а «дорога» — это уникальный пациент со своей историей, телом и жизнью. 
Подменять одно другим — преступление против будущего медицины.

Было бы правильным, если бы Минздрав и профессиональное сообщество не просто формализовали использование ИИ, а создали систему аудита медицинских алгоритмов, с привлечением клиницистов, биоэтиков и юристов. 
Без этого технологии из помощника могут превратиться в тирана, диктующего стандарты там, где нет места стандартизации.

Интересное:

Новости отрасли:

Все новости:

Контакты

Адрес
127273, Россия, г. Москва, ул. Отрадная, д. 2Б, стр. 1

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия