ИИ научился объяснять врачам свои диагнозы

17.10.2025
09:06
ИИ-система от Mayo Clinic и Zyter|TruCare научилась объяснять свои диагнозы и оценивать уровень уверенности, что сделало ее решения понятнее для врачей. Благодаря этому доля отклоненных специалистами рекомендаций нейросети снизилась с 87,6 до 33,3%.
Фото: 123rf.com

Американские специалисты из медицинского центра Mayo Clinic и компании Zyter|TruCare предложили новый подход к диагностике с помощью искусственного интеллекта (ИИ). Их система не просто выдает диагноз, а объясняет его, позволяет оценить степень уверенности и совпадение с мнением врача. Результаты исследования, опубликованные в журнале Diagnostics, показывают, что такой формат резко повышает доверие медработников — доля отклоненных специалистами рекомендаций снизилась c 87,6 до 33,3%.

Разработка была проверена на 6689 реальных клинических случаях сердечно-сосудистых заболеваний из базы данных MIMIC-III. Алгоритм не ограничивается прогнозом, а создает понятную структуру отчета: уровень уверенности, степень совпадения с врачебным диагнозом и качество объяснения. Эти параметры объединяются в единый индекс доверия. Если объяснение выглядит неполным, модель должна быть максимально уверена, прежде чем врач сможет принять диагноз. Такой механизм устраняет «серые зоны» — ситуации, в которых врач не может понять, почему ИИ так решил.

При уверенности модели в 90–99% врачи отклоняли лишь 1,7% предложений, при 70–79% — почти все. Когда объяснение было минимальным, диагноз отвергался в 73,9% случаев, а при развернутом комментарии — в 49,3%. Исследователи подчеркивают, что непрозрачность и несбалансированная уверенность ИИ остаются главными препятствиями для его внедрения в практику. Новый подход делает взаимодействие человека и алгоритма более осознанным, снижая риски как избыточного доверия, так и категорического недоверия.

В перспективе авторы намерены адаптировать систему для онкологии, неврологии и инфекционных заболеваний, а также встроить механизм в электронные медицинские карты. Кроме того, планируются испытания в реальных клинических условиях, которые покажут, как объяснимый ИИ влияет на точность диагностики и исходы лечения. Ученые считают новую систему шагом к формированию стандартов «достоверного ИИ»  — прозрачного, калиброванного и подотчетного.   

Присоединяйтесь!

Самые важные новости сферы здравоохранения теперь и в нашем Telegram-канале @medpharm.

Нет комментариев

Комментариев:

Вы не можете оставлять комментарии
Пожалуйста, авторизуйтесь