ИИ может сделать медицину более человечной
Системы искусственного интеллекта, такие как ChatGPT, берут на себя функции, которые когда-то были отведены врачам, — не потому, что они более компетентны в медицине, а потому, что они не ограничены временем, бюрократией или усталостью.

Когда журналистке Кейт Пикерт десять лет назад поставили диагноз рака груди, у нее возникло множество вопросов — о результатах тестов, побочных эффектах и новых клинических исследованиях. Ее онколог часто быстро отвечал по электронной почте, но иногда Пикерт получала только ответ об отсутствии на работе: на вызове, в командировке, недоступна в течение нескольких дней. В период, когда каждый час казался критическим, такие задержки казались бесконечными.
Оглядываясь назад, Пикерт, ныне профессор журналистики, задается вопросом, что могло бы быть иначе, если бы в то время существовали такие инструменты, как ChatGPT — система, доступная 24/7, способная объяснять медицинскую терминологию, обобщать результаты исследований и делать это с тоном сострадания. Этот вопрос лег в основу ее эссе, которое она недавно опубликовала в Bloomberg.
Ее главный аргумент заключается в том, что искусственный интеллект в здравоохранении до сих пор рассматривался в первую очередь как инструмент для повышения эффективности — поддержки диагностики, автоматизации документации и анализа данных. Но его наиболее существенное преимущество может заключаться в другом: в человеческом общении.
Одним из примеров является Рэйчел Столл, пациентка, живущая с редким синдромом Кушинга. После разочаровывающего медицинского визита она впервые обратилась к ChatGPT — и была удивлена тем, что она обнаружила. Система ответила не только точной медицинской информацией, но и сочувственными фразами, такими как «Это должно быть расстраивает» и «Мне жаль это слышать». Никаких ограничений по времени, никаких отступлений, никакого нетерпения.
Идея о том, что языковые модели иногда могут казаться более сочувствующими, чем врачи-люди, была поддержана недавними исследованиями. Исследование Нью-Йоркского университета показало, что пациенты оценивают ответы чат-бота как более эмпатичные, чем ответы врачей. Причины, по-видимому, структурные: временные ограничения, административные трудности и высокая рабочая нагрузка часто не позволяют эмпатии проявляться в повседневной клинической рутине.
Эти различия не просто теоретические. Доктор Джонатан Чен из Стэнфордского университета протестировал ChatGPT на этической дилемме из своей практики: пациент с деменцией больше не мог глотать — следует ли вставлять зонд для кормления или нет? Ответ системы был настолько тонким и сострадательным, что, как выразился Чен, «Черт возьми, этот чат-бот консультирует лучше, чем я в реальной жизни». Для него это стало возможностью обучения — средой с низким риском для отработки сложных разговоров.
Такие приложения могут стать все более ценными в медицинском образовании. Вместо того чтобы нанимать актеров для имитации взаимодействия с пациентами, студенты могли бы использовать симуляции на основе ИИ для практики взаимодействия с различными типами личности — от тревожных родителей до замкнутых онкологических пациентов. Бернард Чанг, медицинский педагог из Гарварда, видит в этом способ укрепления эмоциональных навыков будущих врачей.