Сможет ли бот заменить вашего врача? По заявлению OpenAI, которая на этой неделе запустила ChatGPT Health, большая языковая модель (LLM) должна быть доступна для ответов на ваши вопросы и даже для анализа ваших медицинских записей. Однако она должна остановиться до постановки диагноза или назначения лечения.
“Разработанный в тесном сотрудничестве с врачами, ChatGPT Health помогает людям играть более активную роль в понимании и управлении своим здоровьем и благополучием — поддерживая, а не заменяя уход со стороны клиницистов”, — сообщила компания, отметив, что каждую неделю более 230 миллионов человек по всему миру задают ChatGPT вопросы, связанные со здоровьем и самочувствием.
Запуск ChatGPT Health последовал за исследованием, опубликованным OpenAI ранее в этом месяце под названием «ИИ как союзник в здравоохранении». Оно представляет искусственный интеллект как панацею для системы здравоохранения США, которую, по мнению троих из пяти американцев, необходимо реформировать.
В настоящее время сервис доступен только по приглашениям, и существует лист ожидания для тех, кого не отпугивают как минимум девять находящихся на рассмотрении судебных исков против OpenAI, касающихся вреда для психического здоровья от бесед с ChatGPT.
Пользователи ChatGPT в Европейской экономической зоне, Швейцарии и Великобритании в настоящее время не имеют права на участие, а интеграция медицинских карт и некоторые приложения доступны только в США.
В веб-интерфейсе ChatGPT Health представлен в виде пункта меню «Health» на левой боковой панели. Он разработан для того, чтобы пользователи могли загружать медицинские карты и данные Apple Health, предлагать вопросы для медицинских работников на основе импортированных лабораторных результатов, а также давать рекомендации по питанию и физическим упражнениям.
Пользователь ChatGPT может спросить, как предполагает OpenAI: «Можешь ли ты обобщить мои последние анализы крови перед приёмом?»
Ожидается, что модель ИИ выдаст более релевантный набор токенов, чем могла бы без доступа к личным медицинским данным — в данном случае данным анализов крови.
«Вы можете загружать фотографии и файлы, а также использовать поиск, глубокое исследование, голосовой режим и диктовку», — объясняет OpenAI. «Когда это уместно, ChatGPT может автоматически ссылаться на вашу подключенную информацию, чтобы предоставлять более релевантные и персонализированные ответы».
OpenAI настаивает, что может адекватно защитить конфиденциальную информацию о здоровье пользователей ChatGPT, изолируя «воспоминания» Health — предыдущие беседы с моделью ИИ. Компания заявляет, что «Разговоры и файлы в ChatGPT по умолчанию шифруются при хранении и передаче в рамках нашей основной архитектуры безопасности», и добавляет, что Health включает «специализированное шифрование и изоляцию» для защиты бесед о здоровье.
«Разговоры в Health не используются для обучения наших базовых моделей», — настаивает компания.
The Register спросила OpenAI, распространяется ли освобождение от обучения на данные о здоровье клиентов, загруженные или переданные в ChatGPT Health, и имеют ли доступ к разговорам или данным партнеры компании.
Представитель ответил, что по умолчанию данные ChatGPT Health не используются для обучения, а сторонние приложения могут получить доступ к данным о здоровье только в том случае, если пользователь решил их подключить; данные предоставляются ChatGPT для обоснования ответов в контексте пользователя. Что касается партнеров, нам сообщили, что передается лишь минимальный объем информации, и партнеры связаны обязательствами по конфиденциальности и безопасности. А доступ сотрудников к потокам данных продукта, как нам сообщили, более ограничен и обусловлен законными целями безопасности.
В настоящее время OpenAI не планирует размещать рекламу в ChatGPT Health, пояснил представитель компании, но бизнес, известный своими экстравагантными расходами на дата-центры, рассматривает, как можно интегрировать рекламу в ChatGPT в целом.
Что касается шифрования, оно может быть снято OpenAI в случае необходимости, поскольку закрытые ключи шифрования хранит не клиент, а компания. Федеральный судья недавно подтвердил постановление, обязывающее OpenAI передать выборку из 20 миллионов анонимизированных логов ChatGPT новостным организациям, включая The New York Times, в рамках консолидированного иска об авторском праве. Таким образом, вполне вероятно, что в будущем в ходе судебных разбирательств или по требованию государственных органов могут быть запрошены и разговоры из ChatGPT Health.
В то время как ученые признают, что модели ИИ могут оказывать полезную поддержку в принятии медицинских решений, они также поднимают вопросы, связанные с «повторяющимися этическими проблемами, касающимися справедливости, предвзятости, невреда, прозрачности и конфиденциальности».
Например, тематическое исследование 2024 года «Задержка диагностики транзиторной ишемической атаки, вызванная ChatGPT» описывает случай, когда «ошибочный диагноз ChatGPT, которому пациент доверился для оценки симптомов, привел к значительному замедлению лечения и потенциально опасной для жизни ситуации».
Исследование, опубликованное в The Central European Journal of Medicine, описывает, как мужчина обратился в отделение неотложной помощи, обеспокоенный двоением в глазах после лечения фибрилляции предсердий. Он сделал это при третьем появлении симптомов, а не при втором — как советовал его врач — потому что «надеялся, что ChatGPT предоставит менее серьезное объяснение [чем инсульт], чтобы сэкономить ему поездку в отделение неотложной помощи». Кроме того, он счел объяснение своего состояния врачом «отчасти непонятным» и предпочел «ценную, точную и понятную оценку риска», предоставленную ChatGPT.
В итоге диагноз был поставлен — транзиторная ишемическая атака, симптомы которой схожи с инсультом, хотя она, как правило, менее тяжелая.
Исследование подразумевает, что склонность ChatGPT к угодничеству, распространенная среди коммерческих моделей ИИ, делает его ответы более привлекательными.
«Хотя ChatGPT не был специально разработан для медицинских консультаций, он отвечал на все вопросы пациента удовлетворяющим образом, в отличие от врача, что может быть связано с предвзятостью удовлетворенности, поскольку пациент был успокоен умиротворяющими ответами ChatGPT и не искал дальнейших разъяснений», — говорится в статье.
Исследование завершается предположением, что модели ИИ будут более ценны в поддержке перегруженных медицинских работников, чем пациентов. Это может объяснить, почему ChatGPT Health «не предназначен для диагностики или лечения». ®
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Qual-score: 8/6
Bajan-score: 0.85785234
Автор – Thomas Claburn




