Клод вступает в строй: Anthropic нацелилась на данные здравоохранения США.

anthropic,claude,ии в медицине,hipaa,api,здравоохранение

Компания Anthropic выводит своего чат-бота Claude на рынок здравоохранения США с HIPAA-совместимыми инструментами, обещая автоматизировать административные задачи врачей и упростить работу с данными, следуя по стопам OpenAI.

Свежо отгремев о том, как их конкурент OpenAI сунул свой нос в медицинские карты пациентов, компания Anthropic решила, что сейчас — идеальный момент, чтобы вывести своего чат-бота Claude на арену здравоохранения США, обещая исправить медицину с помощью ещё большего количества искусственного интеллекта, API и тщательно выверенных заверений о конфиденциальности.

В записи в блоге, опубликованной на выходных, Anthropic протрубила о запуске Claude для здравоохранения (Claude for Healthcare) наряду с расширенными инструментами для медико-биологических наук. Это двойной удар, направленный на то, чтобы сделать их чат-бота не просто помощником учёного-исследователя, а полноценным винтиком в американской системе здравоохранения стоимостью свыше 4 триллионов долларов.

Если вам кажется, что это больше похоже на гонку ИИ за любыми данными, где есть венчурный капитал, а не на реформу здравоохранения, вы уловили суть.

Anthropic позиционирует Claude для здравоохранения как решение, соответствующее стандарту HIPAA, позволяющее интегрировать свою модель в самую суть американской медицины: от баз данных страховых покрытий и диагностических кодов до реестров поставщиков услуг. После подключения Claude сможет помогать с проверками предварительной авторизации, апелляциями по страховым случаям, медицинской кодировкой и другими административными задачами, которые сегодня забивают почтовые ящики врачей и подрывают их душевное равновесие.

“Теперь Claude может подключаться к отраслевым стандартным системам и базам данных, чтобы помочь клиницистам и администраторам эффективнее находить нужную информацию и готовить отчёты”, — написала Anthropic. — “Цель состоит в том, чтобы сделать общение пациентов с врачами более продуктивным и помочь пользователям оставаться в курсе сведений о своём здоровье”.

Сектор медико-биологических наук в этом анонсе дополнен интеграцией с Medidata и ClinicalTrials.gov, что обещает помощь в планировании клинических испытаний и решении регуляторных вопросов. Ведь ничто так не говорит о том, что компания является серьёзным ИИ-партнёром для фармацевтики, как копание в реестрах клинических испытаний.

Много громких слов о помощи исследователям и экономии времени, но основная логика та же, что движет большинством ИИ-инициатив в индустрии: рутинную административную работу автоматизировать гораздо проще и прибыльнее, чем саму заботу о пациентах.

Компания настойчиво подчёркивает, что Claude не будет тайно поглощать данные о здоровье пользователей для обучения будущих моделей: обмен данными происходит только с согласия пользователя, коннекторы соответствуют HIPAA, и “мы не используем данные о здоровье пользователей для обучения моделей”, — уверяет Anthropic. Это вежливый способ сказать, что они позволят больницам, страховщикам и, возможно, самим пациентам предоставлять структурированные медицинские формы и записи, как только юристов и отделы комплаенса всё устроит.

И да, пациенты тоже могут принять участие. В бета-режиме Claude может интегрироваться с такими сервисами, как HealthEx, Apple HealthKit и Android Health Connect, чтобы подписчики могли попросить бота объяснить результаты своих анализов или обобщить историю своей болезни. Это будет полезно ровно до того неизбежного момента, когда обнаружится, что предоставление большой языковой модели доступа к медицинским приложениям влечёт за собой все обычные оговорки о “галлюцинациях ИИ” и вызывающие вопросы проблемы с ответственностью.

Анонс Anthropic выходит сразу вслед за «медицинским трюком» ChatGPT от OpenAI, который немедленно вызвал опасения по поводу конфиденциальности, предложив клиницистам и потребителям вводить необработанные медицинские записи для получения сводок и рекомендаций по лечению. Эта авантюра вызвала критику со стороны защитников конфиденциальности, обеспокоенных тем, куда могут попасть все эти данные, — обсуждение, которое Anthropic пытается упредить с помощью своих тщательно подобранных формулировок.

Итак, мы имеем следующее: два крупнейших имени в сфере “ответственного ИИ” теперь по уши погружены в сектор здравоохранения США, обещая разобраться во всём, от страховых политик до данных клинических испытаний. Заявления громкие, оговорок много, а подтверждение, как всегда, последует позже. ®

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.