Новости Хватит выдумывать себе диагнозы. Теперь ИИ сделает это за вас

NewsMaker

I'm just a script
Премиум
23,454
46
8 Ноя 2022
Нейросеть Claude получила полный контроль над медицинским данными пользователей.


muztaorqhgtxtp50i9z25ms26ek2u117.jpg

Компания Anthropic представила новые функции для своего ИИ-сервиса Claude, ориентированные на сферу здравоохранения. В рамках инициативы Claude for Healthcare пользователи в США, оформившие подписку на тарифы Pro или Max, теперь могут разрешить системе доступ к своим медицинским данным, включая лабораторные анализы и историю наблюдений. Для этого предусмотрено подключение через платформы HealthEx и Function, а в ближайшие дни также появится поддержка Apple Health и Android Health Connect в мобильных приложениях.

Система способна обобщать информацию из истории болезней, расшифровывать медицинские анализы на понятном языке, отслеживать изменения в показателях здоровья и физической активности, а также формировать перечень вопросов, которые могут быть полезны на приёме у врача. По заявлению разработчиков, задача таких функций — не заменить медицинскую помощь, а повысить информированность пользователей и сделать взаимодействие с врачами более эффективным.

Anthropic подчёркивает, что все подключения организованы с приоритетом конфиденциальности. Пользователи сами определяют, какой объём данных передаётся ИИ, и могут в любой момент отключить доступ или изменить разрешения. Компания также заявила, что полученная информация не используется для обучения моделей.

Анонс произошёл на фоне растущего интереса крупных ИИ-разработчиков к медицинскому направлению. Неделей ранее OpenAI представила ChatGPT Health — сервис, также предлагающий интеграцию с системами учёта медицинских данных и индивидуальные рекомендации, включая расшифровку анализов и советы по питанию.

Однако такие проекты развиваются на фоне усиленного контроля в отношении ИИ в здравоохранении. Например, Google недавно убрала часть автоматических ответов своего ИИ после того, как в них обнаружили недостоверные сведения о здоровье. На этом фоне компании, включая Anthropic, подчёркивают, что их технологии могут ошибаться и не предназначены для замены медицинских специалистов.

В своём документе об условиях использования Anthropic отдельно оговаривает, что в случаях с повышенным риском — например, при диагностике, назначении лечения или оценке психического состояния — результаты работы Claude должны быть проверены квалифицированными специалистами до их применения. Кроме того, система обучена сообщать о возможной неточности своих ответов и направлять пользователя к врачу за подтверждённой консультацией.
 
Источник новости
www.securitylab.ru

Похожие темы