OpenAI和Anthropic宣布了全新的面向医疗保健领域的AI产品。这些产品将模型的应用范围从一般的对话式应用扩展到受监管的临床和生命科学领域。这两款产品的发布都强调了技术整合、互操作性以及管理方面的要求,这表明AI系统更倾向于直接运行在现有的医疗基础设施上,而不是作为独立的助手来使用。
Anthropic推出了Claude for Healthcare,同时还增加了Claude for Life Sciences的功能。该产品的核心是一系列连接器,使得Claude能够在查询时访问权威的外部系统。对于医疗服务提供者和支付方来说,这些工具包括用于确定当地及全国范围内覆盖范围的CMS Coverage Database、用于诊断与操作代码的ICD-10标准,以及用于验证服务提供商的National Provider Identifier Registry等工具。
在生命科学领域,Anthropic还添加了多种连接器,以支持临床试验的各个环节。这些连接器旨在帮助处理诸如试验设计、注册分析、法规准备以及早期发现等工作流程。此外,Anthropic还引入了新的技能,比如基于FHIR的数据交换、预先授权审核模板、临床试验方案编写以及生物信息学工具的使用。这样一来,Claude就可以成为一个以工作流程为导向的助手,而不仅仅是单一的助手功能。
与此同时,OpenAI也推出了OpenAI for Healthcare这一产品组合,它结合了ChatGPT for Healthcare和经过HIPAA认证的OpenAI API。从技术角度来看,这个产品的重点在于企业级的控制和合规机制。组织可以通过SAML和SCIM来实现角色-Based访问控制,同时还可以进行审计日志记录,并使用由客户管理的加密密钥。OpenAI强调,受保护的健康信息仍然由客户掌控,不会被用于模型的训练过程。
ChatGPT for Healthcare可以检索来自精选的医疗资源以及内部机构文档,从而支持诸如临床文档管理、护理协调、预先授权准备以及行政自动化等功能。在API方面,医疗服务提供商已经开始使用OpenAI的模型来构建应用程序,以处理临床文档的整理、图表汇总以及出院流程管理等任务。这样,AI可以直接嵌入到现有系统中,而无需通过单独的界面来呈现。
两家公司还提供了针对个人健康数据的可选集成功能。Anthropic和OpenAI将这些功能描述为可选择的特性,具有精细的权限控制功能,并且可以撤销访问权限。不过,这种方法也引发了关于监管和验证问题的担忧。一位Reddit用户指出:“将个人健康数据交给一家营利性公司,不应该仅仅依赖于一篇博客文章中的承诺。如果没有独立的审计和明确的监管措施,那么关于数据不会被用于其他用途的说法就很难被信任。”
总的来说,这些公告反映了医疗保健领域AI发展的趋势:从通用型模型转向更注重标准化、可追溯性和结构化数据控制的平台。除了关注模型的能力之外,OpenAI和Anthropic还将自己的产品视为可以在现有监管框架下融入临床、管理和研究工作流程的基础设施组成部分。