专注于为医疗器械研发与生产服务

2025年9月24-26日 | 上海世博展览馆1&2号馆

首页 > 法规政策 > 国际医疗器械展览会|FDA最新发布“人工智能设备指南草案”解读

国际医疗器械展览会|FDA最新发布“人工智能设备指南草案”解读

2025-02-12

202517日,美国食品药品监督管理局FDA发布了针对人工智能医疗器械开发商的综合指导草案指南——《人工智能设备软件功能:生命周期管理及上市提交建议草案》

 

国际医疗器械展览会了解到,该指南草案分享了人工智能医疗器械解决透明度和偏见问题的策略,同时系统性提出AI医疗设备整体产品生命周期(TPLC管理框架,详细说明了FDA审查所需的必要文件和信息。

 

这份指南直指AI医疗设备安全性的核心痛点,并给出了解决路径和策略思路,揭示了AI医疗设备安全体系的构建逻辑,强调了TPLC方法论。

 

图片来源:颐通社

 

在该指南中,FDA强调透明度和可解释性是展示和确保安全性和有效性的重要因素。该指南核心内容侧重于以下四个主要方面。

 

1.生命周期管理

指南强调了AI设备的全生命周期管理(TPLC),将TPLC的全面质量体系和上市后要素应用于支持AI的软件。制造商需要在设备的整个生命周期内持续评估和管理风险,确保设备的性能和安全性。

 

2.上市提交要求

制造商在提交AI医疗设备上市申请时,必须提供详尽的文件和信息,以支持FDA对其安全性和有效性的全面评估。这包括设备的设计、开发、数据管理以及模型描述等内容。

 

3.风险管理

指南倡导一种综合的风险管理策略,将ANSI/AAMI/ISO 14971医疗器械风险管理在医疗器械中的应用和AAMI CR34971关于将ISO 14971应用于人工智能和机器学习的指南确定为制定风险管理计划的相关资源。制造商需要识别潜在风险,并通过科学评估和有效措施加以降低,确保设备在实际应用中的安全性。

 

4.设计与开发建议

针对AI设备的独特属性,指南提出了具体的设计和开发建议,以确保设备能够满足FDA的评估要求。这包括风险评估、数据管理、模型描述和开发等多个方面。

 

这份新指南草案,对医疗器械制造商来说,及时为其人工智能设备的开发提供了量身定制的具体建议。本文将从技术风险、监管策略与未来挑战三大维度,拆解这份关乎生命的安全方程式,同时介绍了中国和WHO的监管进展。

 

2024年,英伟达凭借卓越的芯片技术创新与市场影响力,成功跨越万亿市值大关,算力的极大提高助力AI医疗的发展如燎原之火,在全球迅速蔓延。而2025年春节期间,DeepSeek的异军突起,更是一针强效催化剂,让“AI”概念释放了新的活力。

 

从影像诊断到手术机器人,从慢性病管理到基因编辑,人工智能医疗设备的应用边界不断拓展。然而,当算法替代部分医生决策时,一个根本问题浮出水面——在人工智能时代,如何确保这些数字医生安全性和有效性

 

▍技术暗礁:AI医疗安全三重门

 

图片来源:颐通社

 

AI医疗设备的安全性风险,本质源于其与传统医疗器械的根本差异——动态学习能力与数据依赖性。这份新指南草案中明确指出,三大风险构成安全性的阿喀琉斯之踵

 

1. 数据偏见:当训练集成为偏见温床 

FDA要求制造商提交数据集构成报告,包括种族、性别、年龄等人口学分布,并验证其与目标人群的匹配度。合成数据使用需额外说明生成逻辑与局限性。

 

2023年,某AI胸片诊断系统在欧美市场准确率达95%,但在非洲部分地区误诊率飙升至40%。根源在于其训练数据中非裔患者样本占比不足5%

 

2. 算法黑箱:决策可解释性之困

指南草案明确硬性要求,设备提交必须包含**“白盒测试文档**,阐明算法关键节点(如特征提取、分类阈值)的逻辑依据,并标注不确定度范围。

 

据统计,截至20245月,FDA批准的近1000AI医疗设备中,仅12%提供完整的决策路径可视化。

 

3. 动态风险:学习型AI失控悖论

由于自适应AI系统,例如实时优化放疗方案的肿瘤治疗设备可能在临床使用中偏离初始设计目标。对于通过使用动态演变的自适应系统,TPLC框架特别专注于评估和监控现实世界的性能。

 

草案根据TPLC框架进行监管,强制要求厂商响应建立实时性能监控系统,每季度提交异常事件报告,并预设熔断机制——当输出偏离预设阈值时自动锁定。

 

▍监管框架:FDA“TPLC”方法论

 

图片来源:颐通社

 

FDA新指南草案的核心创新,在于将传统医疗器械的静态监管升级为覆盖研发、部署、迭代全周期的动态监管体系。其方法论可概括为三轴驱动

 

1. 提交规范:从功能描述透明解剖

新增要求:用户可配置元素清单:如放射科医生可调整AI肺结节检测的敏感度阈值,需说明调整范围及对诊断准确率的影响。

 

临床场景压力测试:模拟极端情况(如罕见病影像、设备信号干扰)下的算法鲁棒性。

 

案例:强生旗下Verb SurgicalAI手术机器人,因提交文档中未完整披露紧急停机逻辑,20243月被FDA要求补充测试数据,上市延迟9个月。

 

2. 数据生命周期管理:从静态输入活水生态

数据管理需要积极主动,将数据视为需要持续维护的资源,而不是静态输入。透明度至关重要,包括数据源(例如机构)的清晰文档、限制、质量控制、跨人群的可推广性以及合成数据的使用。简单的组织方法,如标记文件夹,已经不再足够了;更强大的系统是必要的。

 

在采集阶段,标注数据来源(如大型医院、社区诊所)、采集设备型号及参数设置。在迭代阶段,自适应AI每次更新训练集后,必须重新验证模型泛化能力。

 

举例来说,西门子医疗推出DataTrust平台,通过区块链技术实现多中心数据溯源,2024年已有23家医院接入。

 

3. 风险管理:风险矩阵升级,从事后追责前瞻布防

技术风险:算法漂移、对抗样本攻击

 

人机交互风险:临床医生过度依赖AI建议(如IBM Watson Oncology曾因误推治疗方案引发诉讼)。

 

在风险管理工具创新方面,FDA联合美国MIT共同开发了AI-SAFE评估套件,可自动检测算法偏见与逻辑冲突,2024年已完成137项产品认证。

 

▍行业影响:合规成本与战略重构

 

图片来源:颐通社

 

人工智能的巨大影响,给医疗器械开发制造商带来了挑战,迫使其在发展内部专业知识或建立伙伴关系之间做出选择,而长期合作会在驾驭将人工智能整合到传统上定义明确和稳定的医疗产品的复杂性方面发挥关键作用。

 

新指南草案的落地,正在重塑AI医疗行业的竞争格局,头部企业与初创公司也正在面临截然不同的生存逻辑。

 

1. 巨头博弈:强势打造生态闭环 

医疗巨头们纷纷斥巨资,投入建设AI验证和数据中心。美敦力投资2亿美元建立了AI验证中心,专攻心脏介入AI的实时风险预测模型,TPLC合规周期缩短30%。而飞利浦则收购了数据治理公司HealthSignals,补全从数据采集到模型监控的全链条能力。

 

2. 初创生死局:从算法优先合规优先

在资本市场,融资的风向转向数据合规管理公司。据统计,2024Q3,在AI医疗初创融资中,约53%流向具备TPLC管理团队的企业,较2023年上升22%明星公司DeepCure因无法满足数据多样性要求,估值从12亿美元暴跌至3亿,最终被GE医疗低价收购。

 

3. 供应链市场洗牌:新型服务商崛起,从算力竞赛数据基建

基于新的草案指南风向,合成数据工厂的市场开始崛起成型。SyntegraMDClone等公司提供符合FDA标准的虚拟患者数据生成服务,据不完全统计,2024年这个市场规模达到17亿美元。

 

同时,新兴的伦理审计服务崭露头角,例如,德勤推出了AI医疗伦理认证服务,单次评估收费50万美元,仍供不应求。

 

▍未来挑战:安全性不可能三角与突破路径

 

尽管FDA新指南草案构建了初步框架,AI医疗设备的安全性仍面临不可能三角难题——准确性、透明度与实时性难以兼得。未来突破或将依赖以下三大技术路线:

 

1. 联邦学习:破解数据孤岛与隐私悖论

联邦学习是谷歌2016年提出的概念。在分布式场景下,训练数据分别保存在每个客户端,谷歌提出一种训练方法,跨多个客户端训练一个共享的全局模型,希望保证数据隐私的同时,让众多客户端利用自己的数据协同参与训练一个中心模型。

 

至今,谷歌Health联邦学习平台已支持跨300家医院训练AI模型,数据不出本地,模型精度提升15%20248月,FDA发布补充指南,允许联邦学习模型免于提交原始数据,但需提供参与机构清单与数据贡献权重

 

2. 因果AI:从相关性可解释性

因果AICausal AI)是人工智能的一个重要分支,旨在从数据中学习和推断因果关系,主要包括两个方面:因果学习(Causal Learning)和因果推理(Causal Reasoning。与传统的相关性分析不同,因果AI关注的是变量之间的因果关系,而不仅仅是它们的相关性。这种方法可以帮助更好地理解和解释复杂系统中的因果机制,做出更准确的预测和决策。

 

因果学习的目标是从数据中发现因果模型、因果关系和因果特征。这涉及到如何识别和验证变量之间的因果关系,以及如何构建因果模型来描述这些关系。

 

例如,哈佛大学与Broad研究所开发的CausalMed系统,可解析AI诊断结论的生物学机制,2024年完成首例FDA认证。有报道指出,在乳腺癌分型中,因果AI将误诊归因分析时间从72小时压缩至20分钟。

 

3. 量子安全:防御下一代黑客攻击

量子安全也被称为量子加密或量子密码学,是利用量子力学原理来加强安全性和检测第三方是否窃听通信的实践。

 

20246月,某量子计算机成功破解了RSA-2048加密暴露AI医疗设备的潜在漏洞。因此,FDA拟于2025年将后量子加密算法纳入强制标准,IBM、微软已推出兼容硬件

 

▍尾声:AI医疗监管,中国进行时

 

FDATPLC框架,标志着AI医疗监管从追赶技术转向定义规则。然而,真正的安全性不止于合规——它需要算法工程师、临床医生、监管机构乃至患者和各国家地区共同参与的生态共治

 

1.中国CDMEAI医疗指南

近年,在AI医疗领域,我国监管部门取得了长足的进步,中国速度丝毫不慢于FDA。中国药监局于2017年开始就成立AI工作组,2019年扩展为多部门工作组。我国器审中心CMDE网站,有以下相关文件指南供参考:

 

《深度学习辅助决策医疗器械软件审评要点》,明确人工智能医疗器械的关注重点在深度学习类的辅助决策医疗器械软件。《人工智能医疗器械注册审查指导原则》,指出深度学习是当前人工智能医疗器械的主流被监管的算法。还有《人工智能辅助诊断技术管理规范(2021 版)》等等多个政策指南。

 

2.全球:WHOAI医疗指南

世界卫生组织WHO也分别于2021年和2024年,发布了《医疗卫生中人工智能的伦理治理》指南和《卫生领域人工智能的伦理与治理:多模态大模型指南》。

 

以上AI医疗指南的陆续落地,使得医疗器械开发商必须意识到,未来AI医疗设备的安全标准将不再是一纸文书,而是嵌入每一行代码、每一次训练迭代、每一份临床报告的数字基因

 

这场关乎生命的AI竞赛中,唯有将安全性和有效性视为第一性原理的医械企业,才能穿越周期,成为人工智能医疗时代的领航者。

 

图片来源:颐通社

 

文章来源:颐通社

 

若涉及侵权,请立刻联系删除

X