在一次急诊室的案例里,AI 读取影像仅用了两分钟便标记出潜在出血点,医生随即介入救治,患者转危为安。这背后并非偶然,而是一套严密的合规框架在支撑。

中国国家药监局将“AI 诊断辅助软件”归入二类医疗器械,意味着必须完成注册审评;美国 FDA 则要求将同类系统列入“软件即医疗器械”(SaMD)并进行风险分级。企业在研发伊始,就要明确产品所对应的监管层级,否则后期的审批流程会因重新定位而陷入停滞。
在欧盟 MDR 的要求下,AI 必须提供“可解释输出”,即医生能够看到关键特征的贡献比重。技术团队则需要维护模型版本库:每一次权重更新、特征工程改动,都要在备案系统中登记,并附上性能回归报告,否则一旦出现误诊,责任链条会瞬间断裂。
风险等级越高的算法,需要更大规模、前瞻性的临床试验。比如,肺结节筛查 AI 若被划为高危(III 类),其临床验证样本量必须超过 1000 例,并且要在真实工作流中进行前后对照。试验数据必须公开透明,接受第三方审计,才能进入市场。
合规不是一次性签字,而是全流程的监控。医院应设立 AI 合规委员会,负责审查模型输出、触发风险报警并启动应急预案。厂商则要提供“安全更新通道”,在发现偏差后 48 小时内发布补丁,并向监管部门报告。患者知情同意书里必须明确 AI 参与的程度和可能的误差范围,这样在纠纷产生时,责任归属可快速厘清。
合规的路,还在脚下。
参与讨论
暂无评论,快来发表你的观点吧!