AI如何真正落地基层医疗体系?《共识》指出,应通过模型压缩、参数剪枝与知识蒸馏等技术,将模型参数量进行一定的控制,同时保持诊断精度和核心功能,从而在更低计算资源下实现稳定部署。此外,应针对社区医院、乡镇卫生院等基层单位的医生开展系统化培训,重点包括GMAI的基本原理、数据输入与输出流程、常见故障处理以及隐私保护与伦理规范。培训内容需结合基层常见病、多发病的实际案例,并提供模拟操作,让医生能够熟练完成 AI 辅助问诊、诊断和报告解读。
相关调研结果显示,当医生使用 AI 问诊系统时,平均会有 63% 的时间注视屏幕,这导致患者感知到的共情水平下降了41%。
GMAI是否会改变传统的医患互动模式?患者是否有权拒绝使用AI?
《共识》规定,在 GMAI 辅助诊疗场景中,医生必须保留充足的面对面交流时间,根据诊疗复杂度设定最低标准,如初诊不少于 15 分钟、复诊不少于 10 分钟。医生需在完成 AI 辅助诊断后,向患者详细解释诊疗结果与治疗方案,并确认患者的理解与同意,避免“机器替代沟通”造成的信任缺失或信息遗漏。
《共识》也强调,医生在使用生成式医学 AI 前,应在知情同意书中明确告知患者其选择权,包括可拒绝 AI 参与诊疗的权利。即便患者拒绝使用 AI 辅助,医生与医疗机构也必须提供与传统方式同等质量的医疗服务、同等标准的传统诊疗方案,不得因患者选择而降低服务水平或延误治疗,从而保障患者的知情同意和自由决定权。
此外,医疗机构管理层负责在医院内部建立完善的GMAI使用规范、质量控制与风险预警体系,并对系统部署环境适宜性及流程管理所引发的运营性风险承担伦理责任;医疗 AI 研发与运营企业对模型算法偏差、数据缺陷及由此产生的“生成幻觉”承担源头治理责任,在产品迭代中全面落实《共识》的技术与伦理要求;监管与伦理治理部门则负责制定配套政策、监督执行情况并定期开展审计,特别需肩负起防范与化解全局性公共风险的伦理治理责任,确保《共识》的规范实施。