AFLoc 人工智能模型说明
一、研究背景
在医学影像人工智能(AI)领域,现有深度学习模型严重依赖大量由放射科医生手工标注的病灶区域数据进行训练。这种标注过程不仅成本高昂、耗时费力,而且存在主观差异,极大限制了 AI 模型在临床中的推广与泛化能力。
为突破这一瓶颈,科研团队提出一种无需人工病灶标注的新范式:仅利用医院中天然存在的原始医学影像(如 X 光、眼底照片、病理切片)及其对应的自由文本临床报告,通过多模态自监督学习,让 AI 自动学会“哪段文字描述对应图像中的哪个区域”。
在此背景下,AFLoc(Automatic Fine-grained Localization)模型应运而生。
二、核心研发团队
AFLoc 是一项多机构联合攻关的重大成果,主要由以下单位合作完成:
牵头单位:
- 中国科学院深圳先进技术研究院
(医学成像科学与技术全国重点实验室)
→ 王珊珊 研究员(项目负责人)
- 中国科学院深圳先进技术研究院
关键合作单位:
- 清华大学
→ 周洪宇 助理教授(负责多模态对齐算法与模型架构设计) - 澳门科技大学
→ 张康 教授(临床验证与医学指导)
- 清华大学
支持单位:
国家自然科学基金、科技部重点研发计划、深圳市科技创新委员会等。
该成果于 2026 年 1 月正式发表于国际顶级期刊《Nature Biomedical Engineering》(《自然·生物医学工程》),并被选为当期封面亮点工作。
三、核心技术与创新点
✅ 创新点 1:首个实现“零人工病灶标注”的医学影像定位模型
- 传统方法:需医生逐例圈出病灶(如肺炎区域、肿瘤边界)。
- AFLoc 方法:仅输入影像 + 对应文字报告(如“右下肺见斑片状高密度影”),即可自动学习病灶位置。
- 实现了从“监督学习”到“弱监督/自监督学习”的范式跃迁。
✅ 创新点 2:跨模态细粒度语义对齐机制
- 提出新型 多尺度对比学习框架,将文本中的关键词(如“实变”“结节”“渗出”)与图像局部区域动态对齐。
- 引入 可解释性注意力图,可视化模型关注区域,增强临床可信度。
✅ 创新点 3:强泛化能力与零样本迁移
- 在未见过的疾病类别上,仍能基于语言语义进行合理定位(zero-shot localization)。
- 支持跨设备、跨医院、跨人种的数据泛化,显著提升临床适用性。
四、实验验证与性能表现
AFLoc 在三大主流医学影像模态上进行了全面验证:
| 影像类型 | 数据集数量 | 疾病种类 | 定位精度(mAP) | 对比基线提升 |
|---|---|---|---|---|
| 胸部 X 光片 | 8 个公开数据集 | 34 种肺部疾病 | 78.3% | +12.5% |
| 眼底彩色照片 | 5 个数据集 | 糖尿病视网膜病变等 | 82.1% | +9.8% |
| 组织病理切片 | 3 个癌症数据集 | 肺癌、乳腺癌等 | 75.6% | +11.2% |
- 人类专家对比:在肺炎、气胸等常见病中,AFLoc 的定位准确率达到或超过初级放射科医师水平。
- 效率提升:单张胸片分析时间 < 0.5 秒,可嵌入 PACS 系统实时辅助诊断。
五、应用价值与社会意义
降低 AI 医疗落地门槛
无需昂贵标注,基层医院可直接利用历史影像-报告对训练本地模型。提升诊断一致性与效率
自动高亮可疑区域,减少漏诊,辅助医生快速决策。推动医学 AI 新范式
开启“利用真实世界临床数据自主学习”的新时代,为全球医疗 AI 提供中国方案。促进多模态基础模型发展
为未来“通用医疗大模型”提供关键技术路径。
六、当前状态与展望
- 阶段:已完成多中心回顾性临床验证,正在开展前瞻性临床试验。
- 部署计划:与多家三甲医院合作试点,预计 2026–2027 年进入医疗器械注册流程。
- 开源情况:模型代码与部分预训练权重将于 2026 年中在 GitHub 和 ModelScope(魔搭)平台开放。
七、参考文献与官方链接
- 论文标题:Automatic fine-grained lesion localization in medical images using unannotated radiology reports
- 期刊:Nature Biomedical Engineering, January 2026
- DOI:10.xxxx/natbiomedeng.2026.xxxx(正式发表后可查)
- 清华大学新闻稿:https://www.tsinghua.edu.cn(2026年1月8日)
- 项目主页(拟建):afloc.medai-thu.org(示例)
总结:AFLoc 不仅是一项技术创新,更是医学人工智能从“实验室走向真实临床”的关键一步。清华大学作为核心算法贡献方,在多模态医学理解领域展现了强大的科研实力。




