洪申达课题组在Scientific Data发布首个大规模心电多模态数据集MEETI
时间:2026-03-05 14:28:53来源:
点击数:
2026年2月,北京大学健康医疗大数据国家研究院洪申达团队在Scientific Data(Nature系列期刊)上发表了题为“MEETI: A Multimodal ECG Dataset from MIMIC-IV-ECG with Signals, Images, Features and Interpretations”的论文。该研究针对当前临床人工智能(AI)在处理复杂生物电信号时面临的数据孤岛与多模态缺失问题,系统性构建并公开发布了首个大规模心电图(ECG)全模态对齐数据集——MEETI (MIMIC-IV-Ext-ECG-Text-Image)。MEETI 数据集通过对现有海量临床数据的二次深度开发,实现了原始心电波形、高分辨率绘制图像、大语言模型生成的详细文本解释以及逐拍量化参数的四位一体同步集成。MEETI的发布旨在打破传统AI-ECG研究中模态单一、黑盒模型难以解释以及数据标准不一的技术瓶颈,标志着AI-ECG研究正在从单一的“信号识别”向“多模态逻辑推演”的学术范式演进。这一成果不仅为开发具备跨模态理解能力的医疗大模型奠定了坚实的数据基石,也为未来实现更具临床透明度与可靠性的心血管疾病辅助决策提供了关键的基准测试集。
在当前心血管疾病诊疗体系中,ECG是评估心脏电生理状态的核心非侵入性工具,对于诊断心律失常、心肌缺血及传导障碍具有不可替代的作用。然而,尽管深度学习技术已在特定任务中展现出专家级的分析能力,但现有公共数据集大多仅提供数字波形信号,缺乏临床医生在实际诊疗中依赖的高分辨率纸质图像以及详尽的语义描述文本。这种数据维度的缺失导致模型难以利用图像中所包含的视觉形态信息,同时也限制了模型生成具有逻辑支撑的诊断报告的能力。此外,数字信号虽然便于机器处理,但缺乏与临床语境挂钩的语义解释,导致模型难以模拟人类专家的推理思维。因此,构建一个能够将时间序列信号、空间视觉图像与医学语义逻辑深度融合的多模态数据集,成为突破当前“黑盒式”算法瓶颈、提升人工智能临床应用价值的迫切需求。研究团队通过对包含近80万份12导联心电图记录的MIMIC-IV-ECG数据进行深度开发,系统性地构建并发布了MEETI全模态数据集。该项工作并非简单的格式转换,而是针对大规模原始临床数据进行的二次价值挖掘与多维度语义对齐。首先,MEETI数据集保留了完整的12导联原始数字波形,具备500 Hz采样频率。其次,研究团队利用自建的ecg_plot工具,将数字信号转化为标准格式的高分辨率数字化图像,模拟临床常用的25 mm/s走纸速度与10 mm/mV幅度缩放,确保了波形形态在空间像素层面的精确表达。此外,通过集成自研的FeatureDB工具,数据集提取了涵盖 P 波、QRS 波群、T 波等关键波段的搏动级定量参数,包括 PR 间期、QT 间期及 QTc 等临床核心指标。最后,为了增强文本模态的粒度,研究者利用大语言模型(GPT-4o)结合上述量化特征,生成了参数对齐的结构化描述文本,为训练具备临床推理能力的模型提供了高质量的语义监督信息。
MEETI 数据集的学术价值在于其构建了一个标准化的跨模态研究基准,有力地推动了心血管人工智能从单一模态分类向多模态融合理解的范式跨越。在技术研究层面,该数据集为跨模态表征学习、对比学习(如 CLIP 架构在 ECG 上的迁移)以及基于Transformer架构的时空特征捕捉提供了关键支撑,有助于提升模型在复杂临床场景下的泛化性能。同时,通过深入挖掘不同模态间的关联性,研究者得以探索从单一模态恢复缺失信息的可能性,为低资源医疗环境下的智能诊断开辟了新路径。在临床应用与生成式 AI 领域,MEETI 凭借内嵌的细粒度测量参数与逻辑解释,成为了开发“可解释人工智能(XAI)”的重要资源。它不仅使算法能够给出基于生理参数的逻辑支撑,符合临床循证医学的要求,更助力开发出“可解释的临床决策支持系统”,生成符合医生思维习惯、图文并茂的诊断报告,从而有效减轻临床医生的读图负担。此外,该数据集还为医疗大语言模型提供了珍贵的指令微调语料,极大地推动了具备专业医学素养的生成式 AI 在辅助诊断、报告自动生成等前沿领域的落地与应用。
Zhang, D., Lan, X., Geng, S. et al. MEETI: A Multimodal ECG Dataset from MIMIC-IV-ECG with Signals, Images, Features and Interpretations. Sci Data (2026).
https://doi.org/10.1038/s41597-026-06796-1