涵盖文本、定位和分割任务,智源、港中文联合提出首个多功能3D医学多模态大模型

作者 | 香港中文大学白帆编辑 | ScienceAI近日,香港中文大学和智源联合提出的 M3D 系列工作,包括 M3D-Data, M3D-LaMed 和 M3D-Bench,从数据集、模型和测评全方面推动 3D 医学图像分析的发展。(1)M3D-Data 是目前最大的 3D 医学图像数据集,包括 M3D-Cap (120K 3D 图文对), M3D-VQA (510K 问答对),M3D-Seg(150K 3D Mask),M3D-RefSeg (3K 推理分割)共四个子数据集。(2)M3D-LaMed 是目前最

图片

作者 | 香港中文大学白帆

编辑 | ScienceAI

近日,香港中文大学和智源联合提出的 M3D 系列工作,包括 M3D-Data, M3D-LaMed 和 M3D-Bench,从数据集、模型和测评全方面推动 3D 医学图像分析的发展。

(1)M3D-Data 是目前最大的 3D 医学图像数据集,包括 M3D-Cap (120K 3D 图文对), M3D-VQA (510K 问答对),M3D-Seg(150K 3D Mask),M3D-RefSeg (3K 推理分割)共四个子数据集。

(2)M3D-LaMed 是目前最多功能的 3D 医学多模态大模型,能够解决文本(疾病诊断、图像检索、视觉问答、报告生成等),定位(目标检测、视觉定位等)和分割(语义分割、指代分割、推理分割等)三类医学分析任务。

(3)M3D-Bench 能够全面和自动评估 8 种任务,涵盖文本、定位和分割三个方面,并提供人工校验后的测试数据。

我们最早于 2024 年 4 月发布了数据集、模型和代码。

近期,我们提供了更小和更强的 M3D-LaMed-Phi-3-4B 模型,并增加了线上 demo 供大家体验!

最新进展请关注 GitHub 库的更新 ,如果有任何疑问和建议可以及时联系,欢迎大家讨论和支持我们的工作。

图片

论文链接:https://arxiv.org/abs/2404.00578代码:https://github.com/BAAI-DCAI/M3D模型:https://huggingface.co/GoodBaiBai88/M3D-LaMed-Phi-3-4B数据集:https://github.com/BAAI-DCAI/M3D?tab=readme-ov-file#data线上 Demo:https://baai.rpailab.xyz/

我们能为医学图像相关研究者提供什么?

M3D-Data, 最大的 3D 医学多模态数据集;M3D-Seg,整合了几乎所有开源 3D 医学分割数据集,共计 25 个;M3D-LaMed, 支持文本、定位和分割的最多功能的 3D 医学多模态大模型,提供了简洁清晰的代码框架,研究者可以轻易魔改每个模块的设置;M3D-CLIP,基于 M3D-Cap 3D 图文对,我们训练了一个图文对比学习的 M3D-CLIP 模型,共提供其中的视觉预训练权重 3DViT;M3D-Bench,全面和清晰的测评方案和代码。本文涉及的所有资源全部开放,希望能帮助研究者共同推进 3D 医学图像分析的发展。

涵盖文本、定位和分割任务,智源、港中文联合提出首个多功能3D医学多模态大模型

线上Demo视频。

医学图像分析对临床诊断和治疗至关重要,多模态大语言模型 (MLLM) 对此的支持日益增多。然而,先前的研究主要集中在 2D 医学图像上,尽管 3D 图像具有更丰富的空间信息,但对其的研究和探索还不够。

本文旨在利用 MLLM 推进 3D 医学图像分析。为此,我们提出了一个大规模 3D 多模态医学数据集 M3D-Data,其中包含 120K 个图像-文本对和 662K 个指令-响应对,专门针对各种 3D 医学任务量身定制,例如图文检索、报告生成、视觉问答、定位和分割。

此外,我们提出了 M3D-LaMed,这是一种用于 3D 医学图像分析的多功能多模态大语言模型。

我们还引入了一个新的 3D 多模态医学基准 M3D-Bench,它有助于在八个任务中进行自动评估。通过综合评估,我们的方法被证明是一种稳健的 3D 医学图像分析模型,其表现优于现有解决方案。所有代码、数据和模型均可在以下网址公开获取。

数据集

M3D-Data 共包括4个子数据集,分别为M3D-Cap(图文对), M3D-VQA(视觉问答对), M3D-RefSeg(推理分割)和 M3D-Seg(整合 25 个 3D 分割数据集)。

图片

数据集统计情况。

图片

M3D-VQA 数据集分布。其中问题类型主要包括平面、期相、器官、异常和定位五类常见的3D图像问题。

我们整合了几乎所有开源的 3D 医学分割数据集,组成了 M3D-Seg,共计 25 个。数据集可以被用来做语义分割、推理分割、指代分割和相应的检测定位任务。

图片

M3D-Seg。

模型

M3D-LaMed 模型结构如下图所示。(a)3D 图像编码器通过跨模态对比学习损失由图文数据进行预训练,可直接应用于图文检索任务。(b)在 M3D-LaMed 模型中,3D 医学图像被输入到预先训练的 3D 图像编码器和高效的 3D 空间池化感知器中,并将视觉 token 插入 LLM,输出的 [SEG] 作为 prompt 驱动分割模块。

图片

M3D-LaMed 模型结构。

实验

图文检索

在 3D 图文检索中,模型旨在根据相似性从数据集中匹配图像和文本,通常涉及两个任务:文本到图像检索 (TR) 和图像到文本检索 (IR)。

图片

由于缺乏合适的方法,我们将 2D 医学的代表模型 PMC-CLIP 应用于 3D 图文检索中,我们发现由于缺乏空间信息,几乎无法和 3D 图文检索模型对比。

图片

报告生成

在报告生成中,该模型根据从 3D 医学图像中提取的信息生成文本报告。

图片

图片

封闭式视觉问答

在封闭式视觉问答中,需要为模型提供封闭的答案候选,例如 A,B,C,D,要求模型从候选中选出正确答案。

图片

图片

我们发现在医学领域 M3D-LaMed 超过通用的 GPT-4V。

开放式视觉问答

在开放式视觉问答中,模型生成开放式的答案,不存在任何答案提示和候选。

图片

图片

我们发现在医学领域 M3D-LaMed 超过通用的 GPT-4V。不过需注意目前GPT-4V 限制了医疗相关问题的回答。

定位

定位在视觉语言任务中至关重要,尤其是涉及输入和输出框的任务。在输出框的任务,如指代表达理解 (REC) ,旨在根据指代表达在图像中定位目标对象。相比之下,在输入框的任务,如指代表达生成 (REG) ,要求模型根据图像和位置框生成特定区域的描述。

图片

图片

分割

分割任务在 3D 医学图像分析中至关重要,因为它具有识别和定位功能。为了解决各种文本提示,分割分为语义分割和指代表达分割。对于语义分割,该模型根据语义标签生成分割掩码。指代表达分割需要根据自然语言表达描述进行目标分割,需要模型具有一定的理解和推理的能力。

图片

图片

分布外 (OOD) 问题的案例研究

我们在 OOD 对话中测试了 M3D-LaMed 模型,这意味着所有问题都与我们的训练数据不相关。我们发现 M3D-LaMed 具有很强的泛化能力,可以对 OOD 问题产生合理的答案,而不是胡言乱语。在每组对话中,左侧的头像和问题来自用户,右侧的头像和答案来自 M3D-LaMed。

图片

模型具有很强的推理能力和泛化能力。

我们最新训练的更小的 M3D-LaMed-Phi-3-4B 模型具有更好的表现,欢迎大家使用!GoodBaiBai88/M3D-LaMed-Phi-3-4B · Hugging Face

图片

报告生成测评结果

图片

封闭式 VQA 测评结果

图片

在 TotalSegmentator 上测评的语义分割 Dice 结果

总结

我们 M3D 系列研究促进了使用 MLLM 进行 3D 医学图像分析。具体来说,我们构建了一个大规模 3D 多模态医学数据集 M3D-Data,其中包含 120K 3D 图像文本对和 662K 指令响应对,专为 3D 医学任务量身定制。此外,我们提出了 M3D-LaMed,这是一个通用模型,可处理图像文本检索、报告生成、视觉问答、定位和分割。此外,我们引入了一个综合基准 M3D-Bench,它是为八个任务精心设计的。

我们的方法为 MLLM 理解 3D 医学场景的视觉和语言奠定了坚实的基础。我们的数据、代码和模型将促进未来研究中对 3D 医学 MLLM 的进一步探索和应用。希望我们的工作能够为领域研究者带来帮助,欢迎大家使用和讨论。

相关资讯

CVPR23 Highlight | 多模态新任务、新数据集:NTU提出广义引用分割问题GRES

引用表达分割(Referring Expression Segmentation,简称引用分割或RES)是一个基础的视觉语言多模态任务。给定一张图像和一个描述该图像中某个对象的自然语言表达式,RES旨在找到该目标对象并将其分割。现有的引用分割数据集和方法通常仅支持单目标表达式,即一个表达式指代一个目标对象。而对于多目标和无目标表达式的情况,则没有考虑在内。严重限制了引用分割的实际应用。基于这个问题,来自新加坡南洋理工大学的研究者们定义了一个名为广义引用分割(Generalized Referring Expression Segmentation,GRES)的新任务,将经典的引用分割扩展到允许表达式指代任意数量的目标对象。同时,文章还构建了第一个大规模的GRES数据集gRefCOCO,其同时包含多目标、无目标和单目标表达式。

AI成像新标准,仅1%原始数据可达最佳性能,通用医学基础模型登Nature子刊

编辑 | 白菜叶经过大规模预训练的基础模型已在非医学领域取得了巨大成功。然而,训练这些模型通常需要大量全面的数据集,这与生物医学成像中常见的较小且更专业的数据集形成鲜明对比。德国弗劳恩霍夫数字医学研究所(Fraunhofer Institute for Digital Medicine MEVIS)的研究人员提出了一种多任务学习策略,将训练任务数量与内存需求分离开来。他们在多任务数据库(包括断层扫描、显微镜和 X 射线图像)上训练了一个通用生物医学预训练模型 (UMedPT),并采用了各种标记策略,例如分类、分割和

ECCV2024 | 哈佛团队开发FairDomain,实现跨域医学图像分割和分类中的公平性

编辑 | ScienceAI作者 | Yu Tian 团队在人工智能(AI),特别是医疗AI领域中,解决公平性问题对于确保公平的医疗结果至关重要。最近,增强公平性的努力引入了新的方法和数据集。然而,在域转移的背景下,公平性问题几乎没有得到探索,尽管诊所常常依赖不同的成像技术(例如,不同的视网膜成像方式)进行患者诊断。本文提出了FairDomain,这是首次系统性研究算法在域转移下的公平性,我们测试了最先进的域适应(DA)和域泛化(DG)算法,用于医学图像分割和分类任务,旨在了解bias如何在不同域之间转移。我们还提