大家好,医学图像初学者的第一次发帖求助。

问题描述:

我在尝试 将个人3D MRI数据集在nnUNet上训练,运行至预处理阶段,因 训练图像数据与训练标签数据的 geometry 信息不同(don’t match)无法运行下去,具体是 通过SITK读取的两组图像对象的origin, spacing, direction等属性不同(以下以这些属性代称)。先前通过 nibabel包读取图像随机的slice 可视化(matplot.pyplot),两组图是正常,看不出问题在哪。

查找过可能的解决方法:

读了SITK对于这些基础概念的暂时理解是 表示还原在真实物理空间的voxel的一些全局信息(如错误请指正,谢谢!) 。因 刚学图像识别,所以 对这些信息不太了解,不懂需要如何处理。

还看了看 可能的解决方法:重采样的操作,就是直接覆盖原图的这些属性(如错误请指正,谢谢!)。因此,不懂直接将一组图的这些属性覆盖另一组图的后果以及可行性(即 将labels的这些属性赋值给images 或 将images的这些属性赋值给labels)。故求助解决方案。

万分感谢!!!

    9 天 后

    YizhouChen nn-Unet 或者说绝大多数深度学习模型都不会考虑voxel信息。而且我没有读懂你的问题究竟是什么。或许你应该先跑通一个神经网络,然后再迁移到自己的数据上训练,而不是在缺乏足够基础知识的情况下硬上。

      说点什么吧...