从4D CT灌注成像中使用时空卷积神经网络预测急性缺血性中风的特定治疗病变结果| 文献速递-深度学习自动化疾病检查

时间:2024-07-10 07:22:09

Title

题目

Predicting treatment-specific lesion outcomes in acute ischemic stroke from 4D CT perfusion imaging using spatio-temporal convolutional neural networks

从4D CT灌注成像中使用时空卷积神经网络预测急性缺血性中风的特定治疗病变结果

01

文献速递介绍

急性缺血性中风(AIS)发生在由于动脉闭塞而导致大脑供血中断时。每当灌注未能恢复一小时,大脑所丧失的神经元数量相当于正常衰老四年的数量(Saver, 2006)。神经影像学,特别是时空(4D)计算机断层扫描灌注(CTP),在AIS患者的诊断和治疗决策中起到了关键作用(Yu et al., 2016)。这种成像方式通过注射碘对比剂和进行时间序列的3D CT成像(大约60秒),显示大脑中的血流动态,有助于区分不可逆损伤的梗死核心与潜在可挽救的周围组织(半暗带)(Neumann-Haefelin et al., 1999;Forkert et al., 2013)。

目前对AIS的治疗选择集中在快速再灌注疗法,包括静脉溶栓治疗(IV tPA)和动脉内机械取栓(IA)(Turc et al., 2019)。尽管中风干预的主要目的是恢复大脑的血流和功能,但每种治疗方案也都有相当大的费用和显著的风险。例如,具有小梗死核心和大半暗带的患者更可能从IV tPA或IA治疗中受益(Schaefer et al., 2008),而具有较大梗死的患者则有较高的脑出血风险,因此溶栓治疗可能是禁忌的(Fiehler et al., 2005;Demeestere et al., 2020)。此外,取栓术是一项技术要求很高的程序,仅在三级中风中心才有有限的资源可用,因此,只有当好处明显超过潜在风险时,患者才应进行分流。因此,定位和量化中风病变核心和半暗带具有重要的临床意义,因为它们可以帮助识别通过治疗可以挽救的大脑区域,从而使临床医生能够做出更明智的决策。尽管如此,直接使用4D CTP扫描进行这类任务一直是一个挑战,因为其数据量庞大(例如,每分钟平均32个3D图像,每个3D图像平均有16个切片)且信噪比低。

因此,4D CTP扫描通常会进行后处理以生成3D灌注参数图,这些图半定量或定量地总结了大脑血流动力学,例如脑血流量(CBF)、脑血容量(CBV)、平均通过时间(MTT)和残留功能的最大时间(Tmax)(Laughlin et al., 2019)。这些灌注图通常通过将每个组织浓度-时间曲线与所谓的动脉输入函数(AIF)进行反卷积来获得,AIF是从大脑中的一个(或多个)主要对侧动脉中选择的。然而,AIF的选择对灌注分析有很大影响,而反卷积操作本身是一个数学上的病态问题,需要强正则化(Fieselmann et al., 2011)。为了更定量的解释,结果的灌注图可以进行阈值处理以确定大脑组织状态。例如,通常使用低于对侧平均CBF的30%和超过6秒的Tmax来估计梗死核心和半暗带(Laughlin et al., 2019)。这两个分割之间的体积不匹配通常用于治疗决策。然而,使用简单的阈值来识别组织状态无法捕捉AIS的异质复杂性(Rekik et al., 2012;Flottmann et al., 2017),也不能提供任何特定治疗结果的估计。

Abstract

摘要

对于急性缺血性中风的诊断和精确治疗,预测病变的最终位置和体积具有重要的临床意义。目前基于深度学习的预测方法主要使用灌注参数图,这些图可以从时空(4D)CT灌注(CTP)成像数据中计算得出,用于估计急性缺血性中风的组织结局。然而,这种计算依赖于反卷积操作,这是一个病态问题,需强正则化和动脉输入函数的定义。因此,如果深度学习模型直接应用于急性4D CTP数据而非灌注图,可能会实现更好的预测效果。在这项工作中,我们提出了一种新颖的深度时空卷积神经网络,通过充分利用原始4D CTP数据来预测治疗依赖的中风病变结果。通过融合类似U-Net的架构和时间卷积网络,我们能够有效处理CTP数据集中的时空信息以进行组织结局预测。该方法在147名患者上进行了10折交叉验证,结果表明,所提出的3D+时间模型(平均Dice=0.45)显著优于我们方法的2D+时间变体(平均Dice=0.43)和使用灌注图的最新方法(平均Dice=0.38)。这些结果表明,4D CTP数据集包含比灌注参数图更多的预测信息,所提出的方法是利用这一复杂数据的有效方法。

Conclusion

结论

In this paper, we proposed and evaluated a computationally efficientand novel deep learning architecture to predict treatment-dependentstroke lesion outcomes directly from spatio-temporal CTP data. From atechnical perspective, this was achieved through the use of an encoder–decoder like network structure that utilizes a temporal convolutionalnetwork to aggregate temporal information from raw 4D perfusiondata. We quantitatively showed that the proposed model trained on raw4D CTP data is capable of outperforming a state-of-the-art deep learningmethod trained on perfusion parameter maps, as well as a clinicallymotivated thresholding-based method. We also demonstrated that theproposed model provides more accurate predictions when trained on3D+time data rather than on 2D+time, highlighting the relevance ofthe spatial context for such a predictive task. More importantly, thisis the first deep learning model for stroke lesion outcome predictionthat does not rely on the computation of perfusion maps or requirethe selection of an AIF to make an estimation, resulting in a fullydeconvolution-free method that is simpler, more rapid, and potentiallyless susceptible to noise.

在本文中,我们提出并评估了一种计算效率高的新颖深度学习架构,能够直接从时空CTP数据中预测依赖治疗的中风病变结果。从技术角度来看,这是通过使用类似编码器-解码器的网络结构实现的,该结构利用时间卷积网络来汇总原始4D灌注数据中的时间信息。我们定量地展示了,训练在原始4D CTP数据上的所提出模型能够优于训练在灌注参数图上的最先进深度学习方法以及基于临床动机的阈值方法。我们还证明了,当在3D+时间数据而非2D+时间数据上训练时,所提出的模型提供了更准确的预测,突出了空间上下文在此类预测任务中的重要性。更重要的是,这是第一个用于中风病变结果预测的深度学习模型,不依赖于灌注图的计算或需要选择AIF进行估计,从而实现了一种完全无反卷积的方法,这种方法更简单、更快速,且潜在地更不易受噪声影响。

Results

结果

The performance of the predictive models with and without postprocessing, and tested in both patient subgroups, are presented inTable 1. These results were averaged across the ten folds to producea more reliable estimation. Table 2 shows the model size in terms oftrainable parameters for the proposed and baseline methods. In Fig. 2,Bland–Altman plots of the true and predicted lesion volumes for allpatients in the testing folds are shown for each model. A visualization ofpost-processed predictions from a patient case of each subgroup can befound in Fig. 3. The left column shows the true lesion mask, whereas theremaining columns show the resulting predictions from the proposedand baseline methods.All results are reported as mean ±standard deviation. A higher ↑ Dice Similarity Coefficient (DSC) indicates better performance, while the opposite ↓ is true for the symmetricHausdorff distance (HD) and volume error in mL. The best results for each metric are highlighted in bold. A paired t-test was performed between the 3D+time and the othermethods.

有和不具有后处理的预测模型的性能,以及在两个患者子组中的测试结果如表1所示。这些结果是通过十折交叉验证平均得出的,以提供更可靠的估计。表2显示了所提出的方法和基线方法在可训练参数方面的模型大小。在图2中,显示了每个模型在测试折中所有患者的真实和预测病变体积的Bland–Altman图。图3展示了每个子组中的一个患者案例的后处理预测的可视化结果。左列显示真实病变掩码,而其余列显示所提出的方法和基线方法的预测结果。所有结果均以均值±标准差的形式报告。较高的↑ Dice相似系数(DSC)表示更好的性能,而较低的↓对称Hausdorff距离(HD)和体积误差(mL)则表示更好的性能。每个指标的最佳结果用粗体突出显示。对3D+时间方法和其他方法进行了配对t检验。

Figure

图片

Fig. 1. The proposed deep learning network takes the full 4D CTP image sequences as input, which are passed through the encoder, temporal convolutional network (TCN), anddecoder to produce an estimation of the stroke tissue outcome. The values above each block indicate the depth of the feature maps at each convolutional layer. In addition, anillustration of a TCN with a receptive field of 32-time points is provided, with dilation factors d = [1, 2, 4, 8, 16] and a kernel size of 2. TCNs were originally designed to takea sequence of any length and return an output sequence of the same length. However, the primary aim of this model is to predict a single binary lesion mask and, therefore, theTCN module was adjusted to return only the last element of the output sequence.

图1. 所提出的深度学习网络以完整的4D CTP图像序列作为输入,通过编码器、时间卷积网络(TCN)和解码器处理,生成中风组织结果的估计。每个卷积层上的数值表示特征图在每个卷积层的深度。此外,还提供了具有32时间点感受野的TCN示意图,其膨胀因子为d = [1, 2, 4, 8, 16],卷积核大小为2。TCNs最初设计用于接受任意长度的序列并返回相同长度的输出序列。然而,该模型的主要目的是预测单个二进制病变掩码,因此TCN模块被调整为仅返回输出序列的最后一个元素。

图片

Fig. 2. Bland–Altman plots comparing the true vs. predicted lesion volumes for all the testing patients using the proposed and baseline methods.

图2. Bland–Altman图比较了所有测试患者使用所提出方法和基线方法的真实病变体积与预测病变体积的差异。

图片

Fig. 3. Visualization of post-processed predictions from a patient case of each subgroup. The first column shows the true lesion mask, whereas the rest of the columns show the resulting predictions from the proposed and baseline methods.

图3. 每个子组患者案例的后处理预测可视化。第一列显示真实的病变掩码,其余列显示所提出方法和基线方法的预测结果。

Table

图片

Table 1 Performance of the predictive models before and after post-processing, averaged for the 10-fold cross-validation experiments.

表1 预测模型在后处理前后的性能,平均为十折交叉验证实验的结果。

图片

Table 2 Comparison of the model size for the different implementations.

表2 不同实现模型大小的比较。