当前位置: X-MOL 学术Gene Expr. Patterns › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
AMB-Wnet: Embedding attention model in multi-bridge Wnet for exploring the mechanics of disease
Gene Expression Patterns ( IF 1.2 ) Pub Date : 2022-06-16 , DOI: 10.1016/j.gep.2022.119259
Chunxing Wang 1 , Xiaodong Jiang 1 , Zixuan Wang 2 , Xiaorui Guo 1 , Wenbo Wan 3 , Jian Wang 3
Affiliation  

In recent years, progressive application of convolutional neural networks in image processing has successfully filtered into medical diagnosis. As a prerequisite for images detection and classification, object segmentation in medical images has attracted a great deal of attention. This study is based on the fact that most of the analysis of pathological diagnoses requires nuclei detection as the starting phase for obtaining an insight into the underlying biological process and further diagnosis. In this paper, we introduce an embedded attention model in multi-bridge Wnet (AMB-Wnet) to achieve suppression of irrelevant background areas and obtain good features for learning image semantics and modality to automatically segment nuclei, inspired by the 2018 Data Science Bowl. The proposed architecture, consisting of the redesigned down sample group, up-sample group, and middle block (a new multiple-scale convolutional layers block), is designed to extract different level features. In addition, a connection group is proposed instead of skip-connection to transfer semantic information among different levels. In addition, the attention model is well embedded in the connection group, and the performance of the model is improved without increasing the amount of calculation. To validate the model's performance, we evaluated it using the BBBC038V1 data sets for nuclei segmentation. Our proposed model achieves 85.83% F1-score, 97.81% accuracy, 86.12% recall, and 83.52% intersection over union. The proposed AMB-Wnet exhibits superior results compared to the original U-Net, MultiResUNet, and recent Attention U-Net architecture.



中文翻译:

AMB-Wnet:在多桥 Wnet 中嵌入注意力模型以探索疾病的机制

近年来,卷积神经网络在图像处理中的逐步应用已成功渗透到医学诊断中。作为图像检测和分类的先决条件,医学图像中的对象分割引起了广泛的关注。这项研究基于这样一个事实,即大多数病理诊断分析都需要细胞核检测作为开始阶段,以便深入了解潜在的生物学过程和进一步的诊断。在本文中,我们在多桥 Wnet (AMB-Wnet) 中引入了一种嵌入式注意模型,以实现对不相关背景区域的抑制,并获得学习图像语义和模态以自动分割核的良好特征,受 2018 年数据科学碗的启发。提议的架构,包括重新设计的下样本组,上采样组和中间块(一种新的多尺度卷积层块)旨在提取不同级别的特征。此外,提出了一个连接组而不是跳过连接来在不同层次之间传递语义信息。此外,注意力模型很好地嵌入了连接组,在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。和中间块(一种新的多尺度卷积层块),旨在提取不同级别的特征。此外,提出了一个连接组而不是跳过连接来在不同层次之间传递语义信息。此外,注意力模型很好地嵌入了连接组,在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。和中间块(一种新的多尺度卷积层块),旨在提取不同级别的特征。此外,提出了一个连接组而不是跳过连接来在不同层次之间传递语义信息。此外,注意力模型很好地嵌入了连接组,在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。提出了一个连接组而不是跳过连接来在不同层次之间传递语义信息。此外,注意力模型很好地嵌入了连接组,在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。提出了一个连接组而不是跳过连接来在不同层次之间传递语义信息。此外,注意力模型很好地嵌入了连接组,在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。在不增加计算量的情况下提高了模型的性能。为了验证模型的性能,我们使用 BBBC038V1 数据集对其进行了核分割评估。我们提出的模型实现了 85.83% 的 F1 分数、97.81% 的准确率、86.12% 的召回率和 83.52% 的交集。与原始 U-Net、MultiResUNet 和最近的 Attention U-Net 架构相比,所提出的 AMB-Wnet 表现出更好的结果。

更新日期:2022-06-16
down
wechat
bug