Application of deep convolutional neural network in detection of nuclear waste in radiation environment
-
摘要: 针对辐射环境下核废料检测准确率低的问题,提出一种基于深度卷积神经网络的辐射环境下核废料检测算法Dense-Dilated-YOLO V3。实验结果表明,Dense-Dilated-YOLO V3在不增加参数的情况下扩大了网络感受野,也有效避免图像信息的损失,同时能够在核辐射环境下提取到更多的目标细节特征,对辐射环境下目标检测的准确率可达93.29%,比原算法提高5.53%,召回率可达91.73%,提高了8.28%,有效解决了复杂辐射环境下核废料检测准确率低的问题,为辐射环境下核废料检测提供了新的途径。Abstract: Aiming at the low accuracy of nuclear waste detection under radiation environment, this paper proposes a nuclear waste detection algorithm named Dense-Dilated-YOLO V3 based on deep learning convolution neural network. The experimental results show that Dense-Dilated-YOLO V3 increases the network receptive field without increasing the parameters, effectively avoids the loss of image information, extracts more detailed features of the target in the radiation environment, and accurately detects the target under radiation environment. The rate reached 93.29%, which was 5.53% higher than the original algorithm, and the recall rate reached 91.73%, with an increase of 8.28%. It solved the problem of low accuracy of nuclear waste detection under complex radiation environment, and has better detection effect. It provides a new approach for nuclear waste detection.
-
Key words:
- deep learning /
- convolutional neural network /
- YOLO V3 /
- nuclear waste /
- target detection
-
核能作为清洁能源的一种,核能的发展不会产生温室效应和带来空气污染等问题,核能的出现会给清洁能源的发展带来无限活力,但是,核废料的安全处理一直是个棘手的问题。对核废料进行准确检测是遥控操作移动机器人在强辐射环境下工作的第一步,传统的图像处理方法易受到复杂辐射环境影响[1-3],因而核废料检测准确率低。
近年来,随着深度学习技术的进步,基于深度卷积神经网络的目标检测算法取得重大突破,目前效果突出的深度卷积神经网络目标检测算法主要有两类:第一类是基于候选区域的目标检测算法,如R-CNN(Region-CNN)[4], Fast R-CNN[5], Faster R-CNN[6]和Mask R-CNN[7]等,基于候选区域的目标检测算法在对物体的检测测精度上有较好效果,但检测速度较慢,无法满足实时检测的需求; 第二类是基于回归的目标检测算法,如SSD[8], YOLO[9], YOLO V2[10]和YOLO V3[11]等,基于回归的目标检测算法检测精度低于基于候选区域的目标检测算法,但检测速度较快,可实时检测。
基于YOLO的目标检测算法在图像识别、农业检测、军事检测等很多领域都有很好的应用背景。王琳[12]等人在YOLO V2的基础上,结合金字塔池化模块,提出了一种用于井下行人检测的方法。周云成[13]等人在YOLO V2的基础上,结合Inception结构,提出一种基于面向通道分组番茄器官识别方法。吴天舒[14]等人在YOLO的基础上,结合语义分割网络,提出一种驾驶员安全带佩戴检测的方法。李策[15]等人在YOLO的基础上,结合视觉注意机制的显著性检测算法,提出一种高分辨率的遥感图像检测算法。
本文采用YOLO V3目标检测算法对辐射环境下的核废料进行检测,以YOLO V3进行特征提取的Darknet-53网络为基础,结合密集连接卷积网络[16](DenseNet)和空洞卷积[17]进行改进。改进后的Dense-Dilated-YOLO V3在辐射量为6.9 Gy/min且累计辐照100 Gy的复杂核环境情况下,对核废料有很好的检测效果,能满足实时检测的准确性。
1. 网络结构
YOLO V3采用Darknet-53网络,Darknet-53网络结构和残差网络结构相似,在最终目标检测也加入了残差结构,提升对小物体的检测效果。Darknet-53网络也借鉴Faster R-CNN运用的先验框,当输入为416×416图像时,YOLO V3提出13×13,26×26和52×52这3种尺度来预测,每种尺度都有3个先验框,13×13尺度特征负责检测大物体,26×26尺度特征负责检测中等大小物体,52×52尺度特征负责检测小物体。运用FPN网络对这些尺寸进行特征提取,产生金字塔网络,对多目标任务有较好的检测效果,Darknet-53网络结构如图 1所示。
2. 网络结构改进
在采集辐射环境下核废料图像时,发现由于昏暗灯光和强辐射噪音的影响,造成拍摄的辐射环境下核废料图像质量偏低,人眼都难以区分现场分布的核废料和处置库中的核废料桶和箱。为了让YOLO V3对辐射环境下的核废料图像有较高的检测率,本文结合密集连接卷积网络和空洞卷积,构建出Dense-Dilated-YOLO V3目标检测网络,如图 2所示。
本文对Darknet-53网络结构的改进步骤如下:首先,引入密集连接卷积网络,增强浅层网络特征的传递。参考密集连接卷积网络,将Darknet-53网络拥有丰富位置信息的浅层较大尺寸特征图和拥有充足语义信息的深层较小尺寸特征图相融合,形成更加抽象的高层特征,增强特征的表达能力,提高网络对物体位置信息的刻画。将Darknet-53网络产生的208×208,104×104浅层特征图和26×26,13×13深层特征图同负责检测小物体的52×52特征图相融合,如图 2虚线连接处所示,组合后的特征图拥有多级网络特征信息,包含丰富的物体细节特征,提高了网络在复杂辐射环境下对目标的检测精度。
接着,引入空洞卷积,使得卷积层提取到更多细节信息。在Darknet-53网络的中层卷积特征52×52特征图后,不使用步长为2的卷积,借助不同空洞率的3×3卷积核进行空洞卷积,依次使用空洞率r=1的空洞卷积1次、空洞率r=2的空洞卷积2次、空洞率r=4的空洞卷积2次,能捕获多尺度图像细节信息,保留更多的图像原始特征,减少步长为2的卷积对分辨率的影响,提升预测图像精度。通过多尺度空洞卷积,提取到不同尺度的特征,捕获多尺度图像细节信息,得到表现力更强的特征,具体空洞卷积结构如图 2所示。
3. 实验结果分析
本实验的软硬件平台:Intel(R) Core(TM) i7-7700HQ CPU @ 2.80HGz; GPU为NVIDIA GeForce GTX 1080;支持CUDA9.0加速,内存为16 GB; 运用Tensorflow框架进行深度模型的搭建、训练和测试。
3.1 实验样本制作
本实验采用移动机器人耐辐照性能检验实验中心在辐照剂量为6.9 Gy/min下,累计100 Gy情况下拍摄的视频作为原始图像来源,通过视频截取得到1400张原始辐射图像,深度学习模型需要大量样本,考虑到样本不足,现在需要给样本进行增强。对图像进行旋转、剪切、改变图像色差、扭曲图像特征,最后将样本大小保持在320×320~416×416,丰富了图像训练集,使网络模型提取到更好的图像特征,防止模型训练出现过拟合问题,样本增强后一共收集到辐照样本6000张。
在辐射环境下,各种高能粒子对图像传感器采集的原始图像产生多种噪音,最主要的是椒盐噪音、高斯噪音和随机噪音,严重影响图像质量,如图 3(a)所示。实验需要保证采集图像的质量,所以对通过传感器采集到的6000张图像进行降噪处理。首先,对图像进行直方图增强操作,改善图像成像效果,增强图片对比度,如图 3(b)所示。接着,对直方图增强处理后的样本进行中值滤波处理,减轻椒盐噪音、高斯噪音和随机噪音对图像质量的影响,增强图像清晰度,如图 3(c)所示。最后,对中值滤波处理后的图像进行锐化处理,增强图像轮廓特征,使图像对比度增强,如图 3(d)所示。
对预处理好的样本采用LableImg进行标注,随机选用5600张作为训练集,400张作为测试集。
3.2 训练方法
对Dense-Dilated-YOLO V3和YOLO V3分别进行10000次训练,基础学习率为0.001,动量系数0.9,衰减率为0.005,每2000次自动保存一次权重。
3.3 评价指标
本文采用准确率、召回率、交并比(IOU)和平均精度(MAP)对网络进行评价。准确率、召回率、交并比计算公式为
δA=TP+TNTP+FN+FP+TN (1) R=TPTP+FN (2) IOU=A∩BA∪B (3) 公式中:δA代表准确率; R代表召回率; TP表示预测正确,将正类预测为正类; TN表示预测正确,将负类预测为负类; FP表示预测错误,将负类预测为正类; FN表示预测错误,将负类预测为正类。准确率是预测正确的样本数占总样本数的比例,召回率是预测正确的样本数与应当被正确预测的样本数之比; A表示产生的候选框区域; B表示原来标记候选框的区域,IOU表示预测候选框与标记候选框的重叠率。
3.5 实验结果分析
对Dense-Dilated-YOLO V3和YOLO V3训练得到的实验的准确率和召回率变化情况如图 4所示。图 4(a)、图 4(b)分别是准确率和召回率的变化情况。从图 4(a)可以看出,随着迭代次数增加,YOLO V3和Dense-Dilated-YOLO V3的准确率都逐渐上升,训练6000次左右都开始收敛,最后YOLO V3的准确率为87.76%,Dense-Dilated-YOLO V3的准确率为93.29%。从图 4(b)可以看出,随着迭代次数增加,YOLO V3和Dense-Dilated-YOLO V3的召回率都逐渐上升,YOLO V3在7000次左右开始收敛,Dense-Dilated-YOLO V3也在7000次左右开始收敛,最后YOLO V3的召回率为83.45%,Dense-Dilated-YOLO V3的召回率为91.73%。
得到准确率、召回率、交并比IOU和平均精度MAP如表 1所示。从表 1中可以看出,Dense-Dilated-YOLO V3比YOLO V3在准确率、召回率、交并比和平均精度上均有所提高,尤其是在召回率上,由原来的83.45%提高到91.73%。
表 1 网络性能结果对比表Table 1. The comparison table of Network performance resultevaluation index Accuracy/% RECALL/% IOU/ % MAP/ % YOLO V3 87.76 83.45 83.97 82.58 Dense-Dilated-YOLO V3 93.29 91.73 88.64 90.34 YOLO V3和Dense-Dilated-YOLO V3对核环境下核废料的检测结果分别如图 5(a)和图 5(b)所示。从图 5(a)中可以看出,YOLO V3对核辐射环境下的图像有一定检测效果,但是对核废料的检测效果不准确。从图 5(b)中可以看出,Dense-Dilated-YOLO V3对目标物体的检测位置更加精确,能检测出更多的核废料桶和箱,目标物体检测出的得分值更高,在复杂辐射环境下对核废料有更好的检测效果。
4. 结论
将基于深度卷积神经网络的目标检测方法应用到辐射环境下是目前辐射图像目标检测领域的创新,本文主要对YOLO V3目标检测算法进行特征提取的网络结构Darknet-53进行改进。首先结合密集连接卷积网络,强化了网络浅层特征的传递。其次引入空洞卷积,在准确提取核环境下目标物体图像的同时保留了更多的细节特征。通过对比实验,本文算法能够精准检测出核环境的目标物体,有较高的准确率和召回率,具有更好的核环境下目标检测能力,能够为辐射环境下核废料检测提供一种新的方法。
-
表 1 网络性能结果对比表
Table 1. The comparison table of Network performance result
evaluation index Accuracy/% RECALL/% IOU/ % MAP/ % YOLO V3 87.76 83.45 83.97 82.58 Dense-Dilated-YOLO V3 93.29 91.73 88.64 90.34 -
[1] 王德娇, 史晋芳, 吴倩, 等. 一种混合降噪方法在辐射图像降噪处理中的应用[J]. 机械设计与制造, 2017(1): 97-100. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYZ201701026.htmWang Dejiao, Shi Jinfang, Wu Qian, et al. Application of integrative denoising method for radiation image denoising. Mechanical Design and Manufacturing, 2017(1): 97-100 https://www.cnki.com.cn/Article/CJFDTOTAL-JSYZ201701026.htm [2] 仝跃, 黄宏伟, 张东明, 等. 高放废物处置地下实验室建设期风险接受准则[J]. 中国安全科学学报, 2017, 27(2): 151-156. https://www.cnki.com.cn/Article/CJFDTOTAL-ZAQK201702028.htmTong Yue, Huang Hongwei, Zhang Dongming, et al. Research on risk acceptance criteria for construction of HLW geological disposal URL. China Safety Science Journal, 2017, 27(2): 151-156 https://www.cnki.com.cn/Article/CJFDTOTAL-ZAQK201702028.htm [3] 阙渭焰. 复杂辐射环境与武器装备试验评估[J]. 强激光与粒子束, 2015, 27: 103201. doi: 10.11884/HPLPB201527.103201Que Weiyan. Military system radiation environments effects test and evaluation. High Power Laser and Particle Beams, 2015, 27: 103201 doi: 10.11884/HPLPB201527.103201 [4] Girshick R, Donahue J, Darrelland T, et al. Rich feature hierarchies for object detection and semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition. 2014. [5] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 39(6): 1137-1149. [6] Girshick R. Fast R-CNN[C]//Proc of IEEE International Conference on Computer Vision. 2015: 1440-1448. [7] He K, Gkioxari G, Dollár P, et al. Mask R-CNN[C]//IEEE International Conference on Computer Vision. 2017: 2980-2988. [8] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//European Conference on Computer Vision. 2016: 21-37. [9] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//IEEE Computer Vision and Pattern Recognition. 2016: 779-788. [10] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger[C]//IEEE Conference on Computer Vision and Pattern Recognition. 2017: 6517-6525. [11] Redmon J, Farhadi A. YOLOv3: An incremental improvement[C]//IEEE Conference on Computer Vision and Pattern Recognition. 2018: 89-95. [12] 王琳, 卫晨, 李伟山, 等. 结合金字塔池化模块的YOLOv2的井下行人检测[J]. 计算机工程与应用, 2019, 55(3): 133-139. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG201903022.htmWang Lin, Wei Cheng, Li Weishan, et al. Pedestrian detection based on YOLOv2 with pyramid pooling module in underground coal mine. Computer Engineering and Applications, 2019, 55(3): 133-139 https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG201903022.htm [13] 周云成, 许童羽, 邓寒冰, 等. 基于面向通道分组卷积网络的番茄主要器官实时识别[J]. 农业工程学报, 2018, 337(10): 161-170. https://www.cnki.com.cn/Article/CJFDTOTAL-NYGU201810019.htmZhou Yuncheng, Xu Tongyu, Deng Hanbing, et al. Real-time recognition of main organs in tomato based on channel wise group convolutional network. Transactions of the Chinese Society of Agricultural Engineering, 2018, 337(10): 161-170 https://www.cnki.com.cn/Article/CJFDTOTAL-NYGU201810019.htm [14] 吴天舒, 张志佳, 刘云鹏, 等. 结合YOLO检测和语义分割的驾驶员安全带检测[J]. 计算机辅助设计与图形学学报, 2019, 31(1): 126-131.Wu Tianshu, Zhang Zhijia, Liu Yunpeng, et al. Driver seat belt detection based on YOLO detection and semantic segmentation. Journal of Computer-Aided Design and Computer Graphics, 2019, 31(1): 126-131 [15] 李策, 张亚超, 蓝天, 等. 一种高分辨率遥感图像视感知目标检测算法[J]. 西安交通大学学报, 2018, 52(6): 14-21. https://www.cnki.com.cn/Article/CJFDTOTAL-XAJT201806002.htmLi Ce, Zhang Yachao, Lan Tian, et al. An object detection algorithm with visual perception for high-resolution REM. Journal of Xi'an Jiaotong University, 2018, 52(6): 14-21 https://www.cnki.com.cn/Article/CJFDTOTAL-XAJT201806002.htm [16] Jégou S, Drozdzal M, Vazquez D, et al. The one hundred layers tiramisu: Fully convolutional DenseNets for semantic segmentation[C]//Computer Vision and Pattern Recognition. 2017: 1175-1183. [17] Kudo Y, Aoki Y. Dilated convolutions for image classification and object localization[C]//IEEE Fifteenth Iapr International Conference on Machine Vision Applications. 2017: 452-455. 期刊类型引用(1)
1. 孙桂煌,姜忠海. 深度学习理论的复杂光照背景车位智能检测和识别研究. 激光杂志. 2021(04): 81-85 . 百度学术
其他类型引用(2)
-