现在的位置:主页 > 期刊导读 >

基于改进YOLOv3-LITE轻量级神经网络的柑橘识别(2)

来源:果树资源学报 【在线投稿】 栏目:期刊导读 时间:2020-10-13

【作者】:网站采编
【关键词】:
【摘要】:1 材料与方法 1.1 试验数据的采集 柑橘图像的采集地为广东省梅州市柑橘果园,使用数码相机、高清手机等多种设备拍摄距离1 m左右的自然光照下柑橘树冠

1 材料与方法

1.1 试验数据的采集

柑橘图像的采集地为广东省梅州市柑橘果园,使用数码相机、高清手机等多种设备拍摄距离1 m左右的自然光照下柑橘树冠图像,拍摄角度朝东南西北4个方向,并采集树冠下方含阴影的果实,共采集原始图片500张,图像包括阴天、晴天、雨天,涵盖顺光、逆光等所有光照情况。为保证柑橘图像数据的多样性,通过网络爬虫获取200张柑橘照片,挑选出120张,所得数据集为620张。

1.2 数据增强

使用Matlab工具对原始数据集进行数据扩增,对原始图像进行旋转,旋转角度随机取-30°、-15°、15°、30°;对原始图像随机进行镜像翻转、水平翻转、垂直翻转;通过裁剪以及缩放等方式进行扩展数据集;通过调整饱和度和色调、直方图均衡化、中值滤波等图像处理技术对数据进行增强。考虑到数据增强会导致图片中图像形状变化以及质量变化较为严重,对每张图片随机采用以上一种方式进行扩增,得到1 240张,筛选出符合试验的数据作为最终的数据集,最终数据集为1 130张。

1.3 数据集准备

将上述数据集使用labelImg工具对检测目标进行标记。考虑标签和数据的对应关系以及确保数据集分布统一,使用Matlab工具将数据集按照70%、10%、20%的比例随机拆分为训练集、验证集、测试集,其中训练集含边框标注样本为7 148个,验证集含边框标注样本为1 006个,测试集含边框标注样本为2 243个。将最终数据集按照PASCAL VOC数据集的格式存储,再将测试集分为2部分:目标平均遮挡程度小于30%的数据集(轻度遮挡,用A表示)、目标平均遮挡程度大于30%且较密集的数据集(重度遮挡,用B表示)。其中,测试集A包含标注样本682个,测试集B包含标注样本1 561个,最终数据集如表1所示。

表1 数据集及其数量Table 1 Data sets and size数据集Dataset训练集Training set验证集Validation set测试集Test set总数量Total number AB 图片个数Number of images51 130 轻度遮挡样本个数Number of lightly obscured samples2 3 252 重度遮挡样本个数Number of severely obscured samples4 5617 145

2 改进的YOLOv3-LITE柑橘识别网络

2.1 YOLOv3网络模型

YOLO网络模型是一种one-stage的方法,YOLO将输入图像分成S×S个格子,如果一个物体的中心落在某个网格内,则对应的网格负责检测该物体。其中,YOLOv1将输入图像的尺寸改为448×448,然后送入CNN网络训练,采用非极大抑制算法进行预测,YOLOv1对小目标检测效果不好,定位也不够精确。Redmon等[29]提出的YOLOv2吸收了Faster R-CNN中RPN的思想,去掉YOLOv1中的全连接层,加入Anchor Boxes,提高了召回率,且提出k-means聚类计算Anchor Boxes,Average IoU也提升了,但对小目标检测效果一般。YOLOv3在YOLOv2的基础上进行了一些改进,加深了网络,提出了多标签分类预测,使用逻辑回归(logistic regression)对方框置信度进行回归,同时提出了跨尺度预测,使用类似FPN(feature pyramid networks)的融合做法,在多个尺度的特征图上进行位置和类别预测,对小目标的检测效果提升明显。在类别预测中,YOLOv3不使用Softmax函数对每个框分类,而是对每个类别独立地使用逻辑回归,在训练过程中,使用二元交叉熵损失(binary cross-entropy loss)来进行类别预测,可以更好地处理多标签任务。YOLOv3目标检测网络损失函数如式(1)所示。

(1)

式中i表示第i个方格,j表示该方格预测出的第j个方框;obj表示含有目标,noobj即没有目标,Ci为预测目标的类别,为真实目标的类别,λcoord、λnoobj是惩罚系数。损失函数包括5个部分,第1项包含预测和实际的x、y坐标,该部分是计算预测的中心坐标的损失;第2项包含预测和实际的宽和高,即w、h,该部分是计算预测边界框的宽高的损失;第3项是方框置信度损失,回归目标是预测方框与实际方框的IoU值;前3项都只在预测方框和实际方框有对应关系时才计算损失;第4项是没有对应物体的方框置信度损失,3、4项是计算预测的置信度损失,第5项是分类损失,当方格中有物体时,才计算分类损失。

2.2 改进的YOLOv3-LITE轻量级神经网络模型设计

2.2.1 基于GIoU的边框回归损失函数

IoU为预测框与原来图片中标记框的重合程度,目标检测领域常使用边框回归IoU值作为评价指标。但是,大部分检测框架没有结合该值优化损失函数,IoU可以被反向传播,它可以直接作为目标函数去优化。考虑到优化度量本身与使用替代的损失函数之间的选择,最佳选择是优化度量本身。作为损失函数,传统IoU有两个缺点:如果2个对象不重叠,IoU值将为零,则其梯度将为零,无法优化;2个物体在多个不同方向上重叠,且交叉点水平相同,其IoU将完全相等,IoU无法精确的反映两者的重合度大小,如图1所示,3个不同的方法重叠两个矩形具有完全相同的IoU值,但他们的重合度是不一样的,最左边的图回归的效果最好,最右边的回归效果最差,其中最右边的图预测边框为旋转候选边框[34]。因此,IoU函数的值并不能反映两个对象之间如何发生重叠。在柑橘采摘机器人的果实识别中,回归框位置的精确度直接决定了机器手采摘的成功率。因此,该文提出通过引入GIoU来解决IoU的缺点。IoU取值[0,1],而GIoU有对称区间,取值范围[-1,1],在两者重合的时候取最大值1,在两者无交集且无限远的时候取最小值-1。因此,GIoU是一个非常好的距离度量指标,与IoU只关注重叠区域不同,GIoU不仅关注重叠区域,还关注其他的非重合区域,能更好的反映两者的重合度,GIoU Loss可以替换掉大多数目标检测算法中边框回归的损失函数,如式(2)-(5)所示。

文章来源:《果树资源学报》 网址: http://www.gszyxb.cn/qikandaodu/2020/1013/483.html

上一篇:果树在动物园景观绿化中的应用
下一篇:果树在园林绿化建设中的应用探讨

果树资源学报投稿 | 果树资源学报编辑部| 果树资源学报版面费 | 果树资源学报论文发表 | 果树资源学报最新目录
Copyright © 2018 《果树资源学报》杂志社 版权所有
投稿电话: 投稿邮箱: