魏甫豫,张振宇,梁桂珍
(1.河北工程大学 园林与生态工程学院,河北 邯郸 056000;
2.新乡学院 a.美术学院;b.数学与统计学院,河南 新乡 453000)
我国作为占世界近四分之一人口的大国,粮食问题直接影响人们的物质生活水平,关系到国家的稳定.农业是我国重要的基础产业,虫害是影响粮食生产的重要限制条件之一,因此虫害防治就显得尤为重要.但昆虫种类众多,目前已知的种类超过百万.对于不同种类的虫害也需要有相应针对性的防治措施.因此高效快速准确识别昆虫种类是有效防治虫害的前提.在农作物虫害识别及预测领域,我国传统方法且目前仍普遍使用的办法多是早期传统人工类识别方法,即对昆虫种类的识别都是基于人工调查,如目测法、拍打法、扫网法、诱捕法[1]等,大多通过昆虫专家或相关领域学者对昆虫进行人工识别,其准确性精准度取决于相关调查专家的专业水平,且现有昆虫学领域相关专家和专业人员无法满足分布广泛、各类场景的实际应用需求.因此这类方法局限性很大,效率低下,费时费力,很难做到高效率快速识别,不是最佳的监测识别方法.随着人工智能机器学习的快速发展,特别是在深度学习领域各种算法不断涌现,使得在昆虫种类图像领域方面进行高效快速准确的识别成为可能.
在深度学习领域,CNN即卷积神经网络是一种在图像分类识别领域极具优势的方法.其结构包含输入层、隐含层和输出层,且卷积神经网络的隐含层包含卷积层、池化层、全连接层,这个五层结构是一个标准的卷积神经网络模型.卷积层作为重要的核心模块,它包含多个卷积核,可以从输入图像中提取特征.池化层可以重新提取卷积层的特征,即多重滤波增强特征信息.全连接层将提取的特征结合起来,以便最终使用softmax进行目标分类.首个标准深度卷积神经网络是由LeNet-5[2]开始,其模型在灰度图像手写体字符识别方面有着很高的识别率,其也含有标准CNN网络结构.随后在2012年AlexNet[3]网络在ImageNet大赛有着突出表现,AlexNet网络将激活函数Sigmoid[4]替换成ReLU[5],ReLU函数具有梯度稳定的特点,解决了神经网络中梯度弥散的问题.自此,基于卷积神经网络的算法和模型大量出现,并在计算机视觉领域迅速发展.
随着模型深度越来越深,模型复杂度也不断增加.后续产生了一系列模型网络,如Google提出的googLeNet[6]网络模型,由牛津大学视觉几何计算组提出的VGG[7]模型等.而由微软提出的ResNet[8]残差网络解决了神经网络深度增加带来网络退化的问题,缓解了深度神经网络增加深度梯度消失的难题.其模型优化方便,性能有了大幅提升.卷积神经网络在图像识别领域之所以能被广泛应用并取得显著效果的关键在于它的两个特点,即局部连接和权值共享方式.局部连接指CNN与ANN神经元全连接不同,而是进行部分连接,好处是在特定视域下每个卷积核都可以专注于一种特征.权值共享意味着在同层中的卷积核参数共享,并且可以直接输入图像,较传统图像识别复杂图像特征提取方法更优.
使用卷积神经网络进行图像识别虽然有很大的优势,但其对数据集的要求较高,并且需要大量标记数据集进行训练.迁移学习是深度学习中一种非常重要的方法.在图像识别领域,采用预训练模型作为新任务的第一个模型来训练新任务的数据集.其目的是使用预训练模型的权重和参数重新训练新的数据集,加快新模型的收敛速度,减少对数据集中数据量的需求,并减少数据不足导致的模型过度拟合.简而言之,旧领域(即源领域)的学习模型将应用于新领域(即目标领域)上.迁移学习有多种类型,例如基于样本、特征、参数和关系的迁移学习.在实践中,使用迁移学习可以节省从头开始训练新的神经网络的时间.因为由个人创建像ImageNet这样庞大数据集是不现实的.在大多数情况下,在特定的实际应用场景中很少有标记的数据集.因此,使用预训练模型进行微调是一个非常好的选择.
当前已有很多专家学者对不同种类的昆虫进行了研究,成果显著.彭明杰[9]构建了蜻蜓识别系统,张瑞瑞等[10]首次将基于神经网络方法运用于松材线虫病变色木识别方面,薛大暄等[11]设计了一种识别模型IHCDM结合Inception _ v2 网络的 Faster R-CNN,对单一种类物体进行目标检测有良好的检测效果,对美国白蛾可达到99.5%识别率.王卫民等[12]构建了昆虫图像分割的Insect-Net模型,基于U-Net可将图片背景与目标昆虫进行分离并计数.王茂林等[13]设计的自动化计数软件运用 OpenCV和 VGG相结合,可以精准对蓟马进行预测预报.陈彦彤等[14]提出了蝇类面部识别模型,此模型将蝇类面部轮廓和具体部位进行特征提取,结果表明对蝇类面部识别准确率可达94.03%.张银松等[15]设计了一种改进的目标检测算法,将Faster-RCNN主干网络由ResNet50代替VGG16,可以更有效地提取小昆虫的特征,减少密集昆虫区域漏检.由此可见,在昆虫种类图像识别领域,已有许多学者开展了相关研究,且取得了较为显著的结果.但基于以上研究表明,目前已有研究大多为特定场景下优化阶段,未能在实际应用场景下落地部署发布.
深度学习领域的技术已日趋成熟,尤其在图像识别领域的卷积神经网络及目标检测算法在不断优化与迭代.在昆虫种类图像识别领域获得了显著的研究结果,并有了极大的发展.在实际应用领域,已有相关科研单位及高校与科技公司进行项目合作,探索开发出了多款昆虫图像识别APP产品,如慧植农当家、植保家等APP.但仍有不足,一方面是由于日常实际应用场景下获取识别图像的干扰较大,在不同场景下其算法模型难以适用.另一方面,由于昆虫种类众多,需要大量的昆虫图像数据集来对算法模型进行训练.而现有昆虫数据集大多是某一些昆虫种类或针对特定科研目的场景下昆虫集合的数据集,其种类及数量都相对有限,目前尚未有较为完善的昆虫种类数据集来支撑.因此其数据集训练的对应算法模型就不能满足实际应用场景下昆虫识别的普适性需求.由此可见,进行构建模型到端的场景化研发应用就显得非常重要且势在必行了.
为实现模型到端的基于场景化研发应用需求,本文基于kaggle开源昆虫数据集,利用开源工具Paddle,基于ImageNet的预训练模型采用两种目前比较流行的卷积网络结构MobileNetV2和ResNet50_vd_ssld进行迁移学习训练.本实验模型训练环境为Windows10版X64_64bit操作系统,Intel i5-4590CPU处理器,Intel(R)HDGraphics 4600显存,8 GB内存.
3.1.1数据准备
本实验模型到端场景化应用研究的数据集以kaggle平台上的昆虫开源数据集arthropod-taxonomy-orders-object-detection-dataset作为实验数据集,简称ArTaxOr数据集.kaggle是2010年由Anthony Goldbloom在墨尔本创立的平台,作为一个为开发者和数据科研学家提供机器学习竞赛与分享数据编程等功能的平台.ArTaxOr数据集共15 376张图片,占12.06 GB大小.图像大多拍摄于自然条件下的场景,包含7类数据, Araneae,Coleoptera,Diptera,Hemiptera,Hymenoptera,Lepidoptera,Odonata,即蜘蛛目、鞘翅目、双翅目、半翅目、膜翅目、鳞翅目和蜻蜓目.每类目昆虫包含2 000余张图片,共计15 000余张图片.
3.1.2数据预处理
考虑CNN算法在图像视点变化及对数据波动变化处理能力的不足,如出现目标在图像中不同位置,有不同角度、包含不同背景、以不同光照强度的情况.为了使训练模型具有更好鲁棒性并提高拟合度,在进行数据集训练前,需要对数据进行预处理.对数据集进行数据增强优化策略,随机对图像进行水平翻转、垂直翻转进行位置改变,进行随机亮度、随机对比度调整,并进行图像归一化Normalize处理,进而扩充数据集,提高模型泛化能力.
利用Paddle内置工具命令对本实验数据集进行数据划分,将数据划分为训练集、验证集和测试集.执行命令需要提前在对应实验PC机上预安装Paddle,通过pip安装命令可进行快速安装Paddle.命令执行可将数据集随机划分为70%的训练集,20%验证集,10%的测试集.并自动在对应目录下生成labels.txt,train_list.txt,val_list.txt,test_list.txt 4个文件,即标签文本、训练集文本、验证集文本和测试集文本.命令行如下:
paddlex--split_dataset--format ImageNet--dataset_dir ArTaxOr--val_value 0.2--test_value 0.1.
3.1.3模型训练
Paddle作为基于飞桨核心框架、开发套件及深度全流程的开发工具,内置了20余种图像分类模型网络,包括适用于移动端的MobileNet系列网络,及适用于服务器端的其他类型,如ResNet系列,DenseNet[16]系列等内置模型网络.由微软提出的ResNet残差网络解决了神经网络深度增加导致的网络退化问题,缓解了深度神经网络增加深度梯度消失的难题.其模型易优化,性能有了大幅提升.至今ResNet都仍是非常稳定的CNN骨架网络,而其模型深度也已达152层之多.经典流行的ResNet虽然在识别效果上有足够精准度,但其模型参数量和训练计算量巨大,在某些实际场景下,这些过于庞大且复杂的模型难以应用于嵌入式设备或移动终端.因此更适合移动端的轻量级CNN模型设计就应运而生.MobileNet系列是轻量级经典网络模型.谷歌在2017年提出了MobileNetV1[17],其最重要的创新是提出了深度可分离卷积(depthwise separable convolution),其主要作用是将传统网络中的卷积分离成两步来进行,分别为depthwise和pointwise.这样的好处是比传统卷积神经网络减少了几倍的计算量,其缺点是会损失一定的精度.MobileNetV1在网络深度上已经减少到28层,但其泛化能力较强,保持了较高的网络鲁棒性.2018年谷歌提出MobileNetV2[18],较之MobileNetV1引入了Inverted Residuals和Linear Bottlenecks,即反向残差和线性瓶颈,虽然网络为54层,但优化了网络结构,模型体积更小,速度更快.
适用于服务器端ResNet系列中的ResNet50_vd_ssld模型网络大小为103.5 MB,在ImageNet数据集上Top1准确率有82.4%,Top5准确率有96.1%,相比于此系列的其他模型网络在体积大小适合的同时也保持有更高精度.适用于移动端MobileNet系列中的MobileNetV2模型网络大小为15.0 MB,在ImageNet数据集上Top1准确率有72.2%,Top5准确率有90.7%,相比于此系列的其他模型网络在较小体积的同时也保持有较高精度.因此本实验采用了轻量级较具代表性MobileNet系列中的模型小预测快速的MobileNetV2与经典模型ResNet系列中模型精度高的ResNet50_vd_ssld两种模型网络进行数据集训练.实验MobileNetV2网络与ResNet网络采用在ImageNet上训练模型作为预训练模型,并对MobileNetV2网络不进行加载预训练模型作为参照组.针对本实验数据集,对Paddle训练接口的内置参数进行fine-tune.最主要核心参数调整如下:
pretain_weights(str):即预训练模型.若为指定路径,则加载路径下预训练模型;若为字符串"IMAGENET",则自动下载imagenet数据集的预训练模型权重;
若为None,则不进行预训练模型加载.默认为"IMAGENET".本实验使用"IMAGENET"为预训练模型,并采用None作为不进行加载预训练模型的参照组.
num_epochs(int):训练迭代轮数,即模型对所有样本数据训练集训练一轮就是一个epoch.本实验参数设置为8.
learning_rate(float):本实验采用默认初始学习率0.025.
train_batch_size(int):训练数据批大小,默认为64.batch_size设定大小跟实验环境所需的GPU或CPU相关,设定值越大,对相应显存或内存消耗越大.本实验设置参数为100.
save_interval_epochs(int):模型保存迭代轮数间隔,本实验采用默认值1,即为每一轮进行一次模型保存.
lr_decay_gamma(float):默认优化器的学习率衰减率.默认为0.1.
lr_decay_epochs(list):默认模型优化器的学习率衰减轮数,默认为[30,60,90].本实验采用[4,6,8],即学习率在第4个epoch,第6个epoch和第8个epoch进行衰减.每一次衰减为上次学习率与 lr_decay_gamma的乘积,即每次衰减为之前学习率的0.1.
3.1.4模型训练结果
基于不同预训练模型的训练预测值汇总如表1所示.
表1 基于不同预训练模型的训练结果
对比不加载预训练模型MobileNetV2模型网络与加载ImageNet模型的MobileNetV2模型网络,Top1预测精准度分别为0.294 6和0.746 0,Top5预测精准度分别为0.861 1和0.982 1.训练结果可以明显看出,运用迁移学习加载预训练模型的网络能更高效对目标数据集进行模型训练,且结果更加收敛,鲁棒性高.对比加载ImageNet的MobileNetV2模型网络和ResNet50_vd_ssld模型网络,在Top1预测精准度上,ResNet50_vd_ssld比MobileNetV2高近14个百分点,在Top5预测精准度上,ResNet50_vd_ssld比MobileNetV2高1.37个百分点.训练的结果可以明显看出,ResNet50_vd_ssld模型网络在同等条件下训练所得模型各个指标均高于MobileNetV2模型网络.但若考虑其二者的模型大小、模型训练预测时长及预测Top5准确率的差异,MobileNetV2模型网络其综合性能比更高,相对于ResNet50_vd_ssld模型网络更适用于部署发布应用,即符合MobileNetV2适用于移动端开发部署的要求.
3.1.5模型结果保存
Paddle在训练时,可根据训练接口的save_interval_epoch参数进行保存模型,保存模型目录中的model.pdparams包含"_model_","_params_"和"model.yml"3个文件."_model_"即为网络结构的相关信息."_params_"为包括网络模型的参数权重信息.这两个文件也是作为后续EasyEdge开源平台模型部署发布所必需的信息文件.
目标检测的产生源于传统CNN网络无法对图像内对应目标进行定位,只能进行相应的分类且不能对多目标物体进行检测.而目标检测算法的出现和发展,大大加速了图像目标定位的实现.目标检测实现了图像中目标对象的定位和分类两重性问题,且更进一步解决了多目标的分类及定位问题.使得图像识别应用领域更广泛,运用场景更加多元化.其算法核心在于对定位目标的锚点Anchor设定,即选取候选框.针对Anchor设定不同,大致可分为Anchor-Based算法和Anchor-Free算法两大类.Anchor-Based算法中针对Anchor是否和目标分类同时进行检测,可分为两阶段算法和单阶段算法.两阶段算法指先在图像上选取候选框,再对候选框目标进行分类,其代表是Faster R-CNN[19],提出RPN(Region proposal network区域建议网络)代替SS(selective search),提高精度同时还大大减少了目标候选框数量,提升了速度.单阶段算法的代表是YOLO[20]算法,单阶段算法速度远大于两阶段算法,且对于目标定位的精准度也没有较大损失.
3.2.1数据准备
采用百度开源Insect_det数据集作为目标检测数据,此数据集涵盖共6大种类,包括leconte,boerner,armandi,linnaeus,coleoptera,acuminatus,共计217张标注图像.
其数据标注采用VOC数据格式,即每张图像含有同名XML文件.其包括图像尺寸大小,目标物体类别、坐标等信息.具体字段如下所示:
图像名称:
图像尺寸,包括宽度、高度和深度:
目标名称及坐标,还有一些如目标对象姿态、目标被截断原因、和识别难易程度等非必须字段:
3.2.2数据预处理
考虑目标检测数据集作为一个小样本集,为使训练模型具有更好鲁棒性并提高拟合度,在进行训练前,也对其进行预处理.对数据集进行数据增强优化策略,如随机对图像进行水平翻转、垂直翻转进行位置改变,进行随机亮度、随机对比度调整.进而扩充数据集.并对数据集按照70%的训练集,20%验证集,10%的测试集划分.
3.2.3模型训练
框架采用Paddle,其内置包含如FasterRCNN及Yolo系列等具有代表性的目标检测模型网络.本文采用两阶段具有代表性的FasterRCNN-ResNet50网络,及单阶段Yolo系列的YoloV3-MobileNetV3,PPYoloTiny-MobileNetV3网络进行训练.
其各自核心参数是FasterRCNN-ResNet50:运用两阶段FasterRCNN与以ResNet50为主干网络,采取在COCO数据集上的预训练模型,输入图像尺寸为800×1 333,迭代轮数为12,学习率为0.002 5,Batch size为2,学习衰减轮数为[8,11];
YoloV3-MobileNetV3:运用单阶段YoloV3与以MobileNetV3为主干网络,采取在COCO数据集上的预训练模型,输入图像尺寸为608×608,迭代轮数为100,学习率为0.004 167 7,Batch size为8,学习衰减轮数为[50,90];
PPYoloTiny-MobileNetV3:运用单阶段PPYoloTiny与以MobileNetV3为主干网络,采取在COCO数据集上的预训练模型,输入图像尺寸为608×608,迭代轮数为100,学习率为0.004 167 7,Batch size为8,学习衰减轮数为[50,90].
与图像分类衡量网络准确率的Top1与Top5不同,目标检测的衡量网络性能有几个常见指标:IoU阈值:目标检测的测量符合条件依据IoU阈值判定,其表示预测框和真实标签框的交集与预测框和真实标签框的并集比值,常规设定为0.5,TP表示正样本被识别正确的总量,FP表示负样本被错误识别为正样本的总量即误报量,FN表示正样本被识别为负样本的总量即漏报量.precision(P)表示找出正确框数量概率,即精准度.recall(R)表示找出正确框的比例,即召回率.PA表示各类别目标平均精度值,也是由PR曲线面积所表示。PR曲线面积表示精准度和召回率所形成的面积,用积分计算.mPA表示所有类别的PA均值.公式如下所示:
精准度precison(P)公式为
召回率recall(R)公式为
3.2.4模型训练结果
采用COCO预训练模型的FasterRCNN-ResNet50网络训练结果如图1所示.
运用FasterRCNN-ResNet50网络训练在精准率上最高的一类为acuminatus的0.800 0,最低的一类为coleoptera的0.486 5;
在召回率上最高的一类为boerner的0.968 8,最低的一类为acuminatus的0.695 7;
在AP上最高一类为boerner的0.969 4,最低一类为acuminatus的0.767 2.6大类别整体平均精准率即mAP为0.878 2.
采用COCO预训练模型的YoloV3-MobileNetV3网络训练结果如图2所示.
运用YoloV3-MobileNetV3网络训练在精准率上最高的一类为boerner的0.965 5,最低的为coleoptera与armandi两类,同为0.680 0;
在召回率上最高的一类为leconte的0.921 6,最低的一类为acuminatus的0.565 2;
在AP上最高一类为boerner的0.969 1,最低一类为acuminatus的0.772 1.6大类别整体平均精准率即mAP为0.877 2.
采用COCO预训练模型的PPYoloTiny-MobileNetV3网络训练结果如图3所示.
运用PPYoloTiny-MobileNetV3网络训练在精准率上最高的一类为leconte的0.770 5,最低的一类为armandi的0.380 0;
在召回率上最高的一类为linnaeus的1.000 0,最低的一类为acuminatus的0.478 3;
在AP上最高一类为boerner的0.932 0,最低一类为armandi的0.398 2.6大类别整体平均精准率即mAP为0.712 1.
对比目标检测网络训练结果可知,由FasterRCNN-ResNet50及YoloV3-MobileNetV3训练所得模型网络mAP指标较好,考虑模型大小、训练时长及模型响应时间等性能指标,YoloV3-MobileNetV3训练模型更适用于部署发布应用,即适用于边缘设备开发部署的要求.
3.2.5模型结果保存
Paddle在训练时,可根据训练接口的save_interval_epoch参数进行保存模型,与目标分类产生文件信息不同,网络结构信息文件名为model.pdmodel,网络参数文件为model.pdiparams.这两个文件也是作为后续EasyEdge开源平台模型目标检测部署发布所必需的信息文件.
训练完成的模型往往并不能直接在端的产品级应用,需要根据不同型号不同硬件配置的服务端或移动端来进行针对性的部署和发布,如较为便捷的方式利用Docker开源应用容器进行打包,将应用包到一个可移植的镜像中,其可在Windows或Linux系统上发布,但其最大一个局限性是不能在32 bit的Linux或Windows环境下使用.而开源EasEdge可以解决所有关于模型最终发布为端产品的局限性问题.提供了统一方案和开源平台,让开发者能更高效率将训练模型发布于APP产品或应用于服务端,嵌入式设备中.
本实验采用百度开源服务平台EasyEdge,可将训练好的模型快速转化并发布成到端的模型应用.其产品包含模型中心,纯离线服务,端协同服务三大功能模块部分.模型应用部分包括自建模型和开源模型两类.开源模型涵盖近10多种开源模型,包括图像分类及目标检测等.本实验利用自建模型功能,训练模型发布使用方式如下,选择模型中心的上传本地模型模块.如图4所示.
模型类型内置图像分类、物体检测、人脸检测、姿态估计、语义分割5种主流方式,模型框架涵盖了几乎所有现今主流框架,如caffe,TensorFlow,PyTorch等,且其对应框架下也几乎涵盖目前主流所有模型网络.如图像分类中的AlexNet,VGG系列,MobileNet系列,ResNet系列等近20余种,物体检测中的SSD,FasterRCNN,Yolo系列,PP-Yolo系列等.
部署昆虫图像分类模型网络:在自定义模型名称中将本实验模型名称定为kaggle-Insect.本实验选择模型的类型为图像分类,采用PaddlePaddle框架,模型网络使用MobileNet系列的MobileNetV2.网络结构采用MobileNetV2训练模型的_model_,网络参数使用MobileNetV2训练模型的_params_,模型标签使用对应实验数据集的标签文本即label.txt.选好相应配置及上传相关内置参数文件后,点击校验并提交模型功能按钮.
部署昆虫目标检测模型网络:在自定义模型名称中将本实验模型名称定为Yolo-Insect.本实验选择模型的类型为目标检测,采用PaddlePaddle框架,模型网络使用Yolo系列的YoloV3.网络结构采用YoloV3-MobileNetV3训练模型的model.pdmodel,网络参数使用YoloV3-MobileNetV3训练模型的model.pdiparams,模型标签使用对应实验数据集的标签文本即label.txt.选好相应配置及上传相关内置参数文件后,点击校验并提交模型功能按钮.
在平台进行系统校验后会自动分配模型ID及显示对应模型名称,模型类型以及后续SDK操作功能.应用生成端模型功能,会显示相应发布离线SDK界面(如图5).端模型提供模型网络相适用的各类芯片硬件、操作系统.其芯片硬件涵盖目前市面主流各类厂商产品,包括服务端与移动端,如通用x86芯片、通用ARM芯片、苹果A-Bionic、高通骁龙GPU与DSP、华为海思NPU、英特尔系列处理器、英伟达GPU等.操作系统也包括目前主流的移动端Android、IOS与服务器端Windows、Linux.并且可支持单模型多版本SDK发布.
在进行多版本设置进行发布后,平台系统会自动校验并生成对应版本SDK.在全部模型界面下可以看到目前版本生成状态.已发布的模型版本可以进行获取SDK,Demo体验下载等操作.运用手机浏览器进行对应SDK二维码扫描即可下载对应版本SDK应用.最终实现模型到边缘产品的发布流程.
本文在昆虫种类识别领域技术基础方面对卷积神经网络CNN及其发展的脉络进行说明,并对目前深度学习应用于图像分类、目标检测方面的主流模型网络进行梳理,介绍了迁移学习相关的原理,结合目前昆虫种类研究识别现状,提出了一种模型到边缘的落地场景的全流程开发应用实现方法.以深度学习图像分类及目标检测两方面主流模型网络为主,本文在图像分类上采用kaggle开源昆虫数据集作为实验数据集,运用Paddle开源框架工具,采用基于ImageNet的预训练模型并对比两种目前比较流行的卷积神经网络结构MobileNetV2和ResNet50_vd_ssld进行迁移学习训练.在目标检测上采用百度开源昆虫数据集作为实验数据集,采用基于COCO的预训练模型并对比两阶段有代表性的FasterRCNN及单阶段具有代表性的Yolo系列两种网络进行迁移学习训练.并对其实验效果较好的图像分类中MobileNetV2训练模型及目标检测中YoloV3-MobileNetV3训练模型在EasyEdge上进行部署发布,生成了应用于移动端的SDK版本.完成了从模型构建到端的落地场景的全流程开发应用实现,为后续昆虫图像识别在场景化应用方面的研究提供依据参考.本实验也存在一定局限性,如在数据集上未采用细分类数据集,只是划分到目级,对于科级和种级未进行探究实验,对于像昆虫种类较为细化的图像识别领域训练模型不够细化,目标检测场景化数据性较弱.这也是今后需要继续深入研究的方向.
猜你喜欢昆虫卷积神经网络RFID昆虫阅读放大镜玩具世界(2022年3期)2022-09-20基于3D-Winograd的快速卷积算法设计及FPGA实现北京航空航天大学学报(2021年9期)2021-11-02借昆虫上课甘肃教育(2020年2期)2020-09-11卷积神经网络的分析与设计电子制作(2019年13期)2020-01-14神经网络抑制无线通信干扰探究电子制作(2019年19期)2019-11-23从滤波器理解卷积电子制作(2019年11期)2019-07-04基于神经网络的中小学生情感分析电子制作(2019年24期)2019-02-23我最喜欢的昆虫——知了小学生优秀作文(低年级)(2018年9期)2018-09-10基于傅里叶域卷积表示的目标跟踪算法北京航空航天大学学报(2018年1期)2018-04-20昆虫的冬天小学生必读(低年级版)(2018年11期)2018-03-13扩展阅读文章
推荐阅读文章
老骥秘书网 https://www.round-online.com
Copyright © 2002-2018 . 老骥秘书网 版权所有