基于滑动窗口暗网-YOLO深度学习的车牌自动识别外文翻译资料

 2022-08-11 14:51:49

英语原文共 2 页,剩余内容已隐藏,支付完成后下载完整资料


摘要

车牌自动识别(ALPR)是智能交通系统和图像识别领域的一个重要研究课题。在这项工作中,我们使用You Only Look Once(YOLO)-暗网深度学习框架来解决车牌检测的问题。本文利用YOLO的7个卷积层来检测单个类。该检测方法是一个滑动窗口处理,目的是为了识别台湾的汽车牌照。我们使用包含6位数字的汽车牌照的AOLP数据集。滑动窗口检测车牌的每个数字,然后由单个YOLO框架检测每个窗口。该系统对车牌检测的准确率约为98.22%,对车牌识别的准确率为78%。该系统在执行单个检测识别阶段时,对每个输入图像进行处理需要大约800 ms到1s。系统还在不同的复杂情况下进行了测试,如下雨情景,黑暗及昏暗状态,不同的颜色以及不同饱和度的图像。

关键词:自动车牌识别;深度学习;YOLO网络

Abstract

Automatic License Plate Recognition (ALPR) is an important research topic in the intelligent transportation system and image recognition fields. In this work, we address the problem of car license plate detection using a You Only Look Once (YOLO)-darknet deep learning framework. In this paper, we use YOLOs 7 convolutional layers to detect a single class. The detection method is a sliding-window process. The object is to recognize Taiwans car license plates. We use an AOLP dataset which contained 6 digit car license plates. The sliding window detects each digit of the license plate, and each window is then detected by a single YOLO framework. The system achieves approximately 98.22% accuracy on license plate detection and 78% accuracy on license plate recognition. The system executes a single detection recognition phase, which needs around 800 ms to 1 s for each input image. The system is also tested with different condition complexities, such as rainy background, darkness and dimness, and different hues and saturation of images.

Key Words:Automatic License Plate Recognition:Deep learning:YOLO network

目 录

第1章 绪论 1

第2章 研究现状 3

2.1车牌检测与识别 3

2.2 You Only Look Once(YOLO) 3

第3章 拟定方法 5

3.1汽车牌照与目标检测 6

3.2定位 8

第4章 实验装置 10

4.1数据集 10

4.2训练 11

第5章 实验结果 12

5.1车牌检测 14

5.2车牌识别 15

第6章 结论 16

致谢 17

参考文献 18

第1章 绪论

随着近年来智能交通系统和图形处理单元(GPU)支持深入学习计算技术的发展,汽车牌照自动检测与识别(ALPR)已成为一个值得关注的研究领域。ALPR在交通运输中有许多潜在的应用领域。人们提出了先进的计算机视觉技术和人工智能算法来识别车辆牌照。ALPR通常由四个步骤组成:图像采集、目标检测、分割和光学字符识别[1]、[2]

ALPR的第一步是图像采集。图像可以从视频、图像集合和摄像机中提取。通常,在研究领域,图像收集是由一个开放的数据集提供。第二步是检测图像中的车牌。此阶段通常发生在对象检测步骤中。边缘检测是车牌检测中常用的一种方法。除了边缘检测之外,人们还提出了许多解决车牌检测问题的算法。在检测到车牌后,进行到分割阶段,该阶段将区域划分为用于检测数字和字母的位置。最后一步是将每个分割区域识别为数字和字母来读取车牌。最近的研究将ALPR阶段划分为两个主要阶段,即车牌检测阶段和目标识别阶段[[1]、[3]-5]。这些算法将耗时及计算繁琐的检测和识别阶段分离开来。目标识别过程中的字符分割也是一项具有挑战性的任务[3]、[6]

随着支持高计算复杂度的GPU的发展,卷积神经网络(CNN)在目标检测中的应用越来越普遍。CNN在图像分类[[7]、[8]、[9]、[10]、[11]]、数字识别[[12]、[13]、[14]]、目标检测[[15]、[16]、[17]、[18]、[19]]和许多信息检索领域取得了令人印象深刻的结果。基于区域的检测算法与CNN(R-CNN)相结合[2],表现出目标检测的最先进性能.然而,计算复杂性使得R-CNN及其改进算法不适合于实时检测[21]

You Only Look Once(YOLO)体系结构由27个CNN层组成,其中有24个卷积层,然后是两个完全连接的卷积层,如图1所示。由于YOLO在检测小对象方面存在问题[23],所以在车牌的有限空间中检测字符会大大降低YOLO的性能。本文提出了一种利用滑动窗口和单类微型YOLO检测器检测车牌字符等小目标的改进的YOLO算法。我们还考虑了车牌的环境条件,如照明、天气状况、室内、室外等各种条件。这项工作的主要贡献如下:

我们提出了一种基于YOLO CNN分类器的滑动窗口单类检测器.我们将原有的YOLO结构的27层CNN层和24层卷积层简化为一个由13个CNN层和7个卷积层组成的改进的微型YOLO。我们对每个类使用一个类检测器。我们使用36个微小的YOLO模型来检测36个类别(10个数字,一个由25个字母组成的字母表和1个板块)。台湾牌照不含字母“O”(“零”与“O”相同)。检测和识别阶段在给定的图像中同时运行。在此框架下,我们的系统可以实现高精度的车牌检测。YOLO可以在一个阶段直接检测和识别字符和数字,不需要进行字符分割。

我们提出了一种在同一阶段检测和识别字符和数字的算法。据我们所知,这是第一次只使用一个阶段来读取和检测汽车牌照。YOLO检测并读取图像中的所有对象。下一步是自动定位过程,在这个过程中,车牌区域内的每个字符都被分组。然后,YOLO对每个字符的位置分割的置信度进行排序,因为YOLO可以检测到一个真实的对象作为几个预测对象。该方法利用CNN进行特征学习和自动定位,避免了字符分割的过程。

我们还提出了一种改进的YOLO来处理在受限空间中检测小对象时的YOLO问题。YOLO在探测小对象时已经遇到了问题[23],[24]。由于汽车牌照由小空间的字符组成,改进后的YOLO在车牌检测和识别方面具有较高的精度。

图1 YOLO的系统结构[22]

本文的其余部分按以下方式组织。第二章介绍了车牌检测和识别的研究现状。第三章简要介绍了我们提出的方法。第四章介绍了系统的数据集和训练环境。第五章给出了系统的训练和测试结果。第六章是本文的结论。

第2章 研究现状

2.1车牌检测与识别

我们在ALPR等领域进行了大量的研究[4]、[1]、[5]、[25]、[26]。车牌检测为图像中的汽车牌照号码生成一个边框。现有算法采用形态学分类方法将图像分为四种:基于边缘的[5]、基于颜色的[27]、基于纹理的[28]和基于字符的[3]、[29]。边缘检测是车牌检测中最常用的特征之一[5]。由于车牌是由在白色背景下形成特征的密集黑点矩阵构成的,因此边缘检测在车牌检测中是非常有用的。基于边缘的方法在白色背景下检测黑色字符的边缘密度。虽然计算速度快,但边缘检测算法对不需要的边缘很敏感。当图像中出现多个颜色时,或者当黑白之间的差异干扰边缘检测时,就会发生这种情况。

基于颜色的方法是基于区分车身和车牌的颜色。Deb和Jo提出了一种HSI颜色模型来检测候选车牌区域[30],当检测到车牌时,再用直方图进行验证。类似于文献[25],[26],[31],[32]提出的边缘检测器,为了降低来自车牌的噪音,Mathur等人提出了一种灰度图像作为输入[27]。虽然基于颜色的检测易于实现,能够检测出倾斜和变形的车牌,但当车身颜色与车牌颜色相似时,该算法无法区分车牌。此外,该算法对室外光照变化非常敏感。

不同于边缘检测器和颜色处理方法,Hsu等人提出了一种聚类方法[4],该聚类方法提取与车牌形状相似的稠密集和矩形形状,然后使用高斯聚类EM算法计算车牌的稠密聚类集[28]。这种方法被归类为基于纹理的方法。基于纹理的方法比基于边缘和颜色的方法使用更多的识别特征,但具有更高的计算复杂度。这种方法不适用于实时车牌检测,因为它太耗时。

基于字符的方法通过直接从图像中学习字符特征,通过使用字符串来检测对象。CNN可以直接从图像中学习特征。基于字符的方法是解决目标检测问题的一种可靠、快速的检测方法.YOLO能够以高精度和快速计算速度检测多个目标[22]。在CNN出现之前,其他最先进的物体检测算法包括可变形部件模型(DPM)[33],它具有如直方图般的手工制作的功能[34]

我们的工作采用基于字符的方法,因为我们使用CNN通过提取车牌的特征直接识别车牌中的字符和数字。CNN的强大分类能力保证了字符检测的性能。

2.2 You Only Look Once(YOLO)

YOLO是一种用于实时处理的卷积神经网络目标检测系统。图2表明YOLO的工作原理是将输入图像分割成一个N*N网格单元。每个网格单元只能预测一个对象。每个网格单元预测一个固定数量的边界框。蓝点是被灰色边界框包围的检测对象的中心。然而,单对象规则限制了检测对象的距离。因此,YOLO对对象的紧密程度有限制。图2示出yolo规则如何限制图像中对象的距离检测。这些限制由检测到的对象之间的红色矩形显示。当检测到一个对象时,当边界框之间有一个交集,它将阻止其他边界框检测该对象。

图2 YOLO边界框限制

YOLO体系结构由27个CNN层组成,包含24个卷积层、两个完全连接的层和一个最终检测层[22](另见图1)。输出的YOLO网络将是N*N*(5B C)的向量,其中B是预测边界框的每个网格单元,每个框有一个框置信度,C是区域内所有边界框的一组类分数。每个边界框包含五个元素:(X,y,delta;,w,h)。置信度分数反映了每个边界框是如何包含一个对象的,以及边界框的精确性。YOLO的主要概念是建立一个CNN网络来预测(7,7,30)张量。YOLO使用两个完全连通的层进行线性回归,并使用最后一层进行预测,从而保留具有较高置信度的边界框。

由于YOLO预测了每个网格单元的多个边界框,为了预测需要检测的对象,必须计算一个负责任的损失函数。YOLO使用三种损失计算函数:分类损失、定位损失和置信度损失。为了选择一个可用作损失函数的IoU,首先计算其在Union上的交集,然后选择值最高的IoU。YOLO使用平方和误差来计算预测对象和真实对象之间的误差损失。分类损失是类概率的平方误差。定位损失测量边界框位置

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[237099],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。