基于Tiny-YOLOV3改进算法的机器人实时目标检测文献综述

 2021-10-28 20:32:10

毕业论文课题相关文献综述

1.1研究背景及意义大数据时代的到来,使人类搭上了风驰电掣的高速列车,信息爆炸,逻辑变迁成为了这个时代的标签,如何对海量数据中对信息进行分类,提取有效信息,是每一个追逐时代脚步的人都要研究的课题。

也是在这个时代,机器学习尤其是深度学习得到了空前的发展,而计算机视觉作为深度学习的核心,研究出更行之有效、更快速的实时目标检测算法成为了一个重要的发展课题。

如今,目标检测算法逐渐成为自动驾驶,智能机器人,视频监控和加工领域的核心技术。

可大多数现有的高精度目标检测算法都很慢,无法适应行业对目标检测的实时要求。

这时 YOLO 算法的诞生,以优异的速度和极高的准确度赢得了大家的赞誉。

基于此,我们选择 YOLO 算法作为目标检测的基础算法,在其基础上进行研究和改进,根据机器人摄像头图像,调整YOLO框架的检测网络结构,基于优化特征图分布的损失特征层构建方法设计损失函数,提高目标检测准确率与时间效率。

在自制数据集及在NAO机器人平台上,以多种场景下不同物体进行目标检测实验。

在不影响检测速度前提下,提高了机器人在线目标检测准确度,以满足机器人在分拣、采摘、监控、服务等多样实时性应用场景需求。

1.2 目标检测算法国内外研究现状近些年基于深度残差卷积神经网络的目标检测技术迅速发展,其中的基于候选区域和基于统一分类回归的检测方法的检测精度较高[1],并且随着方法的更新迭代,检测的速度也不断提高,在配有图形处理器的计算设备上已经达到实时性的要求[2]。

目标分类和定位对于人眼来说司空见惯,眼睛通过对图片物体的不同形态、颜色、纹理、边缘模块的感知很容易分辨和定位出目标物体的信息,但对于计算机来说,任何物体都是 RGB 像素矩阵,计算机很难从图像中直接感知到汽车、行人这样的抽象概念以及多个物体之间的位置关系和语义联系,再加上目标姿态、光照环境和背景混杂等问题,使得物体检测更加困难。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。