基于STM32与openmv目标跟踪系统的设计
目录
一、选题背景和研究意义
二、国内外研究状况
三、研究的主要内容
四、系统方案设计
五、系统硬件设计
六、系统软件设计
七、系统测试
八、总结
参考文献
一、选题背景和研究意义
在我们日常生活工作中,利用模式识别算法,目标跟踪算法和颜色识别算法对目标物体进行识别,并与云台结合的这种模式已近十分普遍,比如公安使用的天网系统就是固定云台与识别摄像头的典型,它可以用来满足我们的实际操作需求,本文方法可广泛应用于安防或其他相关领域。在当前情况下,该设计在日常生活的应用中具有很好的理论意义以及现实意义。
本设计的初衷在于解决当前技术的一些局限,特别是针对现有目标跟踪系统中存在的两大问题。其一,由于摄像头角度和位置的限制,系统往往难以捕捉到目标的正面表情图像或视频,这往往导致识别结果出现偏差。其二,目前大多数系统依赖单摄像头进行跟踪,但单摄像头在捕捉目标时仅能在二维平面内定位,难以实现目标区域的三维位置确定,这使得当目标从远处接近时,系统容易丢失跟踪区域,无法保持持续稳定的跟踪。为了解决这些问题,我们进行了深入的研究与设计,以期提升目标跟踪的准确性和稳定性。
二、国内外研究状况
目标跟踪系统的研究始于1966年PRI的Bledsoe的工作,近二十年来得到了飞速的发展。令世人惊恐的“9.11”事件发生后,更多的国家投入到目标跟踪系统的研究中,因世界国的重视,各国军方、大型公司给予资金方面的自助,国内外的高等学府对这一技术的研究已进行的如火如荼。其中,著名的研究组包括美国的麻省理工学院、普林斯顿大学,英国的剑桥大学,日本的东京大学和我国的清华大学、中国科学技术大学等。
三、研究的主要内容
本研究基于STM32与OpenMV设计了目标跟踪系统。通过需求分析,系统需识别被测物体,并控制舵机使OpenMV摄像头对准目标。在系统总体方案设计中,对目标跟踪系统的发展、应用及学术研究现状进行了深入分析,并据此构思了系统的整体架构。在硬件设计方面,利用STM32的GPIO接口与OpenMV摄像头进行连接;在软件设计方面,通过STM32固件通信和OpenMV视觉算法实现对目标物体的跟踪控制。软硬件联合调试与仿真过程中,通过搭建项目开发环境,实现了系统模块的功能展示,并从多个角度验证了系统数据的正确性、功能的完备性以及性能的稳定性。本研究成果为目标跟踪技术的进一步应用提供了理论支持和实践参考。
四、系统方案设计
本系统由两大核心部分组成:运动平台与视觉跟踪平台。运动平台的核心组件包括Android设备、扩展板以及执行机构。其中,执行机构作为驱动系统,具有多种形态,本方案中我们采用的是由电机驱动、电机及机架组成的全方位移动平台。而视觉跟踪平台则主要由摄像头、主控板和LCD显示屏构成,负责捕捉并处理视觉信息。

图 视觉跟踪系统

图 运动机构组成
五、系统硬件设计
本系统的设计目标是实现传感器数据的采集、姿态计算、控制逻辑的生成以及控制任务的执行。为了缩短开发时间,我们选用了广泛使用的LG Nexus 4手机作为Android平台,而扩展板则采用了STM32F4 Discovery,这是一款官方提供的低成本评估板。

图2-3 模块简化原理图

图2-4 蓝牙版简化原理图
六、系统软件设计
在本系统的软件设计中,我们将其划分为三个主要部分:Android软件设计、扩展板软件设计以及驱动板软件设计。对于Android设备,我们设计了一个Activity类,这个类集成了读取传感器数据、进行姿态解算、检测按钮状态、发送控制指令以及刷新用户界面等多项功能。而在扩展板的软件设计中,我们主要实现了USBH类的功能,负责消息的读取并将其转化为电机的目标速度。至于电机驱动板程序,它主要实现了UART读取、PWM信号生成以及正交编码器数据的读取等功能。简言之,这三个部分的软件协同工作,确保了整个系统的稳定运行。软件设计的简要流程如图3-9所示。

图 系统软件总体架构图
七、系统测试
姿态检测平台,对测量结果做了详尽测试,(如下图所示)

(a)姿态1,(-158,36,11) (b)姿态2 (-88,-2,0)

(c)姿态3 (-88,2,74) (d)姿态4 (-77,-2,-4)
图4-1 姿态检测测试结果
通过上图的展示,可以清晰地看到手机的Yaw、Pitch、Roll数据准确地反映了其实际姿态,从而有效实现了姿态采集的目标。同时,我们也对手机与扩展板之间的通信进行了验证,确保通信的顺畅与稳定。验证结果详见附图4-2和4-3。

图4-2 交互测试结果

图4-3 USB交互测试结果
八、总结
本系统通过集成Android系统平台和STM32F4平台,成功构建了一个多轴控制器和用户交互平台。该系统凭借其低成本、灵活定制以及出色的性能特点,充分发挥了不同硬件和软件平台的优势,展现出了强大的扩展能力。在未来,我们计划进一步扩展外部传感器,并实现更为复杂的控制逻辑,以不断提升系统的功能和性能。
参考文献
[1]崔晨,李丽宏.目标跟踪机械臂的运动学研究[J].兵器装备工程学报,2019,40( 10) : 200-204,210.
[2]赵飞飞.基于视频的目标跟踪与识别[D].长春工业大学,2016.4
[3]袁仁辉.基于机械手的双目视觉定位抓取研究[D].燕山大学, 2016.5.
[4]姚震.影视角色目标跟踪与替换的研究与应用[D].北京工业大学,2015.6.
[5]富晓杰.高精度伺服云台的机械结构与控制系统研究[D].浙江大学,2014.9.
[6]胡家升.光学工程导论[M].大连:大连理工大学出版社.2005.
[7]张翠平,苏光大. 目标跟踪系统综述[J].中国图象图形学报: A 辑, 2000 (11): 885-894.
[8]王晓龙. 基于目标运动轨迹及空间分布的行为分析研究[D].中南大学硕士学位论文,2009.
[9]李慧敏,樊记明,杨笑. 基于STM32和OV7670的图像采集与显示系统设计[J]. 传感器与微系统,2016( 9) : 114-117.
[10]李延浩. 机器视觉在多领域内的应用[J].电子技术与软件工程,2018( 1) : 93-94.
[11]高文,朱明,贺柏根.目标跟踪技术综述[J].中国光学,2014,7( 3) : 365 - 375.
[12]Robust Real-time Object Detection. Paul Viola, Michael Jones. IJCV 2004.3.
[13]Huang C L, Chen C W. Human facial feature extraction for face interpretation and recognition[J]. Pattern recognition, 1992, 25(12): 1435-1444.
[14]Cox, I. Ghosn and J. Yianilos. Feature-based Face Recognition Using Mixture Distance. Processings Intelligence Conference Computing Vision. Pattern Recognition. 1996:209~216
[15] Xiaoou Tang,Surpassing Human-Level Face Verification Performance on LFW with GaussianFace[J]. Department of Information Engineering, The Chinese University of Hong Kong,2014.
[16] T. L. Griffiths and M. Steyvers. Finding scientific topics. Proceedings of the National Academy of Sciences, 101(Suppl. 1):5228–5235, April 2004.