一种基于深度学习的目标识别方法及装置与流程

专利查询2023-11-10  95



1.本技术涉及计算机视觉技术领域,尤其涉及一种基于深度学习的目标识别方法及装置。


背景技术:

2.基于深度学习目标识别的智能路侧系统在智能交通系统 (intelligent traffic system,简称its)中得到了广泛的应用,通过部署于道路上的雷达、摄像机等传感器实时感知道路环境和车辆、行人信息,经由高性能处理器中的深度学习网联对目标种类、位置、速度等状态进行提取,可为网联自动驾驶,智慧城市管理等高级别应用提供良好的基础数据。
3.虽然深度学习识别网络具有泛化性强,部署简单等优点,但是其识别准确率难以达到交通场景的严苛要求,在大量同时出现交通参与者的场景下,仅使用传统深度学习识别方案会造成不可接受的目标错识别和漏识别,从而导致系统虚警和漏警问题频发。因此,对监控系统深度学习网络的识别增强研究成为了技术发展的重点之一。
4.目前基于深度学习图像识别的交通目标识别方案中对原始图像的进行增强时,对全幅图像完整的进行图像增强,耗时时间长。除此之外,借助雷达感知设备将目标信息投影至图像的视觉感兴趣区域中,也可以实现图像增强。但此种方法需要增加雷达设备,成本高。
5.因此,急需一种在不增加雷达等设备的情况下,提高目标识别的准确率。


技术实现要素:

6.本说明书实施例提供一种基于深度学习的目标识别方法及装置,以实现在不增加雷达设备的情况下,提高目标识别的准确率。
7.为解决上述技术问题,本说明书实施例是这样实现的:
8.本说明书实施例提供的一种基于深度学习的目标识别方法,包括以下步骤:
9.对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息;
10.根据所述第一位置信息,确定所述第n帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;
11.根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像;
12.对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果;
13.对所述第一位置图像进行目标识别,得到第三识别结果;
14.根据所述第一位置图像的位置相对于所述第n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1帧的缩放图像的位置信息;
15.根据所述第二识别结果与所述第四识别结果,得到对于所述第 n+1帧的原图像的最终识别结果。
16.可选的,所述对第n帧的缩放图像进行识别,得到第一识别结果,包括:
17.利用深度学习网络识别模型对所述第n帧的缩放图像进行识别。
18.可选的,所述根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像,包括:
19.将所述第n帧的缩放图像中的目标物中的位置与所述第n帧的原图像中的目标物建立第二映射关系;
20.根据所述第n帧的原图像中目标物的所述第二位置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。
21.可选的,所述对第n帧的缩放图像进行识别,得到第一识别结果之前,还包括:
22.对原图像进行等比例缩放,得到缩放图像;
23.将所述缩放图像填充至所述深度学习网络的空白模板;
24.所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。
25.可选的,所述对所述第一位置图像进行目标识别,得到第三识别结果,包括:
26.将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域。
27.可选的,所述将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,包括:
28.将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所述第n帧的原图像中目标物识别的个数。
29.本说明书实施例提供的一种基于深度学习的目标识别装置,包括:
30.第一识别模块,用于对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息;
31.第一确定模块,用于根据所述第一位置信息,确定所述第n帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;
32.第二确定模块,用于根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像;
33.第二识别模块,用于对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果;
34.第三识别模块,用于对所述第一位置图像进行目标识别,得到第三识别结果;
35.第四识别模块,用于根据所述第一位置图像的位置相对于所述第 n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1帧的缩放图像的位置信息;
36.最终识别模块,用于根据所述第二识别结果与所述第四识别结果,得到对于所述第n+1帧的原图像的最终识别结果。
37.可选的,所述第一识别模块,还包括利用深度学习网络识别模型对所述第n帧的缩放图像进行识别;
38.所述确定模块还包括:将所述第n帧的缩放图像中的目标物中的位置与所述第n帧的原图像中的目标物建立第二映射关系;根据所述第n帧的原图像中目标物的所述第一位
置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。
39.可选的,所述装置还包括:
40.缩放模块,用于对原图像进行等比例缩放,得到缩放图像;
41.填充模块,用于将所述缩放图像填充至所述深度学习网络的空白模板;所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。
42.可选的,所述第三识别模块,还用于将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域;所述第三识别模块,还用于将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所述第n帧的原图像中目标物识别的个数。
43.本说明书一个实施例至少能够达到以下有益效果:
44.通过对第n帧的缩放图像进行识别,得到第一识别结果后,根据第一识别结果中的第一位置信息确定第二位置信息,并通过第二位置信息确定第n+1帧的原图像中的第一位置图像,通过对第n+1帧的缩放图像和第一位置图像共同进行识别。与传统图像增强方案相比本说明书实施例提供的目标识别方法不改变原图像特征,从而确保了识别的有效性。本发明说明书实施例在不增加额外设备的前提下实现冗余识别推理,与传统方案需要雷达等额外设备相比,成本较低。本说明书实施例利用深度学习网络需要对原图像进行压缩的特点,将原图像中的第一位置图像通过图像拼接进行一次识别,原理上不增加额外的计算量。
附图说明
45.为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
46.图1是本说明书实施例提供的基于深度学习的目标识别系统的示意图;
47.图2是本说明书实施例提供的基于深度学习的目标识别方法的流程示意图;
48.图3是本说明书实施例提供的缩放后的图像填充在空白模板的示意图;
49.图4是本说明书实施例提供的第一位置图像放置在视觉注视位区域的示意图;
50.图5是本说明书实施例提供的一种基于深度学习的目标识别装置的结构示意图。
具体实施方式
51.为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
52.应当理解,尽管在本技术文件中可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。
53.以下结合附图,详细说明本说明书各实施例提供的技术方案。
54.本发明说明书实施例针对智能交通系统(intelligent trafficsystem,简称its)中路侧感知设备提出了一种基于深度学习的目标识别方法,利用深度学习网络需要对原图像进行压缩的特点,将原图像中的第一位置图像通过图像拼接进行一次识别,有效克服传统基于深度学习目标识别率低的问题,提升系统对车辆、非机动车、行人等交通参与目标的识别效率。同时,本方案不依赖雷达等额外硬件,不会增加系统成本。
55.为了解决现有技术中的缺陷,本方案给出了以下实施例:
56.图1为本说明书实施例中一种基于深度学习的目标识别系统的示意图。如图1所示,本说明书实施例中的目标识别识别系统包括:路侧监控设备10、道路环境20和服务器30,其中,道路环境20是指道路上的行人、非机动车、机动车和交通事件等。路侧监控设备 10用于对道路环境20进行拍摄,提供交通视频数据,并将交通视频数据上传至服务器30,服务器30对道路环境20中的目标位置的状态信息进行识别,状态信息包括目标的种类信息和位置信息。需要说明的是,道路环境20中的目标不限于上述提到的行人、非机动车、机动车和交通事件等,还包括道路两侧的树木、楼房等。服务器30 将识别到的目标的状态信息发送至道路环境20的车辆中,可以为网联自动驾驶提供基础数据。
57.接下来,将针对说明书实施例提供的一种基于深度学习的目标识别方法结合附图进行具体说明:
58.图2为本说明书实施例提供的一种基于深度学习的目标识别方法的流程示意图。从程序角度而言,流程的执行主体可以为搭载于应用服务器30或应用终端的程序。
59.如图2所示,该流程可以包括以下步骤:
60.步骤202:对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息。
61.在本实施例中,路侧监控设备10可以为摄像机,通过摄像机将拍摄到的交通视频上传至服务器30,服务器30对交通视频数据进行分帧处理,得到视频数据中的每一帧原图像,经过缩放处理后,得到每一帧的缩放图像。
62.需要说明的是,本说明书实施例中提供的摄像机按照固定视角采集视频数据,视频数据的像素:1280*720或1920*1080。
63.第一识别结果中至少包含目标物的第一位置信息,第一位置信息可以用矩形框进行标识,格式为《x,y,w,h》,其中《x,y》标识矩形框的左上角坐标,w为矩形框的宽度,h为矩形框的高度。
64.当第n帧图像中的目标物为多个时,第一位置信息为多个目标物的矩形框。
65.步骤204:根据所述第一位置信息,确定所述第n帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;
66.根据第n帧的原图像和缩放图像的目标物的映射关系以及第一位置信息,确定第n帧原图像中目标物的位置信息。
67.步骤206:根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像。
68.步骤208:对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果。
69.通过识别模型对第n+1帧的缩放图像进行目标识别,得到第二识别结果。
70.步骤210:对所述第一位置图像进行目标识别,得到第三识别结果。
71.步骤210和步骤208执行顺序可以根据实际需要调整。
72.步骤212:根据所述第一位置图像的位置相对于所述第n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1 帧的缩放图像的位置信息。
73.步骤212中是对原图像中的第一位置图像进行识别,由于该第一位置图像中的目标物中含有与压缩图像中的目标不同的特征信息,因此,经过对步骤210和步骤208的识别后,能够得到针对同一目标物进行多次识别,提高了识别的准确率。
74.由于对第一位置图像的第三识别结果中是针对原图像进行识别的,因此,通过第一位置图像的位置与缩放图像的目标物的位置的第一映射关系,能够得到第一位置图像在第n+1帧的缩放图像中的第四识别结果。
75.步骤214:根据所述第二识别结果与所述第四识别结果,得到对于所述第n+1帧的原图像的最终识别结果。
76.对于第二识别结果和第四识别结果可以采用非极大值抑制算法得到最终识别结果。例如:当第二识别结果和第四识别结果中均包含置信度时,采用置信度高的识别结果作为最终识别结果。最终识别结果包含目标物的类别信息,位置信息和置信度信息。
77.应当理解,本说明书一个或多个实施例所述的方法中,部分步骤的顺序可以根据实际需要调整,或者可以省略部分步骤。
78.本说明书实施例提供的基于深度学习的目标识别方法,通过在识别过程中增加了原图像中的目标物的特征信息,提升了识别目标物的准确性。与传统图像增强方案相比不改变原图像特征,从而确保了识别的有效性。本发明在不增加额外设备的前提下实现目标物识别,与传统方案需要雷达等额外传感器相比,成本较低。
79.基于图2的方法,本说明书实施例还提供了该方法的一些具体实施方式,下面进行说明。
80.可选的,所述对第n帧的缩放图像进行识别,得到第一识别结果,包括:利用深度学习网络识别模型对所述第n帧的缩放图像进行识别。
81.本说明书实施例的深度学习网络识别模型可以选用yolov3, yolov3是yolo(you only look once)系列目标检测算法中的第三版。对于该模型的训练阶段的输入图像的尺寸为608*608像素。
82.可选的,所述对第n帧的缩放图像进行识别,得到第一识别结果之前,还包括:对原图像进行等比例缩放,得到缩放图像;将所述缩放图像填充至所述深度学习网络的空白模板;所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。
83.将第n帧的原图像等比例压缩以适应深度学习网络输入图像的要求,对第n帧的原图像进行等比例压缩,以确保目标物的特征不变。
84.在对原图像进行压缩时,具体包括:
85.根据下面的公式1和原图像的较长的边计算压缩比例,例如: 1280*720中的1280或者1920*1080中1920,公式1如下:
86.87.其中,s1为原图像的压缩比,(w,h)为原图像尺寸,w为原图像的宽度,h为原图像的高度,f为压缩后图像尺寸,wn为深度学习网络输入尺寸,然后将短边按照该比例进行压缩,填充至608*608的空白模板中,填充左上角位置为(0,0)像素。
88.图3为缩放后的图像填充在空白模板的示意图。如图3所示,图 3a为第n帧的原图像,图3b为经过第n帧的等比例缩放图像填充至深度学习网络模型的输入图形中的图像。
89.需要说明的是,视频数据中经过分帧后的原图像尺寸要大于深度学习网络的输入图像的尺寸。例如:视频帧的像素:1280*720或 1920*1080。应理解,本说明书实施例中的视频帧像素还可以为其他尺寸,只需大于深度学习网络的输入图像像素即可。
90.当对第n帧的缩放图像进行识别后,得到第一识别结果,第一识别结果中至少包括第一位置信息,根据第n帧中目标物的第一位置信息,确定第n帧的原图像中的第二位置信息,并根据第二位置信息确定第n+1帧的原图像中的第一位置图像,其中,第一位置图像为根据第二位置信息在第n+1帧原图像中确定的目标物图像。
91.可选的,将所述第n帧的缩放图像中的目标物中的位置与所述第 n帧的原图像中的目标物建立第二映射关系;
92.根据所述第n帧的原图像中目标物的所述第二位置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。
93.执行上述步骤后,得到第n+1帧原图像中包含目标物的图像。
94.可选的,所述对所述第一位置图像进行目标识别,得到第三识别结果,包括:
95.将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域。
96.将缩放图像按照输入图像的尺寸等比例进行压缩,并从空白模板的左上角进行填充,会在空白模板中存在空白区域,如图3所示。图 3为原图像为1920*1080像素的图像进行等比例压缩后填充至空白模板的示意图。
97.按照公式2在视觉注视位区域对第一位置图像进行排列。公式2 如下:
[0098][0099]
其中,fi为缩放后图像填充位置,wf为视觉注视位宽度,s2为第一位置图像的压缩比例,w2为第一位置图像的宽度,h2为第一位置图像的高度,%为取余函数,floor为向下取整函数。
[0100]
图4为将第一位置图像放置在视觉注视位区域的示意图。图4中将第一位置图像放置在空白模板的空白区域内,与缩放后的图像共同进行目标识别。
[0101]
采用上述步骤后,可以将第一位置图像按照公式2的放置在空白区域内,与第n+1帧图像共同进行目标识别。此时,深度学习网络的输入图像中既包含第n+1帧的缩放后的数据,又包含第一位置图像。与仅采用深度学习网络对缩放后的图像识别相比,由于每一目标物识别的次数增加,提高了图像中目标物的识别率。
[0102]
可选的,所述将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,包括:
[0103]
将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所
述第n帧的原图像中目标物识别的个数。
[0104]
需要说明的是,预设顺序可以为从左到右的顺序,也可以是从右到左的顺序,只需将第一位置图像置入视觉注视位区域即可。
[0105]
基于同样的思路,本说明书实施例还提供了上述方法对应的装置。图3为本说明书实施例提供的对应于图2的一种基于深度学习的目标识别装置的结构示意图。如图3所示,该装置可以包括:
[0106]
第一识别模块302,用于对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息;
[0107]
第一确定模块304,用于根据所述第一位置信息,确定所述第n 帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;
[0108]
第二确定模块306,用于根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像;
[0109]
第二识别模块308,用于对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果;
[0110]
第三识别模块310,用于对所述第一位置图像进行目标识别,得到第三识别结果;
[0111]
第四识别模块312,用于根据所述第一位置图像的位置相对于所述第n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1帧的缩放图像的位置信息;
[0112]
最终识别模块314,用于根据所述第二识别结果与所述第四识别结果,得到对于所述第n+1帧的原图像的最终识别结果。
[0113]
基于图3的装置,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
[0114]
可选的,所述第一识别模块,还包括利用深度学习网络识别模型对所述第n帧的缩放图像进行识别;
[0115]
所述确定模块还包括:将所述第n帧的缩放图像中的目标物中的位置与所述第n帧的原图像中的目标物建立第二映射关系;根据所述第n帧的原图像中目标物的所述第二位置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。
[0116]
可选的,所述装置还包括:
[0117]
缩放模块,用于对原图像进行等比例缩放,得到缩放图像;
[0118]
填充模块,用于将所述缩放图像填充至所述深度学习网络的空白模板;所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。
[0119]
可选的,所述第三识别模块,还用于将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域;所述第三识别模块,还用于将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所述第n帧的原图像中目标物识别的个数。
[0120]
可以理解,上述的各模块是指计算机程序或者程序段,用于执行某一项或多项特定的功能。此外,上述各模块的区分并不代表实际的程序代码也必须是分开的。
[0121]
上述对本说明书特定实施例进行了描述,在一些情况下,在权利要求书中记载的
动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
[0122]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可。
[0123]
本说明书实施例提供的装置、设备与方法是对应的,因此,装置、设备也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、设备的有益技术效果。
[0124]
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(programmable logic device, pld)(例如现场可编程门阵列(field programmable gate array, fpga))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字符系统“集成”在一片pld上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(hardware description language, hdl),而hdl也并非仅有一种,而是有许多种,如abel(advancedboolean expression language)、ahdl(altera hardware descriptionlanguage)、confluence、cupl(cornell university programminglanguage)、hdcal、jhdl(java hardware description language)、 lava、lola、myhdl、palasm、rhdl(ruby hardware descriptionlanguage)等,目前最普遍使用的是vhdl(very-high-speedintegrated circuit hardware description language)与verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
[0125]
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(application specific integrated circuit,asic)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:arc 625d、atmel at91sam、microchip pic18f26k20 以及silicone labs c8051f320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
[0126]
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,
或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
[0127]
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本技术时可以把各单元的功能在同一个或多个软件和/ 或硬件中实现。
[0128]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0129]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0130]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0131]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0132]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0133]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0134]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字符多功能光盘(dvd) 或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体 (transitory media),如调制的数据信号和载波。
[0135]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0136]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质 (包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0137]
本技术可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本技术,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0138]
以上所述仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。

技术特征:
1.一种基于深度学习的目标识别方法,其特征在于,所述方法包括:对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息;根据所述第一位置信息,确定所述第n帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像;对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果;对所述第一位置图像进行目标识别,得到第三识别结果;根据所述第一位置图像的位置相对于所述第n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1帧的缩放图像的位置信息;根据所述第二识别结果与所述第四识别结果,得到对于所述第n+1帧的原图像的最终识别结果。2.根据权利要求1所述的基于深度学习的目标识别方法,其特征在于,所述对第n帧的缩放图像进行识别,得到第一识别结果,包括:利用深度学习网络识别模型对所述第n帧的缩放图像进行识别。3.根据权利要求2所述的基于深度学习的目标识别方法,其特征在于,所述根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像,包括:将所述第n帧的缩放图像中的目标物中的位置与所述第n帧的原图像中的目标物建立第二映射关系;根据所述第n帧的原图像中目标物的所述第二位置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。4.根据权利要求2所述的基于深度学习的目标识别方法,其特征在于,所述对第n帧的缩放图像进行识别,得到第一识别结果之前,还包括:对原图像进行等比例缩放,得到缩放图像;将所述缩放图像填充至所述深度学习网络的空白模板;所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。5.根据权利要求4所述的基于深度学习的目标识别方法,其特征在于,所述对所述第一位置图像进行目标识别,得到第三识别结果,包括:将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域。6.根据权利要求5所述的基于深度学习的目标识别方法,其特征在于,所述将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,包括:将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所述第n帧的原图像中目标物识别的个数。7.一种基于深度学习的目标识别装置,其特征在于,包括:第一识别模块,用于对第n帧的缩放图像进行识别,得到第一识别结果,所述第一识别结果中至少包含目标物的第一位置信息;
第一确定模块,用于根据所述第一位置信息,确定所述第n帧的原图像中的第二位置信息,所述第二位置信息为所述第n帧的原图像中目标物的位置信息;第二确定模块,用于根据所述第二位置信息,确定第n+1帧的原图像中的第一位置图像;第二识别模块,用于对所述第n+1帧的缩放图像进行目标识别,得到第二识别结果;第三识别模块,用于对所述第一位置图像进行目标识别,得到第三识别结果;第四识别模块,用于根据所述第一位置图像的位置相对于所述第n+1帧的缩放图像的位置的第一映射关系以及所述第三识别结果,得到第四识别结果,所述第四识别结果至少表示所述第三识别结果在所述第n+1帧的缩放图像的位置信息;最终识别模块,用于根据所述第二识别结果与所述第四识别结果,得到对于所述第n+1帧的原图像的最终识别结果。8.根据权利要求7所述的基于深度学习的目标识别装置,其特征在于,所述第一识别模块,还包括利用深度学习网络识别模型对所述第n帧的缩放图像进行识别;所述确定模块还包括:将所述第n帧的缩放图像中的目标物中的位置与所述第n帧的原图像中的目标物建立第二映射关系;根据所述第n帧的原图像中目标物的所述第二位置信息和所述第二映射关系,确定所述第n+1帧的原图像中的目标物的位置。9.根据权利要求7所述的基于深度学习的目标识别装置,其特征在于,所述装置还包括:缩放模块,用于对原图像进行等比例缩放,得到缩放图像;填充模块,用于将所述缩放图像填充至所述深度学习网络的空白模板;所述空白模板的宽度与高度相同,所述缩放图像的宽度与所述空白模板的宽度相同,所述缩放图像的高度小于所述空白模板的高度。10.根据权利要求7所述的基于深度学习的目标识别装置,其特征在于,所述第三识别模块,还用于将所述第n+1帧的原图像中的所述目标物图像填充至视觉注视位区域,其中所述视觉注视位区域为将所述n+1帧图像填充至所述空白模板后的空白区域;所述第三识别模块,还用于将i个第一位置图像按照预设顺序填充至所述视觉注视位区域,所述i用于表示所述第n帧的原图像中目标物识别的个数。

技术总结
本说明书实施例公开了一种基于深度学习的目标识别方法及装置,识别方法包括:对第n帧的缩放图像进行识别,得到第一识别结果;根据第一位置信息,确定第n帧的原图像中的第二位置信息,第二位置信息为第n帧的原图像中目标物的位置信息;根据第二位置信息,确定第n+1帧的原图像中的第一位置图像;对第n+1帧的缩放图像进行目标识别,得到第二识别结果;对第一位置图像进行目标识别,得到第三识别结果;根据第一位置图像的位置相对于第n+1帧的缩放图像的位置的第一映射关系以及第三识别结果,得到第四识别结果;根据第二识别结果与第四识别结果,得到对于第n+1帧的原图像的最终识别结果。本说明书实施例提供的目标识别方法具有识别率高、成本低的优点。成本低的优点。成本低的优点。


技术研发人员:陈亚卿 张震西 杨轩 常雪阳
受保护的技术使用者:云控智行科技有限公司
技术研发日:2021.11.30
技术公布日:2022/3/8

最新回复(0)