1.本发明涉及数据安全技术领域,特别涉及一种视频数据存证方法、装置、存储介质及终端。
背景技术:
2.货车司机当处于装货卸货、堵车、事故、加油、考勤打卡等场景时,货车司机需要通过水印视频进行拍摄当前所处的作业场景,并对对当前作业场景进行上报货主或车主,以进行车辆的报备或管车。
3.现有技术中货车司机利用手机端进行取证时,实现方式是:货车司机利用手机传感器进行拍照、录像等取证,将相应取证文件存储于手机内部,将取证文件从手机内部上报货主或车主。由于证据文件会存储在手机内部,再从手机中进行传输时,使得对证据文件进行替换或篡改,导致传输至后端服务器的证据文件并非真正的证据文件,即证据文件的真实性得不到保证,从而降低了视频的真实性。
技术实现要素:
4.本技术实施例提供了一种视频数据存证方法、装置、存储介质及终端。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
5.第一方面,本技术实施例提供了一种视频数据存证方法,应用于第一客户端,方法包括:
6.当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;
7.提取视频数据中多个关键视频帧,并基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型;
8.加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;
9.将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;
10.将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据一起发送至云端服务器。
11.可选的,按照以下步骤生成预先训练的场景类型识别模型,包括:
12.采集车辆所处的场景图像,得到模型训练样本;其中,场景图像至少包括车辆卸货场景、车辆加油场景、车辆行车场景以及车辆事故场景;
13.采用yolov5算法创建场景类型识别模型;
14.将模型训练样本输入场景类型识别模型中进行模型训练,输出损失值;
15.当损失值到达最小时,生成预先训练的场景类型识别模型;
16.或者,
17.当损失值未到达最小时,将损失值进行反向传播以调整场景类型识别模型的模型参数,并继续将模型训练样本输入场景类型识别模型中进行模型训练。
18.可选的,场景类型识别模型包括输入端、基准网络、neck网络以及head输出端;
19.基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型,包括:
20.输入端接收每个关键视频帧,并将每个关键视频帧缩放到预设大小后进行归一化,得到归一化后的视频帧;
21.基准网络将归一化后的视频帧进行特征提取,得到特征图集合;
22.neck网络将特征图集合中各特征图与预设基础特征进行特征融合,得到融合后的特征图;
23.head输出端采用分类分支对融合后的特征图进行分类,并采用回归分支对分类后的类型进行线性回归,得到每个关键视频帧的场景类型。
24.可选的,根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,包括:
25.获取蒙板图片;
26.识别蒙板图片上第一参数标识集合;
27.识别行车数据与每个关键视频帧的场景类型对应的第二参数标识集合;
28.从第一参数标识集合中识别与第二参数标识集合中各参数标识相同的参数标识进行数据映射,生成携带参数的蒙板图片。
29.可选的,将目标视频数据处理后和行车数据一起发送至云端服务器,包括:
30.获取数字水印图像;
31.分别从目标视频数据的图像与数字水印图像中截取正方形的rgb图像,得到第一图像和第二图像;
32.将第一图像进行颜色通道分离后得到第一颜色分量集合,并将第二图像进行颜色通道分离后得到第二颜色分量集合;
33.对第一颜色分量集合进行arnold变换后得到变换矩阵;
34.根据变换矩阵对第二颜色分量集合进行dct变换后得到直流分量;
35.根据变换矩阵与直流分量对目标视频数据嵌入数字水印,生成处理后的视频数据;
36.将处理后的视频数据与行车数据发送至云端服务器。
37.第二方面,本技术实施例提供了一种视频数据存证方法,应用于云端服务器,方法包括:
38.接收第一客户端针对云端服务器发送的处理后的视频数据与行车数据;
39.将处理后的视频数据转换为二进制数据;
40.将二进制数据与行车数据进行sha256哈希运算,得到第一哈希字符串;
41.将第一哈希字符串保存至区块链。
42.第三方面,本技术实施例提供了一种视频数据存证方法,应用于第二客户端,方法包括:
43.当接收到第一客户端针对第二客户端发送的待传输的视频数据与行车数据时,与
云端服务器建立通信并获取区块链中保存的第一哈希字符串;
44.将待传输的视频数据与行车数据进行sha256哈希运算得到第二哈希字符串;
45.当第一哈希字符串与第二哈希字符串相同且待传输的视频数据中数字水印正确时,播放待传输的视频数据;
46.或者,
47.当第一哈希字符串与第二哈希字符串相同且待传输的视频数据中数字水印正确时,确定待传输的视频数据鉴权失败或被篡改,禁止播放待传输的视频数据。
48.第四方面,本技术实施例提供了一种视频数据存证装置,应用于第一客户端,装置包括:
49.模型获取模块,用于当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;
50.场景类型识别模块,用于提取视频数据中多个关键视频帧,并基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型;
51.蒙板图片构建模块,用于加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;
52.视频合成模块,用于将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;
53.视频发送模块,用于将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据一起发送至云端服务器。
54.第五方面,本技术实施例提供一种计算机存储介质,计算机存储介质存储有多条指令,指令适于由处理器加载并执行上述的方法步骤。
55.第六方面,本技术实施例提供一种终端,可包括:处理器和存储器;其中,存储器存储有计算机程序,计算机程序适于由处理器加载并执行上述的方法步骤。
56.本技术实施例提供的技术方案可以包括以下有益效果:
57.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
58.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
59.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
60.图1是本技术实施例提供的应用在第一客户端的一种视频数据存证方法的流程示
意图;
61.图2是本技术实施例提供的应用在云端服务器的一种视频数据存证方法的流程示意图;
62.图3是本技术实施例提供的应用在第二客户端的一种视频数据存证方法的流程示意图;
63.图4是本技术实施例提供的一种视频数据存证方法的流程示意图;
64.图5是本技术实施例提供的一种视频数据存证装置的结构示意图;
65.图6是本技术实施例提供的一种终端的结构示意图。
具体实施方式
66.以下描述和附图充分地示出本发明的具体实施方案,以使本领域的技术人员能够实践它们。
67.应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
68.下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
69.在本发明的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
70.本技术提供了一种视频数据存证方法、装置、存储介质及终端,以解决上述相关技术问题中存在的问题。本技术提供的技术方案中,由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性,下面采用示例性的实施例进行详细说明。
71.下面将结合附图1-附图4,对本技术实施例提供的视频数据存证方法进行详细介绍。该方法可依赖于计算机程序实现,可运行于基于冯诺依曼体系的视频数据存证装置上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行。
72.请参见图1,为本技术实施例提供了一种视频数据存证方法的流程示意图,应用于第一客户端。如图1所示,本技术实施例的方法可以包括以下步骤:
73.s101,当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;
74.通常,场景类型识别模型是识别场景类型的数学模型,该模型可输出视频图像的场景类型,该模型采用yolov5算法创建。
75.在本技术实施例中,在生成预先训练的场景类型识别模型时,首先采集车辆所处
的场景图像,得到模型训练样本;其中,场景图像至少包括车辆卸货场景、车辆加油场景、车辆行车场景以及车辆事故场景,然后采用yolov5算法创建场景类型识别模型,再将模型训练样本输入场景类型识别模型中进行模型训练,输出损失值,最后当损失值到达最小时,生成预先训练的场景类型识别模型。
76.进一步地,当损失值未到达最小时,将损失值进行反向传播以调整场景类型识别模型的模型参数,并继续将模型训练样本输入场景类型识别模型中进行模型训练。
77.在一种可能的实现方式中,当货车司机处于装货卸货、堵车、事故、加油、考勤打卡等场景时,首先通过手机终端上的水印相机采集当前场景的视频,得到待传输的视频数据,此时获取针对视频数据设置的预先训练的场景类型识别模型,该模型可以视频场景的场景类型。
78.s102,提取视频数据中多个关键视频帧,并基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型;
79.其中,关键视频帧是从数据数据中挑选出的多个高清晰度的视频图像。
80.在本技术实施例中,在提取视频数据中多个关键视频帧时,首先计算视频数据中每个视频图像帧的图像参数,例如清晰度、亮度、曝光度等,然后根据每个视频图像帧的图像参数计算每个视频图像帧的权重值,并将每个视频图像帧的权重值与预设权重值进行对比,将大于预设权重值的视频图像帧确定为关键视频帧。
81.进一步地,场景类型识别模型包括输入端、基准网络、neck网络以及head输出端。
82.具体的,在基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型时,输入端接收每个关键视频帧,并将每个关键视频帧缩放到预设大小后进行归一化,得到归一化后的视频帧;基准网络将归一化后的视频帧进行特征提取,得到特征图集合;neck网络将特征图集合中各特征图与预设基础特征进行特征融合,得到融合后的特征图;head输出端采用分类分支对融合后的特征图进行分类,并采用回归分支对分类后的类型进行线性回归,得到每个关键视频帧的场景类型。
83.s103,加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;
84.在一种可能的实现方式中,在构建携带参数的蒙板图片时,首先获取蒙板图片,然后识别蒙板图片上第一参数标识集合,再识别行车数据与每个关键视频帧的场景类型对应的第二参数标识集合,最后从第一参数标识集合中识别与第二参数标识集合中各参数标识相同的参数标识进行数据映射,生成携带参数的蒙板图片。
85.具体的,行车数据包括货车北斗终端的实时位置经纬度以及逆地理编码、车牌号、手机gps经纬度信息,以及用户基本信息、用户手动录入的信息。
86.s104,将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;
87.在一种可能的实现方式中,在生成携带参数的蒙板图片后,可将该携带参数的蒙板图片与每个关键视频帧进行合成,得到合成后的每个关键视频帧,最后将合成后的每个关键视频帧组成的视频确定为合成的目标视频数据。
88.s105,将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据一起发送至云端服务器。
89.在一种可能的实现方式中,在得到合成的目标视频数据后,可将待传输的视频数据和行车数据发送至第二客户端,即货主或车主端。
90.在一种可能的实现方式中,将目标视频数据处理后和行车数据一起发送至云端服务器时,首先获取数字水印图像,再分别从目标视频数据的图像与数字水印图像中截取正方形的rgb图像,得到第一图像和第二图像,然后将第一图像进行颜色通道分离后得到第一颜色分量集合,并将第二图像进行颜色通道分离后得到第二颜色分量集合,再对第一颜色分量集合进行arnold变换后得到变换矩阵,其次根据变换矩阵对第二颜色分量集合进行dct变换后得到直流分量,再根据变换矩阵与直流分量对目标视频数据嵌入数字水印,生成处理后的视频数据,最后将处理后的视频数据与行车数据发送至云端服务器。
91.具体的,从目标视频数据的图像与数字水印图像中选取正方形的rgb图像,并满足载体图像的边长为8的倍数且载体图像边长为水印图像边长的8倍。将载体图像的3个颜色通道分离,得到ir、ig、ib 3个颜色分量;将数字水印图像的3个颜色通道分离,得到wr、wg、wb 3个颜色分量。
92.对wr、wg、wb三个颜色分量进行arnold变换,(变换的过程可以看作是拉伸、压缩、折叠及拼接的过程)经过变换得到wra、wga、wba。
93.目标视频数据的图像的各分量以8
×
8的大小为一个单位划分为若干子块。将子块视为一个整体,最左上角的子块位置坐标为(1,1),其相邻的右边的子块位置坐标为(1,2),依此类推。对每一个子块分别应用dct变换,然后取出变换后的每一个子块左上角的直流分量组成一个新矩阵,位置坐标为(1,1)的子块的直流分量作为新矩阵(1,1)位置的元素,位置坐标为(1,2)的子块的直流分量作为新矩阵(1,2)位置的元素,依此类推。最终所得的矩阵称为直流分量矩阵ird、ibd、igd。
94.在直流分量矩阵上嵌入水印,嵌入方法是增加/减去置乱的wra、wga、wba分量k倍的亮度。分量提取公式如下:
95.irde=ird+k
×
wra;igde=igd
×
wga;ibde=ibd+k
×
wba;
96.最后嵌入水印后的直流分量矩阵irde、ibde、igde按照对应位置替换各个子块的直流分量,再对各个子块分别应用反dct变换后,完成各颜色分量的水印嵌入,得到处理后的视频数据。
97.具体的,本技术基于货车车机北斗终端的实时位置、用户手机gps位置、车辆基本信息、用户信息得到行车数据,自动识别当前用户的作业场景,最后运用区块链技术、视频数字水印技术可专门针对货车司机报备提供安全便捷的防篡改的视频报备方法。
98.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
99.请参见图2,为本技术实施例提供了一种视频数据存证方法的流程示意图,应用于
云端服务器。如图2所示,本技术实施例的方法可以包括以下步骤:
100.s201,接收第一客户端针对云端服务器发送的处理后的视频数据与行车数据;
101.s202,将处理后的视频数据转换为二进制数据;
102.s203,将二进制数据与行车数据进行sha256哈希运算,得到第一哈希字符串;
103.s204,将第一哈希字符串保存至区块链。
104.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
105.请参见图3,为本技术实施例提供了一种视频数据存证方法的流程示意图,应用于云端服务器。如图3所示,本技术实施例的方法可以包括以下步骤:
106.s301,当接收到第一客户端针对第二客户端发送的待传输的视频数据与行车数据时,与云端服务器建立通信并获取区块链中保存的第一哈希字符串;
107.s302,将待传输的视频数据与行车数据进行sha256哈希运算得到第二哈希字符串;
108.s303,当第一哈希字符串与第二哈希字符串相同且待传输的视频数据中数字水印正确时,播放待传输的视频数据;或者,当第一哈希字符串与第二哈希字符串相同且待传输的视频数据中数字水印正确时,确定待传输的视频数据鉴权失败或被篡改,禁止播放待传输的视频数据。
109.例如图4所示,图4是本技术提供的一种视频数据存证过程的过程示意框图,在司机的第一客户端,第一客户端首先安装在其上的应该程序启动后自动下载识别模型,再自动通过货运大数据获取手机位置的经纬度、货车北斗终端位置经纬度得到行车数据,然后第一客户端启动水印相机录制视频后,提取视频中的关键视频帧输入下载的识别模型中识别出每个关键视频帧的场景类型,根据场景类型和行车数据得到携带参数的蒙板图片,其次将该蒙板图片与每个关键视频帧合成后得到合成视频,再将合成视频处理后与行车数据一起发送到云端服务器,并将刚开始录制的视频和行车数据发送到第二客户端。
110.在云端服务器收到处理后的合成视频和行车数据后,将处理后的合成视频和行车数据进行sha256哈希运算得到哈希字符串,并将该哈希字符串放入到区块链中防篡改。
111.第二客户端在收到刚开始录制的视频和行车数据时,将刚开始录制的视频和行车数据进行sha256哈希运算得到目标哈希字符串,并获取区块链上存储的哈希字符串,最后进行比对目标哈希字符串与区块链上存储的哈希字符串是否一致,如果一致且数字水印正确,则播放刚开始录制的视频,否则鉴权失败或者视频存在篡改,则结束。
112.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行
车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
113.下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。
114.请参见图5,其示出了本发明一个示例性实施例提供的视频数据存证装置的结构示意图。该视频数据存证装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。该装置1包括模型获取模块10、场景类型识别模块20、蒙板图片构建模块30、视频合成模块40、视频发送模块50。
115.模型获取模块10,用于当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;
116.场景类型识别模块20,用于提取视频数据中多个关键视频帧,并基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型;
117.蒙板图片构建模块30,用于加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;
118.视频合成模块40,用于将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;
119.视频发送模块50,用于将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据一起发送至云端服务器。
120.需要说明的是,上述实施例提供的视频数据存证装置在执行视频数据存证方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视频数据存证装置与视频数据存证方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
121.上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。
122.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
123.本发明还提供一种计算机可读介质,其上存储有程序指令,该程序指令被处理器执行时实现上述各个方法实施例提供的视频数据存证方法。
124.本发明还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各个方法实施例的视频数据存证方法。
125.请参见图6,为本技术实施例提供了一种终端的结构示意图。如图6所示,终端1000可以包括:至少一个处理器1001,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。
126.其中,通信总线1002用于实现这些组件之间的连接通信。
127.其中,用户接口1003可以包括显示屏(display)、摄像头(camera),可选用户接口1003还可以包括标准的有线接口、无线接口。
128.其中,网络接口1004可选的可以包括标准的有线接口、无线接口(如wi-fi接口)。
129.其中,处理器1001可以包括一个或者多个处理核心。处理器1001利用各种借口和线路连接整个电子设备1000内的各个部分,通过运行或执行存储在存储器1005内的指令、程序、代码集或指令集,以及调用存储在存储器1005内的数据,执行电子设备1000的各种功能和处理数据。可选的,处理器1001可以采用数字信号处理(digital signal processing,dsp)、现场可编程门阵列(field-programmable gate array,fpga)、可编程逻辑阵列(programmable logic array,pla)中的至少一种硬件形式来实现。处理器1001可集成中央处理器(central processing unit,cpu)、图像处理器(graphics processing unit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;gpu用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1001中,单独通过一块芯片进行实现。
130.其中,存储器1005可以包括随机存储器(random access memory,ram),也可以包括只读存储器(read-only memory)。可选的,该存储器1005包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器1005可用于存储指令、程序、代码、代码集或指令集。存储器1005可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及到的数据等。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图6所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及视频数据存证应用程序。
131.在图6所示的终端1000中,用户接口1003主要用于为用户提供输入的接口,获取用户输入的数据;而处理器1001可以用于调用存储器1005中存储的视频数据存证应用程序,并具体执行以下操作:
132.当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;
133.提取视频数据中多个关键视频帧,并基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型;
134.加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;
135.将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;
136.将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据一起发送至云端服务器。
137.在一个实施例中,处理器1001在生成预先训练的场景类型识别模型时,具体执行以下操作:
138.采集车辆所处的场景图像,得到模型训练样本;其中,场景图像至少包括车辆卸货场景、车辆加油场景、车辆行车场景以及车辆事故场景;
139.采用yolov5算法创建场景类型识别模型;
140.将模型训练样本输入场景类型识别模型中进行模型训练,输出损失值;
141.当损失值到达最小时,生成预先训练的场景类型识别模型;
142.或者,
143.当损失值未到达最小时,将损失值进行反向传播以调整场景类型识别模型的模型参数,并继续将模型训练样本输入场景类型识别模型中进行模型训练。
144.在一个实施例中,处理器1001在执行基于预先训练的场景类型识别模型确定每个关键视频帧的场景类型时,具体执行以下操作:
145.输入端接收每个关键视频帧,并将每个关键视频帧缩放到预设大小后进行归一化,得到归一化后的视频帧;
146.基准网络将归一化后的视频帧进行特征提取,得到特征图集合;
147.neck网络将特征图集合中各特征图与预设基础特征进行特征融合,得到融合后的特征图;
148.head输出端采用分类分支对融合后的特征图进行分类,并采用回归分支对分类后的类型进行线性回归,得到每个关键视频帧的场景类型。
149.在一个实施例中,处理器1001在执行根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片时,具体执行以下操作:
150.获取蒙板图片;
151.识别蒙板图片上第一参数标识集合;
152.识别行车数据与每个关键视频帧的场景类型对应的第二参数标识集合;
153.从第一参数标识集合中识别与第二参数标识集合中各参数标识相同的参数标识进行数据映射,生成携带参数的蒙板图片。
154.在一个实施例中,处理器1001在执行将目标视频数据处理后和行车数据一起发送至云端服务器时,具体执行以下操作:
155.获取数字水印图像;
156.分别从目标视频数据的图像与数字水印图像中截取正方形的rgb图像,得到第一图像和第二图像;
157.将第一图像进行颜色通道分离后得到第一颜色分量集合,并将第二图像进行颜色通道分离后得到第二颜色分量集合;
158.对第一颜色分量集合进行arnold变换后得到变换矩阵;
159.根据变换矩阵对第二颜色分量集合进行dct变换后得到直流分量;
160.根据变换矩阵与直流分量对目标视频数据嵌入数字水印,生成处理后的视频数据;
161.将处理后的视频数据与行车数据发送至云端服务器。
162.在本技术实施例中,视频数据存证装置首先当采集到待传输的视频数据时,获取
针对视频数据设置的预先训练的场景类型识别模型,再提取视频数据中多个关键视频帧,并基于该模型确定每个关键视频帧的场景类型,然后加载当前车辆的行车数据,并根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片,其次将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据,最后将待传输的视频数据和行车数据发送至第二客户端,并将目标视频数据处理后和行车数据发送至云端服务器。由于本技术通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。
163.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,视频数据存证的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
164.以上所揭露的仅为本技术较佳实施例而已,当然不能以此来限定本技术之权利范围,因此依本技术权利要求所作的等同变化,仍属本技术所涵盖的范围。
技术特征:
1.一种视频数据存证方法,其特征在于,应用于第一客户端,所述方法包括:当采集到待传输的视频数据时,获取针对所述视频数据设置的预先训练的场景类型识别模型;提取所述视频数据中多个关键视频帧,并基于所述预先训练的场景类型识别模型确定每个关键视频帧的场景类型;加载当前车辆的行车数据,并根据所述行车数据与所述每个关键视频帧的场景类型构建携带参数的蒙板图片;将所述携带参数的蒙板图片和所述每个关键视频帧进行合成,生成合成的目标视频数据;将待传输的视频数据和所述行车数据发送至第二客户端,并将所述目标视频数据处理后和所述行车数据一起发送至云端服务器。2.根据权利要求1所述的方法,其特征在于,按照以下步骤生成预先训练的场景类型识别模型,包括:采集车辆所处的场景图像,得到模型训练样本;其中,所述场景图像至少包括车辆卸货场景、车辆加油场景、车辆行车场景以及车辆事故场景;采用yolov5算法创建场景类型识别模型;将所述模型训练样本输入所述场景类型识别模型中进行模型训练,输出损失值;当所述损失值到达最小时,生成预先训练的场景类型识别模型;或者,当所述损失值未到达最小时,将所述损失值进行反向传播以调整所述场景类型识别模型的模型参数,并继续将所述模型训练样本输入所述场景类型识别模型中进行模型训练。3.根据权利要求1所述的方法,其特征在于,所述场景类型识别模型包括输入端、基准网络、neck网络以及head输出端;所述基于所述预先训练的场景类型识别模型确定每个关键视频帧的场景类型,包括:输入端接收每个关键视频帧,并将所述每个关键视频帧缩放到预设大小后进行归一化,得到归一化后的视频帧;基准网络将归一化后的视频帧进行特征提取,得到特征图集合;neck网络将所述特征图集合中各特征图与预设基础特征进行特征融合,得到融合后的特征图;head输出端采用分类分支对融合后的特征图进行分类,并采用回归分支对分类后的类型进行线性回归,得到每个关键视频帧的场景类型。4.根据权利要求1所述的方法,其特征在于,所述根据所述行车数据与所述每个关键视频帧的场景类型构建携带参数的蒙板图片,包括:获取蒙板图片;识别所述蒙板图片上第一参数标识集合;识别所述行车数据与所述每个关键视频帧的场景类型对应的第二参数标识集合;从所述第一参数标识集合中识别与所述第二参数标识集合中各参数标识相同的参数标识进行数据映射,生成携带参数的蒙板图片。5.根据权利要求1所述的方法,其特征在于,所述将所述目标视频数据处理后和所述行
车数据一起发送至云端服务器,包括:获取数字水印图像;分别从所述目标视频数据的图像与所述数字水印图像中截取正方形的rgb图像,得到第一图像和第二图像;将所述第一图像进行颜色通道分离后得到第一颜色分量集合,并将第二图像进行颜色通道分离后得到第二颜色分量集合;对所述第一颜色分量集合进行arnold变换后得到变换矩阵;根据所述变换矩阵对所述第二颜色分量集合进行dct变换后得到直流分量;根据所述变换矩阵与所述直流分量对目标视频数据嵌入数字水印,生成处理后的视频数据;将所述处理后的视频数据与所述行车数据发送至云端服务器。6.一种视频数据存证方法,其特征在于,应用于云端服务器,所述方法包括:接收第一客户端针对所述云端服务器发送的处理后的视频数据与行车数据;将处理后的视频数据转换为二进制数据;将所述二进制数据与所述行车数据进行sha256哈希运算,得到第一哈希字符串;将所述第一哈希字符串保存至区块链。7.一种视频数据存证方法,其特征在于,应用于第二客户端,所述方法包括:当接收到第一客户端针对所述第二客户端发送的待传输的视频数据与行车数据时,与云端服务器建立通信并获取区块链中保存的第一哈希字符串;将待传输的视频数据与所述行车数据进行sha256哈希运算得到第二哈希字符串;当所述第一哈希字符串与所述第二哈希字符串相同且待传输的视频数据中数字水印正确时,播放待传输的视频数据;或者,当所述第一哈希字符串与所述第二哈希字符串相同且待传输的视频数据中数字水印正确时,确定待传输的视频数据鉴权失败或被篡改,禁止播放待传输的视频数据。8.一种视频数据存证装置,其特征在于,应用于第一客户端,所述装置包括:模型获取模块,用于当采集到待传输的视频数据时,获取针对所述视频数据设置的预先训练的场景类型识别模型;场景类型识别模块,用于提取所述视频数据中多个关键视频帧,并基于所述预先训练的场景类型识别模型确定每个关键视频帧的场景类型;蒙板图片构建模块,用于加载当前车辆的行车数据,并根据所述行车数据与所述每个关键视频帧的场景类型构建携带参数的蒙板图片;视频合成模块,用于将所述携带参数的蒙板图片和所述每个关键视频帧进行合成,生成合成的目标视频数据;视频发送模块,用于将待传输的视频数据和所述行车数据发送至第二客户端,并将所述目标视频数据处理后和所述行车数据一起发送至云端服务器。9.一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1-7任意一项的方法步骤。10.一种终端,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程
序,所述计算机程序适于由所述处理器加载并执行如权利要求1-7任意一项的方法步骤。
技术总结
本发明公开了一种视频数据存证方法,应用于第一客户端,方法包括:当采集到待传输的视频数据时,获取针对视频数据设置的预先训练的场景类型识别模型;提取视频数据中多个关键视频帧,基于该模型确定每个关键视频帧的场景类型;加载当前车辆的行车数据,根据行车数据与每个关键视频帧的场景类型构建携带参数的蒙板图片;将携带参数的蒙板图片和每个关键视频帧进行合成,生成合成的目标视频数据;将待传输的视频数据和行车数据发送至第二客户端,将目标视频数据处理后和行车数据发送至云端服务器。由于本申请通过模型识别视频数据的场景类型,并结合行车数据对视频数据进行二次合成,使得司机上报的视频不易篡改,提升了视频的真实性。的真实性。的真实性。
技术研发人员:靳凤伟 夏曙东 孙智彬 张志平
受保护的技术使用者:北京中交兴路信息科技有限公司
技术研发日:2021.11.29
技术公布日:2022/3/8