1.本技术涉及人工智能领域,具体是一种基于ai加速器的机器学习数据处理方法及装置。
背景技术:
2.随着机器学习技术的发展,深度神经网络的训练效果有了大幅提升。但与此同时,深度神经网络的规模也随之呈倍数地增长,导致传统计算机处理器对于执行基于深度神经网络的数据处理渐显疲态。ai加速器能够面向深度神经网络进行计算加速,是一类专用于人工智能领域的硬件加速微处理器。ai加速器的出现加速了深度神经网络的推理执行效率,并使得深度神经网络能够快速落地部署。
3.然而,商用ai加速器平台的功能繁多,机器学习成本高;而且从扩展性的角度来看,现有商用ai加速器平台通常只支持自己公司的硬件产品,而无法对其他公司生产的ai加速器进行适配,缺少可扩展性,对深度神经网络进行数据处理造成了限制。
技术实现要素:
4.针对现有技术中的问题,本技术提供一种机器学习数据处理方法及装置,能够构建加速器部署接口以使用ai加速器得到推理执行结果。
5.为解决上述技术问题,本技术提供以下技术方案:
6.第一方面,本技术提供一种机器学习数据处理方法,包括:
7.接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
8.构建加速器部署接口,并利用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到所述处理请求对应的推理执行结果;
9.接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
10.进一步地,所述构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,包括:
11.根据所述ai加速器的种类构建所述加速器部署接口;
12.根据所述处理请求构建所述ai加速器的部署配置文件;
13.将所述部署配置文件及所述工程文件输入所述加速器部署接口;
14.利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;
15.运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。
16.进一步地,所述处理请求中包括用户行为数据;所述机器学习数据处理方法,还包
括:
17.对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;
18.将所述行为分析结果发送至请求方数据库及所述数据处理请求方。
19.进一步地,所述的机器学习数据处理方法,还包括:
20.检查所述处理请求是否为被重复提交的处理请求;
21.若否,检查所述处理请求所请求使用的ai加速器是否空闲;
22.若是,检查所述处理请求中的所述工程文件是否符合格式规范。
23.进一步地,所述的机器学习数据处理方法,还包括:
24.当接收到所述数据处理请求方发送的推理执行结果分析请求时,根据所述推理执行结果进行推理执行分析;
25.将得到的推理执行分析结果回传至所述数据处理请求方。
26.第二方面,本技术提供一种机器学习数据处理装置,包括:
27.处理请求接收单元,用于接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
28.工程文件发送单元,用于构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到推理执行结果;
29.执行结果回传单元,用于接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
30.进一步地,所述工程文件发送单元,包括:
31.部署接口构建模块,用于根据所述ai加速器的种类构建所述加速器部署接口;
32.配置文件构建模块,用于根据所述处理请求构建所述ai加速器的部署配置文件;
33.文件输入模块,用于将所述部署配置文件及所述工程文件输入所述加速器部署接口;
34.运行脚本选择模块,用于利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;
35.工程文件加载模块,用于运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。
36.进一步地,所述的机器学习数据处理装置,还包括:
37.用户行为分析单元,用于对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;
38.分析结果反馈单元,用于将所述行为分析结果发送至请求方数据库及所述数据处理请求方。
39.第三方面,本技术提供一种电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述机器学习数据处理方
法的步骤。
40.第四方面,本技术提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述机器学习数据处理方法的步骤。
41.针对现有技术中的问题,本技术提供的机器学习数据处理方法及装置,能够以简化使用为目标,使得用户仅通过少量操作就能完成神经网络模型在ai加速器上的部署,得到推理执行结果,进而能够从用户个人及用户群体两个层面对神经网络模型的推理执行过程进行数据分析;通过构建加速器部署接口,从系统层面分离了ai加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
附图说明
42.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
43.图1为本技术实施例中机器学习数据处理方法的构架图之一;
44.图2为本技术实施例中机器学习数据处理方法的构架图之二;
45.图3为本技术实施例中机器学习数据处理方法的流程图之一;
46.图4为本技术实施例中构建加速器部署接口的流程图;
47.图5为本技术实施例中机器学习数据处理方法的流程图之二;
48.图6为本技术实施例中机器学习数据处理方法的流程图之三;
49.图7为本技术实施例中机器学习数据处理方法的流程图之四;
50.图8为本技术实施例中机器学习数据处理装置的结构图之一;
51.图9为本技术实施例中工程文件发送单元的结构图;
52.图10为本技术实施例中机器学习数据处理装置的结构图之二;
53.图11为本技术实施例中的电子设备的结构示意图;
54.图12为本技术实施例中在线教学平台实施例的状态转移图;
55.图13为本技术实施例中用户管理数据的状态转移图;
56.图14为本技术实施例中任务管理数据的状态转移图;
57.图15为本技术实施例中设备管理数据的状态转移图;
58.图16为本技术实施例中用户注册顺序示意图;
59.图17为本技术实施例中任务管理顺序示意图;
60.图18为本技术实施例中构建加速器部署接口的示意图。
具体实施方式
61.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
62.针对现有技术中存在的问题,本技术提供一种机器学习数据处理方法及装置,能
够使得用户仅通过少量操作就能完成神经网络模型在ai加速器上的部署,得到推理执行结果,进而能够从用户个人及用户群体两个层面对神经网络模型的推理执行过程进行数据分析。本技术提供的机器学习数据处理方法及装置,通过构建加速器部署接口,从系统层面分离了ai加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
63.为更好地阐明本技术的上述技术优势,本技术实施例以一个在线教学实验平台为应用场景进行阐述。该在线教学实验平台旨在让学生(用户)能够方便地使用ai加速器完成其所需要的神经网络模型的推理执行,并能够对上述推理执行过程进行数据分析,完成教学实验过程。
64.该在线教学实验平台的构架图参见图1及图2。该构架从整体上可以划分为软件层及设备层;其中,软件层包括客户端、服务器及数据库;设备层包括多种真实的ai加速器硬件设备,且这些设备上运行有能够执行目标代码的应用程序,这些目标代码包括用户提交的工程文件,具体详见下文阐述。用户可以作为数据处理请求方,通过客户端对服务器提出数据处理请求,也就是请求服务器启动其所需的ai加速器以帮助自己进行神经网络模型的推理执行。推理执行过程中的所有数据都存储在结果数据库及用户数据库(下文也称请求方数据库),将推理执行数据与用户行为数据分开存储是为了有助于快速查找到用户信息。需要说明的是,数据库的实体可以但不限于是在服务器中。后续,用户可以请求服务器进行用户行为分析,服务器可以从数据库提取数据并传输到客户端进行可视化显示(也就是浏览器页面)。其中,用户数据库存储用户信息,结果数据库存储工程运行结果。
65.一实施例中,参见图3,为了能够构建加速器部署接口以使用ai加速器得到推理执行结果,本技术提供一种机器学习数据处理方法,包括:
66.s101:接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
67.s102:构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到推理执行结果;
68.s103:接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
69.可以理解的是,在上述应用场景中,学生用户作为数据处理请求方,可以通过客户端向服务器提出数据处理请求。这些学生用户往往在提出数据处理请求之前已经训练好了神经网络模型(也称机器学习模型)。在这种情况下,处理请求包括待处理原数据的工程文件;工程文件包括待处理原数据、机器学习模型及推理执行代码。服务器可以调用ai加速器根据机器学习模型及推理执行代码对待处理原数据进行推理执行,得到推理执行结果。
70.需要说明的是,
①
客户端:客户端配置有用户可直接访问的可视化页面。在数据处理请求的提交过程中,用户可以在该可视化页面中提交工程文件,并填写表单信息,包含但不限于工程运行参数、工程类型及目标ai加速器。所谓目标ai加速器可以是用户根据其机器学习模型的特点所选择的ai加速器。客户端将用户提交的工程文件发送至服务器,并等待来自服务器返回的工程运行结果(也就是推理执行结果),并显示在可视化页面中,供用户查看。
71.②
服务器:服务器负责接收来自客户端的处理请求,并构建加速器部署接口,并调用加速器部署接口将工程文件发送至ai加速器,使ai加速器根据机器学习模型及推理执行代码对待处理原数据进行推理执行,得到处理请求对应的推理执行结果,并向客户端返回推理执行结果。
72.在将工程文件发送至ai加速器之前,服务器可以先判断是否接受该处理请求。判断内容包括但不限于:请求限制检查、设备资源检查及文件格式检查。其中,请求限制检查用于判断用户是否重复提交了处理请求;设备资源检查用于判断用户请求的目标ai加速器是否处于空闲状态;文件格式检查用于判断用户提交的工程文件的格式是否符合规范。此外,服务器还可以对用户行为进行统计,包括但不限于进行用户工程执行过程错误区域统计、报错信息统计、提交频次统计及提交时间统计。统计得到的用户行为信息将存储入用户数据库中。
73.③
ai加速器:ai加速器提供了多个种类的ai加速器,每种ai加速器有若干个实际的硬件设备。这些实际的硬件设备是用户所提交的工程文件的最终部署环境。各种ai加速器可以通过构建好的加速器部署接口,与服务器进行通信,接收工程文件。ai加速器执行得到的结果(推理执行结果)还可以通过加速器部署接口传回服务器,以使服务器将其存入结果数据库中。
74.在具体实施过程中,在线教学实验平台的状态转移图参见图12所示,共分为五个状态。当用户未提交任何处理请求时,为空闲态;当用户提交处理请求后,转入运行中的状态,此时服务器还需要异步监听是否有其他用户提交了处理请求。在运行状态时,若服务器对处理请求的检查(参见图6中s401至s403的阐述)没有通过,则运行终止,服务器释放资源,进入运行中断态,随后结束退出。若一切正常运行,则运行成功后进入运行结束状态,随后退出。其中,“运行中”的状态可以是ai加速器实际进行推理执行的过程。
75.在线教学实验平台管理模式可以分为用户管理、任务管理及设备管理三大方面,分别面向用户、任务(也称处理请求)及设备(ai加速器)进行处理。
76.①
用户管理:用户管理参见图13所示,涉及对用户信息数据的管理,服务器需要向数据库查询该用户的信息,返回相应结果以供用户查看及/或修改。
77.②
任务管理:任务管理参见图14所示,涉及用户对提交的工程文件的相关操作。服务器会根据用户当前的权级和将要执行的操作给予相应的反馈。比如历史任务查询中,服务器不仅返回历史结果,还需要提供相应的结果文件的下载渠道,以便用户将其与最新的结果数据进行对比。
78.③
设备管理:设备管理参见图15所示,涉及服务器对设备的一系列操作。图15中并未示出用户节点,说明该操作是对用户透明的。管理员可通过服务器手动重启问题设备,并且随时可以查看设备资源的占用情况,用于进行故障分析或作为集群扩充的依据。
79.从上述描述可知,本技术提供的机器学习数据处理方法,能够以简化使用为目标,使得用户仅通过少量操作就能完成神经网络模型在ai加速器上的部署,得到推理执行结果,进而能够从用户个人及用户群体两个层面对神经网络模型的推理执行过程进行数据分析;通过构建加速器部署接口,从系统层面分离了ai加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
80.一实施例中,参见图4,构建加速器部署接口,并调用所述加速器部署接口将所述
工程文件发送至ai加速器,包括:
81.s201:根据所述ai加速器的种类构建所述加速器部署接口;
82.s202:根据所述处理请求构建所述ai加速器的部署配置文件;
83.s203:将所述部署配置文件及所述工程文件输入所述加速器部署接口;
84.s204:利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;
85.s205:运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。
86.可以理解的是,用户提交处理请求后的处理过程参见图17所示。图17以一个任务(也称处理请求)被用户提交、处理至返回的过程为例。客户端使用表单信息(工程运行参数、工程类型、目标ai加速器平台)及用户上传的工程文件构建请求包并发往服务器,服务器接收请求后,首先进行许可判断(如请求限制检查、设备资源检查及文件格式检查),然后根据检查结果决定是否赋予该处理请求继续执行的许可。当检测通过,服务器构建配置文件,配置文件来源可以但不限于:(1)客户端提交的请求表单(如工程运行参数、工程类型及目标ai加速器平台)(2)服务器分配给该处理请求的设备编号。配置文件构建完成后,服务器将工程文件及配置文件输入部署接口中,服务器利用部署接口执行目标ai加速器的部署运行脚本(可由ai加速器硬件厂商提供),将工程部署至ai加速器上执行。
87.需要说明的是,本在线教学实验平台的ai加速器硬件多种多样,因此,用户可以在配置部署文件中写明其所想使用的ai加速器硬件是哪一台,然后服务器可以根据上述信息选择ai加速器对应的部署运行脚本,最后服务器运行部署运行脚本,并利用加速器部署接口加载工程文件至ai加速器。
88.一实施例中,参见图18,根据ai加速器的种类构建加速器部署接口,当接收所述处理请求时,将工程文件及配置文件输入加速器部署接口,调用加速器部署接口将工程文件发送至ai加速器,使ai加速器根据机器学习模型及推理执行代码对待处理原数据进行推理执行,得到推理执行结果。部署接口内部的运行脚本选择模块会根据部署配置文件选择相应的部署运行脚本,服务器通过执行对应的部署运行脚本将工程部署至目标ai加速器中。构建加速器部署接口的操作可以在服务器接收到处理请求之前或之后进行,但更多的情况下,是在接收到处理请求之前进行。
89.从上述描述可知,本技术提供的机器学习数据处理方法,能够构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器。
90.一实施例中,参见图5,处理请求中包括用户行为数据;所述机器学习数据处理方法,还包括:
91.s301:对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;
92.s302:将所述行为分析结果发送至请求方数据库及所述数据处理请求方。
93.可以理解的是,该在线教学实验平台包括数据库。数据库可以存储用户的基本信息、行为信息及工程运行结果等,分为用户数据库及结果数据库。如前所述,这样分开存储有利于对推理执行结果的快速分析及对用户行为信息的快速查找。用户数据库与结果数据库分离,防止因为结果数据库过大导致每次查找的系统开销过大。结果数据库与用户数据
库相互映射,从而可以将推理执行结果与用户对应起来。具体地,用户数据库与结果数据库的映射方式,可以通过用户身份字段串接结果数据库与用户数据库条目,实现结果数据库与用户数据库的映射。
94.实际的数据分析过程,可以分为是对用户个人行为的分析还是对用户群体行为的分析。分析结果可以图、表等方式提供给用户,呈现出相应的可视化统计信息。用户个人行为分析可以面向用户及系统管理员开放,包括提交工程正确率、错误信息统计、错误区域统计、提交频次统计及提交时间统计等,学生可以根据这些信息调整自己的学习状态,针对薄弱点进行突破,有效提升学习效率。用户群体行为分析仅面向系统管理员开放,包括学生错误区域分布统计、错误信息统计、提交频次统计及提交时间统计等,可以得知学生薄弱的知识点,有针对性地改良教学任务及教学方案,同时可反馈至在线实验平台进行进一步优化。上述分析结果可以存储于数据库中。
95.从上述描述可知,本技术提供的机器学习数据处理方法,能够对用户行为数据进行分析,得到数据处理请求方的行为分析结果,并将行为分析结果发送至请求方数据库及数据处理请求方。
96.所谓请求方数据库也称用户数据库,可以存储多种用户行为数据,其中包括但不限于用户注册数据、登录数据以及请求进行推理执行过程中的种种数据。
97.为了更好地阐述本技术所述的方法,现以用户注册、用户登录、任务提交与处理三个方面描述在线平台具体的工作流程。
98.①
用户注册:图16展示了用户注册的流程。用户注册时,用户需要输入用户名、密码、邮箱及感兴趣的标签等信息。客户端会首先对用户输入的信息进行格式验证,然后将信息发送给服务器。服务器对信息作进一步的检查(检查是否冲突等),若没有问题则将用户信息写入用户数据库中。用户数据库、服务器、客户端依次返回结果。
99.②
用户登录:图17展示了用户登录的流程。用户进入个人信息界面时,客户端向服务器发送处理请求。服务器检查客户端的权限(包括是否登录以及登录者是否有权限获取信息等),并从用户数据库中读取个人信息,并返回给客户端。客户端经渲染后将信息显示出来。用户在客户端更改个人信息时,更改后的信息会发送给服务器。服务器需再次进行检查,若无问题则写入用户数据库,并返回更改状态。客户端将写入结果返回给用户。
100.③
任务提交与处理:构建加速器部署接口,并调用加速器部署接口将工程文件发送至ai加速器,使ai加速器根据机器学习模型及推理执行代码对待处理原数据进行推理执行,得到处理请求对应的推理执行结果;接收ai加速器回传的推理执行结果,并将推理执行结果反馈至数据处理请求方。
101.一实施例中,参见图7,所述的机器学习数据处理方法,还包括:
102.s501:当接收到所述数据处理请求方发送的推理执行结果分析请求时,根据所述推理执行结果进行推理执行分析;
103.s502:将得到的推理执行分析结果回传至所述数据处理请求方。
104.可以理解的是,ai加速器可以将推理执行结果返回服务器,服务器一方面将推理执行结果保存入结果数据库中,另一方面可以将推理执行结果返回客户端。若用户检查返回的推理执行结果后想要查看更加详细的过程,则会发出结果下载请求(可以是推理执行结果分析请求),服务器可以将下载内容返回。这些下载内容可以包括推理执行分析结果。
需要说明的是,服务器处理请求可以是间断式的,因此可以采用异步的方式同时处理多个用户的请求。
105.从上述描述可知,本技术提供的机器学习数据处理方法,能够将得到的推理执行分析结果回传至所述数据处理请求方。
106.综上所述,本技术所述的方法带来的有益效果包括但不限于:
107.本技术所述的方法及装置包括软硬件分层结构,分离了软件层与设备层,通过通信接口来实现交互,该接口为服务器与ai加速器设备的统一通信接口,可以轻松完成新ai加速器设备的挂载;能够面向教学的数据收集及分析系统可以收集学生平台使用的相关信息,如提交工程正确率及错误信息统计等,并提供学生个人和群体的行为分析。
108.本技术所述的方法及装置具有优良的可扩展性,支持多种ai加速器,包括通过配置文件来决定工程文件执行的硬件部署脚本,以及将工程文件部署至ai加速器上。该平台可分为软件层和设备层,软件层和设备层之间通过交互接口进行通信,从系统层面分离了ai加速器设备和平台管理软件之间的联系。因此,当有新的设备需求时,平台能通过简单的接口对接处理完成新设备的部署。
109.本技术所述的方法及装置采用了负载均衡方法,可以资源不足但频繁接收用户提交工程的情况下进行负载均衡,通过设备负载平衡调度的方式,均衡设备之间的任务压力,防止单一设备无法快速响应提交的工程文件,导致影响用户使用体验。
110.本技术所述的方法及装置具有较好的鲁棒性,通过服务器调度系统强行抢断的方式中止问题程序,例如程序中存在死循环等,防止因为不可预知的错误导致卡死用户请求。
111.本技术所述的方法及装置可以面向教学的数据收集和分析系统,该系统能充分分析同学们的薄弱点,有针对性地进行课程方案改革。另一方面,通过数据分析也可以挖掘平台漏洞,从而进一步改进平台。
112.基于同一发明构思,本技术实施例还提供了一种机器学习数据处理装置,可以用于实现上述实施例所描述的方法,如下面的实施例所述。由于机器学习数据处理装置解决问题的原理与机器学习数据处理方法相似,因此机器学习数据处理装置的实施可以参见基于软件性能基准确定方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的系统较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
113.一实施例中,参见图8,为了能够构建加速器部署接口以使用ai加速器得到推理执行结果,本技术提供一种机器学习数据处理装置,包括:处理请求接收单元801、工程文件发送单元802及执行结果回传单元803。
114.处理请求接收单元801,用于接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
115.工程文件发送单元802,用于构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到推理执行结果;
116.执行结果回传单元803,用于接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
117.一实施例中,参见图9,所述工程文件发送单元802,包括:部署接口构建模块901、配置文件构建模块902、文件输入模块903、运行脚本选择模块904及工程文件加载模块905。
118.部署接口构建模块901,用于根据所述ai加速器的种类构建所述加速器部署接口;
119.配置文件构建模块902,用于根据所述处理请求构建所述ai加速器的部署配置文件;
120.文件输入模块903,用于将所述部署配置文件及所述工程文件输入所述加速器部署接口;
121.运行脚本选择模块904,用于利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;
122.工程文件加载模块905,用于运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。
123.一实施例中,参见图10,所述的机器学习数据处理装置,还包括:用户行为分析单元1001及分析结果反馈单元1002。
124.用户行为分析单元1001,用于对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;
125.分析结果反馈单元1002,用于将所述行为分析结果发送至请求方数据库及所述数据处理请求方。
126.从硬件层面来说,为了能够构建加速器部署接口以使用ai加速器得到推理执行结果,本技术提供一种用于实现所述机器学习数据处理方法中的全部或部分内容的电子设备的实施例,所述电子设备具体包含有如下内容:
127.处理器(processor)、存储器(memory)、通讯接口(communications interface)和总线;其中,所述处理器、存储器、通讯接口通过所述总线完成相互间的通讯;所述通讯接口用于实现所述机器学习数据处理装置与核心业务系统、用户终端以及相关数据库等相关设备之间的信息传输;该逻辑控制器可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该逻辑控制器可以参照实施例中的机器学习数据处理方法的实施例,以及机器学习数据处理装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。
128.可以理解的是,所述用户终端可以包括智能手机、平板电子设备、网络机顶盒、便携式计算机、台式电脑、个人数字助理(pda)、车载设备、智能穿戴设备等。其中,所述智能穿戴设备可以包括智能眼镜、智能手表、智能手环等。
129.在实际应用中,机器学习数据处理方法的部分可以在如上述内容所述的电子设备侧执行,也可以所有的操作都在所述客户端设备中完成。具体可以根据所述客户端设备的处理能力,以及用户使用场景的限制等进行选择。本技术对此不作限定。若所有的操作都在所述客户端设备中完成,所述客户端设备还可以包括处理器。
130.上述的客户端设备可以具有通讯模块(即通讯单元),可以与远程的服务器进行通讯连接,实现与所述服务器的数据传输。所述服务器可以包括任务调度中心一侧的服务器,其他的实施场景中也可以包括中间平台的服务器,例如与任务调度中心服务器有通讯链接的第三方服务器平台的服务器。所述的服务器可以包括单台计算机设备,也可以包括多个
服务器组成的服务器集群,或者分布式装置的服务器结构。
131.图11为本技术实施例的电子设备9600的系统构成的示意框图。如图11所示,该电子设备9600可以包括中央处理器9100和存储器9140;存储器9140耦合到中央处理器9100。值得注意的是,该图11是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
132.一实施例中,机器学习数据处理方法功能可以被集成到中央处理器9100中。其中,中央处理器9100可以被配置为进行如下控制:
133.s101:接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
134.s102:构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到推理执行结果;
135.s103:接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
136.从上述描述可知,本技术提供的机器学习数据处理方法及装置,能够以简化使用为目标,使得用户仅通过少量操作就能完成神经网络模型在ai加速器上的部署,得到推理执行结果,进而能够从用户个人及用户群体两个层面对神经网络模型的推理执行过程进行数据分析;通过构建加速器部署接口,从系统层面分离了ai加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
137.在另一个实施方式中,机器学习数据处理装置可以与中央处理器9100分开配置,例如可以将数据复合传输装置机器学习数据处理装置配置为与中央处理器9100连接的芯片,通过中央处理器的控制来实现机器学习数据处理方法的功能。
138.如图11所示,该电子设备9600还可以包括:通讯模块9110、输入单元9120、音频处理器9130、显示器9160、电源9170。值得注意的是,电子设备9600也并不是必须要包括图11中所示的所有部件;此外,电子设备9600还可以包括图11中没有示出的部件,可以参考现有技术。
139.如图11所示,中央处理器9100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器9100接收输入并控制电子设备9600的各个部件的操作。
140.其中,存储器9140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器9100可执行该存储器9140存储的该程序,以实现信息存储或处理等。
141.输入单元9120向中央处理器9100提供输入。该输入单元9120例如为按键或触摸输入装置。电源9170用于向电子设备9600提供电力。显示器9160用于进行图像和文字等显示对象的显示。该显示器例如可为lcd显示器,但并不限于此。
142.该存储器9140可以是固态存储器,例如,只读存储器(rom)、随机存取存储器(ram)、sim卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除
且设有更多数据,该存储器的示例有时被称为eprom等。存储器9140还可以是某种其它类型的装置。存储器9140包括缓冲存储器9141(有时被称为缓冲器)。存储器9140可以包括应用/功能存储部9142,该应用/功能存储部9142用于存储应用程序和功能程序或用于通过中央处理器9100执行电子设备9600的操作的流程。
143.存储器9140还可以包括数据存储部9143,该数据存储部9143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器9140的驱动程序存储部9144可以包括电子设备的用于通讯功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
144.通讯模块9110即为经由天线9111发送和接收信号的发送机/接收机9110。通讯模块(发送机/接收机)9110耦合到中央处理器9100,以提供输入信号和接收输出信号,这可以和常规移动通讯终端的情况相同。
145.基于不同的通讯技术,在同一电子设备中,可以设置有多个通讯模块9110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通讯模块(发送机/接收机)9110还经由音频处理器9130耦合到扬声器9131和麦克风9132,以经由扬声器9131提供音频输出,并接收来自麦克风9132的音频输入,从而实现通常的电信功能。音频处理器9130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器9130还耦合到中央处理器9100,从而使得可以通过麦克风9132能够在本机上录音,且使得可以通过扬声器9131来播放本机上存储的声音。
146.本技术的实施例还提供能够实现上述实施例中的执行主体为服务器或客户端的机器学习数据处理方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的执行主体为服务器或客户端的机器学习数据处理方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
147.s101:接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;
148.s102:构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到推理执行结果;
149.s103:接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
150.从上述描述可知,本技术提供的机器学习数据处理方法及装置,能够以简化使用为目标,使得用户仅通过少量操作就能完成神经网络模型在ai加速器上的部署,得到推理执行结果,进而能够从用户个人及用户群体两个层面对神经网络模型的推理执行过程进行数据分析;通过构建加速器部署接口,从系统层面分离了ai加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
151.本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机
可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
152.本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
153.这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
154.这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
155.本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
技术特征:
1.一种机器学习数据处理方法,其特征在于,包括:接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到所述处理请求对应的推理执行结果;接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。2.根据权利要求1所述的机器学习数据处理方法,其特征在于,所述构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,包括:根据所述ai加速器的种类构建所述加速器部署接口;根据所述处理请求构建所述ai加速器的部署配置文件;将所述部署配置文件及所述工程文件输入所述加速器部署接口;利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。3.根据权利要求1所述的机器学习数据处理方法,其特征在于,所述处理请求中包括用户行为数据;所述机器学习数据处理方法,还包括:对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;将所述行为分析结果发送至所述数据处理请求方。4.根据权利要求1所述的机器学习数据处理方法,其特征在于,还包括:检查所述处理请求是否为被重复提交的处理请求;若否,检查所述处理请求所请求使用的ai加速器是否空闲;若是,检查所述处理请求中的所述工程文件是否符合格式规范。5.根据权利要求1所述的机器学习数据处理方法,其特征在于,还包括:当接收到所述数据处理请求方发送的推理执行结果分析请求时,根据所述推理执行结果进行推理执行分析;将得到的推理执行分析结果回传至所述数据处理请求方。6.一种机器学习数据处理装置,其特征在于,包括:处理请求接收单元,用于接收数据处理请求方发送的待处理原数据的处理请求;所述处理请求包括所述待处理原数据的工程文件;所述工程文件包括所述待处理原数据、机器学习模型及推理执行代码;工程文件发送单元,用于构建加速器部署接口,并调用所述加速器部署接口将所述工程文件发送至ai加速器,使所述ai加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到所述处理请求对应的推理执行结果;执行结果回传单元,用于接收所述ai加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。
7.根据权利要求6所述的机器学习数据处理装置,其特征在于,所述工程文件发送单元,包括:部署接口构建模块,用于根据所述ai加速器的种类构建所述加速器部署接口;配置文件构建模块,用于根据所述处理请求构建所述ai加速器的部署配置文件;文件输入模块,用于将所述部署配置文件及所述工程文件输入所述加速器部署接口;运行脚本选择模块,用于利用所述配置部署文件选择所述ai加速器对应的部署运行脚本;工程文件加载模块,用于运行所述部署运行脚本,并调用所述加速器部署接口加载所述工程文件至所述ai加速器。8.根据权利要求6所述的机器学习数据处理装置,其特征在于,所述处理请求中包括用户行为数据,所述机器学习数据处理装置,还包括:用户行为分析单元,用于对所述用户行为数据进行分析,得到所述数据处理请求方的行为分析结果;所述行为分析结果包括推理执行过程中的错误区域统计结果、报错信息统计结果、提交次数统计结果、提交时间统计结果及提交频次统计结果;分析结果反馈单元,用于将所述行为分析结果发送至所述数据处理请求方。9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至5任一项所述的机器学习数据处理方法的步骤。10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至5任一项所述的机器学习数据处理方法的步骤。
技术总结
本申请提供一种机器学习数据处理方法及装置,涉及人工智能领域,包括:接收数据处理请求方发送的待处理原数据的处理请求;构建加速器部署接口,并调用调用所述加速器部署接口将所述工程文件发送至AI加速器,使所述AI加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到处理请求对应的推理执行结果;接收所述AI加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。本申请能够构建加速器部署接口以使用AI加速器得到推理执行结果,从系统层面分离了AI加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。具有优秀的设备可扩展性。具有优秀的设备可扩展性。
技术研发人员:杨建磊 雷凡丁 万寒
受保护的技术使用者:北京航空航天大学
技术研发日:2021.11.30
技术公布日:2022/3/8