一种基于深度强化学习的系统容错策略方法

专利查询4月前  35



1.本发明属于分布式流处理系统容错技术领域,具体涉及一种基于深度强化学习的系统容错策略方法。


背景技术:

2.近年来,随着大规模流数据处理和分析技术的快速发展,分布式流处理系统已被证明是解决大规模数据流问题的有效方法。由于其强大的并行处理能力和系统可扩展性,成为一种广受关注的新型分布式系统。随着分布式系统规模不断扩大,系统故障率攀升,可靠性问题加剧,故障容错已成为分布式流处理系统中至关重要的问题。
3.目前,针对分布式流处理系统的容错问题,上游备份是流处理系统应用较广泛的容错方案之一。它为任务引入了复杂的备份依赖关系,增加了控制容错开销的难度。因此,我们的工作重点是通过分配每个任务适当的资源来降低容错开销。
4.深度强化学习是近年来人工智能领域最受关注的领域之一。深度学习具有较强的感知能力,而强化学习具有决策能力。将两者结合起来,优势互补,为复杂系统的感知决策问题提供了解决思路。如果通过基于卷积神经网络的深度强化学习来解决分布式流处理系统中的资源分配问题,将会对寻找完善的系统容错策略具有重要意义。


技术实现要素:

5.本发明的目的在于提供一种基于深度强化学习的系统容错策略方法。
6.一种基于深度强化学习的系统容错策略方法,包括以下步骤:
7.步骤1:获取分布式流处理系统中的任务,以任务为节点,以任务中之间的联系关系为边生成流处理拓扑图;
8.步骤2:用图编码器对输入流图进行编码;将流处理拓扑图嵌入,根据上下游隐藏状态连接得到神经网络层,然后进入最大池化层,得到输出向量作为图感知解码器的输入;
9.步骤3:图感知设备分配解码;通过lstm实现对新旧数据备份分配任务以及图编码之间交织的依赖关系的处理,采用attention-based model来建模预测每个节点的分配;
10.步骤4:应用强化学习算法计算策略梯度,使用adam optimizer学习网络参数,实现强化学习训练;
11.步骤5:采用模拟器cepsim进行复杂事件处理和流处理来快速训练评估每个分配样本。
12.进一步地,所述步骤1中生成流处理拓扑图的方法具体为:
13.将流处理系统容错问题中的资源分配问题表述为搜索问题,其中训练和测试数据由不同的流处理拓扑图{g
x
}组成,将流处理拓扑图建模为dagg
x
=(v,e),其中顶点v={vi|i∈1,

,n}表示流处理系统中的任务,边e={e(vi,vj)|vi,vj∈v}表示任务之间的连接,对于每个任务v∈v的资源需求(wv),根据该任务的输入数据速率来反映该任务所需的计算能力;
14.给定输入图g
x
,资源分配的目标是预测数据备份布局图gy中每个任务节点v∈g的数据备份给系统中某个任务vi;目标图gy的每个节点都附加一个新的数据备份任务节点d
vi
,以描述其分配行为情况;在g
x
的每一步中为每个任务节点分配一个数据备份任务节点,最后输出图形gy。
15.进一步地,所述步骤2中用图编码器对输入流图进行编码的方法具体为:
16.步骤2.1:将输入图g
x
嵌入到一个嵌入空间中,每个节点都有一个嵌入编码,使用图卷积网络gcn来实现这种编码;
17.gcn迭代使用邻居的嵌入来更新节点的嵌入;具体地说,在第k步,对于每个算子节点v,定义其嵌入为当k=0时,定义为其节点特征向量fv,其中包含了节点平均故障恢复时间以及节点备份导致的处理延迟;由于g
x
是一个有向图,根据v的边连接的方向,将其邻居划分为两个集合,上游邻居n
up
(v)和下游邻居n
down
(v);因此,节点嵌入分为两个向量和每个都有m维;
18.步骤2.2:gcn更新v的嵌入;
19.步骤2.2.1:分别对v的上下游邻居进行信息聚合;以上游邻居为例,对于每个u∈n
up
(v),取其当前阶段表示为给它一个非线性变换其中
20.步骤2.2.2:将得到的所有步骤2.2.2:将得到的所有取向量的均值池并更新v的上游视图嵌入为:
[0021][0022]
其中,[
·
:
·
]表示向量拼接;
[0023]
步骤2.2.3:更新应用于v的带有变换参数和的下游邻居,并得到
[0024]
步骤2.3:在图中所有节点上重复k次步骤2.2;对于每个v,将其上游和下游的隐藏状态和连接起来作为其最后的节点表示形式,得到向量hv;
[0025]
步骤2.4:计算图编码来传递整个图信息,每个节点的嵌入hv馈送给一个完全连接的神经网络层,输出图编码向量。
[0026]
进一步地,所述步骤3中图感知设备分配解码的方法具体为:资源分配的预测是根据图的属性和其他节点的分配,将g
x
中每个操作节点v的数据备份给一个任务dv,给定任意顺序的节点{v1,v2,

,v
|v|
},则问题可表示为:
[0027][0028]
其中,d
(up)
(v
t
)是指v
t
的所有上游节点的赋值;为了处理新的赋值所有以前的赋值和g
x
之间相互交织的依赖关系,drl模型学习一个状态表示s
t
来编码与相关的信息,通过lstm实现,并且为了进一步鼓励状态s
t
意识到与v
t
相关的节点的分配,以帮助其预测分配,将解码器的状态建模为::
[0029][0030]
将所有的数据备份任务分配dv转化为它们的可学习的数据备份任务嵌入向量,集合d
(up
)(v
t
)因此被表示为连接到lstm输入的数据备份任务嵌入的均值池的结果,将上述向量与的数据备份任务嵌入相连接,作为lstm cell的输入;
[0031]
将对节点vi的预测转化为使用attention-based model对所有的图节点vj模拟这一步,每个节点在步骤t处得到一个注意分数然后用softmax对所有的αj进行归一化,得到每个j对应的最后,为了得到数据备份任务分配预测,提供连接到一个后面跟着一个softmax层的多层感知器mlp。
[0032]
进一步地,所述步骤4中强化学习训练的方法具体为:将最小的相对系统容错开销定义为未备份节点状态时的系统容错开销i(g
x
)与预测分配后的系统容错开销t(gy)的比值;奖励r的范围在0到1之间,且r越趋于1越好;训练一个随机策略来最大化以下目标
[0033][0034]
其中,π
θ
是对所有可能的资源分配方案y的分布;
[0035]
使用reinforce算法来计算策略梯度,并使用adam优化器学习网络参数
[0036][0037]
在每次训练更新中,抽取固定数量的on-policy样本,并且绘制随机样本来探索搜索空间,随机样本的数量呈指数衰减;对于每个训练图,维持一个记忆缓冲区来存储奖励高于0.8的良好样本;如果内存缓冲区为空,则包含额外的随机样本以加快探索;n个样本由on-policy样本和来自内存缓冲区的样本组成,从奖励中减去基线b,即n个样本的平均奖励,以减小政策梯度的方差。
[0038]
进一步地,所述步骤5中采用模拟器cepsim进行复杂事件处理和流处理来快速训练评估每个分配样本的方法具体为:
[0039]
为了计算奖励r(gy),每个取样分配gy需要部署在流处理系统上,但是系统可能需要几分钟的时间来稳定和计算容错开销;由于drl依赖于对大量资源分配试验的评估,以这种方式进行训练所需的总时间和计算资源非常棘手;因此,为了快速训练,采用模拟器cepsim进行复杂事件处理和流处理来评估每个分配样本;cepsim是一个基于云的复杂事件处理和流处理系统的模拟器,可以用来研究不同的资源分配、操作员调度和负载均衡方案的效果;在cepsim中,dag用于表示如何处理输入事件流以获得复杂事件;cepsim为用户提供了为dag中的每个操作符指定每个元组的指令数量的灵活性;为了模拟流处理,用户可以提供映射功能,将dag的一部分分配给不同的虚拟机(vm),这些vm可以使用网络相互通信。
[0040]
本发明的有益效果在于:
[0041]
本发明将深度强化学习技术应用于分布式流处理系统的容错问题中,能够将容错
问题中数据备份的分配问题表述为资源分配问题,构建以任务和任务之间的联系为顶点和边的神经网络模型,并经过多层次的训练,有效的使当前系统容错问题处理效果更优秀,同时能够为分布式流处理系统容错问题提供一种基于深度强化学习的可行的方法。本发明所提供的技术方案可恰当分配备份资源,对系统容错开销进行评价,从而降低当前主要以上游备份为主要方案进行处理的复杂度,提高系统容错的效率,降低现有方法的容错开销。
附图说明
[0042]
图1为本发明的流程图。
[0043]
图2为本发明中流处理拓扑图之间的生成过程图。
[0044]
图3为本发明中所提出的图编码器和图感知解码器的模型图。
具体实施方式
[0045]
下面结合附图对本发明做进一步描述。
[0046]
本发明涉及一种基于深度强化学习的系统容错策略方法,属于分布式流处理系统容错技术领域。本发明通过基于深度强化学习的卷积神经网络模型,来适当分配容错问题的每个任务的资源,来降低容错开销,提高容错能力。
[0047]
本发明的目的是这样实现的:首先给出分布式流处理中的任务,由这些任务生成以任务为节点,以任务之间的关系为边的流处理拓扑图。然后用图编码器对输入流图进行编码,其中需要将其上游和下游的隐藏状态连接起来,作为其最终的节点被馈送到一个完全连接的神经网络层。再进入一个最大池化层,输出向量是图编码,用作图感知解码器的输入。最后由图形解码器解码,并分配到各个任务中。
[0048]
如图1所示,本发明公开的基于深度强化学习的系统容错策略方法,包括如下步骤:
[0049]
步骤1:生成流处理拓扑图。以分布式流处理系统中的任务为节点,以任务中之间的联系关系为边生成拓扑图。
[0050]
步骤2:用图编码器对输入流图进行编码。将流拓扑图嵌入,根据上下游隐藏状态连接得到神经网络层,然后进入最大池化层,得到输出向量作为图感知解码器的输入。
[0051]
步骤3:图感知设备分配解码。通过lstm实现对新旧数据备份分配任务以及图编码之间交织的依赖关系的处理,用采用attention-based model来建模预测每个节点的分配。
[0052]
步骤4:强化学习训练。应用reinforce algorithm(强化学习算法)计算策略梯度,使用adam optimizer学习网络参数,实现强化学习训练。
[0053]
步骤5:加快奖励计算速度。采用模拟器cepsim进行复杂事件处理和流处理来快速训练评估每个分配样本。
[0054]
下面对本发明公开的基于深度强化学习的系统容错策略方法作进一步的说明。
[0055]
生成流处理拓扑图:
[0056]
本发明将流处理系统容错问题中的资源分配问题表述为搜索问题,其中训练和测试数据由不同的流处理拓扑图{g
x
}组成。如图2所示,流拓扑通常被建模为dagg
x
=(v,e)。其中顶点v={vi|i∈1,

,n}表示流处理系统中的任务,边e={e(vi,vj)|vi,vj∈v}表示任务之间的连接。对于每个任务v∈v的资源需求(wv),根据该任务的输入数据速率来反映该任
务所需的计算能力。
[0057]
给定输入图g
x
,资源分配的目标是预测数据备份布局图gy每个任务节点v∈g的数据备份给系统中某个任务vi。图2中的目标图gy的每个节点都附加了一个新的数据备份任务节点(即方形节点),以描述其分配行为情况。因为任务分配之间的相互依赖关系错综复杂,使得预测gy的任务十分具有挑战性。本发明将这个问题定义为一个搜索问题,它在g
x
的每一步中为每个任务节点分配一个数据备份任务节点,最后输出图形gy。
[0058]
用图编码器对输入流图进行编码:
[0059]
首先将输入图g
x
嵌入到一个嵌入空间中,每个节点都有一个嵌入编码,我们使用图卷积网络(gcn)来实现这种编码。
[0060]
gcn迭代使用邻居的嵌入来更新节点的嵌入。具体地说,在第k步,对于每个算子节点v,我们定义其嵌入为当k=0时,定义为其节点特征向量fv,其中包含了节点平均故障恢复时间以及节点备份导致的处理延迟。由于g
x
是一个有向图,我们根据v的边连接的方向,将其邻居划分为两个集合,上游邻居n
up
(v)和下游邻居n
down
(v)。因此,节点嵌入可以分为两个向量和每个都有m维。
[0061]
基于以上定义,gcn更新v的嵌入如下:
[0062]
首先,分别对v的上下游邻居进行信息聚合。以上游邻居为例,对于每个u∈n
up
(v),我们取其当前阶段表示为给它一个非线性变换其中
[0063]
其次,我们将得到的所有其次,我们将得到的所有取向量的均值池并更新v的上游视图嵌入为([
·
:
·
]表示向量拼接):
[0064][0065]
类似的更新应用于v的带有变换参数和的下游邻居,并得到
[0066]
以上步骤在图中所有节点上重复k次。最后,对于每个v,我们将其上游和下游的隐藏状态和连接起来作为其最后的节点表示形式。在下面叙述中,我们将这个向量简称为hv。
[0067]
我们进一步计算图编码来传递整个图信息。每个节点的嵌入hv馈送给一个完全连接的神经网络层,然后是一个元素化的最大池化层。因此,输出向量是图编码,用作图感知解码器的输入,如图3所示。
[0068]
图感知设备分配解码:
[0069]
资源分配的预测是根据图的属性和其他节点的分配,将g
x
中每个操作节点v的数据备份给一个任务dv。给定任意顺序的节点{v1,v2,

,v
|v|
},则问题可表示为:
[0070]
[0071]
在解码阶段,为了简化问题,我们采用了公式(2)的近似分解。从直观上看,一个节点的数据备份任务预测通常受到其上游节点数据备份任务分配的很大影响。因此,如果我们总能在节点dv的上游节点之前分配一个节点dv的上游节点(例如通过宽度优先遍历图对节点排序),我们可以得到以下近似:
[0072][0073]
其中d
(up
)(v
t
)是指v
t
的所有上游节点的赋值。我们提出的图感知解码器就是基于这种分解的。
[0074]
为了处理新的赋值所有以前的赋值和g
x
之间相互交织的依赖关系,drl模型学习一个状态表示s
t
来编码与相关的信息。这可以通过lstm实现,并且为了进一步鼓励状态s
t
意识到与v
t
相关的节点的分配,以帮助其预测分配,受公式(3)分解的启发,我们将解码器的状态建模为::
[0075][0076]
在我们的实现过程中,我们将所有的数据备份任务分配dv转化为它们的可学习的数据备份任务嵌入向量,集合d
(up)
(v
t
)因此被表示为连接到lstm输入的数据备份任务嵌入的均值池的结果。将上述向量与的数据备份任务嵌入相连接,作为lstm cell的输入。
[0077]
最后,将对节点vi的预测转化为我们使用attention-based model对所有的图节点vj模拟这一步。每个节点在步骤t处得到一个注意分数然后用softmax对所有的αj进行归一化,得到每个j对应的最后,为了得到数据备份任务分配预测,我们提供连接到一个后面跟着一个softmax层的多层感知器(mlp)。
[0078]
强化学习训练:
[0079]
在我们的任务中,对于一个输入g
x
,很难得到ground truth分配gy。但是,对于任何给定的分配gy,我们都可以通过计算系统容错开销(包括非故障时备份节点状态所带来的运行开销以及故障时所产生的故障恢复延迟)得到其相对质量。因此,我们的任务符合强化学习设置,其中模型做出一系列决策(即我们的解码器),并得到延迟奖励r(即预测图分配的系统容错开销)。
[0080]
在本发明中,我们寻求最小的相对系统容错开销定义为未备份节点状态时的系统容错开销i(g
x
)与预测分配后的系统容错开销t(gy)的比值。我们的目标是预测分配后的系统容错开销最小,也就是说,不会因为糟糕的资源分配而产生较大的系统容错开销。因此,奖励r的范围在0到1之间,且r越趋于1越好。我们训练一个随机策略来最大化以下目标,π
θ
是对所有可能的资源分配方案y的分布:
[0081][0082]
我们使用reinforce算法来计算策略梯度,并使用adam优化器学习网络参数
[0083][0084]
在每次训练更新中,抽取固定数量的on-policy样本,并且绘制随机样本来探索搜索空间,随机样本的数量呈指数衰减。对于每个训练图,我们维持一个记忆缓冲区来存储奖励高于0.8的良好样本。如果内存缓冲区为空,则包含额外的随机样本以加快探索。公式(4)中的n个样本由on-policy样本和来自内存缓冲区的样本组成。从奖励中减去基线b,即n个样本的平均奖励,以减小政策梯度的方差。
[0085]
加快奖励计算速度:
[0086]
为了计算奖励r(gy),每个取样分配gy需要部署在流处理系统上,但是系统可能需要几分钟的时间来稳定和计算容错开销。由于drl依赖于对大量资源分配试验的评估,以这种方式进行训练所需的总时间和计算资源非常棘手。因此,为了快速训练,我们采用模拟器cepsim进行复杂事件处理和流处理来评估每个分配样本。cepsim是一个基于云的复杂事件处理和流处理系统的模拟器,可以用来研究不同的资源分配、操作员调度和负载均衡方案的效果。在cepsim中,dag用于表示如何处理输入事件流以获得复杂事件。cepsim为用户提供了为dag中的每个操作符指定每个元组的指令数量的灵活性。为了模拟流处理,用户可以提供映射功能,将dag的一部分分配给不同的虚拟机(vm),这些vm可以使用网络相互通信。
[0087]
本发明所提供的技术方案将深度强化学习技术应用于分布式流处理系统的容错问题中,能够将容错问题中数据备份的分配问题表述为资源分配问题,构建以任务和任务之间的联系为顶点和边的神经网络模型,并经过多层次的训练,有效的使当前系统容错问题处理效果更优秀,同时能够为分布式流处理系统容错问题提供一种基于深度强化学习的可行的方法。本发明所提供的技术方案可恰当分配备份资源,对系统容错开销进行评价,从而降低当前主要以上游备份为主要方案进行处理的复杂度,提高系统容错的效率,降低现有方法的容错开销。
[0088]
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

技术特征:
1.一种基于深度强化学习的系统容错策略方法,其特征在于,包括以下步骤:步骤1:获取分布式流处理系统中的任务,以任务为节点,以任务中之间的联系关系为边生成流处理拓扑图;步骤2:用图编码器对输入流图进行编码;将流处理拓扑图嵌入,根据上下游隐藏状态连接得到神经网络层,然后进入最大池化层,得到输出向量作为图感知解码器的输入;步骤3:图感知设备分配解码;通过lstm实现对新旧数据备份分配任务以及图编码之间交织的依赖关系的处理,采用attention-based model来建模预测每个节点的分配;步骤4:应用强化学习算法计算策略梯度,使用adam optimizer学习网络参数,实现强化学习训练;步骤5:采用模拟器cepsim进行复杂事件处理和流处理来快速训练评估每个分配样本。2.根据权利要求1所述的一种基于深度强化学习的系统容错策略方法,其特征在于:所述步骤1中生成流处理拓扑图的方法具体为:将流处理系统容错问题中的资源分配问题表述为搜索问题,其中训练和测试数据由不同的流处理拓扑图{g
x
}组成,将流处理拓扑图建模为dagg
x
=(v,e),其中顶点v={v
i
|i∈1,

,n}表示流处理系统中的任务,边e={e(v
i
,v
j
)|v
i
,v
j
∈v}表示任务之间的连接,对于每个任务v∈v的资源需求(w
v
),根据该任务的输入数据速率来反映该任务所需的计算能力;给定输入图g
x
,资源分配的目标是预测数据备份布局图g
y
中每个任务节点v∈g的数据备份给系统中某个任务v
i
;目标图g
y
的每个节点都附加一个新的数据备份任务节点以描述其分配行为情况;在g
x
的每一步中为每个任务节点分配一个数据备份任务节点,最后输出图形g
y
。3.根据权利要求2所述的一种基于深度强化学习的系统容错策略方法,其特征在于:所述步骤2中用图编码器对输入流图进行编码的方法具体为:步骤2.1:将输入图g
x
嵌入到一个嵌入空间中,每个节点都有一个嵌入编码,使用图卷积网络gcn来实现这种编码;gcn迭代使用邻居的嵌入来更新节点的嵌入;具体地说,在第k步,对于每个算子节点v,定义其嵌入为当k=0时,定义为其节点特征向量f
v
,其中包含了节点平均故障恢复时间以及节点备份导致的处理延迟;由于g
x
是一个有向图,根据v的边连接的方向,将其邻居划分为两个集合,上游邻居n
up
(v)和下游邻居n
down
(v);因此,节点嵌入分为两个向量和每个都有m维;步骤2.2:gcn更新v的嵌入;步骤2.2.1:分别对v的上下游邻居进行信息聚合;以上游邻居为例,对于每个u∈n
up
(v),取其当前阶段表示为给它一个非线性变换其中w
1(up)
∈r
m
×
2m
;步骤2.2.2:将得到的所有取向量的均值池并更新v的上游视图嵌入为:
其中,[
·
:
·
]表示向量拼接;步骤2.2.3:更新应用于v的带有变换参数w
1(down)
和w
2(down)
的下游邻居,并得到步骤2.3:在图中所有节点上重复k次步骤2.2;对于每个v,将其上游和下游的隐藏状态和连接起来作为其最后的节点表示形式,得到向量h
v
;步骤2.4:计算图编码来传递整个图信息,每个节点的嵌入h
v
馈送给一个完全连接的神经网络层,输出图编码向量。4.根据权利要求3所述的一种基于深度强化学习的系统容错策略方法,其特征在于:所述步骤3中图感知设备分配解码的方法具体为:资源分配的预测是根据图的属性和其他节点的分配,将g
x
中每个操作节点v的数据备份给一个任务d
v
,给定任意顺序的节点{v1,v2,

,v
|v|
},则问题可表示为:其中,d
(up)
(v
t
)是指v
t
的所有上游节点的赋值;为了处理新的赋值所有以前的赋值和g
x
之间相互交织的依赖关系,drl模型学习一个状态表示s
t
来编码与相关的信息,通过lstm实现,并且为了进一步鼓励状态s
t
意识到与v
t
相关的节点的分配,以帮助其预测分配,将解码器的状态建模为::将所有的数据备份任务分配d
v
转化为它们的可学习的数据备份任务嵌入向量,集合d
(up)
(v
t
)因此被表示为连接到lstm输入的数据备份任务嵌入的均值池的结果,将上述向量与的数据备份任务嵌入相连接,作为lstm cell的输入;将对节点v
i
的预测转化为使用attention-based model对所有的图节点v
j
模拟这一步,每个节点在步骤t处得到一个注意分数然后用softmax对所有的α
j
进行归一化,得到每个j对应的最后,为了得到数据备份任务分配预测,提供连接到一个后面跟着一个softmax层的多层感知器mlp。5.根据权利要求4所述的一种基于深度强化学习的系统容错策略方法,其特征在于:所述步骤4中强化学习训练的方法具体为:将最小的相对系统容错开销定义为未备份节点状态时的系统容错开销i(g
x
)与预测分配后的系统容错开销t(g
y
)的比值;奖励r的范围在0到1之间,且r越趋于1越好;训练一个随机策略来最大化以下目标
其中,π
θ
是对所有可能的资源分配方案y的分布;使用reinforce算法来计算策略梯度,并使用adam优化器学习网络参数在每次训练更新中,抽取固定数量的on-policy样本,并且绘制随机样本来探索搜索空间,随机样本的数量呈指数衰减;对于每个训练图,维持一个记忆缓冲区来存储奖励高于0.8的良好样本;如果内存缓冲区为空,则包含额外的随机样本以加快探索;n个样本由on-policy样本和来自内存缓冲区的样本组成,从奖励中减去基线b,即n个样本的平均奖励,以减小政策梯度的方差。6.根据权利要求5所述的一种基于深度强化学习的系统容错策略方法,其特征在于:所述步骤5中采用模拟器cepsim进行复杂事件处理和流处理来快速训练评估每个分配样本的方法具体为:为了计算奖励r(g
y
),每个取样分配g
y
需要部署在流处理系统上,但是系统可能需要几分钟的时间来稳定和计算容错开销;由于drl依赖于对大量资源分配试验的评估,以这种方式进行训练所需的总时间和计算资源非常棘手;因此,为了快速训练,采用模拟器cepsim进行复杂事件处理和流处理来评估每个分配样本;cepsim是一个基于云的复杂事件处理和流处理系统的模拟器,可以用来研究不同的资源分配、操作员调度和负载均衡方案的效果;在cepsim中,dag用于表示如何处理输入事件流以获得复杂事件;cepsim为用户提供了为dag中的每个操作符指定每个元组的指令数量的灵活性;为了模拟流处理,用户可以提供映射功能,将dag的一部分分配给不同的虚拟机(vm),这些vm可以使用网络相互通信。

技术总结
本发明属于分布式流处理系统容错技术领域,具体涉及一种基于深度强化学习的系统容错策略方法。本发明将深度强化学习技术应用于分布式流处理系统的容错问题中,能够将容错问题中数据备份的分配问题表述为资源分配问题,构建以任务和任务之间的联系为顶点和边的神经网络模型,并经过多层次的训练,有效的使当前系统容错问题处理效果更优秀,同时能够为分布式流处理系统容错问题提供一种基于深度强化学习的可行的方法。本发明所提供的技术方案可恰当分配备份资源,对系统容错开销进行评价,从而降低当前主要以上游备份为主要方案进行处理的复杂度,提高系统容错的效率,降低现有方法的容错开销。方法的容错开销。方法的容错开销。


技术研发人员:庄园 邱天瑞 孙建国 何佳蔓 刘昊洋 武俊鹏 黄子瑶
受保护的技术使用者:哈尔滨工程大学
技术研发日:2021.11.26
技术公布日:2022/3/8

最新回复(0)