会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
首页 / 专利库 / 电信 / 迭代 / 一种基于受限恢复的图迭代器及方法

一种基于受限恢复的图迭代器及方法

阅读:1068发布:2020-06-19

IPRDB可以提供一种基于受限恢复的图迭代器及方法专利检索,专利查询,专利分析的服务。并且本发明公开一种基于受限恢复的图迭代器及方法,属于分布式迭代计算技术领域。该迭代器采用分布式图计算算法的join-GroupBy-Union-aggregation模式将图计算转换操作中的宽依赖转化为窄依赖,并对部分数据进行备份,从而使得只需恢复故障节点而不需要完全将整个计算回退到最近检查点保存的状态;在故障节点恢复时采用所有健康节点来并行恢复,进一步加快了故障恢复的速度;图迭代中在迭代尾部添加检查点的非阻塞检查点模型,加速了检查点的写入速度,并且在尾部检查点添加了迭代感知器,使得仅在当前迭代中的检查点完成后才启动下一个迭代,有助于在迭代图处理期间协调检查点的创建。,下面是一种基于受限恢复的图迭代器及方法专利的具体信息内容。

1.一种基于受限恢复的图迭代器,其特征在于包括:依赖转换与数据备份模块、尾检查点模块与受限恢复模块;

所述依赖转换与数据备份模块:以分布式图计算算法的join-GroupBy-Union-aggregation模式为基础,将对上游数据的依赖转换为窄依赖模式;通过数据备份来实现故障节点恢复的单依赖性,保证故障恢复时只需对故障节点进行恢复;

所述尾检查点模块采用非阻塞检查点,实现反向通道与写检查点的同时进行;同时为了保证迭代的正确执行,加入迭代感知器,使迭代头知道什么时候可以进入下次迭代,检查点的存储利用Hadoop提供的分布式存储工具HDFS;

所述受限恢复模块根据依赖转换模块的窄依赖模式将故障的恢复限制在只针对故障节点的恢复,同时针对集群中可能出现的单点故障,多点故障,以及级联故障分别提出了对应的恢复方式。

2.根据权利要求1所述的一种基于受限恢复的图迭代器,其特征在于所述分布式图计算算法的join-GroupBy-Union-aggregation模式的流程如下:(1)将join算子依赖的上游图数据结构的顶点集Vertex数据通过检查点机制进行备份,图数据结构的边集Edge数据持久化到Hadoop分布式文件系统HDFS中,从而保证该步骤只需从分布式文件系统中恢复即可;

(2)将GroupBy算子依赖的上游Message数据在各节点的日志系统中进行存储,该步骤的恢复只需要读取相应的日志信息即可;

(3)Union算子和join阶段的Vertex保持相同的分区,以保证没有shuffle操作,在没有shuffle操作的情况下不需要额外的恢复策略;

(4)在Union算子同分区的情况下Aggregation对上游数据是窄依赖的。

3.采用权利要求1所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于包括如下步骤:步骤1:依赖转换与数据备份:图数据结构由顶点集Vertex和边集Edge两部分组成,针对分布式图算法中广泛采用的join-GroupBy-Union-aggregation模式,通过将其对上游数据的依赖转换为窄依赖和通过数据备份来实现故障节点恢复的单依赖性,从而避免了完全恢复;

步骤2:采用非阻塞的尾检查点机制,使得通过反向通道将数据传输到迭代头与写检查点操作同时进行;

步骤3:受限恢复:一旦检测到节点故障,只考虑对故障节点进行恢复,不对整个集群进行恢复;采用多个健康节点并行恢复,加速状态恢复的过程。

4.根据权利要求2所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于所述步骤2的过程如下:步骤2.1:非阻塞检查点的实现:通过修改原有的写入检查点,然后采用反向通道传输数据的顺序,实现检查点的写入与反向通道传输数据的同时进行;

步骤2.2:加入迭代感知模块,用于接收检查点写入结束的信号,通过获取此信号来通知迭代头可以开启下次迭代;迭代感知模块简化了系统架构,并有助于在迭代图处理期间协调检查点的创建。

5.根据权利要求2所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于步骤3所述的受限恢复包括:单点故障恢复、多点故障恢复和级联故障恢复。

6.根据权利要求5所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于所述单点故障恢复的过程如下:S1:从检查点恢复丢失分区的Vertex记为Vj,并从HDFS读取之前存入的Edge记为E;

S2:Vj并行地与E连接以重建故障节点的本地Message记为Mj,即节点Nj上Message的丢失分区;

S3:获取所有健康节点上的本地日志,记为Lk,其中k≠j,从中读取节点Nk到故障节点Nj的路由Message信息;

S4:将故障节点的Mj加上所有健康节点的本地日志Lk,获取Neighbor丢失的分区Nej;

S5:将Vj与Nej进行Union操作,即可得到Nej+;

S6:在aggregation阶段通过聚合函数f对Nej+进行聚合即可恢复Vertex'的丢失分区Vj',并且将Vj'替换为Vj;

S7:当前迭代次数由i增加到i+1;

S8:重复执行S1至S7,直到迭代状态达到失败前一个的状态跳出循环。

7.根据权利要求根据权利要求5所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于所述多点故障恢复的过程如下:从逻辑上将多个节点视为一个节点,则多个节点的故障将逻辑地转变为单个节点的故障,执行单点故障恢复的流程。

8.根据权利要求根据权利要求5所述的基于受限恢复的图迭代器进行迭代的方法,其特征在于所述级联故障恢复的过程如下:级联故障即在单点故障的过程中又发生了单点故障,当系统正在进行单点故障恢复时,嵌套执行单点故障恢复流程。

说明书全文

一种基于受限恢复的图迭代器及方法

技术领域

[0001] 本发明涉及分布式迭代计算技术领域,尤其涉及一种基于受限恢复的图迭代器及方法。

背景技术

[0002] 由于图数据强大的表达能力,近年来分布式图数据的处理受到广泛的关注。图迭代器广泛应用于数据挖掘、机器学习和应用统计领域。随着互联网技术的快速发展,对海量数据的迭代处理与分析具有巨大的应用价值。伴随分布式系统的计算节点的不断增加,故障率也随之提升。图迭代器的设计和容错方法的设计是制约计算效率的主要瓶颈之一,是不可忽略的关键技术。
[0003] 在现有技术中,为了满足大规模分布式图数据迭代处理的需要,工业界开发了许多新颖的专用系统。例如,用于大规模分布式图计算的Pregel、GraphLab和PowerGraph。这些专用系统从设计上支持为图计算量身定制的广泛的系统优化。在许多情况下图计算是整体工作流的一部分,这种整体工作流程通常包括如下步骤:数据准备、模型构建和模型评估。在上述专用系统中处理这种更复杂的场景非常麻烦,尤其是在预处理数据时(例如,当从爬取的网页中提取链接以创建web图形时)。所以我们需要在一个更通用的分布式系统上进行图计算的优化。
[0004] 通用的分布式系统的图迭代器在处理批量任务时,如果某台节点发生故障或者某个任务失败时,系统会根据文件可以重复访问的特性,重新启动该迭代任务,即基于分布式快照和部分可重发的数据源实现了容错。当任务出现失败时,系统将整个Job恢复到最近一次快照的状态,并从数据源重发快照之后的数据。如果故障经常发生,这种悲观的方法很有效。然而,现有的图迭代器在任务量较小或任务发生故障概率较低的情况下,采用了悲观的容错策略,带来较大的额外开销,没有综合考虑迭代任务量大小以及任务故障率的容错方案影响了真正的迭代计算效率。

发明内容

[0005] 针对上述现有技术的不足,本发明提供一种基于受限恢复的图迭代器及方法。
[0006] 为解决上述技术问题,本发明所采取的技术方案是:一种基于受限恢复的图迭代器,包括:依赖转换与数据备份模块、尾检查点模块与受限恢复模块;
[0007] 所述依赖转换与数据备份模块:以分布式图计算算法的join-GroupBy-Union-aggregation模式为基础,将对上游数据的依赖转换为窄依赖模式,其模型示意图如图1所示;通过数据备份来实现故障节点恢复的单依赖性,保证故障恢复时只需对故障节点进行恢复;
[0008] 所述分布式图计算算法的join-GroupBy-Union-aggregation模式的流程如下:
[0009] (1)将join算子依赖的上游图数据结构的顶点集Vertex数据通过检查点机制进行备份,图数据结构的边集Edge数据持久化到Hadoop分布式文件系统HDFS中,从而保证该步骤只需从分布式文件系统中恢复即可;
[0010] (2)将GroupBy算子依赖的上游Message数据在各节点的日志系统中进行存储,该步骤的恢复只需要读取相应的日志信息即可;
[0011] (3)Union算子和join阶段的Vertex保持相同的分区,以保证没有shuffle操作,在没有shuffle操作的情况下不需要额外的恢复策略;
[0012] (4)在Union算子同分区的情况下Aggregation对上游数据是窄依赖的。
[0013] 所述尾检查点模块采用非阻塞检查点,其结构如图2所示,实现反向通道与写检查点的同时进行;同时为了保证迭代的正确执行,加入迭代感知器,使迭代头知道什么时候可以进入下次迭代,检查点的存储利用Hadoop提供的分布式存储工具HDFS;
[0014] 所述受限恢复模块根据依赖转换模块的窄依赖模式将故障的恢复限制在只针对故障节点的恢复,同时针对集群中可能出现的单点故障,多点故障,以及级联故障分别提出了对应的恢复方式。
[0015] 采用上述基于受限恢复的图迭代器进行迭代的方法,包括如下步骤:
[0016] 步骤1:依赖转换与数据备份:图数据结构由顶点集Vertex和边集Edge两部分组成,针对分布式图算法中广泛采用的join-GroupBy-Union-aggregation模式,通过将其对上游数据的依赖转换为窄依赖和通过数据备份来实现故障节点恢复的单依赖性,从而避免了完全恢复;
[0017] 根据join-GroupBy-Union-aggregation模式的逆序模式来反向描述依赖转换与数据备份如何保证在只恢复故障节点的情况下还能保证恢复策略的正确性,如下:
[0018] 步骤1.1:Aggregation算子对上游分区结果的窄依赖:如果Neighbor和Vertex是同分区的,那么在Union操作后的数据是良好分区的;在这种情况下,一个在Neighbor+上的Aggregation操作不需要shuffle阶段,因此其对上游分区结果是窄依赖的;为了实现这一点,需要GroupBy算子将相同的对Vertex进行分区的函数应用于Message;
[0019] 步骤1.2:GroupBy算子Shuffle阶段的路由信息备份:GroupBy丢失的Neighbor分区依赖于同一故障节点上的Message分区以及在Shuffle阶段从健康节点上的其他分区接收的数据。如果所有节点在正常执行时都在groupBy中的Shuffle阶段本地存储Message数据的路由信息,那么可以保证GroupBy阶段的受限恢复。因为来自其他节点的路由Message数据只需要从本地Log中获取,而无需完全重新计算即可得到;
[0020] 步骤1.3:Join算子:Vertex的丢失分区和Edge可以分别通过检查点和数据源进行重建。因此只需要重新计算出Message的丢失分区,而无需完全重新执行以将Vertex与Edge进行join操作。
[0021] 步骤2:采用非阻塞的尾检查点机制,使得通过反向通道将数据传输到迭代头与写检查点操作同时进行;
[0022] 步骤2.1:非阻塞检查点的实现:通过修改原有的写入检查点,然后采用反向通道传输数据的顺序,实现检查点的写入与反向通道传输数据的同时进行;
[0023] 步骤2.2:加入迭代感知模块,用于接收检查点写入结束的信号,通过获取此信号来通知迭代头可以开启下次迭代;迭代感知模块简化了系统架构,并有助于在迭代图处理期间协调检查点的创建。
[0024] 步骤3:受限恢复:一旦检测到节点故障,只考虑对故障节点进行恢复,不对整个集群进行恢复;采用多个健康节点并行恢复,加速状态恢复的过程。
[0025] 所述的受限恢复包括:单点故障恢复、多点故障恢复和级联故障恢复。
[0026] 所述单点故障恢复的流程如图3所示,包括如下步骤:
[0027] S1:从检查点恢复丢失分区的Vertex记为Vj,并从HDFS读取之前存入的Edge记为E;
[0028] S2:Vj并行地与E连接以重建故障节点的本地Message记为Mj,即节点Nj上Message的丢失分区;
[0029] S3:获取所有健康节点上的本地日志,记为Lk,其中k≠j,从中读取节点Nk到故障节点Nj的路由Message信息;
[0030] S4:将故障节点的Mj加上所有健康节点的本地日志Lk,获取Neighbor丢失的分区Nej;
[0031] S5:将Vj与Nej进行Union操作,即可得到Nej+;
[0032] S6:在aggregation阶段通过聚合函数f对Nej+进行聚合即可恢复Vertex'的丢失分区Vj',并且将Vj'替换为Vj;
[0033] S7:当前迭代次数由i增加到i+1;
[0034] S8:重复执行S1至S7,直到迭代状态达到失败前一个的状态跳出循环。
[0035] 所述多点故障恢复的过程如下:
[0036] 从逻辑上将多个节点视为一个节点,则多个节点的故障将逻辑地转变为单个节点的故障,执行单点故障恢复的流程。
[0037] 所述级联故障恢复的过程如下:
[0038] 级联故障即在单点故障的过程中又发生了单点故障,当系统正在进行单点故障恢复时,嵌套执行单点故障恢复流程。
[0039] 采用上述技术方案所产生的有益效果在于:
[0040] 1、针对故障恢复提出了从检查点快速恢复的受限恢复方法,通过将图计算转换操作中的宽依赖转化为窄依赖并对部分数据进行备份,从而使得只需恢复故障节点而不需要完全将整个计算回退到最近检查点保存的状态;
[0041] 2、故障节点的恢复使用所有健康节点来并行恢复,进一步加快了故障恢复的速度;
[0042] 3、对以往分布式流处理系统中容错部分常用的阻塞检查点方式进行优化,在图迭代中实现了在迭代尾部添加检查点的非阻塞检查点模型;对于尾部检查点模型,使得检查点的编写与每个超步结束时顶点数据集的生成并行进行,加速了检查点的写入速度;
[0043] 4、在尾部检查点添加了迭代感知器,使得仅在当前迭代中的检查点完成后才启动下一个迭代。

附图说明

[0044] 图1为本发明分布式图计算算法的join-GroupBy-Union-aggregation模式示意图;
[0045] 图2为本发明尾检查点模块采用非阻塞检查点的示意图;
[0046] 图3为本发明单点故障恢复流程图;
[0047] 图4为本发明基于受限恢复的图迭代器容错示意图;
[0048] 图5为本发明实施例中Gaia中批量迭代器模型示意图;
[0049] 图6为本发明实施例中连通分量算法的图数据集;
[0050] 图7为本发明实施例中连通分量图数据集的初始图数据结构;
[0051] 图8为本发明实施例中正常执行时每次迭代结果示意图;
[0052] 图9为本发明实施例中受限情况下第二次超步SuperStep数据处理图;
[0053] 图10为本发明实施例中第二个超步SuperStep的并行受限恢复。

具体实施方式

[0054] 下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
[0055] 本实施例采用通用的分布式系统Gaia进行图计算的优化。Gaia中现有的阻塞检查点以及节点故障时集群整体状态的回退严重拖慢了迭代图计算的时间。本发明的图迭代器对上述两个问题进行了优化:根据基于窄依赖模式的受限恢复将Gaia图计算的故障恢复限制在故障节点上;通过非阻塞检查点以及迭代感知器将写检查与反向通道传输迭代数据并行进行。
[0056] 基于受限恢复的图迭代器容错示意图,也就是受限恢复模块,如图4所示:故障的恢复只是对故障节点3的状态进行恢复,而不是整个集群状态的回退。依赖转换与数据备份模块确保了只对故障节点进行恢复的可行性,尾检查点模块优化了系统并行处理的速度,最终确保了受限恢复模块的实现。本实施例中基于受限恢复的图迭代器,包括:依赖转换与数据备份模块、尾检查点模块与受限恢复模块;
[0057] 所述依赖转换与数据备份模块:以分布式图计算算法的join-GroupBy-Union-aggregation模式为基础,将对上游数据的依赖转换为窄依赖模式,其模型示意图如图1所示;通过数据备份来实现故障节点恢复的单依赖性,保证故障恢复时只需对故障节点进行恢复;
[0058] 所述尾检查点模块采用非阻塞检查点,其结构如图2所示,实现反向通道与写检查点的同时进行;同时为了保证迭代的正确执行,加入迭代感知器,使迭代头知道什么时候可以进入下次迭代,检查点的存储利用Hadoop提供的分布式存储工具HDFS;
[0059] 所述受限恢复模块根据依赖转换模块的窄依赖模式将故障的恢复限制在只针对故障节点的恢复,同时针对集群中可能出现的单点故障,多点故障,以及级联故障分别提出了对应的恢复方式。
[0060] 采用上述基于受限恢复的图迭代器进行迭代的方法,包括如下步骤:
[0061] 步骤1:依赖转换与数据备份:图数据结构由顶点集Vertex和边集Edge两部分组成,针对分布式图算法中广泛采用的join-GroupBy-Union-aggregation模式,通过将其对上游数据的依赖转换为窄依赖和通过数据备份来实现故障节点恢复的单依赖性,从而避免了完全恢复;
[0062] 根据join-GroupBy-Union-aggregation模式的逆序模式来反向描述依赖转换与数据备份如何保证在只恢复故障节点的情况下还能保证恢复策略的正确性,如下:
[0063] 步骤1.1:Aggregation算子对上游分区结果的窄依赖:如果Neighbor和Vertex是同分区的,那么在Union操作后的数据是良好分区的;在这种情况下,一个在Neighbor+上的Aggregation操作不需要shuffle阶段,因此其对上游分区结果是窄依赖的;为了实现这一点,需要GroupBy算子将相同的对Vertex进行分区的函数应用于Message;
[0064] 步骤1.2:GroupBy算子Shuffle阶段的路由信息备份:GroupBy丢失的Neighbor分区依赖于同一故障节点上的Message分区以及在Shuffle阶段从健康节点上的其他分区接收的数据。如果所有节点在正常执行时都在groupBy中的Shuffle阶段本地存储Message数据的路由信息,那么可以保证GroupBy阶段的受限恢复。因为来自其他节点的路由Message数据只需要从本地Log中获取,而无需完全重新计算即可得到;让Mj(j∈[0,n-1])表示Message在节点Nj的分区,并且Mk→j表示将Message信息从节点Nk发送到节点Nj。对任何k∈[0,n-1]并且k≠j,Mk→j被写到Nk的日志中。这个在Nk节点的日志被表示为Lk。
[0065] 步骤1.3:Join算子:Vertex的丢失分区和Edge可以分别通过检查点和数据源进行重建。因此只需要重新计算出Message的丢失分区,而无需完全重新执行以将Vertex与Edge进行join操作。
[0066] 步骤2:采用非阻塞的尾检查点机制,使得通过反向通道将数据传输到迭代头与写检查点操作同时进行;
[0067] 步骤2.1:非阻塞检查点的实现:通过修改原有的写入检查点,然后采用反向通道传输数据的顺序,实现检查点的写入与反向通道传输数据的同时进行,如图2所示,检查的点写入不再阻碍反向通道传输数据到下游操作;
[0068] 步骤2.2:加入迭代感知模块,用于接收检查点写入结束的信号,通过获取此信号来通知迭代头可以开启下次迭代;迭代感知模块简化了系统架构,并有助于在迭代图处理期间协调检查点的创建,如图2所示,通过监控写入HDFS中的数据,判断检查点是否已经写入完毕,如果写入完成则由迭代感知器通知迭代头可以开启下次迭代。
[0069] 步骤3:受限恢复:一旦检测到节点故障,只考虑对故障节点进行恢复,不对整个集群进行恢复;采用多个健康节点并行恢复,加速状态恢复的过程。
[0070] 所述的受限恢复包括:单点故障恢复、多点故障恢复和级联故障恢复。
[0071] 所述单点故障恢复的流程如图3所示,包括如下步骤:
[0072] S1:从检查点恢复丢失分区的Vertex记为Vj,并从HDFS读取之前存入的Edge记为E;
[0073] S2:Vj并行地与E连接以重建故障节点的本地Message记为Mj,即节点Nj上Message的丢失分区;
[0074] S3:获取所有健康节点上的本地日志,记为Lk,其中k≠j,从中读取节点Nk到故障节点Nj的路由Message信息;
[0075] S4:将故障节点的Mj加上所有健康节点的本地日志Lk,获取Neighbor丢失的分区Nej;
[0076] S5:将Vj与Nej进行Union操作,即可得到Nej+;
[0077] S6:在aggregation阶段通过聚合函数f对Nej+进行聚合即可恢复Vertex'的丢失分区Vj',并且将Vj'替换为Vj;
[0078] S7:当前迭代次数由i增加到i+1;
[0079] S8:重复执行S1至S7,直到迭代状态达到失败前一个的状态跳出循环。
[0080] 本实施例采用Gaia系统中的批量迭代模型,分析一个单点故障的实例来阐述受限恢复图迭代器的执行过程,如图5所示为Gaia中批量迭代模型,其中步函数可以理解为循环流程中的循环体。
[0081] 以图算法中的连通分量算法为例来说明单点故障恢复,图6为连通分量算法的图数据集。在连通分量算法中图中所有顶点的初始权值为其顶点编号,通过将更小的权值不断传播给相邻节点来进行迭代,最终每个连通分量中的顶点权值都变为该连通分量中的最小编号的值,通过查看权值即可找出所有的连通分量。图计算中图数据结构主要包括顶点数据集和边数据集两部分,图7为连通分量图数据集的初始图数据结构,其中所有顶点的初始权值为其顶点编号,边数据集为相邻节点的节点对的值(因为是无向图,所以源点也是目的顶点)。
[0082] 图8展示了正常执行时每次迭代结果示意图,其中V0,V1,V2分别表示在节点N0,N1,N2上执行的顶点数据子集,图8展示了图7中顶点数据在四次迭代之后达到收敛。
[0083] 图9展现了本发明中受限恢复的图迭代器正常执行第二次超步SuperStep的过程。首先,将顶点集Vertex和边集Edge分区,然后将Vertex和Edge进行Join操作得到Message(Message中记录的是每个节点受到的相邻节点传来的值)。注意在Vertex和Edge的Join操作中存在shuffle操作,这说明Join是宽依赖的,我们通过检查点中的Vertex和存入HDFS的边集Edge保证了在进行恢复时不需要健康节点的shuffle数据。对Message进行GroupBy分组操作时要保证Neighbor与Vertex同分区,这时也会出现对Message的shuffle操作,但是通过把各个节点的Message信息通过Log进行本地保存,这样在之后的恢复中只需要读取健康节点本地Log里面的Message信息就可以获取到故障恢复需要的来自其他节点的Message信息。因为Vertex和Neighbor本身是同分区的,所以Union是对上游数据是窄依赖的。因为Vertex和Neighbor是同分区的,所以Vertex和Neighbor+也是同分区的,所以Aggregation算子对上游数据也是窄依赖的。
[0084] 图10展现了本发明中第二个超步SuperStep的并行受限恢复,这里假设节点3出现故障,所以需要对节点3进行单点故障恢复。在这里我们把节点3的任务提交到健康节点进行恢复,直到恢复到任务失败前的状态为止。首先,从检查点中读取故障节点3的顶点信息V3,并从HDFS读取存储的所有的边信息Edge。将V3与Edge进行连接操作即可得到故障节点N2执行第二次超步时的本地Message,再通过读取N0和N1节点的本地日志里的Message信息即可得到故障节点N2原来需要的来自其他节点的shuffle信息。对Message和Log相加并进行GroupBy操作,在GroupBy时需要保证Neighbor与Vertex同分区,所以只有3,6,9三个顶点的信息被保存。接着将Vertex与Neighbor进行Union操作得到Neighbor+,因为Vertex与Neighbor是同分区的,所以Union操作是没有shuffle过程的。最后将得到的Neighbor+通过聚合函数进行聚合,得到更新后的顶点集Vertex+。这里的聚合函数的作用是在Neighbor+里面找到所有顶点的最小权值。
[0085] 所述多点故障恢复的过程如下:
[0086] 从逻辑上将多个节点视为一个节点,则多个节点的故障将逻辑地转变为单个节点的故障,执行单点故障恢复的流程。
[0087] 所述级联故障恢复的过程如下:
[0088] 级联故障即在单点故障的过程中又发生了单点故障,当系统正在进行单点故障恢复时,嵌套执行单点故障恢复流程。
高效检索全球专利

IPRDB是专利检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,专利查询、专利分析

电话:13651749426

侵权分析

IPRDB的侵权分析产品是IPRDB结合多位一线专利维权律师和专利侵权分析师的智慧,开发出来的一款特色产品,也是市面上唯一一款帮助企业研发人员、科研工作者、专利律师、专利分析师快速定位侵权分析的产品,极大的减少了用户重复工作量,提升工作效率,降低无效或侵权分析的准入门槛。

立即试用