1.本发明涉及电网电磁暂态仿真技术领域,尤其涉及一种参数平均化模型建模方法及装置。
背景技术:
2.采用详细化模型对电气系统仿真可以很容易地使用一些商业数字程序和仿真器来实现。但是,详细化模型需要考虑待仿真系统中所有二极管/晶体管的详细开关状态,仿真计算过程将消耗较多的计算时间,因此详细化模型不适用于系统级的仿真分析。
3.平均化模型(avm)通过在典型开关间隔内忽略或平均快速开关效果对详细模型进行简化,将其应用于较大规模电气系统时可大为减少仿真计算时间。在平均化模型的基础上,发展出来一种新的参数平均化模型(pavm),该模型将电气系统的输入输出电气量关系参数化,因而可以减少建立平均化模型的解析过程。但是该模型的输入输出电气量关系参数是通过详细化模型的参数表查得的,当运行工况改变时往往需要重新进行参数平均化建模,而且查表效率较低,而且不准确,降低仿真分析效率及准确率。
技术实现要素:
4.为解决上述问题,本发明提供一种参数平均化模型建模方法及装置。
5.本发明提供一种参数平均化模型建模方法,包括:
6.确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;
7.获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;
8.将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;
9.根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
10.根据本发明提供的一种参数平均化模型建模方法,所述确定参数平均化模型建模需要的参数函数,具体包括:要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量与输出量之间满足所述参数解析式。
11.根据本发明提供的一种参数平均化模型建模方法,所述输入量包括交流电压及交流电流,所述输出量包括直流电压及直流电流,所述确定参数平均化模型建模需要的参数函数,之前还包括:将所述输入量及输出量的相位变换到同步旋转的qd坐标系中。
12.根据本发明提供的一种参数平均化模型建模方法,所述要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量
与输出量之间满足所述参数解析式,具体包括:
[0013][0014][0015][0016][0017]
其中,表示直流电压平均值变换到同步旋转的qd坐标系后q轴电压分量平均值,表示对应的d轴电压分量平均值,α(
·
)表示参数解析式,表示交流电压的有效值,表示直流电流平均值,β(
·
)表示参数解析式,表示交流电流的有效值,表示d轴电流分量平均值,表示q轴电流分量平均值,φ(
·
)表示参数解析式。
[0018]
根据本发明提供的一种参数平均化模型建模方法,所述确定参数平均化模型建模需要的参数函数,之后还包括:定义电气系统电路的负载阻抗,并将其作为所述相关量,所述负载阻抗表示为:
[0019][0020]
根据本发明提供的一种参数平均化模型建模方法,所述将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值,具体包括:将负载阻抗的输入数据输入神经网络模型,得到神经网路模型输出的对应负载阻抗输入数据的参数解析式的值。
[0021]
根据本发明提供的一种参数平均化模型建模方法,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的,具体包括:
[0022]
创建要建模参数平均化模型的电气系统电路的详细化模型;
[0023]
根据所述详细化模型获取负载阻抗的数据并将其作为训练数据,并获取与负载阻抗数据对应的参数解析式的数据并将其作为训练数据的标签;
[0024]
通过训练数据以及训练数据的标签对神经网络模型进行迭代训练,直至神经网络模型的损失函数收敛至预设条件停止迭代,得到训练好的神经网络模型。
[0025]
本发明还提供一种参数平均化模型建模装置,包括:
[0026]
参数函数确定单元,用于确定参数平均化模型建模需要的参数函数;其中,所述参
数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;
[0027]
模型输入数据获取单元,用于获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;
[0028]
参数生成单元,用于将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;
[0029]
参数平均化模型生成单元,用于根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
[0030]
本发明还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述参数平均化模型建模方法的步骤。
[0031]
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述参数平均化模型建模方法的步骤。
[0032]
本发明提供的参数平均化模型建模方法及装置,通过将建模需要确定的参数函数的相关量的输入数据输入训练好的神经网络模型,即可得到神经网络模型输出的参数解析式对应相关量的值,从而得到参数函数的显式表达,提高了建模效率,实施方便。
附图说明
[0033]
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0034]
图1是现有技术中二极管整流电路结构示意图;
[0035]
图2是本发明实施例提供的参数平均化模型建模方法流程图;
[0036]
图3是本发明实施例中交流电压电流在整流器参考系下的相量图;
[0037]
图4是图2中步骤230的神经网络模型训练过程流程图;
[0038]
图5是本发明实施例提供的参数平均化模型建模装置结构示意图;
[0039]
图6是本发明提供的电子设备的结构示意图。
具体实施方式
[0040]
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0041]
如图1所示的二极管整流电路通常具有高效率、低成本和相对简单的特点,在交流电力系统中广泛用作前端电路和电子负载。在商业可用的基于状态空间变量和基于节点分析的程序中,由于许多变量的切换和不连续性,对包含这些类型的开关变换器的电力系统
的仿真需要花费大量计算时间。这对于系统级的研究或为了参数优化的目的而需要多次运行模拟的时候是不允许的,所以详细化仿真并不适用于系统级仿真。
[0042]
于是出现了平均化仿真(avm),其在典型开关间隔内忽略或平均快速开关效果,从而对完成了对详细化模型的简化,应用于较大规模电气系统时将极大地减少仿真计算时间,其在电力系统电力电子建模领域广泛应用。在avm建模过程中,需要推导换流器的解析表达式。对于二极管整流电路,其解析表达式复杂,难以推导。为此,可以构建二极管整流电路的参数平均化模型(pavm)。pavm通过依赖于数值构造的参数函数来关联变换器开关子电路(单元)的交直流变量,从而避免了复杂的解析推导。在电磁暂态仿真中,利用pavm对二极管整流电路进行建模,可以显著提升效率。但是,当运行工况改变时,往往需要重新构建参数函数,建立新的参数平均化模型。
[0043]
本发明实施例中,使用神经网络代替参数化过程,可简化参数平均化建模过程。其意义在于可基于少量的样本获得参数函数的显式表达,提升效率,实施更方便。对仅有部分工况现场量测数据的系统,可以方便构建其参数平均化模型。
[0044]
随着电力电子工业飞速发展,出现了很多整流器新型拓扑,但此时整流器建模及仿真大多依赖于详细模型,虽然可以很容易地使用一些商业数字程序和仿真器来实现。但是,详细化模型需要考虑待仿真系统中所有二极管/晶体管的详细开关状态,仿真计算过程将消耗较多的计算时间。
[0045]
为提高整流器的仿真效率,进一步提出了平均化建模与参数平均化建模,使可以仅通过输入输出等信息即可搭建整流器模型,忽略了整流器内部拓扑与开关动作,且参数平均化模型(pavm)将电气系统的输入输出电气量关系参数化,可以减少建立平均化模型的解析过程,进一步提高了计算效率。
[0046]
随着人工智能飞速发展,由于其具有较高的运算速度、较强的联想能力及较强的适应性等特点,人工神经网络的应用范围也越来越广,已经成为了一个多学科交叉的学科领域。
[0047]
分析参数平均化建模过程,重点在于参数的计算,而神经网络具有很强的学习计算能力,因此可以使用神经网络对参数进行学习,为神经网络参与参数平均化建模提供的可能。
[0048]
如图2所示,本发明实施例提供一种参数平均化模型建模方法,包括:
[0049]
步骤210:确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;
[0050]
本发明实施例中,要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量与输出量之间满足所述参数解析式。
[0051]
具体地,以整流器电路的参数平均化模型建模为例,要建模参数平均化模型的电气系统电路的输入量与输出量之间满足所述参数函数的关系。参数平均化建模(pavm)避免了复杂的解析推导,依赖于数值构造的参数函数,这些参数函数关系到整流电路(单元)的交流和直流变量。
[0052]
在建模的参数函数确定的过程中,需要将所述输入量及输出量的相位变换到同步旋转的qd坐标系中,即所有的abc相位变量都转移到一个同步旋转的qd参考系中。只要整流
电路中没有储能元件(即电感或电容),整流的交流输入变量和直流输出变量是同时相关的。整流电路可被视为一个复合开关单元,它将一端的直流变量和另一端的交流变量转移到qd同步整流参考坐标系中。同时,两边的变量被认为是关于一个原型开关间隔的平均值,将相应电压电流合成可得如图3所示的相量图。
[0053]
具体地,整流电路的参数平均化模型是由公式(2)至公式(4)的三个参数函数构成:
[0054][0055][0056][0057][0058]
其中,表示直流电压平均值变换到同步旋转的qd坐标系后q轴电压分量平均值,表示对应的d轴电压分量平均值,α(
·
)表示参数解析式,表示交流电压的有效值,表示直流电流平均值,β(
·
)表示参数解析式,表示交流电流的有效值,表示d轴电流分量平均值,表示q轴电流分量平均值,φ(
·
)表示参数解析式。其中α(
·
)、β(
·
)和φ(
·
)是描述整流电路平均行为的一些未知形式的参数解析式。这些参数解析式通常取决于系统的状态,而系统的状态又由加载条件也就是参数函数的自变量决定。假定α(
·
)、β(
·
)和φ(
·
)是常数系数时,会由于整流运行而忽略重要的非线性,且会导致最终建立的参数平均化模型的显著误差。
[0059]
本发明实施例中,所述确定参数平均化模型建模需要的参数函数,之后还包括:定义电气系统电路的负载阻抗,并将其作为所述相关量,所述负载阻抗表示为:
[0060][0061]
对于整流电路的输出阻抗,可以分别根据与和相关的状态变量定义为动态阻抗,即负载阻抗。则α(
·
)、β(
·
)和φ(
·
)可以看作是关于z的相关代数式,在得到α(
·
)、β(
·
)和φ(
·
)关于z的关系后,便可完成参数平均化建模。
[0062]
步骤220:获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;
[0063]
步骤230:将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;
[0064]
具体地,将负载阻抗的输入数据输入神经网络模型,得到神经网路模型输出的对应负载阻抗输入数据的参数解析式的值。
[0065]
例如将z=5代入神经网络模型后得到的输出数据分别为α(5)=1、β(5)=3和φ(5)=2,则对应公式(1)至(5),可分别得到对应公式(2)至(3)的参数函数的显式表达式。
[0066]
本发明实施例中,神经网络模型的训练过程,如图4所示,具体包括:
[0067]
步骤410:创建要建模参数平均化模型的电气系统电路的详细化模型;
[0068]
本发明实施例中,神经网路模型的训练数据及训练数据的标签是由详细化模型生成的。在其他一些实施例中,训练数据以及训练数据标签也可以是实际电路运行获得。
[0069]
步骤420:根据所述详细化模型获取负载阻抗的数据并将其作为训练数据,并获取与负载阻抗数据对应的参数解析式的数据并将其作为训练数据的标签;例如,将对应z的不同数值分别作为数据标签,将对应z不同数值的α(z)、β(z)和φ(z)的数值作为对应的标签。
[0070]
本发明实施例中,可基于少量的样本训练数据获得参数函数的显式表达,避免了传统参数平均化模型中需要大量的仿真结果数据来构建模型的问题,提升了实现过程中的效率。此外,对仅有部分工况现场量测数据的系统,也可以通过少量的数据构建其参数平均化模型,而传统参数平均化模型无法实现。
[0071]
传统参数平均化模型基于详细仿真模型得到,而基于神经网络的参数平均化模型既可基于详细仿真模型得到,也可基于实际数据获得。在详细仿真结果与实际电网运行状态间往往存在偏差时,利用基于神经网络的参数平均化模型可利用实际数据构建,进而实现数据与理论融合驱动的仿真,使得仿真结果更加贴合实际。
[0072]
步骤430:通过训练数据以及训练数据的标签对神经网络模型进行迭代训练,直至神经网络模型的损失函数收敛至预设条件停止迭代,得到训练好的神经网络模型。
[0073]
本公开实施例中,采用bp神经网络模型,包括三个隐层、一个输入层及一个输出层,隐层激活函数选择为sigmoid函数,输出层激活函数选择为relu函数。
[0074]
具体的训练过程为:随机化各层阈值与连接权,设定学习率;通过对当前神经网络进行计算得出的输出值与详细化模型数据也即标签值进行比较得到均方误差;依据均方误差更新各阈值及连接权,重复以上过程,直至模型的损失函数收敛。
[0075]
具体地,本发明实施例中使用simulink中的元件进行仿真,选取三相二极管整流模块,依据公式(1)至(5)在simulink中对三相电压电流、输出直流电压电流等进行计算及平均化处理,将数据输出作为训练数据集,在神经网络代码中进行采样与学习,完成对参数关系的拟合。
[0076]
传统参数平均化模型在系统工况发生较大改变时需要重新进行生成参数函数,但每次参数函数的生成需要耗费大量的时间,基于神经网络的参数平均化模型能够实现宽工况运行,一旦参数函数训练得到,无需重新形成。
[0077]
另外,在基于神经网络的参数平均化模型中,仅涉及矩阵加法与乘法,天然具备可微分性质,可轻易获取仿真输出对电网任意时刻、任意参数的梯度,方便电力系统的优化决策。
[0078]
步骤240:根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
[0079]
利用上述过程所得到的参数关系进行建模,将二极管整流模块用于上述参数有关的电压电流所控制的电压电流源表示,即完成了参数平均化建模过程。
[0080]
下面对本发明实施例提供的参数平均化模型建模装置进行描述,下文描述的参数平均化模型建模装置与上文描述的参数平均化模型建模方法可相互对应参照,如图5所示,本发明实施例提供一种参数平均化模型建模装置,包括:
[0081]
参数函数确定单元510,用于确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;
[0082]
具体地,参数函数确定单元510将要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量与输出量之间满足所述参数解析式。
[0083]
所述输入量包括交流电压及交流电流,所述输出量包括直流电压及直流电流,参数函数确定单元510确定参数函数之前,将所述输入量及输出量的相位变换到同步旋转的qd坐标系中。
[0084]
参数函数确定单元510确定参数函数之后,定义电气系统电路的负载阻抗,并将其作为所述相关量。
[0085]
模型输入数据获取单元520,用于获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;
[0086]
参数生成单元530,用于将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;
[0087]
具体地,参数生成单元530是通过将负载阻抗的输入数据输入神经网络模型,得到神经网路模型输出的对应负载阻抗输入数据的参数解析式的值。
[0088]
具体地,参数生成单元530包括:
[0089]
详细化模型创建子单元,用于创建要建模参数平均化模型的电气系统电路的详细化模型;
[0090]
获取训练数据集子单元,用于根据所述详细化模型获取负载阻抗的数据并将其作为训练数据,并获取与负载阻抗数据对应的参数解析式的数据并将其作为训练数据的标签;
[0091]
模型训练子单元,用于通过训练数据以及训练数据的标签对神经网络模型进行迭代训练,直至神经网络模型的损失函数收敛至预设条件停止迭代,得到训练好的神经网络模型。
[0092]
参数平均化模型生成单元540,用于根据所述输入数据及输出数据,得到参数平均
化模型的参数函数的表达式。
[0093]
下面结合图6描述本发明实施例提供的一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(communications interface)620、存储器(memory)630和通信总线640,其中,处理610,通信接口620,存储630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行参数平均化模型建模方法,该方法包括:确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
[0094]
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0095]
在上述终端设备实施例中,应理解,处理器610可以是中央处理单元(英文:central processing unit,简称:cpu),还可以是其他通用处理器、数字信号处理器(英文:digital signal processor,简称:dsp)、专用集成电路(英文:application specific integrated circuit,简称:asic)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
[0096]
另一方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的参数平均化模型建模方法,该方法包括:确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
[0097]
又一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计
算机程序,该计算机程序被处理器执行时实现以执行上述各提供的参数平均化模型建模方法:确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。
[0098]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0099]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0100]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
技术特征:
1.一种参数平均化模型建模方法,其特征在于,包括:确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。2.根据权利要求1所述的参数平均化模型建模方法,其特征在于,所述确定参数平均化模型建模需要的参数函数,具体包括:要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量与输出量之间满足所述参数解析式。3.根据权利要求2所述的参数平均化模型建模方法,其特征在于,所述输入量包括交流电压及交流电流,所述输出量包括直流电压及直流电流,所述确定参数平均化模型建模需要的参数函数,之前还包括:将所述输入量及输出量的相位变换到同步旋转的qd坐标系中。4.根据权利要求3所述的参数平均化模型建模方法,其特征在于,所述要建模的参数平均化模型的电气系统电路的输入量与输出量,分别对应参数函数的自变量与因变量,且所述输入量与输出量之间满足所述参数解析式,具体包括:参数解析式,具体包括:参数解析式,具体包括:参数解析式,具体包括:其中,表示直流电压平均值变换到同步旋转的qd坐标系后q轴电压分量平均值,表示对应的d轴电压分量平均值,α(
·
)表示参数解析式,表示交流电压的有效
值,表示直流电流平均值,β(
·
)表示参数解析式,表示交流电流的有效值,表示d轴电流分量平均值,表示q轴电流分量平均值,φ(
·
)表示参数解析式。5.根据权利要求4所述的参数平均化模型建模方法,其特征在于,所述确定参数平均化模型建模需要的参数函数,之后还包括:定义电气系统电路的负载阻抗,并将其作为所述相关量,所述负载阻抗表示为:6.根据权利要求5所述的参数平均化模型建模方法,其特征在于,所述将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值,具体包括:将负载阻抗的输入数据输入神经网络模型,得到神经网路模型输出的对应负载阻抗输入数据的参数解析式的值。7.根据权利要求6所述的参数平均化模型建模方法,其特征在于,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的,具体包括:创建要建模参数平均化模型的电气系统电路的详细化模型;根据所述详细化模型获取负载阻抗的数据并将其作为训练数据,并获取与负载阻抗数据对应的参数解析式的数据并将其作为训练数据的标签;通过训练数据以及训练数据的标签对神经网络模型进行迭代训练,直至神经网络模型的损失函数收敛至预设条件停止迭代,得到训练好的神经网络模型。8.一种参数平均化模型建模装置,其特征在于,包括:参数函数确定单元,用于确定参数平均化模型建模需要的参数函数;其中,所述参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;所述参数平均化模型包括至少一个所述参数函数;模型输入数据获取单元,用于获取所述参数函数的相关量的输入数据;其中,所述相关量与自变量及因变量相关;参数生成单元,用于将所述输入数据输入神经网络模型,得到所述神经网络模型输出的对应所述输入数据的输出数据;其中,所述输出数据表征对应输入数据的参数解析式的值;其中,所述神经网络模型是基于对训练数据以及与训练数据对应的参数解析式的值为标签,进行训练得到的;参数平均化模型生成单元,用于根据所述输入数据及输出数据,得到参数平均化模型的参数函数的表达式。9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述参数平均化模型建模方法的步骤。10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算
机程序被处理器执行时实现如权利要求1至7任一项所述参数平均化模型建模方法的步骤。
技术总结
本发明提供一种参数平均化模型建模方法及装置,包括:确定参数平均化模型建模需要的参数函数;参数函数包括自变量、因变量及用于表征自变量与因变量之间关系的参数解析式;获取参数函数的相关量的输入数据;其中,相关量与自变量及因变量相关;将输入数据输入神经网络模型,得到神经网络模型输出的对应输入数据的输出数据;其中,输出数据表征对应输入数据的参数解析式的值;根据输入数据及输出数据,得到参数平均化模型的参数函数的表达式。通过将建模需要确定的参数函数的相关量的输入数据输入训练好的神经网络模型,即可得到神经网络模型输出的参数解析式对应相关量的值,从而得到参数函数的显式表达,提高了建模效率,实施方便。施方便。施方便。
技术研发人员:王珣 李振动 檀英辉 陈颖 高仕林 张艺 肖谭南 安海清 李涛 吴淘 杨杰
受保护的技术使用者:清华四川能源互联网研究院
技术研发日:2021.09.03
技术公布日:2022/3/8