上海交通大学学报, 2024, 58(6): 846-854 doi: 10.16183/j.cnki.jsjtu.2022.534

新型电力系统与综合能源

融合外部注意力机制的序列到点非侵入式负荷分解

李利娟1, 刘海1, 刘红良,2, 张青松1, 陈永东1

1.湘潭大学 自动化与电子信息学院,湖南 湘潭 411105

2.湖南国家应用数学中心,湖南 湘潭 411105

Non-Intrusive Load Disaggregation Using Sequence-to-Point Integrating External Attention Mechanism

LI Lijuan1, LIU Hai1, LIU Hongliang,2, ZHANG Qingsong1, CHEN Yongdong1

1. College of Automation and Electronic Information, Xiangtan University, Xiangtan 411105, Hunan, China

2. National Center for Applied Mathematics in Hunan, Xiangtan 411105, Hunan, China

通讯作者: 刘红良,教授,博士生导师;E-mail:lhl@xtu.edu.cn.

责任编辑: 王历历

收稿日期: 2022-12-29   修回日期: 2023-04-26   接受日期: 2023-05-22  

基金资助: 国家自然科学基金项目(52077189)
电力传输与功率变换控制教育部重点实验室开放课题(2021AA02)

Received: 2022-12-29   Revised: 2023-04-26   Accepted: 2023-05-22  

作者简介 About authors

李利娟(1980-),教授,博士生导师,从事电力系统脆弱性研究.

摘要

非侵入式负荷分解可以深度挖掘用户电力消耗数据蕴含的信息价值,为电力设备故障监测、需求响应等决策分析提供重要参考.为有效解决非侵入式负荷分解算法训练时间成本与分解精度间的冲突,提出一种融合外部注意力机制的序列到点非侵入式负荷分解算法.首先,将总负荷功率消耗序列进行数据清理、标准化等预处理,以固定窗口长度构建训练输入数据,输入数据通过编码层自动提取设备特征;然后,设计外部注意力机制增强重要特征权值;最终,输入到解码层得到负荷分解结果.利用REDD与UK-DALE两种公开数据集进行模型仿真计算,在信号聚合误差、平均绝对误差、标准化分解误差指标、模型分解曲线、特征图和用户耗能等方面进行对比分析,本文模型克服了卷积层注意力分散的缺点,增强了对有效信息的提取与利用能力,在未增加训练时间成本的前提下具有更高的分解精度.

关键词: 非侵入式负荷分解; 外部注意力机制; 神经网络; 序列到点

Abstract

Non-intrusive load disaggregation (NILD) can deeply explore the value of customer power consumption data, providing an important reference for decision analysis such as power equipment fault monitoring and demand response. Aimed at the conflict between the training time and the accuracy of non-intrusive load disaggregation, a non-intrusive load disaggregation algorithm using sequence-to-point integrating external attention (EA) mechanism is proposed. First, the original data is pre-processed by data purification, normalization, and some other operations, and the train data is built with a same length window. The equipment feature is extracted through the encoder layer. Then, the feature weights of important parts are enhanced by introducing an external attention mechanism. Finally, the results are yielded through the decoder layer. Simulation calculation of the proposed model and the current mainstream model is performed using the publicly available datasets, REDD and UK-DALE, while the indicators of signal aggregate error, mean absolute error, normalized disaggregation error, model disaggregation curves, feature map, and user energe consumption are compared and analyzed. The proposed model overcomes the shortcomings of attention scattering in the convolutional layer, enhances the ability to extract and utilize effective information, and has a more accurate decomposition accuracy without increasing the training time cost.

Keywords: non-intrusive load disaggregation (NILD); external attention (EA) mechanism; neural networks; sequence-to-point (Seq2Point)

PDF (2987KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

李利娟, 刘海, 刘红良, 张青松, 陈永东. 融合外部注意力机制的序列到点非侵入式负荷分解[J]. 上海交通大学学报, 2024, 58(6): 846-854 doi:10.16183/j.cnki.jsjtu.2022.534

LI Lijuan, LIU Hai, LIU Hongliang, ZHANG Qingsong, CHEN Yongdong. Non-Intrusive Load Disaggregation Using Sequence-to-Point Integrating External Attention Mechanism[J]. Journal of Shanghai Jiaotong University, 2024, 58(6): 846-854 doi:10.16183/j.cnki.jsjtu.2022.534

在推动新型电力系统快速建设过程中,加强与用户侧之间的信息感知与交流是构建虚拟电厂以及提升需求响应的关键手段.非侵入式负荷分解(Non-Intrusive Load Disaggregation, NILD)通过分析从用户侧获取的负荷监测数据得到用户的用电情况及能耗数值[1].分解得到的信息不仅对设备故障监测、数据分析方面具有重要意义,而且还可以满足电力负荷规划和需求响应的要求[2].相比传统侵入式负荷分解(Intrusive Load Disaggregation, ILD),NILD仅需少量传感设备,且无需对现有用电线路改造升级,是一种低成本、易实现的分解方式.

NILD最早由Hart[3]提出,依据电压电流的变化量对负荷进行聚类识别.近几年,随着电力系统转变为以大数据、物联网等技术为支撑的新型电力系统,NILD因可挖掘海量电力消耗数据信息价值的特点成为研究热点[4].NILD作为典型的时间序列分析问题,分为基于暂态特征信号分解和基于稳态特征信号分解两类[5].基于暂态特征信号分解通常对高频采样数据进行分析.如以快速傅里叶变化对电流波形进行变换,实现对各种负荷的识别[6];或考虑暂态波形中电气设备突然切换产生的电气噪声和某些设备在运行时产生的噪声为负荷特征实现负荷识别[7],还有采用最近邻算法、支持向量机算法等机器学习方法对电流谐波进行特征提取实现设备分解准确率的提升[8].但是基于暂态特征信号的负荷分解方法所需要的高频采样数据对传感器性能要求高,且需要手动建立特征数据库,过程繁琐,不适用于实际用户侧的能量分解.

基于稳态特征信号的方法采用低频采样数据,更适用于实际场景下对用户侧进行能量分解.基于低频采样数据的一种方法是利用非负张量分解等预处理算法处理设备用能数据获得最相关特征后对特征进行分离[9].文献[10]中利用主成分分析法对8种典型电器的负荷特征样本降维处理后结合Fisher有监督判别准则将数据投影到一维空间,实现不同类型的负荷分解.文献[11]中利用高斯混合模型与序贯期望最大化在负载状态下建立分类器,并采用在线数据对系统进行自适应微调以实现负荷分类.另一种方法是利用机器学习算法训练模型以进行负荷分解,如采用多层感知机[12]K-近邻算法[13]、支持向量机[14]等.文献[15]中以负荷电流作为分解特征构建多种模型进行负荷分解.基于稳态特征信号的负荷分解方法对采集设备要求不高,容易实现,并且在精度上能够适应绝大部分场景.因此,基于稳态特征信号的负荷分解方法成为NILD的重要研究领域.

随着深度学习在语音识别[16]、图像处理[17]、自然语言[18]处理等方面展现出巨大优势,有学者将深度学习应用于NILD.新方法在NILD中明显优于先前工作,同时,手动提取特征的过程被省略.Kelly等[19]提出3种应用于NILD的深度学习模型,在后续研究中学者改进了常用的序列到序列(Sequence-to-Sequence, Seq2Seq)框架,提出了更加准确的序列到点(Sequence-to-Point, Seq2Point)框架[20],还有学者为了兼顾效率与精度,引入序列到子序列(Sequence-to-Subsequence, Seq2Subseq)框架[21].深度学习算法特征提取过程是自动的,已有学者为了开发更精确、高效的负载检测和分解策略及算法做出探索.如文献[22]中将数据利用时间向量化[23]处理后嵌入自注意力机制对负荷数据进行分解,取得良好的分解效果.文献[24]中结合卷积块注意力机制和Seq2Seq模型,进一步提高分解精度.注意力机制的引入有助于提高模型分解精度但受限于传统注意力机制发展的影响,计算复杂度是平方级,训练时间成本会大大增加.

因此,为减少训练成本和提高模型分解精度,提出一种由外部注意力(External Attention, EA)机制嵌入Seq2Point的NILD模型,在Seq2Point结构基础上引入外部注意力机制加强对负荷数据特征的提取能力,使得模型在不增加时间成本的基础上提高分解准确率.最后,利用能量分解数据集REDD[25]以及UK-DALE[26]数据集进行训练、测试和对比分析,与主流算法相比,本文方法具有更准确的分解性能与更快的训练速度.

1 NILD模型

1.1 NILD分解原理

NILD利用采集到的负荷数据,一般为有功功率,根据模型学习设备用电特征,将其从总负荷数据中分离出来,即通过观测t时刻总负荷数据Y(t),分解得到家庭中第m个用电设备t时刻功率数据Xm(t),NILD原理表示如下:

Y(t)=Xm(t)+e(t)

式中:e(t)为均值为0、方差为σt2的高斯噪声因子.

1.2 NILD流程

NILD算法整体流程如图1所示,采用相同网络架构对所有N台用电设备进行训练、测试.首先,总负荷数据经过数据处理过程,包括数据清理、数据标准化、窗口数据构造等环节,其目的在于消除无效数据以及降低数据之间的差异性,以固定长度对总表数据进行提取且每次仅移动一个数据点用以构造窗口数据输入到模型中;输入数据经过编码层对设备特征自动进行特征编码后,利用外部注意力模块提升需要关注的局部设备特征;最后,通过解码层输出对应窗口中点分解值,得到第m个设备负荷分解数据Xm(t).

图1

图1   非侵入式负荷分解流程

Fig.1   Flow chart of non-intrusive load disaggregation


1.3 Seq2Point架构

Seq2Point表示一个神经网络架构,给定时间序列数据作为神经网络输入,输出为输入序列中点值.考虑用电设备在t时刻数据与上下文之间的联系可以更准确地得到t时刻设备运行数据.本文使用的Seq2Point架构中,输入数据为数据序列Yt: t+W-1;输出数据为相应数据序列Xt: t+W-1的中点值xτ,其中τ=t+W/2,W为窗口长度.Yt: t+W-1Xt: t+W-1tt+W-1长度输入、输出数据序列.以上过程可以表示为xτ=f(Yt: t+W-1)+ε,其中,ε为误差,f(·)为将Yt: t+W-1映射到对应输出窗口Xt: t+W-1中间点xτ上的神经网络过程.

基于Seq2Point架构构建输入为窗口长度W,输出为单个数据点的负荷分解模型.用于训练的损失函数为

Lloss=t=1T-W+1lg(xτ|Yt: t+W-1, θ)

式中:Lloss为训练损失值;θ为需要训练的网络参数;T为总时间序列长度.Seq2Point架构优点是任意窗口中点值xτ都有单一分解值,比Seq2Seq的准确度更高.

1.4 外部注意力机制

1.4.1 外部注意力结构

采用外部注意力结构如图2所示,外部注意力机制中外部记忆单元M表示输入特征,为了增强其表达能力,将M分成两个不同记忆单元MkMv.其目的是在记忆单元训练过程中,学习整个数据集中最具辨别力的特征,捕获信息量最大部分,以及排除来自其他样本的干扰信息,刻画所有样本之间的共同特征.

图2

图2   外部注意力结构

Fig.2   Structure of external attention


图2中,Input为上一层网络输出,经过查询(Query)过程后输出为f.外部记忆单元MkMv由两个线性层组成,充当整个训练数据集的存储器.Output为最终输出.图2所示对应过程可表述为

A=Norm(Mk(f))
Fout=Mv(A)

式中:Norm表示标准化过程;A为从数据集中推断出的注意力图,根据A中相似性更新MkMv中参数;Fout为外部注意力模块输出.在相同数据维度d与输入特征规模n下,自注意力机制计算复杂度为O(dn2),而外部注意力单元由线性层构成,其计算复杂度为O(dn).因此,相较自注意力机制二次计算复杂度和忽略样本之间潜在关联的缺点,外部注意力具有线性复杂度可降低训练时间成本和隐式地考虑不同特征图之间关系来增强模型表达能力[27].

1.4.2 标准化过程

注意力图利用矩阵乘法计算,因此注意图对输入特征规模很敏感,大规模矩阵计算会导致计算效率低下.为了提高计算速度,图2中Norm采用双重标准化过程[28],对输入矩阵行、列分别进行标准化,表示为

α^i,j=exp(α~i,j)/uexp(α~u,j)
αi, j=α^i, j/pα^i, p

式中:α~i, j为输入的初始矩阵;α^i, j为对矩阵α~i, j的行进行标准化运算结果;αi, j为对矩阵α^i, j的列进行标准化运算结果;u为矩阵α~的第u行;p为矩阵α^的第p列.

1.4.3 外部注意力计算过程

依据图2和双重标准化过程,所采用外部注意力机制计算过程表示为:设定Input输入F∈RN×C;Query过程为1×1一维卷积层对F进行非线性处理同时可保持F结构不变,交换维度有F∈RC×N;与线性层Mk计算得到α~i, j∈RC×L;利用式(5)和式(6)得到注意力图A∈RC×L;通过线性层Mv计算并进行维度交换得到Output为Fout∈RN×C,计算过程如下:

α~i, j=f1×1(F)TWk+bk=Mk(f1×1(F)T)
A=exp(α~i, j)/uexp(α~u, j)p(exp(α~i, j)/uexp(α~u, p))
FoutT=AWv+bv=Mv(A)

式中:f1×1为1×1的卷积层;Wk∈RN×LWv∈RL×Nbk∈RLbv∈RN分别为线性层MkMv的权重矩阵与偏置矩阵.外部注意力模块可以为本文模型提供一个强大的正则化角色,并能提高模型的泛化能力,且在整个过程中输入数据F与输出数据Fout可保持结构不变,因此外部注意力机制可以方便地嵌入到不同模型之中.

2 模型设置及数据处理

2.1 评价指标

为更准确地评估模型性能,使用信号聚合误差(Signal Aggregate Error, SAE)、平均绝对误差(Mean Absolute Error, MAE)、标准化分解误差(Normalized Disaggregation Error, NDE)3个指标对各种算法进行评估.各个评价指标表达式如下:

ESAE=r^-r/r
EMAE=1Tt=1Tx^t-xt
ENDE=t=1T(xt-x^t)2/t=1Txt2

式中:x^t为时间点t模型输出分解值;xt为时间点t真实数据;r=txt为用电设备的总能耗;r^=tx^t为模型输出的总能耗.

2.2 模型结构

用户的使用习惯决定了用电设备在使用过程中状态变化有限且固定,即设备运行曲线在时间尺度上具有相似性,因此,卷积层保持平移不变性特点非常适合提取用电设备特征.编码层中采用以卷积层构成的编码层对输入序列进行特征编码,解码层利用线性层强大的拟合能力充分地对特征进行融合并输出分解值,编码层解码层之间使用外部注意力模块连接,本文模型采用Seq2Point架构,即设定模型输入长度为窗口长度W,输出数据为相应数据序列中点元素,这种模型称为S2P-EA,模型结构以及参数设置如图3所示.图中:Dense表示密集层.

图3

图3   S2P-EA模型结构

Fig.3   Structure of S2P-EA model


2.3 数据预处理

实验数据集采用REDD数据集和UK-DALE数据集,REDD数据集记录来自美国6个家庭长达数月的负荷数据,分别在2、3号家庭进行训练,1号家庭进行测试,不同家庭之间跨数据比较可以体现出泛化能力;UK-DALE数据集记录来自英国5个家庭的负荷数据,为验证同一数据集中的性能,仅在1号1户家庭进行训练和测试.鉴于目前智能电表只有低频采样能力,将所有数据集合采样率设为1/8 Hz,并将所有数据对齐时间戳.

在REDD与UK-DALE数据集中,以微波炉、冰箱、洗碗机和洗衣机等典型用电设备作为分解对象.为降低总表功率数据与设备功率数据之间差异,提高训练精度,使用下式对所有数据分别进行标准化处理:

xt-x-σ

式中:x-为主电源或设备数据平均值;σ为主电源或设备标准差.所使用设备标准化参数如表1所示.

表1   标准化参数

Tab.1  Normalized parameters

设备平均值/W标准差/W
主电源522814
微波炉500800
冰箱200400
洗碗机7001000
洗衣机400700

新窗口打开| 下载CSV


2.4 模型参数设置

不同优化器影响训练速度以及最终结果,对各种优化器效果进行对比如图4所示.由图4可见,Adam 优化器比其他优化器(Adadelta、Adagrad和SGD)有更快的收敛速度和更高的训练精度,因此采用Adam优化器,同时在训练过程中利用Early-Stopping机制[29]避免产生过拟合,其余训练超参数分别为:学习率0.001、批量大小1 000、输入窗口大小599,早停机制参数Min-delta和Patience分别为0.001和5.

图4

图4   各类优化器效果对比

Fig.4   Comparison of effects of different optimizers


3 算例结果与分析

选取REDD、UK-DALE数据集进行实验,采用预处理后全部实测数据进行训练,数据包含预处理、时间戳对齐的全部总电源有功功率数据和用电设备有功功率数据.

3.1 实验软硬件平台

训练硬件环境如下:Intel Xeon Gold 5115 CPU,128 GB DDR4内存,NVIDIA Tesla T4 16 GB,软件平台为Ubuntu 18.04.6 LTS 64位,Python 3.9.7以及Pytroch 1.10.1深度学习框架,采用图3所示模型对微波炉、冰箱、洗碗机和洗衣机4种设备分别进行训练和测试.

3.2 结果分析

3.2.1 分解评价指标对比

为了比较不同模型的效果,选用目前主流的神经网络算法,卷积(Convolutional Neural Networks,CNN)模型[20]、时间向量(Time to Vector, T2V)模型[22]、卷积块(Convolutional Block Attention Module, CBAM)模型[24]进行对比,对比结果如表23所示.

表2   REDD数据集各模型对比

Tab.2  Comparison of each model in REDD dataset

设备ESAEEMAEENDE
CNNT2VCBAM本文CNNT2VCBAM本文CNNT2VCBAM本文
微波炉0.8890.4850.3730.32319.68120.06620.71222.4810.9960.7510.6890.722
冰箱0.2190.2090.1590.09235.6931.07637.60328.4940.3380.2790.3450.231
洗碗机0.4780.6430.3950.35819.14229.61019.47618.3650.5050.8720.4370.431
洗衣机0.0530.0950.0890.04515.10612.42719.06518.6220.1990.1390.1720.174
均值0.4100.3580.2540.20523.45023.29523.42121.9910.5100.5100.4110.390

新窗口打开| 下载CSV


表3   UK-DALE数据集合各模型对比

Tab.3  Comparison of each model in UK-DALE dataset

设备ESAEEMAEENDE
CNNT2VCBAM本文CNNT2VCBAM本文CNNT2VCBAM本文
微波炉0.1000.8770.7190.0285.73210.3187.4476.0420.6130.9840.6060.594
冰箱0.1430.1780.0720.05723.34231.68622.82320.5490.4100.5260.4030.384
洗碗机0.2440.7370.2740.1537.33414.9537.2275.2900.0600.4570.0740.074
洗衣机0.0040.2230.0040.0058.92713.9238.0817.9600.0890.2740.0720.070
均值0.1220.5040.2670.06111.33317.72011.3949.9600.2930.5600.2880.280

新窗口打开| 下载CSV


表2可见,在REDD数据集上进行跨用户对比发现,本文模型多数指标相比其余3种模型提升明显.与CNN模型相比,洗碗机的ESAE降低15.1%;与T2V模型相比,微波炉的ESAE降低33.4%.对比CBAM模型,微波炉的ESAE降低13.4%.SAE表示模型输出聚合值相对真实数据聚合值的偏差,可见本文模型对整体功率的分解输出值相比较其余3种模型更接近用户真实消耗值,这可以为用户关注某一设备消耗能量提供更准确的指导.虽然数据集合来源于不同家庭,本文模型仍可以准确进行识别,这表明本文模型拥有优异的泛化性能.本文模型在多个设备上的EMAEENDE指标均值最好,在冰箱、洗碗机的处理中显著优于对比模型.

在UK-DALE数据集中的相同数据集合上进行训练和测试.本文模型在冰箱、洗衣机的处理中相较3种对比模型性能有所提升,在微波炉和洗衣机的处理中对CNN模型保持领先,且在均值上对比其余模型仍具有优势.所提模型对比CNN、T2V以及CBAM模型在多项指标上有明显提升,表明外部注意力机制的引入改善了卷积层注意力分散的缺点.对比同样采用注意力机制的T2V以及CBAM模型,本文所采用的外部注意力模块通过对全体样本的学习关注到不同样本中元素之间的潜在关系,相对于只关注相同样本元素之间关系的注意力机制有更好的性能, 这表明在相同数据集上本文模型仍拥有极高的分解性能.

3.2.2 分解结果与特征图对比分析

选取冰箱、洗碗机为例,分别表示简单负荷以及复杂负荷,在相同窗口下绘制4种模型的分解结果,如图56所示.图中:Aggregate表示总负荷,Ground truth表示真实值.

图5

图5   冰箱分解对比

Fig.5   Comparison of refrigerator disaggregation of different models


图6

图6   洗碗机各模型分解图

Fig.6   Comparison of dish washer disaggregation of different models


图5可见, 4种模型都能分解出用电设备曲线轮廓.在冰箱运行区间,本文模型更加接近蓝色曲线所代表的真实值;在冰箱未运行区间,相较于其余模型,本文模型曲线波动更小.图6洗碗机的运行曲线相较冰箱更加复杂,在更加复杂的噪声情况下,T2V模型不能准确表示更多的运行信息,相比之下本文模型在数值上更加接近真实负荷曲线.

3.2.3 分解机理分析

选定一个洗衣机的运行区间,提取相对应窗口序列中点值所对应的特征图共同绘制,如图7所示.图中:Prediction为该窗口对应分解预测中心,Ground-truth为真实数据点,Predict为分解预测数据.可知,在洗衣机功率发生变化时,一部分通道对洗衣机特征进行了识别,且由特征图可见其准确识别洗衣机运行时间区段;在设备未运行区间权重低使得输出值也低,表明对于洗衣机来说关键特征应为设备变化段以及设备运行段,并且在通过移动数据窗口过程中,特征图保持平移不变,这说明卷积层适合提取用电设备的运行特征.

图7

图7   洗衣机分解特征图

Fig.7   Disaggregation feature map of washing machine


提取图5窗口中编码层以及外部注意力模块特征图绘制图8图9,分别表示编码层各通道输出值大小、外部注意力模块各通道输出值大小.编码层保持了提取设备特征的能力,不仅关注到设备运行区间,也注意到非运行区间.如图9所示,相同窗口下外部注意力模块增强了部分通道权重,主要增强洗衣机运行期间的特征权重,这表明外部注意力模块增强模型分解性能是根据特征重要性调整特征权值达到的.

图8

图8   冰箱分解特征图

Fig.8   Disaggregation feature map of refrigerator


图9

图9   外部注意力模块特征图

Fig.9   Feature map of EA module


3.2.4 消耗能量对比

对于用户来说,用电设备负荷分解曲线难以提供直观信息,用户更关心用电设备所消耗能量,绘制REDD测试集中各种设备分解后能量消耗值以及真实设备能量消耗值,如图10所示.图中:Truth表示设备实际消耗能量.由图可见,对比其他模型,本文模型分解后能量消耗值更加接近真实值,反馈给用户所使用的设备能源消耗值更加准确,能更有效地指导用户改变用电行为,降低能耗.

图10

图10   各模型分解消耗能量对比

Fig.10   Comparison of energy consumption of different models


3.2.5 训练时间对比

神经网络中大量参数所需要的训练时间是制约模型部署的关键因素之一,CNN、CBAM以及本文模型的参数总量与训练时间对比如表4所示,训练时间为每个时期所用时间.由表可见,在训练参数量上,3种模型之间相差不大;在训练时间成本上,本文模型与CNN模型相比虽然引入外部注意力模块,但是并没有造成模型训练时间增加,与采用卷积块注意力机制的CBAM模型相比较,训练时间成本降低65.8%.可见本文模型训练更加高效.

表4   模型训练时间对比

Tab.4  Comparison of training time of model

模型训练参数量训练时间/s
CNN30,708,249123
CBAM30,709,748351
本文29,229,199120

新窗口打开| 下载CSV


4 结语

提出一种外部注意力机制嵌入Seq2Point模型的NILD方法,称为S2P-EA,该方法通过编码层提取设备特征后,再让外部注意力机制进一步增强设备重要特征权值,最后通过解码层解码完成对设备的有效辨识,该模型比其他注意力机制模型有更快的训练速度.在REDD、UK-DALE数据集进行实验,与无注意力机制、采用自注意力机制、采用卷积块注意力机制模型相比较,本文模型在不增加训练时间成本的基础上有效提升模型分解精度,并具有较高负荷分解准确度与泛化性能,具有很好的实用性.在后续研究中,将在减少模型规模与训练成本等方面进行更深入研究.

参考文献

刘博, 栾文鹏.

基于负荷分解的用电数据云架构方案及应用场景

[J]. 电网技术, 2016, 40(3): 791-796.

[本文引用: 1]

LIU Bo, LUAN Wenpeng.

Conceptual cloud solution architecture and application scenarios of power consumption data based on load disaggregation

[J]. Power System Technology, 2016, 40(3): 791-796.

[本文引用: 1]

郭红霞, 陆进威, 杨苹, .

非侵入式负荷监测关键技术问题研究综述

[J]. 电力自动化设备, 2021, 41(1): 135-146.

[本文引用: 1]

GUO Hongxia, LU Jinwei, YANG Ping, et al.

Review on key techniques of non-intrusive load monito-ring

[J]. Electric Power Automation Equipment, 2021, 41(1): 135-146.

[本文引用: 1]

HART G W.

Nonintrusive appliance load monitoring

[J]. Proceedings of the IEEE, 1992, 80(12): 1870-1891.

[本文引用: 1]

邓晓平, 张桂青, 魏庆来, .

非侵入式负荷监测综述

[J]. 自动化学报, 2022, 48(3): 644-663.

[本文引用: 1]

DENG Xiaoping, ZHANG Guiqing, WEI Qinglai, et al.

A survey on the non-intrusive load monitoring

[J]. Acta Automatica Sinica, 2022, 48(3): 644-663.

[本文引用: 1]

程祥, 李林芝, 吴浩, .

非侵入式负荷监测与分解研究综述

[J]. 电网技术, 2016, 40(10): 3108-3117.

[本文引用: 1]

CHENG Xiang, LI Linzhi, WU Hao, et al.

A survey of the research on non-intrusive load monitoring and disaggregation

[J]. Power System Technology, 2016, 40(10): 3108-3117.

[本文引用: 1]

WICHAKOOL W, REMSCRIM Z, ORJI U A, et al.

Smart metering of variable power loads

[J]. IEEE Transactions on Smart Grid, 2015, 6(1): 189-198.

[本文引用: 1]

PATEL S N, ROBERTSON T, KIENTZ J A, et al.

At the flick of a switch: Detecting and classifying unique electrical events on the residential power line (nominated for the best paper award)

[C]//International Conference on Ubiquitous Computing. Berlin, Germany: Springer, 2007: 271-288.

[本文引用: 1]

刘然. 结合改进最近邻法与支持向量机的住宅用电负荷识别研究[D]. 重庆: 重庆大学, 2014.

[本文引用: 1]

LIU Ran. Research on household load identification combining improved nearest neighbour method and support vector machine[D]. Chongqing: Chongqing University, 2014.

[本文引用: 1]

FIGUEIREDO M, RIBEIRO B, DE ALMEIDA A.

Electrical signal source separation via nonnegative tensor factorization using on site measurements in a smart home

[J]. IEEE Transactions on Instrumentation & Measurement, 2014, 63(2): 364-373.

[本文引用: 1]

祁兵, 程媛, 武昕.

基于Fisher有监督判别的非侵入式居民负荷辨识方法

[J]. 电网技术, 2016, 40(8): 2484-2491.

[本文引用: 1]

QI Bing, CHENG Yuan, WU Xin.

Non-intrusive household appliance load identification method based on fisher supervised discriminant

[J]. Power System Technology, 2016, 40(8): 2484-2491.

[本文引用: 1]

CHOU P A, CHANG R I.

Unsupervised adaptive non-intrusive load monitoring system

[C]//2013 IEEE International Conference on Systems, Man, and Cybernetics. Manchester, UK: IEEE, 2013: 3180-3185.

[本文引用: 1]

李如意, 王晓换, 胡美璇, .

RPROP神经网络在非侵入式负荷分解中的应用

[J]. 电力系统保护与控制, 2016, 44(7): 55-61.

[本文引用: 1]

LI Ruyi, WANG Xiaohuan, HU Meixuan, et al.

Application of RPROP neural network in nonintrusive load decomposition

[J]. Power System Protection & Control, 2016, 44(7): 55-61.

[本文引用: 1]

BATRA N, KELLY J, PARSON O, et al.

NILMTK: An open source toolkit for non-intrusive load monitoring

[C]//Proceedings of the 5th international conference on Future energy systems. Cambridge, UK: ACM, 2014: 265-276.

[本文引用: 1]

FIGUEIREDO M, DE ALMEIDA A, RIBEIRO B.

Home electrical signal disaggregation for non-intrusive load monitoring (NILM) systems

[J]. Neurocomputing, 2012, 96: 66-73.

[本文引用: 1]

涂京, 周明, 宋旭帆, .

基于监督学习的非侵入式负荷监测算法比较

[J]. 电力自动化设备, 2018, 38(12): 128-134.

[本文引用: 1]

TU Jing, ZHOU Ming, SONG Xufan, et al.

Comparison of supervised learning-based non-intrusive load monitoring algorithms

[J]. Electric Power Automation Equipment, 2018, 38(12): 128-134.

[本文引用: 1]

KARMAKAR P, TENG S W, LU G J.

Thank you for attention: A survey on attention-based artificial neural networks for automatic speech recognition

[DB/OL]. (2021-02-14)[2022-05-01]. https://arxiv.org/abs/2102.07259.

URL     [本文引用: 1]

VASWANI A, SHAZEER N, PARMAR N, et al.

Attention is all you need

[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach, USA: ACM, 2017: 6000-6010.

[本文引用: 1]

MIKOLOV T, CHEN K, CORRADO G, et al.

Efficient estimation of word representations in vector space

[DB/OL]. (2013-01-16)[2022-05-01]. https://arxiv.org/abs/1301.3781.

URL     [本文引用: 1]

KELLY J, KNOTTENBELT W.

Neural NILM: Deep neural networks applied to energy disaggregation

[C]//Proceedings of the 2nd ACM International Conference on Embedded Systems for Energy-Efficient Built Environments. Seoul, South Korea: ACM, 2015: 55-64.

[本文引用: 1]

ZHANG C Y, ZHONG M J, WANG Z Z, et al.

Sequence-to-point learning with neural networks for non-intrusive load monitoring

[C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto, California, USA: AAAI, 2018: 2604-2611.

[本文引用: 2]

PAN Y G, LIU K, SHEN Z Y, et al.

Sequence-to-subsequence learning with conditional Gan for power disaggregation

[C]//ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing. Barcelona, Spain:IEEE, 2020: 3202-3206.

[本文引用: 1]

YANG M Z, LIU Y E, LIU Q L.

Nonintrusive residential electricity load decomposition based on transfer learning

[J]. Sustainability, 2021, 13(12): 6546.

[本文引用: 2]

KAZEMI S M, GOEL R, EGHBALI S, et al.

Time2Vec: Learning a vector representation of time

[DB/OL]. (2019-07-11)[2022-05-01]. https://arxiv.org/abs/1907.05321.

URL     [本文引用: 1]

徐晓会, 赵书涛, 崔克彬.

基于卷积块注意力模型的非侵入式负荷分解算法

[J]. 电网技术, 2021, 45(9): 3700-3706.

[本文引用: 2]

XU Xiaohui, ZHAO Shutao, CUI Kebin.

Non-intrusive load disaggregate algorithm based on convolutional block attention module

[J]. Power System Technology, 2021, 45(9): 3700-3706.

[本文引用: 2]

KOLTER J Z, JOHNSON M J.

REDD: A public data set for energy disaggregation research

[EB/OL]. (2011-01-01)[2022-05-01]. https://people.csail.mit.edu/mattjj/papers/kddsust2011.pdf.

URL     [本文引用: 1]

KELLY J, KNOTTENBELT W.

The UK-DALE dataset, domestic appliance-level electricity demand and whole-house demand from five UK homes

[J]. Scientific Data, 2015, 2: 150007.

[本文引用: 1]

GUO M H, LIU Z N, MU T J, et al.

Beyond self-attention: External attention using two linear layers for visual tasks

[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2023, 45(5): 5436-5447.

[本文引用: 1]

GUO M H, CAI J X, LIU Z N, et al.

PCT: Point cloud transformer

[J]. Computational Visual Media, 2021, 7(2): 187-199.

[本文引用: 1]

PRECHELT L. Early stopping-but when?[M]//Lecture Notes in Computer Science. Berlin, Germany: Springer Berlin Heidelberg, 1998: 55-69.

[本文引用: 1]

/