D0L:10.13374/.issn1001-053x.2012.11.010 第34卷第11期 北京科技大学学报 Vol.34 No.11 2012年11月 Journal of University of Science and Technology Beijing Now.2012 基于减法聚类的带钢厚度数据驱动建模 梁辉12)四 童朝南2) 1)北京科技大学自动化学院,北京1000832)北京科技大学钢铁流程先进控制教有部重点实验室,北京100083 ☒通信作者,E-mail:lianghuio430@sohu.com 摘要针对轧钢生产中大批过程数据没有被用于提高厚度质量的现象,提出了一种基于减法聚类的带钢厚度数据驱动在 线建模方法.首先通过减法聚类将输入空间划分为一些小的局部空间,在每个局部空间中用最小二乘支持向量机建立子模 型,子模型加权输出作为带钢厚度的离线模型:然后当在线数据不断增加时,通过在线减法聚类算法实时调整局部空间,子模 型的参数采用最小二乘支持向量机的递推算法进行相应的在线辨识,子模型的预测输出作为模型的最后输出.实验结果表 明,该方法具有良好的预测精度和较强的在线学习能力. 关键词热轧:厚度控制;数据驱动:聚类算法:最小二乘法:支持向量机 分类号TP2731 Online data-driven modeling for strip thickness based on subtractive clustering LIANG Hui.2☒,TONG Chao-nan'2 1)School of Automation and Electrical Engineering,University of Science and Technology Beijing,Beijing 100083,China 2)Key Laboratory of the Ministry of Education for Advanced Control of Iron and Steel Process,University of Science and Technology Beijing,Beijing 100083,China Corresponding author,E-mail:lianghui0430@sohu.com ABSTRACT In hot rolling,actual production data were not used to improve the thickness quality of products.For this phenomenon, an online data-driven modeling algorithm was proposed for strip thickness control based on subtractive clustering.Firstly,the input space is divided into several clusters by subtractive clustering,in each cluster a sub-model is built by a least square support vector ma- chine (LS-SVM),and an offline model is obtained by weighting the outputs of these sub-models.Then,when the online data constant- ly increase,the clustering subsets are adjusted on-ine by a subtractive clustering algorithm,and the parameters of the sub-models are determined using the recursive algorithm of the least squares support vector machine.The predictive outputs of the sub-models are the final outputs.Experimental results demonstrate that the method has good prediction accuracy and online learning ability. KEY WORDS hot rolling:thickness control;data-driven approach:clustering algorithms:least squares approximations:support vector machines 近年来,随着网络技术的快速发展以及基础自 究,取得了较好的跟踪效果;Aif等因在高速运动机 动化水平的大幅提升,数据驱动建模技术正在被广 械手中将基于数据驱动的控制方法融入迭代学习控 泛的研究,以实现对生产过程的实时模拟和控 制,仿真结果表明该方法具有较高的控制精度和较 制-.数据驱动建模技术是以描述样本数据的特 快的收敛速度 征作为建模的主要准则,在“数据为自身说话”的信 随着生产信息化的发展,在热轧生产过程中产 念下分析系统变量间的相互关系,其实质是一种 生并积累了大量丰富详实的在线和离线测量数据, “黑箱”建模技术可.例如Rhodes等采用基于数 如轧制力、辊缝和轧辊速度,这为实现轧制过程数据 据驱动的方法对Lorenz模型和实际的电路进行研 驱动建模提供了可能,因此数据驱动建模开始应用 收稿日期:2011-10-19 基金项目:北京市教委重点学科资助项目(XK100080537)
第 34 卷 第 11 期 2012 年 11 月 北京科技大学学报 Journal of University of Science and Technology Beijing Vol. 34 No. 11 Nov. 2012 基于减法聚类的带钢厚度数据驱动建模 梁 辉1,2) 童朝南1,2) 1) 北京科技大学自动化学院,北京 100083 2) 北京科技大学钢铁流程先进控制教育部重点实验室,北京 100083 通信作者,E-mail: lianghui0430@ sohu. com 摘 要 针对轧钢生产中大批过程数据没有被用于提高厚度质量的现象,提出了一种基于减法聚类的带钢厚度数据驱动在 线建模方法. 首先通过减法聚类将输入空间划分为一些小的局部空间,在每个局部空间中用最小二乘支持向量机建立子模 型,子模型加权输出作为带钢厚度的离线模型; 然后当在线数据不断增加时,通过在线减法聚类算法实时调整局部空间,子模 型的参数采用最小二乘支持向量机的递推算法进行相应的在线辨识,子模型的预测输出作为模型的最后输出. 实验结果表 明,该方法具有良好的预测精度和较强的在线学习能力. 关键词 热轧; 厚度控制; 数据驱动; 聚类算法; 最小二乘法; 支持向量机 分类号 TP273 + 1 Online data-driven modeling for strip thickness based on subtractive clustering LIANG Hui 1,2) ,TONG Chao-nan1,2) 1) School of Automation and Electrical Engineering,University of Science and Technology Beijing,Beijing 100083,China 2) Key Laboratory of the Ministry of Education for Advanced Control of Iron and Steel Process,University of Science and Technology Beijing,Beijing 100083,China Corresponding author,E-mail: lianghui0430@ sohu. com ABSTRACT In hot rolling,actual production data were not used to improve the thickness quality of products. For this phenomenon, an online data-driven modeling algorithm was proposed for strip thickness control based on subtractive clustering. Firstly,the input space is divided into several clusters by subtractive clustering,in each cluster a sub-model is built by a least square support vector machine ( LS-SVM) ,and an offline model is obtained by weighting the outputs of these sub-models. Then,when the online data constantly increase,the clustering subsets are adjusted on-line by a subtractive clustering algorithm,and the parameters of the sub-models are determined using the recursive algorithm of the least squares support vector machine. The predictive outputs of the sub-models are the final outputs. Experimental results demonstrate that the method has good prediction accuracy and online learning ability. KEY WORDS hot rolling; thickness control; data-driven approach; clustering algorithms; least squares approximations; support vector machines 收稿日期: 2011--10--19 基金项目: 北京市教委重点学科资助项目( XK100080537) 近年来,随着网络技术的快速发展以及基础自 动化水平的大幅提升,数据驱动建模技术正在被广 泛的 研 究,以实现对生产过程的实时模拟和控 制[1--2]. 数据驱动建模技术是以描述样本数据的特 征作为建模的主要准则,在“数据为自身说话”的信 念下分析系统变量间的相互关系,其实质是一种 “黑箱”建模技术[3]. 例如 Rhodes 等[4]采用基于数 据驱动的方法对 Lorenz 模型和实际的电路进行研 究,取得了较好的跟踪效果; Arif 等[5]在高速运动机 械手中将基于数据驱动的控制方法融入迭代学习控 制,仿真结果表明该方法具有较高的控制精度和较 快的收敛速度. 随着生产信息化的发展,在热轧生产过程中产 生并积累了大量丰富详实的在线和离线测量数据, 如轧制力、辊缝和轧辊速度,这为实现轧制过程数据 驱动建模提供了可能,因此数据驱动建模开始应用 DOI:10.13374/j.issn1001-053x.2012.11.010
第11期 梁辉等:基于减法聚类的带钢厚度数据驱动建模 ·1339· 于板带钢轧制领域.国内主要在科研方面进行了探 SVM 1 索,如罗永军等提出了基于遗传算法的热连轧负 荷再分配模型,彭开香等采用贝叶斯神经网络预 测带钢轧制过程机架出口厚度,洪悦等图基于数据 驱动的冷连轧过程轧制力设定.国外Son等回采用 SVMn 神经网络建立热轧轧制力的在线模型,模型通过短 图1传统多支持向量机模型结构 期学习和长期学习获得精确的轧制力预报;Jeong Fig.1 Structure of a traditional multiple support vector machine model 等0提出了一种在线RBF神经网络控制热轧带钢 卷取温度,取代了传统的基于规则的查找表:德国西 在实际应用中该方法效果住往不理想,其问题 门子公司则从1995开始将近20种神经网络模型应 主要有以下两方面阿:一是采用的是离线聚类算 用于轧制力预报及带钢温度预报等方面), 法,在线训练时每增加一个样本都需要重新聚类并 支持向量机(support vector machine,SVM)是近 进行子模型建模,从而导致模型的实时性差和学习 年来在统计学习理论基础上提出的一种新型机器学 率低:二是多模型加权输出是在全局模型为子模型 习方法,非线性逼近能力和学习能力强网.由于支 的线性组合的假设上,而实际上对于热连轧这样的 持向量机更好地执行了统计学习理论的结构风险最 复杂对象,该假设是不成立,因此加权后模型的整体 小化准则,可以有效地解决神经网络的过学习问题, 预测精度会下降 具有强大的学习和泛化能力,因此支持向量机在时 为了解决上述问题,本文采用离线准备和在线 间序列的预测研究、非线性建模与预测和优化控 应用两阶段相结合的思想.准备阶段采用传统方法 制4-切等方面得到了广泛的应用. 建立带钢厚度模型:应用阶段时对输入空间数据进 另一方面,由于热连轧轧制过程具有多变量、强 行在线聚类划分,以及子模型参数自学习.在标准 耦合、强非线性、大时延和动态特性随工况变化等综 减法聚类算法基础上进行改进,提出了在线减法聚 合复杂特性,所以传统的利用输入输出数据建立的 类算法,子模型建模通过递推的最小二乘支持向量 系统单一模型仅是对系统的近似,易出现模型“过 机实现,模型输出采用预测样本所在子模型的预测 拟合”或泛化性很差等问题.多模型通过一定方式 结果作为输出,不再采用加权算法 将单个模型连接,使得不同的单个模型之间互相弥 1.1标准减法聚类算法 补不足,从而构成对象的整个输入空间模型,增强了 减法聚类与其他聚类方法相比,不需要预先确 模型的预测精度和鲁棒性.因此,本文根据多模型 定聚类数,仅根据样本数据密度即可快速确定聚类 的这种思想并结合支持向量机在模型训练及泛化能 中心的位置和聚类数:而它把每一个数据点作为一 力方面的优势,建立了基于多支持向量机(multiple 个潜在的聚类中心的特性,则克服了山峰聚类法计 support vector machine,MSVM)的带钢厚度预测模 算量随着问题的维数按指数增长的不足,使得聚类 型.首先是利用大量现场数据为在线建模做准备工 的结果与问题的维数无关四.因此,减法聚类算法 作,对输入空间数据进行聚类分析,在不同空间分别 是一种适合基于数据建模的规则自动提取方法 建立子模型:然后在线运行过程中根据实际工况进 设定m维空间中的N个数据点(X,X2,, 行在线聚类,并调整相应的子模型参数;最后以某钢 Xw),每个数据点X=比.1x2,,xm]都是聚类 厂1700mm热连轧带钢厚度控制系统为对象,采用 中心的候选者,i=1,2,,N,数据点X,的密度函数 上述建模方法进行仿真研究.研究结果表明了本文 定义为 算法的有效性 Ix:-X (1) (./2)2 1在线聚类算法 式中,半径r,是一个正数.一般按下式设定: 目前多支持向量机建模方法结构如图1所示 '.=2 mint max(lx:-Xl}. (2) 常用的输入空间划分方法有K均值聚类法、模糊C 均值聚类、山峰聚类和减法聚类法图.首先对每个 T.定义了该点的一个影响邻域,半径以外的数据点 聚类建立子模型,然后根据几个子模型的输出进行 对该点的密度指标贡献非常小,一般忽略不计 加权,最后得到预测样本的输出,以此提高模型精度 计算每一点X的密度值,选择具有最高密度指 和鲁棒性 标D的数据点作为第一个聚类中心X。:然后修正
第 11 期 梁 辉等: 基于减法聚类的带钢厚度数据驱动建模 于板带钢轧制领域. 国内主要在科研方面进行了探 索,如罗永军等[6]提出了基于遗传算法的热连轧负 荷再分配模型,彭开香等[7]采用贝叶斯神经网络预 测带钢轧制过程机架出口厚度,洪悦等[8]基于数据 驱动的冷连轧过程轧制力设定. 国外 Son 等[9]采用 神经网络建立热轧轧制力的在线模型,模型通过短 期学习和长期学习获得精确的轧制力预报; Jeong 等[10]提出了一种在线 RBF 神经网络控制热轧带钢 卷取温度,取代了传统的基于规则的查找表; 德国西 门子公司则从 1995 开始将近 20 种神经网络模型应 用于轧制力预报及带钢温度预报等方面[11]. 支持向量机( support vector machine,SVM) 是近 年来在统计学习理论基础上提出的一种新型机器学 习方法,非线性逼近能力和学习能力强[12]. 由于支 持向量机更好地执行了统计学习理论的结构风险最 小化准则,可以有效地解决神经网络的过学习问题, 具有强大的学习和泛化能力,因此支持向量机在时 间序列的预测研究[13]、非线性建模与预测和优化控 制[14--17]等方面得到了广泛的应用. 另一方面,由于热连轧轧制过程具有多变量、强 耦合、强非线性、大时延和动态特性随工况变化等综 合复杂特性,所以传统的利用输入输出数据建立的 系统单一模型仅是对系统的近似,易出现模型“过 拟合”或泛化性很差等问题. 多模型通过一定方式 将单个模型连接,使得不同的单个模型之间互相弥 补不足,从而构成对象的整个输入空间模型,增强了 模型的预测精度和鲁棒性. 因此,本文根据多模型 的这种思想并结合支持向量机在模型训练及泛化能 力方面的优势,建立了基于多支持向量机( multiple support vector machine,MSVM) 的带钢厚度预测模 型. 首先是利用大量现场数据为在线建模做准备工 作,对输入空间数据进行聚类分析,在不同空间分别 建立子模型; 然后在线运行过程中根据实际工况进 行在线聚类,并调整相应的子模型参数; 最后以某钢 厂 1 700 mm 热连轧带钢厚度控制系统为对象,采用 上述建模方法进行仿真研究. 研究结果表明了本文 算法的有效性. 1 在线聚类算法 目前多支持向量机建模方法结构如图 1 所示. 常用的输入空间划分方法有 K 均值聚类法、模糊 C 均值聚类、山峰聚类和减法聚类法[18]. 首先对每个 聚类建立子模型,然后根据几个子模型的输出进行 加权,最后得到预测样本的输出,以此提高模型精度 和鲁棒性. 图 1 传统多支持向量机模型结构 Fig. 1 Structure of a traditional multiple support vector machine model 在实际应用中该方法效果往往不理想,其问题 主要有以下两方面[19]: 一是采用的是离线聚类算 法,在线训练时每增加一个样本都需要重新聚类并 进行子模型建模,从而导致模型的实时性差和学习 率低; 二是多模型加权输出是在全局模型为子模型 的线性组合的假设上,而实际上对于热连轧这样的 复杂对象,该假设是不成立,因此加权后模型的整体 预测精度会下降. 为了解决上述问题,本文采用离线准备和在线 应用两阶段相结合的思想. 准备阶段采用传统方法 建立带钢厚度模型; 应用阶段时对输入空间数据进 行在线聚类划分,以及子模型参数自学习. 在标准 减法聚类算法基础上进行改进,提出了在线减法聚 类算法,子模型建模通过递推的最小二乘支持向量 机实现,模型输出采用预测样本所在子模型的预测 结果作为输出,不再采用加权算法. 1. 1 标准减法聚类算法 减法聚类与其他聚类方法相比,不需要预先确 定聚类数,仅根据样本数据密度即可快速确定聚类 中心的位置和聚类数; 而它把每一个数据点作为一 个潜在的聚类中心的特性,则克服了山峰聚类法计 算量随着问题的维数按指数增长的不足,使得聚类 的结果与问题的维数无关[20]. 因此,减法聚类算法 是一种适合基于数据建模的规则自动提取方法. 设定 m 维空间中的 N 个数据点( X1,X2,…, XN) ,每个数据点 Xi =[xi,1,xi,2,…,xi,m]都是聚类 中心的候选者,i = 1,2,…,N,数据点 Xi 的密度函数 定义为 Di = ∑ N j = 1 [ exp - ‖Xi - Xj‖2 ( ra /2) 2 ] . ( 1) 式中,半径 ra 是一个正数. 一般按下式设定 ra : ra = 1 2 min k { max 1≤i≤N, 1≤k≤N, k≠N { ‖Xi - Xk‖} } . ( 2) ra 定义了该点的一个影响邻域,半径以外的数据点 对该点的密度指标贡献非常小,一般忽略不计. 计算每一点 Xi 的密度值,选择具有最高密度指 标 Dc1的数据点作为第一个聚类中心 Xc1 ; 然后修正 ·1339·
·1340· 北京科技大学学报 第34卷 密度值,消除前面己有聚类中心的影响.按下式修 步骤6计算聚类中心:与(i≠j,i,j=1,2, 正密度值: …,c)之间的距离.如果min‖vi-vj‖≤ra,且 D.-D.-Daep(-Ix-xi (3) D(y>D(v),其中ra=(0.5-0.7)r,则说明聚类 (rh/2)2 子集:与可以合并为一个聚类,该聚类中心为 其中,D。是初始聚类中心对应的最高密度值.修正 否则保持聚类结果不变 半径,的设定是为了避免第二个聚类中心点离前 一个中心点太近,一般设定为=r,1.25≤7≤ 2基于最小二乘支持向量机的数据驱动建 1.5. 模 修正每个数据点的密度指标后,当D4与D1满 2.1最小二乘支持向量机回归建模 足下式时,该密度指标对应的聚类中心即为第k个 标准支持向量机算法复杂度不依赖于输入空间 聚类中心.不断重复这个过程,直到新的聚类中心 的维数,依赖于样本数据的个数,样本数据越大,求 X4的相应的密度指标D4与D。满足下式时终止 解相应的二次规划(quadratic programming,QP)问 聚类: 题越复杂,计算速度越慢.最小二乘支持向量机 D4/Da<8. (4) (least squares support vector machine,LS-SVM) 式中,δ是根据实际情况提前设定的阈值 式约束代替不等式约束,变成了求解一组等式方程, 1.2减法聚类的在线算法 避免了求解耗时的二次规划问题,求解速度相对 传统聚类方法均是基于离线数据缺乏数据更 加快四 新,聚类指标缺乏灵活性,进而影响了子集模型的精 最小二乘支持向量机不需要指定逼近精度,而 确性:本文提出的在线聚类方法则克服了此缺点 是利用SRM准则构造下面的最小化目标函数,可描 基本思想如下:如果一个点到一个组的中心的距离 述为: 小于聚类半径「.,那么该点属于此组;当获得新的数 据时,组和组的中心做相应的变化. min w,e)=w+ 随着输入空间数据的不断增加,本文算法通过 s.t. yk=wp(x)+b+e4,k=1,2,…,N. 实时动态的调整聚类中心与聚类个数获得更好的输 (5) 入空间划分,步骤如下 步骤1数据归一化处理,输入数据各维聚类 式中:x(k=1,2,…,W)为子模型的输入ys是与xk 对应的输出;w代表模型的复杂度;ek表示经验误 半径T.及阈值8等设定 步骤2由历史训练数据集进行减法聚类得到 差:常数c为惩罚系数:y>0;p(x)为非线性变换映 c个聚类中心并存储,(i=1,2,…c)及其对应的密 射函数,将输入样本数据从原空间映射到高维特征 度值D(v). 空间:b为偏置量. 步骤3当新增的在线数据集中的第k个数据 引入Lagrange函数进行求解得: 到来时,计算x4(k=1,2,…,M)到i个聚类中心 L(w,b,er,ag)= :(i=1,2,,c)的距离dh=‖xk-y:‖.若d> J(w,e)- awg)+b+e-小.(6) r,转到步骤4;若d≤r.,转到步骤5. 式中,ak为Lagrange乘子.根据KTT最优条件可 步骤4由式(3)计算xk的密度值D(x),并 得到: 且Dx)>8,6=0.5,mD(),则说明数据x aL 不属于任何一个已有的聚类,则新创建一个聚类,输 a10 =0→w=∑a4p(x), 入空间的聚类个数c=c+1,返回步骤3. aL 步骤5根据最小距离准则确定数据点x4属 ab =0→∑&=0, (7) 于最近的聚类子集,进一步比较新数据x:的密度值 aL 与聚类中心的密度值.如果D(x)>D(:),则数据 ek =0ag=yex' x:更靠近其最近的聚类中心,xk取代原聚类中心 作为该子集的新聚类中心:如果D(x)≤D(":), aL=0→wpx,)+b+e-=0. 00k 则保持聚类结果不改变.判断新增数据组是否结 对于k=1,2,…,N,消去w和e,得到如下线性方 束.如果结束,则转到步骤6;否则,返回步骤3 程组:
北 京 科 技 大 学 学 报 第 34 卷 密度值,消除前面已有聚类中心的影响. 按下式修 正密度值: Di = Di - Dc1 [ exp - ‖Xi - Xc1‖2 ( rb /2) 2 ] . ( 3) 其中,Dc1是初始聚类中心对应的最高密度值. 修正 半径 rb 的设定是为了避免第二个聚类中心点离前 一个中心点太近,一般设定为 rb = ηra,1. 25≤η≤ 1. 5. 修正每个数据点的密度指标后,当 Dck与 Dc1满 足下式时,该密度指标对应的聚类中心即为第 k 个 聚类中心. 不断重复这个过程,直到新的聚类中心 Xck的相应的密度指标 Dck 与 Dc1 满足下式时终止 聚类: Dck /Dc1 < δ. ( 4) 式中,δ 是根据实际情况提前设定的阈值. 1. 2 减法聚类的在线算法 传统聚类方法均是基于离线数据缺乏数据更 新,聚类指标缺乏灵活性,进而影响了子集模型的精 确性; 本文提出的在线聚类方法则克服了此缺点. 基本思想如下: 如果一个点到一个组的中心的距离 小于聚类半径 ra,那么该点属于此组; 当获得新的数 据时,组和组的中心做相应的变化. 随着输入空间数据的不断增加,本文算法通过 实时动态的调整聚类中心与聚类个数获得更好的输 入空间划分,步骤如下. 步骤 1 数据归一化处理,输入数据各维聚类 半径 ra 及阈值 δ 等设定. 步骤 2 由历史训练数据集进行减法聚类得到 c 个聚类中心并存储 vi ( i = 1,2,…,c) 及其对应的密 度值 D( vi ) . 步骤 3 当新增的在线数据集中的第 k 个数据 到来时,计算 xk ( k = 1,2,…,M) 到 i 个聚类中心 vi ( i = 1,2,…,c) 的距离 dki = ‖xk - vi‖. 若 dki > ra,转到步骤 4; 若 dki≤ra,转到步骤 5. 步骤 4 由式( 3) 计算 xk 的密度值 D( xk ) ,并 且 D( xk ) > ε,ε = 0. 5 max i = 1,2,…,c D( vi ) ,则说明数据 xk 不属于任何一个已有的聚类,则新创建一个聚类,输 入空间的聚类个数 c = c + 1,返回步骤 3. 步骤 5 根据最小距离准则确定数据点 xk 属 于最近的聚类子集,进一步比较新数据 xk 的密度值 与聚类中心的密度值. 如果 D( xk ) > D( vi ) ,则数据 xk 更靠近其最近的聚类中心,xk 取代原聚类中心 作为该子集的新聚类中心 v' i ; 如果 D( xk ) ≤D( vi ) , 则保持聚类结果不改变. 判断新增数据组是否结 束. 如果结束,则转到步骤 6; 否则,返回步骤 3. 步骤 6 计算聚类中心 v' i 与 v' j( i≠j,i,j = 1,2, …,c) 之间的距离. 如果 min‖v' i - v' j ‖≤rd,且 D( v' j ) > D( v' i ) ,其中 rd = ( 0. 5 - 0. 7) ra,则说明聚类 子集 v' i 与 v' j 可以合并为一个聚类,该聚类中心为 v' j ; 否则保持聚类结果不变. 2 基于最小二乘支持向量机的数据驱动建 模 2. 1 最小二乘支持向量机回归建模 标准支持向量机算法复杂度不依赖于输入空间 的维数,依赖于样本数据的个数,样本数据越大,求 解相应的二次规划( quadratic programming,QP) 问 题越复杂,计算速度越慢. 最小二乘支持向量机 ( least squares support vector machine,LS--SVM) 用等 式约束代替不等式约束,变成了求解一组等式方程, 避免了求解耗时的二次规划问题,求解速度相对 加快[21]. 最小二乘支持向量机不需要指定逼近精度,而 是利用 SRM 准则构造下面的最小化目标函数,可描 述为: min J( w,ek ) = 1 2 wT w + 1 2 γ∑ N k = 1 e 2 k, s. t. yk = wT φ( xk ) + b + ek,k = 1,2,…, { N. ( 5) 式中: xk ( k = 1,2,…,N) 为子模型的输入; yk 是与 xk 对应的输出; w 代表模型的复杂度; ek 表示经验误 差; 常数 c 为惩罚系数; γ > 0; φ( x) 为非线性变换映 射函数,将输入样本数据从原空间映射到高维特征 空间; b 为偏置量. 引入 Lagrange 函数进行求解得: L( w,b,ek,αk ) = J( w,e) - ∑ N k = 1 αk [wT φ( xk ) + b + ek - yk ]. ( 6) 式中,αk 为 Lagrange 乘子. 根据 KTT 最优条件可 得到: L w = 0w = ∑ N k = 1 αkφ( xk ) , L b = 0∑ N k = 1 αk = 0, L ek = 0αk = γek, L αk = 0wT φ( xk ) + b + ek - yk = 0. ( 7) 对于 k = 1,2,…,N,消去 w 和 e,得到如下线性方 程组: ·1340·
第11期 梁辉等:基于减法聚类的带钢厚度数据驱动建模 ·1341· 日zya-9 (8) 分别如下: K= 式中,q=0,1,…,1]Ixw,Z=[p(x)T,p(x2)T,…, 「k(xx) k(x1,x2) k(x1xx) p(x)]T,Y=y1,y2,…,yx]T,a=[a1'a2,, a]',I为单位矩阵 k(xxx)k(x飞,x2)…k(xxxx) 用最小二乘求出和b,得到支持向量输出: HN, y(x)=>ao(x)'o(x)+b. (9) k(1x,)+ k(x1x2) k(x1,xx) 为了找到非线性映射函数p(x),引进核函数代 替非线性映射,即用K(x,x)=p(x)'p(x)代替 p(x),则支持向量机模型预测输出为 k(xxx) k(xx)…k(x)+ y y(x)=∑aK(x,x)+b. (11) (10) 将线性方程组(8)写为如下表达式: 式中,核函数K(x,x:)为满足Mercer条件的任意对 Axav =YN, (12) 称函数,取不同的核函数就生成不同的支持向量基. 0 91 「b1 目前常用的核函数主要有多项式核函数K(x,x)= (13) x,x)+1]、径向基核函数K(x,x)= 即{和s核画数K红,) 式中,9=0,1,…,1]1xY=y2…y%],a= [a1,2,…,ay]T,I为单位矩阵. 当新数据加入到原数据集时,首先采用减法聚 tanh(x,x)+c]等. 2.2最小二乘支持向量机在线模型参数自学习 类的在线算法更新多模型结构参数n,聚类中心c:, 判断新增数据属于哪一个子集,或者是新增加的子 对于历史离线数据进行输入空间数据划分,得 到不同工况下的c个子集,对各子集数据建立起最 集.由于聚类结果发生变化,则需对各相应的新子 集模型参数(b,α)进行在线调整,没有发生变化的 小二乘支持向量机回归模型.假设第i个子集(i= 子集模型,则直接采用离线子模型进行训练 1,2,…,c)由N,对输入输出数据构成的训练集 {x(k),y(k)},组成,其中x4∈R,yk∈R,此时支 假定第k次采集到的新数据{xx,+1yx+1}属于 子集i,其中i=1,2,…,c,则其支持向量机的核函数 持向量机的核函数矩阵Kx,为一个维数为N,×N KM+变成一个(N1+1)×(N,+1)的方阵: 的方阵,令HN=KN+yI,则Kx和Hy的表达式 k(x,x) k(x1,x2) k(x1,xx,) k(x1,xN+i) KN1+1= (14) k(xxx) k(xx2) …k(x,xx) k() k(x+1x)k(x+12)…k(xN+1xX)k(xw+1x+i) 同理可得H,+1=K1+yL,这里I为单位 矩阵,其维数为(N,+1)维,则当前N+1组数据的 (17) 最小二乘支持向量机模型系数Ax+1表达式为 式中,中=y+K(x+1,xx+),a=1,K(x AN,+1= q Hx (15) )K()]. 由分块矩阵运算定理及矩阵A为非奇异,可 通过比较矩阵AM+1和Ax,则当前新的最小二 以推导出Aw,+1的逆矩阵如下所示: 乘支持向量机模型与原模型之间的关系可以为 A+1= Ax1+1+1=YN1+1: (16) Ax.-6aa"]--As'a [-a'Ay'a]- AN a] -aAx[6-a Av a]- [6-aAv a]- bJ +1= +1 (18)
第 11 期 梁 辉等: 基于减法聚类的带钢厚度数据驱动建模 0 qT q ZZT + γ [ ] - 1 I b [ ] α = 0 [ ] Y . ( 8) 式中,q =[1,1,…,1]T 1 × N,Z =[φ( x1 ) T ,φ( x2 ) T ,…, φ( xN) T ]T ,Y = [y1,y2,…,yN]T ,α = [α1,α2,…, αN]T ,I 为单位矩阵. 用最小二乘求出 α 和 b,得到支持向量输出: y( x) = ∑ N k = 1 αkφ( x) T φ( xk ) + b. ( 9) 为了找到非线性映射函数 φ( x) ,引进核函数代 替非线性映射,即用 K( x,xk ) = φ( x) T φ( xk ) 代替 φ( x) ,则支持向量机模型预测输出为 y( x) = ∑ N k = 1 αkK( x,xk ) + b. ( 10) 式中,核函数 K( x,xk ) 为满足 Mercer 条件的任意对 称函数,取不同的核函数就生成不同的支持向量基. 目前常用的核函数主要有多项式核函数 K( x,xk ) = [( x,xk ) + 1]q 、径 向 基 核 函 数 K ( x,xk ) = exp { - ‖x - xk‖2 2σ2 } 和 Sigmod 核函数 K( x,xk ) = tanh[v( x,xk ) + c]等. 2. 2 最小二乘支持向量机在线模型参数自学习 对于历史离线数据进行输入空间数据划分,得 到不同工况下的 c 个子集,对各子集数据建立起最 小二乘支持向量机回归模型. 假设第 i 个子集( i = 1,2,…,c) 由 N1 对输入输出数据构成的训练集 { x( k) ,y( k) } N1 k = 1组成,其中 xk∈Rn1,yk∈R,此时支 持向量机的核函数矩阵 KN1 为一个维数为 N1 × N1 的方阵,令 HN1 = KN1 + γ - 1 I,则 KN1和 HN1的表达式 分别如下: KN1 = k( x1,x1 ) k( x1,x2 ) … k( x1,xN1 ) k( xN1 ,x1 ) k( xN1 ,x2 ) … k( xN1 ,xN1 ) , HN1 = k( x1,x1 ) + 1 γ k( x1,x2 ) … k( x1,xN1 ) k( xN1 ,x1 ) k( xN1 ,x2 ) … k( xN1 ,xN1 ) + 1 γ . ( 11) 将线性方程组( 8) 写为如下表达式: AN1α' N1 = YN1 , ( 12) AN1 = 0 qT q HN [ ] 1 ,α' N1 = b [ ] α ,YN1 = 0 [ ] Y . ( 13) 式中,q =[1,1,…,1]T 1 × N1 ,Y =[y1,y2,…,yN1 ]T ,α = [α1,α2,…,αN1 ]T ,I 为单位矩阵. 当新数据加入到原数据集时,首先采用减法聚 类的在线算法更新多模型结构参数 n,聚类中心 ci, 判断新增数据属于哪一个子集,或者是新增加的子 集. 由于聚类结果发生变化,则需对各相应的新子 集模型参数( b,α) 进行在线调整,没有发生变化的 子集模型,则直接采用离线子模型进行训练. 假定第 k 次采集到的新数据{ xN1 + 1,yN1 + 1 } 属于 子集 i,其中 i = 1,2,…,c,则其支持向量机的核函数 KN1 + 1变成一个( N1 + 1) × ( N1 + 1) 的方阵: KN1 + 1 = k( x1,x1 ) k( x1,x2 ) … k( x1,xN1 ) k( x1,xN1 + 1 ) k( xN1 ,x1 ) k( xN1 ,x2 ) … k( xN1 ,xN1 ) k( xN1 ,xN1 + 1 ) k( xN1 + 1,x1 ) k( xN1 + 1,x2 ) … k( xN1 + 1,xN1 ) k( xN1 + 1,xN1 + 1 ) . ( 14) 同理可得 HN1 + 1 = KN1 + 1 + γ - 1 I,这里 I 为单位 矩阵,其维数为( N1 + 1) 维,则当前 N1 + 1 组数据的 最小二乘支持向量机模型系数 AN1 + 1表达式为 AN1 + 1 = 0 qT q HN1 [ ] + 1 . ( 15) 通过比较矩阵 AN1 + 1和 AN1 ,则当前新的最小二 乘支持向量机模型与原模型之间的关系可以为 AN1 + 1α' N1 + 1 = YN1 + 1 ; ( 16) AN1 + 1 = AN1 a a [ ] T ,α' N1 + 1 = α' N1 αN1 [ ] + 1 , YN1 + 1 = YN1 yN1 [ ] + 1 . ( 17) 式中, = γ - 1 + K ( xN1 + 1,xN1 + 1 ) ,a = [1,K ( x1, xN1 + 1 ) ,…,K( xN1 ,xN1 + 1) ]T . 由分块矩阵运算定理及矩阵 AN1 为非奇异,可 以推导出 AN1 + 1的逆矩阵如下所示: A-1 N1 +1 = [AN1 - -1 aaT ]-1 - A-1 N1 a[ - aT A-1 N1 a]-1 - aT A-1 N1 [ - aT A-1 N1 a]-1 [ - aT A-1 N1 [ ] a]-1 . ( 18) ·1341·
·1342· 北京科技大学学报 第34卷 假定矩阵A∈RxN,C∈R“x均为非奇异,矩阵 胀问题,这里引入数据遗忘机制,保持训练数据集的 B∈RNx",D∈RMxN,则矩阵(A+BCD)具有逆 大小不变,利用支持向量机中己经计算得到的 矩阵: Lagrange乘子,训练数据对建模的重要程度可通过 (A+BCD)-1= Lagrange乘子绝对值Ia:l反映出来,la:|越小,表明 A-1-A-B(DA-B+C-1)-DA-1.(19) 数据对训练越无关紧要四, 根据以上的矩阵求逆引理,则可以推导出: 假设Lagrange乘子绝对值Ia|最小的数据集为 [Ay-中aa门-1= {xmym}(m=1,2,…,N1+1),把其从数据集中去 A+As a [-aASa]-aAs.(20) 除时,可根据下式计算更新的A: 把式(20)代入式(18)中得出A见式(21),只需 A=A(i,》- 利用前八,组数据集的最小二乘支持向量机模型系 A(m,m]-A(i,m)A+:(m,). 数A,就可以递推计算出,而不需要对全部数据重 (22) 新计算. 式中,i,j=0,2,m,m+2,…,W1+2]. A1= 40'1+ 每次迭代过程中首先对N1+1组数据集的 Lagrange乘子进行排序,寻找最小的Ia,l,Ia:l是新 [-1-a'Aa]- AN a 模型的参数,不需再单独计算,然后把最小Iα,I对应 -1] 1-1 的数据样本删除,则即考虑了历史数据的影响,又突 (21) 出了新数据的作用. 式中,0=D,0…,0]1xw,+)是零向量 基于最小二乘支持向量机的带钢厚度数据驱动 为了避免随着训练数据的增加而导致的计算膨 在线算法流程如图2所示. 厂 准备工作 离线数据{伍,y六预处理及参数设置 新数据化,y}增加,计算x到的距离d 进行减法聚类得到C个子集并存储聚类 中心y,(位=1,2,…,c)及相应数据集 x,片}属于第聚类子集>N c=c+1 Y 各聚类子集数据进行LS-SVM训练. 更新第类的A,并存行储 增加新的聚类子集, 并存存储各子集相对应的A、 计算聚类中心y1 对排序,去除最小的口的数据样本 进行LS-SvM训练 行储新的A、 对新样本重新进行LS-SVM训练,更新A√ 输出建模结果 立 N 新增数据是杏结束 T 终止计算 图2带钢厚度数据驱动在线算法流程图 Fig.2 Flow chart of the online algorithm for strip thickness 数字轧机系统产生的数据在Matlab仿真平台上进 3实验分析 行带钢厚度质量预测.轧制规程如下所示,钢种为 3.1数字轧机仿真实验 Q235,宽带B=1200mm,轧辊半径R=380mm,F1 为验证本文所提方法的有效性,以带钢热连轧 机架入口厚度H=32mm,出口厚度h=16.65mm
北 京 科 技 大 学 学 报 第 34 卷 假定矩 阵 A∈RN × N,C∈RM × M 均 为 非 奇 异,矩 阵 B∈RN × M,D∈ RM × N,则 矩 阵 ( A + BCD) 具 有 逆 矩阵[22]: ( A + BCD) - 1 = A - 1 - A - 1 B( DA - 1 B + C - 1 ) - 1 DA - 1 . ( 19) 根据以上的矩阵求逆引理,则可以推导出: [AN1 - - 1 aaT ]- 1 = A - 1 N1 + A - 1 N1 a[ - aT A - 1 N1 a]- 1 aT A - 1 N1 . ( 20) 把式( 20) 代入式( 18) 中得出 A - 1 N1 + 1,见式( 21) ,只需 利用前 N1 组数据集的最小二乘支持向量机模型系 数 A - 1 N1 ,就可以递推计算出,而不需要对全部数据重 新计算. A - 1 N1 + 1 = A - 1 N1 0T 0 [ ] 0 + [ - 1 - aT A - 1 N1 a]- 1 A - 1 N1 a [ ] - 1 [aT A - 1 N1 - 1]. ( 21) 式中,0 =[0,0…,0]1 × ( N1 + 1) 是零向量. 为了避免随着训练数据的增加而导致的计算膨 胀问题,这里引入数据遗忘机制,保持训练数据集的 大小 不 变,利用支持向量机中已经计算得到的 Lagrange乘子,训练数据对建模的重要程度可通过 Lagrange乘子绝对值 | αi | 反映出来,| αi | 越小,表明 数据对训练越无关紧要[23]. 假设 Lagrange 乘子绝对值| αi |最小的数据集为 { xm,ym } ( m = 1,2,…,N1 + 1) ,把其从数据集中去 除时,可根据下式计算更新的 A' N1 - 1[24]: A' N1 - 1 = A - 1 N1 + 1 ( i,j) - [A - 1 N1 + 1 ( m,m) ]- 1 A - 1 N1 + 1 ( i,m) A - 1 N1 + 1 ( m,j) . ( 22) 式中,i,j =[1,2,…m,m + 2,…,N1 + 2]. 每次迭代过程中首先对 N1 + 1 组 数 据 集 的 Lagrange乘子进行排序,寻找最小的 | αi |,| αi | 是新 模型的参数,不需再单独计算,然后把最小| αi | 对应 的数据样本删除,则即考虑了历史数据的影响,又突 出了新数据的作用. 基于最小二乘支持向量机的带钢厚度数据驱动 在线算法流程如图 2 所示. 图 2 带钢厚度数据驱动在线算法流程图 Fig. 2 Flow chart of the online algorithm for strip thickness 3 实验分析 3. 1 数字轧机仿真实验 为验证本文所提方法的有效性,以带钢热连轧 数字轧机系统产生的数据在 Matlab 仿真平台上进 行带钢厚度质量预测. 轧制规程如下所示,钢种为 Q235,宽带 B = 1 200 mm,轧辊半径 R = 380 mm,F1 机架入口厚度 H = 32 mm,出口厚度 h = 16. 65 mm, ·1342·