-
在现实世界中, 无时无处无不面临着优化问题. 随着社会的发展, 急需处理的优化问题越来越多样化和越来越复杂. 而诸如牛顿法、梯度下降法等传统的方法不能够很好地处理这些急需解决的优化问题. 因此许多研究者建立了各种仿生类的智能计算模型, 提出了许多智能优化算法. 群智能优化算法(Swarm Intelligent Optimization Algorithm, SIOA)是模拟自然界社会群体集体行为的一种智能优化方法[1], 包括粒子群优化(Particle Swarm Optimization, PSO)算法[2]、灰狼优化算法(Grey Wolf Optimizer, GWO)[3]、郊狼优化算法(Coyote Optimization Algorithm, COA)[4]等等. SIOA具有易于实现, 能有效处理全局优化和大规模优化问题等优势, 被广泛应用于多目标优化、数据聚类以及模式识别等诸多领域[5]. 但根据无免费午餐定理[6], 没有任何一种SIOA能独立地解决所有的优化问题, 每种SIOA都有自身的优势和局限性. 因此许多学者提出了大量新奇和改进的SIOA, 其中包括算法的混合改进. 两种或多种算法的混合可以达到优势互补, 以获得最佳的优化性能[7].
GWO是由Mirjalili等人[3]在2014年提出的一种新颖SIOA. 它具有原理简单、开采能力强、可调参数少等优点, 但存在易陷入局部最优、解决复杂优化问题性能差等缺点. 因此许多学者对其进行了研究和改进, 其中包括混合改进. 例如张新明等人[7]提出一种GWO与人工蜂群算法的混合算法, 其中在人工蜂群观察蜂阶段自适应融合GWO, 以便增强开采能力和提高优化效率. Zhang等人[8]提出一种基于生物地理学优化算法和GWO的混合算法, 它将改进的基于生物地理学优化算法和基于反向学习的GWO混合, 使得优化性能最大化. Teng等人[9]提出一种PSO与GWO结合的混合算法, 该算法具有更好的寻优能力和更强的鲁棒性. Arora等人[10]提出一种乌鸦搜索算法与GWO的混合算法, 更有效地实现了全局优化.
COA是由Pierezan等人[4]于2018年提出的一种模拟郊狼群居生活、成长、生死等现象的新型SIOA. COA具有独特的搜索模型和结构以及出色的优化能力, 尤其在解决复杂优化问题优势明显, 但仍存在搜索效率低、可操作性不强以及收敛速度慢等缺陷, 且由于COA提出的时间较短, 需改进和完善并拓展其应用领域. 鉴于GWO和COA各有优势和不足, 所以本文为了弥补二者不足, 将两种算法分别进行改进和简化得到改进的COA (Improved COA, ICOA)和简化的GWO (Simplified GWO, SGWO), 然后通过正弦交叉策略将ICOA和SGWO有机融合在一起, 从而获得了一种性能优越且高效的混合COA (Hybrid COA with GWO, HCOAG). 另外, 混合算法的研究一直是优化领域的热点, 故研究GWO与COA的混合是有意义的.
-
GWO模拟了自然界中灰狼种群严格的社会等级制度和群体捕食行为. 在其社会等级制度中, 灰狼从高到低依次为α、β、δ和ω狼. 其捕食行为是追踪和接近猎物, 追捕和包围猎物, 攻击和捕杀猎物. GWO将狼群中的α、β、δ和ω狼的位置分别代表第一最优解、第二最优解、第三最优解和候选解. 灰狼包围行为的数学模型如下:
$${{Dis}} = \left| {{{C}} \otimes {{{X}}_p}\left( t \right) -{{ X}}\left( t \right)} \right|$$ (1) $${{X}}\left( {t + 1} \right) = {{{X}}_p}\left( t \right) - {{A}} \otimes {{Dis}}$$ (2) $${{A}} = 2a \times {{{r}}_1} - a$$ (3) $${{C}} = {c_1} \times {{{r}}_2}$$ (4) $$a = 2 - 2t/MaxDT$$ (5) 其中, Dis是灰狼与猎物间的距离, t是当前迭代次数, Xp是猎物的位置向量, X是灰狼的位置向量. A和C是系数向量, 如式(3)和(4). 系数a在迭代过程中从2线性递减到0, 如式(5), MaxDT是最大迭代次数, r1和r2是[0,1]中的均匀分布随机向量, c1为可调参数[11],
$ \otimes $ 表示两个向量各个对应的分量相乘. 狩猎行为的数学模型如下:$${{Dis}}{_{\rm{\alpha}} } = \left| {{{{C}}_1} \otimes {{{X}}_{\rm{\alpha}} }\left( t \right) - {{X}}\left( t \right)} \right|$$ (6) $${{Dis}}{_{\rm{\beta}} } = \left| {{{{C}}_{{2}}} \otimes {{{X}}_{\rm{\beta}} }\left( t \right) - {{X}}\left( t \right)} \right|$$ (7) $${{Dis}}{_{\rm{\delta}} } = \left| {{{{C}}_{{3}}} \otimes {{{X}}_{\rm{\delta}} }\left( t \right) - {{X}}\left( t \right)} \right|$$ (8) $${{{X}}_{{1}}} = {{{X}}_{\rm{\alpha}} }\left( t \right) - {A_{{1}}} \otimes {{Dis}}{_{\rm{\alpha}} }$$ (9) $${{{X}}_{{2}}} = {{{X}}_{\rm{\beta}} }\left( t \right) - {A_{{2}}} \otimes {{Dis}}{_{\rm{\beta}} }$$ (10) $${{{X}}_{{3}}} = {{{X}}_{\rm{\delta}} }\left( t \right) - {A_{{3}}} \otimes {{Dis}}{_{\rm{\delta}} }$$ (11) $${{X}}(t + 1) = \left( {{{{X}}_{{1}}} + {{{X}}_{{2}}} + {{{X}}_{{3}}}} \right)/3$$ (12) 其中Disα、Disβ和Disδ分别表示当前狼与3头最优灰狼间的距离. 式(12)代表ω狼在α、β和δ狼的引导下移动的新位置, 即GWO产生的新解. GWO的流程图见图1.
从上述描述和图1可知, 与PSO等经典的SIOA相比, GWO的主要特点有: 1、GWO采用3头最优狼(最优解)引导ω狼围猎, 有较强的局部搜索能力, 但在解决复杂优化问题时, 容易陷入局部最优; 2、GWO仅有两个参数a和c1, 前者采用动态调整方式, 后者c1常取常数2, 调整的参数少, 故可操作性强; 3、原理简单易于实现, 但更新是基于维
的计算, 需计算式(6)~(12), 故计算复杂度较高; 4、目标函数采用并行计算方式, 故运行速度较快.
-
COA包含初始化参数和狼群、组内郊狼成长、郊狼生与死和被组驱离与接纳[4]等4个主要步骤.
-
首先设置参数如郊狼群规模N、郊狼组数Np、组内郊狼数Nc和MaxDT等, 其中N=Nc×Np. 然后随机初始化郊狼群组, 第p组第c个郊狼第j维的随机化操作见式(13). 最后计算每头郊狼soc的社会适应度值fit如式(14).
$${{{soc}}_{c,}}_j{\rm{ = }}l{b_j} + r \times (u{b_j} - l{b_j})$$ (13) $$fi{t_c} = f({{{soc}}_c})$$ (14) 其中lbj和ubj分别表示郊狼第j维社会状态因子的下界和上界, j=1, 2,
$\cdots $ , D, D为搜索空间维度, r为[0,1]内均匀分布的随机数, f表示适应度函数. -
组内最优狼alpha、组文化趋势cult以及随机选取的两头郊狼cr1和cr2影响组内郊狼的成长过程, 即组内郊狼成长受δ1和δ2的影响. 其中cult的计算如式(15)所示, 即其每一个因素是组内所有郊狼对应社会因子的中位数(O为排名后的社会因子序列), 故cult又称中值郊狼. δ1和δ2计算见式(16)和(17). 郊狼的成长方式见式(18).
$${{{cult}}_j} \!=\! \left\{\!\! {\begin{array}{*{20}{l}} {{O_{{{({N_c} + 1)} / 2},j}},}&{{N_c}{\text{是奇数}}}\\ {\left( {{O_{{N_c}/2,j}} + {O_{{N_c}/2 + 1,j}}} \right)/2,}&{{N_c}{\text{是偶数}}} \end{array}} \right.$$ (15) $${{{\delta}} _{{1}}} = {{alpha}} - {{{soc}}_{{{c}}{{{r}}_1}}}$$ (16) $${\delta _{{2}}} = cult - {{{soc}}_{{{c}}{{{r}}_2}}}$$ (17) $${{new}}\_{{{soc}}_c} = {{{soc}}_c} + {r_3} \times {{{\delta}} _{{1}}} + {r_4} \times {{{\delta}} _{{2}}}$$ (18) 其中, new_socc是组内第c头郊狼成长获得的新解, r3和r4是[0,1]内均匀分布的随机数. 组内的郊狼成长后评估其社会适应能力如式(19)所示, new_fitc为新适应度值.
$$new\_fi{t_c} = f({{new}}\_{{{soc}}_c})$$ (19) 最后采用迭代贪心算法进行优胜劣汰如式(20), 如此新产生的更优郊狼参与组内其余郊狼成长以加快收敛速度.
$${{soc}} = \left\{ {\begin{array}{*{20}{c}} {{{new}}\_{{{soc}}_c},\quad new\_fi{t_c} < fi{t_c}} \\ {{{{soc}}_c},\;\quad \;otherwise} \end{array}} \right.$$ (20) -
幼郊狼(pup)的诞生受随机选择父母郊狼的遗传基因和环境因素的影响, 见式(21)所示.
$$pu{p_j} = \left\{ {\begin{array}{*{20}{c}} {{{so}}{{{c}}_{c{r_1},j}},}&{{r_j} < {P_s}\;or\;j = {j_1}}\\ {{{so}}{{{c}}_{c{r_2},j}},}&{{r_j} \ge {P_s} + {P_a}\;or\;j = {j_2}}\\ {{R_j},}&{otherwise} \end{array}} \right.$$ (21) 其中, rj是均匀分布在[0,1]内的随机数; j1和j2是两个随机选择的维度标号, 以确保两个父郊狼的基因能够遗传给幼狼; Rj是在第j维决策变量范围内随机产生的变异值; Ps和Pa分别是分散概率和关联概率, 它们决定着幼狼被遗传和变异的情况, 如式(22)和式(23)所示.
$${P_s} = 1/D$$ (22) $${P_a} = \left( {1 - {P_s}} \right)/2$$ (23) 幼狼出生后, 评估其社会适应能力, 并依照其能力决定生与死, 具体描述如下: 在社会适应能力上, (1)组内只有一个郊狼比幼狼差时, 则此郊狼死亡, 幼狼存活, 并设它的年龄为0, 即age=0; (2)组内有多个郊狼比幼狼差时, 能力差且年龄最大的郊狼死亡, 幼狼存活, 并设age=0; (3)组内所有郊狼都比幼狼强时, 幼狼死亡.
-
在COA中, 郊狼以Pe的概率被组驱离和接纳. 郊狼开始被随机分配到组群中, 但有时某些郊狼会离开它所在组群从而加入另一组群, 这种随机驱离和接纳用来保证组内郊狼的多样性和组间信息共享, Pe的计算方式如式(24)所示.
$${P_e} = 0.005 \times {N_c}^2$$ (24) COA的伪代码如算法1所示.
算法1. COA伪代码.
1. 设置Np和Nc等参数, 随机初始化郊狼种群并随机分组, 评估每个郊狼的社会适应能力, 确定全局最优郊狼
2. FOR t=1 TO MaxDT DO
3. FOR p=1 TO Np DO
4. 确定组内最优的alpha狼
5. 根据式(15)计算组文化趋势cult
6. FOR c=1 TO Nc DO
7. 根据alpha和cult进行郊狼成长, 如式(16)~(18)
8. 使用贪心算法优胜劣汰保留更优郊狼和全局最优郊狼
9. END FOR
10. 幼狼出生与死亡, 出生如式(21), 按其社会能力决定其生死
11. END FOR
12. 郊狼采用如式(24)的概率被组驱离和接纳
13. 更新郊狼的年龄, age=age+1
14. END FOR
15. 输出全局最优郊狼
从以上描述可知, 与PSO等经典的SIOA相比, COA的主要优势有: 1、具有很好的搜索框架, 即多组结构, 郊狼随机被组驱离和接纳等使郊狼群具有多样性, 有较强的探索能力, 能够更好地解决复杂优化问题[12]; 2、组内最优郊狼和组内文化趋势引导组内每个郊狼的成长, 增强了局部搜索能力; 3、郊狼组内的生与死受随机选择父郊狼的遗传因子和环境变异因子影响, 郊狼生与死算子使得COA具有一定的全局搜索能力. 其主要不足有: 1、结构复杂, 计算复杂度高; 2、采用迭代贪心算法, 稳定性差, 效率低; 3、需调整的参数多如Pe、Np和Nc等需调整, 可操作性差; 4、多组结构等增强探索能力, 但组与组之间信息共享不足等, 导致搜索后期收敛速度慢.
-
COA与GWO虽同属狼群算法, 但二者有许多不同. 如在搜索方式上, 前者模拟郊狼的成长、生与死, 而后者模拟灰狼的等级制度和狩猎模式; 在引导上, 前者仅仅使用一头最好的狼来引导其它狼成长, 而后者使用三头最优狼来引导其它狼搜索; 在结构上, 前者复杂, 后者简单; 在产生新解方式上, 前者有两种方式, 后者只有一种方式等等. 因此COA和GWO各有优势和不足, 所以本文为了弥补二者不足, 将COA和GWO两种狼群算法经过改进后进行了有机结合, 从而获得一种性能优越且高效的混合算法(HCOAG).
-
ICOA主要包括高斯全局趋优成长算子和动态调整组内郊狼数方案.
-
为了提高郊狼成长后的社会适应能力、组与组之间的信息共享程度及算法收敛速度, 受Omran等人[13]提出的全局最优和声搜索算法中趋优策略和高斯分布的启发, 对其组内郊狼成长方式进行改进, 提出一种高斯全局趋优成长算子. 全局趋优算子充分利用郊狼种群当前全局最优郊狼的状态信息, 使郊狼成长向当前全局最优郊狼趋近, 提高开采能力, 也使得组内信息经全局最优解达到组间共享. 高斯分布又叫正态分布, 与COA的均匀随机分布[0,1]相比, 可以增加搜索范围, 在一定程度上增强全局搜索能力.
在组内郊狼成长过程中, 在式(18)中引入趋优算子和高斯分布随机因子, 具体见式(25)和(26).
$${{{\delta}} _3} = {{GP}} - {{{soc}}_{{{{cr}}_1}}}$$ (25) $${{new}}\_{{{soc}}_1} = {{soc}} + r{n_1} \times {{{\delta}} _3} + r{n_2} \times {{{\delta}} _{{2}}}$$ (26) 式(25)中, GP为当前全局最优郊狼, δ3表示组内随机选取的一个郊狼(cr1)与GP的差值. 式(26)中, rn1和rn2是均值为0方差为1的高斯(正态)分布产生的随机数, new_soc1表示每头郊狼在δ2和δ3的共同作用下成长产生的新状态(新解).
从式(25)和(26)可以看出, 与COA相比, 在搜索前期, 个体间差异大, 以及缩放因子(高斯随机数)范围增大, 故增强了探索能力. 在搜索后期, 虽然还是采用高斯随机数, 但个体间差异小, δ2和δ3的值变小, 故搜索范围变小, 强化开采能力. 且由于采用全局最优解引导, 故更增强开采能力, 还有上一组获得的全局最优解, 会作用于下一组的郊狼成长, 如此形成一种信息共享的正反馈作用, 大幅度加快收敛速度. 另外, 所有组内郊狼成长后并行计算它们的适应度值和优胜劣汰, 提高了运行速度和稳定性.
-
正如上文所述, COA有多个参数需要调整, 可操作性差. 对于以上改进的COA, 主要有两个参数Nc和Np对优化性能影响较大. 在N固定下, 如果Nc确定, 则Np=N/Nc, 即Np越大, Nc越少, 成长操作少, 但全局解的作用逐组增强, 开采强; 反之, 成长操作多, Np少, 全局解的作用减弱, 开采弱. 为了提高COA的可操作性等, 本文对Np和Nc参数进行动态调整. 设N=100, 则Np和Nc必须为100的因子, 依据文献[4], 每组郊狼数不能超过14, 所以Nc只能为4、5和10. 由于Nc不能少于3, 这是因为组内郊狼成长至少需要3头郊狼, 包括随机选取的两头郊狼和组内最优郊狼. 当Nc=4时可选郊狼范围受限制, 所以Nc最可能的取值为5和10, 故具体的分配方式如图2, 动态调整参数方案如算法2所示.
算法2. 动态调整参数Nc和Np的伪代码.
1 IF 在搜索后期
2 Nc=5
3 ELSE 在搜索前期
4 Nc=10
5 END IF
6 Np=N/Nc和随机分组
在搜索后期, Nc=5, 则Np=20, 组数多, 增强全局解的正反馈作用, 局部搜索能力增强; 在搜索前期, Nc=10, 则Np=10, 组数少, 减弱全局解的正反馈作用, 全局搜索能力增强. 因此动态调整组内郊狼数参数不仅提高了可操作性, 而且可以更好地平衡探索与开采能力. 另外, 在动态调整参数之后, 随机分组, 如此可以省去郊狼被组驱离与接纳这个过程, 也就不需要调整参数Pe, 也提高了可操作性.
-
为了进一步解决COA存在搜索效率低和易陷入局部最优的问题, 本文引进GWO搜索方式. 首先提出了一种精简的GWO搜索方式, 即将式(6)~(11)与COA组内郊狼进行融合并简化, 具体如式(27)、(28)和(29).
$${{{NX}}_{{1}}} = {{GP}} - {{{A}}_{{1}}} \otimes \left| {{{GP}} - {{{temp}}_c}} \right|$$ (27) $${{{NX}}_2} = {{alpha}} - {A_2} \otimes \left| {{{alpha}} - {{{temp}}_c}} \right|$$ (28) $${{{NX}}_3} = {{cult}} - {A_3} \otimes \left| {{{cult}} - {{{temp}}_c}} \right|$$ (29) 其中, tempc表示当前组第c个郊狼的状态. NX1、NX2和NX3表示组内郊狼分别在GP、alpha和cult的引导下获得成长的情况. 从式(27)~(29)可以看出, 这三式去掉了式(6)、(7)和(8)中的可调参数向量C, 保留GWO的优势和克服其不足, 即在SGWO中, 去掉C, 无需调整c1, 也省去了C向量的相关计算. 所以这种简化的GWO在保证其有较强开采能力的同时, 也提高可操作并降低计算复杂度. 为了更进一步简化计算, SGWO直接采用COA中的当前全局最优郊狼、组内最优郊狼和中值郊狼(组内文化趋势)的引导寻找最优解, 无需寻找组内的第二和第三最优郊狼, 如此SGWO与COA达到了一种高效融合. 为方便理解SGWO, 关于GWO中的灰狼等级情况与SGWO中的等级情况的对比见图3.
-
为了平衡COA组内郊狼成长的探索与开采能力, 本文采用正弦交叉策略将ICOA与SGWO有机混合. 其中交叉策略是指在一定概率的情况下, 两个解进行交叉得到一个新解. 当概率为零时, 两个解的维值不交换; 当概率为1时, 两个解的维值全部交换, 这两种情况都不能产生新解. 因此只有概率为一个适当的值时, 两个解的交叉效果才会达到最好. 其中使用正弦函数概率模型使得探索和开采都有良好的表现, 即使用正弦函数自适应控制交叉概率CR(在0.5附近前期小幅度波动, 后期大幅度跳动)可以兼顾组内郊狼的多样性和收敛性[14], 其计算方式见式(30).
本文采用的正弦交叉策略见算法3所示, 在rand<CR的概率下, 组内第c个郊狼D维中一些维的值采用SGWO搜索方式获取; 反之, 组郊狼的第c个郊狼D维中的其余维值采用高斯全局趋优成长算子获取. 这种交叉策略具有如下特点: 1、增强了组内各类郊狼的信息交流; 2、交叉两个新解, 二者的信息融合获得有别二者的新解, 增强了新解的多样性, 降低陷入局部最优的概率; 3、前期在CR为0.5的附近小幅度波动, 高斯全局趋优操作和GWO操作以近似等概率的方式产生新解, 多样性强, 强化探索能力; 后期在CR为0.5的附近大幅度跳动, 如此产生的新解以其中一种操作为主, 多样性降低, 强化开采能力.
$$CR{\rm{ = 0}}{\rm{.5}} \times \left( {\sin \left( {2\pi \times 0.25 \times t + \pi } \right) \times \left( {t/MaxDT} \right) + 1} \right)$$ (30) 算法3.正弦交叉策略的成长算子伪代码.
1. 计算正弦交叉概率见式(30)
2. 选定第个p组第c个郊狼
3. FOR j=1 TO D DO
4. IF rand<CR
5. 计算式(27)、(28)和(29)
6. new_cj=(NX1,j+NX2,j +NX3,j)/3
7. ELSE
8. 采用高斯全局趋优成长算子的式(26)
9. END IF
10. END FOR
正弦交叉策略有机融合了两种搜索方式, 很好地平衡了成长过程的探索与开采能力. HCOAG的流程图见图4.
从图4看出, 与COA相比, HCOAG主要有如下不同: 1、成长方式采用正弦交叉策略融合高斯全局趋优方式和SGWO方式; 2、组内郊狼的适应度值采用并行计算; 3、动态调整参数方案; 4、丢弃了郊狼被组驱离与接纳的过程.
-
为验证HCOAG的有效性, 本文采用经典基准函数和来自CEC2017的复杂函数进行优化实验. CEC2017包括单峰函数(F1-F3)、多峰函数(F4-F10)、混合函数(F11-F20)和复合函数(F21-F30), 详细情况见文献[15]. 实验环境采用Inter(R)Core(TM)i5-7400CPU, 主频3.00 GHz和内存8 GB的PC机, 操作系统采用64位的Windows 10, 编程语言采用MATLAB2017A. 选取的对比算法包括GWO[3]、COA[4]、MEGWO (Multi-strategy Ensemble GWO)[16]、DEBBO (Differential Evolution and Biogeography-Based Optimization)[17]、HFPSO (Hybrid Firefly with PSO)[18]、SaDE (DE with Strategy adaptation)[19]、SE04 (Spherical Evolution)[20]、FWA (Fireworks Algorithm)[21]和TLBO (Teaching-Learning Based Optimization)[22]. MEGWO是最近提出的GWO改进算法, 文献[16]表明它优于GWO及其改进版以及其它的SIOA. DEBBO是DE与BBO的混合算法, 文献[17]表明它优于DE和BBO及其它优秀的SIOA. HFPSO是PSO和FA的混合算法, 文献[18]表明它优于PSO和FA等SIOA. SaDE具有显著优秀性能, 文献[19]表明SaDE优于DE等SIOA. SE04是球形进化算法(SE)的变体之一, 文献[20]表明SE04显著优于GWO等算法. FWA和TLBO也是目前较为新型算法的代表. 总之, 这些对比算法具有较强的竞争性.
为公平起见, 所有算法的公共参数设置相同. 在CEC2017上, 据文献[15]的参数最佳推荐, D=30, 最大函数评价次数10000*D, 独立运行51次. 在经典函数的D=10和D=30上, MaxDT分别为100和500, 独立运行30次. 依据文献[4]推荐, COA的最佳参数设置: N=100, Nc=5, Np=20. HCOAG的N也设置为100, Np和Nc无需调整, 算法其它参数采用相应文献中推荐的最佳设置.
一般单峰函数用来考察一个算法的局部搜索能力, 多峰函数考察其全局搜索能力, 混合和复合函数考察其处理复杂问题的能力. 本文采用均值(Mean)和方差(Std)分别来评估一个算法的优化性能和稳定性. 在解决极小值问题中, 均值越小表示算法性能越好, 方差越小表示算法稳定性越好. 另外, 还采用了排名(Rank)方法. 其评价标准是先比较算法获得的均值, 均值越小算法名次越好; 在均值相同的情况下, 再比较方差, 方差越小算法名次越好. 结果表中的“Count”表示排名为第一的总次数, “Ave Rank”表示平均排名情况, “Total Rank”表示在“Ave Rank”基础上的总排名情况, 最优者用加粗表示.
-
为验证每个改进对HCOAG优化性能的贡献, 将HCOAG与其不完全算法HCOAG5(Nc=5和Np=20的HCOAG)、HCOAG10(Nc=10和Np=10的HCOAG)、ICOA、SGWO、GWO和COA在CEC2017的30维函数上进行实验, 其实验结果如表1所示.
表 1 HCOAG与其不完全算法的结果对比
Table 1. Comparison results of HCOAG and its incomplete algorithms
函数 HCOAG COA GWO HCOAG5 HCOAG10 ICOA SGWO F1 Mean 7.4494×10?4 1.2099×103 1.2813×109 4.1072×10?4 1.9800×10?3 1.0737×102 3.3279×103 Std 1.4801×10?3 1.2998×103 9.6388×108 8.5916×10?4 2.9438×10?3 1.0569×102 4.3271×103 Rank 2 5 7 1 3 4 6 F2 Mean 1.1941×101 2.9013×1021 3.1831×1032 4.8580×103 1.8078×101 8.6764×1015 3.3582×1014 Std 2.4077×101 1.1462×1022 1.5894×1033 3.3985×104 5.0208×101 3.5675×1016 1.3200×1015 Rank 1 6 7 3 2 5 4 F3 Mean 9.5410×10?1 6.0573×104 2.8342×104 7.6972×10?1 1.0995×100 3.3032×104 8.7276×102 Std 1.9288×100 1.0177×104 9.2323×103 9.8032×10?1 1.6794×100 6.8409×103 7.2376×102 Rank 2 7 5 1 3 6 4 F4 Mean 1.8113×101 8.4041×101 2.0825×102 2.0841×101 2.8446×101 4.8248×101 1.0495×102 Std 2.7696×101 8.5306×100 8.4445×101 3.0540×101 3.1826×101 3.3517×101 2.4806×101 Rank 1 5 7 2 3 4 6 F5 Mean 2.8433×101 5.2890×101 9.6116×101 3.5884×101 3.0204×101 3.4844×101 3.1488×101 Std 6.8886×100 1.5025×101 3.2690×101 1.0115×101 8.8983×100 1.0983×101 9.2242×100 Rank 1 6 7 5 2 4 3 F6 Mean 1.7483×10?7 1.6399×10?5 6.3664×100 9.4452×10?7 1.5005×10?6 2.8782×10?4 2.0381×10?2 Std 4.7524×10?7 9.6428×10?6 3.1596×100 2.4080×10?6 5.9643×10?6 1.6254×10?4 2.7102×10?2 Rank 1 4 7 2 3 5 6 F7 Mean 6.1055×101 7.5148×101 1.4460×102 6.7082×101 5.9300×101 6.7675×101 6.4025×101 Std 1.0851×101 1.3762×101 4.6314×101 1.1241×101 9.4998×100 1.1520×101 1.1856×101 Rank 2 6 7 4 1 5 3 F8 Mean 3.2489×101 5.6110×101 8.4662×101 3.6085×101 2.9446×101 3.6138×101 3.1775×101 Std 1.2272×101 1.8774×101 2.5270×101 8.8063×100 7.9048×100 1.0081×101 7.8884×100 Rank 3 6 7 4 1 5 2 F9 Mean 2.7362×10?1 5.6225×10?1 5.5392×102 5.2270×10?1 2.5931×10?1 8.8559×10?2 7.4159×100 Std 4.8298×10?1 1.0209×100 3.2695×102 8.7374×10?1 4.6957×10?1 1.5656×10?1 6.7112×100 Rank 3 5 7 4 2 1 6 F10 Mean 2.2671×103 2.7575×103 3.1862×103 2.5574×103 2.3435×103 2.1380×103 2.1424×103 Std 6.1427×102 4.6685×102 9.7886×102 5.3524×102 6.0670×102 5.6098×102 4.0691×102 Rank 3 6 7 5 4 1 2 F11 Mean 2.1678×101 4.1143×101 4.9771×102 2.9822×101 2.6698×101 2.2685×101 1.0908×102 Std 2.0907×101 2.7367×101 6.4235×102 2.6128×101 2.4059×101 2.0893×101 3.8218×101 Rank 1 5 7 4 3 2 6 F12 Mean 9.8943×103 1.2532×105 4.0285×107 1.2577×104 1.0657×104 1.3660×105 2.0716×105 Std 6.0932×103 1.2555×105 7.3849×107 6.4424×103 6.4606×103 9.3092×104 1.9967×105 F12 Rank 1 4 7 3 2 5 6 F13 Mean 1.9749×103 2.0357×104 2.8073×106 3.0265×103 3.1829×103 3.6293×102 1.3271×104 Std 3.8565×103 2.6333×104 1.6225×107 6.2901×103 8.0719×103 8.9975×101 1.5283×104 Rank 2 6 7 3 4 1 5 F14 Mean 8.6436×101 8.0070×101 1.3112×105 7.7150×101 1.0134×102 5.6726×101 1.4132×104 Std 4.3766×101 1.9915×101 2.3335×105 6.0071×101 9.2585×101 1.4850×101 1.7944×104 Rank 4 3 7 2 5 1 6 F15 Mean 1.8396×103 2.0792×103 3.3658×105 7.1579×102 1.7386×103 6.9111×101 6.6116×103 Std 2.9044×103 7.9984×103 7.9125×105 1.2272×103 2.9477×103 1.9083×101 8.3961×103 Rank 4 5 7 2 3 1 6 F16 Mean 3.0243×102 7.9869×102 8.1416×102 3.3715×102 3.0883×102 4.6416×102 5.0252×102 Std 2.0550×102 2.8651×102 2.6440×102 2.1415×102 1.8878×102 2.6962×102 2.4545×102 Rank 1 6 7 3 2 4 5 F17 Mean 4.7111×101 2.2439×102 2.7004×102 6.4809×101 5.3120×101 3.7365×101 1.3984×102 Std 4.0925×101 1.3518×102 1.3820×102 5.3991×101 4.7801×101 4.0654×101 8.0664×101 Rank 2 6 7 4 3 1 5 F18 Mean 6.1013×104 6.9910×104 7.1643×105 5.1875×104 5.0376×104 3.9930×104 1.8454×105 Std 5.7031×104 1.0210×105 8.2799×105 3.6270×104 3.7592×104 2.0034×104 1.7045×105 Rank 4 5 7 3 2 1 6 F19 Mean 3.4042×101 4.4886×103 4.6400×105 3.4163×101 3.0105×102 2.4678×101 5.4815×103 Std 2.0528×101 1.3325×104 5.4998×105 3.9687×101 1.1322×103 7.1259×100 4.9859×103 Rank 2 5 7 3 4 1 6 F20 Mean 9.6665×101 2.4290×102 3.6059×102 1.0084×102 1.1637×102 1.0389×102 2.0165×102 Std 7.7834×101 1.4995×102 1.0264×102 6.6726×101 7.5890×101 8.7694×101 9.6673×101 Rank 1 6 7 2 4 3 5 F21 Mean 2.3023×102 2.5626×102 2.8298×102 2.3713×102 2.3135×102 2.3724×102 2.3289×102 Std 8.5095×100 1.6800×101 2.5684×101 1.0815×101 9.8453×100 1.1261×101 9.9428×100 Rank 1 6 7 4 2 5 3 F22 Mean 1.0010×102 1.9999×103 8.0434×102 1.0005×102 1.0005×102 1.0005×102 1.2974×102 Std 4.8096×10?1 1.5970×103 1.1113×103 3.4354×10?1 3.4444×10?1 3.4443×10?1 2.0703×102 Rank 4 7 6 1 3 2 5 F23 Mean 3.7755×102 4.1635×102 4.7029×102 3.8706×102 3.7831×102 3.8441×102 3.8854×102 Std 1.0911×101 1.6898×101 2.9324×101 1.3271×101 8.1817×100 1.0543×101 1.3692×101 Rank 1 6 7 4 2 3 5 F24 Mean 4.4827×102 5.4044×102 5.2489×102 4.5484×102 4.4530×102 4.5862×102 4.5671×102 Std 1.0757×101 4.5778×101 3.3902×101 1.1783×101 1.1461×101 1.2203×101 1.1956×101 Rank 2 7 6 3 1 5 4 F25 Mean 3.8777×102 3.8706×102 4.7784×102 3.8747×102 3.8729×102 3.8698×102 4.0239×102 Std 5.4462×100 8.0647×10?1 2.3819×101 1.5625×100 1.2735×100 5.4095×10?1 1.5135×101 Rank 5 2 7 4 3 1 6 F26 Mean 1.2578×103 1.6520×103 2.0116×103 1.3249×103 1.2449×103 1.3138×103 1.5024×103 Std 1.9807×102 1.7070×102 5.7618×102 3.1093×102 3.4947×102 1.9599×102 2.8691×102 Rank 2 6 7 4 1 3 5 F27 Mean 5.1091×102 5.0430×102 5.9279×102 5.1349×102 5.1088×102 5.0560×102 5.3331×102 Std 7.7116×100 8.2707×100 3.8462×101 8.6401×100 8.6837×100 7.3827×100 1.1175×101 F27 Rank 4 1 7 5 3 2 6 F28 Mean 3.3558×102 4.0555×102 5.9941×102 3.2930×102 3.3793×102 3.4828×102 4.5710×102 Std 5.3866×101 3.6156×101 6.9788×101 5.1585×101 5.1950×101 5.3564×101 2.3392×101 Rank 2 5 7 1 3 4 6 F29 Mean 4.5991×102 6.6978×102 8.5036×102 4.8821×102 4.6287×102 4.5683×102 6.2453×102 Std 4.4075×101 1.7459×102 1.8235×102 5.5772×101 4.3839×101 4.4800×101 1.1861×102 Rank 2 6 7 4 3 1 5 F30 Mean 2.9823×103 6.0618×103 4.0643×106 3.1036×103 2.9323×103 1.9586×104 6.1880×103 Std 6.1135×102 4.7022×103 3.1688×106 8.4665×102 5.9332×102 7.3086×103 2.8250×103 Rank 2 4 7 3 1 6 5 Count 10 1 0 4 5 10 0 Ave Rank 2.20 5.23 6.87 3.10 2.60 3.07 4.93 Total Rank 1 6 7 4 2 3 5 从表1中可以看出, HCOAG5在单峰函数上获得最好的均值和方差次数最多, 表明Np增大, 在提高郊狼生与死的全局搜索能力的同时, 大幅度提高了COA的开采能力, 即HCOAG5中高斯趋优成长和GWO搜索都采用当前全局最优郊狼引导, 不仅获得更好的全局最优解, 这种全局最优解又作用于下一组郊狼的成长过程, 如此形成正反馈机制: Np越大, 开采越强, 收敛速度越快. 但容易陷入局部最优, 如在多峰函数上的表现不尽人意. HCOAG10在多峰函数上表现出了良好的优化性能, 表明Np变少, 在提高组内郊狼成长的局部搜索能力的同时, 正反馈减弱, 开采能力降低, 即陷入局部最优的概率也降低了. ICOA中没有精简的GWO, 整体来说优于COA, 表明对COA的改进是有效的. SGWO从整体上说优于GWO, 表明SGWO提高了GWO搜索能力. 与GWO相比, COA的优化性能更好, 即COA能更好地处理复杂优化问题. 在7个算法中, HCOAG的平均排名为2.20, COA、GWO、HCOAG5、HCOAG10、ICOA和SGWO的平均排名分别为5.23、6.87、3.10、2.60、3.07和4.93, 总排名的名次分别为6、7、4、2、3和5. 在HCOAG与6种对比算法中, HCOAG获得了最好的优化性能, 这也说明本文提出的算法是有效的.
-
为验证HCOAG的性能, 首先将其用于经典函数实验, 并将其结果与COA、GWO、HFPSO和DEBBO的结果进行对比. 其实验结果见表2.
表 2 在6个经典函数上的实验结果对比
Table 2. comparison results on the 6 classic functions
函数 D=10 HCOAG COA GWO HFPSO DEBBO f1 Mean 6.0684×10-9 1.7833×102 9.0799×10-15 3.4157×10-5 6.7086×10-2 Std 4.8458×10-9 6.3524×101 2.4849×10-14 2.4485×10-5 3.1056×10-2 Rank 2 5 1 3 4 f2 Mean 8.4133×10-6 2.3737×100 1.3222×10-9 1.3703×10-3 2.8483×10-2 Std 3.7531×10-6 4.0964×10-1 1.1382×10-9 6.5582×10-4 7.0993×10-3 Rank 2 5 1 3 4 f3 Mean 0 1.6180×102 1.0000×10-1 0 0 Std 0 5.0787×101 3.0513×10-1 0 0 Rank 1 5 4 1 1 f4 Mean 1.2498×10-10 4.0253×100 1.5325×10-6 3.5760×10-7 1.8575×10-3 Std 2.0501×10-10 1.6104×100 9.4192×10-7 4.1539×10-7 1.0158×10-3 Rank 1 5 3 2 4 f5 Mean 2.0046×10-8 7.1619×102 2.4093×10-5 4.6770×10-6 2.6132×10-2 Std 5.9686×10-8 1.5819×103 1.4121×10-5 5.6661×10-6 1.0613×10-2 Rank 1 5 3 2 4 f6 Mean 4.1921×10-10 1.7228×100 1.2593×10-2 4.9377×10-7 3.5149×10-3 Std 4.3501×10-10 5.1829×10-1 6.8779×10-2 4.8665×10-7 1.5826×10-3 Rank 1 5 4 2 3 D=30 f1 Mean 1.3966×10-17 3.2554×101 5.4432×10-41 7.2595×10-9 2.7076×10-4 Std 3.2255×10-17 5.9567×100 7.1605×10-41 7.3446×10-9 1.1010×10-4 Rank 2 5 1 3 4 f2 Mean 2.8862×10-10 1.3998×100 6.0158×10-24 5.3463×10-5 1.3264×10-3 Std 4.6435×10-10 1.9835×10-1 6.2049×10-24 3.9178×10-5 2.3103×10-4 Rank 2 5 1 3 4 f3 Mean 0 3.3700×101 3.3333×10-2 0 0 Std 0 7.9877×100 1.8257×10-1 0 0 Rank 1 5 4 1 1 f4 Mean 1.0451×10-17 3.8002×100 1.5129×10-2 1.7278×10-2 6.4886×10-5 Std 3.0738×10-17 1.3163×100 1.0471×10-2 3.9296×10-2 2.7878×10-5 Rank 1 5 3 4 2 f5 Mean 5.3309×10-17 1.8376×101 1.6587×10-1 3.2962×10-3 5.0150×10-4 Std 1.5184×10-16 5.8919×100 1.1940×10-1 5.1211×10-3 2.1237×10-4 Rank 1 5 4 3 2 f6 Mean 1.2484×10-18 1.8049×100 7.9738×10-1 8.2480×10-3 8.5930×10-5 Std 1.7135×10-18 4.9152×10-1 7.4565×10-1 4.5176×10-2 3.9292×10-5 Rank 1 5 4 3 2 Count 8 0 4 2 2 Ave Rank 1.33 5.00 2.75 2.50 2.92 Total Rank 1 5 3 2 4 为了能说明问题, 选择6个经典的、具有代表性的基准函数的实验结果作为示例进行分析和讨论, 这6个函数的信息如表3所示, 其中f1~f3和f4~f6分别作为单峰函数和多峰函数的代表. 在此实验中, 由于HCOAG是COA和GWO的混合算法, 故选择COA和GWO作为对比算法. HFPSO和DEBBO是目前两种较为优秀的混合算法, 故选为HCOAG的对比算法.
表 3 6个经典函数的情况
Table 3. Details of 6 classical benchmark functions
类型 函数名称 函数表达式 搜索范围 最小值 单峰函数 Sphere ${f_1}(x) = \sum\nolimits_{i = 1}^D {x_i^2}\hspace{200pt} $ [-100,100] 0 Schwefel 2.22 ${f_2}(x) = \sum\nolimits_{i = 1}^D {\left| {{x_i}} \right|} + \prod\nolimits_{i = 1}^D {\left| {{x_i}} \right|} \hspace{200pt} $ [-10,10] 0 Step ${f_3}(x) = \sum\nolimits_{i = 1}^D {{{\left( {\left\lfloor {{x_i} + 0.5} \right\rfloor } \right)}^2}}\hspace{200pt}$ [-100,100] 0 多峰函数 Penalized 1 $\begin{array}{l} {f_4}(x) = \dfrac{\pi}{D}\left\{ {10{ {\sin }^2}\left( {\pi {y_i} } \right)} \right. + \\ \sum\nolimits_{i = 1}^{D - 1} { { {\left( { {y_i} - 1} \right)}^2}\left[ {1 + 10{ {\sin }^2}\left( {\pi {y_{i + 1} } } \right)} \right]} \left. { + { {\left( { {y_D} - 1} \right)}^2} } \right\} + \\ \sum\nolimits_{i = 1}^D {u\left( { {x_i},10,100,4} \right),} \\ {y_i} = 1 + \dfrac{1}{4}\left( { {x_i} + 1} \right), \;\;\;\;u\left( { {x_i},a,k,m} \right) = \\ \left\{ \begin{array}{l} k{\left( { {x_i} - a} \right)^m},\;\;\;\;\;\;{x_i} > a,\\ 0,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\; - a \le {x_i} \le a,\\ k{\left( { - {x_i} - a} \right)^m},\;\;\;{x_i} < - a. \end{array} \right. \end{array}\hspace{200pt}$ [-50,50] 0 Penalized 2 $\begin{array}{l} {f_5}(x) = 0.1\left\{ {{{\sin }^2}} \right.\left( {\pi {x_1}} \right) + \sum\nolimits_{i = 1}^{D - 1} {{{\left( {{x_i} - 1} \right)}^2}} \left[ {1 + {{\sin }^2}\left( {3\pi {x_{i + 1}}} \right)} \right] + \\ \left( {{x_D} - 1} \right)\left. {\left[ {1 + {{\sin }^2}\left( {2\pi {x_D}} \right)} \right]} \right\} + \sum\nolimits_{i = 1}^D {u\left( {{x_i},5,100,4} \right)} \end{array}\hspace{200pt}$ [-50,50] 0 Levy $\begin{array}{l} {f_6}(x) = \sum\nolimits_{i = 1}^{D - 1} {{{\left( {{x_i} - 1} \right)}^2}} \left[ {1 + {{\sin }^2}\left( {3\pi {x_{i + 1}}} \right)} \right] + \\ {\sin ^2}\left( {3\pi {x_1}} \right) + \left| {{x_D} - 1} \right|\left[ {1 + {{\sin }^2}\left( {3\pi {x_D}} \right)} \right] \end{array}\hspace{200pt}$ [-10,10] 0 从表2可以看出, 在D=10和D=30上, COA不论是在单峰还是在多峰函数上优化性能最差, 说明COA在处理这些经典函数优化问题上无优势. GWO在单峰函数上的均值和方差除了f3外均优于HCOAG以及其他3种对比算法, 证明了GWO具有较好的开采能力. 在多峰函数上, HCOAG的性能最佳, 说明GWO与全局搜索能力强的COA混合有效.
从整体上看, 在D=10和D=30上, HCOAG的总体平均排名为1.33, 其他算法的平均排名依次为: HFPSO(2.50)、GWO(2.75)、DEBBO(2.92)和COA(5.00). 这些结果表明HCOAG不是对所有优化问题都有绝对优势, 在单峰函数上优化性能稍差. 而GWO在单峰函数上具有优势, 对HCOAG的性能具有一定的贡献. 从整体上看, HCOAG在经典函数上具有较好的优化性能.
为直观显示HCOAG、COA、GWO、HFPSO和DEBBO的收敛性能, 给出了这5个算法的收敛图. 限于篇幅, 本节在D=30上选取2个单峰函数(f1, f2)和2个多峰函数(f5, f6), 如图5所示. 在单峰函数上, 与HCOAG、COA、HFPSO和DEBBO算法相比, GWO收敛速度更快, 表现出更好的收敛性能. 在多峰函数上, 与COA、GWO、HFPSO和DEBBO算法相比, HCOAG表现出了更好的收敛性能. 综上所述, 表2和图5说明了GWO具有较好的局部搜索能力和收敛性能, 也部分证明了利用GWO局部搜索能力强的优势对COA的混合改进是必要和可行的.
-
为了进一步验证HCOAG的搜索能力, 将其用在CEC2017复杂函数上进行实验, 并将其结果与9个代表性的先进算法COA、GWO、MEGWO、HFPSO、DEBBO、SaDE、SE04、FWA和TLBO的实验结果进行比较, 其结果见表4, 其中SaDE和SE04的实验数据直接来自文献[20].
表 4 在30维CEC2017复杂函数上的优化结果对比
Table 4. Comparison results on the 30-dimensional complex functions from CEC2017
函数 HCOAG COA GWO MEGWO HFPSO DEBBO SaDE SE04 FWA TLBO F1 Mean 7.4494×10?4 1.2099×103 1.2813×109 4.5517×103 3.9338×103 2.7849×103 3.0714×103 3.2930×103 4.3987×106 2.9846×103 Std 1.4801×10?3 1.2998×103 9.6388×108 1.0677×103 5.3689×103 4.0364×103 3.5072×103 4.2328×103 1.4055×106 3.1471×103 Rank 1 2 10 8 7 3 5 6 9 4 F2 Mean 1.1941×101 2.9013×1021 3.1831×1032 2.8884×108 5.3485×104 1.5057×1017 8.6275×10?1 3.0802×1013 4.1397×1015 1.0448×1016 Std 2.4077×101 1.1462×1022 1.5894×1033 8.0571×108 3.2847×105 3.5179×1017 4.9357×100 1.1694×1014 1.5680×1016 4.7082×1016 Rank 2 9 10 4 3 8 1 5 6 7 F3 Mean 9.5410×10?1 6.0573×104 2.8342×104 2.2633×102 1.5595×10?7 3.6772×104 3.0045×102 9.7974×103 2.4748×104 4.0488×10?4 Std 1.9288×100 1.0177×104 9.2323×103 1.7031×102 2.3334×10?7 5.8394×103 7.3017×102 3.4377×103 6.3467×103 1.6647×10?3 Rank 3 10 8 4 1 9 5 6 7 2 F4 Mean 1.8113×101 8.4041×101 2.0825×102 2.4815×101 6.9386×101 8.4851×101 6.0423×101 8.5881×101 1.1370×102 5.9054×101 Std 2.7696×101 8.5306×100 8.4445×101 2.8995×101 2.1364×101 2.2848×10?1 2.9825×101 1.1251×101 1.7315×101 3.0429×101 Rank 1 6 10 2 5 7 4 8 9 3 F5 Mean 2.8433×101 5.2890×101 9.6116×101 5.6912×101 8.5624×101 5.8216×101 5.6192×101 4.1688×101 1.8456×102 8.5717×101 Std 6.8886×100 1.5025×101 3.2690×101 1.0725×101 1.7427×101 6.5957×100 1.4216×101 8.1545×100 3.3933×101 1.8601×101 Rank 1 3 9 5 7 6 4 2 10 8 F6 Mean 1.7483×10?7 1.6399×10?5 6.3664×100 2.4470×10?1 1.0170×100 1.1369×10?13 8.9317×10?2 7.5481×10?6 5.1770×100 7.2903×100 Std 4.7524×10?7 9.6428×10?6 3.1596×100 8.1620×10?2 2.3644×100 0 1.3955×10?1 3.9880×10?5 3.1351×100 4.4538×100 Rank 2 4 9 6 7 1 5 3 8 10 F7 Mean 6.1055×101 7.5148×101 1.4460×102 8.9106×101 1.0407×102 9.9725×101 9.4945×101 7.2448×101 2.0998×102 1.3661×102 Std 1.0851×101 1.3762×101 4.6314×101 1.0935×101 1.9791×101 6.4285×100 1.9879×101 7.3495×100 4.4817×101 2.4846×101 Rank 1 3 9 4 7 6 5 2 10 8 F8 Mean 3.2489×101 5.6110×101 8.4662×101 5.9398×101 7.2842×101 5.9299×101 5.3942×101 4.4194×101 1.4508×102 7.1339×101 Std 1.2272×101 1.8774×101 2.5270×101 1.0663×101 1.7967×101 6.0788×100 1.2792×101 6.5834×100 2.1470×101 1.4852×101 Rank 1 4 9 6 8 5 3 2 10 7 F9 Mean 2.7362×10?1 5.6225×10?1 5.5392×102 7.8267×100 3.2733×101 4.0125×10?14 8.3556×101 3.0839×10?1 3.5295×103 2.4197×102 Std 4.8298×10?1 1.0209×100 3.2695×102 1.1815×101 1.3249×102 5.4870×10?14 6.2643×101 8.4139×10?1 9.5511×102 1.4491×102 Rank 2 4 9 5 6 1 7 3 10 8 F10 Mean 2.2671×103 2.7575×103 3.1862×103 2.4369×103 2.9908×103 3.2911×103 2.3253×103 2.3267×103 3.7800×103 6.0667×103 Std 6.1427×102 4.6685×102 9.7886×102 4.4542×102 5.9210×102 2.7284×102 4.9247×102 2.8457×102 5.9660×102 1.0625×103 Rank 1 5 7 4 6 8 2 3 9 10 F11 Mean 2.1678×101 4.1143×101 4.9771×102 2.9612×101 1.1553×102 3.7430×101 1.0032×102 4.1343×101 1.6164×102 1.2672×102 Std 2.0907×101 2.7367×101 6.4235×102 1.0347×101 3.9628×101 2.3672×101 4.3101×101 2.7994×101 4.5263×101 4.5717×101 Rank 1 4 10 2 7 3 6 5 9 8 F12 Mean 9.8943×103 1.2532×105 4.0285×107 1.5983×104 9.9670×104 1.3866×105 6.8629×104 1.1143×106 4.6351×106 3.3042×104 Std 6.0932×103 1.2555×105 7.3849×107 4.0434×103 1.0658×105 9.2097×104 3.8252×104 8.1422×105 3.1121×106 2.8646×104 Rank 1 6 10 2 5 7 4 8 9 3 F13 Mean 1.9749×103 2.0357×104 2.8073×106 2.0450×102 3.0927×104 8.1265×103 1.1211×104 4.6063×103 3.7320×104 1.4857×104 Std 3.8565×103 2.6333×104 1.6225×107 2.7028×101 2.7301×104 7.8066×103 1.0535×104 4.8590×103 2.6480×104 1.7072×104 Rank 2 7 10 1 8 4 5 3 9 6 F14 Mean 8.6436×101 8.0070×101 1.3112×105 6.1985×101 6.7377×103 4.9240×103 4.3238×103 7.1204×104 2.6955×105 3.5454×103 Std 4.3766×101 1.9915×101 2.3335×105 8.6647×100 5.5695×103 3.2902×103 5.7159×103 5.9323×104 2.4525×105 4.1276×103 Rank 3 2 9 1 7 6 5 8 10 4 F15 Mean 1.8396×103 2.0792×103 3.3658×105 5.1634×101 9.7487×103 4.9944×103 2.1676×103 2.2013×103 3.2784×103 3.9091×103 Std 2.9044×103 7.9984×103 7.9125×105 1.0713×101 1.2114×104 6.6468×103 3.0178×103 1.9756×103 1.9819×103 4.3347×103 Rank 2 3 10 1 9 8 4 5 6 7 F16 Mean 3.0243×102 7.9869×102 8.1416×102 4.4823×102 7.7229×102 3.9643×102 5.6072×102 4.9392×102 1.2266×103 5.0039×102 Std 2.0550×102 2.8651×102 2.6440×102 1.3443×102 2.2590×102 1.1932×102 2.0850×102 1.7309×102 3.0034×102 2.7575×102 Rank 1 8 9 3 7 2 6 4 10 5 F17 Mean 4.7111×101 2.2439×102 2.7004×102 6.9544×101 2.5591×102 8.1642×101 8.7684×101 1.4116×102 5.5825×102 2.3994×102 Std 4.0925×101 1.3518×102 1.3820×102 1.7296×101 1.2971×102 2.2037×101 9.1289×101 8.5026×101 2.3401×102 8.8703×101 Rank 1 6 9 2 8 3 4 5 10 7 F18 Mean 6.1013×104 6.9910×104 7.1643×105 2.0505×102 1.1409×105 3.2225×105 1.0034×105 2.1361×105 9.8409×105 2.0609×105 Std 5.7031×104 1.0210×105 8.2799×105 4.7536×101 1.1535×105 1.2197×105 1.1019×105 1.3261×105 1.1184×106 1.5131×105 Rank 2 3 9 1 5 8 4 7 10 6 F19 Mean 3.4042×101 4.4886×103 4.6400×105 2.9977×101 8.6631×103 8.3686×103 5.9612×103 2.0723×103 5.2207×103 6.3203×103 Std 2.0528×101 1.3325×104 5.4998×105 3.3897×100 1.9974×104 9.2795×103 7.1112×103 2.1685×103 3.9175×103 1.0793×104 Rank 2 4 10 1 9 8 6 3 5 7 F20 Mean 9.6665×101 2.4290×102 3.6059×102 1.1363×102 2.6516×102 5.5205×101 1.2989×102 1.7303×102 4.6345×102 2.4392×102 Std 7.7834×101 1.4995×102 1.0264×102 5.2411×101 1.1737×102 3.5413×101 7.0970×101 7.2015×101 1.7129×102 8.4432×101 Rank 2 6 9 3 8 1 4 5 10 7 F21 Mean 2.3023×102 2.5626×102 2.8298×102 2.5458×102 2.7446×102 2.5950×102 2.4896×102 2.5047×102 3.7768×102 2.6988×102 Std 8.5095×100 1.6800×101 2.5686×101 3.3247×101 1.9517×101 7.6690×100 1.3195×101 8.4442×100 7.9462×101 1.9589×101 Rank 1 5 9 4 8 6 2 3 10 7 F22 Mean 1.0010×102 1.9999×103 8.0434×102 1.0022×102 1.4532×103 1.0000×102 1.0228×102 1.0211×103 2.1380×103 1.0232×102 Std 4.8096×10?1 1.5970×103 1.1113×103 4.3917×10?2 1.8286×103 2.3100×10?13 3.2279×100 1.2872×103 2.2149×103 4.0114×100 Rank 2 9 6 3 8 1 4 7 10 5 F23 Mean 3.7755×102 4.1635×102 4.7029×102 3.8959×102 4.8447×102 4.0323×102 4.1472×102 4.0247×102 5.8963×102 4.5003×102 Std 1.0911×101 1.6898×101 2.9324×101 6.8787×101 4.4709×101 5.6348×100 1.8742×101 8.1687×100 8.8792×101 3.0546×101 Rank 1 6 8 2 9 4 5 3 10 7 F24 Mean 4.4827×102 5.4044×102 5.2489×102 4.8972×102 5.6079×102 4.7430×102 4.8169×102 4.9840×102 7.9489×102 5.0152×102 Std 1.0757×101 4.5778×101 3.3902×101 1.6597×101 5.7847×101 6.0055×100 2.0610×101 1.3899×101 8.6391×101 2.3700×101 Rank 1 8 7 4 9 2 3 5 10 6 F25 Mean 3.8777×102 3.8706×102 4.7784×102 3.8374×102 3.8818×102 3.8691×102 4.0124×102 3.8779×102 4.1099×102 4.0877×102 Std 5.4462×100 8.0647×10?1 2.3819×101 1.8246×10?1 3.4076×100 7.5524×10?2 1.9489×101 1.1319×100 2.1657×101 2.2401×101 Rank 4 3 10 1 6 2 7 5 9 8 F26 Mean 1.2578×103 1.6520×103 2.0116×103 2.5051×102 1.4922×103 1.4821×103 1.7344×103 1.5337×103 2.2418×103 1.8645×103 Std 1.9807×102 1.7070×102 5.7618×102 4.1112×101 9.6940×102 7.2015×101 7.1347×102 1.9051×102 1.7373×103 1.0276×103 Rank 2 6 9 1 4 3 7 5 10 8 F27 Mean 5.1091×102 5.0430×102 5.9279×102 5.1286×102 5.3523×102 4.9807×102 5.4289×102 5.0744×102 5.7919×102 5.3827×102 Std 7.7116×100 8.2707×100 3.8462×101 6.1632×100 2.1095×101 4.7270×100 1.7086×101 3.6242×100 3.5317×101 1.6907×101 Rank 4 2 10 5 6 1 8 3 9 7 F28 Mean 3.3558×102 4.0555×102 5.9941×102 3.6492×102 3.5331×102 3.2281×102 3.3257×102 4.1364×102 4.6256×102 3.6806×102 Std 5.3866×101 3.6156×101 6.9788×101 3.2477×101 5.9179×101 3.7880×101 5.2165×101 2.5577×101 2.3601×101 5.3388×101 Rank 3 7 10 5 4 1 2 8 9 6 F29 Mean 4.5991×102 6.6978×102 8.5036×102 5.4385×102 6.7006×102 5.1851×102 5.5826×102 5.4778×102 1.0120×103 7.8922×102 Std 4.4075×101 1.7459×102 1.8235×102 5.4241×101 1.4475×102 3.4859×101 1.0040×102 8.1960×101 2.1872×102 1.3560×102 Rank 1 6 9 3 7 2 5 4 10 8 F30 Mean 2.9823×103 6.0618×103 4.0643×106 3.6855×103 1.8733×104 5.9405×103 5.0147×103 4.9671×103 1.5965×104 5.9572×103 Std 6.1135×102 4.7022×103 3.1688×106 3.3042×102 3.4470×104 2.3158×103 1.9712×103 2.0934×103 8.7877×103 3.9139×103 Rank 1 7 10 2 9 5 4 3 8 6 Count 15 0 0 7 1 6 1 0 0 0 Ave Rank 1.73 5.27 9.10 3.17 6.67 4.37 4.53 4.63 9.03 6.50 Total Rank 1 6 10 2 8 3 4 5 9 7 在均值和方差上, 与MEGWO相比, HCOAG优于23次. 与同为混合算法的HFPSO和DEBBO相比, HCOAG分别优于29次和23次. 与SaDE和SE04相比, HCOAG分别优于28次和29次. 与FWA和TLBO相比, HCOAG分别优于30次和29次. 在总排名上, HCOAG排名第一, 接下来依次为MEGWO、DEBBO、SaDE、SE04、COA、TLBO、HFPSO、FWA、GWO. 因此, HCOAG的性能优于9个先进对比算法的性能.
-
为了验证HCOAG的收敛性能, 画出HCOAG与COA、MEGWO、DEBBO、TLBO和HFPSO在CEC2017测试集中30维函数的收敛图. 受篇幅所限, 本文仅选取有代表性的函数作为示例进行对比分析. 在F1~F3中选取1个单峰函数即F1, 在F4~F10中选取F5、F7、F8这3个多峰函数, 在F11~F20中选取F11、F12、F16、F17这4个混合函数, 在F21~F30中选取F21、F23、F24、F29这4个复合函数, 其收敛图见图6.
图 6 HCOAG、COA、MEGWO、DEBBO、TLBO和HFPSO的收敛图
Figure 6. Convergence curves of HCOAG, COA, MEGWO, DEBBO, TLBO and HFPSO
从图6中可以看出, 在3个函数F1、F5和F8上, 随着函数评价次数的增加, 在收敛速度上, HCOAG比对比算法要快得多, 优势明显. 在其余9个函数上, 虽然HCOAG的收敛速度优势不是很明显, 但也优于其他对比算法. 总之, 无论在单峰函数和多峰函数上, 还是在混合函数和复合函数上, HCOAG的收敛速度都比其他对比算法快, 表明HCOAG具有更优秀的收敛性能. 这些都说明本文提出的高斯全局趋优成长算子、动态调整组内郊狼数方案以及简化操作的GWO搜索算子等的采用都为收敛速度的提升做出了贡献, 这些策略的融合使用是有效可行的.
-
为了考察HCOAG的运行时间, 直接采用4.4节的实验. 因HCOAG是COA和GWO的混合算法, 故仅记录HCOAG、COA和GWO在30维CEC2017函数上的耗时, 它们在独立运行30次获得不同函数类型的平均耗时结果见图7. 横坐标为不同的函数类型, 纵坐标为平均时间(秒/s).
图 7 HCOAG与COA、GWO在不同类别函数上的平均时间对比图
Figure 7. Comparison bars of average time of HCOAG, COA and GWO on different kinds of functions
从图7可以看出, 在单峰函数上, HCOAG耗时(2.4443 s)是COA耗时(2.9988 s)的81.51%, GWO耗时(2.4222 s)是HCOAG耗时(2.4443 s)的99.10%. 在多峰函数上, HCOAG耗时(2.9211 s)分别是COA(3.5503 s)和GWO(2.9233 s)耗时的84.25%和99.92%. 在混合函数上, HCOAG耗时(3.6246 s)是COA耗时(4.2034 s)的86.23%, GWO耗时(3.4981 s)是HCOAG耗时(3.6246 s)的96.51%. 在复合函数上, HCOAG耗时(6.1480 s)是COA耗时(7.0897 s)的86.72%, GWO耗时(6.0822 s)是HCOAG耗时(6.1480 s)的98.93%. 故不论是单峰函数和多峰函数, 还是混合函数和复合函数, HCOAG的耗时都与GWO耗时大致持平. 其主要原因: 1、HCOAG与GWO都采用并行计算模式, 但GWO结构简单, 而其产生新解的计算复杂度(见式(12))较高; 2、HCOAG虽采用精简GWO, 但需要分组并在组内寻优, 结构复杂, 故二者耗时大致持平(HCOAG耗时稍多于GWO的耗时). 在耗时上, HCOAG较COA少, 主要原因: 1、在成长过程的目标函数评价上, 后者采用串行计算, 前者采用并行计算减少了运行时间; 2、虽然在成长过程中嵌入了GWO搜索, 但采用精简的GWO搜索方式并未增加多少计算成本; 3、前者没有郊狼被驱离和接纳操作, 也节省了运行时间; 4、动态调整方案减少了生与死操作次数.
结合4.3~4.6节, HCOAG在较短的时间内能获得最好的优化性能, 说明了其优化效率高.
-
为了能够更充分评价HCOAG性能, 本节对其做上下界分析; 即在一个优化问题上, 独立运行一定次数后考察其最坏结果和最优结果.
因为本文将HCOAG应用于CEC2017复杂函数集上, 此函数集有30个不同的优化问题, 其全局最优解对应的最优值不同, 故其获得的上下界也不同. 限于篇幅, 在CEC2017四类函数上分别选取了一个函数(它们分别是F1、F5、F11和F29)进行上下界讨论; 即在51次的运行结果中选择最好值和最差值分别作为本文提出算法在该函数上的上下界, 并与其对比算法中结果最好的算法(在F1和F5上选用COA和在F11和F29上选用DEBBO)获得的上下界进行对比.
为了直观和方便对比, 对3个算法获得的结果做了统一处理; 即将每个算法每次独立运行结果减去理想的最优函数值作为最终结果, 让每个函数的理想最优值为0. 4个函数上的上下界结果见表5.
表 5 在30维CEC2017复杂函数上的上下界结果对比
Table 5. Comparison of upper and lower bounds on the 30-dimensional complex functions from CEC2017
函数 HCOAG COA/DEBBO 下界 上界 下界 上界 F1 3.8942×10-9 7.8898×10-3 3.5001×100 5.0055×103 F5 1.2935×101 4.1788×101 2.6865×101 9.2083×101 F11 4.0954×100 7.5899×101 1.3819×101 8.8108×101 F29 3.7200×102 6.0977×102 4.4500×102 6,2345×102 从表5可以看出, 在4个函数上, 无论上界还是下界, HCOAG都比对比算法小; 这说明本文提出的算法比对比算法好, 这也证明了本文提出算法的有效性.
-
依据文献[23]的随机泛函分析方法原理, 本节对HCOAG的收敛性进行分析. 从算法3的描述和HCOAG流程图见图4可以看出, HCOAG由三个算子完成新解的产生, 即高斯全局趋优成长算子、简化GWO搜索算子以及生与死算子. 高斯全局趋优成长算子类似DE中的DE/rand-to-best/1/bin变异算子, 简化GWO搜索算子类似DE中的DE/best/1/bin变异算子, 生与死算子相当于遗传算法中的变异算子. 三个算子产生的新解都采用贪心算法严格基于优胜劣汰策略, 通过淘汰新解与原解中较差个体产生更优的新一代个体. 故对于最小优化问题, HCOAG评价函数序列为单调非递增序列. 本文为了证明HCOAG的渐近收敛性, 首先做如下定义.
定义1. 设Q(t)表示X(t)的中间群体, Vc,j(t+1)∈Q(t+1), 则HCOAG搜索算子定义如下:
高斯全局趋优成长与简化GWO搜索混合算子定义为:
$$\begin{split} & {{{V}}_{c,j}}\left( {t + 1} \right) = \\& \left\{ {\begin{array}{*{20}{l}} {\left( {{{N}}{{{X}}_{1,j}} + {{N}}{{{X}}_{2,j}} + {{N}}{{{X}}_{3,j}}} \right)/3,\;\;{\text{当}}rand < CR}\\ {{{{X}}_{c,j}} + r{n_1} \times {{{\delta }}_{3,j}} + r{n_2} \times {{{\delta }}_{{{2}},j}},\;\;\;\;{\text{当}}rand \ge CR} \end{array}} \right.\end{split} $$ (31) 生与死算子定义为:
$${{{V}}_j}(t + 1) = \left\{ {\begin{array}{*{20}{cl}} {{{{X}}_{c{r_1},j}},}&{{r_j} < {P_s}\;or\;j = {j_1}}\\ {{{{X}}_{c{r_2},j}},}&{{r_j} \ge {P_s} + {P_a}\;or\;j = {j_2}}\\ {{R_j},}&{otherwise} \end{array}} \right.$$ (32) 假设f(X)为最小优化函数, 解空间S={X|X={x1, x2, …, xD}且Lj≤xj≤Uj, j=1, 2, …, D}为D维欧式空间RD的有界子空间. 为了在进行数值计算时不受到计算精度的限制, 所以设定HCOAG的计算精度保留到小数点后第k位数字.
定义2. 两种算子的混合策略是一种按照概率CR/D和(1-CR/D)对群体中个体向量的每一维分量分别采用简化GWO搜索算子和高斯全局趋优成长算子以及在每一组中最差郊狼上采用生与死算子进行重组变换的过程, 它是解空间上的一种随机映射ψ: Ω×S→S2, 可用下式定义:
$$\begin{split} & \mu \left\{ {\omega \left| {{{\psi}} \left( {\omega ,{{X}}} \right) = \left\langle {{{X}},{{V}}} \right\rangle } \right.} \right\} = \\ & \mu \left\{ {{{V}} = F\left( {{{X}},{{{X}}_c},{{{X}}_j},{{{X}}_k},{{{X}}_{mod}}} \right)} \right\} \\ \end{split} $$ (33) 其中, (Ω, M, μ)是完全概率测度空间, Ω是非空抽象集合, 其元素ω为基本事件, M是Ω的某些子集所构成的σ-代数, μ是M上的概率测度. Xmod表示郊狼为GP或alpha或cult, F(X, Xc, Xj, Xk, Xmod)由式(31)和式(32)确定.
由于HCOAG同DE一样采用贪心算法更新种群, 因此在每次迭代过程中相当于三种算子所对应的随机映射ψ和贪心选择所对应的映射逆序ψ2合成的映射ψ’作用于当前群体, 即X(t+1)=ψ’(ω, X(t))=ψ2(ψ(ω, X(t))). 这样在映射ψ’的作用下, HCOAG每次迭代种群产生的GP的适应度值构成的序列{f (XGP(t))}1≤t≤MaxDT是一个单调非递增序列. 同样ψ’可重新定义为Bt+1=ψ’(ω, Bt)=ψ2(ψ(ω, Bt)), Bt+1和Bt分别为X(t+1)和X(t)的最优个体. 因此类似于文献[23]中的定理1, 可得如下定理.
定理1. HCOAG的一次迭代所形成的随机映射ψ’是一个随机压缩算子.
再依据文献[23]引理2, 即可得到HCOAG渐进收敛的结论, 即定理2.
定理2. 设ψ’为HCOAG形成的随机压缩算子, 则ψ’具有唯一的随机不动点, 即HCOAG是渐进收敛的.
-
Wilcoxon符号秩检验方法[24]是一种非参数统计性检验方法, 目的在于检验两个样本均值之间的显著差异. 其中p值是由R+和R?计算可得, R+表示正秩总和, R?表示负秩总和, 具体见式(34)和式(35), di为两种算法在n个问题中第i个问题上的性能分数的差值. 当HCOAG算法与对比算法性能相同时, 对应的秩平分给R+和R?. n/w/t/l表示在n个函数上HCOAG分别优于对比算法w次, 与对比算法相等t次, 劣于对比算法l次. 为检验HCOAG与表4中对比算法的显著性差异, 在软件IBM SPSS Statistics 24上实现Wilcoxon检验, 结果如表6所示.
表 6 Wilcoxon符号秩检验结果
Table 6. Wilcoxon sign rank test results
p a=0.05 R+ R? n/w/t/l HCOAG vs COA 1.3039×10?7 YES 453 12 30/27/0/3 HCOAG vs GWO 1.8626×10?9 YES 465 0 30/30/0/0 HCOAG vs MEGWO 2.7741×10?2 YES 339 126 30/23/0/7 HCOAG vs HFPSO 5.5879×10?9 YES 463 2 30/29/0/1 HCOAG vs DEBBO 9.0000×10?6 YES 429 36 30/23/0/7 HCOAG vs SaDE 3.5390×10?8 YES 458 7 30/28/0/2 HCOAG vs SE04 1.3039×10?8 YES 461 4 30/29/0/1 HCOAG vs FWA 1.8626×10?9 YES 465 0 30/30/0/0 HCOAG vs TLBO 3.7253×10?9 YES 464 1 30/29/0/1 $${R^ + } = \sum\limits_{{d_i} > 0} {{\rm{rank}}\left( {{d_i}} \right)} + \frac{1}{2}\sum\limits_{{d_i} = 0} {{\rm{rank}}\left( {{d_i}} \right)} $$ (34) $${R^ - } = \sum\limits_{{d_i} < 0} {{\rm{rank}}\left( {{d_i}} \right)} + \frac{1}{2}\sum\limits_{{d_i} = 0} {{\rm{rank}}\left( {{d_i}} \right)} $$ (35) 从表6中可以看出, 与COA和GWO相比, p值分别为1.3039×10?7、1.8626×10?9, 均小于0.05, 表明HCOAG显著优于COA和GWO, 再一次说明COA和GWO二者的改进与混合是有效的. HCOAG与MEGWO、HFPSO、DEBBO、SaDE、SE04、FWA和TLBO相比的p值均小于0.05, 表明HCOAG也显著优于这些对比算法.
Friedman检验是一种非参数双向方差分析方法[24], 目的在于检测两个或多个观测数据之间的显著性差异. 具体实现过程分为3步: (1)收集每个算法或者问题的观测结果; (2)对于每个问题i的从1(最好结果)到k(最差结果)的排名值, 定义为
$ r_i^j $ (1 ≤ j ≤ k); (3)在所有问题中求出每个算法的平均排名, 得到最后排名${R_j} = \dfrac{1}{n}\displaystyle\mathop \sum \nolimits_{i = 1}^n r_i^j$ . 在零假设下所有算法的行为相似(它们的秩Rj相等), Friedman统计值Ff计算方式如式(36), 当n和k足够大时(根据经验n>10,k>5), 它是按照k-1自由度的x2分布的. 为了再次验证HCOAG的显著性, 依据表4对HCOAG和对比算法在软件IBM SPSS Statistics 24上实现Friedman检验, 其结果如表7所示.表 7 Friedman检验结果
Table 7. Friedman test results
D p HCOAG COA GWO MEGWO HFPSO DEBBO SaDE SE04 FWA TLBO 30 6.3128×10-31 1.73 5.27 9.10 3.17 6.67 4.37 4.53 4.63 9.03 6.50 $${F_f} = \frac{{12n}}{{k\left( {k + 1} \right)}}\left[ {\sum\nolimits_j {R_j^2} - k{{\left( {k + 1} \right)}^2}/4} \right]$$ (36) 从表7可以看出, 在30维复杂函数上, 通过Friedman检验获得的渐进显著性p值为6.3128×10?31, 由于得到的渐进显著性小于0.01, 所以在30维上HCOAG与对比算法之间存在显著性的差异. HCOAG算法的秩均值(1.73)最小, 随后紧跟着的是MEGWO、DEBBO、SaDE、SE04、COA、TLBO、HFPSO、FWA和GWO, 表明HCOAG的优化性能最好. 结合Wilcoxon符号秩检验和Friedman检验结果可以得出, HCOAG总体上明显优于先进的对比算法.
-
聚类在数据挖掘领域发挥着十分重要的作用, 通过对聚类的数据分析可以得到数据的具体分布情况以及掌握数据类型的特点[25]. 其中, 最常用的聚类方法是K-Means方法[26], 其在n个样本数据中的具体实现过程: 首先随机产生K个初始聚类中心, 然后计算每个样本与各聚类中心的距离, 接着将样本与距离最近的聚类中心划分到一个组内形成K个组, 最后重新计算每个组内所有样本的均值作为新聚类中心并进行下一次划分, 如此迭代执行划分过程直到满足终止条件为止. K-Means方法具有原理简单、可伸缩性好以及效率高等优势, 但存在对初始点敏感和易陷于局部最优等问题. 目前已有研究将SIOA运用到K-Means聚类中, 很好地解决了K-Means算法存在的一些问题[25,27]. 本节采用HCOAG优化K-Means聚类以解决其对初始点敏感等问题, 其中, 目标函数的定义如式(37).
$$E = \sum\nolimits_{k = 1}^K {\sum\nolimits_{{x_i} \in {C_k}} {{{\left\| {{{{x}}_i} - {{{c}}_k}} \right\|}^2}} } $$ (37) 其中, E是数据集中所有数据点到所属聚类的聚类中心的误差平方和, K是聚类中心个数, ck是第k个聚类中心位置, Ck是第k个聚类簇, xi是聚类族Ck中第i个数据点. 将HCOAG应用到K-Means上, 首先假设每头郊狼由k个聚类中心组成, 则解向量的维数应当等于k × 数据样本的特征数, 目标函数采用式(37); 接着执行HCOAG, 直到满足算法的终止条件, 输出最优聚类中心.
实验采用UCI数据库(http://archive.ics.uci.edu/ml/datasets.php)中7个标准数据集来验证HCOAG在K-Means聚类优化上的有效性, 数据集名称后的括号中表示的是样本数、属性数和聚类数. 选取的5个对比算法包括: COA、MEGWO、HFPSO、擅长聚类优化的改进的PSO (IPSO)和改进的遗传算法(IGA). 其中, IPSO和IGA来自“http://yarpizcom/64/ypml101-evolutionary-clustering”. 所有算法的公共参数设置相同, N=50, MaxDT=200, Num=30. 表8是6种算法独立运行30次获得的均值、方差和排名结果.
表 8 6种算法在K-Means聚类优化上的结果对比
Table 8. Comparison results of the 6 algorithms on K-Means clustering optimization
数据集 HCOAG COA MEGWO HFPSO IPSO IGA Wine(178,13,3) Mean 88.6271 116.7307 91.5916 93.622 89.8617 89.564 Std 3.4479×10?2 2.9398×100 2.5237×100 6.7353×100 3.9148×100 2.0321×100 Rank 1 6 4 5 3 2 Heart(270,13,2) Mean 283.7680 295.3786 284.5731 284.7653 285.0072 284.4112 Std 3.9989×10?3 2.3404×100 2.3896×10?1 2.3804×100 5.2425×100 2.1715×100 Rank 1 6 3 4 5 2 Iris(150,4,3) Mean 29.2053 31.0511 29.2659 29.3578 29.3578 29.2607 Std 8.8033×10?2 5.7768×10?1 1.3448×10?1 1.0048×100 1.0048×100 9.2414×10?2 Rank 1 6 3 4 4 2 Glass(214,9,6) Mean 55.0255 75.4621 68.8816 62.7114 57.3102 60.8651 Std 2.2242×100 2.1402×100 2.8975×100 3.7975×100 3.5444×100 3.5855×100 Rank 1 6 5 4 2 3 Newthyroid(215,5,3) Mean 40.0538 42.0033 40.4736 41.8087 40.8213 41.9155 Std 9.8154×10?3 7.6493×10?1 4.0104×10?1 2.8501×100 2.0086×100 2.8122×100 Rank 1 6 2 4 3 5 Liver Disorders(345,6,2) Mean 90.3443 93.5344 90.3849 91.0246 90.3365 90.3698 Std 3.8530×10?4 1.0160×100 2.8148×10?2 2.6310×100 2.1424×10?2 2.0447×10?2 Rank 2 6 4 5 1 3 Balance(625,4,3) Mean 356.1247 357.6041 356.502 356.0165 356.0802 356.4092 Std 2.3618×10?1 4.0943×10?1 3.3785×10?1 1.5930×10?1 2.0303×10?1 1.4966×10?1 Rank 3 6 5 1 2 4 Count 5 0 0 1 1 0 Ave Rank 1.43 6.00 3.71 3.86 2.86 3.00 Total Rank 1 6 4 5 2 3 从表8可知, HCOAG在7个数据集上的均值和方差得到排名第一5次, 其次是HFPSO和IPSO均为1次, COA、MEGWO和IGA均获得0次第一. HCOAG的平均排名为1.43, 其他算法的平均排名依次为: IPSO、IGA、MEGWO、HFPSO和COA. 这些都表明HCOAG在K-Means聚类上的优化性能最好. 总之, HCOAG在K-Means聚类优化中获得竞争性的优化性能, 能够更好地处理聚类优化问题.
-
针对COA存在的不足, 本文提出了一种COA与GWO的混合算法(HCOAG). 首先, 改进COA (ICOA). 其一、在成长过程中, 提出一种高斯全局趋优成长算子, 提高了搜索能力; 其二、提出一种动态调整组内郊狼数方案, 搜索前期采用较少组数, 减弱全局最优解的正反馈作用, 强化搜索能力, 后期采用较多组数, 增强全局最优解的正反馈作用, 强化开采能力, 并提高可操作性. 然后, 对GWO进行改进, 提出了一种精简的GWO (SGWO), 在发挥其局部搜索能力强的优势同时, 提高了可操作性. 最后, 采用正弦交叉策略将ICOA与SGWO有机融合, 很好地平衡了组内郊狼成长的探索与开采能力, 以此获得了最佳优化性能. 大量经典函数与CEC2017复杂函数优化的实验结果表明, 在经典函数上, COA不及GWO; 在复杂函数上, GWO不及COA; 而HCOAG在两类优化问题上都有更好的性能, 说明二者混合有必要和有效; 与其他先进的对比算法相比, HCOAG具有更好的优化性能. K-Means聚类优化结果表明, 与对比算法相比, HCOAG获得了竞争性的优化性能.
总之, 与COA相比, HCOAG有如下优势: 1、普适性强, 经典函数和复杂函数优化以及聚类优化三组实验结果表明HCOAG都有更好的表现; 2、耗时少, 因此有更好的搜索效率; 3、更好的收敛质量; 4、更强的稳定性和鲁棒性, 5、可操作性更强.
COA是最近提出的一种SIOA, 尚有许多地方需要探讨和完善, 本文仅是一种混合改进研究的尝试. 未来将进一步改进COA, 对其进行深入的理论研究, 并拓展其应用领域.
致谢 特别感谢审稿专家和编辑对本文的认真审阅和在本文上所付出的辛勤劳动, 正是由于他们所付出的辛勤劳动和所给出的宝贵意见, 才使得本文的工作得以改进和提升!
Hybrid coyote optimization algorithm with grey wolf optimizer and its application to clustering optimization
More Information-
摘要: 郊狼优化算法(Coyote Optimization Algorithm, COA)是最近提出的一种新颖且具有较大应用潜力的群智能优化算法, 具有独特的搜索机制和能较好解决全局优化问题等优势, 但在处理复杂优化问题时存在搜索效率低、可操作性差和收敛速度慢等不足. 为弥补其不足, 并借鉴灰狼优化算法(Grey Wolf Optimizer, GWO)的优势, 提出了一种COA与GWO的混合算法(Hybrid COA with GWO, HCOAG). 首先提出了一种改进的COA (Improved COA, ICOA), 即将一种高斯全局趋优成长算子替换原算法的成长算子以提高搜索效率和收敛速度, 并提出一种动态调整组内郊狼数方案, 使得算法的搜索能力和可操作性都得到增强; 然后提出了一种简化操作的GWO (Simplified GWO, SGWO), 以提高算法的可操作性和降低其计算复杂度; 最后采用正弦交叉策略将ICOA与SGWO二者融合进一步提高算法的优化性能. 大量的经典函数和CEC2017复杂函数优化以及K-Means聚类优化的实验结果表明, 与COA相比, HCOAG具有更高的搜索效率、更强的可操作性和更快的收敛速度, 与其他先进的对比算法相比, HCOAG具有更好的优化性能, 能更好地解决聚类优化问题.Abstract: Coyote Optimization Algorithm (COA) is a novel swarm intelligence optimization algorithm with great application potential, which was proposed recently. It has a unique search mechanism and the advantages to solve global optimization problems well and so on. But when dealing with the complex optimization problems, it has some defects, such as low search efficiency, poor operability, slow convergence speed and so on. To make up for COA’s disadvantages and utilize the advantages of Grey Wolf Optimizer (GWO), a Hybrid COA with GWO (HCOAG) is proposed. Firstly, an Improved COA (ICOA) is proposed. A gaussian global-best growing operator replaces the growth operator of the original algorithm to improve the search efficiency and convergence speed, and a dynamic adjustment scheme of coyote number in each group is proposed to enhance the search ability and operability. Secondly, in order to improve the operability and reduce the computational complexity of the algorithm, a Simplified GWO (SGWO) is proposed. Finally, ICOA and SGWO are integrated by a sinusoidal crossover strategy to further improve the optimization performance of the algorithm. A large number of experimental results on classical benchmark functions and CEC2017 complex functions and K-Means clustering show that, compared with COA, HCOAG has higher search efficiency, stronger operability and faster convergence speed. Compared with other state-of-the-art comparison algorithms, HCOAG has better optimization performance and can solve clustering optimization problems better.
-
表 1 HCOAG与其不完全算法的结果对比
Table 1 Comparison results of HCOAG and its incomplete algorithms
函数 HCOAG COA GWO HCOAG5 HCOAG10 ICOA SGWO F1 Mean 7.4494×10?4 1.2099×103 1.2813×109 4.1072×10?4 1.9800×10?3 1.0737×102 3.3279×103 Std 1.4801×10?3 1.2998×103 9.6388×108 8.5916×10?4 2.9438×10?3 1.0569×102 4.3271×103 Rank 2 5 7 1 3 4 6 F2 Mean 1.1941×101 2.9013×1021 3.1831×1032 4.8580×103 1.8078×101 8.6764×1015 3.3582×1014 Std 2.4077×101 1.1462×1022 1.5894×1033 3.3985×104 5.0208×101 3.5675×1016 1.3200×1015 Rank 1 6 7 3 2 5 4 F3 Mean 9.5410×10?1 6.0573×104 2.8342×104 7.6972×10?1 1.0995×100 3.3032×104 8.7276×102 Std 1.9288×100 1.0177×104 9.2323×103 9.8032×10?1 1.6794×100 6.8409×103 7.2376×102 Rank 2 7 5 1 3 6 4 F4 Mean 1.8113×101 8.4041×101 2.0825×102 2.0841×101 2.8446×101 4.8248×101 1.0495×102 Std 2.7696×101 8.5306×100 8.4445×101 3.0540×101 3.1826×101 3.3517×101 2.4806×101 Rank 1 5 7 2 3 4 6 F5 Mean 2.8433×101 5.2890×101 9.6116×101 3.5884×101 3.0204×101 3.4844×101 3.1488×101 Std 6.8886×100 1.5025×101 3.2690×101 1.0115×101 8.8983×100 1.0983×101 9.2242×100 Rank 1 6 7 5 2 4 3 F6 Mean 1.7483×10?7 1.6399×10?5 6.3664×100 9.4452×10?7 1.5005×10?6 2.8782×10?4 2.0381×10?2 Std 4.7524×10?7 9.6428×10?6 3.1596×100 2.4080×10?6 5.9643×10?6 1.6254×10?4 2.7102×10?2 Rank 1 4 7 2 3 5 6 F7 Mean 6.1055×101 7.5148×101 1.4460×102 6.7082×101 5.9300×101 6.7675×101 6.4025×101 Std 1.0851×101 1.3762×101 4.6314×101 1.1241×101 9.4998×100 1.1520×101 1.1856×101 Rank 2 6 7 4 1 5 3 F8 Mean 3.2489×101 5.6110×101 8.4662×101 3.6085×101 2.9446×101 3.6138×101 3.1775×101 Std 1.2272×101 1.8774×101 2.5270×101 8.8063×100 7.9048×100 1.0081×101 7.8884×100 Rank 3 6 7 4 1 5 2 F9 Mean 2.7362×10?1 5.6225×10?1 5.5392×102 5.2270×10?1 2.5931×10?1 8.8559×10?2 7.4159×100 Std 4.8298×10?1 1.0209×100 3.2695×102 8.7374×10?1 4.6957×10?1 1.5656×10?1 6.7112×100 Rank 3 5 7 4 2 1 6 F10 Mean 2.2671×103 2.7575×103 3.1862×103 2.5574×103 2.3435×103 2.1380×103 2.1424×103 Std 6.1427×102 4.6685×102 9.7886×102 5.3524×102 6.0670×102 5.6098×102 4.0691×102 Rank 3 6 7 5 4 1 2 F11 Mean 2.1678×101 4.1143×101 4.9771×102 2.9822×101 2.6698×101 2.2685×101 1.0908×102 Std 2.0907×101 2.7367×101 6.4235×102 2.6128×101 2.4059×101 2.0893×101 3.8218×101 Rank 1 5 7 4 3 2 6 F12 Mean 9.8943×103 1.2532×105 4.0285×107 1.2577×104 1.0657×104 1.3660×105 2.0716×105 Std 6.0932×103 1.2555×105 7.3849×107 6.4424×103 6.4606×103 9.3092×104 1.9967×105 F12 Rank 1 4 7 3 2 5 6 F13 Mean 1.9749×103 2.0357×104 2.8073×106 3.0265×103 3.1829×103 3.6293×102 1.3271×104 Std 3.8565×103 2.6333×104 1.6225×107 6.2901×103 8.0719×103 8.9975×101 1.5283×104 Rank 2 6 7 3 4 1 5 F14 Mean 8.6436×101 8.0070×101 1.3112×105 7.7150×101 1.0134×102 5.6726×101 1.4132×104 Std 4.3766×101 1.9915×101 2.3335×105 6.0071×101 9.2585×101 1.4850×101 1.7944×104 Rank 4 3 7 2 5 1 6 F15 Mean 1.8396×103 2.0792×103 3.3658×105 7.1579×102 1.7386×103 6.9111×101 6.6116×103 Std 2.9044×103 7.9984×103 7.9125×105 1.2272×103 2.9477×103 1.9083×101 8.3961×103 Rank 4 5 7 2 3 1 6 F16 Mean 3.0243×102 7.9869×102 8.1416×102 3.3715×102 3.0883×102 4.6416×102 5.0252×102 Std 2.0550×102 2.8651×102 2.6440×102 2.1415×102 1.8878×102 2.6962×102 2.4545×102 Rank 1 6 7 3 2 4 5 F17 Mean 4.7111×101 2.2439×102 2.7004×102 6.4809×101 5.3120×101 3.7365×101 1.3984×102 Std 4.0925×101 1.3518×102 1.3820×102 5.3991×101 4.7801×101 4.0654×101 8.0664×101 Rank 2 6 7 4 3 1 5 F18 Mean 6.1013×104 6.9910×104 7.1643×105 5.1875×104 5.0376×104 3.9930×104 1.8454×105 Std 5.7031×104 1.0210×105 8.2799×105 3.6270×104 3.7592×104 2.0034×104 1.7045×105 Rank 4 5 7 3 2 1 6 F19 Mean 3.4042×101 4.4886×103 4.6400×105 3.4163×101 3.0105×102 2.4678×101 5.4815×103 Std 2.0528×101 1.3325×104 5.4998×105 3.9687×101 1.1322×103 7.1259×100 4.9859×103 Rank 2 5 7 3 4 1 6 F20 Mean 9.6665×101 2.4290×102 3.6059×102 1.0084×102 1.1637×102 1.0389×102 2.0165×102 Std 7.7834×101 1.4995×102 1.0264×102 6.6726×101 7.5890×101 8.7694×101 9.6673×101 Rank 1 6 7 2 4 3 5 F21 Mean 2.3023×102 2.5626×102 2.8298×102 2.3713×102 2.3135×102 2.3724×102 2.3289×102 Std 8.5095×100 1.6800×101 2.5684×101 1.0815×101 9.8453×100 1.1261×101 9.9428×100 Rank 1 6 7 4 2 5 3 F22 Mean 1.0010×102 1.9999×103 8.0434×102 1.0005×102 1.0005×102 1.0005×102 1.2974×102 Std 4.8096×10?1 1.5970×103 1.1113×103 3.4354×10?1 3.4444×10?1 3.4443×10?1 2.0703×102 Rank 4 7 6 1 3 2 5 F23 Mean 3.7755×102 4.1635×102 4.7029×102 3.8706×102 3.7831×102 3.8441×102 3.8854×102 Std 1.0911×101 1.6898×101 2.9324×101 1.3271×101 8.1817×100 1.0543×101 1.3692×101 Rank 1 6 7 4 2 3 5 F24 Mean 4.4827×102 5.4044×102 5.2489×102 4.5484×102 4.4530×102 4.5862×102 4.5671×102 Std 1.0757×101 4.5778×101 3.3902×101 1.1783×101 1.1461×101 1.2203×101 1.1956×101 Rank 2 7 6 3 1 5 4 F25 Mean 3.8777×102 3.8706×102 4.7784×102 3.8747×102 3.8729×102 3.8698×102 4.0239×102 Std 5.4462×100 8.0647×10?1 2.3819×101 1.5625×100 1.2735×100 5.4095×10?1 1.5135×101 Rank 5 2 7 4 3 1 6 F26 Mean 1.2578×103 1.6520×103 2.0116×103 1.3249×103 1.2449×103 1.3138×103 1.5024×103 Std 1.9807×102 1.7070×102 5.7618×102 3.1093×102 3.4947×102 1.9599×102 2.8691×102 Rank 2 6 7 4 1 3 5 F27 Mean 5.1091×102 5.0430×102 5.9279×102 5.1349×102 5.1088×102 5.0560×102 5.3331×102 Std 7.7116×100 8.2707×100 3.8462×101 8.6401×100 8.6837×100 7.3827×100 1.1175×101 F27 Rank 4 1 7 5 3 2 6 F28 Mean 3.3558×102 4.0555×102 5.9941×102 3.2930×102 3.3793×102 3.4828×102 4.5710×102 Std 5.3866×101 3.6156×101 6.9788×101 5.1585×101 5.1950×101 5.3564×101 2.3392×101 Rank 2 5 7 1 3 4 6 F29 Mean 4.5991×102 6.6978×102 8.5036×102 4.8821×102 4.6287×102 4.5683×102 6.2453×102 Std 4.4075×101 1.7459×102 1.8235×102 5.5772×101 4.3839×101 4.4800×101 1.1861×102 Rank 2 6 7 4 3 1 5 F30 Mean 2.9823×103 6.0618×103 4.0643×106 3.1036×103 2.9323×103 1.9586×104 6.1880×103 Std 6.1135×102 4.7022×103 3.1688×106 8.4665×102 5.9332×102 7.3086×103 2.8250×103 Rank 2 4 7 3 1 6 5 Count 10 1 0 4 5 10 0 Ave Rank 2.20 5.23 6.87 3.10 2.60 3.07 4.93 Total Rank 1 6 7 4 2 3 5 表 2 在6个经典函数上的实验结果对比
Table 2 comparison results on the 6 classic functions
函数 D=10 HCOAG COA GWO HFPSO DEBBO f1 Mean 6.0684×10-9 1.7833×102 9.0799×10-15 3.4157×10-5 6.7086×10-2 Std 4.8458×10-9 6.3524×101 2.4849×10-14 2.4485×10-5 3.1056×10-2 Rank 2 5 1 3 4 f2 Mean 8.4133×10-6 2.3737×100 1.3222×10-9 1.3703×10-3 2.8483×10-2 Std 3.7531×10-6 4.0964×10-1 1.1382×10-9 6.5582×10-4 7.0993×10-3 Rank 2 5 1 3 4 f3 Mean 0 1.6180×102 1.0000×10-1 0 0 Std 0 5.0787×101 3.0513×10-1 0 0 Rank 1 5 4 1 1 f4 Mean 1.2498×10-10 4.0253×100 1.5325×10-6 3.5760×10-7 1.8575×10-3 Std 2.0501×10-10 1.6104×100 9.4192×10-7 4.1539×10-7 1.0158×10-3 Rank 1 5 3 2 4 f5 Mean 2.0046×10-8 7.1619×102 2.4093×10-5 4.6770×10-6 2.6132×10-2 Std 5.9686×10-8 1.5819×103 1.4121×10-5 5.6661×10-6 1.0613×10-2 Rank 1 5 3 2 4 f6 Mean 4.1921×10-10 1.7228×100 1.2593×10-2 4.9377×10-7 3.5149×10-3 Std 4.3501×10-10 5.1829×10-1 6.8779×10-2 4.8665×10-7 1.5826×10-3 Rank 1 5 4 2 3 D=30 f1 Mean 1.3966×10-17 3.2554×101 5.4432×10-41 7.2595×10-9 2.7076×10-4 Std 3.2255×10-17 5.9567×100 7.1605×10-41 7.3446×10-9 1.1010×10-4 Rank 2 5 1 3 4 f2 Mean 2.8862×10-10 1.3998×100 6.0158×10-24 5.3463×10-5 1.3264×10-3 Std 4.6435×10-10 1.9835×10-1 6.2049×10-24 3.9178×10-5 2.3103×10-4 Rank 2 5 1 3 4 f3 Mean 0 3.3700×101 3.3333×10-2 0 0 Std 0 7.9877×100 1.8257×10-1 0 0 Rank 1 5 4 1 1 f4 Mean 1.0451×10-17 3.8002×100 1.5129×10-2 1.7278×10-2 6.4886×10-5 Std 3.0738×10-17 1.3163×100 1.0471×10-2 3.9296×10-2 2.7878×10-5 Rank 1 5 3 4 2 f5 Mean 5.3309×10-17 1.8376×101 1.6587×10-1 3.2962×10-3 5.0150×10-4 Std 1.5184×10-16 5.8919×100 1.1940×10-1 5.1211×10-3 2.1237×10-4 Rank 1 5 4 3 2 f6 Mean 1.2484×10-18 1.8049×100 7.9738×10-1 8.2480×10-3 8.5930×10-5 Std 1.7135×10-18 4.9152×10-1 7.4565×10-1 4.5176×10-2 3.9292×10-5 Rank 1 5 4 3 2 Count 8 0 4 2 2 Ave Rank 1.33 5.00 2.75 2.50 2.92 Total Rank 1 5 3 2 4 表 3 6个经典函数的情况
Table 3 Details of 6 classical benchmark functions
类型 函数名称 函数表达式 搜索范围 最小值 单峰函数 Sphere ${f_1}(x) = \sum\nolimits_{i = 1}^D {x_i^2}\hspace{200pt} $ [-100,100] 0 Schwefel 2.22 ${f_2}(x) = \sum\nolimits_{i = 1}^D {\left| {{x_i}} \right|} + \prod\nolimits_{i = 1}^D {\left| {{x_i}} \right|} \hspace{200pt} $ [-10,10] 0 Step ${f_3}(x) = \sum\nolimits_{i = 1}^D {{{\left( {\left\lfloor {{x_i} + 0.5} \right\rfloor } \right)}^2}}\hspace{200pt}$ [-100,100] 0 多峰函数 Penalized 1 $\begin{array}{l} {f_4}(x) = \dfrac{\pi}{D}\left\{ {10{ {\sin }^2}\left( {\pi {y_i} } \right)} \right. + \\ \sum\nolimits_{i = 1}^{D - 1} { { {\left( { {y_i} - 1} \right)}^2}\left[ {1 + 10{ {\sin }^2}\left( {\pi {y_{i + 1} } } \right)} \right]} \left. { + { {\left( { {y_D} - 1} \right)}^2} } \right\} + \\ \sum\nolimits_{i = 1}^D {u\left( { {x_i},10,100,4} \right),} \\ {y_i} = 1 + \dfrac{1}{4}\left( { {x_i} + 1} \right), \;\;\;\;u\left( { {x_i},a,k,m} \right) = \\ \left\{ \begin{array}{l} k{\left( { {x_i} - a} \right)^m},\;\;\;\;\;\;{x_i} > a,\\ 0,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\; - a \le {x_i} \le a,\\ k{\left( { - {x_i} - a} \right)^m},\;\;\;{x_i} < - a. \end{array} \right. \end{array}\hspace{200pt}$ [-50,50] 0 Penalized 2 $\begin{array}{l} {f_5}(x) = 0.1\left\{ {{{\sin }^2}} \right.\left( {\pi {x_1}} \right) + \sum\nolimits_{i = 1}^{D - 1} {{{\left( {{x_i} - 1} \right)}^2}} \left[ {1 + {{\sin }^2}\left( {3\pi {x_{i + 1}}} \right)} \right] + \\ \left( {{x_D} - 1} \right)\left. {\left[ {1 + {{\sin }^2}\left( {2\pi {x_D}} \right)} \right]} \right\} + \sum\nolimits_{i = 1}^D {u\left( {{x_i},5,100,4} \right)} \end{array}\hspace{200pt}$ [-50,50] 0 Levy $\begin{array}{l} {f_6}(x) = \sum\nolimits_{i = 1}^{D - 1} {{{\left( {{x_i} - 1} \right)}^2}} \left[ {1 + {{\sin }^2}\left( {3\pi {x_{i + 1}}} \right)} \right] + \\ {\sin ^2}\left( {3\pi {x_1}} \right) + \left| {{x_D} - 1} \right|\left[ {1 + {{\sin }^2}\left( {3\pi {x_D}} \right)} \right] \end{array}\hspace{200pt}$ [-10,10] 0 表 4 在30维CEC2017复杂函数上的优化结果对比
Table 4 Comparison results on the 30-dimensional complex functions from CEC2017
函数 HCOAG COA GWO MEGWO HFPSO DEBBO SaDE SE04 FWA TLBO F1 Mean 7.4494×10?4 1.2099×103 1.2813×109 4.5517×103 3.9338×103 2.7849×103 3.0714×103 3.2930×103 4.3987×106 2.9846×103 Std 1.4801×10?3 1.2998×103 9.6388×108 1.0677×103 5.3689×103 4.0364×103 3.5072×103 4.2328×103 1.4055×106 3.1471×103 Rank 1 2 10 8 7 3 5 6 9 4 F2 Mean 1.1941×101 2.9013×1021 3.1831×1032 2.8884×108 5.3485×104 1.5057×1017 8.6275×10?1 3.0802×1013 4.1397×1015 1.0448×1016 Std 2.4077×101 1.1462×1022 1.5894×1033 8.0571×108 3.2847×105 3.5179×1017 4.9357×100 1.1694×1014 1.5680×1016 4.7082×1016 Rank 2 9 10 4 3 8 1 5 6 7 F3 Mean 9.5410×10?1 6.0573×104 2.8342×104 2.2633×102 1.5595×10?7 3.6772×104 3.0045×102 9.7974×103 2.4748×104 4.0488×10?4 Std 1.9288×100 1.0177×104 9.2323×103 1.7031×102 2.3334×10?7 5.8394×103 7.3017×102 3.4377×103 6.3467×103 1.6647×10?3 Rank 3 10 8 4 1 9 5 6 7 2 F4 Mean 1.8113×101 8.4041×101 2.0825×102 2.4815×101 6.9386×101 8.4851×101 6.0423×101 8.5881×101 1.1370×102 5.9054×101 Std 2.7696×101 8.5306×100 8.4445×101 2.8995×101 2.1364×101 2.2848×10?1 2.9825×101 1.1251×101 1.7315×101 3.0429×101 Rank 1 6 10 2 5 7 4 8 9 3 F5 Mean 2.8433×101 5.2890×101 9.6116×101 5.6912×101 8.5624×101 5.8216×101 5.6192×101 4.1688×101 1.8456×102 8.5717×101 Std 6.8886×100 1.5025×101 3.2690×101 1.0725×101 1.7427×101 6.5957×100 1.4216×101 8.1545×100 3.3933×101 1.8601×101 Rank 1 3 9 5 7 6 4 2 10 8 F6 Mean 1.7483×10?7 1.6399×10?5 6.3664×100 2.4470×10?1 1.0170×100 1.1369×10?13 8.9317×10?2 7.5481×10?6 5.1770×100 7.2903×100 Std 4.7524×10?7 9.6428×10?6 3.1596×100 8.1620×10?2 2.3644×100 0 1.3955×10?1 3.9880×10?5 3.1351×100 4.4538×100 Rank 2 4 9 6 7 1 5 3 8 10 F7 Mean 6.1055×101 7.5148×101 1.4460×102 8.9106×101 1.0407×102 9.9725×101 9.4945×101 7.2448×101 2.0998×102 1.3661×102 Std 1.0851×101 1.3762×101 4.6314×101 1.0935×101 1.9791×101 6.4285×100 1.9879×101 7.3495×100 4.4817×101 2.4846×101 Rank 1 3 9 4 7 6 5 2 10 8 F8 Mean 3.2489×101 5.6110×101 8.4662×101 5.9398×101 7.2842×101 5.9299×101 5.3942×101 4.4194×101 1.4508×102 7.1339×101 Std 1.2272×101 1.8774×101 2.5270×101 1.0663×101 1.7967×101 6.0788×100 1.2792×101 6.5834×100 2.1470×101 1.4852×101 Rank 1 4 9 6 8 5 3 2 10 7 F9 Mean 2.7362×10?1 5.6225×10?1 5.5392×102 7.8267×100 3.2733×101 4.0125×10?14 8.3556×101 3.0839×10?1 3.5295×103 2.4197×102 Std 4.8298×10?1 1.0209×100 3.2695×102 1.1815×101 1.3249×102 5.4870×10?14 6.2643×101 8.4139×10?1 9.5511×102 1.4491×102 Rank 2 4 9 5 6 1 7 3 10 8 F10 Mean 2.2671×103 2.7575×103 3.1862×103 2.4369×103 2.9908×103 3.2911×103 2.3253×103 2.3267×103 3.7800×103 6.0667×103 Std 6.1427×102 4.6685×102 9.7886×102 4.4542×102 5.9210×102 2.7284×102 4.9247×102 2.8457×102 5.9660×102 1.0625×103 Rank 1 5 7 4 6 8 2 3 9 10 F11 Mean 2.1678×101 4.1143×101 4.9771×102 2.9612×101 1.1553×102 3.7430×101 1.0032×102 4.1343×101 1.6164×102 1.2672×102 Std 2.0907×101 2.7367×101 6.4235×102 1.0347×101 3.9628×101 2.3672×101 4.3101×101 2.7994×101 4.5263×101 4.5717×101 Rank 1 4 10 2 7 3 6 5 9 8 F12 Mean 9.8943×103 1.2532×105 4.0285×107 1.5983×104 9.9670×104 1.3866×105 6.8629×104 1.1143×106 4.6351×106 3.3042×104 Std 6.0932×103 1.2555×105 7.3849×107 4.0434×103 1.0658×105 9.2097×104 3.8252×104 8.1422×105 3.1121×106 2.8646×104 Rank 1 6 10 2 5 7 4 8 9 3 F13 Mean 1.9749×103 2.0357×104 2.8073×106 2.0450×102 3.0927×104 8.1265×103 1.1211×104 4.6063×103 3.7320×104 1.4857×104 Std 3.8565×103 2.6333×104 1.6225×107 2.7028×101 2.7301×104 7.8066×103 1.0535×104 4.8590×103 2.6480×104 1.7072×104 Rank 2 7 10 1 8 4 5 3 9 6 F14 Mean 8.6436×101 8.0070×101 1.3112×105 6.1985×101 6.7377×103 4.9240×103 4.3238×103 7.1204×104 2.6955×105 3.5454×103 Std 4.3766×101 1.9915×101 2.3335×105 8.6647×100 5.5695×103 3.2902×103 5.7159×103 5.9323×104 2.4525×105 4.1276×103 Rank 3 2 9 1 7 6 5 8 10 4 F15 Mean 1.8396×103 2.0792×103 3.3658×105 5.1634×101 9.7487×103 4.9944×103 2.1676×103 2.2013×103 3.2784×103 3.9091×103 Std 2.9044×103 7.9984×103 7.9125×105 1.0713×101 1.2114×104 6.6468×103 3.0178×103 1.9756×103 1.9819×103 4.3347×103 Rank 2 3 10 1 9 8 4 5 6 7 F16 Mean 3.0243×102 7.9869×102 8.1416×102 4.4823×102 7.7229×102 3.9643×102 5.6072×102 4.9392×102 1.2266×103 5.0039×102 Std 2.0550×102 2.8651×102 2.6440×102 1.3443×102 2.2590×102 1.1932×102 2.0850×102 1.7309×102 3.0034×102 2.7575×102 Rank 1 8 9 3 7 2 6 4 10 5 F17 Mean 4.7111×101 2.2439×102 2.7004×102 6.9544×101 2.5591×102 8.1642×101 8.7684×101 1.4116×102 5.5825×102 2.3994×102 Std 4.0925×101 1.3518×102 1.3820×102 1.7296×101 1.2971×102 2.2037×101 9.1289×101 8.5026×101 2.3401×102 8.8703×101 Rank 1 6 9 2 8 3 4 5 10 7 F18 Mean 6.1013×104 6.9910×104 7.1643×105 2.0505×102 1.1409×105 3.2225×105 1.0034×105 2.1361×105 9.8409×105 2.0609×105 Std 5.7031×104 1.0210×105 8.2799×105 4.7536×101 1.1535×105 1.2197×105 1.1019×105 1.3261×105 1.1184×106 1.5131×105 Rank 2 3 9 1 5 8 4 7 10 6 F19 Mean 3.4042×101 4.4886×103 4.6400×105 2.9977×101 8.6631×103 8.3686×103 5.9612×103 2.0723×103 5.2207×103 6.3203×103 Std 2.0528×101 1.3325×104 5.4998×105 3.3897×100 1.9974×104 9.2795×103 7.1112×103 2.1685×103 3.9175×103 1.0793×104 Rank 2 4 10 1 9 8 6 3 5 7 F20 Mean 9.6665×101 2.4290×102 3.6059×102 1.1363×102 2.6516×102 5.5205×101 1.2989×102 1.7303×102 4.6345×102 2.4392×102 Std 7.7834×101 1.4995×102 1.0264×102 5.2411×101 1.1737×102 3.5413×101 7.0970×101 7.2015×101 1.7129×102 8.4432×101 Rank 2 6 9 3 8 1 4 5 10 7 F21 Mean 2.3023×102 2.5626×102 2.8298×102 2.5458×102 2.7446×102 2.5950×102 2.4896×102 2.5047×102 3.7768×102 2.6988×102 Std 8.5095×100 1.6800×101 2.5686×101 3.3247×101 1.9517×101 7.6690×100 1.3195×101 8.4442×100 7.9462×101 1.9589×101 Rank 1 5 9 4 8 6 2 3 10 7 F22 Mean 1.0010×102 1.9999×103 8.0434×102 1.0022×102 1.4532×103 1.0000×102 1.0228×102 1.0211×103 2.1380×103 1.0232×102 Std 4.8096×10?1 1.5970×103 1.1113×103 4.3917×10?2 1.8286×103 2.3100×10?13 3.2279×100 1.2872×103 2.2149×103 4.0114×100 Rank 2 9 6 3 8 1 4 7 10 5 F23 Mean 3.7755×102 4.1635×102 4.7029×102 3.8959×102 4.8447×102 4.0323×102 4.1472×102 4.0247×102 5.8963×102 4.5003×102 Std 1.0911×101 1.6898×101 2.9324×101 6.8787×101 4.4709×101 5.6348×100 1.8742×101 8.1687×100 8.8792×101 3.0546×101 Rank 1 6 8 2 9 4 5 3 10 7 F24 Mean 4.4827×102 5.4044×102 5.2489×102 4.8972×102 5.6079×102 4.7430×102 4.8169×102 4.9840×102 7.9489×102 5.0152×102 Std 1.0757×101 4.5778×101 3.3902×101 1.6597×101 5.7847×101 6.0055×100 2.0610×101 1.3899×101 8.6391×101 2.3700×101 Rank 1 8 7 4 9 2 3 5 10 6 F25 Mean 3.8777×102 3.8706×102 4.7784×102 3.8374×102 3.8818×102 3.8691×102 4.0124×102 3.8779×102 4.1099×102 4.0877×102 Std 5.4462×100 8.0647×10?1 2.3819×101 1.8246×10?1 3.4076×100 7.5524×10?2 1.9489×101 1.1319×100 2.1657×101 2.2401×101 Rank 4 3 10 1 6 2 7 5 9 8 F26 Mean 1.2578×103 1.6520×103 2.0116×103 2.5051×102 1.4922×103 1.4821×103 1.7344×103 1.5337×103 2.2418×103 1.8645×103 Std 1.9807×102 1.7070×102 5.7618×102 4.1112×101 9.6940×102 7.2015×101 7.1347×102 1.9051×102 1.7373×103 1.0276×103 Rank 2 6 9 1 4 3 7 5 10 8 F27 Mean 5.1091×102 5.0430×102 5.9279×102 5.1286×102 5.3523×102 4.9807×102 5.4289×102 5.0744×102 5.7919×102 5.3827×102 Std 7.7116×100 8.2707×100 3.8462×101 6.1632×100 2.1095×101 4.7270×100 1.7086×101 3.6242×100 3.5317×101 1.6907×101 Rank 4 2 10 5 6 1 8 3 9 7 F28 Mean 3.3558×102 4.0555×102 5.9941×102 3.6492×102 3.5331×102 3.2281×102 3.3257×102 4.1364×102 4.6256×102 3.6806×102 Std 5.3866×101 3.6156×101 6.9788×101 3.2477×101 5.9179×101 3.7880×101 5.2165×101 2.5577×101 2.3601×101 5.3388×101 Rank 3 7 10 5 4 1 2 8 9 6 F29 Mean 4.5991×102 6.6978×102 8.5036×102 5.4385×102 6.7006×102 5.1851×102 5.5826×102 5.4778×102 1.0120×103 7.8922×102 Std 4.4075×101 1.7459×102 1.8235×102 5.4241×101 1.4475×102 3.4859×101 1.0040×102 8.1960×101 2.1872×102 1.3560×102 Rank 1 6 9 3 7 2 5 4 10 8 F30 Mean 2.9823×103 6.0618×103 4.0643×106 3.6855×103 1.8733×104 5.9405×103 5.0147×103 4.9671×103 1.5965×104 5.9572×103 Std 6.1135×102 4.7022×103 3.1688×106 3.3042×102 3.4470×104 2.3158×103 1.9712×103 2.0934×103 8.7877×103 3.9139×103 Rank 1 7 10 2 9 5 4 3 8 6 Count 15 0 0 7 1 6 1 0 0 0 Ave Rank 1.73 5.27 9.10 3.17 6.67 4.37 4.53 4.63 9.03 6.50 Total Rank 1 6 10 2 8 3 4 5 9 7 表 5 在30维CEC2017复杂函数上的上下界结果对比
Table 5 Comparison of upper and lower bounds on the 30-dimensional complex functions from CEC2017
函数 HCOAG COA/DEBBO 下界 上界 下界 上界 F1 3.8942×10-9 7.8898×10-3 3.5001×100 5.0055×103 F5 1.2935×101 4.1788×101 2.6865×101 9.2083×101 F11 4.0954×100 7.5899×101 1.3819×101 8.8108×101 F29 3.7200×102 6.0977×102 4.4500×102 6,2345×102 表 6 Wilcoxon符号秩检验结果
Table 6 Wilcoxon sign rank test results
p a=0.05 R+ R? n/w/t/l HCOAG vs COA 1.3039×10?7 YES 453 12 30/27/0/3 HCOAG vs GWO 1.8626×10?9 YES 465 0 30/30/0/0 HCOAG vs MEGWO 2.7741×10?2 YES 339 126 30/23/0/7 HCOAG vs HFPSO 5.5879×10?9 YES 463 2 30/29/0/1 HCOAG vs DEBBO 9.0000×10?6 YES 429 36 30/23/0/7 HCOAG vs SaDE 3.5390×10?8 YES 458 7 30/28/0/2 HCOAG vs SE04 1.3039×10?8 YES 461 4 30/29/0/1 HCOAG vs FWA 1.8626×10?9 YES 465 0 30/30/0/0 HCOAG vs TLBO 3.7253×10?9 YES 464 1 30/29/0/1 表 7 Friedman检验结果
Table 7 Friedman test results
D p HCOAG COA GWO MEGWO HFPSO DEBBO SaDE SE04 FWA TLBO 30 6.3128×10-31 1.73 5.27 9.10 3.17 6.67 4.37 4.53 4.63 9.03 6.50 表 8 6种算法在K-Means聚类优化上的结果对比
Table 8 Comparison results of the 6 algorithms on K-Means clustering optimization
数据集 HCOAG COA MEGWO HFPSO IPSO IGA Wine(178,13,3) Mean 88.6271 116.7307 91.5916 93.622 89.8617 89.564 Std 3.4479×10?2 2.9398×100 2.5237×100 6.7353×100 3.9148×100 2.0321×100 Rank 1 6 4 5 3 2 Heart(270,13,2) Mean 283.7680 295.3786 284.5731 284.7653 285.0072 284.4112 Std 3.9989×10?3 2.3404×100 2.3896×10?1 2.3804×100 5.2425×100 2.1715×100 Rank 1 6 3 4 5 2 Iris(150,4,3) Mean 29.2053 31.0511 29.2659 29.3578 29.3578 29.2607 Std 8.8033×10?2 5.7768×10?1 1.3448×10?1 1.0048×100 1.0048×100 9.2414×10?2 Rank 1 6 3 4 4 2 Glass(214,9,6) Mean 55.0255 75.4621 68.8816 62.7114 57.3102 60.8651 Std 2.2242×100 2.1402×100 2.8975×100 3.7975×100 3.5444×100 3.5855×100 Rank 1 6 5 4 2 3 Newthyroid(215,5,3) Mean 40.0538 42.0033 40.4736 41.8087 40.8213 41.9155 Std 9.8154×10?3 7.6493×10?1 4.0104×10?1 2.8501×100 2.0086×100 2.8122×100 Rank 1 6 2 4 3 5 Liver Disorders(345,6,2) Mean 90.3443 93.5344 90.3849 91.0246 90.3365 90.3698 Std 3.8530×10?4 1.0160×100 2.8148×10?2 2.6310×100 2.1424×10?2 2.0447×10?2 Rank 2 6 4 5 1 3 Balance(625,4,3) Mean 356.1247 357.6041 356.502 356.0165 356.0802 356.4092 Std 2.3618×10?1 4.0943×10?1 3.3785×10?1 1.5930×10?1 2.0303×10?1 1.4966×10?1 Rank 3 6 5 1 2 4 Count 5 0 0 1 1 0 Ave Rank 1.43 6.00 3.71 3.86 2.86 3.00 Total Rank 1 6 4 5 2 3 -
[1] 刘三阳, 靳安钊. 求解约束优化问题的协同进化教与学优化算法. 自动化学报, 2018, 44(9): 1690?1697 Liu San-Yang, JIN An-Zhao. A Co-evolutionary teaching- learning-based optimization algorithm for constrained optimization problems. Acta Automatica Sinica, 2018, 44(9): 1690?1697 [2] 吕柏权, 张静静, 李占培, 刘廷章. 基于变换函数与填充函数的模糊粒子群优化算法. 自动化学报, 2018, 44(1): 74?86 Lv Bai-Quan, Zhang Jing-Jing, Li Zhan-Pei, Liu Ting-Zhang. Fuzzy particle swarm optimization based on filled function and transformation function. Acta Automatica Sinica, 2018, 44(1): 74?86 [3] Mirjalili S, Mirjalili S M, Lewis A. Grey wolf optimizer. Advances in Engineering Software, 2014, 69: 46?61 doi: 10.1016/j.advengsoft.2013.12.007 [4] Pierezan J, Coelho L D S. Coyote optimization algorithm: a new metaheuristic for global optimization problems. In: 2018 IEEE Congress on Evolutionary Computation (CEC). Rio de Janeiro, Brazil, USA: IEEE, 2018 [5] 彭喜元, 彭宇, 戴毓丰. 群智能理论及应用. 电子学报, 2003, 12A(31): 1982?1988 Peng Xi-yuan, Peng Yu, Dai Yu-feng. Swarm intelligence theory and applications. Acta Electronica Sinica, 2003, 12A(31): 1982?1988 [6] Wolpert D H, Macready W G. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation, 1997, 1(1): 67?82 doi: 10.1109/4235.585893 [7] 张新明, 王霞, 康强, 程金凤. GWO与ABC的混合优化算法及其聚类优化. 电子学报, 2018, 46(10): 2430?2442 doi: 10.3969/j.issn.0372-2112.2018.10.017 Zhang Xin-ming, Wang Xia, Kang Qiang, Cheng Jin-feng. Hybrid grey wolf optimizer with artificial bee colony and its application to clustering optimization. Acta Electronica Sinica, 2018, 46(10): 2430?2442 doi: 10.3969/j.issn.0372-2112.2018.10.017 [8] Zhang X M, Kang Q, Cheng J F, Wang X. A novel hybrid algorithm based on biogeography-based optimization and grey wolf optimizer. Applied Soft Computing, 2018, 67: 197?214 doi: 10.1016/j.asoc.2018.02.049 [9] Teng Z, Lv J, Guo L. An improved hybrid grey wolf optimization algorithm. Soft Computing, 2019, 23(15): 6617?6631 doi: 10.1007/s00500-018-3310-y [10] Arora S, Singh H, Sharma M, Sharma S, Anand P. A new hybrid algorithm based on grey wolf optimization and crow search algorithm for unconstrained function optimization and feature selection. IEEE Access, 2019, 7: 26343?26361 doi: 10.1109/ACCESS.2019.2897325 [11] 龙文, 伍铁斌, 唐明珠, 徐明, 蔡绍洪. 基于透镜成像学习策略的灰狼优化算法. 自动化学报 [Online], available: https://doi.org/10.16383/j.aas.c180695, 2020 Long Wen, Wu Tie-bin, Tang Ming-zhu, Xu Ming, Cai Shao-hong. Grey wolf optimizer algorithm based on lens imaging learning strategy. Acta Automatica Sinica [Online], available: https://doi.org/10.16383/j.aas.c180695, 2020 [12] 张新明, 王豆豆, 陈海燕, 毛文涛, 窦智, 刘尚旺. 强化最优和最差狼的郊狼优化算法及其QAP应用. 计算机应用, 2019, 39(10): 2985?2991 Zhang Xin-ming, Wang Dou-dou, Chen Hai-yan, Mao Wen-tao, Dou Zhi, Liu Shang-wang. Best and worst coyotes strengthened coyote optimization algorithm and its application to QAP. Journal of Computer Applications, 2019, 39(10): 2985?2991 [13] Omran M G H, Mahdavi M. Global-best harmony search. Applied Mathematics and Computation, 2008, 198(2): 643?656 doi: 10.1016/j.amc.2007.09.004 [14] Draa A, Bouzoubia S, Boukhalfa I. A sinusoidal differential evolution algorithm for numerical optimization. Applied Soft Computing, 2015, 27: 99?126 doi: 10.1016/j.asoc.2014.11.003 [15] Awad N H, Ali M Z, Liang J J, Qu B Y, Suganthan P N. Problem definitions and evaluation criteria for the CEC 2017 special session and competition on single objective bound constrained real-parameter numerical optimization. In: Computational Intelligence Laboratory, Zhengzhou University, Zhengzhou China and Technical Report, Nanyang Technological University, Singapore, 2016 [16] Tu Q, Chen X C, Liu X. Multi-strategy ensemble grey wolf optimizer and its application to feature selection. Applied Soft Computing, 2019, 76: 16?30 doi: 10.1016/j.asoc.2018.11.047 [17] Gong W, Cai Z, Ling C. DE/BBO: a hybrid differential evolution with biogeography-based optimization for global numerical optimization. Soft Computing, 2010, 15(4): 645?665 doi: 10.1007/s00500-010-0591-1 [18] Avdilek I B. A hybrid firefly and particle swarm optimization algorithm for computationally expensive numerical problems. Applied Soft Computing, 2018, 66: 232?249 doi: 10.1016/j.asoc.2018.02.025 [19] Qin A K, Huang V L, Suganthan P N. Differential evolution algorithm with strategy adaptation for global numerical optimization. IEEE Transactions on Evolutionary Computation, 2009, 13(2): 398?417 doi: 10.1109/TEVC.2008.927706 [20] Tang D. Spherical evolution for solving continuous optimization problems. Applied Soft Computing, 2019, 81: 1?20 [21] Tan Y, Zhu Y C. Fireworks algorithm for optimization. International Conference in Swarm Intelligence, 2010: 355?364 [22] Rao R V, Savsani V J, Vakharia D P. Teaching-learning-based optimization: A novel method for constrained mechanical design optimization problems. Computer-Aided Design, 2011, 43(3): 303?315 doi: 10.1016/j.cad.2010.12.015 [23] 贺毅朝, 王熙照, 刘坤起, 王彦祺. 差分演化的收敛性分析与算法改进. 软件学报, 2010, 21(5): 875?885 doi: 10.3724/SP.J.1001.2010.03486 He Yi-chao, Wang Xi-zhao, Liu Kun-qi, Wang Yan-qi. Convergent analysis and algorithmic improvement of differential evolution. Journal of Software, 2010, 21(5): 875?885 doi: 10.3724/SP.J.1001.2010.03486 [24] Derrac J, García S, Molina D, Herrera F. A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms. Swarm and Evolutionary Computation, 2011, 1(1): 3?18 doi: 10.1016/j.swevo.2011.02.002 [25] Das P, Das D K, Dey S. A modified bee colony optimization (MBCO) and its hybridization with k-means for an application to data clustering. Applied Soft Computing, 2018, 70: 590?603 doi: 10.1016/j.asoc.2018.05.045 [26] Jain A K. Data clustering: 50 years beyond k-means. Pattern Recognition Letters, 2010, 31(8): 651?666 doi: 10.1016/j.patrec.2009.09.011 [27] 罗可, 李莲, 周博翔. 基于变异精密搜索的蜂群聚类算法. 控制与决策, 2014, 29(5): 838?842 Luo Ke, Li Lian, Zhou Bo-xiang. Artificial bee colony rough clustering algorithm based on mutative precision search. Control and Decision, 2014, 29(5): 838?842 -

计量
- 文章访问数: 18
- HTML全文浏览量: 8
- 被引次数: 0