關鍵詞:智能優化算法 灰狼優化算法 反向學習 差分變異 高維函數優化
摘要:灰狼優化算法(GWO)具有較強的局部搜索能力和較快的收斂速度,但在解決高維和復雜的優化問題時存在全局搜索能力不足的問題.對此,提出一種改進的GWO,即新型反向學習和差分變異的GWO(ODGWO).首先,提出一種最優最差反向學習策略和一種動態隨機差分變異算子,并將它們融入GWO中,以便增強全局搜索能力;然后,為了很好地平衡探索與開采能力以提升整體的優化性能,對算法前、后半搜索階段分別采用單維操作和全維操作形成ODGWO;最后,將ODGWO用于高維函數和模糊C均值(FCM)聚類優化.實驗結果表明,在許多高維Benchmark函數(30維、50維和1 000維)優化上, ODGWO的搜索能力大幅度領先于GWO,與state-of-the-art優化算法相比, ODGWO具有更好的優化性能.在7個標準數據集的FCM聚類優化上,與GWO、GWOepd和LGWO相比, ODGWO表現出了更好的聚類優化性能,可應用在更多的實際優化問題上.
控制與決策雜志要求:
{1}注釋及參考文獻格式參照GB/T7714-2015《信息與文獻參考文獻著錄規則》。
{2}請勿一稿兩投;請遵循學術規范,如出現剽竊,文責自負。
{3}投稿方式:將電子版(Word 文檔)發送至編委會郵箱,并以“ 作者單位+ 作者姓名+ 文章標題” 為郵件名稱。
{4}屬于課題或基金項目的論文,請詳細注明類別、名稱及編號等內容。
{5}用第一、第二……或首先、其次……時,如每段文字不長可在同一自然段內接排,如每段文字均較長,可另起一自然段。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社