【DELM分類】基于鯨魚算法改進深度學(xué)習(xí)極限學(xué)習(xí)機實現(xiàn)數(shù)據(jù)分類附matlab代碼
1 簡介
人工神經(jīng)網(wǎng)絡(luò)的最大缺點是訓(xùn)練時間太長從而限制其實時應(yīng)用范圍,近年來,極限學(xué)習(xí)機(Extreme Learning Machine, ELM)的提出使得前饋神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時間大大縮短,然而當(dāng)原始數(shù)據(jù)混雜入大量噪聲變量時,或者當(dāng)輸入數(shù)據(jù)維度非常高時,極限學(xué)習(xí)機算法的綜合性能會受到很大的影響.深度學(xué)習(xí)算法的核心是特征映射,它能夠摒除原始數(shù)據(jù)中的噪聲,并且當(dāng)向低維度空間進行映射時,能夠很好的起到對數(shù)據(jù)降維的作用,因此我們思考利用深度學(xué)習(xí)的優(yōu)勢特性來彌補極限學(xué)習(xí)機的弱勢特性從而改善極限學(xué)習(xí)機的性能.為了進一步提升DELM預(yù)測精度,本文采用麻雀搜索算法進一步優(yōu)化DELM超參數(shù),仿真結(jié)果表明,改進算法的預(yù)測精度更高。





2 部分代碼
%_________________________________________________________________________%
% 鯨魚優(yōu)化算法 ? ? ? ? ? ? %
%_________________________________________________________________________%
% The Whale Optimization Algorithm
function [Leader_score,Leader_pos,Convergence_curve]=WOA(SearchAgents_no,Max_iter,lb,ub,dim,fobj)
% initialize position vector and score for the leader
Leader_pos=zeros(1,dim);
Leader_score=inf; %change this to -inf for maximization problems
%Initialize the positions of search agents
Positions=initialization(SearchAgents_no,dim,ub,lb);
Convergence_curve=zeros(1,Max_iter);
t=0;% Loop counter
% Main loop
while t<Max_iter
? ?for i=1:size(Positions,1)
? ? ? ?% Return back the search agents that go beyond the boundaries of the search space
? ? ? ?Flag4ub=Positions(i,:)>ub;
? ? ? ?Flag4lb=Positions(i,:)<lb;
? ? ? ?Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;
? ? ? ?% Calculate objective function for each search agent
? ? ? ?fitness=fobj(Positions(i,:));
? ? ? ?% Update the leader
? ? ? ?if fitness<Leader_score % Change this to > for maximization problem
? ? ? ? ? ?Leader_score=fitness; % Update alpha
? ? ? ? ? ?Leader_pos=Positions(i,:);
? ? ? ?end
? ?end
? ?a=2-t*((2)/Max_iter); % a decreases linearly fron 2 to 0 in Eq. (2.3)
? ?% a2 linearly dicreases from -1 to -2 to calculate t in Eq. (3.12)
? ?a2=-1+t*((-1)/Max_iter);
? ?% Update the Position of search agents
? ?for i=1:size(Positions,1)
? ? ? ?r1=rand(); % r1 is a random number in [0,1]
? ? ? ?r2=rand(); % r2 is a random number in [0,1]
? ? ? ?A=2*a*r1-a; ?% Eq. (2.3) in the paper
? ? ? ?C=2*r2; ? ? ?% Eq. (2.4) in the paper
? ? ? ?b=1; ? ? ? ? ? ? ? % ?parameters in Eq. (2.5)
? ? ? ?l=(a2-1)*rand+1; ? % ?parameters in Eq. (2.5)
? ? ? ?p = rand(); ? ? ? ?% p in Eq. (2.6)
? ? ? ?for j=1:size(Positions,2)
? ? ? ? ? ?if p<0.5 ?
? ? ? ? ? ? ? ?if abs(A)>=1
? ? ? ? ? ? ? ? ? ?rand_leader_index = floor(SearchAgents_no*rand()+1);
? ? ? ? ? ? ? ? ? ?X_rand = Positions(rand_leader_index, :);
? ? ? ? ? ? ? ? ? ?D_X_rand=abs(C*X_rand(j)-Positions(i,j)); % Eq. (2.7)
? ? ? ? ? ? ? ? ? ?Positions(i,j)=X_rand(j)-A*D_X_rand; ? ? ?% Eq. (2.8)
? ? ? ? ? ? ? ?elseif abs(A)<1
? ? ? ? ? ? ? ? ? ?D_Leader=abs(C*Leader_pos(j)-Positions(i,j)); % Eq. (2.1)
? ? ? ? ? ? ? ? ? ?Positions(i,j)=Leader_pos(j)-A*D_Leader; ? ? ?% Eq. (2.2)
? ? ? ? ? ? ? ?end
? ? ? ? ? ?elseif p>=0.5
? ? ? ? ? ? ? ?distance2Leader=abs(Leader_pos(j)-Positions(i,j));
? ? ? ? ? ? ? ?% Eq. (2.5)
? ? ? ? ? ? ? ?Positions(i,j)=distance2Leader*exp(b.*l).*cos(l.*2*pi)+Leader_pos(j);
? ? ? ? ? ?end
? ? ? ?end
? ?end
? ?t=t+1;
? ?Convergence_curve(t)=Leader_score;
end
3 仿真結(jié)果

4 參考文獻
[1]馬萌萌. 基于深度學(xué)習(xí)的極限學(xué)習(xí)機算法研究[D]. 中國海洋大學(xué), 2015.
博主簡介:擅長智能優(yōu)化算法、神經(jīng)網(wǎng)絡(luò)預(yù)測、信號處理、元胞自動機、圖像處理、路徑規(guī)劃、無人機等多種領(lǐng)域的Matlab仿真,相關(guān)matlab代碼問題可私信交流。
部分理論引用網(wǎng)絡(luò)文獻,若有侵權(quán)聯(lián)系博主刪除。
