比較簡單的Transformer與RNN的比較
2023-06-13 17:45 作者:夜風(fēng)街流浪人 | 我要投稿
就簡單寫一寫
(1)并行性。RNN可并行性差,tf可并行性好。目前很多對于RNN的改進(jìn)都是要考慮并行性的
(2)計算復(fù)雜度。RNN的計算復(fù)雜度低,tf的計算復(fù)雜度高,所以tf要做大其實(shí)面臨著麻煩
(3)輸入序列長度。RNN理論上是可以無限序列長度的,這也是tf無法實(shí)現(xiàn)的,tf每層再大也終歸事有限的
(4)順序關(guān)系處理。RNN善于處理順序關(guān)系,而tf往往需要額外的位置編碼(tf丟失了序列)
(5)長期依賴。RNN面臨著嚴(yán)峻的長期依賴問題,即使是LSTM也存在問題,而tf處理長期依賴很擅長
(6)適用范圍不同。RNN很難處理視覺的一些問題但是tf可以,RNN適合語音等tf也不一定適合
(7)梯度問題。RNN會面臨梯度消失、梯度爆炸等問題,但是tf處理這些問題更簡單,往往模型能做很深很大
(8)魯棒性、泛化性。據(jù)說tf更好
RNN在處理順序性強(qiáng)、較短的序列任務(wù)上表現(xiàn)較好,而Transformer在處理長序列和大規(guī)模數(shù)據(jù)時更具優(yōu)勢