基于MobileNet的人臉表情識別系統(tǒng)(MATLAB GUI版+原理詳解)
摘要:本篇博客介紹了基于MobileNet的人臉表情識別系統(tǒng),支持圖片識別、視頻識別、攝像頭識別等多種形式,通過GUI界面實現(xiàn)表情識別可視化展示。首先介紹了表情識別任務(wù)的背景與意義,總結(jié)近年來利用深度學(xué)習(xí)進(jìn)行表情識別的相關(guān)技術(shù)和工作。在數(shù)據(jù)集選擇上,本文選擇了Fer2013和CK+兩個數(shù)據(jù)集,并使用MATLAB對這些數(shù)據(jù)進(jìn)行預(yù)處理和訓(xùn)練。最后通過調(diào)用已經(jīng)訓(xùn)練好的MobileNet模型對圖像中存在的人臉目標(biāo)進(jìn)行表情識別分類,詳細(xì)介紹了實現(xiàn)過程中使用的代碼和設(shè)計框架。本文旨在為相關(guān)領(lǐng)域的研究人員和新入門的朋友提供參考,完整代碼資源文件請轉(zhuǎn)至文末的下載鏈接。

完整代碼下載:https://mbd.pub/o/bread/mbd-ZJiYlpdu
參考視頻演示:https://www.bilibili.com/video/BV1ts4y1X71R/

引言
我此前在博客中設(shè)計了一款基于 Python 的人臉表情識別系統(tǒng)介紹,這是一個有趣好玩的Python項目,該博客受到了廣泛的關(guān)注和反響。經(jīng)過四年的持續(xù)更新和完善,現(xiàn)在向大家介紹人臉表情識別系統(tǒng)在 MATLAB 中的實現(xiàn)。本文旨在幫助更多人了解和學(xué)習(xí)表情識別技術(shù),同時展現(xiàn)我對于技術(shù)創(chuàng)新的熱忱和樂于分享的態(tài)度,很高興我的博客能夠給予入門的讀者一點啟發(fā)。現(xiàn)成的代碼可以省去重復(fù)造輪子的時間,但也希望讀者能真正讀懂代碼和實現(xiàn)思路,避免“拿來主義”,在此之上能夠有自己的見地和思考。感謝各位讀者的支持和關(guān)注,期待與大家共同探索這一有趣的領(lǐng)域。
隨著人工智能技術(shù)的飛速發(fā)展,計算機(jī)視覺領(lǐng)域也得到了長足的進(jìn)步。人臉表情識別作為計算機(jī)視覺的一個重要應(yīng)用,具有廣泛的應(yīng)用前景,如人機(jī)交互、心理健康分析、虛擬現(xiàn)實等。本博客將介紹一種基于MobileNet的人臉表情識別系統(tǒng),并使用MATLAB進(jìn)行實現(xiàn)。本博客內(nèi)容為博主原創(chuàng),相關(guān)引用和參考文獻(xiàn)我已在文中標(biāo)注,考慮到可能會有相關(guān)研究人員蒞臨指導(dǎo),博主的博客這里盡可能以學(xué)術(shù)期刊的格式撰寫,如需參考可引用本博客格式如下:
[1] 思緒無限. 基于MobileNet的人臉表情識別系統(tǒng)(MATLAB GUI版+原理詳解)[J/OL]. CSDN, 2023.05.?http://wuxian.blog.csdn.net/article/details/130460275.
[2] Wu, S. (2023, May 2). MobileNet-based facial expression recognition system (MATLAB GUI version + detailed principles) [Blog post]. CSDN Blog.?http://wuxian.blog.csdn.net/article/details/130460275
人臉表情識別研究的現(xiàn)狀已經(jīng)取得了一定的成果,但仍然面臨諸多挑戰(zhàn),如不同光照條件、姿態(tài)變化、表情類別定義等。近年來,深度學(xué)習(xí)在計算機(jī)視覺任務(wù)中取得了巨大成功,尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識別領(lǐng)域的表現(xiàn)尤為突出。本博客將采用MobileNet作為基礎(chǔ)架構(gòu),以其輕量級、高效的特點,實現(xiàn)一個實時的人臉表情識別系統(tǒng)。本博客的貢獻(xiàn)點主要包括以下幾個方面:
詳細(xì)介紹了基于MobileNet的人臉表情識別系統(tǒng)的實現(xiàn)過程;
使用MATLAB實現(xiàn)了系統(tǒng),使得開發(fā)者能夠更方便地進(jìn)行調(diào)試和優(yōu)化;
提供了多種表情識別場景,如圖片識別、視頻識別和攝像頭識別;
結(jié)合了兩個公開的表情識別數(shù)據(jù)集,F(xiàn)er2013和CK+,進(jìn)行模型訓(xùn)練和評估;
設(shè)計了一個簡潔的GUI界面,方便用戶進(jìn)行實時表情識別。

1. 相關(guān)工作
隨著深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域的廣泛應(yīng)用,許多研究者開始嘗試?yán)蒙疃葘W(xué)習(xí)技術(shù)對人臉表情進(jìn)行識別。在本節(jié)中,我們將回顧近年來深度學(xué)習(xí)在表情識別領(lǐng)域的發(fā)展,涉及不同的網(wǎng)絡(luò)結(jié)構(gòu)、優(yōu)化技術(shù)以及數(shù)據(jù)增強(qiáng)方法等。(本部分參考文獻(xiàn)見文末)
首先,我們來回顧一下基于深度學(xué)習(xí)的表情識別的一些基礎(chǔ)工作。Goodfellow et al. [1] 提出了一種名為深度信念網(wǎng)絡(luò)(DBN)的表情識別方法,并在Fer2013數(shù)據(jù)集上進(jìn)行了測試。Lopes et al. [2] 利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行表情識別,實現(xiàn)了較高的識別準(zhǔn)確率。這些工作為后續(xù)基于深度學(xué)習(xí)的表情識別研究奠定了基礎(chǔ)。隨后,研究者們開始嘗試使用不同的網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)化方法來提高表情識別的性能。例如,Kahou et al. [3] 提出了一種融合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的多模態(tài)表情識別方法。Mollahosseini et al. [4] 使用Inception模塊構(gòu)建了一個名為FECNet的深度表情識別網(wǎng)絡(luò),取得了顯著的性能提升。此外,還有研究者嘗試?yán)眠w移學(xué)習(xí)技術(shù),如Zhang et al. [5] 利用VGG-Face預(yù)訓(xùn)練模型進(jìn)行表情識別任務(wù),有效地提高了識別性能。
數(shù)據(jù)增強(qiáng)方法在深度學(xué)習(xí)中具有重要的作用,尤其是對于數(shù)據(jù)不足的情況。Khorrami et al. [6] 提出了一種基于生成對抗網(wǎng)絡(luò)(GAN)的數(shù)據(jù)增強(qiáng)方法,以提高表情識別性能。Kaya et al. [7] 將分?jǐn)?shù)融合和數(shù)據(jù)增強(qiáng)方法應(yīng)用于表情識別任務(wù),實現(xiàn)了較大的性能提升。此外,還有研究者通過多任務(wù)學(xué)習(xí)來進(jìn)行表情識別,如Liu et al. [8] 提出了一種多任務(wù)學(xué)習(xí)的表情識別方法,同時學(xué)習(xí)面部屬性和表情識別任務(wù)。
近年來,輕量級神經(jīng)網(wǎng)絡(luò)在表情識別任務(wù)中也得到了廣泛關(guān)注,這些輕量級網(wǎng)絡(luò)具有較低的計算復(fù)雜性和內(nèi)存需求,使得它們更適用于移動設(shè)備和實時應(yīng)用。Howard et al. [9] 提出了MobileNet網(wǎng)絡(luò),通過引入深度可分離卷積(depthwise separable convolution)減少參數(shù)數(shù)量和計算量。Sandler et al. [10] 提出了MobileNetV2,引入了線性瓶頸和逆殘差結(jié)構(gòu),進(jìn)一步提高了計算效率?;贛obileNet的表情識別方法也取得了顯著的成果,例如,Hu et al. [11] 提出了一種基于MobileNetV2的輕量級表情識別網(wǎng)絡(luò),實現(xiàn)了較高的識別準(zhǔn)確率和實時性能。
通過以上文獻(xiàn)綜述,我們可以看到深度學(xué)習(xí)在人臉表情識別領(lǐng)域的廣泛應(yīng)用和發(fā)展。在本博客中,我們將基于MobileNet架構(gòu),結(jié)合Fer2013和CK+48數(shù)據(jù)集,實現(xiàn)一個基于MATLAB的實時人臉表情識別系統(tǒng),同時提供多種表情識別場景,如圖片識別、視頻識別和攝像頭識別,以及設(shè)計一個簡潔的GUI界面,方便用戶進(jìn)行實時表情識別。

2. 系統(tǒng)界面演示效果
在本節(jié)中,我們將展示基于MobileNet的人臉表情識別系統(tǒng)的界面效果。系統(tǒng)提供了三種識別場景:圖片識別、視頻識別和攝像頭識別。為了使用戶更好地體驗系統(tǒng),我們設(shè)計了一個簡潔易用的GUI界面。
(1)圖片識別:用戶可以選擇一張包含人臉表情的圖片,系統(tǒng)將識別并顯示圖片中的表情。在GUI界面上,用戶可以點擊“選擇圖片”按鈕,選擇本地的一張圖片,然后系統(tǒng)將自動識別圖片中的表情,并在圖片旁邊顯示識別結(jié)果。

(2)批量圖片識別:用戶可以選擇圖片文件夾實現(xiàn)批量圖片識別,系統(tǒng)將識別并顯示圖片中的表情。

(3)視頻識別:用戶可以選擇一個包含人臉表情的視頻文件,系統(tǒng)將實時識別并顯示視頻中的表情。在GUI界面上,用戶可以點擊“選擇視頻”按鈕,選擇本地的一個視頻文件,然后系統(tǒng)將自動播放視頻并實時識別視頻中的表情,同時在視頻畫面上顯示識別結(jié)果。

(4)攝像頭識別:用戶可以通過電腦攝像頭進(jìn)行實時表情識別。在GUI界面上,用戶可以點擊“攝像頭識別”按鈕,系統(tǒng)將打開攝像頭并實時識別用戶的表情,同時在攝像頭畫面上顯示識別結(jié)果。

(5)更換模型和修改文字圖標(biāo):用戶可以點擊右側(cè)的模型選擇按鈕更換不同的模型,對于界面中的文字和圖標(biāo)的修改請在APP設(shè)計工具中修改。

3. 表情識別數(shù)據(jù)集
為了訓(xùn)練和評估所設(shè)計的人臉表情識別系統(tǒng),我們需要使用表情識別相關(guān)的數(shù)據(jù)集。在本節(jié)中,我們介紹幾個公開的表情識別數(shù)據(jù)集,并給出我們最終選擇的數(shù)據(jù)集Fer2013和CK+48。
JAFFE (Japanese Female Facial Expression) 數(shù)據(jù)集:JAFFE數(shù)據(jù)集是日本女性面部表情數(shù)據(jù)集,包含了213張由10名日本女性演員表演的7種基本面部表情(憤怒、厭惡、恐懼、快樂、悲傷、驚訝和中性)的灰度圖像。每種表情都有3個不同的程度。此數(shù)據(jù)集較小,但具有較高的標(biāo)注準(zhǔn)確率。官網(wǎng)鏈接:http://www.kasrl.org/jaffe.html
KDEF (Karolinska Directed Emotional Faces) 數(shù)據(jù)集:KDEF數(shù)據(jù)集包含了4900張由70名瑞典模特表演的7種基本面部表情(憤怒、厭惡、恐懼、快樂、悲傷、驚訝和中性)的彩色圖像。每張圖像均以五個不同的角度拍攝。這個數(shù)據(jù)集具有較大的樣本量和多角度表情圖片。官網(wǎng)鏈接:https://kdef.se/

AffectNet 數(shù)據(jù)集:AffectNet是一個大規(guī)模的面部表情數(shù)據(jù)集,包含約42萬張面部表情圖像。每張圖像都標(biāo)注了表情類別和面部活動單元(AU)信息。AffectNet適合訓(xùn)練和評估深度學(xué)習(xí)模型,尤其是用于自然環(huán)境中的面部表情識別。官網(wǎng)鏈接:http://mohammadmahoor.com/affectnet/
FERG (Facial Expression Research Group) 數(shù)據(jù)集:FERG數(shù)據(jù)集是一個包含人工生成面部表情的數(shù)據(jù)集,包括6個虛擬角色的6種表情(憤怒、厭惡、恐懼、快樂、悲傷和驚訝)的圖像。此數(shù)據(jù)集的優(yōu)點是可以通過渲染技術(shù)生成大量樣本,但它的局限性在于不包含真實人臉圖像。官網(wǎng)鏈接:https://grail.cs.washington.edu/projects/deepexpr/ferg-db.html
Fer2013:這是一個廣泛使用的表情識別數(shù)據(jù)集,由Goodfellow等人于2013年發(fā)布[1]。Fer2013包含約35,000張灰度圖像,涵蓋了7種不同的表情類別,包括憤怒、厭惡、恐懼、快樂、悲傷、驚訝和中性。Fer2013數(shù)據(jù)集具有多樣性和較大規(guī)模的優(yōu)點,適合訓(xùn)練深度學(xué)習(xí)模型。官網(wǎng)鏈接:https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data

CK+:CK+(Cohn-Kanade+)數(shù)據(jù)集是由Lucey等人于2010年發(fā)布的一個面部表情數(shù)據(jù)集。CK+數(shù)據(jù)集包含了593個視頻序列,涵蓋了8種不同的表情類別,包括憤怒、厭惡、恐懼、快樂、悲傷、驚訝、中性和輕蔑。CK+數(shù)據(jù)集具有較高的標(biāo)注準(zhǔn)確率,提供了動態(tài)表情信息。鏈接:https://paperswithcode.com/dataset/ck
我們選擇Fer2013和CK+作為我們的數(shù)據(jù)集,原因如下:首先,F(xiàn)er2013具有較大規(guī)模和多樣性,有利于訓(xùn)練出泛化能力較強(qiáng)的模型;其次,CK+數(shù)據(jù)集雖然樣本量相對較小,但提供了動態(tài)表情信息和較高的標(biāo)注準(zhǔn)確率,可以作為補(bǔ)充數(shù)據(jù)集,提高模型的表現(xiàn)。我們將結(jié)合這兩個數(shù)據(jù)集進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和評估。

4. 網(wǎng)絡(luò)訓(xùn)練與評估
在本節(jié)中,我們將通過訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來實現(xiàn)表情識別任務(wù)。實際上,表情識別可以被視為一個分類任務(wù),我們需要在給定的人臉圖像中識別出一種表情。為了簡化數(shù)據(jù)處理過程,我們將Fer2013數(shù)據(jù)集原本的csv文件轉(zhuǎn)換成圖片格式,并將它們存放在train、test、val文件夾下。

首先,我們需要清除當(dāng)前環(huán)境并設(shè)置隨機(jī)數(shù)種子以保證結(jié)果的一致性:
接著,我們讀取訓(xùn)練、驗證和測試圖像文件夾,創(chuàng)建ImageDatastore對象:
確定分類類別數(shù)量:
在這里,我們選擇使用MobileNetV2作為我們的基本神經(jīng)網(wǎng)絡(luò)模型。首先,我們創(chuàng)建一個MobileNetV2實例,并獲取其層和輸入尺寸:
此時打印網(wǎng)絡(luò)的結(jié)構(gòu)如下所示:
接下來,我們需要對網(wǎng)絡(luò)進(jìn)行微調(diào),以便將其應(yīng)用于我們的表情識別任務(wù)。我們首先使用全連接層替換原始網(wǎng)絡(luò)中的Logits層,并為其設(shè)置權(quán)重和偏置的學(xué)習(xí)率因子:
然后,我們將分類層替換為一個新的分類層:
接下來,我們設(shè)置數(shù)據(jù)增強(qiáng)選項,并創(chuàng)建增強(qiáng)后的ImageDatastore對象:
我們選擇使用隨機(jī)梯度下降優(yōu)化器(SGDM)作為我們的訓(xùn)練優(yōu)化器,并設(shè)置訓(xùn)練選項,包括MiniBatchSize、MaxEpochs、InitialLearnRate等。我們還設(shè)置驗證數(shù)據(jù)和驗證頻率,以便在訓(xùn)練過程中評估網(wǎng)絡(luò)性能:
現(xiàn)在我們已經(jīng)準(zhǔn)備好訓(xùn)練我們的神經(jīng)網(wǎng)絡(luò)了。使用以下代碼進(jìn)行訓(xùn)練:
訓(xùn)練過程中的輸出如下:

訓(xùn)練完成后,我們將訓(xùn)練好的模型保存到一個名為MobileNet_emotion.mat的文件中:
接下來,我們使用測試數(shù)據(jù)集評估模型的性能:
隨機(jī)選擇4個測試圖像并顯示它們的預(yù)測結(jié)果:
計算模型在測試集上的準(zhǔn)確率:
最后,繪制混淆矩陣以直觀地展示模型的分類性能:

至此,我們已經(jīng)成功地訓(xùn)練了一個基于MobileNetV2的表情識別神經(jīng)網(wǎng)絡(luò),并對其進(jìn)行了性能評估。在下一節(jié)中,我們將介紹如何將這個模型整合到一個完整的系統(tǒng)中。

5. 系統(tǒng)實現(xiàn)
在本節(jié)中,我們將介紹如何將已訓(xùn)練好的模型整合到一個完整的表情識別系統(tǒng)中。首先,我們將展示如何使用訓(xùn)練好的模型對攝像頭畫面進(jìn)行實時檢測并標(biāo)注表情,然后結(jié)合GUI界面設(shè)計框架和實現(xiàn)。
值得注意的是,表情識別模型只對人臉部分進(jìn)行表情分類。因此,在處理攝像頭捕獲的實時畫面之前,我們需要先檢測畫面中的人臉。為此,我們使用了vision.CascadeObjectDetector()函數(shù)來實現(xiàn)人臉檢測。該函數(shù)創(chuàng)建了一個級聯(lián)對象檢測器,用于檢測圖像中的人臉。
首先,我們加載所需的依賴項和模型,并獲取模型的輸入尺寸和定義類別名稱:
然后,我們創(chuàng)建一個攝像頭對象、一個用于顯示實時視頻的窗口以及一個用于保存帶標(biāo)簽的視頻的VideoWriter對象:
在循環(huán)中,我們不斷從攝像頭捕獲圖像,然后使用emoRec函數(shù)對圖像中的人臉進(jìn)行表情識別。接著,我們將識別到的表情標(biāo)簽添加到圖像上,并將結(jié)果顯示在窗口中:
最后,在用戶關(guān)閉視頻窗口時,我們關(guān)閉視頻寫入、釋放視頻窗口并刪除攝像頭對象:
這樣,我們就成功地將訓(xùn)練好的表情識別模型整合到一個實時的人臉表情識別系統(tǒng)中。系統(tǒng)將不斷捕獲攝像頭畫面,對畫面中的人臉進(jìn)行表情識別,并實時顯示識別結(jié)果。演示的效果如下:

接下來,我們將設(shè)計一個基于MATLAB App Designer的GUI界面,以便用戶可以更方便地使用我們的表情識別系統(tǒng)。以下是一個簡單的設(shè)計框架:創(chuàng)建一個新的MATLAB App Designer項目。在設(shè)計界面中,添加以下組件:
選擇圖片按鈕:用戶可以通過單擊此按鈕來選擇要進(jìn)行表情識別的圖片文件。
播放視頻按鈕:用戶可以通過單擊此按鈕來播放要進(jìn)行表情識別的視頻文件。
攝像頭開啟按鈕:用戶可以通過單擊此按鈕來開啟計算機(jī)上的攝像頭,并開始進(jìn)行實時的表情識別。
選擇識別模型:用戶可以通過此選項選擇要使用的表情識別模型(例如,我們可以提供MobileNet和EfficientNet等不同的模型)。
顯示結(jié)果:此處顯示表情識別的結(jié)果,例如識別出的表情類別、置信度等信息。

分別為打開圖片、視頻、攝像頭、模型的按鈕添加一個回調(diào)函數(shù),以便在用戶單擊該按鈕時執(zhí)行相應(yīng)的操作。在此回調(diào)函數(shù)中,可以使用上面提供的代碼片段進(jìn)行圖片讀取、預(yù)處理、表情識別和結(jié)果顯示。至此,我們已經(jīng)成功地將訓(xùn)練好的表情識別模型整合到一個完整的系統(tǒng)中。用戶可以通過GUI界面選擇圖片,然后系統(tǒng)將對圖片中的人臉進(jìn)行表情識別,并顯示識別結(jié)果。

下載鏈接
若您想獲得博文中涉及的實現(xiàn)完整全部程序文件(包括測試圖片、視頻,mlx, mlapp文件等,如下圖),這里已打包上傳至博主的面包多平臺,見可參考博客與視頻,已將所有涉及的文件同時打包到里面,點擊即可運(yùn)行,完整文件截圖如下:

在文件夾下的資源顯示如下圖所示:

注意:該代碼采用MATLAB R2022a開發(fā),經(jīng)過測試能成功運(yùn)行,運(yùn)行界面的主程序為Emotion_UI.mlapp,測試視頻腳本可運(yùn)行test_emotion_video.py,測試攝像頭腳本可運(yùn)行test_emotion_camera.mlx。為確保程序順利運(yùn)行,請使用MATLAB2022a運(yùn)行并在“附加功能管理器”(MATLAB的上方菜單欄->主頁->附加功能->管理附加功能)中添加有以下工具。

完整資源中包含數(shù)據(jù)集及訓(xùn)練代碼,環(huán)境配置與界面中文字、圖片、logo等的修改方法請見視頻,項目完整文件下載請見以下鏈接給出:???
完整代碼下載:https://mbd.pub/o/bread/mbd-ZJiYlpdu
參考視頻演示:https://www.bilibili.com/video/BV1ts4y1X71R/

6. 總結(jié)與展望
本文詳細(xì)介紹了基于MobileNet的人臉表情識別系統(tǒng)的設(shè)計與實現(xiàn),包括數(shù)據(jù)集的選擇、模型訓(xùn)練、GUI界面的設(shè)計等方面。通過本文的介紹,我們可以了解到如何使用深度學(xué)習(xí)技術(shù)實現(xiàn)人臉表情識別,以及如何構(gòu)建一個GUI界面來實現(xiàn)人臉表情的實時檢測。同時,本文也提供了詳細(xì)的代碼實現(xiàn)和資源文件,為相關(guān)領(lǐng)域的研究人員和新入門者提供了一個參考。未來的研究可以進(jìn)一步改進(jìn)模型的準(zhǔn)確性和魯棒性,并應(yīng)用于更廣泛的領(lǐng)域和應(yīng)用場景中。
由于博主能力有限,博文中提及的方法即使經(jīng)過試驗,也難免會有疏漏之處。希望您能熱心指出其中的錯誤,以便下次修改時能以一個更完美更嚴(yán)謹(jǐn)?shù)臉幼?,呈現(xiàn)在大家面前。同時如果有更好的實現(xiàn)方法也請您不吝賜教。

參考文獻(xiàn)
[1] Goodfellow, I., et al. "Challenges in Representation Learning: A report on three machine learning contests." Neural Networks 64 (2015): 59-63.
[2] Lopes, A. T., et al. "Facial expression recognition with convolutional neural networks: coping with few data and the training sample order." Pattern Recognition 61 (2017): 610-628.
[3] Kahou, S. E., et al. "EmoNets: Multimodal deep learning approaches for emotion recognition in video." Journal on Multimodal User Interfaces 10.2 (2016): 99-111.
[4] Mollahosseini, A., et al. "AffectNet: A database for facial expression, valence, and arousal computing in the wild." IEEE Transactions on Affective Computing 10.1 (2019): 18-31.
[5] Zhang, K., et al. "Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks." IEEE Signal Processing Letters 23.10 (2016): 1499-1503.
[6] Khorrami, P., et al. "Do deep neural networks learn facial action units when doing expression recognition?" Proceedings of the IEEE International Conference on Computer Vision Workshops (2015): 19-27.
[7] Kaya H, Gürp?nar F, Salah A A. Video-based emotion recognition in the wild using deep transfer learning and score fusion[J]. Image and Vision Computing, 2017, 65: 66-75.
[8] Liu, Z., et al. "Joint face detection and alignment using multitask cascaded convolutional networks." IEEE Signal Processing Letters 23.10 (2016): 1499-1503.
[9] Howard, A. G., et al. "MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications." arXiv preprint arXiv:1704.04861 (2017).
[10] Sandler, M., et al. "MobileNetV2: Inverted Residuals and Linear Bottlenecks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (2018): 4510-4520.
[11] Hu L, Ge Q. Automatic facial expression recognition based on MobileNetV2 in Real-time[C]//Journal of Physics: Conference Series. IOP Publishing, 2020, 1549(2): 022136.