《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于VGG16網絡的人臉情緒識別
基于VGG16網絡的人臉情緒識別
2022年電子技術應用第1期
蔡 靖,杜佳辰,王 慶,周泓任
吉林大學 儀器科學與電氣工程學院,吉林 長春130026
摘要: 近年來,如何通過人工智能對人的面部表情進行識別分析成為一個研究熱點,利用人工智能可以快速地分析人的面部情緒,并以此為基礎進行進一步研究。在深度學習中,傳統的卷積神經網絡存在對面部表情特征的提取不充分以及計算機參數量較大的問題,導致分類準確率較低。因此,提出了基于VGG16網絡的人臉表情識別算法,通過與InceptionV3、InceptionResNetV2、ResNet50等模型實驗對比,結果表明,VGG16神經網絡在FER2013PLUS測試數據集上的識別準確率為79%,準確率比傳統的卷積神經網絡高。
中圖分類號: TP183;TP391.41
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.211516
中文引用格式: 蔡靖,杜佳辰,王慶,等. 基于VGG16網絡的人臉情緒識別[J].電子技術應用,2022,48(1):67-70,75.
英文引用格式: Cai Jing,Du Jiachen,Wang Qing,et al. Facial emotion recognition based on VGG16 network[J]. Application of Electronic Technique,2022,48(1):67-70,75.
Facial emotion recognition based on VGG16 network
Cai Jing,Du Jiachen,Wang Qing,Zhou Hongren
College of Instrumentation & Electrical Engineering,Jilin University,Changchun 130026,China
Abstract: In recent years, how to recognize and analyze people′s facial expressions through artificial intelligence has become a research hotspot. Using artificial intelligence can quickly analyze people′s facial emotions, and further research is carried out on this basis. In deep learning, the traditional convolutional neural network can not extract facial expression features sufficiently, and the amount of computer parameters is large, which leads to low classification accuracy. Therefore, a facial expression recognition algorithm based on VGG16 neural network is proposed. Compared with the model experiments of InceptionV3, InceptionResNetV2 and ResNet50, the results show that the recognition accuracy of VGG16 neural network on FER2013PLUS test data set is 79%, which is higher than that of traditional convolution neural network.
Key words : deep learning;convolutional neural network;emotion recognition;VGG16

0 引言

    Hinton等人在研究深度卷積神經網絡中通過引入ReLU函數以及采用多GPU訓練等方式加快了網絡的訓練速度并提高了網絡模型的準確率[1]。LeCun等人表明深度學習通過使用反向傳播算法來發現大型數據集中的復雜結構,以指示機器應如何更改用于從前一層的表示計算每一層的表示的內部參數。深度卷積網絡在處理圖像、視頻、語音和音頻方面取得了突破性進展,而遞歸網絡則為文本和語音等順序數據帶來了光明[2]。隨著科學技術,尤其是計算機技術方面的不斷進步,人們對卷積神經網絡的研究也不斷深入,面部表情識別技術也隨之得到了發展。同時,一些問題也隨之而來,例如:如何提高面部表情分類的準確率,如何能夠在保證準確率的前提下減少計算的參數量等。

    Tang等人[3]提出將卷積神經網絡(Convolutional Neural Networks,CNN)中融入支持向量機(SVM),同時修改了全連接層中的計算損失值的方法,在表情數據集上的測試結果為71.2%,斬獲了當年Kaggle比賽的一等獎。崔鳳焦[4]將卷積神經網絡、Adaboost和支持向量機3種模型算法結構進行相互比較和設計優化,在Cohn-Kanade表情庫中實現了對人臉情緒的智能識別,平均識別率最高達到了74.92%。謝鑫等人[5]采用了耗時加長的杜鵑算法(CuckooSearch,CS)對ResNet50模型進行了變更改進,提高了準確率并使算法不會在調參時陷入梯度消失或爆炸的問題,準確率達到了74.3%。陳佳等人[6]提出一種基于卷積神經網絡集成的表情識別方法,子網結構在第一階段訓練3個子網絡,采用Batch Normalization方法和Dropout層來加速網絡的收斂。接著去掉3個子網絡的輸出層,使用SVM進行第二階段的訓練,完成最終表情的預測,其準確率達到了70.84%。




本文詳細內容請下載:http://www.viuna.cn/resource/share/2000003910




作者信息:

蔡  靖,杜佳辰,王  慶,周泓任

(吉林大學 儀器科學與電氣工程學院,吉林 長春130026)




wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 欧美日韩一区二区在线视频 | 国美女福利视频午夜精品 | 美日韩在线视频 | 日本一区二区不卡在线 | 黄色大片视频 | 99re在线观看| 欧美性精品videofree | 嫩草影院永久在线一二三四 | avav网站| 18性夜影院午夜寂寞影院免费 | 18成禁人视频免费网站 | 欧美精品xxxtv | 2017天天操 | 在线观看黄色毛片 | 免费的一极毛片在线播放 | 人人做| 免费h黄肉动漫在线观看 | 国产一级黄色大片 | 亚洲日本va中文字幕区 | 在线视频不卡国产在线视频不卡 | a级午夜毛片免费一区二区 a级午夜理论免费毛片 | 国产欧美日韩中文久久 | 国产第一页久久亚洲欧美国产 | 成人影院vs一区二区 | 青青青青久久精品国产h | 日韩三| 日本日b| 欧美在线视频一区二区三区 | 国产一区二区三区在线观看精品 | 夜夜夜夜爽 | 一个人在线免费观看www | 免费国产精品视频 | 欧美黑粗特黄午夜大片 | 香港一级a毛片在线播放 | 亚洲欧美日韩中文字幕在线 | 日本激情在线看免费观看视频 | 1插菊花| 透明奶罩的邻居三级在线观看 | 日日操夜夜摸 | 极品美女丝袜被的网站 | 三级网站免费 |