最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

資源分享 | 情緒腦電研究公開數(shù)據(jù)集

2023-09-23 10:24 作者:茗創(chuàng)科技  | 我要投稿

SEED

SEED數(shù)據(jù)集是由上海交大類腦計(jì)算與機(jī)器智能研究中心(BCMI)開發(fā)的。該數(shù)據(jù)集是基于腦電的情緒分類任務(wù)而設(shè)計(jì)的數(shù)據(jù)集。該數(shù)據(jù)集記錄了15名被試在觀看積極、中性和消極情緒電影片段時(shí)的EEG信號,每個視頻片段的時(shí)間為3-5分鐘。每個參與者重復(fù)采集三天, 每次間隔天數(shù)大約一個星期。SEED數(shù)據(jù)集使用62通道的ESI NeuroScan設(shè)備以1 kHz的采樣率進(jìn)行記錄,然后降采樣至200Hz,并使用0-75Hz的帶通濾波器去除EEG信號數(shù)據(jù)中的偽跡。

網(wǎng)址:

https://bcmi.sjtu.edu.cn/~seed/index.html


參考文獻(xiàn):

W.L. Zheng, J.Y. Zhu, B.L. Lu, Identifying stable patterns over time for emotion recognition from EEG, IEEE Trans. Affect. Comput. 10 (3) (2017) 417–429.


SEED-IV

SEED-IV由SEED數(shù)據(jù)集演變而來。SEED-IV使用64通道的ESI NeuroScan系統(tǒng)和SMI眼動儀收集了15名受試者(7位男性,8位女性)的數(shù)據(jù)。但與SEED數(shù)據(jù)集的不同之處在于,每個受試者每次實(shí)驗(yàn)都需要觀看四種不同情緒的電影片段,其中每種情緒類別分別對應(yīng)6個片段,即6個“快樂”,6個“悲傷”,6個“恐懼”和6個“中性”的電影片段,用來誘發(fā)實(shí)驗(yàn)所需的情緒。每個電影片段持續(xù)約2分鐘。在觀察過程中,受試者在觀看2分鐘電影片段之前收到5秒的提示,隨后進(jìn)行45秒的自我評估。每個參與者重復(fù)采集三天,并且每次間隔天數(shù)大約一個星期。EEG數(shù)據(jù)降采樣至200Hz,并在1-70Hz的頻率范圍內(nèi)進(jìn)行帶通濾波。

網(wǎng)址:

https://bcmi.sjtu.edu.cn/home/seed/seed-iv.html


參考文獻(xiàn):

W.L. Zheng, W. Liu, Y. Lu, B.L. Lu, A. Cichocki, Emotionmeter: a multimodal framework for recognizing human emotions, IEEE Trans. Cybern. 49 (3) (2018) 1110–1122.


DEAP

DEAP數(shù)據(jù)集是一個較早公開的用于情緒分類的腦電數(shù)據(jù)集。DEAP數(shù)據(jù)集包含來自32名受試者的EEG和外周生理信號。根據(jù)國際上常用的10-20電極系統(tǒng),記錄每名受試者在觀看40個1分鐘的視頻片段過程中產(chǎn)生的腦電信號,并采用Biosemi ActiveTwo設(shè)備收集數(shù)據(jù)。每個視頻呈現(xiàn)后,讓受試者根據(jù)喚醒、效價(jià)、喜愛度、優(yōu)勢度等方面進(jìn)行自我評估。EEG數(shù)據(jù)采樣率從512Hz降至128Hz,然后應(yīng)用4.0-45Hz的帶通濾波以消除EEG數(shù)據(jù)中的噪聲。

網(wǎng)址:

http://www.eecs.qmul.ac.uk/mmv/datasets/deap/


參考文獻(xiàn):

S. Koelstra, C. Muhl, M. Soleymani, J.S. Lee, A. Yazdani, T. Ebrahimi, I. Patras, Deap: a database for emotion analysis using physiological signals, IEEE trans. affect. comput. 3 (1) (2011) 18–31.


MAHNOB-HCI

MAHNOB-HCI數(shù)據(jù)集通過多模態(tài)方法來識別情緒狀態(tài),其中包括面部視頻、音頻和腦電信號,以及外周/中樞神經(jīng)系統(tǒng)生理信號。在該數(shù)據(jù)集中,通過32通道的頭戴式設(shè)備以256Hz的采樣率記錄27名參與者在觀看20個短視頻(分為兩個獨(dú)立實(shí)驗(yàn))期間的EEG信號。這些視頻片段的持續(xù)時(shí)間從35到117秒不等。在第一個實(shí)驗(yàn)中,受試者觀看了20個誘發(fā)情緒的視頻,并報(bào)告他們所經(jīng)歷的情緒。在第二個實(shí)驗(yàn)中,首先呈現(xiàn)短視頻和圖像(此時(shí)并未附帶任何標(biāo)簽),然后再次呈現(xiàn)帶有正確和錯誤標(biāo)簽的視頻和圖像。需要參與者對這些標(biāo)簽進(jìn)行判斷并進(jìn)行反饋,因此記錄的視頻和身體反應(yīng)被分開并存儲在數(shù)據(jù)庫中。

網(wǎng)址:

https://mahnob-db.eu/hci-tagging/


參考文獻(xiàn):

M. Soleymani, J. Lichtenauer, T. Pun, M. Pantic, A multimodal database for affect recognition and implicit tagging, IEEE trans. affect. comput. 3 (1) (2011) 42–55.


AMIGOS

AMIGOS數(shù)據(jù)集包括一個14通道的腦電信號和3個外周生理信號。數(shù)據(jù)是在兩種實(shí)驗(yàn)設(shè)置下進(jìn)行收集的,在第一階段,包括40名受試者,要求他們觀看16段情緒短片。在第二階段,讓受試者觀看四段較長的視頻,可以單獨(dú)觀看或以小組形式觀看,同時(shí)記錄他們的ECG、EEG和GSR信號。實(shí)驗(yàn)還錄制了高清正面、全身和深度視頻,以進(jìn)行進(jìn)一步的分析。在觀看完視頻后,受試者根據(jù)1-9級對自身的喚醒度、效價(jià)、喜好度和支配度進(jìn)行了評估。在預(yù)處理過程中,將EEG信號降采樣至128Hz,并應(yīng)用4.0-45Hz的帶通濾波以去除背景噪聲。

網(wǎng)址:

http://www.eecs.qmul.ac.uk/mmv/datasets/amigos/index.html


參考文獻(xiàn):

J.A. Miranda-Correa, M.K. Abadi, N. Sebe, I. Patras, Amigos: a dataset for affect, personality and mood research on individuals and groups, IEEE Trans. Affect. Comput. 12 (2) (2018) 479–493.


MPED

MPED數(shù)據(jù)集由EEG、呼吸(RSP)和心電圖(ECG)等模態(tài)生理信號組成。共包含23名受試者(其中10名男性和13名女性),他們觀看了28段視頻。這些視頻刺激旨在誘發(fā)七種不同的情緒,即喜悅、幽默、憤怒、厭惡、恐懼、悲傷和中性。實(shí)驗(yàn)前,對所有刺激材料進(jìn)行準(zhǔn)確標(biāo)記和評估,以確保達(dá)到預(yù)期的情緒水平。使用62通道ESI NeuroScan設(shè)備記錄腦電信號,采樣率為1 kHz。在預(yù)處理過程中,為了消除眼電(EOG)和肌電(EMG)偽跡,對原始EEG信號進(jìn)行手動濾波處理。

網(wǎng)址:

https://github.com/Tengfei000/MPED


參考文獻(xiàn):

T. Song, W. Zheng, C. Lu, Y. Zong, X. Zhang, Z. Cui, MPED: a multi-modal physiological emotion database for discrete emotion recognition, IEEE Access 7 (2019) 12177–12191.


AffectNet

AffectNet是一個面部表情數(shù)據(jù)庫。AffectNet包含100多萬張面部圖像,其中約一半的圖像(約44萬張)進(jìn)行了七種離散面部表情(分類模型)以及效價(jià)和喚醒度(維度模型)的手動標(biāo)注。AffectNet是迄今為止規(guī)模最大的面部表情、效價(jià)和喚醒度數(shù)據(jù)庫,可以在兩種不同的情緒模型中進(jìn)行自動面部表情識別的研究。該研究使用兩種基線深度神經(jīng)網(wǎng)絡(luò)對圖像進(jìn)行分類(分類模型),并預(yù)測了效價(jià)和喚醒度的強(qiáng)度(維度模型)。各種評估指標(biāo)表明,深度神經(jīng)網(wǎng)絡(luò)性能超過了傳統(tǒng)機(jī)器學(xué)習(xí)方法和現(xiàn)有的面部表情識別系統(tǒng)。

網(wǎng)址:

http://mohammadmahoor.com/affectnet/


參考文獻(xiàn):

Mollahosseini A, Hasani B, Mahoor M H. Affectnet: A database for facial expression, valence, and arousal computing in the wild. IEEE Transactions on Affective Computing, 2017, 10(1): 18-31.


DREAMER

DREAMER數(shù)據(jù)集是一個多模態(tài)數(shù)據(jù)集,該數(shù)據(jù)集包括來自23名受試者的EEG和ECG信號。這些信號通過14通道EEG電極進(jìn)行采集,采樣率為128Hz。在受試者觀看18個視頻片段時(shí)收集EEG數(shù)據(jù),每個視頻片段旨在引發(fā)九種基本情緒之一,即平靜、愉悅、憤怒、悲傷、快樂、厭惡、興奮、驚訝和恐懼。這些視頻在65-393秒的時(shí)間內(nèi)持續(xù)播放,從而誘發(fā)受試者的情緒體驗(yàn)。受試者在1-5級評分量表上對其喚醒度、效價(jià)和支配度進(jìn)行自我評估。每位參與者的數(shù)據(jù)集分為三個部分:1)與平靜相關(guān)的18個基線信號段;2)經(jīng)驗(yàn)信號段;3)18個相關(guān)標(biāo)簽。

網(wǎng)址:

https://www.zenodo.org/record/546113


參考文獻(xiàn):

S. Katsigiannis, N. Ramzan, DREAMER: a database for emotion recognition through EEG and ECG signals from wireless low-cost off-the-shelf devices, IEEE j. biomed. health inf. 22 (1) (2017) 98–107.


DECAF

DECAF是一個多模態(tài)情緒數(shù)據(jù)集。與DEAP和MAHNOB-HCI等數(shù)據(jù)集不同,DECAF包含(1)使用腦磁圖(MEG)傳感器獲取大腦信號,該傳感器幾乎不需要與用戶的頭皮進(jìn)行物理接觸,從而促進(jìn)了更自然的情感反應(yīng);(2)30名參與者對DEAP中使用的40個一分鐘音樂視頻片段和36個電影片段的外顯和內(nèi)隱情感反應(yīng),從而實(shí)現(xiàn)了EEG與MEG模式以及電影與音樂刺激的情感識別比較。除MEG數(shù)據(jù)外,DECAF還包括同步記錄的近紅外(NIR)面部視頻、水平眼電圖(hEOG)、心電圖(ECG)和斜方肌肌電圖(tEMG)外周生理反應(yīng)數(shù)據(jù)。

網(wǎng)址:

https://decaf-dataset.github.io/


參考文獻(xiàn):

M. K. Abadi, R. Subramanian, S. M. Kia, P. Avesani, I. Patras, and N. Sebe, “DECAF: MEG-based multimodal database for decoding affective physiological responses,” IEEE Trans. Affective Comput., vol. 6, no. 3, pp. 209–222, Jul. 2015.


SDEA

SDEA數(shù)據(jù)集包括30名受試者(13名男性和17名女性)的EEG信號,平均年齡為20歲。在參與者觀看12個中文視頻片段后記錄EEG數(shù)據(jù),這些視頻旨在引發(fā)中性、幽默和憤怒三種情緒。為了誘發(fā)目標(biāo)情緒狀態(tài),使用了經(jīng)過心理學(xué)方法驗(yàn)證的MPED刺激。在采集EEG信號之前,進(jìn)行主觀自我評估,以確保參與者的情緒狀態(tài)與刺激材料相一致。使用16通道NeuroScan設(shè)備以1 kHz的采樣率記錄數(shù)據(jù)。


參考文獻(xiàn):

T. Song, W. Zheng, S. Liu, Y. Zong, Z. Cui, Y. Li, Graph-Embedded convolutional neural network for image-based EEG emotion recognition, IEEE Trans. Emerg. Topics Comput. 10(3) (2021 Jun 8) pp. 1399-1413.


DAI-EF

DAI-EF數(shù)據(jù)集由腦電信號和面部表情組成,用于情緒識別。該數(shù)據(jù)集通過對視頻片段的生理和行為反應(yīng)來確定情緒。采用64通道Biosemi ActiveTwo裝置采集腦電信號,并收集了GSR、呼吸、眼動和面部視頻信號。在預(yù)試驗(yàn)期間,除了中性情緒場景外,還選擇100個視頻片段來引發(fā)受試者的情緒狀態(tài)。這些視頻是從熱門商業(yè)廣告和用戶制作的視頻中截取的短片段(1-2分鐘)。然后,20名參與者基于六種基本情緒(即憤怒、厭惡、恐懼、喜悅、悲傷和驚訝)對這些視頻片段進(jìn)行評分(7點(diǎn)李克特量表)。


參考文獻(xiàn):

S. Rayatdoost, M. Soleymani, Cross-corpus EEG-based emotion recognition, in: 2018 IEEE 28th International Workshop on Machine Learning for Signal Processing (MLSP), IEEE, 2018, September, pp. 1–6.


LUMED

LUMED-2數(shù)據(jù)集是由英國拉夫堡大學(xué)和土耳其哈塞特佩大學(xué)合作創(chuàng)建的多模態(tài)情緒數(shù)據(jù)集。該數(shù)據(jù)集記錄了13名受試者在接受音頻和視覺刺激時(shí)的EEG信號。所有刺激的總持續(xù)時(shí)間為8分鐘50秒,并從互聯(lián)網(wǎng)上選取視頻片段用于引發(fā)特定的情緒。在每個視頻片段之間,會呈現(xiàn)一個20秒的灰屏,以讓受試者有機(jī)會休息。每個階段結(jié)束后,要求受試者根據(jù)快樂、悲傷或中性類別來表示他們的情緒狀態(tài)。此外,使用640×480像素、30幀/秒的網(wǎng)絡(luò)攝像頭捕捉受試者的面部表情。EEG信號采用8通道的ENOBIO設(shè)備以500Hz的采樣率進(jìn)行記錄,然后通過0-75Hz范圍的帶通濾波器進(jìn)行預(yù)處理。


參考文獻(xiàn):

Y. Cimtay, E. Ekmekcioglu, S. Caglar-Ozhan, Cross-subject multimodal emotion recognition based on hybrid fusion, IEEE Access 8 (2020) 168865–168878.


注:以上所有腦電情緒研究的參考文獻(xiàn)可在公眾號后臺回復(fù)關(guān)鍵詞“情緒腦電”獲取。同時(shí)歡迎大家在下方留言補(bǔ)充更多的情緒腦電研究公開數(shù)據(jù)集,感激不盡。



小伙伴們關(guān)注茗創(chuàng)科技,將第一時(shí)間收到精彩內(nèi)容推送哦~


資源分享 | 情緒腦電研究公開數(shù)據(jù)集的評論 (共 條)

分享到微博請遵守國家法律
济南市| 太白县| 临潭县| 安阳县| 新沂市| 容城县| 延津县| 白河县| 景宁| 霍州市| 宁乡县| 沙雅县| 九寨沟县| 博白县| 宁强县| 梅州市| 南皮县| 金平| 罗甸县| 肇东市| 措勤县| 永康市| 南郑县| 砀山县| 镇原县| 安乡县| 上虞市| 黄骅市| 汝阳县| 平陆县| 镇沅| 天峨县| 方城县| 肇庆市| 萨嘎县| 金平| 阳西县| 体育| 韶山市| 石首市| 永登县|