Eng

SEED 实验设定

Responsive image
Responsive image
从材料库中选择了十五个中国电影片段(积极、中性和消极情绪)作为实验中使用的刺激材料。 电影片段的选择标准如下:
(a) 整个实验的长度不应太长,以免引起受试者疲劳;
(b) 视频应该无需解释即可理解;
(c) 视频应该引发单一的目标情绪。

每个电影片段的持续时间约为4分钟。 每个电影片段都经过精心编辑,以创造连贯的情绪诱发并最大化情绪意义。 实验中使用的电影片段详情如下所示:
Responsive image
每个实验总共有15个试验。 每个片段前有5秒的提示,每个片段后有45秒用于自我评估和15秒的休息时间。呈现顺序的安排方式是,不连续显示针对相同情绪的两个电影片段。反馈方面,要求参与者在观看每个片段后立即完成问卷,报告他们对每个电影片段的情绪反应。详细范式如下所示:
Responsive image
使用62通道ESI NeuroScan系统SMI眼动追踪眼镜收集脑电信号和眼动数据。 实验场景和相应的脑电电极放置如下图所示。
Responsive image

受试者

15名中国受试者(7名男性和8名女性;平均年龄:23.27岁,标准差:2.37)参与了实验。 为保护个人隐私,我们隐藏了他们的姓名,并用1到15的数字表示每个受试者。 第1至第5名和第8至第14名受试者(共12名)有脑电和眼动数据,而第6、7和15名受试者只有脑电数据。

数据集概述

SEED由两部分组成:SEED_EEG和SEED_Multimodal。SEED_EEG包含15名受试者的脑电数据。SEED_Multimodal包含12名受试者的脑电和眼动数据。 这两部分中受试者的索引是相同的。例如,如果一名受试者在SEED_EEG中的索引是第1名,那么该受试者在SEED_Multimodal中的索引也是第1名。

  1. SEED_EEG
    1. 在"Preprocessed_EEG"文件夹中,有包含降采样、预处理和分段版本的脑电数据的MATLAB文件(.mat文件)。 数据被降采样至200 Hz。 应用了0-75 Hz的带通频率滤波器。 我们提取了与每部电影持续时间相对应的脑电片段。 总共有45个扩展名为.mat的文件(MATLAB文件),每个实验一个。 每个受试者进行了三次实验,间隔约一周。 每个受试者文件包含16个数组。 十五个数组包含一个实验中15个试验的分段预处理脑电数据(eeg_1~eeg_15,通道×数据)。 数组名称标签包含相应情绪标签 (-1表示消极,0表示中性,+1表示积极)。 通道的详细顺序包含在数据集中。 62通道的脑电帽根据国际10-20系统排列,如下所示:
      Responsive image
    2. 在"Extracted_Features"文件夹中,有包含脑电信号提取的差分熵(DE)特征的文件, 这是在[2]中首次提出的。 这些数据非常适合那些想要快速测试分类方法而不预处理原始脑电数据的人。文件格式与Data_preprocessed相同。我们还计算了27对半球不对称电极的DE特征之间的差异和比率,得到差分不对称性(DASM)和比率不对称性(RASM)特征。所有特征都通过传统的移动平均和线性动态系统(LDS)方法进行了进一步平滑处理。有关特征提取和特征平滑的更多详细信息,请参考[1]和[2]。
  2. SEED_Multimodal
    1. 'Chinese'文件夹包含四个子文件夹。
      1. 01-EEG-raw:包含.cnt格式的原始脑电信号,采样率为1000Hz。
      2. 02-EEG-DE-feature:包含使用1秒和4秒滑动窗口提取的DE特征,以及读取数据的源代码。
      3. 03-Eye-tracking-excel:包含眼动追踪信息的excel文件。
      4. 04-Eye-tracking-feature:包含pickle格式的眼动追踪特征和读取数据的源代码
    2. 'code'文件夹包含本文使用的模型的源代码。
      1. SVM、KNN和逻辑回归源代码。
      2. DNN源代码。
      3. 传统融合方法。
      4. 双模态深度自编码器。
      5. 具有注意力机制的深度典型相关分析。
      6. 源代码也可在GitHub上获取。
    3. 'information.xlsx':包含实验和受试者的信息。
      1. 对于电影片段,积极、消极和中性情绪分别标记为1、-1和0。
      2. 为构建分类器,我们对积极、消极和中性情绪分别使用2、0、1(即电影片段标签加1)。此外,我们没有在眼动追踪特征中保存标签,因为眼动追踪标签与脑电DE特征的标签相同。

下载

下载SEED数据集

参考文献

如果您觉得该数据集对您的研究有帮助,请在您的出版物中添加以下参考文献。

1. Wei-Long Zheng, and Bao-Liang Lu, Investigating Critical Frequency Bands and Channels for EEG-based Emotion Recognition with Deep Neural Networks, accepted by IEEE Transactions on Autonomous Mental Development (IEEE TAMD) 7(3): 162-175, 2015. [link] [BibTex]

2. Ruo-Nan Duan, Jia-Yi Zhu and Bao-Liang Lu, Differential Entropy Feature for EEG-based Emotion Classification, Proc. of the 6th International IEEE EMBS Conference on Neural Engineering (NER). 2013: 81-84. [link] [BibTex]