查看: 76|回复: 0
打印 上一主题 下一主题

[数据分析基础] BRAIN:额颞叶痴呆患者情绪加工的任务态功能磁共振研究 [复制链接]

Rank: 5Rank: 5

水晶
2285
心级
1915
精华
0
主题
178
帖子
184
跳转到指定楼层
楼主
发表于 前天?17:57 |只看该作者 |倒序浏览

? ?情绪信息加工受损是额颞叶痴呆综合征的一个核心特征,但其潜在的神经机制却很难被描述和测量。要想在该领域取得进展有赖于对大脑活动中的功能进行测量,以及对情绪加工中诸成分,如感觉解码、情绪分类和情绪传染等进行有效的分离。在功能测量方面,task-fMRI有着极强的优势,它可以通过观察受试者在加工任务时所产生的血氧水平变化来反映受试者在加工该任务时大脑中的活跃区域,从而来达到对大脑特定功能加工区域的观察目的。但是,task-fMRI实验中也存在着相当多的噪声影响,除去静息态也会面对的头动噪声和机器噪声外,情绪识别类的任务对被试的心理生理状况(如心跳)和眼动状况(如瞳孔大小变化)会产生额外的噪声影响,因此,对这部分信息进行收集并将其考虑进统计模型中,对于数据的精细解释是有必要的。

来自伦敦大学玛丽皇后学院的研究员对这一问题采用任务态fMRI进行了研究,该研究通过让额颞叶痴呆综合征患者观看自然、动态的表情视频,记录被试的fMRI和自主神经活动的数据,来试图通过比较病患组与年龄匹配的健康对照组的数据表现从而讨论这一问题。

摘要:

被试共分为如下四组:

17例行为变异型额颞叶痴呆患者bvFTD(4例女性;M(age)=64.8岁,SD =6.8岁);? ?

12例伴有语义变异原发性失语症患者svPPA(4例女性;M(age)=66.9岁,SD =7.0岁);? ???

9例非流畅型原发性失语症患者nfvPPA(5例女性;M(age)=67.4岁,SD =8.1岁)

22例健康对照(12例女性;M(age)=68.6岁,SD =6.8岁)。收集完他们观看表情视频期间的fMRI、心率和瞳孔数据后,再让他们完成表情识别任务(即辨别他们在扫描时观看的情绪视频属于何种类别)。? ???

与健康对照组相比,患者组在表情识别(所有症状组)、心脏活动(所有症状组)和瞳孔反应(仅nfvPPA)方面均表现出明显的损伤。具体来说,观看表情视频时,所有被试组初级视觉皮层的激活程度都相当,但患者组在梭状回和后颞枕联合区的激活显着较低。症状特异性的双侧半球激活是可以预测表情识别绩效的(行为上的症状变异对应前岛叶和尾状体;语义上的症状变异对应前颞叶皮质;非流畅性上的症状变异对应额下回岛盖部)。此外,svPPA(伴有语义变异原发性失语症患者)和nfvPPA(非流畅型原发性失语症患者)组还表现出中央副交感神经和交感神经自主参与的复杂特征,这种自主参与还涉及情绪性视觉与类别加工,并扩展到nfvPPA组的脑干通路。

这些发现为额颞叶痴呆患者的复杂社会情绪表型的脑功能机制打开了一个窗口,并对新的生理生物标记的发展有重要意义。

方法

被试:

38位额颞叶痴呆患者(FTD,frontotemporal dementias),根据FTD的三种亚型:bvFTD (变异型额颞叶痴呆患者)、svPPA(伴有语义变异原发性失语症患者)和nfvPPA(非流畅型原发性失语症患者)分为三组。健康控制组22位。每组被试的人口学变量及其他参数见表 1。表一人口学信息统计和临床数据


实验刺激

动态表情来自the Face and GestureRecognition Research Network (FG-NET) database(Wallhoff, 2006-2015)。五种情绪类别:愤怒,厌恶,恐惧,高兴,惊讶。每种10个视频,每个视频长度介于4-8 s,平均4.9 s。每段视频从中性表情开始,逐渐发展成所属的情绪类别。为了提供一个没有面部情感特征的视觉基线,创建了20个动态马赛克视频。方法是将每个视频分成400个相等的矩形(20×20),然后随机化每个视频中矩形的位置。因此,这些动态马赛克与原始视频的亮度、颜色、对比度、运动和持续时间相匹配,但没有明显的面部或情感内容(基线的设计在task-fMRI研究中至关重要,作者这里关注的是情绪识别的关键区域在不同被试组别上的差异,因此设置一个同样的刺激通道的基础基线是极为重要的)。

刺激呈现:

在fMRI扫描过程中,采用伪随机block设计(每个block5个刺激)呈现刺激。每个试次采用梯度回波平面成像(GE-EPI)技术进行记录。视觉刺激呈现在fMRI外的屏幕上,被试通过频射(RF,radiofrequency)线圈的广角镜反射可以看到刺激。共90个试次,包括50次动态面部表情、20次乱码动态表情和20个注视点试次(以估计初级视觉加工)。视频试次的试次间间隔为11.72 s,注视点试次的试次间间隔为8.79 s(如实准确的报道实验刺激的时间细节,是后来的研究者能否重复实验的关键所在)。每次刺激结束后,出现一个灰色屏幕,直到下一个试次开始。

为避免任务准备、难度等的影响,要求被试安静平躺,睁大眼睛集中注意观察呈现的刺激,而不需要其他任何多余的反应。所有被试都通过与fMRI兼容的EYElink 1000 Pluseyetracker(SR-Research)进行远程监控,以确保他们的眼睛睁大,并专注于刺激。

fMRI数据采集

采用3T Siemens Prisma scanner,12通道,连续性GE-EPI序列收集数据。由于这些区域接近颅底,所包含的48个斜轴切片与连合间径线(就是AC-PC方向)的采集角度为-30°,以最大程度降低眶额叶皮质和前颞叶中易感性信号的丢失。

降序交叉(从大到小,隔层扫描)扫描这些厚度2mm的切片(体素大小2×2×2mm,field of view 192mm,TR 2930ms,TE 30ms)。90个试次后每名被试最终得到340个EPI 全脑图像(每个视频试次4张,每个注视点试次3 张),总扫描时间为16分钟40秒。在获得功能性MRI扫描后,获取一张B0场图(field map),以便对EPI数据进行几何校正(field of view 192mm,切片厚度3mm,体素大小2.4×2.4×3 mm,重复时间688 ms,回波时间14.92ms与27.38ms)。

为实现功能像与结构像匹配,使用同一台设备对所有患者进行扫描快速梯度回波(MPRAGE)序列,回波时间2.93 ms,翻转时间 850 ms,重复时间为2000 ms,矩阵大小 256×256×208mm,体素大小1.1×1.1×1.1mm)。

自主神经活动

在fMRI数据采集的同时,使用脉搏血氧仪在左手食指记录心率。之所以采用该方法测量心率而不适用心电图,是因为后者会对fMRI数据的采集产生伪迹。此外,在整个扫描过程中,使用眼动仪记录被试右眼瞳孔大小。

扫描后行为测试

扫描结束后,向被试呈现扫描过程中出现的50段表情刺激。在每一段视频之后,被试需辨别出这是五种情绪中的哪一种。记录被试反应,并进行离线分析。作答无时间限制也无反馈。

自主神经活动与行为数据的分析

原始心率数据使用MATLAB离线分析,对波形中脉冲峰值对应的局部极大值进行识别。所有数据均经人工检测,以确保脉冲检测的一致性和准确性。随后的心率分析排除了心律


篇幅限制,阅读全文请点击链接 https://mp.weixin.qq.com/s/zI_p19XsPnZjkTBfHIyGUg


原文:

Marshall,C. R., Hardy, C. J., Russell, L. L., Bond, R. L.,Sivasathiaseelan, H.,Greaves, C., ... & Rohrer, J. D. (2019). Thefunctional neuroanatomy of emotion processing in frontotemporaldementias. Brain, 142(9),2873-2887.如需原文及补充材料请加微信:siyingyxf 获取,如对思影课程感兴趣也可加此微信号咨询。


转发到微博
您需要登录后才可以回帖 登录 | 注册

bottom

Powered by Discuz! X2

? 2001-2011 Template By Yeei. Comsenz Inc.

回顶部