Jekyll2023-12-03T12:45:50+00:00ssdd.site/feed.xmlShengdong Chen记录成长陈圣栋从奖励和惩罚的视角来理解情绪2023-11-05T09:10:20+00:002023-11-05T09:10:20+00:00ssdd.site/emotion/2023/11/05/%E5%A5%96%E6%83%A9%E4%B8%8E%E6%83%85%E7%BB%AA<ul>
<li>
<p>Emotions are defined as states elicited by rewards and punishers, that is, by instrumental reinforcers (Rolls, 2013)</p>
</li>
<li>
<p>行动者-评论员模型(actor-critic model)
行动者-评论员模型(actor-critic model)的解释:
多巴胺神经元对预期的奖赏产生放电,起到行动者(actor)的作用,推动和支撑目标导向的行为。
当奖赏出现时,多巴胺系统活动会突然停止。这为系统提供了奖赏出现的信号。
多巴胺系统与眶下前额叶皮层(OFC)相连,后者编码奖赏的预期价值,起评论员(critic)的作用。
当预期奖赏价值被修改时,眶下前额叶皮层会调整对多巴胺系统的激活,更新其信号。
该模型既符合多巴胺神经元对非预期奖赏的激活数据,也解释了动机和决策过程中多巴胺系统的作用。
多巴胺系统提供及时的奖赏反馈,并根据经验持续更新奖赏预测,从而支持目标导向行为和动机。</p>
</li>
<li>
<p>使用什么指标来测量行动者-评论员模型中的过程?</p>
<ul>
<li>EEG: LLP</li>
<li>fMRI</li>
</ul>
</li>
</ul>
<p>Cohen, J. D., & Blum, K. I. (2002). Reward and decision. Neuron, 36(2), 193-198.
Rolls, E. T. (2013). Emotion and decision-making explained. OUP Oxford.
Dayan, P., & Balleine, B. W. (2002). Reward, motivation, and reinforcement learning. Neuron, 36(2), 285–298.</p>陈圣栋Emotions are defined as states elicited by rewards and punishers, that is, by instrumental reinforcers (Rolls, 2013)情绪的应对(coping)和调节(regulation)2023-11-05T09:10:20+00:002023-11-05T09:10:20+00:00ssdd.site/emotion/2023/11/05/%E6%83%85%E7%BB%AA%E7%9A%84%E5%BA%94%E5%AF%B9%E5%92%8C%E8%B0%83%E8%8A%82<ul>
<li>情绪的本质,是个体对外界的一种适应。</li>
<li>本文的目的,在于整合Lazarus和Gross的两种理论,来理解情绪的作用。</li>
</ul>
<p>在自我调节和情绪调节的研究中,”coping”(应对)和”emotion regulation”(情绪调节)是两个相关但不完全相同的概念。它们都涉及到个体在应对压力、情绪或困境时采取的心理和行为策略,但侧重点和范围略有不同。
* “Coping”(应对)是一个更广泛的概念,指的是个体在面对挑战、压力或困境时所采取的应对方式和策略。这些应对方式可以包括情绪调节、问题解决、寻求社会支持、逃避等。应对的目标是应对和适应外部环境的压力或内部的情感困扰。
* “Emotion regulation”(情绪调节)则更专注于个体对情绪的调节和管理。它涉及到个体对自己的情绪体验、情绪表达和情绪反应进行调节的过程。情绪调节可以包括情绪的调升或调降,情绪的延迟或抑制,以及情绪的重评估等策略。情绪调节的目标是调节和管理情绪的强度、持续时间和表达方式,以适应和应对不同情境。
以下是一个示例,说明”coping”和”emotion regulation”的区别:
* 假设一个学生面临一场重要考试,感到紧张和焦虑。
* “Coping”(应对):学生可以采取不同的应对策略来面对考试压力。他们可以寻求同学或老师的支持和建议,以获得实质性的帮助和鼓励(寻求社会支持)。他们还可以制定学习计划和策略,以应对考试的要求(问题解决)。此外,他们可能还会使用情绪调节策略来应对焦虑,如通过深呼吸和放松练习来调节情绪(情绪调节)。
* “Emotion regulation”(情绪调节):在面对考试焦虑时,学生可以使用情绪调节策略来管理和调节自己的情绪。他们可以尝试重评估考试的重要性和结果,以减轻焦虑的程度。他们还可以通过积极的自我对话和自我鼓励来提高情绪状态。这些情绪调节策略有助于调节和管理焦虑情绪,使其对学习和应对考试的影响降至最低。
这个例子显示了”coping”和”emotion regulation”的联系和区别。</p>
<p>尽管两个概念有所区别,但它们之间也存在联系和重叠。情绪调节和应对的联系在哪里?我认为不应当将其情绪调节视为应对的一个子板块,而应当将情绪调节视为应对的一种内在机制。
coping中的问题聚焦策略,可以认为是一种情绪调节有效的后果,即认知大于情绪的理性反应;而情绪聚焦策略,则可以理解为一种情绪调节无效的后果,即情绪大于认知的反应,从而个体的言行被情绪所主导。</p>
<h2 id="coping有哪些类型">Coping有哪些类型?</h2>
<ul>
<li>研究者一般怎么分类? Lazarus & Folkman提出的coping概念,包括了problem-focused coping,和emotionfocused coping。而且一般认为problem-focused coping strategies are considerably more adaptive than emotionfocused coping strategies (Baker & Berenbaum, 2007).</li>
<li>研究者一般怎么分类? 基于Lazarus & Folkman的理论,近年来研究者对其分类进行了细化:For example, Zuckerman and Gagne (2003) propose that adaptive coping consists of approach, self-help, and accommodation coping and maladaptive coping consists of avoidance and self-punishment. Past findings generally
support the notion that adaptive coping strategies are more effective in difficult situations and when managing negative emotions than maladaptive strategies.</li>
<li>这样分类合理吗? Bonanno, G. A., & Burton, C. L. (2013)</li>
</ul>
<p>Zuckerman, M., & Gagne, M. (2003). The COPE revised: Proposing a 5-factor model of coping strategies. Journal of Research in Personality, 37(3), 169–204. https://doi.org/10.1016/S0092-6566(02)00563-9
Bonanno, G. A., & Burton, C. L. (2013). Regulatory flexibility an individual differences perspective on coping and emotion regulation. Perspectives on Psychological Science, 8(6), 591–612. https://doi.org/10.1177/1745691613504116</p>陈圣栋情绪的本质,是个体对外界的一种适应。 本文的目的,在于整合Lazarus和Gross的两种理论,来理解情绪的作用。LLM Prompts2023-10-31T22:10:20+00:002023-10-31T22:10:20+00:00ssdd.site/emotion/2023/10/31/Prompts<p>https://github.com/xuhangc/ChatGPT-Academic-Prompt</p>
<ol>
<li>Writing: https://github.com/ahmetbersoz/chatgpt-prompts-for-academic-writing</li>
<li>Review:
https://arxiv.org/pdf/2310.01783.pdf
https://github.com/Weixin-Liang/LLM-scientific-feedback</li>
</ol>陈圣栋https://github.com/xuhangc/ChatGPT-Academic-Prompt认知和行为的计算建模2023-10-08T16:10:20+00:002023-10-08T16:10:20+00:00ssdd.site/toolbox/2023/10/08/%E8%AE%A4%E7%9F%A5%E8%AE%A1%E7%AE%97%E5%BB%BA%E6%A8%A1<h1 id="心理学建模基本">心理学建模基本</h1>
<ul>
<li><a href="https://mp.weixin.qq.com/s/vcD-dyZzUnrCjnsLpYef_A">在心理学、认知科学、神经科学中,如何构建formal理论?一份实用入门操作指南</a></li>
<li>拟合-建模。当然可以选择两个或以上的模型对比,并适当调整参数,使模型效果不断优化。</li>
<li>模型评估。模型效果的评估有两个方面:
<ul>
<li>一是模型是否解决了需要解决的问题(是否还有没有注意和考虑到的潜在问题需要解决);</li>
<li>二是模型的精确性(误差率或者残差是否符合正态分布等)。</li>
</ul>
</li>
<li>根据建模的对象:
<ul>
<li>心理构建之间的建模:如常见的中介、调节、结构方程、交叉滞后等,都是对不同构建之间的关系进行建模</li>
<li>认知过程的建模:认知计算建模,如对决策过程进行建模。</li>
</ul>
</li>
</ul>
<h2 id="拟合fitting-functions-to-data-points">拟合(Fitting functions to data points)</h2>
<ul>
<li>适用情况:已有一批观察数据,如某地气温(Y)随着月份(X)的变化数据,使用数据组建模寻找简单的因果变量之间的数量关系,
从而对未知的情形作预报(天气预报)。</li>
</ul>
<h3 id="拟合步骤">拟合步骤</h3>
<ol>
<li>第一步先通过肉眼观察。具体就是先用代码画出散点图,观察数据分布的大体规律,猜测其大体符合的统计模型,例如是
简单的线性关系,还是二次元或者幂函数</li>
<li>第二步再通过工具包进行模型拟合。</li>
</ol>
<h3 id="例子曲线拟合curve-fitting">例子:曲线拟合(curve fitting)</h3>
<ul>
<li>定义:曲线拟合是指选择适当的曲线类型来拟合观测数据,并用拟合的曲线方程分析两变量间的关系。</li>
<li>工具包:MATLAB curve fit tool (cftool),在LOOP中调用该工具包即可以得到每个被试模型的参数。</li>
<li>命令行:https://www.mathworks.com/help/curvefit/fit.html</li>
</ul>
<h2 id="认知计算建模">认知计算建模</h2>
<ol>
<li>强化学习模型(Reinforcement learning ,RL)。强化学习模型(Reinforcement Learning)是一种机器学习方法,用于训练智能体(agent)在与环境进行交互的过程中,通过试错和奖励信号来学习最优的行为策略。在强化学习中,智能体通过观察环境的状态,采取不同的行动,并通过与环境的交互获得奖励或惩罚。目标是使智能体通过学习逐步优化其行为,以最大化长期累积奖励。
<ul>
<li>在一个典型的强化学习(RL)问题中,有一个学习-决策制定者(有学习和决策两个角色),称为智能体(agent)。与之相互作用的周围环境称为环境(environment)。</li>
<li>对智能体和环境的交互进行建模,即对基于环境反馈的个体自我学习过程(intrapersonal learning)进行建模</li>
<li>可以用之前学习试次的模型,来预测下一个试次的选择</li>
<li>https://towardsdatascience.com/introduction-to-reinforcement-learning-markov-decision-process-44c533ebf8da</li>
</ul>
</li>
<li>影响学习模型(Influence learning models)。影响学习模型(Influence Learning Models)是一种社会学习模型,用于描述人类在群体中相互影响和学习的过程。影响学习模型关注个体之间的相互作用,以及这种相互作用如何影响和塑造个体的行为和决策。影响学习模型通常关注社会网络、信息传播和意见形成等方面的研究。
<ul>
<li>对人际之间的影响进行建模(合作vs.竞争),输出(反馈)和输入可能都来自人类个体的社交信息。</li>
<li>我决策的结果会如何影响到他人的决策?</li>
</ul>
</li>
<li>在方法上,强化学习模型通常使用马尔可夫决策过程(Markov Decision Process,MDP)来建模环境和智能体(agent)的互动,通过值函数、策略优化等方法进行学习和决策。而影响学习模型则使用社会网络分析、信息传播模型、博弈论等方法来研究个体之间的相互作用和影响。总的来说,强化学习模型注重个体与环境的交互学习,而影响学习模型注重个体在群体中的相互作用和学习过程。两者在学习理论和方法上有所不同,但都对学习和决策的过程提供了有价值的研究视角。</li>
</ol>
<h1 id="常见数据模型及其心理学应用">常见数据模型及其心理学应用</h1>
<h2 id="1-广义线性模型generalized-linear-model-glm">1. 广义线性模型(Generalized Linear Model, GLM)</h2>
<ol>
<li>定义</li>
<li>前提假设:</li>
<li>公式</li>
<li>应用场景:fmri数据分析(个体分析+组分析)</li>
</ol>
<h2 id="2-线性混合模型linear-mixed-modellmm">2. 线性混合模型(Linear Mixed Model,LMM)</h2>
<ol>
<li>定义: Linear Mixed-effects Models (LMMs) are also known as hierarchical or multilevel models (Snijders & Bosker, 2011).</li>
<li>处理对象:连续线性因变量</li>
<li>数据结构(hierarchical structure):
1. Participant-level observations. 被试层次间数据之间不独立:responses from children in the same class or geographical region will be correlated)
2. Trial-level observations. 试次间数据不独立:the responses to stimuli from a given participant will be correlated)</li>
<li>公式</li>
<li>应用场景:重复测量</li>
</ol>
<h2 id="3-广义线性混合模型generalized-linear-mixed-modelglmm">3. 广义线性混合模型(Generalized Linear Mixed Model,GLMM)</h2>
<ol>
<li>定义:广义线性混合模型GLMM,可以看做是线性混合模型LMM的扩展形式,使得因变量不再要求满足正态分布;
也可以看作是GLM的扩展形式,使得可以同时包含固定效应和随机效应。</li>
<li>处理对象:因变量可以是连续变量, 也可以是分类变量 ( 包括二项、 有序多分类、 无序多分类等) , 相关数据 ( correlated data) 、
纵向观测数据 ( longitudinal data) 、 过度离散的数据, 随机效应变量之间既可以独立的也可以相关。</li>
<li>数据结构(hierarchical structure):与LMM相同</li>
<li>应用场景:不独立的数据。除了重复测量这一主要因素之外,心理学实验的采样样本往往高度同质(如男女大学生)。
来自同一所学校甚至同一年级的学生内部必定比完全随机的样本存在着更高的内部相关。医学研究中经常会遇到不独立的数据, 例如: 生活在相同
家庭 ( 或学校) 的孩子, 在同一诊所治疗的病人, 同一社区居住的居民。在同一类中的观测, 享有相同或相似的背景使得类内观测不独立[2]。</li>
</ol>
<h2 id="4-聚类k-means-clustering">4. 聚类(K-Means Clustering)</h2>
<ul>
<li>性质:无监督学习的聚类方法,数据驱动</li>
<li>算法思想:以空间中k个点为中心进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果。</li>
<li>心理学应用:
<ul>
<li>Zakharov, K. (2016). Application of k-means clustering in psychological studies. Tutorials in Quantitative Methods for Psychology, 12(2), 87-100.</li>
<li>Kmeans算法可以根据数据内部不同亚类的相似性将一组数据进行分类,经常用于人格相关问卷的编制之中。例如确定某个人格特质的维度。</li>
</ul>
</li>
</ul>
<h2 id="5-支持向量机support-vector-machine">5. 支持向量机(Support Vector Machine)</h2>
<ul>
<li>性质:有监督学习的预测方法</li>
<li>算法思想:利用训练集数据(training exemplar)进行练习,得出训练分类器(classifier)或者说学习机(learning machines);然后用测试集数据进行模型评估</li>
<li>应用:认知神经科学的MVPA分析,通过多个不同体素的神经信号判断心理加工模式</li>
</ul>
<h3 id="交叉验证cross-validation">交叉验证(cross-validation)</h3>
<p>在机器学习里,通常来说我们不能将全部用于数据训练模型,否则我们将没有数据集对该模型进行验证,从而评估我们的模型的预测效果。为了解决这一问题,有如下常用的方法:</p>
<ol>
<li>The Validation Set Approach。第一种是最简单的,也是很容易就想到的。我们可以把整个数据集分成两部分,一部分用于训练,一部分用于验证,这也就是我们经常提到的训练集(training set)和测试集(test set)。</li>
<li>交叉验证(cross-validation)
<ul>
<li>LOOCV(Leave-one-out cross-validation)</li>
<li>K折交叉验证(K-fold Cross Validation)</li>
</ul>
</li>
</ol>
<h2 id="6-决策树decision-tree">6. 决策树(Decision Tree)</h2>
<ul>
<li>性质:有监督学习的分类方法</li>
<li>心理学应用:</li>
</ul>
<h2 id="7-人工神经网络artificial-neural-networks">7. 人工神经网络(Artificial Neural Networks)</h2>
<h2 id="8-递归神经网络recurrent-neural-network">8. 递归神经网络(recurrent neural network)</h2>
<h2 id="参考文献">参考文献</h2>
<ol>
<li>GEE、GLMM和MLM分析卫生重复测量资料的效果比较</li>
<li>广义线性混合效应模型及其应用</li>
<li>Tuerlinckx, F., Rijmen, F., Verbeke, G., & De Boeck, P. (2006). Statistical inference in generalized linear mixed models: A review. British Journal of Mathematical and Statistical Psychology, 59(2), 225-255.</li>
<li>Lo, S., & Andrews, S. (2015). To transform or not to transform: Using generalized linear mixed models to analyse reaction time data. Frontiers in psychology, 6, 1171.</li>
<li>Meteyard, L., & Davies, R. A. (2020). Best practice guidance for linear mixed-effects models in psychological science. Journal of Memory and Language, 112, 104092.</li>
<li>Silk, J. S., Shaw, D. S., Forbes, E. E., Lane, T. L., & Kovacs, M. (2006). Maternal depression and child internalizing: The moderating role of child emotion regulation. Journal of Clinical Child and Adolescent Psychology, 35(1), 116-126.</li>
</ol>
<h1 id="网络分析">网络分析</h1>
<ol>
<li>探索性分析是科学研究重要第一步,通过基于网络的探索分析,我们可以更加直观地理解数据变量之间的
关系。探索性分析的三个基本步骤:
<ol>
<li>变量之间是否存在相关</li>
<li>变量之间的具体相关关系(中介,SEM,网络分析等等),将复杂的相关关系可视化(高斯图模型,GGM)</li>
<li>如果数据中包括多个分组(年龄,性别,人格等),可以分析亚组之间的差异</li>
</ol>
</li>
<li>网络分析可以用以纵向数据,基因数据等大数据的探索性分析(exploratory analyses )。
高斯图解模型不同于基于偏相关的典型探索性分析(如结构方程模型SEM)。值得注意的是,一个高斯图形模型在一个图中显示了项目和变量之间的关系,这比一个大的部分相关表更容易解释,特别是当小的相关关系通过glasso算法被强制为零时。</li>
</ol>
<h2 id="理论">理论</h2>
<ol>
<li>Why do we need it? To gain insight into complex phenomena requires characterizing the relationships among a large number of variables.</li>
<li>Gaussian graphical models explicitly capture the statistical relationships between the variables
of interest in the form of a graph. 即围绕高斯分布的变量去研究各个变量的联系。A Gaussian graphical model comprises of a set of
items or variables, depicted by circles, and a set of lines that visualize relationships between the items or variables (Lauritzen, 1996; Epskamp et al., 2018)</li>
<li>Normal就是Gaussian,同义词,指正态分布,一般 我们会把很多变量假设为正态分布的</li>
</ol>
<h2 id="方法">方法</h2>
<ol>
<li>基本分析方法与图论没有差别。都是基于点(nodes)和边(edges)之间的关系。主要就是点与点之间边的连接强度。相关越强,边连接越强,图中边就画得越清晰或粗大。</li>
<li>统计分析,需要将相关较弱(虚假相关)的边抹掉,保留相关强度达到一定阈限的边,从而得到稀疏矩阵(sparse matrix)。
在高斯图形模型中,glasso算法是获得稀疏图的常用方法(Friedman等,2008)。
该算法将较小的部分相关系数强制为零,从而引起稀疏性。图中的稀疏程度由调整参数控制,并且调整参数的不同值会导致不同的图</li>
<li>数据分析基本步骤:
<ol>
<li>处理数据集中的缺失数据:To handle missing data, we adopt a full information maximum likelihood (FIML) procedure using the corFIML function from the R package psych (Revelle, 2018).</li>
<li>求得指标之间的相关矩阵</li>
<li>将相关矩阵作为输入,R glasso 来做GGM估计。网络可视化:R qgraph</li>
<li>如果是包含时间信息的纵向数据,就用R里面的mlVAR软件包,构建时序网络。</li>
</ol>
</li>
</ol>
<h2 id="结果解释">结果解释</h2>
<ol>
<li>描述每个网络的概括。最强的效应是谁,autoregressive effects (自相关效应)?。例如纵向数据中,前测的抑郁指标跟后测的抑郁指标高度相关。
2.</li>
</ol>
<h2 id="类型">类型</h2>
<h3 id="1-时序网络temporal-networks">1. 时序网络(temporal networks)</h3>
<ol>
<li>介绍 <a href="https://zhuanlan.zhihu.com/p/110268315">2020年网络科学的4个前沿方向:从时序网络到高阶网络</a></li>
<li>适用于纵向数据</li>
</ol>
<h3 id="2-同时网络contemporaneous-network">2. 同时网络(contemporaneous network)</h3>
<ol>
<li>适用于横向数据</li>
</ol>
<h3 id="3-被试间网络">3. 被试间网络</h3>
<h1 id="mplus">Mplus</h1>
<h2 id="基本术语">基本术语</h2>
<ol>
<li>观察变量(item, indicator, observed, measured or manifest variables)。这些变量可以直接观察、测量,并录入到数据分析软件(SPSS)中,例如年龄、体重、大五人格神经质得分。</li>
<li>潜变量(dimension, latent, unobserved varibles, factor or construct)。
<ul>
<li>无法直接进行测量,需要由观察变量来加以衡量,如信任、爱情、人格等抽象的心理建构。</li>
<li>潜变量用来解释观察变量,潜变量之间的“因果关系”或“相关”则为研究的假设</li>
</ul>
</li>
<li>误差(error),指测量变量被估计后无法解释的误差</li>
<li>干扰(disturbance):潜变量经过估计后,无法解释的方差。误差=干扰=残差。</li>
<li>外生变量(exogenous)(自变量):
<ul>
<li>用来预测变量的变量(自变量),本身不具有测量误差,分为潜在和观察变量两种</li>
<li>模型图中没有任何箭头指向的变量即为外生变量。可以理解为其为大树的主干,箭头只往外生长,所以叫外生变量。</li>
</ul>
</li>
<li>内生变量(endogenous)(因变量):
<ul>
<li>被预测的变量,本身具有测量误差的变量。</li>
<li>模型图中被箭头指向的变量即为内生变量。</li>
</ul>
</li>
<li>路径:外生到内生之间的路径,构成了结构。</li>
</ol>
<h2 id="数据导入">数据导入</h2>
<ul>
<li>SPSS导出为dat格式。也支持<em>.csv或者.</em>txt格式。</li>
<li>注意不要保存变量名。数据本身必须只有数字。变量名称在mplus语句中按照列的顺序依次指定。缺失值用-999等特殊数字来指定。</li>
<li><a href="https://zhuanlan.zhihu.com/p/351203637">怎样快速将数据文件导入Mplus?</a>推荐使用N2MPLUS软件。</li>
</ul>
<h2 id="十大命令">十大命令</h2>
<ol>
<li>Title (optional):语句标题</li>
<li>Data (necessary):数据文件路径
<ul>
<li>FILE IS D:\MPULS\example.dat</li>
<li>Type is 数据形态(一般分析不需要指定,默认即可)</li>
<li>LISTWISE=ON; 可选项</li>
</ul>
</li>
<li>Variable (necessary):
<ul>
<li>Names are:所有变量名称。技巧使用“-”表示连续,例如item1-item10。注意变量名称大小写敏感;而命令大小写无所谓。</li>
<li>Usevariables are:使用变量名称</li>
<li>Missing are all (-999):根据特殊数值指定缺失值</li>
<li>Useobservations is (optional): 选择分析所需的某一群体观察值</li>
<li>Categorical or NOMINAL are:指定变量为类别变量或顺序变量。该命令仅在用分类变量做因变量时才需要设置,而分类变量做协变量的时候不能设置,也不需要。注意,如果设置了此项,那么Analysis的estimator就要设置为WLSM or WLSMV。</li>
</ul>
</li>
<li>Model (necessary):描述变量之间的结构关系
<ul>
<li>BY 测量模型(mesurement model)用BY,主要用于定义潜变量结构construct by items。这里主要用作问卷结构分析。例如大五人格问卷,extraversion BY e1 e2 e3-e10。这样可以检验该问卷的内部效度怎么样。一般分析心理变量之间的关系,而非题目-心理变量之间关系的时候,不用BY。</li>
<li>ON 结构模型(structural model)用ON: Y ON X1 X2 …结构模型主要用来分析心理变量之间的因果关系。</li>
<li>WITH 潜在结构变量(残差)以及相关关系用WITH;X1 WITH X2。一般而言,with表示A correlate with B,反映相关关系;而ON表示Y regresses on X,反映的是具有指向性的因果关系。反映在模型图上,with是双箭头,On是单箭头。</li>
</ul>
</li>
<li>Define (optional):数据转换,也就是定义新变量。例如X3= X1 + X2</li>
<li>Analysis (default)。主要涉及的是参数估计方法,常规分析一般默认。对于纵向研究数据,需要考虑不同的拟合算法,如:
<ul>
<li>TYPE = GENERAL(默认)</li>
<li>TYPE=MIXTURE (for categorical latent variable models)</li>
<li>TYPE=TWOLEVEL or THREELEVEL (for multilevel models) 注意这里的two or three level指的是层次数目,并非cluster数目。每个层次的cluster数目,一般至少20个。</li>
<li>TYPE=EFA (for 探索性因子分析)</li>
<li>Estimator,有如下几种算法:
| 缩写 | 全称 | 使用因变量|
|—-|—-|—-|
| ML | -极大似然估计(默认) |因变量为连续变量 |
| MLM | 极大似然估计伴标准误和均值矫正的卡方检验 |非正态数据 |
| MLMv | 极大似然估计伴标准误和均值方差矫正的卡方检验 |非正态数据 |
| MLR | 稳健极大似然估计 |适用于非正态、非独立数据.可以与TYPE=COMPLEX以及cluster命令合用(可选)。Complex适合多层数据中,某一层有至少20个数据源(cluster),例如不同的学校、公司、地区等等。以学生的嵌套数据为例,cluster is ID_Schl Id_Class ; |
其他还有MLF\MUM\WLS\WLSM(因为变量为命名或分类变量)\WLSMV(因为变量为命名或分类变量)\ULS\GLS</li>
</ul>
</li>
<li>Output (default):
<ul>
<li>SAMPSTAT(常用)—提供样本统计量及对应的标准误。</li>
<li>STANDARDIZED(常用)—提供标准化解,standardized总共有三种形式:stdyx stdy std。第一种stdyx是完全标准化,指(内生及外生变量)都标准化,第二种stdy是适用于外生变量(自变量或协变量)为二分类别(如性别),只有内生变量(如智商)标准化,第三种std只是潜变量标准化,不常用。我们一般使用STDYX的结果 。
<ul>
<li>For models without covariates use StdYX. For structural parameters, StdYX is the same as Std.</li>
<li>For models with covariates, use StdYX if the covariate is continuous, use StdY if the covariate is binary.</li>
</ul>
</li>
<li>Cinterval 要求报告参数置信区间值</li>
<li>Tech1-Tech14: 14个技术报告</li>
</ul>
</li>
<li>Savedata (optional):命令用于保存分析数据,辅助数据和各种分析结果。如:SAVEDATA: File is D:\2类.txt ;</li>
<li>Plot (optional):绘图结果在graph菜单下view graph查看。
<ul>
<li>plot1 绘制样本的直方图,散点图和样本均值</li>
<li>plot2 提供项目特征曲线,信息曲线等</li>
<li>plot3 潜变量条件概率</li>
<li>series = y1-y3(q); 用于纵向数据中指定绘图,否则绘图图标不亮</li>
</ul>
</li>
<li>Motecarlo (optional)命令用于指定蒙特卡罗模拟研究的详细信息</li>
</ol>
<h2 id="mplus代码库">Mplus代码库</h2>
<ol>
<li><a href="https://www.statmodel.com/Mplus_Book_Tables.shtml">官方Mplus代码-部分配有数据</a></li>
<li><a href="http://www.offbeat.group.shef.ac.uk/FIO/mplusmedmod.htm">Mplus中介和调节代码库-提供了96个Mplus模型可供参考。前81项除了显变量建模语句外,还提供了潜变量建模语句参考。对于每个模型,网站都提供了详细的概念图、统计模型图、结构方程式以及Mplus代码</a></li>
</ol>
<h2 id="mplus多重插补法multiple-imputationmi">Mplus多重插补法(multiple imputation,MI)</h2>
<ul>
<li>多重插补(Multiple Imputation)由Rubin(1987)最早提出,假设在数据随机缺失情况下,用两个或更多能反映数据本身概率分布的值来填补缺失值的方法。一个完整的MI包含三步:数据填补(Imputation Phase),计算(Analysis Phase)和汇总(Pooling Phase)。数据填补是关键一步,对每一个缺失数据填补m( m > 1)次。每次填补将产生一个完全数据集,以此类推,共产生m个完全数据集。第二步,对每一个完全数据集采用标准的完全数据分析方法进行分析。第三步,将所每次分析得到的结果进行综合,得到最终的统计推断。根据数据缺失机制、模式以及变量类型,可分别采用回归、预测均数匹配( predictive mean matching, PMM )、趋势得分( propensity score, PS )、Logistic回归、判别分析以及马尔可夫链蒙特卡罗( Markov Chain Monte Carlo, MCMC) 等不同的方法进行填补。与FIML不同,MI采用填补缺失值的方法。MI要求数据缺失为MAR,如果采用ML估计同样要求数据分布符合多元正态分布假设,但研究发现违反正态性假设对MI参数精确性影响不大(Demirtas, Freels, & Yucel, 2008; Schafer, 1997)。另外一个影响估计精确性的因素是缺失率,Demirtas等(2008)的研究发现缺失率高达25%仍能得到精确的参数估计结果。</li>
<li>多重插补(Multiple Imputation)是一种基于重复模拟的处理缺失值的方法。一个完整的多重填补法包括三步:数据填补,计算和汇总。数据填补是关键一步。
<ol>
<li>数据填补。MI从一个包含缺失值的数据集中生成一组完整的数据集。每个数据集中的缺失数据用蒙特卡洛方法来填补。</li>
<li>使用第一步插补的数据集估计并输出汇总结果。</li>
</ol>
</li>
<li>在具体使用MI时需要考虑m的次数,类似Bootstrapping抽样,理论上来说m的数量越多估计越精确,但太大的数量会增加计算负荷,模拟研究指出m = 20在多数情况下是合适的(Graham, Olchowski, & Gilreath, 2007)。在Mplus中执行MI需要两步,第一步数据插补,第二步使用第一步插补的数据集估计计算并输出汇总结果,两步的Mplus语句呈现在表9-6中。</li>
<li>除了Mplus,还可以使用R语言的mice包来执行这些操作。mice包通过mice()函数填补数据,生成完整数据集(默认5个);然后通过with()函数对每个数据集应用统计模型;最后用pool()函数对不同数据集结果进行汇总。mice包</li>
<li>Mplus中的MI是通过贝叶斯估计(Bayesian estimation)来实现的。</li>
<li><a href="https://www.statmodel.com/usersguide/chap11/ex11.5.html">Mplus中MI的代码1-官网</a> <a href="https://jingyan.baidu.com/article/e73e26c0c35a1b24adb6a7eb.html">Mplus中MI的代码2-百度经验</a> <a href="http://blog.sina.com.cn/s/blog_7fb03f7d01012kv7.html">Mplus中MI的代码3</a></li>
</ul>
<h1 id="参考文献-1">参考文献</h1>
<ol>
<li>Epskamp, S., et al. (2018). “The Gaussian graphical model in cross-sectional and time-series data.” Multivariate Behavioral Research 53(4): 453-480.</li>
<li>Meng, J., Wang, X., Wei, D., & Qiu, J. (2020). State loneliness is associated with emotional hypervigilance in daily life: A network analysis. Personality and Individual Differences, 165, 110154.</li>
<li><a href="http://fieryfish.github.io/blog/2014/07/17/ggm/">高斯图模型 Gaussian Graphical Model</a></li>
<li>Bhushan, N., Mohnert, F., Sloot, D., Jans, L., Albers, C., & Steg, L. (2019). Using a Gaussian graphical model to explore relationships between items and variables in environmental psychology research. Frontiers in psychology, 10, 1050.</li>
<li>Friedman, J., Hastie, T., and Tibshirani, R. (2014). glasso: Graphical Lasso- Estimation of Gaussian Graphical Models. R package version 1.8.</li>
<li><a href="https://zhuanlan.zhihu.com/p/24825503">交叉验证</a></li>
<li>不用翻书,MPLUS基础代码全在这里(二)</li>
</ol>陈圣栋心理学建模基本susceptibility biomarker和vulnerability marker2023-08-30T09:10:20+00:002023-08-30T09:10:20+00:00ssdd.site/emotion/2023/08/30/susceptibility%20biomarker%E5%92%8Cvulnerability%20marker<h2 id="研究视角">研究视角</h2>
<ul>
<li>
<p>研究易感性生物标志物和脆弱性标志物的目的之一是为了帮助疾病的诊断和筛查。这些标志物的研究旨在找到与特定疾病或病理状态相关的生物指标或因素,以便更早地检测和诊断疾病,提供个性化的治疗和干预。</p>
</li>
<li>
<p>易感性生物标志物和脆弱性标志物可以提供关于个体患病风险的信息,帮助鉴别高风险群体和进行早期干预。例如,在抑郁症的研究中,通过检测某些基因变异或神经生化指标,可以识别出易感性生物标志物,从而确定某些个体更容易发展抑郁症。同样地,脆弱性标志物可以揭示个体对环境压力的敏感性,从而有助于预测疾病的发展和严重程度。</p>
</li>
<li>
<p>通过了解易感性生物标志物和脆弱性标志物,医疗专业人员可以更好地了解个体的疾病风险和潜在的脆弱性,为个体提供更精准的治疗方案和干预措施。然而,需要注意的是,这些标志物通常是作为辅助诊断工具使用,而不是单独用于诊断。诊断和筛查疾病仍需要综合考虑临床症状、医疗历史和其他评估方法。</p>
</li>
</ul>
<h2 id="susceptibility-biomarker和vulnerability-marker中文怎么翻译最恰当两者有什么区别和联系请以抑郁症为例来举例说明">susceptibility biomarker和vulnerability marker中文怎么翻译最恰当?两者有什么区别和联系,请以抑郁症为例来举例说明</h2>
<ul>
<li>“Suceptibility biomarker” 可以翻译为 “易感性生物标志物”,而 “vulnerability marker” 可以翻译为 “脆弱性标志物”。</li>
<li>这两个术语在研究抑郁症等心理障碍时经常使用,用于描述对于发展特定疾病或病理状态具有高风险的生物标志物或因素。它们有一些区别和联系:
区别:
* 易感性生物标志物(suceptibility biomarker)指的是与个体易感性或患病风险增加相关的生物标志物。这些标志物可能是基因变异、神经生化指标或其他生物学特征,使得某些人更容易发展出抑郁症或其他心理障碍。
* 脆弱性标志物(vulnerability marker)指的是与心理障碍的发展或加重相关的生物标志物。这些标志物可能是心理生理因素、脑结构或功能的变化,使得个体更容易受到环境压力的影响,从而增加了发展抑郁症的风险。
联系:
* 易感性生物标志物和脆弱性标志物都涉及到个体在发展抑郁症方面的特定风险或敏感性。
* 易感性生物标志物可能是脆弱性标志物的一种表现形式,即个体在遭受特定的环境压力时,易感性生物标志物可能增加了脆弱性标志物的影响,使得个体更容易发展出抑郁症。</li>
<li>举例来说,某个基因变异可能是一个易感性生物标志物,与抑郁症的发展风险增加相关。然而,在受到慢性压力或创伤性事件的影响时,这个基因变异可能导致脆弱性标志物的表现,使得个体更容易受到抑郁症的影响。因此,易感性生物标志物和脆弱性标志物可以相互作用,并在抑郁症的发展中发挥作用。
需要注意的是,尽管这些术语在研究中有时被使用,但抑郁症等心理障碍的发展是一个复杂的过程,涉及多种因素的相互作用,包括遗传、环境、心理和社会因素。因此,单个生物标志物往往不能完全解释抑郁症的发展,而是需要综合考虑多个因素。</li>
</ul>
<h2 id="抑郁症的susceptibility-biomarker和vulnerability-marker有哪些">抑郁症的susceptibility biomarker和vulnerability marker有哪些?</h2>
<ul>
<li>
<p>抑郁症的易感性生物标志物和脆弱性标志物仍然是一个活跃的研究领域,目前还没有确定的单一标志物可以被广泛接受。然而,以下是一些研究中提出的抑郁症易感性生物标志物和脆弱性标志物的例子:</p>
</li>
<li>
<p>易感性生物标志物(Susceptibility Biomarkers):
基因变异:某些基因的变异与抑郁症的易感性相关,如5-HTTLPR基因、BDNF基因等。
神经生化指标:例如,血清中的皮质醇水平(一种应激激素)、血浆中的白介素-6(一种炎症标志物)水平等。
脑影像特征:例如,前额叶皮层和杏仁核的体积或功能变化。</p>
</li>
<li>
<p>脆弱性标志物(Vulnerability Markers):
心理生理因素:例如,负性认知风格、自我评价偏差等。
脑结构或功能的变化:例如,前额叶皮层、杏仁核、海马体等与情绪调节和认知功能相关的区域的变化。
基因-环境互作:某些基因变异与特定环境因素的相互作用,增加了抑郁症的风险。
需要注意的是,这些标志物仅是研究中的一些例子,并不能被视为确定的抑郁症诊断方法。抑郁症是一个复杂的疾病,其发展涉及多种因素的相互作用,包括遗传、生物化学、神经回路、环境和心理因素。因此,研究人员仍在努力进一步研究这些标志物,并寻找更全面的理解抑郁症发展的生物学基础。</p>
</li>
</ul>
<h2 id="广泛性焦虑障碍的susceptibility-biomarker和vulnerability-marker有哪些">广泛性焦虑障碍的susceptibility biomarker和vulnerability marker有哪些?</h2>
<ul>
<li>对于广泛性焦虑障碍(Generalized Anxiety Disorder,GAD),目前还没有确定的单一易感性生物标志物和脆弱性标志物。然而,以下是一些研究中提出的广泛性焦虑障碍易感性生物标志物和脆弱性标志物的例子:</li>
<li>易感性生物标志物(Susceptibility Biomarkers):
基因变异:某些基因与广泛性焦虑障碍的易感性相关,例如COMT基因、SERT基因等。
神经生化指标:例如血浆中的皮质醇水平(一种应激激素)的变化、血浆中的C-反应蛋白(一种炎症标志物)水平的变化等。
脑影像特征:例如,前额叶皮层和杏仁核的功能或结构变化。</li>
<li>脆弱性标志物(Vulnerability Markers):
心理生理因素:例如,负性认知风格、注意偏向性、过度谨慎等。
脑结构或功能的变化:例如,前额叶皮层、杏仁核、扣带回等与焦虑情绪调节和注意力控制相关的区域的变化。
基因-环境互作:某些基因变异与特定环境因素的相互作用,增加了广泛性焦虑障碍的风险。</li>
</ul>陈圣栋研究视角基于大语言模型的阿尔兹海默症检测2023-08-07T22:10:20+00:002023-08-07T22:10:20+00:00ssdd.site/emotion/2023/08/07/%E5%9F%BA%E4%BA%8E%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E7%9A%84%E9%98%BF%E5%B0%94%E5%85%B9%E6%B5%B7%E9%BB%98%E7%97%87%E6%A3%80%E6%B5%8B<h1 id="大语言模型的基本知识">大语言模型的基本知识</h1>
<ul>
<li>非常全面的bert笔记,https://blog.csdn.net/zh515858237/article/details/124834254</li>
<li>哈工大讯飞联合实验室发布基于全词覆盖(Whole Word Masking)的中文BERT预训练模型。https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/93253750</li>
<li>HuggingFace快速上手(以bert-base-chinese为例):https://zhuanlan.zhihu.com/p/610171544</li>
</ul>
<p>基于该主题的有三个报告</p>
<h1 id="报告1predicting-dementia-from-speech-using-llms梁化楼教授德雷塞尔大学生物医学工程">报告1:Predicting Dementia from Speech using LLMs,梁化楼教授,德雷塞尔大学生物医学工程</h1>
<h2 id="基本信息">基本信息</h2>
<ul>
<li>Agbavor, F., & Liang, H. (2022). Predicting dementia from spontaneous speech using large language models. PLOS Digital Health, 1(12), e0000168. https://doi.org/10.1371/journal.pdig.0000168</li>
<li>基于英语的预测研究:Liberman 2014</li>
<li>基于普通话的研究:Yuan 2016 2020</li>
<li>梁化楼老师实验室网站:https://liang-lab.org/</li>
</ul>
<h2 id="报告笔记">报告笔记</h2>
<h3 id="前言">前言</h3>
<ul>
<li>Agbavor & Liang进行这项研究的核心目标是:
<ul>
<li>利用大规模预训练语言模型(GPT-3等)进行阿尔茨海默病检测,以突破基于手工特征和领域知识的方法的局限性(domain specific knowledge and hand-crafted transformations)。</li>
<li>前人的特征工程方法依赖专业领域知识且难以泛化。而预训练语言模型可以无监督从大规模文本中学习语言表示,并可以迁移到下游任务(downstream tasks)中。</li>
<li>该研究的最大创新就是首次探索了GPT-3在病人语音分析中的潜力,证明其可以跨领域地学习相关的语言表示,实现对阿尔茨海默病患者的有效检测。</li>
</ul>
</li>
<li>论证GPT-3相比传统方法的优越性,作者主要说了两点:
第一,更好的泛化能力。GPT-3通过无监督在大规模文本中进行预训练,可以进行零资料(zero-shot)学习,即不需要任务特定的数据就可以迁移到下游任务。这展示了其强大的跨领域泛化能力。
第二,编码丰富的语义知识。GPT-3可以学习输入文本的语义表示,编码大量世界知识。这可以帮助模型学习到显式特征无法表达的语义信息,增强下游任务的判别能力。
相比之下,前人在阿尔茨海默病检测中使用的特征工程方法,依赖于人工设计的领域特征,泛化能力和语义编码能力都较弱。因此,GPT-3无监督的预训练机制和语义建模能力,是其相比特征方法最大的优势,可以应用到病人语音分析中,达到更好的检测性能。</li>
<li>显示特征与GPT-3 word embeddings的区别
<ul>
<li>显式特征在英文中并没有一个统一的固定说法。显式特征相对于隐式特征,指的是那些可以直接观测和量化的特征。比较恰当的英文表达是:
<ul>
<li>Observable features</li>
<li>Quantifiable features</li>
<li>Hand-crafted features</li>
<li>Engineered features</li>
</ul>
</li>
<li>显示特征主要指前人研究中使用的手工设计的语音和语言特征,例如:
<ul>
<li>语音的声学特征(音高、音强、语速等)</li>
<li>文本的词频、词性、句法特征等</li>
<li>一些不可解释的黑盒模型提取的特征。</li>
</ul>
</li>
<li>这些特征都属于显式的、可解释的特征,可以明确定义和解释其语义。
而GPT-3学习的语义表示则是隐式的、不可解释的,它综合编码了文本的深层语义关系,这些知识是人工特征难以表达的。
所以前面提到的”显式特征”,主要指的是可解释性较强,可人工构建的特征,这些特征相比GPT-3等模型学习的隐式语义表示,表达能力和泛化能力较弱。</li>
</ul>
</li>
</ul>
<h3 id="methods">Methods</h3>
<ul>
<li>基本流程:输入(prompt) to GenerativeAI to Outputs</li>
<li>数据采集:经典的看图(cookie theft picture)说话任务(Goodglass 2001;Becker 1994)。
<ul>
<li>Goodglass H, Kaplan E, Weintraub S. BDAE: The Boston Diagnostic Aphasia Examination. Third. Lippincott Williams & Wilkins Philadelphia, PA; 2001.</li>
<li>Becker JT, Boiler F, Lopez OL, Saxton J, McGonigle KL. The Natural History of Alzheimer’s Disease:
Description of Study Cohort and Accuracy of Diagnosis. Arch Neurol. 1994 Jun 1; 51(6):585–94.</li>
</ul>
</li>
<li>样本量:
<ul>
<li>总样本量:There are totally 237 speech recordings, with 70/30 split balanced for demographics, resulting in 166 and 71 in the training set and the test set, respectively. 即一共237个被试的录音,3-7分为包含71个和166个被试数据的测试集和训练集。</li>
<li>训练集:In the training set, there are 87 samples from AD subjects and 79 from nonAD (or healthy control) subjects.</li>
</ul>
</li>
<li>从被试录音到word embeddings(speech to text)的主要步骤可能如下:
<ul>
<li>语音数据采集:对阿尔茨海默病患者和正常人群进行语音录制,获得原始语音数据。</li>
<li>语音识别:使用自动语音识别模型(Wav2Vec 2.0),将语音转录为文本。具体过程又分为以下几个过程:
* 使用预训练语音识别模型Wav2Vec 2.0。该模型是当前语音识别领域的 state-of-the-art 模型。state-of-the-art 模型指在该领域当前技术水平最高,性能最优的模型。例如论文提到的Wav2Vec 2.0 是语音识别领域当前性能最好的模型,代表了该领域的最新技术进展,所以将其描述为”state-of-the-art”。
* 选用该模型的wav2vec2-base-960h版本,该版本是在960小时LibriSpeech语音数据集上进行预训练和微调的。
* 使用librosa库加载语音波形数据。librosa是专门用于分析声音的python包。
* 使用Wav2Vec2Tokenizer对载入的波形进行tokenize。
* 如果必要,将波形切分成较小的chunk(本研究中最大大小为100,000),以适应内存。
* 将切分好的波形输入到Wav2Vec2ForCTC模型中进行语音识别。
* Wav2Vec2ForCTC模型将语音解码输出为文本转录。
* 最终获得语音对应的文本转录数据。</li>
<li>嵌入映射:使用预训练的大语言模型(chatGPT3等),为每个词汇生成词向量。
* 将speech-to-text转换得到的文本传给GPT-3模型。
* GPT-3模型会为文本中的每个词汇生成一个词向量(word embedding)。</li>
<li>构建词嵌入矩阵:将所有词汇的词向量连接,构成词嵌入矩阵(word embeddings matrix),用来表示整个训练集。
注意,通常情况下,一个预训练语言模型会为整个训练集构建一个统一的词向量矩阵,而不是为每个被试各自构建词向量矩阵。
这个统一的词向量矩阵可用于任意被试样本的表征。</li>
<li>构建数据集:将词嵌入矩阵与对应的标签组合,构建 294 语音识别与语音分析</li>
<li>训练模型:基于词嵌入矩阵训练分类模型。</li>
</ul>
</li>
<li>word embeddings的数量
<ul>
<li>训练集:91,000条转录(阿尔茨海默病患者10,000条,健康对照81,000条)</li>
<li>测试集:10,000条转录(阿尔茨海默病患者1,000条,健康对照9,000条)</li>
</ul>
</li>
<li>数据分析:
<ul>
<li>基本思路:使用LLMs进行分类和回归</li>
<li>基本流程:text embeddings → 对chatGPT进行一下微调(fine tuning)→ 文本embeddings之间的associations</li>
</ul>
</li>
</ul>
<h3 id="结果">结果</h3>
<ul>
<li>AD在描述故事时会颠三倒四,多重复性内容,不确定,不大敢说</li>
<li>不流利,具体表现为时间短、中止多(例如啊此类的语气词)、停顿多</li>
<li>单独的GPT3-词嵌入(GPT-3 embeddings)特征效果好于单独的声学特征(acoustic features)。</li>
<li>语义+语音特征的整合,对于预测率没有显著改善。但加入声学特征后,如果以recall降低为代价,可以提高预测率(precision)。
<ul>
<li>recall称为Sensitivity或True Positive Rate, 反映的是真正例中被正确识别出的比例,分母是真正例的总数。定义为: Recall = 真正例预测正确数 / 真正例总数 = True Positive / (True Positive真正例 + 漏诊False Negative)</li>
<li>precision衡量的是,在模型预测出的正例(例如病人)样本中,实际真正正确的比例。Precision = 真正例预测正确数 / 预测为正例总数 = True Positive / (真正例True Positive + 假正例False Positive)</li>
<li>通常precision和recall存在trade-off,precision提高时recall可能下降,反之亦然。建模时通常需要在precision和recall之间找到平衡。</li>
</ul>
</li>
</ul>
<h1 id="报告2利用停顿和包含停顿编码的大语言模型识别阿尔兹海默病袁家宏中国科技大学人文与社会科学学院教授">报告2:利用停顿和包含停顿编码的大语言模型识别阿尔兹海默病,袁家宏,中国科技大学人文与社会科学学院教授</h1>
<h2 id="基本信息-1">基本信息</h2>
<ul>
<li>袁家宏老师实验室网站:http://hsss.ustc.edu.cn/2022/1122/c20453a581925/page.htm</li>
<li>论文基本信息:Yuan, J., Cai, X., & Church, K. (2021, June). Pause-encoded language models for recognition of alzheimer’s disease and emotion. In ICASSP 2021-2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 7293-7297). IEEE.</li>
<li>与梁教授的区别:
<ul>
<li>人工转写,以保证对语音停顿的编码</li>
<li>梁教授:机器转写</li>
</ul>
</li>
</ul>
<h2 id="论文信息">论文信息</h2>
<ol>
<li>研究的科学问题。这篇论文的作者进行这个研究的主要原因和创新点如下:
<ul>
<li>原因:利用停顿信息改进阿尔茨海默病检测和情感识别的性能。</li>
<li>创新点:提出了停顿编码语言模型,通过在预训练语言模型中插入停顿符号,让模型学习停顿信息。是第一个利用停顿信息来同时改进病人语音的病症检测和情感识别的研究。</li>
<li>要解决的核心科学问题:
<ol>
<li>停顿信息如何帮助检测病人的语言障碍和情感状态?</li>
<li>如何有效地将停顿信息融合到语言模型中?</li>
<li>停顿编码预训练语言模型与标准模型相比,可以带来多大的性能提升?
相比于前人研究,该论文最大的创新在于提出了停顿编码(Pause-encoded language models)的想法,并通过预训练语言模型有效学习停顿信息,从而改进下游任务。该研究解决了如何利用停顿信息的科学问题,为病人语音分析提供了新思路。</li>
</ol>
</li>
</ul>
</li>
<li>
<p>样本量:
总样本量:542个语音样本;每个语音样本(录音)对应一个被试的一次发言。
训练集:392个(阿尔茨海默病患者192,健康对照200)
测试集:150个(阿尔茨海默病患者50,健康对照100)</p>
</li>
<li>与梁教授的论文差异。Yuan 2021和Agbavor 2022这两篇研究主要的区别有:
<ul>
<li>语音特征的差异
Yuan 2021使用了停顿编码的语言模型特征。
Agbavor 2022使用大规模语言模型提取的语义特征。</li>
<li>模型设计的不同
Yuan 2021采用停顿编码的预训练语言模型。
Agbavor 2022基于GPT-3等大模型微调得到分类模型。</li>
<li>目标任务的差异
Yuan 2021同时检测阿尔茨海默病和情感识别。
Agbavor 2022仅针对阿尔茨海默病识别。</li>
<li>数据规模的不同
<ul>
<li>Yuan 2021使用较小规模的数据集。</li>
<li>Agbavor 2022使用大规模医疗语音转录数据集。</li>
<li>正是由于数据集规模的原因,Yuan等人可以对小规模数据进行人工转写;而Agbavor等人只能对大规模数据进行机器转写。</li>
</ul>
</li>
<li>性能差异
<ul>
<li>Agbavor 2022的大模型精度更高。</li>
<li>但Yuan 2021提供了多任务的结果。</li>
<li>由此可知,影响模型最后精度的,不仅是数据量,还有数据的精确程度。
总体来说,两篇研究都使用语言模型技术,但Agbavor 2022使用了更大规模的预训练模型和数据集,取得了更高的阿尔茨海默病检测性能,是更加强力的工作。而Yuan 2021探索了停顿编码的创新点,并实现了多任务学习。</li>
</ul>
</li>
</ul>
</li>
</ol>
<h1 id="报告3基于语音准语言特征的阿尔兹海默病检测张卫强清华大学副研究员">报告3:基于语音准语言特征的阿尔兹海默病检测,张卫强,清华大学副研究员</h1>
<h2 id="基本信息-2">基本信息</h2>
<ul>
<li>个人主页:http://web.ee.tsinghua.edu.cn/wqzhang</li>
<li>语音与音频技术实验室(SATLab,Speech and Audio Technology Lab)主页:http://web.ee.tsinghua.edu.cn/satlab/en/index.htm</li>
<li>报告题目:基于语音的阿尔兹海默病检测</li>
<li>报告论文:Chen, X., Pu, Y., Li, J., & Zhang, W. Q. (2023, June). Cross-Lingual Alzheimer’s Disease Detection Based on Paralinguistic and Pre-Trained Features. In ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-2). IEEE.</li>
<li>论文介绍:http://web.ee.tsinghua.edu.cn/satlab/zh_CN/article/6966/content/1461.htm#article</li>
</ul>
<h2 id="论文思路">论文思路</h2>
<ol>
<li>AD的严重症状与发展趋势</li>
<li>AD的常用检测方法
<ul>
<li>认知功能评估</li>
<li>神经影响分析</li>
<li>生物标志物分析</li>
<li>遗传物质分析</li>
</ul>
</li>
<li>常用评估方法共同的局限性
<ul>
<li>流程复杂</li>
<li>成本高昂</li>
<li>医疗资源分配不均,不便于普惠大众</li>
</ul>
</li>
<li>所以AD的早期筛查非常重要。早发现,早干预,延缓AD的发病进程。</li>
<li>语音检测技术已经在情感检测和抑郁检测中应用,证明其可行性,且具有以下优势:
<ul>
<li>非侵入</li>
<li>低成本</li>
</ul>
</li>
<li>主要研究目的:
<ul>
<li>参加ICASSP-SPGC-2023 ADReSS-M挑战赛任务。该挑战赛涉及在训练集测试集不匹配的设置下对AD患者和健康对照进行分类以及预测MMSE得分。</li>
<li>探究哪些声学特征可以在不同语言之间进行泛化和转移,用于阿尔茨海默病(AD)预测。</li>
<li>评估多语言预训练模型在跨语言AD检测中的效果。作者检验了XLSR-53和RoBERTa等模型,以查看预训练特征是否可以跨语言转移。</li>
<li>探索多语言AD检测中的准语言特征(paralinguistic features)。作者假设准语言特征可以反映AD患者的变化,并可以跨语言推广。准语言特征在这个研究中指的是语音中的一些非语言信息特征,包括语调、语速、音量、语气等方面的特征。准语言特征不同于语音的语言内容本身,它更多反映说话者的情绪状态、个人风格等信息。研究人员的假设是,阿尔茨海默病患者在这些准语言特征表现上会有异常,例如语速变慢,语调单调等。而这些特征的变化可能与语言无关,在不同语言的患者中表现类似。</li>
</ul>
</li>
<li>语料特点:这个ADReSS挑战赛的训练集是英语,包含了英语母语患有阿尔茨海默病和健康人士的语音样本。但是测试集是希腊语,同样包含了希腊语母语患病者和健康人的语音。
所以研究人员面临的挑战是,他们只有英语训练集可以用来建模和训练,但是需要利用这些模型去预测希腊语测试集中的语音属于阿尔茨海默病患者还是健康人士。这种训练集测试集语言不匹配的设置增加了研究难度。研究人员期望能够找到一些泛化性强的语音特征,在英语训练集中进行学习,然后可以直接迁移到希腊语语音中,实现跨语言的病人检测。这就是为什么他们会探索准语言特征和预训练语音模型特征,希望找到一些跨语言可迁移的表示。</li>
<li>根据这篇论文,作者解决跨语言阿尔茨海默病检测这个研究问题的思路和具体实现流程大致如下:
<ul>
<li>思路:使用准语言特征和预训练语音模型特征,这些特征可能跨语言保持一致,因此可以训练英语模型后应用到希腊语测试集。</li>
<li>数据:论文使用了ADReSS挑战赛提供的英语训练集和希腊语测试集。</li>
<li>特征提取:使用openSMILE工具从语音中提取了三类准语言特征;使用预训练语音模型XLSR-53从语音中提取预训练特征。</li>
<li>模型训练:将上述特征作为输入,分别训练了支持向量机(SVM)分类模型和全连接神经网络回归模型。</li>
<li>预测:将希腊语测试集语音输入模型,提取相应特征,然后输入训练好的模型进行阿尔茨海默病分类或MMSE评分预测。</li>
<li>提交结果:将模型预测结果提交到ADReSS评测系统,得到分类准确率和回归RMSE作为最终评价指标。</li>
<li>分析:分析不同特征在跨语言任务中的效果,准语言特征效果较好,说明其跨语言迁移能力强。</li>
<li>结论:通过准语言特征可以实现英语模型到希腊语的迁移,实现跨语言阿尔茨海默病检测。
以上是论文中使用准语言特征和预训练特征进行病人检测的思路和流程。研究证明了准语言特征在这个任务中的效果较好,有望实现多语言痴呆检测。</li>
</ul>
</li>
<li>预训练特征(Pre-Trained Features)和准语言特征(Paralinguistic Features)是这个论文中使用的两类不同类型的语音特征,主要区别如下:
<ul>
<li>定义不同:
<ul>
<li>预训练特征:通过预训练语音模型(如XLSR-53)从语音中提取的语义特征表示,反映语音包含的语言信息内容。</li>
<li>准语言特征:主要反映说话者情绪、语调语气等非语言信息的语音特征。</li>
</ul>
</li>
<li>获得方式不同:
<ul>
<li>预训练特征:需要通过训练好的语音模型来映射语音到特征空间。</li>
<li>准语言特征:可以通过信号处理方法直接从语音中提取。</li>
</ul>
</li>
<li>语言依赖性不同:
<ul>
<li>预训练特征:与特定语言耦合较强,跨语言迁移能力较弱。</li>
<li>准语言特征:反映说话者状态,可跨语言保持一致。</li>
</ul>
</li>
<li>作用机制不同:
<ul>
<li>预训练特征: encodes语音语义内容,反映语言障碍。</li>
<li>准语言特征:反映说话方式,可检测非语言症状。</li>
</ul>
</li>
<li>效果不同:在论文中,准语言特征效果较好,更适合跨语言任务。
综上,两者属于不同类型语音特征,准语言特征更具跨语言迁移力,适合该研究的目标。</li>
</ul>
</li>
</ol>
<h1 id="总结">总结</h1>
<h2 id="acoustic-features-and-paralinguistic-features">Acoustic features and Paralinguistic features</h2>
<ul>
<li>疑问:Agbavor 2022论文中的Acoustic feature与Chen et al (2023). Cross-Lingual Alzheimer’s Disease Detection Based on Paralinguistic and Pre-Trained Features. In ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-2). IEEE.文章中的Paralinguistic features,有什么区别?综合来看,Agbavor 2022论文发现语义特征能够更加准确地预测AD分类,而chen等人(2023)却发现准语言特征比语义特征能够更加准确地进行跨语言预测AD,两个研究的结论是否冲突呢?</li>
<li>Agbavor 2022的Acoustic feature和Chen 2023的Paralinguistic features作为语音的声学特征,在本质上是相似的,都反映了语音在音高、音强、语速等方面的特征。</li>
<li>两者的区别主要在于:
<ul>
<li>Chen 2023工作更专注于语音的情感和语调方面的特征,而Agbavor 2022考察更全面的声学特征。</li>
<li>Chen 2023的特征面向跨语言任务,而Agbavor 2022主要用于单语言。</li>
</ul>
</li>
<li>至于两个研究在语义特征和声学特征上的结论不同,我认为不一定存在冲突:
<ul>
<li>两项研究的任务不同 - Agbavor 2022面向普通病人识别,Chen 2023面向跨语言识别,后者增加了语言转换的难度。</li>
<li>声学特征更语言无关,在跨语言任务中效果更好是合理的。而语义特征依赖语言,跨语言效果较差也在预期中。</li>
<li>两项研究都证实结合语义和声学特征效果最好,说明两者提供了互补的信息。</li>
</ul>
</li>
<li>综上所述,这两项研究结论的不同之处主要是由于任务的不同带来的,两者并不真正存在对立。结合使用语义和声学特征仍是更好的选择。</li>
</ul>陈圣栋大语言模型的基本知识语义网络以及基本词汇分析方法2023-08-07T22:10:20+00:002023-08-07T22:10:20+00:00ssdd.site/language/2023/08/07/%E8%AF%AD%E4%B9%89%E7%BD%91%E7%BB%9C%E4%BB%A5%E5%8F%8A%E5%9F%BA%E6%9C%AC%E8%AF%8D%E6%B1%87%E5%88%86%E6%9E%90%E6%96%B9%E6%B3%95<h1 id="1-语义网络的基本理论和概念">1. 语义网络的基本理论和概念</h1>
<h2 id="语义角色">语义角色</h2>
<ul>
<li>“语义角色”(semantic role/semantische Rolle,或称主题关系,thematic relations)的概念是美国语言学家Charles J. Fillmore于1968年提出的。
https://zhuanlan.zhihu.com/p/42401502</li>
</ul>
<h2 id="语义的网络">语义的网络</h2>
<ul>
<li>语义网络分析(Semantic Network Analysis)是社会网络分析技术在文本分析中的一种运用。语义网络分析背后的假设是在文本中频繁共现的词语或概念之间暗含着某种联系,而这些联系可以通过一些统计指标(如共现频率)来进行测量。这一方法有助于社会科学研究者通过词语之间的联系,识别出文本内包含的话题(Topic)或框架(Frame)。</li>
<li>语义网络(semantic network)是一种知识结构,它描述了概念之间的相互关系,并说明了概念之间的相互联系</li>
<li>语义网络是一个有向或无向图,由代表概念的顶点(nodes)和代表概念间语义关系的边(edges)组成,映射或连接语义场(semantic field)。语义场(semantic field)是现代语义学中非常重要的理论,由德国语言学家特雷尔(J.Trier)在20世纪三十年代提出。它指的是归属于一个共同概念之下的、意思上紧密相联并相互制约的一组词的聚合体,也称为义场、词汇场或词场。在一个语义场中,每个词都有共同的概念特征,这些特征使得它们在意义上相互关联并相互制约。语义场可以通过不同的词之间的对比,根据它们词义的共同特点或关系划分出来。例如,“胳膊”、“胸”、“腹”、“脚”、“头”、“腿”等词都属于“人体器官”这个语义场。另一个例子是关于“人的长相”的语义场,包括“美丽”、“丑陋”、“秀气”、“清秀”、“俊”、“英俊”等词。这些词都在描述人的外貌特征,因此它们属于同一个语义场。总之,语义场是一种将词汇按照其意义进行分类和组织的方式,它有助于我们理解和分析语言中的词汇和语义关系。</li>
<li>语义网络分析的基础是识别文本中的词语联系。以中文文本为例,由于中文词语之间不存在自然间隔,所以在进行分析前,我们需要将句子切分成单个词语的组合,并将词语作为网络中的节点(node)。</li>
<li>
<p>其中,某些不具有实质性含义的停用词(stopword)需要清理(比如“而且”),而某些具有同样含义的词语则需要统一(如“真的”和“真实”)。然后,我们需要找出词语之间的关联,比如两个字在句子中是相邻的就是联系的一种方式。词语之间的关联可以作为网络中的边(edge)。</p>
</li>
<li>https://mp.weixin.qq.com/s/WITFYQY5IWyV67RIlJw0nQ</li>
</ul>
<h2 id="基本文献">基本文献</h2>
<ul>
<li>Borsboom, D., Deserno, M. K., Rhemtulla, M., Epskamp, S., Fried, E. I., McNally, R. J., Robinaugh, D. J., Perugini, M., Dalege, J., Costantini, G., Isvoranu, A.-M., Wysocki, A. C., van Borkulo, C. D., van Bork, R., & Waldorp, L. J. (2021). Network analysis of multivariate data in psychological science. Nature Reviews Methods Primers, 1(1), Article 1. https://doi.org/10.1038/s43586-021-00055-w</li>
<li>Borsboom, D., Rhemtulla, M., Cramer, A. O., van der Maas, H. L., Scheffer, M., & Dolan, C. V. (2016). Kinds versus continua: A review of psychometric approaches to uncover the structure of psychiatric constructs. Psychological medicine, 46(8), 1567-1579.</li>
<li>Boschloo, L., van Borkulo, C. D., Borsboom, D., & Schoevers, R. A. (2016). A prospective study on how symptoms in a network predict the onset of depression. Psychotherapy and psychosomatics, 85(3), 183-184.</li>
<li>Borsboom, D., Robinaugh, D. J., Group, T. P., Rhemtulla, M., & Cramer, A. O. (2018). Robustness and replicability of psychopathology networks. World Psychiatry, 17(2), 143.</li>
<li>Van Borkulo, C. D., van Bork, R., Boschloo, L., Kossakowski, J. J., Tio, P., Schoevers, R. A., Borsboom, D., & Waldorp, L. J. (2022). Comparing network structures on three aspects: A permutation test. Psychological Methods. DOI: 10.1037/met0000476</li>
<li>
<p>Johal, S. K., & Rhemtulla, M. (2021). Comparing estimation methods for psychometric networks with ordinal data. Psychological Methods, No Pagination Specified-No Pagination Specified. https://doi.org/10.1037/met0000449 (序列数据的网络分析-例如通过李克特量表采集的问卷数据都是序列数据)</p>
</li>
<li>
<p>van Borkulo, C. D., van Bork, R., Boschloo, L., Kossakowski, J. J., Tio, P., Schoevers, R. A., Borsboom, D., & Waldorp, L. J. (2022). Comparing network structures on three aspects: A permutation test. Psychological Methods, No Pagination Specified-No Pagination Specified. https://doi.org/10.1037/met0000476</p>
</li>
<li>
<p>Quinn, K., & M. Powers, R. (2016). Revisiting the concept of ‘sharing’for digital spaces: An analysis of reader comments to online news. Information, Communication & Society, 19(4), 442-460. 2016年,Quinn和Powers在一篇关于网络分享概念的研究中使用了该方法。为了探究数字化时代下人们如何理解“分享”这一概念,两位研究者下载了纽约时报网站中关于“分享”的文章与这些文章的在线评论文本,并在清理文本后对数据展开了语义网络分析(见图1)。图中每一个点对应了一个词语,词语之间的连线就代表这两个词曾经一起出现。</p>
</li>
<li>Chen, Z., Su, C. C., & Chen, A. (2019). Top-down or bottom-up? A network agenda-setting study of Chinese nationalism on social media. Journal of Broadcasting & Electronic Media, 63(3), 512-533.</li>
<li>郑雯, 桂勇, & 黄荣贵. (2019). 论争与演进: 作为一种网络社会思潮的改革开放——以 2013-2018 年 2.75 亿条微博为分析样本. 新闻记者, 1.</li>
</ul>
<h2 id="语义网络在创造力中的应用">语义网络在创造力中的应用</h2>
<ul>
<li>经典研究范式: Benedek, M., Kenett, Y. N., Umdasch, K., Anaki, D., Faust, M., & Neubauer, A. C. (2017). How semantic memory structure and intelligence contribute to creative thought: A network science approach. Thinking & Reasoning, 23(2), 158-183.</li>
<li>Kenett, Y. N., Levy, O., Kenett, D. Y., Stanley, H. E., Faust, M., & Havlin, S. (2018). Flexibility of thought in high creative individuals represented by percolation analysis. Proceedings of the National Academy of Sciences, 115(5), 867–872. https://doi.org/10.1073/pnas.1717362115</li>
<li>何李. (2022). 语义网络的中枢概念对创造性思维的影响及其认知神经机制 [博士, 西南大学]. https://doi.org/10.27684/d.cnki.gxndx.2022.000016</li>
</ul>
<h2 id="网络分析的基础知识">网络分析的基础知识</h2>
<ul>
<li>https://dshizuka.github.io/networkanalysis/04_measuring.html</li>
</ul>
<h3 id="节点nodes">节点(nodes)</h3>
<ol>
<li>使用什么样的语言特征来作为节点量化特征?
<ul>
<li>显示特征</li>
<li>隐形特征——word embeddings</li>
</ul>
</li>
<li>使用哪些词汇作为节点?
<ul>
<li>先验方法,事先选取感兴趣的关键词,例如多人独立根据任务要求选取,再合并去重</li>
<li>后验方法,通过概率选取高频词等基于数据驱动的方法</li>
</ul>
</li>
<li>使用多少个词汇作为节点?
<ul>
<li>节点多,则网络密集(dense);节点少,则网络稀疏</li>
<li>研究表明,相比稀疏网络,密集网络中相关结果更好;https://www.nature.com/articles/srep08665</li>
</ul>
</li>
</ol>
<h3 id="边语义相似性和语义距离">边:语义相似性和语义距离</h3>
<ul>
<li>从信息论的角度来看,相似性被定义为两个文本片段之间的共同点。</li>
<li>Wang, J., & Dong, Y. (2020). Measurement of text similarity: a survey. Information, 11(9), 421.</li>
<li><strong>语义相关性</strong>包括两个术语之间的任何关系,而<strong>语义相似性</strong>仅包括“是”关系。 例如,“car”与“bus”类似,但也与“road”、“driving”相关。</li>
</ul>
<h3 id="相似的程度">相似的程度</h3>
<ul>
<li>语义相似度是有程度大小之分的。</li>
<li>粒度是指数据仓库的数据单位中保存数据的细化或综合程度的级别。细化程度越高,粒度级就越小;相反,细化程度越低,粒度级就越大。在数据仓库环境中,粒度是一个重要的设计问题,他影响到数据仓库的数据量和系统能回答的查询类型,粒度越小,细节程度越高,能回答查询就越多,但是存储的东西也就越多。</li>
<li>Demo
<ul>
<li>相似句:肺部发炎是什么原因引起的-肺部发炎是什么引起的</li>
<li>不相似句:肺部发炎是什么原因引起的-肺部炎症有什么症状</li>
</ul>
</li>
<li>什么叫做相似,什么叫做不相似,依赖于场景和任务的具体要求是什么。以Demo来看:
<ul>
<li>如果是判断大粒度意图的话(是否是医疗问句)那就是相似句</li>
<li>如果是小粒度(症状意图、病因意图)那这两句就不相似。</li>
</ul>
</li>
</ul>
<h3 id="相关理论">相关理论</h3>
<ul>
<li>有什么理论来可以解释语义的相似性?</li>
<li>有什么理论支持语义网络的构建?</li>
<li>语义网络分析的优势和劣势都是什么?</li>
</ul>
<h3 id="语义相似度计算方法">语义相似度计算方法</h3>
<ol>
<li>余弦相似度(Cosine similarity) (Landauer et al., 1998)</li>
<li>欧式距离(Euclidean Distance)</li>
<li>曼哈顿距离(Manhattan Distance)</li>
<li>明可夫斯基距离(Minkowski distance)</li>
</ol>
<ul>
<li>韩程程, 李磊, 刘婷婷, 高明. 语义文本相似度计算方法[J]. 华东师范大学学报(自然科学版), 2020, (5): 95-112. doi: 10.3969/j.issn.1000-5641.202091011</li>
</ul>
<h3 id="gpt-答疑">GPT 答疑</h3>
<ul>
<li><strong>现在我要用一些词汇的word embeddings来构建语义网络。我计算了这些词汇word embeddings之间的余弦相似度(cosine similarity)。我现在不确定,这个语义网络中,节点之间 边是否应该对应余弦相似度。或者我需要先把用1减去余弦相似度获得余弦距离,用余弦距离来做反应语义网络的边。请你根据语义网络的前人研究,分析一下我应该用余弦相似度还是余弦距离作为语义网络的边,边的长短应该怎么解释,给出具体的依据和参考文献。</strong>
<ul>
<li>在构建语义网络时,可以使用余弦相似度或余弦距离作为节点之间边的权重,具体取决于你希望边表示的含义。</li>
<li>如果你希望边表示两个词汇的语义接近程度,那么可以使用余弦相似度。余弦相似度的值范围为-1到1,其中1表示完全相同,0表示无关,-1表示完全相反。这种方式下,边的长度可以解释为语义的差异程度:长度越短,语义越相似;长度越长,语义越不同。</li>
<li>另一方面,如果你希望边表示两个词汇的语义距离,那么可以使用1减去余弦相似度得到的余弦距离。这样,边的长度就直接对应了语义的距离:长度越短,距离越近,即语义越相似;长度越长,距离越远,即语义越不同。</li>
</ul>
</li>
<li>
<p>以下是一些相关参考文献:
* Kenett, Y. N., Levi, E., Anaki, D., & Faust, M. (2017). The semantic distance task: Quantifying semantic distance with semantic network path length. Journal of Experimental Psychology: Learning, Memory, and Cognition, 43(9), 1470–1489. https://doi.org/10.1037/xlm0000391
* Hashemikamangar, S. S., Bakouie, F., & Gharibzadeh, S. (2020, November). Children Semantic Network Growth: A Graph Theory Analysis. In 2020 27th National and 5th International Iranian Conference on Biomedical Engineering (ICBME) (pp. 318-321). IEEE.
* Nematzadeh, A., Fazly, A., & Stevenson, S. (2014, October). A cognitive model of semantic network learning. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) (pp. 244-254).
* Harrington, B. (2010, August). A semantic network approach to measuring relatedness. In Coling 2010: Posters (pp. 356-364).</p>
</li>
<li><strong>为什么1减去余弦相似度可以得到余弦距离?为什么余弦距离可以反映语义距离</strong>
<ul>
<li>余弦相似度是衡量两个向量方向相似度的一种方法,其值的范围在-1到1之间。当两个向量完全重合时,余弦相似度为1;当两个向量垂直时,余弦相似度为0;当两个向量方向完全相反时,余弦相似度为-1。因此,余弦相似度越接近1,表示两个向量(在这里即词汇的word embeddings)越相似。</li>
<li>然而,在很多情况下,我们更关心的是两个向量之间的“距离”或者说“差异”,而非它们的相似度。这时候,我们可以通过计算“1减去余弦相似度”来得到一个新的指标,也就是所谓的“余弦距离”。这样做的好处是,当两个向量完全重合(即完全相似)时,余弦距离为0;当两个向量完全不相关时,余弦距离为1。换句话说,“余弦距离”能够很好地反映出两个向量之间的差异程度。</li>
<li>在语义分析中,每个词汇都可以通过word embeddings转化为一个高维空间中的点(或者说向量)。因此,我们可以通过计算不同词汇之间word embeddings的“余弦距离”,来衡量这些词汇在语义上的“差异”或者说“距离”。</li>
</ul>
</li>
<li>参考文献:
<ul>
<li>Singh, P., & Sawhney, R. (2018). Semantic similarity in WordNet and Word2Vec for cyberbullying detection. 2018 International Conference on Advances in Computing, Communications and Informatics (ICACCI). IEEE.</li>
<li>Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. (2013). Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems (pp. 3111-3119).</li>
</ul>
</li>
</ul>
<h2 id="可视化">可视化</h2>
<ul>
<li>我们可以使用Wordij自带的可视化(Visij)功能来进行语义网的可视化。</li>
<li>如果追求进一步的聚类分析(Cluster Analysis)与更加美观的可视化效果,则可以将Wordij的输出结果进一步地输入到Gepihi软件(https://gephi.org/)中,利用Gephi来实现语义网络的可视化。具体方法为:
<ul>
<li>将Wordji中生成的Net文件</li>
<li>将net文件导入Gephi中,并利用Gephi的模块化功能实现节点的聚类,或利用度筛选功能实现节点筛选等。</li>
</ul>
</li>
</ul>
<h2 id="paper1">Paper1</h2>
<ul>
<li>Miani, A., Hills, T., & Bangerter, A. (2022). Interconnectedness and (in) coherence as a signature of conspiracy worldviews. Science Advances, 8(43), eabq3668.</li>
</ul>
<h3 id="研究思路">研究思路</h3>
<ul>
<li>作者的核心思路在于,如何把阴谋论文本网络化,网络的节点和连接应该对应什么概念,如何量化和计算?</li>
<li>理解该文章思路的关键在于搞清楚,作者如何利用种子点和主题词的共现(the co-occurrences of seeds and LDA topics)来进行语义网络的构建。</li>
<li>语义网络
<ul>
<li>节点(nodes): seeds vs. topics</li>
<li>边(edges):the co-occurrences of seeds and LDA topics。</li>
<li>数据格式:行(rows)是文件/报告(documents) * 列是seeds or topics。例如,有100篇报道,每篇报道有10-20个主题。</li>
<li>关键的操作,如何从topics相关矩阵,转换得到co-occurrences矩阵。</li>
</ul>
</li>
<li>topics和seeds的向量化。此处应当了解,类似于word embeddings的概念,每个topic或seed在数据中都应该进行了向量化。然后,不同的topics之间就可以进行perason相关计算。
例如吴孟达和周星驰之间的相关,就应该高于梦露和周星驰之间的相关。</li>
<li>背景知识:在LDA主题模型中,每个主题都是一个概率分布,表示该主题下单词出现的概率。这个概率分布可以看作是一个向量,其中每个元素表示该单词在该主题下的概率。例如,假设有一个主题关于体育,它的关键词分布可能是:“篮球:0.2,足球:0.1,棒球:0.05,跑步:0.03,运动:0.02”等。
同样地,种子词也可以表示成向量形式。例如,假设有3个种子词:“健康”、“锻炼”和“饮食”,它们可以表示为一个3维向量:“健康:[0.5, 0.3, 0.2], 锻炼:[0.2, 0.3, 0.5], 饮食:[0.1, 0.2, 0.7]”。这种向量的表示方式有助于在主题模型中进行数学运算和统计推理。通过向量运算,可以计算单词之间的相似性、主题之间的相关性等。</li>
<li>为了解释如何从between-topic correlation matrix转换到co-occurrence matrices,我们可以考虑以下步骤。
<ol>
<li>首先,假设我们已经得到了一个between-topic correlation matrix,其中每个元素表示一对主题之间的相关性。</li>
<li>然后,我们可以将这个matrix扩展到包含所有主题对的相关性。在这个扩展matrix中,每行表示一个主题与其他所有主题的相关性。</li>
<li>接下来,我们可以将这个扩展matrix转换为co-occurrence matrices。具体来说,我们可以为每个文档创建一个co-occurrence matrix,其中每个元素表示一对关键词在该文档中的共现频率。</li>
<li>最后,我们可以使用这些co-occurrence matrices来构建共现网络,其中每个节点表示一个关键词,每条边表示一对关键词之间的共现关系。
以下是一个简单的例子来说明这个过程:</li>
</ol>
</li>
</ul>
<p>假设我们有一个包含三个主题A、B和C的between-topic correlation matrix:</p>
<div class="language-css highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="o">|</span> <span class="nt">A</span> <span class="o">|</span> <span class="nt">B</span> <span class="o">|</span> <span class="nt">C</span> <span class="o">|</span>
<span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span>
<span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">1</span> <span class="o">|</span>
<span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span>
<span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">1</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span>
</code></pre></div></div>
<p>然后,我们将这个matrix扩展到包含所有主题对的相关性:</p>
<div class="language-css highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="o">|</span> <span class="nt">A</span> <span class="o">|</span> <span class="nt">B</span> <span class="o">|</span> <span class="nt">C</span> <span class="o">|</span> <span class="nt">AB</span> <span class="o">|</span> <span class="nt">AC</span> <span class="o">|</span> <span class="nt">BC</span> <span class="o">|</span> <span class="nt">ABC</span> <span class="o">|</span>
<span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">-----</span><span class="o">|</span>
<span class="o">|</span> <span class="nt">A</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span>
<span class="o">|</span> <span class="nt">B</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">2</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">8</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span>
<span class="o">|</span> <span class="nt">C</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">1</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">1</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">3</span> <span class="o">|</span> <span class="err">0</span><span class="o">.</span><span class="err">1</span> <span class="o">|</span>
</code></pre></div></div>
<p>接下来,我们为每个文档创建一个co-occurrence matrix:</p>
<p>假设我们有一个文档d,其中包含了主题A、B和C的关键词,并且这些关键词在文档中以以下顺序出现:A -> B -> C -> A -> B -> C -> A。</p>
<p>那么,对应的co-occurrence matrix如下:</p>
<div class="language-css highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="o">|</span> <span class="nt">A</span> <span class="o">|</span> <span class="nt">B</span> <span class="o">|</span> <span class="nt">C</span> <span class="o">|</span> <span class="nt">AB</span> <span class="o">|</span> <span class="nt">AC</span> <span class="o">|</span> <span class="nt">BC</span> <span class="o">|</span> <span class="nt">ABC</span> <span class="o">|</span>
<span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">---</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">----</span><span class="o">|</span><span class="nt">-----</span><span class="o">|</span>
<span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="err">1</span> <span class="o">|</span> <span class="nt">A</span> <span class="nt">-</span><span class="o">></span> <span class="nt">B</span> <span class="nt">-</span><span class="o">></span> <span class="nt">C</span> <span class="nt">-</span><span class="o">></span> <span class="nt">A</span> <span class="nt">-</span><span class="o">></span> <span class="nt">B</span> <span class="nt">-</span><span class="o">></span> <span class="nt">C</span> <span class="nt">-</span><span class="o">></span> <span class="nt">A</span>
</code></pre></div></div>
<p>最后,我们可以使用这些co-occurrence matrices来构建共现网络。在这个例子中,我们只有一个co-occurrence matrix,所以我们可以直接使用该matrix构建一个包含三个节点的共现网络。</p>
<h3 id="研究方法探讨">研究方法探讨</h3>
<ul>
<li>作者使用R包<code class="language-plaintext highlighter-rouge">topicmodels</code>来进行主题提取。以下是一个简单的例子,说明如何使用该包进行主题提取:</li>
</ul>
<div class="language-R highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c1"># 安装和加载topicmodels包</span><span class="w">
</span><span class="n">install.packages</span><span class="p">(</span><span class="s2">"topicmodels"</span><span class="p">)</span><span class="w">
</span><span class="n">library</span><span class="p">(</span><span class="n">topicmodels</span><span class="p">)</span><span class="w">
</span><span class="c1"># 加载LOCO语料库</span><span class="w">
</span><span class="n">data</span><span class="p">(</span><span class="s2">"loco"</span><span class="p">)</span><span class="w">
</span><span class="c1"># 对语料库进行预处理</span><span class="w">
</span><span class="n">preproc</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="k">function</span><span class="p">(</span><span class="n">words</span><span class="p">)</span><span class="w"> </span><span class="p">{</span><span class="w">
</span><span class="n">words</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">tolower</span><span class="p">(</span><span class="n">words</span><span class="p">)</span><span class="w">
</span><span class="n">words</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">tm_map</span><span class="p">(</span><span class="n">words</span><span class="p">,</span><span class="w"> </span><span class="n">content_transformer</span><span class="p">(</span><span class="n">removePunctuation</span><span class="p">))</span><span class="w">
</span><span class="n">words</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">tm_map</span><span class="p">(</span><span class="n">words</span><span class="p">,</span><span class="w"> </span><span class="n">content_transformer</span><span class="p">(</span><span class="n">removeNumbers</span><span class="p">))</span><span class="w">
</span><span class="n">words</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">tm_map</span><span class="p">(</span><span class="n">words</span><span class="p">,</span><span class="w"> </span><span class="n">content_transformer</span><span class="p">(</span><span class="n">removeWords</span><span class="p">),</span><span class="w"> </span><span class="n">stopwords</span><span class="p">(</span><span class="s2">"smart"</span><span class="p">))</span><span class="w">
</span><span class="n">words</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">tm_map</span><span class="p">(</span><span class="n">words</span><span class="p">,</span><span class="w"> </span><span class="n">content_transformer</span><span class="p">(</span><span class="n">stripWhitespace</span><span class="p">))</span><span class="w">
</span><span class="nf">return</span><span class="p">(</span><span class="n">words</span><span class="p">)</span><span class="w">
</span><span class="p">}</span><span class="w">
</span><span class="n">loco</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">preproc</span><span class="p">(</span><span class="n">loco</span><span class="p">)</span><span class="w">
</span><span class="c1"># 创建语料库矩阵</span><span class="w">
</span><span class="n">matrix</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">TermDocumentMatrix</span><span class="p">(</span><span class="n">loco</span><span class="p">)</span><span class="w">
</span><span class="c1"># 使用LDA算法进行主题提取</span><span class="w">
</span><span class="n">lda_model</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">LDA</span><span class="p">(</span><span class="n">matrix</span><span class="p">,</span><span class="w"> </span><span class="n">k</span><span class="w"> </span><span class="o">=</span><span class="w"> </span><span class="m">5</span><span class="p">)</span><span class="w"> </span><span class="c1"># 这里选择5个主题</span><span class="w">
</span><span class="c1"># 输出主题信息</span><span class="w">
</span><span class="n">print</span><span class="p">(</span><span class="n">lda_model</span><span class="p">)</span><span class="w">
</span><span class="c1"># 输出每个主题中概率较高的单词</span><span class="w">
</span><span class="n">topics</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">topics</span><span class="p">(</span><span class="n">lda_model</span><span class="p">)</span><span class="w">
</span></code></pre></div></div>
<p>在上述代码中,首先加载了<code class="language-plaintext highlighter-rouge">topicmodels</code>包,然后加载了LOCO语料库。接下来,定义了一个预处理函数<code class="language-plaintext highlighter-rouge">preproc</code>,用于对语料库中的文本进行预处理,包括转换为小写、去除标点符号、去除数字、去除停用词和去除空白。然后,对LOCO语料库进行预处理。
接下来,创建了一个语料库矩阵,然后使用<code class="language-plaintext highlighter-rouge">LDA()</code>函数进行主题提取。在<code class="language-plaintext highlighter-rouge">LDA()</code>函数中,指定了矩阵和主题数量(k值)。然后,通过打印模型信息可以查看主题信息。
最后,使用<code class="language-plaintext highlighter-rouge">topics()</code>函数提取每个主题中概率较高的单词,这将给出每个主题的主题分布。</p>
<ul>
<li>在该文中,Seeds和LDA topics有和区别和联系,请举例说明
在文中,Seeds和LDA topics是两个不同的概念。Seeds是指作者在LOCO语料库中选取的一组关键词,用于初始化LDA模型的主题分布。而LDA topics则是通过运行LDA模型后从语料库中提取出来的主题。
Seeds是一组具有代表性的单词,它们在LOCO语料库中出现频率较高,可以代表该语料库中的重要信息。作者选取了35个Seeds,并将其分为五组,每组七个单词。Seeds的作用是提供主题分布的初始值,以加速LDA模型的收敛。
LDA是一种基于概率的主题模型,它通过对文本中的词频和词序进行分析,推断出文本的主题。在运行LDA模型后,从LOCO语料库中提取出了五个主题。这些主题涵盖了不同的领域和话题,例如第一主题涉及医疗、保健和疾病,第二主题涉及社会、文化和媒体,第三主题涉及政治、法律和权力,第四主题涉及经济、商业和市场,第五主题涉及环境、生态和自然。
虽然Seeds只是用于初始化LDA模型的主题分布,但Seeds的选择对于主题的提取具有一定的影响。例如,如果Seeds的选取不具有代表性或过于局限于某一领域,可能会导致主题分布的不均衡或偏差。因此,Seeds的选择应该考虑到语料库的多样性和代表性。
总之,Seeds和LDA topics是不同的概念,但Seeds的选择对于LDA模型的运行和主题提取具有一定的指导作用。</li>
<li>根你的回答我,我感觉作者应该先确定seeds,在根据seeds确定topics。但是实际上,作者先进行了topic extraction,再进行了seeds extraction。在topic extraction的过程中,似乎并没有用到seeds?
你是对的,作者在文章中的步骤是先进行了主题提取(topic extraction),然后再进行了种子词提取(seeds extraction)。在这个过程中,确实没有直接使用Seeds来提取Topics。
实际上,Seeds主要用于初始化LDA模型的主题分布,这对模型的结果会有一定影响。但并不是说必须要先确定Seeds,再提取Topics。你也可以直接对整个语料库运行LDA模型,而不需要事先确定Seeds。
作者可能选择先进行主题提取,然后再提取种子词,是为了确保提取的Topics能尽可能地反映语料库的真实主题,而不是被Seeds所引导。因为Seeds虽然可以提供初始的主题分布,但如果Seeds的选择不够准确,可能会影响到最终的主题提取结果。
总的来说,虽然Seeds和Topics有联系,但它们是两个不同的步骤,而且它们的提取顺序并不是固定的,可以根据实际需求进行调整。</li>
<li>我感觉作者是将seeds与topics视为两种并行的关系,前者是基于先验概率的关键词,后者是基于后验概率的关键词。作者后面同时进行了基于seeds和基于topics的网络构建,这可能是为了避免方法偏倚,尽可能保证所构建的语义网络反映了实际的文本情况。</li>
<li>
<p>通过LDA主题提取,构建共现网络——co-occurrences of LDA topics是什么意思,请举例说明
“Co-occurrences of LDA topics”指的是LDA主题的共现。LDA(Latent Dirichlet Allocation)是一种主题模型,用于从大量文本中提取主题。在LDA中,每个主题都由一组概率分布的关键词构成。当一个文档涵盖了多个主题时,这些主题的关键词可能会在该文档中同时出现,这就形成了主题的共现。
举例来说,假设我们有一个关于电影的语料库,我们使用LDA从中提取了三个主题,分别是”科幻”、”动作”和”喜剧”。在某个文档中,如果同时出现了”星球大战”、”詹姆斯·邦德”和”周星驰”这三个关键词,那么我们就可以说这三个主题(”科幻”、”动作”和”喜剧”)在该文档中发生了共现。
Co-occurrences of LDA topics可以帮助我们理解不同主题之间的联系和相互影响。通过分析主题共现的情况,我们可以发现某些主题之间可能存在的关联或者排斥关系,这对于理解文本的整体结构和语义内涵具有重要的意义。</p>
</li>
<li>作者具体如何使用igraph构建共现网络,举例说明
作者具体使用igraph构建共现网络的方法如下:</li>
</ul>
<ol>
<li>安装和加载igraph包:首先,安装igraph包,然后加载igraph包。</li>
</ol>
<div class="language-R highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">install.packages</span><span class="p">(</span><span class="s2">"igraph"</span><span class="p">)</span><span class="w">
</span><span class="n">library</span><span class="p">(</span><span class="n">igraph</span><span class="p">)</span><span class="w">
</span></code></pre></div></div>
<ol>
<li>构建共现关系矩阵:使用上一步中的共现关系矩阵构建igraph对象。</li>
</ol>
<div class="language-R highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">cooccurrence_matrix</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">matrix</span><span class="p">(</span><span class="n">cooccurrences</span><span class="p">,</span><span class="w"> </span><span class="n">nrow</span><span class="w"> </span><span class="o">=</span><span class="w"> </span><span class="nf">length</span><span class="p">(</span><span class="n">seeds</span><span class="p">),</span><span class="w"> </span><span class="n">ncol</span><span class="w"> </span><span class="o">=</span><span class="w"> </span><span class="nf">length</span><span class="p">(</span><span class="n">seeds</span><span class="p">))</span><span class="w">
</span><span class="n">ig_graph</span><span class="w"> </span><span class="o"><-</span><span class="w"> </span><span class="n">graph_from_adjacency_matrix</span><span class="p">(</span><span class="n">cooccurrence_matrix</span><span class="p">,</span><span class="w"> </span><span class="n">mode</span><span class="w"> </span><span class="o">=</span><span class="w"> </span><span class="s2">"undirected"</span><span class="p">,</span><span class="w"> </span><span class="n">weighted</span><span class="w"> </span><span class="o">=</span><span class="w"> </span><span class="kc">TRUE</span><span class="p">)</span><span class="w">
</span></code></pre></div></div>
<p>这里,<code class="language-plaintext highlighter-rouge">cooccurrences</code>是关键词的共现频率矩阵,<code class="language-plaintext highlighter-rouge">seeds</code>是种子词列表。<code class="language-plaintext highlighter-rouge">graph_from_adjacency_matrix()</code>函数根据共现矩阵创建一个无向图,其中每个节点对应一个种子词,每个边对应两个种子词之间的共现关系。<code class="language-plaintext highlighter-rouge">mode = "undirected"</code>表示创建无向图,<code class="language-plaintext highlighter-rouge">weighted = TRUE</code>表示边的权重是基于共现频率的。</p>
<ol>
<li>可视化共现网络:使用igraph的函数对共现网络进行可视化。</li>
</ol>
<div class="language-R highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">plot</span><span class="p">(</span><span class="n">ig_graph</span><span class="p">,</span><span class="w"> </span><span class="n">vertex.size</span><span class="o">=</span><span class="m">10</span><span class="p">,</span><span class="w"> </span><span class="n">vertex.label.cex</span><span class="o">=</span><span class="m">0.8</span><span class="p">)</span><span class="w">
</span></code></pre></div></div>
<p>这里,<code class="language-plaintext highlighter-rouge">plot()</code>函数用于绘制图形,<code class="language-plaintext highlighter-rouge">vertex.size=10</code>表示节点的大小为10,<code class="language-plaintext highlighter-rouge">vertex.label.cex=0.8</code>表示节点标签的字体大小为0.8倍。</p>
<p>举例来说,假设我们有一个关于电影的语料库,我们使用LDA从中提取了三个主题,分别是”科幻”、”动作”和”喜剧”。假设种子词列表为<code class="language-plaintext highlighter-rouge">seeds = c("星球大战", "詹姆斯·邦德", "周星驰")</code>,关键词的共现频率矩阵为:</p>
<div class="language-csharp highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">cooccurrences</span> <span class="p">=</span> <span class="nf">array</span><span class="p">(</span><span class="nf">c</span><span class="p">(</span><span class="m">30</span><span class="p">,</span> <span class="m">20</span><span class="p">,</span> <span class="m">10</span><span class="p">,</span> <span class="m">15</span><span class="p">,</span> <span class="m">25</span><span class="p">,</span> <span class="m">10</span><span class="p">,</span> <span class="m">5</span><span class="p">,</span> <span class="m">5</span><span class="p">,</span> <span class="m">5</span><span class="p">,</span> <span class="m">5</span><span class="p">),</span> <span class="n">dim</span> <span class="p">=</span> <span class="nf">c</span><span class="p">(</span><span class="m">3</span><span class="p">,</span> <span class="m">4</span><span class="p">))</span>
</code></pre></div></div>
<p>那么,我们可以按照上述步骤构建一个igraph对象,并使用<code class="language-plaintext highlighter-rouge">plot()</code>函数对其进行可视化。结果将显示一个包含三个节点的无向图,节点对应于种子词”星球大战”、”詹姆斯·邦德”和”周星驰”,边对应于这些种子词之间的共现关系。边的权重将根据共现频率进行赋值。</p>
<h2 id="paper2-大脑中语义网络的构建">Paper2 大脑中语义网络的构建</h2>
<ul>
<li>最近,Huth等人(2012;2016)开发了一种方法,通过使用自然语言处理技术对功能磁共振成像(fMRI)大脑活动进行建模,可以定量评估大脑中单个单词的语义表示(即,大脑单词嵌入,word embeddings in the brain)。该方法启发我们通过评估大脑词嵌入之间的相似性来表征人脑中的语义网络(Schematic Network),并使用网络分析分析其结构特征。</li>
<li>Matsuto等人(2023)使用上述方法,发现精神分裂症个体的语义网络相比正常个体,不具有小世界属性,呈现出模块化的特征,即结构更加混乱。</li>
<li>Huth AG, Nishimoto S, Vu AT, Gallant JL. A continuous semantic space describes the representation of thousands of object and action categories across the human brain. Neuron. 2012;76(6):1210–1224.</li>
<li>Huth AG, De Heer WA, Griffiths TL, Theunissen FE, Gallant JL. Natural speech reveals the semantic maps that tile human cerebral cortex. Nature. 2016;532(7600):453–458.</li>
<li>Matsumoto, Y., Nishida, S., Hayashi, R., Son, S., Murakami, A., Yoshikawa, N., Ito, H., Oishi, N., Masuda, N., Murai, T., Friston, K., Nishimoto, S., & Takahashi, H. (2023). Disorganization of Semantic Brain Networks in Schizophrenia Revealed by fMRI.Schizophrenia bulletin, 49(2), 498–506. https://doi.org/10.1093/schbul/sbac157</li>
<li>国内报道:https://mp.weixin.qq.com/s/etKNlDcQvxhWCttglNrVcA</li>
</ul>
<h3 id="研究思路-1">研究思路</h3>
<ul>
<li>整体的思路如下:
<ol>
<li>将语言任务中的高频词,通过word2vec向量化,得到感兴趣语料的向量矩阵;</li>
<li>fMRI多体素模式分析:将电影场景引起的神经活动的多体素模式建模为场景向量矩阵和模型权重的矩阵乘积</li>
<li>利用体素编码模型的权重对每位受试者的大脑词嵌入进行量化。首先,选取预测准确率最高的前 7000 个体素来创建权重矩阵。然后,将电影场景描述中出现频率最高的 11132 个单词中的前 1000 个单词在 word2vec 向量空间中的原始单词向量乘以模型权重,得到每个单词在大脑中的向量表示。</li>
</ol>
</li>
</ul>
<h1 id="2-传统词频分析和进阶版本ddr">2. 传统词频分析和进阶版本(DDR)</h1>
<h2 id="背景知识道德基础理论moral-foundations-theorymft">背景知识:道德基础理论(Moral Foundations Theory,MFT)</h2>
<ul>
<li>MFT的核心是试图解释不同人的道德一致性的整体性。具体来说,MFT试图阐明政治保守派和自由派道德之间的差异(Graham et al., 2011)。这些差异是通过衡量个人对五个道德基础的认可来建立的。
<ul>
<li>前两个基础:伤害/关怀和公平/互惠——代表了对以个人为中心的社会正义和平等的关注。这两个基础可以概念化为个性化基础。</li>
<li>后三个基础:群体内/忠诚,权威/尊重和纯洁/神圣 - 代表了从群体层面对是非的看法,可以被认为是具有约束力的基础(Haidt&Graham,2007)。</li>
<li>研究(如下所述)表明,政治自由主义者倾向于支持这两个个性化的基础,而保守派则倾向于支持所有五个基础,而对约束性基础的认可更大(Graham,Haidt,&Nosek,2009)。</li>
</ul>
</li>
<li>Graham等人(2009)开发了道德基础词典(Moral Foundations Dictionary,MFD),以确定语音和文本中对五个基础的认可。MFD 由每个基础大约 50 个单词组成,以举例说明其含义。例如,诸如“虐待”(abuse)和“保护”之类的词表示对伤害/关怀基础的认可。Graham et al. (2009) 然后通过分析自由派和保守派教会布道的语音内容来验证 MFD 词典列表。他们发现自由派的长对话(sermons)支持个人化的基础,而保守派的长对话(sermons)支持所有五个道德基础。</li>
</ul>
<h2 id="传统词频分析">传统词频分析</h2>
<ul>
<li>词频分析可以将定性数据(例如新闻文章)转化为可衡量的结果。通过词频分析,我们可以量化不同来源的政治语言(political language ),从而可以检验不同主题的心理学问题。</li>
<li>搜集文本(collections),清洗文本(clean),获得词汇。</li>
<li>同时对搜集到的文本数据、以及词典中的词汇进行词干提取(stemming)。每个概念或单词都有多种形式,例如走路、走路和走路。 词干提取指从收集的文本数据中去除无用的词缀,以便能够将具有相似含义的单词组合起来进行分析。例如使用了 Snowball 词干分析器下的英语选项进行词干提取。</li>
<li>然后将每篇文章中使用的单词与字典中的单词进行比较,并从更大的集合中只选择那些单词。例如,”equal”(平等)被纳入 “fairness”(公平)的总词汇中,而 “another”、”the “和 “over “等其他词汇则被忽略。这样,我们就可以获得每个类型中(如“公平”),数据文本中该类词汇的频数。使用频数除以原始文本总字数,即获得其词频。</li>
<li>数据可视化。</li>
</ul>
<h2 id="分布式词典表征distributed-dictionary-representationsddr">分布式词典表征(distributed dictionary representations,DDR)</h2>
<ul>
<li>研究目的:评估民主党人和共和党人在多大程度上使用了与道德基础理论提出的领域(伤害、公平、忠诚、权威和纯洁)相关的语言,以及这些语言如何随着政治权力的变化而变化。</li>
<li>Wang等人(2021)的方法,基于词频分析技术,结合分布式词典表征技术,即将数据文本中的单词以及词典中的单词都转换为词嵌入,计算两者之间的余弦相似性(-1到1);用余弦相似性来表示。而不是直接计算词频。<strong>问题,文本词汇与词典词汇之间的相似性达到多大,可以认为存在归属关系?</strong></li>
<li>Garten 等人 (2018) 开发了 ddr Python 模块来计算数据文本(如推特推文)和特定简短词典(如代表每个道德基础的积极和消极方面(“美德”和“恶习”)的MFD)之间的语义相似性。</li>
<li>例如,包含“car”的文本可能被认为与由“automobile”、“auto”和“vehicle”组成的字典高度相似。这意味着词典可以很短,但仍然很好地涵盖了一个概念;文本可以很短,但仍被认为类似于字典。这消除了字数统计方法的两个主要缺点(由于词典范围较小或文本较短而漏保;由于词典范围太长或匹配问题而误报,如“happ*” matches “happy” and “happiness” but also “happened” and “happenstance”)。在将自动化方法与人类编码人员进行比较的验证研究中,这种方法比字数统计准确得多(Garten 等人,2018 年)。</li>
<li>Wang等人(2021)的自变量是党派(自由 vs. 共和),因变量是每条推文的10个相似性值。对与每条推文,5个道德基础*积极和效价=10个相似值。</li>
<li>将自变量设置为1个虚拟变量(1 = 民主党,0 = 共和党)。分别针对10个指标建立了10个回归模型。结果发现:在每一个基础和方面,民主党人都比共和党人更多地使用道德语言,所有 ps < 0.001(见图 1)。</li>
</ul>
<h2 id="参考文献">参考文献</h2>
<ul>
<li>传统词频分析教程:https://methods.sagepub.com/dataset/word-frequency-analyse-political-language-moral</li>
<li>Graham, J., Nosek, B. A., Haidt, J., Iyer, R., Koleva, S., & Ditto, P. H. (2011). Mapping the moral domain. Journal of Personality and Social Psychology, 101(2), 366–385. https://doi.org/10.1037/a0021847</li>
<li>Graham, J., Haidt, J., & Nosek, B. A. (2009). Liberals and conservatives rely on different sets of moral foundations. Journal of Personality and Social Psychology, 96(5), 1029–1046. https://doi.org/10.1037/a0015141</li>
<li>Wang, S. Y. N., & Inbar, Y. (2021). Moral-language use by US political elites. Psychological Science, 32(1), 14-26.</li>
<li>Garten J., Hoover J., Johnson K. M., Boghrati R., Iskiwitch C., Dehghani M. (2018). Dictionaries and distributions: Combining expert knowledge and large scale textual data content analysis. Behavior Research Methods, 50, 344–361.</li>
<li>Padfield, W. E., & Buchanan, E. M. (2020). Moral foundations of US political news organizations.</li>
</ul>陈圣栋1. 语义网络的基本理论和概念司教授讲座:儿童数学焦虑变化的个体-环境机制——纵向研究数据2023-05-24T22:10:20+00:002023-05-24T22:10:20+00:00ssdd.site/emotion/2023/05/24/%E5%8F%B8%E6%95%99%E6%8E%88%E5%85%B3%E4%BA%8E%E6%95%B0%E5%AD%A6%E7%84%A6%E8%99%91%E7%9A%84%E8%AE%B2%E5%BA%A7<h1 id="基本概念和常识">基本概念和常识</h1>
<ul>
<li>数学焦虑的分析,必须要控制一般性焦虑和考试焦虑</li>
<li>数学焦虑研究的重镇:芝加哥大学</li>
<li>家校合作:Lareau, A. (1996). Assessing parent involvement in schooling: A critical analysis. In A. Booth & J. F. Dunn (Eds.), Family-school links: How do they affect educational outcomes? (pp. 57–64). Mahwah, NJ: Erlbaum.</li>
</ul>
<h1 id="数学焦虑的基本理论模型">数学焦虑的基本理论模型</h1>
<h1 id="国外学者的经典研究">国外学者的经典研究</h1>
<ul>
<li>老师的焦虑如何影响儿童的数学焦虑:性别的调节作用 PNAS
<ul>
<li>Beilock, S. L., Gunderson, E. A., Ramirez, G., & Levine, S. C. (2010). Female teachers’ math anxiety affects girls’ math achievement. Proceedings of the National Academy of Sciences, 107(5), 1860-1863.</li>
<li>Maloney, E. A., Ramirez, G., Gunderson, E. A., Levine, S. C., & Beilock, S. L. (2015). Intergenerational effects of parents’ math anxiety on children’s math achievement and anxiety. Psychological Science, 26(9), 1480-1488.</li>
</ul>
</li>
<li>父母怎么样辅导儿童完成家庭作业? Science
<ul>
<li>Berkowitz, T., Schaeffer, M. W., Maloney, E. A., Peterson, L., Gregor, C., Levine, S. C., & Beilock, S. L. (2015). Math at home adds up to achievement in school. Science, 350(6257), 196-198.</li>
<li>Shonkoff, J. P. (2011). Protecting brains, not simply stimulating minds. Science, 333(6045), 982-983.</li>
</ul>
</li>
<li> Science和PNAS这两篇,从框架上来看,解决的都是“现象从哪里来的问题”,都是聚焦在前置性因素对心理现象的影响上。</li>
</ul>
<h1 id="司教授关于数学焦虑的经典研究">司教授关于数学焦虑的经典研究</h1>
<h2 id="数学焦虑怎么样影响儿童的数学成绩">数学焦虑怎么样影响儿童的数学成绩?</h2>
<ul>
<li>影响注意资源的分配:早期更敏感,后期认知加工却更慢</li>
<li>影响计算流畅性</li>
<li>基本加工数量能力缺陷</li>
</ul>
<h2 id="家庭学校等前置性因素如何影响儿童的数学焦虑水平">家庭、学校等前置性因素如何影响儿童的数学焦虑水平?</h2>
<ul>
<li>父母教育卷入程度()</li>
<li>教师支持程度(teacher support)</li>
</ul>
<h1 id="跟司教授学习写作和ppt报告">跟司教授学习写作和PPT报告</h1>
<ul>
<li>以“儿童数学焦虑变化的个体-环境机制——纵向研究数据”为例</li>
<li>报告和PPT制作的顺序:
<ul>
<li>数学焦虑的定义(Ashcraft & Kirt, 2001; 耿柳娜,陈英,2005)</li>
<li>数学焦虑的普遍性,全世界的普遍性,中国国内的普遍性(OECD,PISA,2012数据库,Tables 123a and III43d;2018年国家义务教育质量检测,数学焦虑监测结果报告)</li>
<li>数学焦虑的危害性:学校学习,日常生活,职业选择</li>
<li>数学焦虑的前因和后果:理论框架(Luttenberger et al., 2018;Spotlight on math anxiety;Rubinsten et al., 2018;Pekrun et al., 2017)</li>
<li>(司教授)实验室研究框架:前置性因素到数学焦虑,数学焦虑(math anxiety)到数学表现</li>
<li>阶段一成果:数学焦虑的效应,即数学焦虑如何影响个体的数学表现?</li>
<li>阶段二成果:家庭、学校等前置性因素如何影响儿童的数学焦虑水平?</li>
</ul>
</li>
</ul>陈圣栋基本概念和常识2023-烟台心理语言学会议总结2023-05-21T22:10:20+00:002023-05-21T22:10:20+00:00ssdd.site/emotion/2023/05/21/%E5%BF%83%E7%90%86%E8%AF%AD%E8%A8%80%E5%AD%A6%E4%BC%9A%E8%AE%AE%E6%80%BB%E7%BB%93<h1 id="1-总体发展规划">1. 总体发展规划</h1>
<ul>
<li>发展路线:就心理语言学这个方向而言,根据高教授等人的建议,应该以心理学为主,以语言学为辅。这意味着,在研究设计、方法、文章的写作和投稿等方面,依然要坚持心理学的特色,坚持放大心理学背景的优势。通过这次聆听多位心理语言学教授的报告,研究方法明显
是心理语言学的一个短板,例如实验设计(多横向少纵向,ERP等脑科学技术的应用比较初级)、结果呈现等等。这一短板正好可以借助心理学的研究方法优势来弥补。</li>
<li>语言学的短板如何弥补?弥补到什么程度?根据周教授等前辈的建议,应该通过学习《普通语言学》、《语言学概率》等基本的本科生入门书籍。不必深入探讨某些前沿理论。</li>
</ul>
<h1 id="2-心理语言学的基本概念和参考文献">2. 心理语言学的基本概念和参考文献</h1>
<ul>
<li>情感神经语言学。创始人有哪些?在哪些文章中提出的?该学科的主要研究内容,典型代表研究发现、研究方法有哪些?</li>
<li>词块</li>
<li>语用</li>
<li>话语分析</li>
<li>句法-语义接口(曾涛教授)</li>
<li>语言学习(包括汉语和二语/多语学习)方向:
<ul>
<li>学习动机</li>
<li>学习经验:课堂接触,课外接触</li>
</ul>
</li>
<li>语义迁跃</li>
</ul>
<h1 id="3-心理语言学的基本研究方法">3. 心理语言学的基本研究方法</h1>
<ul>
<li>第一,研究人群的界定。具体而言,单语者、双语者、乃至多语者怎么进行操作性定义?权威标准是什么?主要的控制变量有哪些?
参考文献:Corss-language emotionality differences modulate selective attention to a speaker’s eyes and mouth: Evidence from Chinese-English bilinguals</li>
<li>第二,语言材料的界定。优质的语料,是心理语言学研究的基础。在语言学研究中,语料的报告是一大重点,是同行关注的焦点。在具体报告中,语料的来源有哪些(基于大型语料库,还是自行搜集)?是否具有代表性?是否具有多样性?语料的预处理是否规划(有没有标准的预处理规划可以参照)?例如在汉字语音的对比研究中,需要对汉字的笔画(例如不能太负责,饕餮这样笔画太多的词汇不能和笔画较少的词汇比较)、汉字的字形结构(左右结构,上下结构,全包围、半包围结构等)进行预处理,控制掉其他因素对字音加工的影响</li>
<li>第三,语言材料的实验呈现。词汇、句子乃至篇章,如何呈现?每周语言成分的经典研究范式有哪些?</li>
</ul>陈圣栋1. 总体发展规划种菜养花2023-03-20T18:10:20+00:002023-03-20T18:10:20+00:00ssdd.site/%E7%94%9F%E6%B4%BB/2023/03/20/%E7%A7%8D%E8%8F%9C%E5%85%BB%E8%8A%B1<h1 id="准备工作">准备工作</h1>
<h2 id="1-好的土壤是种好菜养好花的前提">1. 好的土壤是种好菜、养好花的前提</h2>
<ul>
<li>什么样的土是好土?疏松、透气、富含有机质、灭虫</li>
<li>什么样的土是差土?板结、不透气</li>
</ul>
<h2 id="种子">种子</h2>
<ul>
<li>选择适合自己所处地区气候的种子</li>
</ul>
<h1 id="流程">流程</h1>
<ul>
<li>育苗:先用纸巾、育苗袋使得种子发芽,从中挑出出挑的芽苗</li>
<li>壮苗:使用育苗杯,一芽一杯,让弱小的芽苗在育苗杯中完全发展其根系;育苗杯的作用就是为了给幼苗提供一个单独的生长环境,避免竞争,单独供给,从而有利于幼苗茁壮成长。</li>
<li>移栽:待苗长得较大后,带着育苗杯中的全部土壤整个转移到更大的土壤中,从而减少缓苗时间;定根水</li>
<li></li>
</ul>陈圣栋准备工作