大脑语言处理方式或与深度语言模型类似
由耶路撒冷希伯来大学认知与脑科学系的 Ariel Goldstein 博士领导,研究团队与以色列谷歌研究院及纽约大学医学院合作,探讨人脑是否像深度语言模型(Deep Language Models, DLMs)一样,通过连续的嵌入空间(embedding space)理解语言。这项研究挑战了传统心理语言学中基于符号规则的模型。
研究团队使用高密度脑电极记录三名参与者的额下回(IFG)神经活动,记录其在收听30分钟播客时对单词的神经响应。通过生成每个单词的大脑嵌入(Brain Embedding),研究人员发现,这些神经表示的几何模式与深度语言模型的上下文嵌入空间(Contextual Embeddings,捕捉单词在不同语境下关系的高维向量)高度相似。这种相似性允许团队通过零样本推理(Zero-Shot Inference)预测大脑对未曾遇见过的单词的反应。
**结果显示,基于上下文的嵌入模型比传统静态模型更符合人脑的神经活动,表明大脑使用动态、上下文敏感的机制处理语言,而非依赖固定词义。**这项研究为理解语言的神经编码提供了新视角,并为人工智能与神经科学交叉领域的研究奠定了基础。研究发表在 Nature Communications 上。
https://mp.weixin.qq.com/s/WKr0zfqZ-LO1rvZAwBSM4g
- - -
总结:
要在上下文里学单词而非死记硬背,因为大脑就是这么处理语言的。如果没有上下文就制造上下文,多花几秒的时间看一眼背单词软件提供的例句,或者一边背单词一边阅读相关材料,比如一边背雅思托福一边刷题、一边背日语一边追番剧、一边背法语意大利语一边看电影,依此类推。
只学单词而无法在任何场景遇见并运用单词,学到的到最后都会忘光。我之前在国内以焦虑和 #政治性抑郁 为动力狂学,刷完了drops所有单词但没有找一些相关材料制造上情境(因为快被雾霾创死了太累了)。过了一年想起来回顾一下,发现难一点的、生活中用不上的词(比如自然科学一类的词)我都忘光了。
引以为戒啊!