研究发现AI深度学习也有类似“前额叶皮层”,杨立昆点赞

今日热点 2022-06-24 18:12 17

摘要:AI也有类似人类的“听觉皮层”、“前额叶皮层”机制吗?近日,MetaAI、美国哥伦比亚大学、多伦多大学等的研究人员就完成了一个关于深度学习模型和人脑之间相似性...

AI是否也类似于人的听觉皮层和前额叶皮层?

最近,退役军人事务部发布会:学校应为烈士子女提供坚实保障来自Meta AI、哥伦比亚大学、多伦多大学等的研究人员。完成了一项关于深度学习模型和人脑相似性的研究。

“模拟人类智能是一个遥远的目标。尽管如此,自我监控算法中类脑功能的出现表明,我们可能正走在正确的道路上。”Meta AI研究人员,论文作者之一,在推特上发布说。

那么他们发现了什么?

发现AI模型Wav2Vec 2.0与人脑处理语音的方式非常相似。甚至AI也和人类一样,对“母语”的分辨能力更强。例如,法语模型比英语模型更容易感知来自法语的刺激。

-的让雷米金(Jean R mi King)在推特上发布的演示视频中展示了AI模型与人类大脑的对应结构:听觉皮层与《变形金刚》的第一层(蓝色)最为一致,而前额皮层与《变形金刚》的最深层(红色)最为一致。

ip/clip_image003.gif" o:href="https://mmbiz.qpic.cn/mmbiz_gif/YicUhk5aAGtBBoWRlYuMWR5DWRI4rlnHvNhGoKh04MjL9QvNWibFHsHx9a3hrXCZRDR52wEM0PvfNicB3bx6GjlXQ/640?wx_fmt=gif&wxfrom=5&wx_lazy=1"/>Wav2Vec 2.0 接受了600小时的语音训练,这大致相当于新生儿在语言习得的早期阶段所接触的内容。研究人员将此模型与412名志愿者(35华兹华斯诗歌1名说英语、28名说法语和33名说中文普通话的人)的大脑活动进行比较。
科学家让参与者听一小时自己母语的有声小说,然后对他们的大脑做功能性磁共振成像 (fMRI) 纪录。研究人员将这些大脑活动与Wav2Vec 2.0模型的每一层以及几个变体进行比较,包括随机(未经训练的)Wav2Vec 2.0 模型、在600小时非语音上训练的模型、在600小时非母语语音上训练的模型、在600小时母语训练的模型和直接在参与者母语的语音到文本(speech-to-text)上训练的模型。
实验有四个重要发现。
首先,Wav2Vec 2.0使用自监督学习来获取语音波形时的表现类似于在人类大脑中看到的。其次,Transformer层的功能层次与大脑中语音的皮层层次相吻合,这以前所未有的细节揭示了语音处理的全脑排列。第三,该模型对听觉、语音和语言的表征与人脑的表征趋同。第四,对模型与另外386名人类参与者进行的语音辨别练习行为比较表明一种共同的语言专业化。
这些实验结果证明了,600小时的自监督学习就足以产生一个在功能上等同于人脑语音感知的模型。Wav2Vec 2.0学习到语言特定表征的所需的材料与婴儿学说话过程中接触到的“数据量”相当。
“深度学习三巨头”之一Yann LeCun盛赞这是“出色的工作”,这个团队的研究表明在语音方面接受自监督学习训练的Transformer分层活动与人类听觉皮层活动之间,确实密切相关。
谷歌大脑的研究员Jesse Engel则称,这项研究将可视化滤波器提升到下一个层次。现在,不仅能看到它们在“像素空间”的样子,而且“类脑空间”中的模样也能模拟出来了。
但也有一些批评声音,如加利福尼亚大学洛杉矶分校的神经科学博士后Patrick Mineault就有些怀疑这篇研究是否真的测量了人类大脑的语音处理过程。因为相比于人说话的速度,fMRI测量信号的速度其实非常慢,这意味解释结果时需要非常谨慎。Mineault也表示自己并非认为研究不可信,但这项研究需要给出一些更有说服力的数据。
Meta AI实际上一直在寻找AI算法与人类大脑之间的联系。此前Meta AI宣布,他们将与神经影像中心Neurospin(CEA)和INRIA合作,试图解码人类大脑和完成语言任务训练的深度学习算法如何对同一段文本作出反应。
举个例子,如通过在一个人主动阅读、说话或聆听时,将人脑扫描与深度学习算法进行比较,并给出相同的单词和句子集进行破译,研究人员希望找到大脑生物学和人工神经网络之间的相似之处以及关键的结构和行为差异,帮助解释为什么人类处理语言的效率比机器高得多。 
Meta AI研究科学家Jean-Rémi King说道,“我们正在做的是尝试将大脑活动与机器学习算法进行比较,以了解大脑如何运作,并尝试改进机器学习。” 
相关推荐

评论列表
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~
关闭

用微信“扫一扫”