Transformer模仿大脑,在预测大脑成像上超越42个模型
现在很多AI应用模型,都不得不提到一个模型结构:
(资料图片仅供参考)
Transformer。
它抛弃了传统的CNN和RNN,完全由Attention机制组成。
Transformer不仅赋予了各种AI应用模型写文作诗的功能,而且在多模态方面也大放异彩。
尤其是ViT(Vision Transformer)出来之后,CV和NLP之间的模型壁垒被打破,仅使用Transformer一个模型就能够处理多模态的任务。
(谁看完不得感叹一句它的强大啊)
虽然一开始Transformer是为语言任务而设计的,但它在模仿大脑方面也有着很大的潜力。
这不,有位科学作家写了篇博客,就是关于Transformer是如何进行大脑建模的。
来康康他是怎么说的?
Transformer:做大脑做的事
首先,还得梳理一下它的演变过程。
Transformer机制在5年前首次出现,它能够有这么强大的表现,很大程度上归功于其Self-attention机制。
至于Transformer是如何模仿大脑的,继续往下看。
在2020年,奥地利计算机科学家Sepp Hochreiter的研究团队利用Transformer重组了Hopfield神经网络(一种记忆检索模型,HNN)。
其实,Hopfield神经网络在40年前就已经被提出,而研究团队之所以时隔数十年选择重组这个模型原因如下:
其一,这个网络遵循一个普遍的规律:同时活跃的神经元之间彼此会建立很强的联系。
其二,Hopfield神经网络在检索记忆的过程中与Transformer执行Self-attention机制时有一定的相似之处。
所以研究团队便将HNN进行重组,让各个神经元之间建立更好的联系,以便存储和检索更多的记忆。
重组的过程,简单来说,就是把Transformer的注意力机制融合进HNN,使原来不连续的HNN变为可连续态。
△图源:维基百科
重组之后的Hopfield网络可以作为层集成到深度学习架构中,以允许存储和访问原始输入数据、中间结果等。
因此,Hopfield本人和麻省理工学院沃森人工智能实验室的Dmitry Krotov都称:
虽说这在一定程度上与大脑的工作原理相像,但在某些方面还不够准确。
因此,计算神经科学家Whittington和Behrens调整了Hochreiter的方法,对重组后的Hopfield网络做出了一些修正,进一步提高了该模型在神经科学任务中(复制大脑中的神经放电模式)的表现。
△Tim Behrens (左) James Whittington(右) 图源:quantamagazine
简单来说,就是在编码-解码时,模型不再把记忆编码为线性序列,而是将其编码为高维空间中的坐标。
具体而言,就是在模型中引入了TEM(Tolman-Eichenbaum Machine)。
TEM是为了模仿海马体的空间导航作用而构建的一个关联记忆系统。
它能够概括空间和非空间的结构知识,预测在空间和关联记忆任务中观察到的神经元表现,并解释在海马和内嗅皮层中的重新映射现象。
将拥有这么多功能的TEM与Transformer合并,组成TEM-transformer(TEM-t)。
然后,再让TEM-t模型在多个不同的空间环境中进行训练,环境的结构如下图所示。
在TEM-t中,它依旧拥有Transformer的Self-attention机制。这样一来,模型的学习成果便能迁移到新环境中,用于预测新的空间结构。
研究也显示,相较于TEM,TEM-t在进行神经科学任务时效率更高,而且它也能在更少学习样本的情况下处理更多的问题。
Transformer在模仿大脑模式的道路上越来越深入,其实换句话说,Transformer模式的发展也在不断促进我们理解大脑功能的运作原理。
不仅如此,在某些方面,Transformer还能提高我们对大脑其他功能的理解。
Transformer帮助我们理解大脑
比如说,在去年,计算神经科学家Martin Schrimpf分析了43种不同的神经网络模型,以观察它们对人类神经活动测量结果:功能磁共振成像(fMRI)和皮层脑电图(EEG)报告的预测能力。
其中,Transformer模型几乎可以预测成像中发现的所有变化。
倒推一下,或许我们也可以从Transformer模型中预见大脑对应功能的运作。
除此之外,最近计算机科学家Yujin Tang和 David Ha设计了一个模型,可以通过Transformer模型以随机、无序的方式有意识地发送大量数据,模拟人体如何向大脑传输感官观察结果。
这个Transformer就像人类的大脑一样,能够成功地处理无序的信息流。
虽然Transformer模型在不断进步,但也只是朝着精确大脑模型迈出的一小步,到达终点还需要更深入的研究。
如果想详细了解Transformer是如何模仿人脑的,可以戳下方链接~
参考链接:
[1]https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/
[2]https://www.pnas.org/doi/10.1073/pnas.2105646118
[3]https://openreview.net/forum?id=B8DVo9B1YE0
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
关键词: 人工智能 神经科学 麻省理工学院 2019未来科学
推荐阅读
iOS13正式版推送 iOS13正式版推送值得更新吗?
苹果发布iOS13 5,iOS和iPadOS13 5系统正式版发布,系统新增加了多项功能,用户在安装了正确的开发人员配置文件后可以从Apple开发人员中心 【详细】
虎门大桥怎么样了 虎门大桥没有问题可以恢复通车了吗?
关于虎门大桥已经连续几天成为热门话题了,5月5日,最开始为了保障安全,对交通实行双向封闭。5月10日,组织报告测评,而今天根据官方消息 【详细】
2025年取消燃油车 2025年取消燃油车是真的吗?
相信很多人都听说过中国2025年取消燃油车,接下来小编就带大家介绍一下相关知识,大家可以了解一下。汽车一般使用汽油、柴油等化石燃料作为 【详细】
未成年打赏可退还是真的吗?未成年打赏可退有什么法律依据?
今日,未成年打赏可退还的消息引发人们的热切讨论,未成年人网络打赏引发的纠纷,多年来成为人们关注的社会热点问题,那么未成年打赏可退还 【详细】
首都第二国际机场在哪里 首都第二国际机场为何选址大兴?
首都第二国际机场为何选址大兴?大兴位于北京的南部,为什么选在南边建设机场?现在北京机场有几个?为了确保首都的安全,南部修建了北京第二 【详细】
相关新闻
- Transformer模仿大脑,在预测大脑成像上超越42个模型
- 环球关注:moto X40上手测评:曲面屏+第二代骁龙8,这是标准版?
- Web3日报 0127
- IF函数详解,如何用Excel、Python、SQL、Tableau实现IF函数功能
- 全球动态:fila是什么牌子(人手一件的FILA品牌,到底是怎么火的?)
- 元杂剧四大悲剧(元曲四大悲剧)
- 今年春节假期全国国内旅游出游3.08亿人次
- 飞行堡垒NX580VD配独显 体验大型游戏零压力
- 放下沉重的单反 魅族PRO7陪你赴一场踏青之旅
- 头条焦点:漳州台商投资区(来了,终于来了,漳州台商区将建图书馆和文化馆了)
- 【世界时快讯】dvd-rw(重装win10最简单最纯净的教程,它来了)
- 环球观点:三星家族首款QLED屏轻薄笔记本电脑,设计师必备的设计神机
- 锤子R1渲染图曝光 整机造型令人吃惊 这很锤子
- 全球智能手机10~12月出货量大幅下滑18.3%
- 全球快资讯:随着人工智能时代的到来,“人工智能”对我们的生活有何影响?
- 当前观点:不抛弃不放弃,苹果发布iOS15.7.3旨在针对老机型的系统版本更新
- 列出最厉害的10种武器?专家没有回复,人工智能的回答却很惊人
- 【天天时快讯】郑则仕鬼片(于仁泰的成名作,郑则仕、许冠英的另类僵尸片,一代人的童年梦魇)
- 全球快报:整数包括0吗(七年级上册数学重点概念(1))
- 全球快报:iPad mini5即将发布,这个价格还是非常OK的!