AIGC宇宙 AIGC宇宙

清华“太极-Ⅱ”光芯片面世:成果登 Nature,首创全前向智能光计算训练架构

作者:汪淼
2024-08-08 09:05
据清华大学官方消息,清华大学电子工程系方璐教授课题组、自动化系戴琼海院士课题组另辟蹊径,首创了全前向智能光计算训练架构,研制了“太极-II”光训练芯片,实现了光计算系统大规模神经网络的高效精准训练。该研究成果以“光神经网络全前向训练”为题,于北京时间 8 月 7 日晚在线发表于《自然》期刊。AI在线查询获悉,清华大学电子系为论文第一单位,方璐教授、戴琼海教授为论文的通讯作者,清华大学电子系博士生薛智威、博士后周天贶为共同一作,电子系博士生徐智昊、之江实验室虞绍良博士参与了该项工作。该课题受到国家科技部、国家自然科学

据清华大学官方消息,清华大学电子工程系方璐教授课题组、自动化系戴琼海院士课题组另辟蹊径,首创了全前向智能光计算训练架构,研制了“太极-II”光训练芯片,实现了光计算系统大规模神经网络的高效精准训练。

该研究成果以“光神经网络全前向训练”为题,于北京时间 8 月 7 日晚在线发表于《自然》期刊。

图片

AI在线查询获悉,清华大学电子系为论文第一单位,方璐教授、戴琼海教授为论文的通讯作者,清华大学电子系博士生薛智威、博士后周天贶为共同一作,电子系博士生徐智昊、之江实验室虞绍良博士参与了该项工作。该课题受到国家科技部、国家自然科学基金委、北京信息科学与技术国家研究中心、清华大学-之江实验室联合研究中心的支持。

Nature 审稿人在审稿评述中指出“本文中提出的想法非常新颖,此类光学神经网络(ONN)的训练过程是前所未有的。所提出的方法不仅有效,而且容易实现。因此,它有望成为训练光学神经网络和其他光学计算系统的广泛采用的工具。”

据清华大学官方介绍,近年间,具有高算力低功耗特性的智能光计算逐步登上了算力发展的舞台。通用智能光计算芯片“太极”首次将光计算从原理验证推向了大规模实验应用,拥有 160TOPS / W 的系统级能效,但现有的光神经网络训练严重依赖 GPU 进行离线建模并且要求物理系统精准对齐

据论文第一作者、电子系博士生薛智威介绍,在太极-II 架构下,梯度下降中的反向传播化为了光学系统的前向传播,光学神经网络的训练利用数据-误差两次前向传播即可实现。两次前向传播具备天然的对齐特性,保障了物理梯度的精确计算。由于不需要进行反向传播,太极-II 架构不再依赖电计算进行离线的建模与训练,大规模神经网络的精准高效光训练终于得以实现

论文研究表明,太极-II 能够对多种不同光学系统进行训练,并在各种任务下均表现出了卓越的性能:

大规模学习领域:突破了计算精度与效率的矛盾,将数百万参数的光网络训练速度提升了 1 个数量级,代表性智能分类任务的准确率提升 40%

复杂场景智能成像:弱光环境下(每像素光强度仅为亚光子)实现了能量效率为 5.40×10^6 TOPS / W 的全光处理,系统级能效提升 6 个数量级。在非视域场景下实现了千赫兹帧率的智能成像,效率提升 2 个数量级。

拓扑光子学领域:在不依赖任何模型先验下可自动搜索非厄米奇异点,为高效精准解析复杂拓扑系统提供了新思路。

图片

AI在线附论文链接:

https://www.nature.com/articles/s41586-024-07687-4

相关标签:

相关资讯

神经网络debug太难了,这里有六个实用技巧

神经网络的 debug 过程着实不容易,这里是一些有所帮助的 tips。
6/11/2021 2:24:00 PM
机器之心

为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑

Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 语言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需要单个文件中的大约 1000 行干净代码(clean code),可以立即编
4/11/2024 3:18:00 PM
机器之心

断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

与OpenAI断交之后,Figure首个成果出炉:Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。 只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。 从官方放出的演示中可以看到,它在接收到人类的提示后,就会按照指令逐一拿起桌上的物品放进冰箱。
2/21/2025 6:05:54 AM
  • 1