研究称:通过复制大脑,AI 的效率或将提高 2,000 倍

Decrypt

简而言之

  • 伦伯勒大学的研究人员发现,一种受大脑机制启发的新芯片或许能让 AI 在特定任务上效率大幅提升。
  • 在涉及 AI 的天气系统、生物过程等方面,这可能有助于降低能量消耗。
  • 该团队在设计这套 AI 时更侧重物理过程而非硬件,这暗示了可能重新调整 AI 的构建方式。

AI 系统,比如 ChatGPT 或 Claude,以高强度用能而闻名。它们需要把数据存放在某一个地方,然后在别处进行处理,不断地在两者之间来回移动。这是一个如今或许能通过新的研究来解决的问题。
伦伯勒大学的一组物理学家设计了一种装置,可以直接在硬件内部处理随时间变化的数据。传统系统过去依赖基于软件的方法来完成这类工作。

@LboroScience 研究人员开发的类脑芯片或可使某些 AI 任务的能效提高至 2,000 倍 ⚡🧠

该装置在硬件中直接处理数据——为更低功耗、更可持续的 AI 系统提供了一条新的路径。

阅读⤵️https://t.co/OdJGJhs3IW

— 伦伯勒大学公关 (@LboroPR) 2026 年 4 月 2 日

通过这款新芯片,研究团队认为它相较于现有方法在能效上可能提升 2,000 倍。
研究论文的主要作者 Pavel Borisov 博士在一份声明中表示:“这很令人兴奋,因为它表明我们可以重新思考 AI 系统的构建方式。通过使用物理过程而不是完全依赖软件,我们能够大幅减少这类任务所需的能量。” 在传统的 AI 系统中,它们类似于在两个办公室之间一遍又一遍地来回传送文件(记忆和处理器)。而有了这款新芯片,它可能更像是拥有一个更聪明的办公室,把所有事情都在同一地点完成。 类脑增益 这款芯片的核心是一种记忆电阻器:一种能记住过去信号的存储芯片。该记忆会改变它对新信号的响应方式——换句话说,它不只是遵循指令,而是从历史中学习。这一想法是以人脑为模型的。 Borisov 博士说:“受人类大脑形成极其众多且看似随机的神经元连接方式的启发,我们通过在纳米级薄的五氧化铌薄膜中设计孔隙,作为一种新颖的电子器件的一部分,在人工神经网络中创建了复杂的、随机的物理连接。”

“我们展示了如何利用这些器件,以相比标准的基于软件的解决方案最多低两千倍的能耗,来预测复杂时间序列的未来演化。” AI 经常用于处理随时间变化的数据,例如天气预报、股市追踪或波形分析。它们未必是随机的,但它们对微小变化很敏感。  对于这种更混沌的测量类型,传统 AI 系统需要消耗巨量能量才能跟上所有细微变化,不断来回传送信息。该新芯片或许能够为这些更混沌的系统进行理想化设计。
通过分析过去的测量和经验,这个芯片能更好地学习去追踪并理解这些混沌类型的测量,从而降低所需的能量输出。 尽管我们常把 AI 设想成类似 ChatGPT,或人脸图像软件,但如今它存在于大多数应用中。这个工具面向的并非静态信息,例如聊天机器人,而是面向与时间相关的信息。 Borisov 博士告诉 Decrypt:“心跳频率、大脑电活动、外部温度。它们每天都在变化。确实存在能够追踪这些的应用,但它们能耗很高,而且需要与服务器保持稳定的在线连接。” 这正是这款芯片可能被应用的领域——为那些并不稳定、往往在时间中不断变化的数据构建更聪明的系统。

“我最终的目标是让这种技术用于时间依赖的信号。无论是在汽车、机器人、核电站,还是在智能手表上,”他补充道。“例如,用于监测某个人是否中风,用于监测汽车发动机的健康状况,或者确认核反应堆是否在正常运行——类似这样的事情。”

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论