首页 > 计算机科学

“Transformer八子”之一,让AI大模型学会了主动“忘记”

学术头条 2024-12-20 11:58
文章摘要
本文介绍了Sakana AI开发的神经注意力记忆模型(NAMM),这是一种新型的Transformer记忆系统,灵感来源于人类记忆的选择性保留和修剪信息。NAMM优化了Transformer存储和检索信息的方式,提高了效率和性能,使其在各种语言和编码任务中表现优异,并具有跨领域应用的能力。NAMM通过进化学习记忆框架,利用注意力矩阵决定哪些信息应被保留或遗忘,从而在长上下文推理任务中表现出色。研究结果表明,NAMM在多个基准测试中优于现有的内存管理方法,并展示了其在不同Transformer模型和任务中的广泛适用性。
“Transformer八子”之一,让AI大模型学会了主动“忘记”
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
AI同时操控200个机器人,任务成功率超90%,半数故障依然「能打」
AI同时操控200个机器人,任务成功率超90%,半数故障依然「能打」
人工智能(AI),可以同时操控数百机器人“协同作战”了。来自康斯坦茨大学和国际理论物理中心的研究团队开发了一种基于 AI 的控制策略,成功让 200 个微型机器人变身为“AI 智能体”,独立作出决策,
14小时前
“Transformer八子”之一,让AI大模型学会了主动“忘记”
“Transformer八子”之一,让AI大模型学会了主动“忘记”
还记得第一个“人工智能科学家”(The AI Scientist)吗?只需 15 美元,它就可以写出一篇超过顶级机器学习会议接受门槛的论文。从生成新颖的研究想法、编写代码、执行实验、可视化结果,到通过
2024-12-20
刚刚,OpenAI元老级研究员Alec Radford离职,他主导了GPT-1、GPT-2的研发
刚刚,OpenAI元老级研究员Alec Radford离职,他主导了GPT-1、GPT-2的研发
内容来自:机器之心作者:杜伟、陈陈OpenAI 连续 12 天发布会还剩最后一天,期待中的「重磅」迟迟没来,反而失去了一位核心研究人员。OpenAI 人事方面的变动还在继续。今日,据外媒 The In
2024-12-20
警惕!AI开始破坏人类安全训练,Anthropic揭露大模型「对齐伪造」安全风险
警惕!AI开始破坏人类安全训练,Anthropic揭露大模型「对齐伪造」安全风险
随着人工智能(AI)技术的飞速发展,超级智能的潜力与风险逐渐显现。AI 模型在数学推理、语言生成等复杂任务中展现出超人类水平的能力,但这也带来了安全性与价值观对齐的挑战。今天,来自 Anthropic
2024-12-19
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1