“递归” · 近30天声量数据
作品数作品数趋势作品数分布
互动数互动数趋势互动数分布
- 抖音46w/66%
- 公众号10w/14%
- B站2.4w/3%
- 微博1.6w/2%
- 快手101/0%
代表作品
作品导出
深度报告
| 内容 | 评论 | 分享 | 收藏 | 获赞 | 操作 |
|---|---|---|---|---|---|
![]() ![]() 23岁高中辍学生,凭什么进OpenAI做研究科学家,年薪70万美元!他的AI递归学习法和第一性原理求职法值得每个人学习 #openai #学习 #教育 #职场提效 杜恩泽·AI分享与思考 发布时间2025/12/27 08:06:00 | 5072 | 8.8w | 15.8w | 19.1w | 更多 |
![]() ![]() 就像 2025 年从语言模型切换到推理模型一样,我认为 2026 年将完全聚焦于切换到递归语言模型(RLMs)的过程。
事实证明,如果允许模型将自身的提示信息视为外部环境中的一个对象,由它们通过编写调用 LLMs 的代码来理解和操作这个对象,那么模型的功能将会强大得多!
下载PDF:arxiv.org/pdf/2512.24601
#ai创造营##生活指南# ![]() 姜博杨 发布时间2026/01/04 15:21:37 | 568 | 1357 | - | 4183 | - |
![]() ![]() 麻省理工学院研究人员提出递归语言模型,你将在2026年听到更多关于这方面的消息。
为什么这很重要?如果 LLMs 可以处理比上下文窗口长100倍的输入,会怎么样?
上下文长度是一个硬性限制。
你可以通过架构上的改动来扩展它,但总会有极限。大多数方法都试图在有限的空间内塞进更多内容,或者压缩那些塞不进去的部分。
这项新研究采用了不同的方法。它不是对抗上下文限制,而是通过编程方式绕过它。
递归语言模型(RLMs)将长提示视为外部环境。该模型可以检查提示,将其分解成多个部分,并递归地调用自身处理这些片段。它是一种应用于上下文长度的推理时间缩放方法。
与其一次性强行处理所有信息,不如让模型策略性地划分信息,并通过多次递归调用进行处理。
结果令人印象深刻。RLMs能够成功处理超出模型上下文窗口两个数量级的输入。一个上下文为 8K 的模型可以有效地处理 80 万个词元。
但令人惊讶的是:即使对于符合上下文的较短提示,RLMs 在四个不同的任务中也明显优于基础 LLMs和常见的长上下文支架。
这暗示了一些有趣的事情。
即使技术上可行,对整个输入进行顺序关注可能并非总是最佳策略。对于某些任务而言,程序化分解和递归处理或许才是更优的选择。
与其他长上下文方法相比,该方法每次查询的成本相当或更低。
上下文长度限制限制代理可以做的事情。处理整个代码库、长文档或扩展对话历史需要变通方法。RLMs 提供了一种通用的推理策略,将上下文限制转化为软约束而非硬约束[并不简单]#ai创造营##生活指南##科技先锋官# ![]() 姜博杨 发布时间2026/01/11 13:39:25 | 577 | 1225 | - | 3490 | - |
![]() ![]() 如何看待马斯克AI预言? 马斯克2026年最新访谈火遍全球,马斯克说2030年AI总智能超人类总和,2040年或有100亿台类人机器人,中国算力将领先。
AGI与AI上限:2026年实现AGI,2030年AI总智能超全人类总和;xAI推全国性AI教育,AI是"无限耐心教师"但难激发学习欲。
医疗与机器人:3年内Optimus机器人外科医生碾压顶尖人类,读医学院"无意义";三重指数增长(AI能力、芯片、机电灵巧度)+经验共享驱动。
能源与算力:太阳能是唯一答案,未来货币=能源(瓦数);太空数据中心是方向,能源决定算力上限。
经济与社会:10-20年后钱或"不重要",推动全民高收入UHI;白领数字类工作先被AI替代,过渡期3-7年颠簸。
中美AI竞争:中国算力将领先,电力、芯片代差缩小、执行力是三大优势。
机器人规模:2040年或有100亿台类人机器人,可递归制造。
AI安全:以真相、好奇、美为核心,避免矛盾指令致AI"发疯"。
#马斯克 #科普 #AI #科技#预言 小权说说说 发布时间2026/01/12 09:17:57 | 370 | 647 | 594 | 3181 | 更多 |
![]() ![]() 这种指数级进步源于AI软件、专用芯片和机电系统三重能力的同步提升,同时机器人还将实现“制造机器人”的递归效应,进化速度远超预期。 红哥❤️ 发布时间2026/01/13 06:21:54 | 672 | 1445 | 445 | 2514 | 更多 |









