递归 · 近30天声量数据
递归
声量指数
622.7
作品数 · 
1.1w
账号数 · 
6495
互动量 · 
69.9w
平均互动 · 
62
服务支持声量通
声量热度
抖音
其他平台
对数据存疑?联系顾问
作品数
作品数趋势
作品数分布
互动数
互动数趋势
  • 抖音
    46w/66%
  • 公众号
    10w/14%
  • B站
    2.4w/3%
  • 微博
    1.6w/2%
  • 快手
    101/0%
互动数分布
代表作品
作品导出
深度报告
内容评论分享收藏获赞操作
23岁高中辍学生,凭什么进OpenAI做研究科学家,年薪70万美元!他的AI递归学习法和第一性原理求职法值得每个人学习 #openai #学习 #教育 #职场提效
杜恩泽·AI分享与思考
发布时间2025/12/27 08:06:00
5072
8.8w
15.8w
19.1w
更多
就像 2025 年从语言模型切换到推理模型一样,我认为 2026 年将完全聚焦于切换到递归语言模型(RLMs)的过程。 事实证明,如果允许模型将自身的提示信息视为外部环境中的一个对象,由它们通过编写调用 LLMs 的代码来理解和操作这个对象,那么模型的功能将会强大得多! 下载PDF:arxiv.org/pdf/2512.24601 #ai创造营##生活指南#
姜博杨
发布时间2026/01/04 15:21:37
568
1357
-
4183
-
麻省理工学院研究人员提出递归语言模型,你将在2026年听到更多关于这方面的消息。 为什么这很重要?如果 LLMs 可以处理比上下文窗口长100倍的输入,会怎么样? 上下文长度是一个硬性限制。 你可以通过架构上的改动来扩展它,但总会有极限。大多数方法都试图在有限的空间内塞进更多内容,或者压缩那些塞不进去的部分。 这项新研究采用了不同的方法。它不是对抗上下文限制,而是通过编程方式绕过它。 递归语言模型(RLMs)将长提示视为外部环境。该模型可以检查提示,将其分解成多个部分,并递归地调用自身处理这些片段。它是一种应用于上下文长度的推理时间缩放方法。 与其一次性强行处理所有信息,不如让模型策略性地划分信息,并通过多次递归调用进行处理。 结果令人印象深刻。RLMs能够成功处理超出模型上下文窗口两个数量级的输入。一个上下文为 8K 的模型可以有效地处理 80 万个词元。 但令人惊讶的是:即使对于符合上下文的较短提示,RLMs 在四个不同的任务中也明显优于基础 LLMs和常见的长上下文支架。 这暗示了一些有趣的事情。 即使技术上可行,对整个输入进行顺序关注可能并非总是最佳策略。对于某些任务而言,程序化分解和递归处理或许才是更优的选择。 与其他长上下文方法相比,该方法每次查询的成本相当或更低。 上下文长度限制限制代理可以做的事情。处理整个代码库、长文档或扩展对话历史需要变通方法。RLMs 提供了一种通用的推理策略,将上下文限制转化为软约束而非硬约束[并不简单]#ai创造营##生活指南##科技先锋官#
姜博杨
发布时间2026/01/11 13:39:25
577
1225
-
3490
-
如何看待马斯克AI预言? 马斯克2026年最新访谈火遍全球,马斯克说2030年AI总智能超人类总和,2040年或有100亿台类人机器人,中国算力将领先。 AGI与AI上限:2026年实现AGI,2030年AI总智能超全人类总和;xAI推全国性AI教育,AI是"无限耐心教师"但难激发学习欲。 医疗与机器人:3年内Optimus机器人外科医生碾压顶尖人类,读医学院"无意义";三重指数增长(AI能力、芯片、机电灵巧度)+经验共享驱动。 能源与算力:太阳能是唯一答案,未来货币=能源(瓦数);太空数据中心是方向,能源决定算力上限。 经济与社会:10-20年后钱或"不重要",推动全民高收入UHI;白领数字类工作先被AI替代,过渡期3-7年颠簸。 中美AI竞争:中国算力将领先,电力、芯片代差缩小、执行力是三大优势。 机器人规模:2040年或有100亿台类人机器人,可递归制造。 AI安全:以真相、好奇、美为核心,避免矛盾指令致AI"发疯"。 #马斯克 #科普 #AI #科技#预言
小权说说说
发布时间2026/01/12 09:17:57
370
647
594
3181
更多
这种指数级进步源于AI软件、专用芯片和机电系统三重能力的同步提升,同时机器人还将实现“制造机器人”的递归效应,进化速度远超预期。
红哥❤️
发布时间2026/01/13 06:21:54
672
1445
445
2514
更多
递归声量热度报告
声量指数
622.7
作品数 · 
1.1w
账号数 · 
6495
互动量 · 
69.9w
平均互动 · 
62