新智元 · 近30天声量数据
新智元
声量指数
300.8
作品数 · 
1793
账号数 · 
701
互动量 · 
7.1w
平均互动 · 
39
服务支持声量通
声量热度
抖音
其他平台
对数据存疑?联系顾问
作品数
作品数趋势
作品数分布
互动数
互动数趋势
  • 公众号
    6.9w/98%
  • 微博
    964/1%
  • 快手
    0/0%
  • 抖音
    146/0%
  • B站
    0/0%
互动数分布
代表作品
作品导出
深度报告
内容评论分享收藏获赞操作
马斯克10年梦成真!特斯拉全球首次自动驾驶横穿美国,人类0接管
新智元
发布时间2026/01/01 05:02:55
67
-
-
1111
更多
5行代码,逼疯整个硅谷!澳洲放羊大叔,捅开AI编程奇点
新智元
发布时间2026/01/14 09:15:18
40
-
-
1057
更多
6235 「如果用一个字证明你不是AI,你会选择哪个字?」这是青桐鸣2025年11月高三联考作文题。相关视频一出(图2是原视频),人气暴涨,这几天无论什么时候点进去,都有上千人同时在线观看。54份答案中,有很多都不谋而合,这些回答闪耀着生命的特性和人性的灵智,是AI模仿不来的。 比如,妈——「可是机器人没有妈妈。」因为有妈妈,所以我在这里,我被保护。父母,也是我们跟死亡之间的最后一道防线。 急——「机器人不懂,为什么人总是很急?医院三十分钟后才出检测报告,为什么每隔几分钟,就要去看出结果了没有呢?」在医院这个等待命运宣判的地方,人们总是很沉重,而AI,永远不会明白这种沉重,也不会理解人类对AI的感受。 慢——「快捷高效是AI的代名词,可人们却渴望与喜欢的人慢慢来,在生活转动的间隙,慢慢欣赏一束光的倾斜。AI永远为了更快,人们的『快』却是为了更好的『慢』」。 同样意思的一个字,是钝。钝——「钝是AI指出捷径后,我却执着去撞南墙的愚钝;是我在回复家人好友的时候,小心翼翼的迟钝。我总是比AI慢一拍,用钝钝的心去拥抱圆圆的世界。」 留——「今天的夕阳真好,我们为这抹橙红停留。请留心脚边的小猫,它也留恋于今天的约会吗?你打算离开,可余兴犹在,让我再挽留你十分钟。我已对你毫无保留,除了心头怦怦直跳的表白。『工作完成,谢谢你留下陪我』『现在我们去约会吧』」。今天的夕阳真好,AI听得懂这句话吗? 信——「机器只相信确证的数据,但人相信未拆封的信里住着春天。」当AI每天都写出无数封信,也就相当于没有给任何人写信。 而下面这些答案,都属于重合答案。比如爱——「机器人的爱是文字,而人类的爱可以是一个温暖的拥抱。」 痴——「痴是理性的基地上生长出的『不理智』的花朵。AI 尝试用代码解构爱与执着,却无法敌过转角那个不期而遇的身影,那时难以抑制的心跳。」张岱《湖心亭看雪》中,有一句「莫说相公痴,更有痴似相公者」。AI能背出这首词,但能理解这句话的意思吗? 限——「AI的发展是无限的,但我的一切都是有限的:学过的知识,听过的故事,见过的人,乃至于我的生命,我的时间。或许AI因为它的无限而更有价值,但我因为我的有限而更加珍贵。」是的,AI不会死,但人类因为自己的有限,反而更加珍贵了。 而以下这些字,获得了三名或以上同学的提名——痛。疼痛,才会让我们感受到自身的存在。那些让我疼的,也必然曾经让我活过。AI会写一本关于「痛」的小说吗? 还有一个高提名的字——我。 获得四票的答案,是情。 最出乎意料的是,居然有十个同学共同选择了这个字——恨。恨,是人类所拥有的最极端最赤诚的情感,也是AI永远无法拥有的东西。 跟恨同样获得高票提名的,还有憾和悔。后悔,是一种AI永远无法理解的情感。看完这些答案,让人不禁感慨:人类最珍贵的,或许并不是此时此刻所达成的智慧,而是绵延不绝的未完成。 不少读者也都贡献了让人脑洞大开的留言。 有人说是「吃」,因为现在就想吃饭了。一个硬核回答是转义字符「\」。 …… 还有人说,是「累」。所有打工人,都懂这个字的含义。 最后,在国外的同版本调查中,根据对3000个老外的采样,得票率最高的答案是——「poop」。 来源 新智元 原文链接网页链接
地球oline发疯实录
发布时间2026/01/02 12:19:31
5
44
-
170
-
转载:谷歌Veo 3.1重磅发布 转载:谷歌Veo 3.1重磅发布,核心攻克AI视频最大痛点——“一致性”。通过Ingredients to Video技术,实现角色、背景在不同场景下的高度统一,配合Nano Banana Pro生成高质量底图,支持原生9:16竖屏直出及4K电影级画质。AI连续叙事时代已来,人人都能做导演 #Veo31 #竖屏 #4K (来源:视频号“新智元”,视频版权归原作者所有,如有侵权,请联系删除)
但斌(东方港湾)
发布时间2026/01/15 01:38:40
2
12
16
105
更多
【#DeepSeekV4架构或提前曝光#】#DeepSeek开源大模型记忆模块##DeepSeek发布梁文锋署名论文#DeepSeek新论文发布了,梁文锋署名!这一次,他们联手北大直接瞄准了「记忆」,是Transformer最致命的关键难题。 如今,MoE成为大模型主流架构,但本质仍是Transformer,因其缺少原生「知识查找」机制,很多检索能力被迫用大量计算去模拟。 33页论文中,团队提出了 MoE 互补的「条件记忆」稀疏轴,并通过一种全新的Engram模块去实现:将经典哈希N-gram嵌入现代化,提供近似O(1)的确定性知识查找。 通过「稀疏分配」(Sparsity Allocation)建模,他们意外发现MoE与Engram之间,存在「U形scaling law」。 这意味着,需调整两者之间资源比例,让计算与静态记忆间找到最优权衡。 沿着这个规律,将Engram扩展到27B参数后,并在严格等参数、等FLOPs下优于MoE基线。 直白讲,MoE只解决「怎么少算」,Engram直接解决「别瞎算」。 它把该查的交给 O(1)记忆,把注意力从局部琐碎中解救出来,结果不只是更会背知识,同时推理、代码、数学一起变强。 这可能成为稀疏LLM下一条主流路线,更重要的是,下一代V4或将集成这一新方法。(新智元
新浪科技
发布时间2026/01/13 02:32:01
20
12
-
68
-
新智元声量热度报告
声量指数
300.8
作品数 · 
1793
账号数 · 
701
互动量 · 
7.1w
平均互动 · 
39