“新智元” · 近30天声量数据
作品数作品数趋势作品数分布
互动数互动数趋势互动数分布
- 公众号6.9w/98%
- 微博964/1%
- 快手0/0%
- 抖音146/0%
- B站0/0%
代表作品
作品导出
深度报告
| 内容 | 评论 | 分享 | 收藏 | 获赞 | 操作 |
|---|---|---|---|---|---|
![]() 马斯克10年梦成真!特斯拉全球首次自动驾驶横穿美国,人类0接管 新智元 发布时间2026/01/01 05:02:55 | 67 | - | - | 1111 | 更多 |
![]() 5行代码,逼疯整个硅谷!澳洲放羊大叔,捅开AI编程奇点 新智元 发布时间2026/01/14 09:15:18 | 40 | - | - | 1057 | 更多 |
![]() ![]() 6235
「如果用一个字证明你不是AI,你会选择哪个字?」这是青桐鸣2025年11月高三联考作文题。相关视频一出(图2是原视频),人气暴涨,这几天无论什么时候点进去,都有上千人同时在线观看。54份答案中,有很多都不谋而合,这些回答闪耀着生命的特性和人性的灵智,是AI模仿不来的。
比如,妈——「可是机器人没有妈妈。」因为有妈妈,所以我在这里,我被保护。父母,也是我们跟死亡之间的最后一道防线。
急——「机器人不懂,为什么人总是很急?医院三十分钟后才出检测报告,为什么每隔几分钟,就要去看出结果了没有呢?」在医院这个等待命运宣判的地方,人们总是很沉重,而AI,永远不会明白这种沉重,也不会理解人类对AI的感受。
慢——「快捷高效是AI的代名词,可人们却渴望与喜欢的人慢慢来,在生活转动的间隙,慢慢欣赏一束光的倾斜。AI永远为了更快,人们的『快』却是为了更好的『慢』」。
同样意思的一个字,是钝。钝——「钝是AI指出捷径后,我却执着去撞南墙的愚钝;是我在回复家人好友的时候,小心翼翼的迟钝。我总是比AI慢一拍,用钝钝的心去拥抱圆圆的世界。」
留——「今天的夕阳真好,我们为这抹橙红停留。请留心脚边的小猫,它也留恋于今天的约会吗?你打算离开,可余兴犹在,让我再挽留你十分钟。我已对你毫无保留,除了心头怦怦直跳的表白。『工作完成,谢谢你留下陪我』『现在我们去约会吧』」。今天的夕阳真好,AI听得懂这句话吗?
信——「机器只相信确证的数据,但人相信未拆封的信里住着春天。」当AI每天都写出无数封信,也就相当于没有给任何人写信。
而下面这些答案,都属于重合答案。比如爱——「机器人的爱是文字,而人类的爱可以是一个温暖的拥抱。」
痴——「痴是理性的基地上生长出的『不理智』的花朵。AI 尝试用代码解构爱与执着,却无法敌过转角那个不期而遇的身影,那时难以抑制的心跳。」张岱《湖心亭看雪》中,有一句「莫说相公痴,更有痴似相公者」。AI能背出这首词,但能理解这句话的意思吗?
限——「AI的发展是无限的,但我的一切都是有限的:学过的知识,听过的故事,见过的人,乃至于我的生命,我的时间。或许AI因为它的无限而更有价值,但我因为我的有限而更加珍贵。」是的,AI不会死,但人类因为自己的有限,反而更加珍贵了。
而以下这些字,获得了三名或以上同学的提名——痛。疼痛,才会让我们感受到自身的存在。那些让我疼的,也必然曾经让我活过。AI会写一本关于「痛」的小说吗?
还有一个高提名的字——我。
获得四票的答案,是情。
最出乎意料的是,居然有十个同学共同选择了这个字——恨。恨,是人类所拥有的最极端最赤诚的情感,也是AI永远无法拥有的东西。
跟恨同样获得高票提名的,还有憾和悔。后悔,是一种AI永远无法理解的情感。看完这些答案,让人不禁感慨:人类最珍贵的,或许并不是此时此刻所达成的智慧,而是绵延不绝的未完成。
不少读者也都贡献了让人脑洞大开的留言。
有人说是「吃」,因为现在就想吃饭了。一个硬核回答是转义字符「\」。
……
还有人说,是「累」。所有打工人,都懂这个字的含义。
最后,在国外的同版本调查中,根据对3000个老外的采样,得票率最高的答案是——「poop」。
来源 新智元
原文链接网页链接 ![]() 地球oline发疯实录 发布时间2026/01/02 12:19:31 | 5 | 44 | - | 170 | - |
![]() ![]() 转载:谷歌Veo 3.1重磅发布 转载:谷歌Veo 3.1重磅发布,核心攻克AI视频最大痛点——“一致性”。通过Ingredients to Video技术,实现角色、背景在不同场景下的高度统一,配合Nano Banana Pro生成高质量底图,支持原生9:16竖屏直出及4K电影级画质。AI连续叙事时代已来,人人都能做导演 #Veo31 #竖屏 #4K
(来源:视频号“新智元”,视频版权归原作者所有,如有侵权,请联系删除) 但斌(东方港湾) 发布时间2026/01/15 01:38:40 | 2 | 12 | 16 | 105 | 更多 |
![]() ![]() 【#DeepSeekV4架构或提前曝光#】#DeepSeek开源大模型记忆模块##DeepSeek发布梁文锋署名论文#DeepSeek新论文发布了,梁文锋署名!这一次,他们联手北大直接瞄准了「记忆」,是Transformer最致命的关键难题。
如今,MoE成为大模型主流架构,但本质仍是Transformer,因其缺少原生「知识查找」机制,很多检索能力被迫用大量计算去模拟。
33页论文中,团队提出了 MoE 互补的「条件记忆」稀疏轴,并通过一种全新的Engram模块去实现:将经典哈希N-gram嵌入现代化,提供近似O(1)的确定性知识查找。
通过「稀疏分配」(Sparsity Allocation)建模,他们意外发现MoE与Engram之间,存在「U形scaling law」。
这意味着,需调整两者之间资源比例,让计算与静态记忆间找到最优权衡。
沿着这个规律,将Engram扩展到27B参数后,并在严格等参数、等FLOPs下优于MoE基线。
直白讲,MoE只解决「怎么少算」,Engram直接解决「别瞎算」。
它把该查的交给 O(1)记忆,把注意力从局部琐碎中解救出来,结果不只是更会背知识,同时推理、代码、数学一起变强。
这可能成为稀疏LLM下一条主流路线,更重要的是,下一代V4或将集成这一新方法。(新智元) ![]() 新浪科技 发布时间2026/01/13 02:32:01 | 20 | 12 | - | 68 | - |









