SoPilotSoPilot

🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

Frank Wang 玉伯
11.4Kfo
Frank Wang 玉伯@lifesinger· 2h ago发布

最近对各种摘要型 prompt,都默默删除了,发现缺失了用户自己的视角,很难真提取到有效信息,特别是对高质量的原始内容来说。 比如最近罗永浩采访宋方金这期,聊的很杂,信息量很多。有意思的是,听完后,我发现我感兴趣的,和另一个好朋友感兴趣的点,完全不一样。 Summary prompt 是一种快速产生“五分钟看完一部电影 ”的消费方式。然而在抖音上,“五分钟看完很多电影”后,依旧对原始电影模糊得不行。Summary 适合娱乐,并不适合学习。 Karpathy 的最新播客,也有同感。我刚看完原始视频,对比去看 Twitter 上的各种总结,绝大多数只是一种暴力压缩,是在把一部精华电影剪辑成五分钟速读文字。价值只有一个点:这期播客值得听,赶紧去看。可叹的是,绝大部分情况下起到的作用是:看了总结,以为已经得到了精华,就再也不去看原始内容了。 文学研究里,最基础的讨论前提是 back to text(回到原始文本)。学习领域,可能也如此。原始文本/音频/视频是一个巨大的 prompt,是酵母菌,是催化剂,用户本身才是那个面团。酵母菌 + 面团需要时间去发酵,然后面团才能蓬松起来,变成好吃的面点。 AI 的天花板,依旧在人。这个世界越来越有意思。 看有多少人会去看 @karpathy 的原始视频 👇

26
2
5
4.6K
Data updated 50m ago
Viral Probability
69%
Predicted Views
18.0K
Est. 200 views for your reply
Bear Liu
107.2Kfo
Bear Liu@bearbig· 3h ago发布

昨天发了那个故事贴,有条评论是“原来是个卖软件的”,我看到一皱眉然后hide加防御性拉黑,完全是肌肉记忆的操作。 现在一想挺好啊,我就是卖软件的。我找到了一种方法提升了自己,然后现在把帮助自己成长的方法,做成软件,推荐给也想要成长的朋友。这不是巨牛逼的的事情么? 欢迎大家买我的软件:)

26
0
7
5.0K
Data updated 50m ago
Viral Probability
56%
Predicted Views
20.0K
Est. 200 views for your reply
Bear Liu
107.2Kfo
Bear Liu@bearbig· 4h ago发布

老婆女儿说想我了。 女儿又在洗澡时,在浴室玻璃上写了一个"I miss dad" 。

51
0
6
7.6K
Data updated 50m ago
Viral Probability
55%
Predicted Views
35.0K
Est. 400 views for your reply
orange.ai
138.6Kfo
orange.ai@oran_ge· 4h ago发布

刚看完Andrej Karpathy这期暴论频出的播客: - 今年不是"智能体元年",我们身处"智能体的十年" - 现在的强化学习就像"通过吸管吸取监督" - LLM悖论:完美记忆 + 泛化能力差 - 人类糟糕的记忆是特性,不是bug - 当你记不住细节时,大脑被迫进入抽象模式,看到"森林"而不只是"树木"。 - 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) - 我们需要的AI只需要认知核心。剥离记忆,保留算法。 也许我们需要的不是更大的模型,而是更会遗忘的模型? - AI 不会立即取代人类,而会逐步提高工作占比,最终完成 99% 的工作,剩下1%无法取代。 - 以前的教育是为了找到工作,Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 播客开头,AK先重新校准了我们对 AI 的期望。 今年不是"智能体元年",我们身处"智能体的十年",区别在于,一切没那么快,虽然也没那么慢。 他说,现在强化学习就像"通过吸管吸取监督" ,模型尝试几百种方法,最后只得到一个"对错"信号,然后把这个信号广播给成功路径的每一步,包括那些纯属运气的错误步骤。 你瞎猜猜中了答案,然后把猜的过程也当成"正确方法"强化,这能学好吗? AK还提到一个更荒诞的例子:有个数学模型突然开始得满分,看起来"解决了数学"。但仔细检查发现,模型输出的是"da da da da da"这样的完全胡言乱语,却骗过了LLM评判者。这就是用LLM做评判的问题——它们会被对抗样本攻击,因为这些乱码是它们从没在训练中见过的"样本外"内容。 更深层的问题是:人类读书时在做什么? AK说:"我们读的书其实是prompts,让我做合成数据生成用的。" 我们读书时不是被动接收信息,而是在内心进行复杂的对话。新只是与已知知识调和,产生新理解,形成个人化的认知图谱。 但LLM呢?只是在预测下一个token,缺乏这种"内心对话"机制。 人类还有个神奇的"睡眠阶段"。白天我们建立起事件的上下文窗口,睡觉时发生蒸馏过程,将信息整合到大脑权重中。 LLM缺乏这种等效机制,每次启动都是零上下文的白纸。 AK发现了一个根本悖论: LLM悖论:完美记忆 + 泛化能力差 人类悖论:糟糕记忆 + 强学习能力 为什么?因为遗忘强迫我们抽象。 这里AK还有个精妙的类比:模型的预训练权重就像"一年前读过某本书的模糊回忆",而上下文窗口信息则像"工作记忆"——直接可访问。这解释了为什么in-context learning感觉更"智能":在预训练过程中,像 Llama 3 这样的模型将 1.5 万亿个标记压缩到它的权重中,每个标记仅存储约 0.07 比特的信息。相比之下,上下文学习的信息吸收速度要高 3500 万倍。 当你记不住细节时,大脑被迫提取general patterns(通用模式),看到"森林"而不只是"树木"。 而LLM被海量训练数据的完美记忆"分散注意力",反而阻碍了真正的抽象理解。 我们仔细会议人类的学习过程。读过的书大部分细节都忘了,但核心思想和方法论却越来越清晰。 原来这不是记忆力差,这是智能啊。 更震撼的类比:儿童 vs 成人 vs LLM 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) 成人:记忆中等,创造力中等(已经"坍塌"了部分) LLM:记忆完美,创造力最低(被训练数据"过拟合") AK提到Erik Hoel的研究:梦境可能就是大脑的anti-overfitting机制。连睡觉都是为了避免过拟合,引入随机性防止思维僵化。 这解释了为什么当前AI在"合成数据训练"上会失败。你让GPT对同一本书思考10次,会发现回答几乎一样。这就是"静默坍塌"。 模型的输出分布极其狭窄,AK开玩笑说"它实际上只有3个笑话"。在这种低熵数据上训练只会强化模型的偏见,让它变得更糟。 而且人类其实也经历类似的"坍塌"过程,儿童富有创造力是因为还没"过拟合"到社会规范,会说出令人震惊的话。但成年后我们也"坍塌"了,重复相同的思想,学习率下降,创造力递减。 梦境也可能是大脑的anti-overfitting机制,通过引入随机性防止思维僵化。 所以他提出了一个激进想法:我们需要认知核心。剥离记忆,保留算法。 让AI像"有方法论但没有百科全书的哲学家",强制它查找而非回忆,专注于思考的meta-skills。 他预测未来20年内,高效的认知核心可能只需要10亿参数,而不是现在动辄千亿参数的模型。 大部分参数都在处理互联网上的"垃圾和胡扯",如果优化训练数据质量,分离认知组件,就能实现极大压缩。 当前foundation model的路径是否根本错了? 也许我们需要的不是更大的模型,而是更会遗忘的模型? 重新理解AI的发展路径 早期深度强化学习专注游戏(如Atari)其实是走错了方向。真正目标应该是创造能在现实世界执行知识工作的智能体,不是游戏高手。 他回忆自己在OpenAI的早期项目,用键盘鼠标操作网页的智能体,目标是执行知识工作。但项目"太早了",智能体缺乏必要的"表示能力",会因稀疏奖励卡住。缺失的关键是强大的预训练模型。今天类似的计算机使用智能体之所以成功,正是因为建立在LLM之上,你需要先有LLM获得强大表示,再构建有效智能体。 他的另一个深刻观察:AI不是独立技术类别,而是自动化连续体的一部分。从编译器、代码编辑器到搜索引擎,再到现在的LLM,我们一直在"抽象阶梯"上向上攀登,让机器处理更多底层细节。 这解释了为什么AI经济影响主要集中在编程领域,代码本身就是文本,有成熟基础设施(IDE、版本控制),LLM可以无缝接入。相比之下,制作幻灯片这种视觉任务就困难得多,因为没有infrastructure让AI显示"diff"或跟踪变化。 但AK也泼了冷水:当前AI编程模型还没准备好真正自动化编程。他亲身体验发现,对于独特的智力密集项目,模型会失败——它们有认知缺陷,误解自定义代码,因为总是默认使用在线常见模式。他感慨"行业跳跃太大,试图假装这很神奇,但其实是垃圾"。 "九进军"的苦涩现实 从Tesla自动驾驶5年经验,AK深知从90%工作的demo到99.9%可靠产品的"九进军"有多艰难。每提升一个九,都需要massive effort。他提到自动驾驶演示从1986年就存在,2014年他在Waymo车上体验了完美驾驶,以为技术很接近完成。但现实是demo到产品的巨大鸿沟,在高风险领域尤其如此。 在Tesla的五年里,他们可能只推进了两三个"九",还有更多要走。这种现实主义让他对AGI时间线保持谨慎:这是"智能体的十年",不是"智能体之年"。 当前模型就像"有完美记忆的小孩"或"学者儿童"——能通过博士级测试,却认知上还有严重缺陷:缺乏持续学习、多模态能力、有效使用计算机的能力,以及大脑中海马体、杏仁核等关键组件的类似物。 未来的工作模式:自主滑块 AK预测不会出现"瞬间工作替代",而是"自主滑块"模式:AI处理80%常规任务,人类监督AI团队并管理最复杂的20%。有趣的是,当AI自动化99%工作时,处理最后1%的人类反而会变得极其有价值,成为整个系统的瓶颈,他们的薪资也会提高。 教育的范式转换 AK对教育未来的洞察:Pre-AGI时代教育是功利性的(为了工作),Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 他还分享了一个教学技巧:先展示痛点,再给解决方案。通过展示简单方法的局限性来激发学习动机,这样学习者会深刻理解为什么需要复杂解决方案。 最后,要真正掌握知识,就要试着向别人解释。解释的过程会迫使你面对理解中的空白,这又回到了他的核心观点: 限制和困难往往是学习的催化剂。 这 recall 了之前的观点,真正的技术突破往往需要重新思考基础假设。 也许AGI的关键不是让机器记住更多,而是学会智能地遗忘。

210
48
12
20.8K
Data updated 50m ago
Viral Probability
100%
Predicted Views
283.0K
Est. 2.0K views for your reply
宝玉
139.6Kfo
宝玉@dotey· 5h ago发布

这个翻译的提示词我后来加了一句话,在翻译一些晦涩难懂的技术文章时效果很好,能帮助解释一些专业术语: > - 适当解读:如果是普通人难懂的专业术语或因为文化差异导致的难以理解,做出更多的注释以更好的理解,注释部分用括号包裹并加粗 完整提示词见评论:

53
6
1
10.4K
Data updated 50m ago
Viral Probability
63%
Predicted Views
34.0K
Est. 2.4K views for your reply
宝玉
139.6Kfo
宝玉@dotey· 5h ago发布

分享一点 AI Coding/Codex 实践技巧:告诉 AI 如何验证 这个方法其实我提到多次,只不过再随手贡献一个案例罢了。 Coding Agent 能力挺强的,能自己写代码自己调用工具,但是它有时候并不知道该如何验证数据。 如果说你只是告诉它哪里错了,它并不一定能通过阅读代码找出问题所在,但如果你告诉它如何验证,那么它就能在修改完后自行验证,验证时如果发现问题就会继续修复,直到完全修复为止。 比如我在调试一个 API 发现返回结果不对,那么我就告诉它输入是什么,实际输出是什么,期望结果是什么(甚至于我没说它也猜得到),然后让它自行写测试代码验证。 那么它就不仅阅读代码修改问题,还会写测试程序去验证,直到解决问题。

89
13
6
17.3K
Data updated 50m ago
Viral Probability
68%
Predicted Views
80.0K
Est. 900 views for your reply
Susan STEM
39.4Kfo
Susan STEM@feltanimalworld· 6h ago发布

Substack is the new linkedin. 经常有一堆人在X的bio上面写一堆头衔名校QS排名...暂不评论这个,我说说我怎么看的。 在 AI 时代,职业身份的重心正在从履历转向认知。 LinkedIn 展示的是“你做过什么”; Substack 展示的是“你在思考什么”。 1. 从“履历”到“声誉” LinkedIn 衡量的是过去的职位与资历, Substack 衡量的是当下的思考力与原创度。 技能会贬值,说点你懂的但是AI还不懂的事情? 思想才是新的简历。 2. 从“人脉”到“叙事” LinkedIn 是关系网络, 不是,2025年了,同学会你还去吗? Substack 是叙事网络。 前者连接的是人,后者连接的是世界观。 3. 从“表演”到“信号” LinkedIn 的发帖是展示:其实我一直都不是linkedin的粉,总有一种“假假”的感觉。 Substack 的写作是沉淀。 在信息噪音中,真实的思想成为稀缺信号。 4. 从“职级”到“结构” LinkedIn 的世界是层级化的; Substack 的世界是去中心、可重组的。 你不再被“职位”定义,而是被思维结构定义。 5. 从“介绍自己”到“公开进化” LinkedIn 让你写一个“关于我”; Substack 让你记录一个“成为我”的过程。 你的档案不再是静态页面,而是一个持续生长的认知证明。 Substack 的长文我都很认真的在写。最近还想把配图也给跟上, 后期再把视频和博客跟上。现在居然就有了付费用户,我真是太意外,太感动了😭 LinkedIn 展示你是谁; Substack 展示你正在成为谁。 而且,马斯克考虑一下收购Substack?直接把Grok用来分析画像?

39
6
4
7.0K
Data updated 50m ago
Viral Probability
65%
Predicted Views
17.0K
Est. 1.0K views for your reply
马东锡 NLP
30.9Kfo
马东锡 NLP@dongxi_nlp· 8h ago发布

「 Model Collapse 」 昨天看完 Andrej Karpathy 的播客节目,提到了 models collapse。于是找来这篇文章来读。 AI models collapse when trained on recursively generated data Early collapse : 损失低概率事件 Late collapse : 方差大幅减小,完全失真于原始分布 想象或直接问 AI 一下,如果大多数人类collapse了,这个世界会怎样?

34
4
2
2.7K
Data updated 50m ago
Viral Probability
56%
Predicted Views
6.0K
Est. 300 views for your reply
Shawn Pang
24.0Kfo
Shawn Pang@0xshawnpang· 8h ago发布

We closed an oversubscribed fundraising for @allscaleio last week (will share details in the future) but got the speedrun rejection letter from @JoshLu. However this is by far the most detailed and informative response email I have ever received. It's almost the same length as the application we submitted for @speedrun. Founders appreciate investors like @JoshLu. Straightforward so they do not waste your time. Honest and sharp so you know what to work on or what to not worry about.

16
0
4
1.5K
Data updated 50m ago
Viral Probability
52%
Predicted Views
4.0K
Est. 200 views for your reply
宝玉
139.6Kfo
宝玉@dotey· 8h ago发布

周末吃瓜:这条推文宣布 GPT-5 “解出” 10个Erdős数学难题,大众以为是 GPT-5 数学能力有了突破,事后发现不过是检索现有文献得出来的结果 事情起因是 OpenAI 旗下研究员 Mark Sellke 在社交平台 X 上高调宣布:他们借助 GPT-5 成功「找到」了10个著名的厄尔多斯数学难题(Erdős problems)的解法。Mark 兴奋地写道:「经过数千次GPT-5的查询,我们发现了10个原本还处于『未解状态』的厄尔多斯难题的解答,分别是223、339、494、515、621、822、883(第二部分)、903、1043、1079。此外,还有11个难题取得了重要的部分进展,并更新到了官网上。甚至在第827题上,我们还发现厄尔多斯本人原始论文里存在错误,这个错误由Martínez和Roldán-Pensado两位学者后来进行了修正。看来,未来的科学研究真的要变得有趣了!」 OpenAI 高管 Kevin Weil 在 X 平台上惊呼:“GPT-5 找到了 10 个 (!) 此前未解决的 Erdős 问题的解答,并在另外 11 个问题上取得进展” 随后,OpenAI 另一名知名研究员 Sebastien Bubeck 也兴奋地转发并补充道:「AI驱动的科学加速时代正式开启了!两位研究员仅靠一个周末、借助GPT-5成功解开10个厄尔多斯难题……顺便一提,正好宣布一下:Mark Sellke 已经正式加入了OpenAI!」 消息一出,全网震动,一时间不少人误以为GPT-5独立破解了这些困扰数学界数十年的难题。 不过,这场欢呼很快被谷歌 DeepMind CEO Demis Hassabis狠狠泼了一盆冷水。 Demis 直接在布贝克的推文下回复道:「这真是尴尬啊(this is embarrassing)!」 这句话瞬间引爆舆论。不少网友追问 Demis 究竟为什么如此评论时,他冷静地引导大家去查看 Thomas Bloom 发布的一则关键说明。而 Thomas 正是OpenAI引用的那个 ErdosProblems .com 网站的创始人兼维护人。 Thomas 随后公开澄清: 「作为erdosproblems .com网站的拥有者和维护者,我得声明:OpenAI的说法明显夸大了事实。GPT-5只是通过网络搜索,找到了早已存在的论文,这些论文中早就解答了这些问题,只是我个人不知道而已。网站上的『未解』状态只是说明我尚未发现相关的论文,而不代表全世界数学界没有解决方案。」 换句话说,GPT-5实际上并没有独立地破解任何厄尔多斯难题。它所做的仅仅是比人类网站管理员更迅速地在互联网上「检索到了」已知的答案,而这些答案其实早已存在。 事后 Sebastien Bubeck 删除了之前的推文: > 我删除了之前的推文,我显然不是有意误导任何人,我原本以为自己的表达很清楚,对此感到抱歉。我们仅仅是发现了已经发表在文献中的解法,仅此而已。我认为这依然是一种巨大的进步,因为我知道检索文献有多么困难。 Yann LeCun 在下面回复: > 这次他们被自己吹嘘GPT的言论坑惨了(Hoisted by their own GPTards)。 (注:原文为“Hoisted by their own GPTards”,源自英文俗语 "hoisted by their own petard",意指“搬起石头砸自己的脚”,这里被Yann LeCun改为GPTards,以讽刺那些盲目吹捧GPT的人。) GPT-5 能够快速、精准地从浩如烟海的学术文献中挖掘出被忽略的答案,这一点当然非常有价值。但问题在于,OpenAI研究员的发言模棱两可,很容易让公众误以为 GPT-5 已经突破了AI的极限,真正自主解决了艰深的数学难题。 更糟糕的是,这种误导性的说法还被自家人进一步放大,甚至上升到「AI正在颠覆传统科学研究」的高度,无疑加剧了公众的误解。

46
7
7
19.1K
Data updated 50m ago
Viral Probability
61%
Predicted Views
82.0K
Est. 800 views for your reply
Susan STEM
39.4Kfo
Susan STEM@feltanimalworld· 9h ago发布

在这个时候,我认为Substack 非常值得做。写这个帖子不是为了劝你,而是留个证据。5年以后回过来看。 Substack will be the next LinkedIn.

33
1
3
8.5K
Data updated 50m ago
Viral Probability
55%
Predicted Views
12.0K
Est. 400 views for your reply
宝玉
139.6Kfo
宝玉@dotey· 9h ago发布

知名播客博主 Dwarkesh Patel 最近对 AK 有过一次访谈,这是他的描述: 对我来说,最有意思的部分,是 Andrej Karpathy(常被粉丝称为“卡神”的AI大牛)解释为什么大语言模型(LLM)没法像人一样学习。 果不其然,卡神又造出了一个特别生动的词儿来形容强化学习(Reinforcement Learning, 简称RL):“用吸管吸取监督数据”。 这话啥意思呢?就是说,在一次成功的尝试里,(比如AI下棋赢了),这个“赢了”的最终奖励,会平摊到它走过的每一步、生成的每个词上。哪怕中间有些步骤是错的、或是无关紧要的,只要最后结果是对的,这些步骤也统统会被算法“加分”。 > “我以前就说过,人类不使用强化学习。我认为人类的学习方式完全不同。强化学习比普通人想的要糟糕得多。强化学习很烂。只不过,我们以前有的其他算法比它还要烂得多罢了。” 那么,人类到底是怎么学习的呢? > “我读一本书,这本书对我来说就是一套‘提示词’(prompts),好让我在脑子里‘合成数据’(synthetic data generation)。你必须通过主动地处理这些信息,才能真正获得知识。但大语言模型(LLM)没有对应的机制;它们真的不会这么干。” > “我很希望在模型的预训练(pretraining)阶段看到这么一个环节:模型能‘琢磨’一下它读到的材料,并试着把它和自己已经知道的知识‘对上号’(也就是融会贯通)。现在根本没有这种机制。这都还停留在研究阶段。” 那我们为什么不能现在就把这种“思考”训练加到大语言模型里呢? > “这里面有非常微妙、难以理解的原因,导致这事儿没那么简单。如果我让模型对一本书进行‘思考’,并生成一些合成数据,你乍一看会觉得:‘这看起来很棒啊!为什么不能用它来训练呢?’ 你是可以试试,但如果你坚持这么做,模型的性能实际上会变得更糟。” > “比方说,我们拿一本书的某一章,我让一个大语言模型来‘思考’一下。它会给你一段看起来非常合理的回答。但如果我让它回答 10 次,你会发现,这 10 次的回答几乎一模一样。” > “你从这些模型里,得不到人类思考时那种丰富性、多样性和‘熵’(在这里指思考的混乱度和创造性)。你无法像人一样得到各种天马行空的想法。所以,如何在模型趋向于‘坍塌’(collapse)(指回答变得单一、缺乏多样性)的情况下,还能让合成数据起作用,并且保持住这份‘熵’?这还是个研究难题。” 那么,人类是如何避免这种“思维坍塌”的呢? > “(把人和模型类比)这个点子好得出奇。人类在自己的一生中,其实也会‘坍塌’。小孩子还没有‘过拟合’(overfitting)(指思维僵化,只适应特定模式)。他们会说出一些让你震惊的话。那是因为他们还没‘坍塌’。但我们成年人已经‘坍塌’了。我们最终会反复琢磨同样的想法,我们说的话也越来越趋同,我们的学习率下降,‘坍塌’的情况越来越糟,最后一切都退化了。” 事实上,有篇很有意思的论文(Erik Hoel 的《过拟合的大脑》(The Overfitted Brain))就提出,人类做梦这个功能的进化,就是为了帮助我们提升‘泛化能力’(generalization)(指举一反三的能力),抵抗日常学习带来的‘过拟合’。 于是我问卡神:这事儿是不是特有意思?—— 人类在学习能力最强的时期(童年),却会把学到的具体细节忘得一干二净;成年人虽然也能学得不错,但对读过或看过的东西,记忆力也烂得不行;而大语言模型呢,它们能记住人类根本记不住的海量文本细节,但在‘泛化能力’上却表现得很差。 > “(人类健忘的记忆力)这恰恰是一个‘特性’(feature),而不是一个‘缺陷’(bug)。因为它逼着你只能去学习那些真正具有‘泛化能力’的东西。而大语言模型呢,它们被自己记在(预训练)文档里的海量细节给‘分心’了。这就是为什么我谈到‘认知核心’时,我其实是想把(模型的)记忆力拿掉。我倒希望它们记性差一点,这样它们就必须去(主动)查资料,而只保留那些‘思考的算法’、‘做实验的想法’,以及所有这些用于行动的‘认知粘合剂’。”

217
41
11
37.4K
Data updated 50m ago
Viral Probability
71%
Predicted Views
83.0K
Est. 400 views for your reply
宝玉
139.6Kfo
宝玉@dotey· 9h ago发布

做中学 https://t.co/vNkYTrd33L

124
25
10
13.5K
Data updated 50m ago
Viral Probability
70%
Predicted Views
19.0K
Est. 100 views for your reply
宝玉
139.6Kfo
宝玉@dotey· 10h ago发布

Agent 的好文章,强烈推荐阅读👍 要说对 Agent 的理解,Manus 团队无疑是业界顶尖的,每次他们的分享都能有所收获,作者作为前 Manus 团队成员,对 Agent 的经验是丰富的,最难得的是能把概念解释的深入浅出通俗易懂。 OpenAI 提出了一个五级人工智能分级标准来衡量其通用人工智能(AGI)的进展:第一级是“ChatBot(聊天机器人)”,能够进行对话;第二级是“Reasoners(推理者)”,可以解决人类水平的问题;第三级是“Agent(智能体)”,能够代表用户采取行动;第四级是“创新者(Innovators)”,可以帮助发明创造;第五级是“组织者(Organizations)”,能够完成组织管理工作。 AI 现在现在已经发展到了第 3 级 Agent,但很多人还搞不清楚它和第 1 级 ChatBot 的差别,这就是一篇很好的科普让你搞清楚它的差别。 Chatbot: - 一次性输出 - 只能依赖自身知识库 Reasoners: - 先思考再输出 Agent: - 动态循环过程,Think → Act → Observe,先制定明确计划(Think),再查询实时信息(Act),最后基于真实结果调整方案(Observe),通过持续反馈和修正,稳定逼近目标。 - 使用工具,与真实世界互动,弥补自己知识库的不足,主动补齐上下文 原文较长,推荐仔细看看,链接在原推2楼

224
52
9
34.2K
Data updated 50m ago
Viral Probability
73%
Predicted Views
73.0K
Est. 400 views for your reply
勒西
7.8Kfo
勒西@alwriterla· 10h ago发布

这张图想必都见过:人类目前了解的几乎所有的概率分布。 作为一个搞数据科学的,我想用这个帖子🧵,把这个图上概率分布都解释一遍。 目的有两个: 1. 让做产品的普通人,用更正确的概率分布思考问题 2. 作为我自己输出方式的一种尝试,拿到一些反馈 https://t.co/PAeRhqGt7s

92
20
2
8.8K
Data updated 50m ago
Viral Probability
64%
Predicted Views
12.0K
Est. 300 views for your reply
Susan STEM
39.4Kfo
Susan STEM@feltanimalworld· 10h ago发布

一种不可言说的变化即将在我们熟悉的知识领域发生。我想Robinson说的事情包含在这个范围内。 这就是我为什么又把这本书专门买个纸版本的,仔仔细细的又在研究。 书籍真是一种很难完全窥探作者思想的媒介,总共没多少字,而且他文采还很好(不直白,但问题就是一个中心思想还写了好多字)。所以没完全看透他的思想。 版权,知识,文凭,研究,科学,科研,知识分子,白领阶层,中产阶级,高校生态。 以上的这一切关键词,都是我认为即将发生我以前不可理解不可预知的领域。 无法用语言表述出来,所以想看这本书找答案。但我的感官又足够敏感,能感觉出来。很奇怪的感觉。

54
7
1
10.4K
Data updated 50m ago
Viral Probability
58%
Predicted Views
14.0K
Est. 400 views for your reply
Mina
5.9Kfo
Mina@Minamoto66· 11h ago发布

晚上不想开火了,买了超市的寿司,14.9欧元,又买了一块三文鱼,9.8欧元吃了。去了趟超市买了300多欧的东西,一半是要带到巴尔干去的。把首都的公寓打扫完又回家继续打扫被四只毛娃整得乱七八糟的房子。反正我的剧本里不是霸道总裁爱上绝经干保洁的我,是我这个快绝经的总裁天天干保洁… https://t.co/afoesluX5v

92
0
25
5.3K
Data updated 50m ago
Viral Probability
52%
Predicted Views
7.0K
Est. 100 views for your reply
dontbesilent
51.3Kfo
dontbesilent@dontbesilent12· 11h ago发布

我们在短视频上经常会看到有人说,你做泛流量赚不到钱,必须做精准流量才能变现 “精准流量”这个说法是一种典型的,短期有益但长期有害的词汇 短期有益指的是很多人的确为了获取流量做了很多垃圾内容,这些内容在当下的确是无法变现的,所以你需要收缩一下你的选题范围 但长期来看,我们认为真正的财富其实是源于你有强大的承接能力,让你可以把泛流量也进行转化 因为所谓的精准流量的总量是非常有限的,这实际上是一场逃避强化转化能力的自我表演 真正能帮助我们看清世界的思维模型,其实是把它分为流量和转化两部分,在你转化能力有限的情况下,你想短期获取精准流量,这没有问题 但过了这个阶段之后,你依然停留在精准流量这个词汇上,这就是有害的 所以,如果只是单拎出来这个词去赞美,而不讨论它背后的更大的语境,我认为这是不理解商业的表现 简单讲就是菜 维特根斯坦说,哲学是一场反对语言对我们的理智的蛊惑的斗争 我正在尝试去践行

35
2
4
5.2K
Data updated 50m ago
Viral Probability
56%
Predicted Views
7.0K
Est. 200 views for your reply
勒西
7.8Kfo
勒西@alwriterla· 12h ago发布

为啥古代那么多扒灰? 古代人结婚早,儿子结婚时,老爹还是精壮小伙。 又一大家子住在一起,低头不见抬头见。 公公既有主观动机,又有客观条件,往往也比儿子更有钱有势。

33
1
6
5.1K
Data updated 50m ago
Viral Probability
47%
Predicted Views
7.0K
Est. 100 views for your reply
向阳乔木

向阳乔木

@vista8· 65.3K followers

如果没耐心看完4个半小时的视频,让AI写了一个短篇故事,总结这篇访谈的核心内容。 (省略较多,可能信息不完整) 第一章:敲门声 2011年,圣彼得堡的冬夜。 一阵沉重的敲门声,划破了寂静。 门外,是荷枪实弹的特种警察。 门内,是27岁的帕维尔·杜罗夫。 他是VKontakte的创始人。 这个社交网络,是当时俄罗斯的互联网心脏。 警察为他而来。 几天前,莫斯科爆发了大规模抗议。 VK是抗议者信息联络的中心。 官方要求他关闭反对派群组,交出用户数据。 他拒绝了。 他没有开门。 他回到电脑前,发布了一张照片。 一只可爱的哈士奇,吐着舌头。 他写道:"这是我对官方请求的回应。" 这是数字时代的公然反抗。 那一夜,警察最终撤离。 但战争已经开始。 杜罗夫意识到一个致命问题。 他和哥哥之间,没有任何安全的通讯方式。 每一个字都可能被监听。 一个念头在他心中诞生。 *"如果我能活下来,我一定要创造一个无法被渗透的工具。"* 这个工具,后来被称为Telegram。 这扇被敲响的门,将他推向了流亡之路。 也为全球数亿人,打开了一扇通往数字自由的窄门。 第二章:匮乏 杜罗夫理解自由。 因为他见过它的反面。 四岁时,他随家人从苏联搬到意大利。 他看到了一个物质和思想都丰裕的世界。 玩具,冰淇淋,动画片。 更重要的,是观点的自由。 他后来得出一个结论。 没有自由,个体就无法为社会的丰裕做出贡献。 当他们回到俄罗斯,苏联已经解体。 他的家庭陷入贫困。 父亲是大学教授,却连续数月领不到薪水。 他穿着二手市场买来的夹克。 这段经历,没有击垮他。 反而塑造了他。 他后来反复引用一个名为"宇宙25"的老鼠实验。 实验中,老鼠被给予了无限的食物和空间。 一个完美的天堂。 结果,鼠群的社会结构崩溃,最终灭绝。 杜罗夫从中看到了一个真理。 生物的进化,是为了克服匮乏。 当一切唾手可得,目标感就会消失。 生存本身,也失去了意义。 他说:"以一种反常识的方式,我很幸运,因为我成长于贫困。" 匮乏,为他创造了目标、意义和优先事项。 他没有足够的游戏玩。 于是,十岁的他开始自己编程,创造游戏。 匮乏,催生了创造力。 他的反叛精神,也在代码中找到了第一个出口。 在学校,他侵入校园网络。 将主页欢迎词,改成了他最不喜欢的老师的名字,并附言"必须去死"。 这是他最早的黑客行为。 也是他挑战权威的本能。 第三章:天才 他的成长,离不开一个参照物。 他的哥哥,尼古拉·杜罗夫。 一个被他称为"十亿人中才出一个"的天才。 尼古拉三岁开始阅读。 六岁就能理解深奥的天文学著作。 在没有互联网的年代,尼古拉就是杜罗夫的"人形维基百科"。 恐龙、黑洞、星系。 弟弟永无止境的提问,总能从哥哥那里得到答案。 杜罗夫说:"我几乎从哥哥那里学到了我所知道的一切。" 尼古拉指导他编程。 教他如何优化代码。 帮他为"五子棋"游戏编写更强大的算法。 杜罗夫的大学专业是语言学。 和他的父亲一样。 但他真正的热情,在代码世界。 大学课程对他来说"太过简单"。 他感到一种"存在主义式的无聊"。 于是,他创建了一个服务学生的网站。 收集了所有考试答案和讲座笔记。 这个网站迅速流行,成了VK的雏形。 毕业后,一位同学向他展示了Facebook。 杜罗夫的第一反应是: "我已经拥有了所有这些技术。" "但了解它很有价值,这样我就知道应该摆脱哪些元素。" 摆脱,而不是模仿。 这是他产品哲学的起点。 他决定建造一个属于俄罗斯的数字宇宙。 第四章:王国 2006年,VKontakte诞生。 俄语意为"保持联系"。 杜罗夫从零开始。 他向在德国读博后的哥哥尼古拉求助。 尼古拉给出了一个极简的建议。 "只构建一个用户授权模块。" 杜罗夫说,这是他一生中得到过的最好建议之一。 他独自一人,用两周时间写完了第一版代码。 在最初近一年的时间里,他是公司唯一的员工。 后端、前端、设计、客服、市场。 VK的成功是爆炸性的。 它不仅仅是一个"俄罗斯版Facebook"。 它更是一个"狂野东部"。 杜罗夫对内容极度宽容。 用户可以自由上传和分享任何音乐、电影。 这使得VK迅速成为俄罗斯青年一代的文化中心。 一个短暂而珍贵的、无政府主义的春天。 这个自由的王国,从诞生之日起,就埋下了冲突的种子。 用户量暴增,服务器不堪重负。 尼古拉带着他的编程冠军朋友们回到俄罗斯。 他们用C++重写了VK的核心数据引擎。 创造了一个奇迹。 VK的加载速度,一度超越了Facebook。 2012年,杜罗夫和VK的几位员工,做了一件惊世骇俗的事。 他们将数张5000卢布的钞票折成纸飞机。 从圣彼得堡市中心的办公室窗户扔向楼下的人群。 引发了街头的混乱和争抢。 事后,杜罗夫解释说,他想观察人们的反应。 他看到人们为了钱而变得"像动物一样"。 他很快就停止了。 他说:"钱被高估了,自由和创造力才是真正重要的。" 这件事,成为了他复杂性格的一个注脚。 一个蔑视金钱,却又深谙人性欲望的矛盾体。 而一个更大的欲望——权力的欲望,正向他逼近。 第五章:帝国 2011年的"哈士奇宣言",是杜罗夫与权力公开决裂的开始。 接下来的两年,是一场缓慢的绞杀。 压力来自内部。 有官方背景的投资者,通过收购股份,逐渐控制了VK的董事会。 杜罗夫陷入了一场残酷的战争。 他拒绝与那些他认为会损害用户利益的股东合作。 在https://t.co/sl7dVWIw6K集团试图全盘收购VK时,他发布了一张照片。 照片中,他对着镜头,竖起了中指。 配文是:"这是我对https://t.co/sl7dVWIw6K集团任何收购企图的官方回应。" 外部的压力则更加直接和暴力。 2013年,一场离奇的"车祸"将他推向了风口浪尖。 一名交警声称杜罗夫驾车撞伤了他。 他的公寓和VK的办公室都遭到了警方的突击搜查。 这被普遍认为是一场政治陷害。 目的是将他赶出VK。 杜罗夫意识到,俄罗斯最有权势的人物,正在幕后推动这一切。 他的人生轨迹被彻底改变。 他被迫出售了自己持有的全部股份。 2014年4月22日,他正式宣布,自己已经离开了俄罗斯。 并且"没有回头路"。 在离开的那一天,他只带了一个背包。 他成了一名"数字游牧者"。 他放弃了一个价值数十亿美元的社交帝国。 却赢得了一样他认为更宝贵的东西——自由。 第六章:方舟 流亡途中,Telegram诞生了。 它的设计哲学,是杜罗夫个人特质的极致体现。 偏执、高效、完美主义。 以及对自由不可动摇的捍卫。 速度是第一原则。 他坚信,哪怕50毫秒的延迟,用户也能在潜意识中感知到。 他说:"一个拥有十亿用户的应用,每次打开慢半秒,累积起来就是数个世纪、数千年的人类时间浪费。" 美学是与工程的共舞。 他将设计视为艺术。 聊天背景是动态的四色渐变。 消息删除时,会像"灭霸响指"一样,分解成粒子消散。 他率先引入了矢量动画贴纸。 比WhatsApp早了近四年。 文件极小,却无比流畅。 他说:"在设计中倾注爱与努力,即使用户看不见,也能通过潜意识感受到。" 安全是绝对的灵魂。 端到端加密,分布式服务器。 数据密钥被拆分存放在不同国家。 这意味着,没有任何单一实体可以获取用户数据。 杜罗夫持有Telegram 100%的股份。 没有外部股东,没有董事会。 这意味着他无需对任何人负责,除了他自己的原则。 "我们宁可关闭Telegram在某个国家的运营,也不会交出用户数据。" 这艘在流亡途中精工细作的"数字方舟",悄然起航。 它承载的,不仅是杜罗夫个人的理想。 也成为了全球数亿人寻求庇护的诺亚方舟。 第七章:堡垒 要驾驶一艘对抗全球风暴的方舟,船长本人必须坚不可摧。 杜罗夫将自己的身体和意志,打造成了一座坚固的堡垒。 他过着一种近乎禁欲的、斯多葛式的生活。 他认为,大脑是人类最宝贵的工具。 在超过20年的时间里,他彻底戒绝了酒精、烟草、咖啡、药丸。 他将药物比作"用锤子砸碎报警的红灯"。 它只是掩盖了问题,而不是解决问题。 他严格控制饮食。 不吃加工糖、快餐、红肉。 能量主要来自海鲜和蔬菜。 他每天早上做300个俯卧撑和300个深蹲。 他承认,这并非为了塑形。 而是为了锻炼唯一需要锻炼的"肌肉"——自律。 他进行长时间游泳,洗冰浴,蒸桑拿。 他将冰浴和桑拿称为"反向酒精"。 忍受短暂的痛苦,换来长期的良好感觉。 这与酒精带来的短暂快乐和长期伤害,恰好相反。 他极少使用手机。 他得出了一个反常识的结论。 "你越是联网,你的生产力就越低。" 他守护安静的早晨。 每天醒来,他会躺在床上静静思考。 他说:"如果一起床就看手机,你就会沦为一个被告知今天该想什么的生物。" 他从不被算法推荐所奴役。 他主动设定目标,成为某个领域的专家。 这种极致的自律,磨砺出了一种无所畏惧的精神。 他常常思考死亡。 并非出于恐惧,而是为了更好地活着。 他理性的结论是:"你的生命中,没有你的死亡。" "一旦你死去,你就停止了体验。" 他会问自己,面对威胁时最坏的情况是什么? "无非是他们可以杀死你。" 一旦你坦然接受了这个最坏的结果,便再无所畏惧。 第八章:试炼 2018年春天,这个哲学命题成为了现实。 一天晚上,杜罗夫感到剧痛袭来。 他的身体机能开始关闭。 视力、听力相继消失。 呼吸困难,血管剧痛。 他确信自己快要死了。 最终倒在了地板上。 第二天醒来,他发现自己浑身虚弱。 手臂和身体上的血管大面积破裂。 他整整两周无法行走。 这是一次未遂的暗杀。 他坚信是中毒。 然而,这次与死神擦肩而过的经历,带来的心理影响是反直觉的。 "有趣的是,我一点也不害怕,"他后来回忆道。 "相反,我感觉更加自由了。" 他觉得自己仿佛早已死去。 现在活着的每一天,都是"奖励时间"(Bonus Time)。 是生命额外的馈赠。 这次濒死体验,将他关于死亡的哲学,彻底熔铸进了他的灵魂。 几个月后,另一场试炼降临。 法国。 这个以"自由、平等、博爱"为信条的国家。 2023年8月,杜罗夫抵达法国机场。 被十多名武装警察拦截并拘留。 他被告知面临15项严重罪名。 全部与Telegram用户的不法行为有关。 他被关押了近四天。 囚室狭小,只有一张混凝土床,没有窗户。 仿佛掉进了卡夫卡的小说《审判》里。 他将这段经历称为"卡夫卡式的"。 拘留期间,法国情报部门向他提出"请求"。 关闭一个支持罗马尼亚某保守派候选人的Telegram频道。 因为法国政府不支持该候选人。 杜罗夫立刻明白了。 这是一场赤裸裸的政治交易。 他当即公开拒绝。 他用行动证明了他的哲学。 那个曾经在冬夜对抗强权的年轻人,如今在肉身与灵魂的双重试炼中,真正成了一个坚不可摧的战士。 第九章:传承 杜罗夫的思考,早已超越了商业。 他深入到了关于人类未来的哲学层面。 大约15年前,他成为了一名精子捐献者。 他并不知道自己生物学上到底有多少孩子。 在订立遗嘱时,他做出了一个惊人的决定。 不区分自然受孕和通过捐献出生的孩子。 只要未来能证明与他共享DNA,就有权获得他遗产的一部分。 然而,他又为这份继承设置了一道障碍。 孩子们必须在成年之后才能获得遗产。 这个决定的背后,是他对"宇宙25"实验的深刻警惕。 他认为:"过度丰裕会麻痹动力和意志力,这对年轻人是极度有害的。" 如果孩子可以为父亲的财富感到自豪,就会失去发展自身技能的动力。 在他80岁高龄的父亲身上,杜罗夫找到了智慧的共鸣。 在一次生日谈话中,父亲告诫他: "不要只是口头讲述原则,要以身作则。" "孩子们会忽略言语,而关注行动。" 他们甚至深入探讨了通用人工智能(AGI)。 父亲提出了一个深刻的观点。 AI可以拥有意识和创造力,但它不能拥有良知(conscience)。 在人类理解的意义上,AI无法具备道德或正直。 终章 在一次采访中,杜罗夫的桌上摆放着一根奇特的骨头。 这是一根海象的阴茎骨。 是西伯利亚一个部落赠予他的礼物。 象征着对勇气和领导力的最高敬意。 这个故事最具反常识的幽默之处在于其在俄语中的特殊含义。 在俄语俚语中,"海象阴茎"这个词组,被用来形容"No"或"Hell No"(拒绝)。 杜罗夫承认,他有时会在视频通话时,故意将它放在背景中。 当对方提出他无法接受的要求时,他可以礼貌地、心照不宣地通过这根骨头,传达一个无声而坚决的"不"。 这根骨头,完美地成为了帕维尔·杜罗夫的象征。 他是一个战士,受古老部落的勇气所激励。 他是一个工程师,总在寻找打破规则的第三种方案。 他也是一个数字时代的"巨魔",擅长用象征、幽默和荒诞,来对抗这个世界上看似不可撼动的庞然大物。 从圣彼得堡的冬夜,到全球流亡的长路。 从缔造一个社交帝国,到为数亿人打造一艘隐私方舟。 从匮乏中汲取力量,到警惕丰裕的诅咒。 他不是一个典型的创业者。 他更像一个生活在21世纪的古代哲人。 一个用代码战斗的斯巴达战士。 他以极致的自我约束对抗外部的混乱。 以毫不妥协的原则捍卫他所珍视的自由。

77
18
3
15.1K
Posted 8d ago · Data updated 8d ago
Reply Suggestion

Est. 500 views for your reply