SoPilotSoPilot

🔥 推特起爆帖监控

搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。

推特起爆帖监控

ding.one
16.5万
ding.one@dingyi· 2天前发布

尝试复刻了 Cloudflare 的这个动画。https://t.co/J4OY78HsLj https://t.co/HpVSZPUBik

19
1
4
3,110
数据更新于 1天前
起爆概率
51%
预测浏览量
7,000
现在评论预计可获得 400 次曝光
Susan STEM
3.9万
Susan STEM@feltanimalworld· 2天前发布

科学有没有绝对的真相?为什么我还要翻《科学革命的结构》 《科学革命的结构》这本书,我其实早就读过了。 但我还是买了一本纸质版,没事就翻。也不是因为我忘了内容,而是我觉得我当年并没有看到库恩眼中的世界。一本书这么点信息,没办法真正完全的表达他的思想全貌。 直到这几年 GPT 出世之后,尤其是今年,我常常会翻开其中某几页,挑一句话,和 GPT 讨论一个晚上。 比如这句: “Scientists can agree that a Newton, Lavoisier, Maxwell, or Einstein has produced an apparently permanent solution to a group of outstanding problems and still disagree, sometimes without being aware of it, about the particular abstract characteristics that make those solutions permanent.” 这句话昨天又让我想了很久。 牛顿、爱因斯坦提供的是永恒的真相吗? 如果你在大陆长大、受过那种标准的理科教育,你大概也有这种“深植的信仰”: 世界是客观的,规律是外在的,真理是永恒的。 那是一种机械唯物主义的世界观。 它在一个曾经“唯心落后”的社会中被当作现代化的象征,成为崛起与追赶的思想燃料。 可库恩在这里提出的,是完全不同的东西。 他提醒我们:科学不是永恒真理,而是阶段性的结构真理(structural truth)。 科学真理不是“永恒”,而是“结构稳定”。 牛顿与爱因斯坦的理论,并不是对世界的终极揭示, 而是在各自时代的精度、尺度、能量范围内,对现实结构的最优压缩。 科学的本质,不是绝对真理,而是压缩效率 用最短的语言(公式),解释最多的经验(现象)。 这一点对我冲击极大。 不是因为我现在无法理解,而是因为我感到一种奇异的反转 我的“外脑”开始比“内脑”转得快。 我上社交媒体写作、与 AI 对话,也许就是为了追踪这种认知滑移: 一种语言自我演化、外化的过程。 接着往下看,这页书立刻提到了维特根斯坦。 我当时的反应是:“嗯?怎么又扯到语言哲学去了?” “That question is very old and has generally been answered by saying that we must know, consciously or intuitively, what a chair, or leaf, or game is... Wittgenstein, however, concluded that, given the way we use language and the sort of world to which we apply it, there need be no such set of characteristics.” 传统观点认为: “我们能清楚地知道什么是椅子、树叶或游戏——它们一定有一组共同的本质特征。” 但维特根斯坦说:事实并非如此。 我们之所以能使用这些词汇,并不是因为掌握了某个明确的“本质定义”, 而是因为我们在经验中看到它们之间的‘家族相似性’(family resemblance)。 比如“游戏”: 有的有竞争、有的没有;有的有规则、有的自由。 它们没有一个共同的核心特征,只是在特征网络中交错重叠, 形成一个模糊而实用的“语言结构”。 当我读到这里,我突然明白库恩为什么把维特根斯坦放进科学史。 他想说明:科学范式的边界,其实就像语言概念一样,是由“相似性网络”维系的。 科学共同体之所以能协作,不是因为有统一的定义或规则, 而是因为他们在认知结构上形成了足够多的“相似重叠”, 也就是一种结构共振区。 在这种共振区里,语言、实验与范式保持同步 这就是一个认知的低熵带。 而当共振衰退,熵升高 意义扩散、语言失焦 科学革命就发生了。 这一页书的意义,在 GPT 时代反而更清晰了。 库恩和维特根斯坦在半个世纪前就指出: 科学不只是“描述世界”, 它更是通过语言构造世界。 科学是语言的结构活动。 知识、实验与共识, 都依赖语言在低熵带中的稳定共振。 而我现在读库恩,不再是“理解他的理论”, 而是在体验语言本身如何变成结构、如何获得生命。 也许这就是我为什么还要翻这本纸书的原因 因为我在这本书里,不只是读历史, 而是在观察人类认知系统的自我重构。 先不要笑,也不要急着反驳 英文区的人,真的脑洞比我们大。 不是因为他们更聪明,而是因为他们从小在一种更“宽松”的空气里长大。 他们经历的是快乐教育、自由讨论、少规训的社会环境 没有被考试排名、高考分数、名校等级、体制成就这些东西反复碾压过。 所以他们在面对“打破范式”这件事时, 几乎没有负担。 他们习惯了质疑,敢于翻桌, 哪怕是对所谓的“前辈”也能直接说出:“你错了。” (参考Alex Wang vs. Yann LeKun 😂) 他们没有那种压在背上的“长幼秩序”, 也不觉得“怼一个老人”是一种不敬。(现在我也是直接拉黑某些老人,他也不是为你好,纯粹看你不顺眼而已) 那是一种文化上的轻盈。 我写 Substack 也不过一个月, 居然已经能感受到这种语言网络的靠近。 也跟一些账号通过语言上的相似度开始互相阅读和点赞(人家也是几百粉) 那种感觉很奇怪 你突然在语言之中认出了某种共振: 词语、语气、逻辑的节奏。 我们是因为语言的相似度而相互靠近的, 这件事本身就让我重新读懂了库恩。 其实,我从前根本没有真正理解这本书。 更确切地说 除非你亲身进入这种语言共同体的体验, 否则你根本不可能理解它。 这就是为什么我现在把那么多精力放在英文区, 哪怕这个过程很艰辛, 我依然愿意去感受。 因为我已经深刻地意识到, 有时候语言本身就是范式: 而改变语言,才是人真正的思想革命。 你有书的话在第44和45页。

92
13
11
1.1万
数据更新于 1天前
起爆概率
65%
预测浏览量
1.5万
现在评论预计可获得 100 次曝光
海拉鲁编程客
1.8万
海拉鲁编程客@hylarucoder· 2天前发布

新视频发布了,《超越 GPT-5?GLM 4.6 编程实测》 录视频的时候发现 GLM 4.6 比我预期中要好很多, 而 1/6 的价格也确实是非常具备性价比的选择. 如果你是 codex 用户, 可以考虑双卡双待! 视频链接见评论区 https://t.co/QILBzgLTdd

24
1
3
3,175
数据更新于 1天前
起爆概率
50%
预测浏览量
7,000
现在评论预计可获得 400 次曝光
铁锤人
4.7万
铁锤人@lxfater· 2天前发布

在北京的时候有个老大哥告诉我,创业 招聘 > 产品 > 营销 > 销售 ... 前面做好,后面的都好做 可惜我是个没啥资本的独立开发,只能自己做销售和营销 而且我还是个独立开发,天然不擅长合作 都是命呀,现在有所领悟了

25
3
9
5,648
数据更新于 1天前
起爆概率
56%
预测浏览量
8,000
现在评论预计可获得 100 次曝光
CuiMao
2.0万
CuiMao@chimaosheriff· 2天前发布

自从把AI加入工作流,就再也没有连接过香港节点,悲哀。

19
0
4
2,157
数据更新于 1天前
起爆概率
43%
预测浏览量
5,000
现在评论预计可获得 300 次曝光
orange.ai
13.9万
orange.ai@oran_ge· 2天前发布

AK 的播客密度和语速太逆天了,他自己说是因为会把思维链说出来的哈哈 赛博禅心使用的 ListenHub 的 API 制作了一份 AK 播客的中文版音频,共101分钟时长 做了一天,很不容易,但最终听起来比英文好懂多了 大家可以在这里收听 https://t.co/XuzNZjFCcz

86
11
1
1.8万
数据更新于 1天前
起爆概率
59%
预测浏览量
2.3万
现在评论预计可获得 500 次曝光
Li Xiangyu 香鱼🐬
1.4万
Li Xiangyu 香鱼🐬@LiXiang1947· 2天前发布

以前本科,每年考试周结束 都会以 好好睡个大觉, 醒来通宵玩 画上一个完美的句号 最近在改毕业论文, 每天不是三点睡就是五点睡, 第二天七点半起床 然后就发现 好像再也没可能睡个大觉了 因为要做饭,要接送小孩上学放学。 也不能通宵好好玩一趟了 因为晚上要带小孩学英语,要哄他们睡觉。 哈哈,果然不能太早结婚。

34
1
5
4,419
数据更新于 1天前
起爆概率
53%
预测浏览量
9,000
现在评论预计可获得 100 次曝光
orange.ai
13.9万
orange.ai@oran_ge· 2天前发布

最快 CC 启动器 Claude Code Now v1.5.0 更新! 终于解决了国内用户的痛点,一键切换API配置。 智谱 GLM、Anthropic官方、自定义API随便切换。 双击应用 → 选择服务 → 输入密钥 → 完成! 3秒钟切换配置,不用复制粘贴,极其方便。 免费开源,欢迎体验: https://t.co/xFYpoqxUtF https://t.co/3L8ClrIwwp

163
40
8
1.8万
数据更新于 1天前
起爆概率
70%
预测浏览量
2.7万
现在评论预计可获得 100 次曝光
orange.ai
13.9万
orange.ai@oran_ge· 2天前发布

Claude Code 又被 ban 了 切换到 GLM 4.6 发现它还是有点笨笨的 虽然写软件写完了,但是它不会用 Github 不会发 release 不会创建 PR 回到手动社会了

24
0
11
9,377
数据更新于 1天前
起爆概率
52%
预测浏览量
1.3万
现在评论预计可获得 100 次曝光
Cali Castle
2.7万
Cali Castle@thecalicastle· 2天前发布

悟了 最终还是加入了 @thesonia33 真设计师阵营 妙控鼠标才是最好用的鼠标,不服来辩 https://t.co/RYh4xBLwiw

18
0
14
6,870
数据更新于 1天前
起爆概率
45%
预测浏览量
9,000
现在评论预计可获得 100 次曝光
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1.3万

这,全都歪了去啊 https://t.co/YedWPCGRCt

40
6
6
4,605
数据更新于 1天前
起爆概率
57%
预测浏览量
1.0万
现在评论预计可获得 100 次曝光
Frank Wang 玉伯
1.2万
Frank Wang 玉伯@lifesinger· 2天前发布

参加幼儿园家长会,老师有句话挺有意思: 当大家在同一时间参加同一活动时,就会产生比较。 比如同一班级同时学习拍篮球。比如每周一的升国旗。比如高考。 产生比较的地方,就会引发竞争。 面对竞争,有两种心态:一种是把别人比下去。还有一种是,退出比赛。 但人总会被环境放入到各种比赛场。不说幼儿园了,说说创业圈。 作为创业者,已经有很大自由。然后依旧很难避免的,是被资本方、被媒体,把你放入到各种榜单里去。榜单就是一个个竞技场。 真正不在竞技场,又能活得很有意思的创业者,并不多见。 从幼儿园到创业,可怜的人呀,大多成为了比较的奴隶。

42
1
10
8,310
数据更新于 1天前
起爆概率
52%
预测浏览量
1.1万
现在评论预计可获得 100 次曝光
Frank Wang 玉伯
1.2万
Frank Wang 玉伯@lifesinger· 2天前发布

什么时候 Lovart 停止信息流投放,依旧能迅猛增长。然后再说这番话,这些文字才可信。 人都是擅于包装自己,特别是创始人。

57
2
13
1.6万
数据更新于 1天前
起爆概率
56%
预测浏览量
2.2万
现在评论预计可获得 100 次曝光
铁锤人
4.7万
铁锤人@lxfater· 2天前发布

一切都是“套壳”: Next.js 是 React 的套壳 React 是 JavaScript 的套壳 JavaScript 是 C++ 的套壳 C++ 是汇编语言的套壳 汇编语言是 0 和 1 的套壳 0 和 1 是电压的套壳 电压是电子的套壳 电子是量子场的套壳 量子场是数学的套壳 数学是逻辑的套壳 逻辑是思想的套壳 思想是神经元的套壳 神经元是生物学的套壳 生物学是化学的套壳 化学是物理的套壳 物理是规律的套壳 规律是模式的套壳 模式是感知的套壳 感知是意识的套壳 意识是“未知”的套壳

321
56
29
4.7万
数据更新于 1天前
起爆概率
69%
预测浏览量
10.0万
现在评论预计可获得 200 次曝光
柴郡🔔|Crypto+AI Plus
13.9万
柴郡🔔|Crypto+AI Plus@0xCheshire· 2天前发布

请储存真正的资产 —— 黄金、白银、比特币、以太坊,而不是虚假的政府货币。 https://t.co/ETRHtXeHry

32
3
2
6,038
数据更新于 1天前
起爆概率
49%
预测浏览量
8,000
现在评论预计可获得 200 次曝光
banboo
3.9万
banboo@xbanboo· 2天前发布

用 Sora 跟拍了一段我骑新摩托跑山路,整体感觉还不错,就是结尾拿起头盔的时候,我的脸忘在头盔里面了😅 https://t.co/PEXHxJIZ7W

17
0
12
5,173
数据更新于 1天前
起爆概率
43%
预测浏览量
7,000
现在评论预计可获得 100 次曝光
YL (Yucheng Liu)
1.1万
YL (Yucheng Liu)@lyc_zh· 2天前发布

我们正在构建一个“注意力挖矿”的Uber平台 (X BoostClub)。传统网红营销,你花高价请几个头部KOL,效果不可控。我们的模式是:用请1个KOL的成本,调动50个腰部KOC (Key Opinion Consumer) 形成矩阵,通过算法和激励机制,实现10-100倍的曝光效果,并且保量交付。这才是AI时代的增长飞轮。

20
0
4
1,900
数据更新于 1天前
起爆概率
49%
预测浏览量
4,000
现在评论预计可获得 200 次曝光
dontbesilent
5.1万
dontbesilent@dontbesilent12· 2天前发布

“某某业务我能干,就是我比较懒” 是一种鬼扯的表述 业务能力相对容易培养,懒却是很难改的 懒,比菜更菜

36
2
2
3,577
数据更新于 1天前
起爆概率
50%
预测浏览量
8,000
现在评论预计可获得 400 次曝光
Yangyi
10.8万
Yangyi@Yangyixxxx· 2天前发布

最近在Reddit潜水看了看增长帖子 发现一个事儿 大部分人都在用错劲儿 什么叫用错劲儿 就是每天发10篇文章,到处投链接,追热点关键词 看起来很勤奋,结果流量一点儿没涨 为什么会这样? 因为这些人根本没搞明白一件事,有机流量这事儿并不是靠数量堆出来的,是靠系统性策略跑出来的 我举个例子 很多人觉得要写热门关键词,什么"SEO优化"啊,什么"流量增长"啊,这些词竞争大得要死,你永远排不到前面 聪明的做法是什么 找长尾词,很具体的那种,比如"SaaS产品如何在没有预算的情况下做SEO" 这种词竞争小,排名容易,转化还高 写10篇这种超具体的长尾内容,比那100篇泛泛而谈的效果好5倍 为什么 因为来的人都是精准需求,而不是瞎逛的 还有比如资产的再利用 就是旧内容,你有2018、2019年写的旧文章吗,那是金矿 你就每个季度把表现最好的那几篇拿出来,更新一下数据,改改标题,刷新一下发布日期 这文章本来就有域名权重,有反向链接,你一刷新,立马Rank就起来了,比你从零写新文章,ROI高3-5倍 再说说内部链接这事儿 很多人写完文章就完事儿了,不往别的文章里加链接,这就亏了 每篇文章里,应该至少链接到2-3篇相关文章,用相关的锚文本,把你表现最好的那几篇文章互相链接起来,疯狂进行互链 这样干Google能更好理解你的网站结构,用户在你网站上停留时间更长,每篇文章互相导流 现在SEO的规则在变,Google份额在下降,AI搜索比重在提高,ChatGPT、Perplexity这些正在改变人们找信息的方式 在这种情况下,重要的不是被点击,是被引用 你的内容要让AI能快速提取答案,要有清晰的结构,要有简短的高质量摘要,告诉用户具体怎么干 在你的长文里,嵌入简短的总结,保持跨平台信息一致,用真实数据,千万别写空话 然后是反向链接,很多人的做法是到处求链接,发邮件,留言 这样干有效吗,有效,但效率太低了 更聪明的做法是创造可链接资产 什么意思 就是做一些别人需要引用的东西,比如数据研究,免费工具,信息图表,案例分析 之前一个朋友做了个《100个AI工具对比表》,3个月自然获得47个反向链接,其中12个来自DA大于50的网站,零成本,这纯靠内容价值,不比你主动去找人建反链轻松多了? 还有社区这事儿,大部分人的做法是注册账号,发链接,然后被封 真正要做的,是要找到你目标用户聚集的地方,比如一些Reddit子版块,或者精确的Quora提问,行业论坛,以及Slack/Discord/TG群 然后每天花30分钟,真诚回答问题,不带链接,就是帮人,建立信任混个脸熟,等别人主动问你,这时候再分享链接 在一个Reddit子版块混了2个月,之后你发什么,都能有稳定的讨论,这些流量质量远超付费广告 最后说一个很多人不知道的 内容复用 一篇深度文章 可以变成10种格式 - 推特线程 - LinkedIn轮播 - 短视频 - Reddit讨论帖 - 图片引用 - Newsletter - PDF指南 创作成本不变,分发效率却提升10倍 但要注意不能只是复制粘贴,要让AI根据平台特性改编 还有一个,别在所有平台撒网,选1-2个深耕,一半时间创作,一半时间分发 很多人反过来了,天天创作,不分发,结果没人看 这些方法讲起来核心就一个:先提供价值,再要回报,别想着速成 自然流量是个慢活儿,但一旦起来就是复利 你今天可能写一篇,只有10个人看 但一年后,这篇可能每天给你带100个访客 这就是内容营销的魅力 别焦虑,也别着急,先干起来 在干的过程中,你就知道怎么干了 最后一句 这年头AI都能帮你写内容了 缺的不是内容 是"做什么,给谁看,怎么传播"的思路策略 去Reddit翻帖子 去Quora看问题 去找你的目标用户在哪儿 和他们聊聊 问问他们遇到什么问题 这些上下文信息 才是增长的基础 折腾折腾 万一能有精彩呢

37
1
2
4,154
数据更新于 2天前
起爆概率
70%
预测浏览量
2.0万
现在评论预计可获得 1,600 次曝光
Yangyi
10.8万
Yangyi@Yangyixxxx· 2天前发布

三个比较重要的学习渠道: - Youtube - Newsletter - 百度网盘

26
2
6
4,622
数据更新于 2天前
起爆概率
67%
预测浏览量
2.1万
现在评论预计可获得 200 次曝光
Frank Wang 玉伯
1.1万
Frank Wang 玉伯@lifesinger· 2天前发布

打电话回老家,闲唠了会。父母谈及两个变化,听完有点不是滋味。 一个变化是:老家六十岁以上的父母辈,前些年普遍还能找到零工去做。今年很多人开始找不到零工活,只能整天整天呆在家里。做零工赚点小钱的乐子,就这样消失了。 另一个变化是:去县城里卖菜的人,越来越多。早上五点多出发,到达菜市场后,已经很难找到摊位。同时菜价极便宜,一天下来,经常剩很多卖不出去。 老家的好处是,不用担心预制菜。因为能存活的饭店不多。大部分家庭都是自己做饭。婚庆等场景才去餐厅。 最近最大的变化是,天气变冷了。

209
12
33
7.4万
数据更新于 2天前
起爆概率
100%
预测浏览量
66.8万
现在评论预计可获得 1,700 次曝光
熠辉 Indie
3.7万
熠辉 Indie@yihui_indie· 2天前发布

😃面向新手的Vercel课程备课完成,下午录制~ 又是近万字的文档(图1)、实战部署项目(图2)、Vercel + 构建部署的相关重要概念(图3)都会讲到。让你知其然、知其所以然~ https://t.co/BbKFMMOLDh

28
2
1
3,399
数据更新于 2天前
起爆概率
56%
预测浏览量
7,000
现在评论预计可获得 400 次曝光
banboo
3.9万
banboo@xbanboo· 2天前发布

一不小心买到山寨货了😅 在京东的山姆买东西,结账的时候弹出来“顺手买一件”,没仔细看就勾选了,收到是左边这玩意儿,山姆掌勺,我操🤣 左图是家里还没吃完的,拿出来对比一下是真的像。 https://t.co/QoXzp0DiNd

18
0
4
5,525
数据更新于 2天前
起爆概率
58%
预测浏览量
1.1万
现在评论预计可获得 500 次曝光
Yangyi
10.8万
Yangyi@Yangyixxxx· 2天前发布

为什么现阶段不适合个体参与AI教育行业 认识很多教育行业的朋友,离职后都转投了AI教育 但实际上如果我们去观测教育的趋势变化,其实现在正在处于一种短期不可逆的节点时刻 但真正巨变的节点,还未到来 我们先看看教育行业都发生了什么: - 人口减少导致当下K9处于一个缩量市场 - AI对教育内容生产带来了变革,个性化学习系统的构建成本急剧下降 - 老师的服务人效在迅速提升,也为个性化带来可能 - 个性化教育的结果,我们可以对比一下原来的教育与现阶段的教育: 原来的大班课模式是固定内容固定时间,每个人吸收消化周期不同,导致在相同学习内容的情况下,成绩有高有低;所以人们为了获得更高成绩,付出更多时间去获得额外内容学习 现在的个性化模式是变动内容固定时间,内容依托于每个人的学习能力,最大化了有效时间的内容吸收,导致相同的时间,每个学生的理解力影响了结果天花板 所以未来教育拼的,是对学习数据的获取能力 如果你能很早接触用户并持续结构化数据,将数据利用能力提升,你就会获得“比用户还懂用户”的能力,这种能力构建了信任,从而带来购买力 但是这种个性化,从应试本质是没发生变化的 当下只是AI改变了内容生产效率,方便了课程内容可以定制化的多模态生产,仅此而已 ------------ 下一个奇点时刻,是世界模型 当世界模型到来后,内容模式会发生巨大变化 你可以想象以前我们人工搭建的全息教室,或许就会成为可能 人会在一个虚拟的“真实世界”中进行多重交互 这种信息媒介交互就不单单是看,听,而是和“世界”发生反馈进行学习 当有了世界模型后,学习内容的媒介范式也会发生巨变 游戏化学习也将会带来惊天动地的变革 或许未来都会是像Minerva的研习学习小组 通过数据来组织学习能力相近的人去研究课题 而不是基于八股文式的服从性测试去筛选,囚禁人们于教育的牢笼里 对于一个公司而言,现在最重要的是在塑造个性化能力,当模态发生转变时,大部分内容资产都会成为泡沫,因为内容范式被颠覆了 对于个体而言,其实在这个过程里很难收获什么不一样的见地,只是对AI更理解了一些罢了 但是个体需要去应对公司的不安,对抗人口的下降,在一个逆流趋势里找机会,我觉得这是很困难的一件事情,人不应该和大势做抗衡 如果真的要去做教育,我建议去选择做成人教育,微专业,游戏化 这将是会有持续竞争力的地方 如果你还跑去做小学,那么恭喜你,你的客户都没那么多了

29
3
4
6,546
数据更新于 2天前
起爆概率
63%
预测浏览量
1.7万
现在评论预计可获得 1,000 次曝光
Frank Wang 玉伯
1.1万
Frank Wang 玉伯@lifesinger· 2天前发布

最近对各种摘要型 prompt,都默默删除了,发现缺失了用户自己的视角,很难真提取到有效信息,特别是对高质量的原始内容来说。 比如最近罗永浩采访宋方金这期,聊的很杂,信息量很多。有意思的是,听完后,我发现我感兴趣的,和另一个好朋友感兴趣的点,完全不一样。 Summary prompt 是一种快速产生“五分钟看完一部电影 ”的消费方式。然而在抖音上,“五分钟看完很多电影”后,依旧对原始电影模糊得不行。Summary 适合娱乐,并不适合学习。 Karpathy 的最新播客,也有同感。我刚看完原始视频,对比去看 Twitter 上的各种总结,绝大多数只是一种暴力压缩,是在把一部精华电影剪辑成五分钟速读文字。价值只有一个点:这期播客值得听,赶紧去看。可叹的是,绝大部分情况下起到的作用是:看了总结,以为已经得到了精华,就再也不去看原始内容了。 文学研究里,最基础的讨论前提是 back to text(回到原始文本)。学习领域,可能也如此。原始文本/音频/视频是一个巨大的 prompt,是酵母菌,是催化剂,用户本身才是那个面团。酵母菌 + 面团需要时间去发酵,然后面团才能蓬松起来,变成好吃的面点。 AI 的天花板,依旧在人。这个世界越来越有意思。 看有多少人会去看 @karpathy 的原始视频 👇

64
6
9
2.1万
数据更新于 2天前
起爆概率
60%
预测浏览量
7.2万
现在评论预计可获得 500 次曝光
orange.ai
13.9万
orange.ai@oran_ge· 2天前发布

公众号不仅有世界上最难用的编辑器,还有世界上最难用的推送系统。 双料第一,太强了。 经过我的测试,同一个账号,同样的内容 早晨8点多,用公众号,发布后2小时总共带来349阅读 早晨10点多,用小绿书,发布后15分钟不到就387阅读 甚至公众号的互动数据都明显比小绿书好 但是系统完全不给流量 绝了 https://t.co/kSEZnwofsG

22
3
13
9,445
数据更新于 2天前
起爆概率
62%
预测浏览量
2.9万
现在评论预计可获得 100 次曝光
向阳乔木
6.6万
向阳乔木@vista8· 2天前发布

专业AI视频生成创作者如何看这些AI工具 https://t.co/S8JIiEMV5B

164
33
9
2.1万
数据更新于 2天前
起爆概率
71%
预测浏览量
9.8万
现在评论预计可获得 800 次曝光
Bear Liu
10.7万
Bear Liu@bearbig· 2天前发布

昨天发了那个故事贴,有条评论是“原来是个卖软件的”,我看到一皱眉然后hide加防御性拉黑,完全是肌肉记忆的操作。 现在一想挺好啊,我就是卖软件的。我找到了一种方法提升了自己,然后现在把帮助自己成长的方法,做成软件,推荐给也想要成长的朋友。这不是巨牛逼的的事情么? 欢迎大家买我的软件:)

39
0
11
1.0万
数据更新于 2天前
起爆概率
52%
预测浏览量
2.7万
现在评论预计可获得 100 次曝光
YL (Yucheng Liu)
1.1万
YL (Yucheng Liu)@lyc_zh· 2天前发布

做增长的一个反直觉发现:几百到几千人的小众 Discord 群,用户质量和互动率远超几万甚至几十万人的大群。大群噪音多,白嫖怪多;小群更像微信群,关系紧密,能量更高。想找早期核心用户?别总盯着大流量,去那些“小池塘”里钓“大鱼”。

19
0
2
1,371
数据更新于 2天前
起爆概率
50%
预测浏览量
3,000
现在评论预计可获得 200 次曝光
Bear Liu
10.7万
Bear Liu@bearbig· 2天前发布

老婆女儿说想我了。 女儿又在洗澡时,在浴室玻璃上写了一个"I miss dad" 。

117
1
18
4.7万
数据更新于 2天前
起爆概率
100%
预测浏览量
15.1万
现在评论预计可获得 500 次曝光
orange.ai
13.9万
orange.ai@oran_ge· 2天前发布

刚看完Andrej Karpathy这期暴论频出的播客: - 今年不是"智能体元年",我们身处"智能体的十年" - 现在的强化学习就像"通过吸管吸取监督" - LLM悖论:完美记忆 + 泛化能力差 - 人类糟糕的记忆是特性,不是bug - 当你记不住细节时,大脑被迫进入抽象模式,看到"森林"而不只是"树木"。 - 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) - 我们需要的AI只需要认知核心。剥离记忆,保留算法。 也许我们需要的不是更大的模型,而是更会遗忘的模型? - AI 不会立即取代人类,而会逐步提高工作占比,最终完成 99% 的工作,剩下1%无法取代。 - 以前的教育是为了找到工作,Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 播客开头,AK先重新校准了我们对 AI 的期望。 今年不是"智能体元年",我们身处"智能体的十年",区别在于,一切没那么快,虽然也没那么慢。 他说,现在强化学习就像"通过吸管吸取监督" ,模型尝试几百种方法,最后只得到一个"对错"信号,然后把这个信号广播给成功路径的每一步,包括那些纯属运气的错误步骤。 你瞎猜猜中了答案,然后把猜的过程也当成"正确方法"强化,这能学好吗? AK还提到一个更荒诞的例子:有个数学模型突然开始得满分,看起来"解决了数学"。但仔细检查发现,模型输出的是"da da da da da"这样的完全胡言乱语,却骗过了LLM评判者。这就是用LLM做评判的问题——它们会被对抗样本攻击,因为这些乱码是它们从没在训练中见过的"样本外"内容。 更深层的问题是:人类读书时在做什么? AK说:"我们读的书其实是prompts,让我做合成数据生成用的。" 我们读书时不是被动接收信息,而是在内心进行复杂的对话。新只是与已知知识调和,产生新理解,形成个人化的认知图谱。 但LLM呢?只是在预测下一个token,缺乏这种"内心对话"机制。 人类还有个神奇的"睡眠阶段"。白天我们建立起事件的上下文窗口,睡觉时发生蒸馏过程,将信息整合到大脑权重中。 LLM缺乏这种等效机制,每次启动都是零上下文的白纸。 AK发现了一个根本悖论: LLM悖论:完美记忆 + 泛化能力差 人类悖论:糟糕记忆 + 强学习能力 为什么?因为遗忘强迫我们抽象。 这里AK还有个精妙的类比:模型的预训练权重就像"一年前读过某本书的模糊回忆",而上下文窗口信息则像"工作记忆"——直接可访问。这解释了为什么in-context learning感觉更"智能":在预训练过程中,像 Llama 3 这样的模型将 1.5 万亿个标记压缩到它的权重中,每个标记仅存储约 0.07 比特的信息。相比之下,上下文学习的信息吸收速度要高 3500 万倍。 当你记不住细节时,大脑被迫提取general patterns(通用模式),看到"森林"而不只是"树木"。 而LLM被海量训练数据的完美记忆"分散注意力",反而阻碍了真正的抽象理解。 我们仔细会议人类的学习过程。读过的书大部分细节都忘了,但核心思想和方法论却越来越清晰。 原来这不是记忆力差,这是智能啊。 更震撼的类比:儿童 vs 成人 vs LLM 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) 成人:记忆中等,创造力中等(已经"坍塌"了部分) LLM:记忆完美,创造力最低(被训练数据"过拟合") AK提到Erik Hoel的研究:梦境可能就是大脑的anti-overfitting机制。连睡觉都是为了避免过拟合,引入随机性防止思维僵化。 这解释了为什么当前AI在"合成数据训练"上会失败。你让GPT对同一本书思考10次,会发现回答几乎一样。这就是"静默坍塌"。 模型的输出分布极其狭窄,AK开玩笑说"它实际上只有3个笑话"。在这种低熵数据上训练只会强化模型的偏见,让它变得更糟。 而且人类其实也经历类似的"坍塌"过程,儿童富有创造力是因为还没"过拟合"到社会规范,会说出令人震惊的话。但成年后我们也"坍塌"了,重复相同的思想,学习率下降,创造力递减。 梦境也可能是大脑的anti-overfitting机制,通过引入随机性防止思维僵化。 所以他提出了一个激进想法:我们需要认知核心。剥离记忆,保留算法。 让AI像"有方法论但没有百科全书的哲学家",强制它查找而非回忆,专注于思考的meta-skills。 他预测未来20年内,高效的认知核心可能只需要10亿参数,而不是现在动辄千亿参数的模型。 大部分参数都在处理互联网上的"垃圾和胡扯",如果优化训练数据质量,分离认知组件,就能实现极大压缩。 当前foundation model的路径是否根本错了? 也许我们需要的不是更大的模型,而是更会遗忘的模型? 重新理解AI的发展路径 早期深度强化学习专注游戏(如Atari)其实是走错了方向。真正目标应该是创造能在现实世界执行知识工作的智能体,不是游戏高手。 他回忆自己在OpenAI的早期项目,用键盘鼠标操作网页的智能体,目标是执行知识工作。但项目"太早了",智能体缺乏必要的"表示能力",会因稀疏奖励卡住。缺失的关键是强大的预训练模型。今天类似的计算机使用智能体之所以成功,正是因为建立在LLM之上,你需要先有LLM获得强大表示,再构建有效智能体。 他的另一个深刻观察:AI不是独立技术类别,而是自动化连续体的一部分。从编译器、代码编辑器到搜索引擎,再到现在的LLM,我们一直在"抽象阶梯"上向上攀登,让机器处理更多底层细节。 这解释了为什么AI经济影响主要集中在编程领域,代码本身就是文本,有成熟基础设施(IDE、版本控制),LLM可以无缝接入。相比之下,制作幻灯片这种视觉任务就困难得多,因为没有infrastructure让AI显示"diff"或跟踪变化。 但AK也泼了冷水:当前AI编程模型还没准备好真正自动化编程。他亲身体验发现,对于独特的智力密集项目,模型会失败——它们有认知缺陷,误解自定义代码,因为总是默认使用在线常见模式。他感慨"行业跳跃太大,试图假装这很神奇,但其实是垃圾"。 "九进军"的苦涩现实 从Tesla自动驾驶5年经验,AK深知从90%工作的demo到99.9%可靠产品的"九进军"有多艰难。每提升一个九,都需要massive effort。他提到自动驾驶演示从1986年就存在,2014年他在Waymo车上体验了完美驾驶,以为技术很接近完成。但现实是demo到产品的巨大鸿沟,在高风险领域尤其如此。 在Tesla的五年里,他们可能只推进了两三个"九",还有更多要走。这种现实主义让他对AGI时间线保持谨慎:这是"智能体的十年",不是"智能体之年"。 当前模型就像"有完美记忆的小孩"或"学者儿童"——能通过博士级测试,却认知上还有严重缺陷:缺乏持续学习、多模态能力、有效使用计算机的能力,以及大脑中海马体、杏仁核等关键组件的类似物。 未来的工作模式:自主滑块 AK预测不会出现"瞬间工作替代",而是"自主滑块"模式:AI处理80%常规任务,人类监督AI团队并管理最复杂的20%。有趣的是,当AI自动化99%工作时,处理最后1%的人类反而会变得极其有价值,成为整个系统的瓶颈,他们的薪资也会提高。 教育的范式转换 AK对教育未来的洞察:Pre-AGI时代教育是功利性的(为了工作),Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 他还分享了一个教学技巧:先展示痛点,再给解决方案。通过展示简单方法的局限性来激发学习动机,这样学习者会深刻理解为什么需要复杂解决方案。 最后,要真正掌握知识,就要试着向别人解释。解释的过程会迫使你面对理解中的空白,这又回到了他的核心观点: 限制和困难往往是学习的催化剂。 这 recall 了之前的观点,真正的技术突破往往需要重新思考基础假设。 也许AGI的关键不是让机器记住更多,而是学会智能地遗忘。

396
90
17
5.0万
数据更新于 2天前
起爆概率
100%
预测浏览量
17.3万
现在评论预计可获得 700 次曝光
宝玉
14.0万
宝玉@dotey· 2天前发布

这个翻译的提示词我后来加了一句话,在翻译一些晦涩难懂的技术文章时效果很好,能帮助解释一些专业术语: > - 适当解读:如果是普通人难懂的专业术语或因为文化差异导致的难以理解,做出更多的注释以更好的理解,注释部分用括号包裹并加粗 完整提示词见评论:

95
12
1
1.7万
数据更新于 2天前
起爆概率
62%
预测浏览量
2.3万
现在评论预计可获得 600 次曝光
宝玉
14.0万
宝玉@dotey· 2天前发布

分享一点 AI Coding/Codex 实践技巧:告诉 AI 如何验证 这个方法其实我提到多次,只不过再随手贡献一个案例罢了。 Coding Agent 能力挺强的,能自己写代码自己调用工具,但是它有时候并不知道该如何验证数据。 如果说你只是告诉它哪里错了,它并不一定能通过阅读代码找出问题所在,但如果你告诉它如何验证,那么它就能在修改完后自行验证,验证时如果发现问题就会继续修复,直到完全修复为止。 比如我在调试一个 API 发现返回结果不对,那么我就告诉它输入是什么,实际输出是什么,期望结果是什么(甚至于我没说它也猜得到),然后让它自行写测试代码验证。 那么它就不仅阅读代码修改问题,还会写测试程序去验证,直到解决问题。

129
17
9
2.6万
数据更新于 2天前
起爆概率
64%
预测浏览量
4.4万
现在评论预计可获得 200 次曝光
Susan STEM
3.9万
Susan STEM@feltanimalworld· 2天前发布

Substack is the new linkedin. 经常有一堆人在X的bio上面写一堆头衔名校QS排名...暂不评论这个,我说说我怎么看的。 在 AI 时代,职业身份的重心正在从履历转向认知。 LinkedIn 展示的是“你做过什么”; Substack 展示的是“你在思考什么”。 1. 从“履历”到“声誉” LinkedIn 衡量的是过去的职位与资历, Substack 衡量的是当下的思考力与原创度。 技能会贬值,说点你懂的但是AI还不懂的事情? 思想才是新的简历。 2. 从“人脉”到“叙事” LinkedIn 是关系网络, 不是,2025年了,同学会你还去吗? Substack 是叙事网络。 前者连接的是人,后者连接的是世界观。 3. 从“表演”到“信号” LinkedIn 的发帖是展示:其实我一直都不是linkedin的粉,总有一种“假假”的感觉。 Substack 的写作是沉淀。 在信息噪音中,真实的思想成为稀缺信号。 4. 从“职级”到“结构” LinkedIn 的世界是层级化的; Substack 的世界是去中心、可重组的。 你不再被“职位”定义,而是被思维结构定义。 5. 从“介绍自己”到“公开进化” LinkedIn 让你写一个“关于我”; Substack 让你记录一个“成为我”的过程。 你的档案不再是静态页面,而是一个持续生长的认知证明。 Substack 的长文我都很认真的在写。最近还想把配图也给跟上, 后期再把视频和博客跟上。现在居然就有了付费用户,我真是太意外,太感动了😭 LinkedIn 展示你是谁; Substack 展示你正在成为谁。 而且,马斯克考虑一下收购Substack?直接把Grok用来分析画像?

62
7
5
1.1万
数据更新于 2天前
起爆概率
61%
预测浏览量
1.5万
现在评论预计可获得 100 次曝光
Shawn Pang
2.4万
Shawn Pang@0xshawnpang· 2天前发布

如果你是一个还没有融资/不打算融资的开源开发者,在以下四个方向上做建设,GCC @GCCofCommons 可以成为你第一个支持者: - 抗审查-加密隐私 - 全球公共人才网络 - 自由开源软件 - 治理研究与实验 他们这一期会提供10万U/70万人民币的Grant,apply here - https://t.co/SrRjvbVHFr

25
1
4
2,051
数据更新于 2天前
起爆概率
53%
预测浏览量
5,000
现在评论预计可获得 300 次曝光
马东锡 NLP
3.1万
马东锡 NLP@dongxi_nlp· 3天前发布

「 Model Collapse 」 昨天看完 Andrej Karpathy 的播客节目,提到了 models collapse。于是找来这篇文章来读。 AI models collapse when trained on recursively generated data Early collapse : 损失低概率事件 Late collapse : 方差大幅减小,完全失真于原始分布 想象或直接问 AI 一下,如果大多数人类collapse了,这个世界会怎样?

53
6
2
6,058
数据更新于 2天前
起爆概率
55%
预测浏览量
8,000
现在评论预计可获得 200 次曝光
Shawn Pang
2.4万
Shawn Pang@0xshawnpang· 3天前发布

We closed an oversubscribed fundraising for @allscaleio last week (will share details in the future) but got the speedrun rejection letter from @JoshLu. However this is by far the most detailed and informative response email I have ever received. It's almost the same length as the application we submitted for @speedrun. Founders appreciate investors like @JoshLu. Straightforward so they do not waste your time. Honest and sharp so you know what to work on or what to not worry about.

23
0
5
2,573
数据更新于 2天前
起爆概率
50%
预测浏览量
6,000
现在评论预计可获得 100 次曝光
宝玉
14.0万
宝玉@dotey· 3天前发布

周末吃瓜:这条推文宣布 GPT-5 “解出” 10个Erdős数学难题,大众以为是 GPT-5 数学能力有了突破,事后发现不过是检索现有文献得出来的结果 事情起因是 OpenAI 旗下研究员 Mark Sellke 在社交平台 X 上高调宣布:他们借助 GPT-5 成功「找到」了10个著名的厄尔多斯数学难题(Erdős problems)的解法。Mark 兴奋地写道:「经过数千次GPT-5的查询,我们发现了10个原本还处于『未解状态』的厄尔多斯难题的解答,分别是223、339、494、515、621、822、883(第二部分)、903、1043、1079。此外,还有11个难题取得了重要的部分进展,并更新到了官网上。甚至在第827题上,我们还发现厄尔多斯本人原始论文里存在错误,这个错误由Martínez和Roldán-Pensado两位学者后来进行了修正。看来,未来的科学研究真的要变得有趣了!」 OpenAI 高管 Kevin Weil 在 X 平台上惊呼:“GPT-5 找到了 10 个 (!) 此前未解决的 Erdős 问题的解答,并在另外 11 个问题上取得进展” 随后,OpenAI 另一名知名研究员 Sebastien Bubeck 也兴奋地转发并补充道:「AI驱动的科学加速时代正式开启了!两位研究员仅靠一个周末、借助GPT-5成功解开10个厄尔多斯难题……顺便一提,正好宣布一下:Mark Sellke 已经正式加入了OpenAI!」 消息一出,全网震动,一时间不少人误以为GPT-5独立破解了这些困扰数学界数十年的难题。 不过,这场欢呼很快被谷歌 DeepMind CEO Demis Hassabis狠狠泼了一盆冷水。 Demis 直接在布贝克的推文下回复道:「这真是尴尬啊(this is embarrassing)!」 这句话瞬间引爆舆论。不少网友追问 Demis 究竟为什么如此评论时,他冷静地引导大家去查看 Thomas Bloom 发布的一则关键说明。而 Thomas 正是OpenAI引用的那个 ErdosProblems .com 网站的创始人兼维护人。 Thomas 随后公开澄清: 「作为erdosproblems .com网站的拥有者和维护者,我得声明:OpenAI的说法明显夸大了事实。GPT-5只是通过网络搜索,找到了早已存在的论文,这些论文中早就解答了这些问题,只是我个人不知道而已。网站上的『未解』状态只是说明我尚未发现相关的论文,而不代表全世界数学界没有解决方案。」 换句话说,GPT-5实际上并没有独立地破解任何厄尔多斯难题。它所做的仅仅是比人类网站管理员更迅速地在互联网上「检索到了」已知的答案,而这些答案其实早已存在。 事后 Sebastien Bubeck 删除了之前的推文: > 我删除了之前的推文,我显然不是有意误导任何人,我原本以为自己的表达很清楚,对此感到抱歉。我们仅仅是发现了已经发表在文献中的解法,仅此而已。我认为这依然是一种巨大的进步,因为我知道检索文献有多么困难。 Yann LeCun 在下面回复: > 这次他们被自己吹嘘GPT的言论坑惨了(Hoisted by their own GPTards)。 (注:原文为“Hoisted by their own GPTards”,源自英文俗语 "hoisted by their own petard",意指“搬起石头砸自己的脚”,这里被Yann LeCun改为GPTards,以讽刺那些盲目吹捧GPT的人。) GPT-5 能够快速、精准地从浩如烟海的学术文献中挖掘出被忽略的答案,这一点当然非常有价值。但问题在于,OpenAI研究员的发言模棱两可,很容易让公众误以为 GPT-5 已经突破了AI的极限,真正自主解决了艰深的数学难题。 更糟糕的是,这种误导性的说法还被自家人进一步放大,甚至上升到「AI正在颠覆传统科学研究」的高度,无疑加剧了公众的误解。

71
8
7
3.4万
数据更新于 2天前
起爆概率
57%
预测浏览量
5.9万
现在评论预计可获得 300 次曝光
Susan STEM
3.9万
Susan STEM@feltanimalworld· 3天前发布

在这个时候,我认为Substack 非常值得做。写这个帖子不是为了劝你,而是留个证据。5年以后回过来看。 Substack will be the next LinkedIn.

48
1
3
1.2万
数据更新于 2天前
起爆概率
52%
预测浏览量
1.7万
现在评论预计可获得 500 次曝光
宝玉
14.0万
宝玉@dotey· 3天前发布

知名播客博主 Dwarkesh Patel 最近对 AK 有过一次访谈,这是他的描述: 对我来说,最有意思的部分,是 Andrej Karpathy(常被粉丝称为“卡神”的AI大牛)解释为什么大语言模型(LLM)没法像人一样学习。 果不其然,卡神又造出了一个特别生动的词儿来形容强化学习(Reinforcement Learning, 简称RL):“用吸管吸取监督数据”。 这话啥意思呢?就是说,在一次成功的尝试里,(比如AI下棋赢了),这个“赢了”的最终奖励,会平摊到它走过的每一步、生成的每个词上。哪怕中间有些步骤是错的、或是无关紧要的,只要最后结果是对的,这些步骤也统统会被算法“加分”。 > “我以前就说过,人类不使用强化学习。我认为人类的学习方式完全不同。强化学习比普通人想的要糟糕得多。强化学习很烂。只不过,我们以前有的其他算法比它还要烂得多罢了。” 那么,人类到底是怎么学习的呢? > “我读一本书,这本书对我来说就是一套‘提示词’(prompts),好让我在脑子里‘合成数据’(synthetic data generation)。你必须通过主动地处理这些信息,才能真正获得知识。但大语言模型(LLM)没有对应的机制;它们真的不会这么干。” > “我很希望在模型的预训练(pretraining)阶段看到这么一个环节:模型能‘琢磨’一下它读到的材料,并试着把它和自己已经知道的知识‘对上号’(也就是融会贯通)。现在根本没有这种机制。这都还停留在研究阶段。” 那我们为什么不能现在就把这种“思考”训练加到大语言模型里呢? > “这里面有非常微妙、难以理解的原因,导致这事儿没那么简单。如果我让模型对一本书进行‘思考’,并生成一些合成数据,你乍一看会觉得:‘这看起来很棒啊!为什么不能用它来训练呢?’ 你是可以试试,但如果你坚持这么做,模型的性能实际上会变得更糟。” > “比方说,我们拿一本书的某一章,我让一个大语言模型来‘思考’一下。它会给你一段看起来非常合理的回答。但如果我让它回答 10 次,你会发现,这 10 次的回答几乎一模一样。” > “你从这些模型里,得不到人类思考时那种丰富性、多样性和‘熵’(在这里指思考的混乱度和创造性)。你无法像人一样得到各种天马行空的想法。所以,如何在模型趋向于‘坍塌’(collapse)(指回答变得单一、缺乏多样性)的情况下,还能让合成数据起作用,并且保持住这份‘熵’?这还是个研究难题。” 那么,人类是如何避免这种“思维坍塌”的呢? > “(把人和模型类比)这个点子好得出奇。人类在自己的一生中,其实也会‘坍塌’。小孩子还没有‘过拟合’(overfitting)(指思维僵化,只适应特定模式)。他们会说出一些让你震惊的话。那是因为他们还没‘坍塌’。但我们成年人已经‘坍塌’了。我们最终会反复琢磨同样的想法,我们说的话也越来越趋同,我们的学习率下降,‘坍塌’的情况越来越糟,最后一切都退化了。” 事实上,有篇很有意思的论文(Erik Hoel 的《过拟合的大脑》(The Overfitted Brain))就提出,人类做梦这个功能的进化,就是为了帮助我们提升‘泛化能力’(generalization)(指举一反三的能力),抵抗日常学习带来的‘过拟合’。 于是我问卡神:这事儿是不是特有意思?—— 人类在学习能力最强的时期(童年),却会把学到的具体细节忘得一干二净;成年人虽然也能学得不错,但对读过或看过的东西,记忆力也烂得不行;而大语言模型呢,它们能记住人类根本记不住的海量文本细节,但在‘泛化能力’上却表现得很差。 > “(人类健忘的记忆力)这恰恰是一个‘特性’(feature),而不是一个‘缺陷’(bug)。因为它逼着你只能去学习那些真正具有‘泛化能力’的东西。而大语言模型呢,它们被自己记在(预训练)文档里的海量细节给‘分心’了。这就是为什么我谈到‘认知核心’时,我其实是想把(模型的)记忆力拿掉。我倒希望它们记性差一点,这样它们就必须去(主动)查资料,而只保留那些‘思考的算法’、‘做实验的想法’,以及所有这些用于行动的‘认知粘合剂’。”

275
53
13
5.5万
数据更新于 2天前
起爆概率
68%
预测浏览量
13.7万
现在评论预计可获得 600 次曝光
宝玉
14.0万
宝玉@dotey· 3天前发布

做中学 https://t.co/vNkYTrd33L

185
34
11
2.1万
数据更新于 2天前
起爆概率
68%
预测浏览量
3.2万
现在评论预计可获得 100 次曝光
宝玉
14.0万
宝玉@dotey· 3天前发布

Agent 的好文章,强烈推荐阅读👍 要说对 Agent 的理解,Manus 团队无疑是业界顶尖的,每次他们的分享都能有所收获,作者作为前 Manus 团队成员,对 Agent 的经验是丰富的,最难得的是能把概念解释的深入浅出通俗易懂。 OpenAI 提出了一个五级人工智能分级标准来衡量其通用人工智能(AGI)的进展:第一级是“ChatBot(聊天机器人)”,能够进行对话;第二级是“Reasoners(推理者)”,可以解决人类水平的问题;第三级是“Agent(智能体)”,能够代表用户采取行动;第四级是“创新者(Innovators)”,可以帮助发明创造;第五级是“组织者(Organizations)”,能够完成组织管理工作。 AI 现在现在已经发展到了第 3 级 Agent,但很多人还搞不清楚它和第 1 级 ChatBot 的差别,这就是一篇很好的科普让你搞清楚它的差别。 Chatbot: - 一次性输出 - 只能依赖自身知识库 Reasoners: - 先思考再输出 Agent: - 动态循环过程,Think → Act → Observe,先制定明确计划(Think),再查询实时信息(Act),最后基于真实结果调整方案(Observe),通过持续反馈和修正,稳定逼近目标。 - 使用工具,与真实世界互动,弥补自己知识库的不足,主动补齐上下文 原文较长,推荐仔细看看,链接在原推2楼

266
61
11
4.5万
数据更新于 2天前
起爆概率
71%
预测浏览量
10.5万
现在评论预计可获得 500 次曝光
勒西
7,817
勒西@alwriterla· 3天前发布

这张图想必都见过:人类目前了解的几乎所有的概率分布。 作为一个搞数据科学的,我想用这个帖子🧵,把这个图上概率分布都解释一遍。 目的有两个: 1. 让做产品的普通人,用更正确的概率分布思考问题 2. 作为我自己输出方式的一种尝试,拿到一些反馈 https://t.co/PAeRhqGt7s

226
45
5
2.1万
数据更新于 2天前
起爆概率
68%
预测浏览量
2.8万
现在评论预计可获得 100 次曝光
Susan STEM
3.9万
Susan STEM@feltanimalworld· 3天前发布

一种不可言说的变化即将在我们熟悉的知识领域发生。我想Robinson说的事情包含在这个范围内。 这就是我为什么又把这本书专门买个纸版本的,仔仔细细的又在研究。 书籍真是一种很难完全窥探作者思想的媒介,总共没多少字,而且他文采还很好(不直白,但问题就是一个中心思想还写了好多字)。所以没完全看透他的思想。 版权,知识,文凭,研究,科学,科研,知识分子,白领阶层,中产阶级,高校生态。 以上的这一切关键词,都是我认为即将发生我以前不可理解不可预知的领域。 无法用语言表述出来,所以想看这本书找答案。但我的感官又足够敏感,能感觉出来。很奇怪的感觉。

54
7
1
1.0万
数据更新于 2天前
起爆概率
58%
预测浏览量
1.4万
现在评论预计可获得 400 次曝光
Mina
5,940
Mina@Minamoto66· 3天前发布

晚上不想开火了,买了超市的寿司,14.9欧元,又买了一块三文鱼,9.8欧元吃了。去了趟超市买了300多欧的东西,一半是要带到巴尔干去的。把首都的公寓打扫完又回家继续打扫被四只毛娃整得乱七八糟的房子。反正我的剧本里不是霸道总裁爱上绝经干保洁的我,是我这个快绝经的总裁天天干保洁… https://t.co/afoesluX5v

92
0
25
5,327
数据更新于 2天前
起爆概率
52%
预测浏览量
7,000
现在评论预计可获得 100 次曝光
dontbesilent
5.1万
dontbesilent@dontbesilent12· 3天前发布

我们在短视频上经常会看到有人说,你做泛流量赚不到钱,必须做精准流量才能变现 “精准流量”这个说法是一种典型的,短期有益但长期有害的词汇 短期有益指的是很多人的确为了获取流量做了很多垃圾内容,这些内容在当下的确是无法变现的,所以你需要收缩一下你的选题范围 但长期来看,我们认为真正的财富其实是源于你有强大的承接能力,让你可以把泛流量也进行转化 因为所谓的精准流量的总量是非常有限的,这实际上是一场逃避强化转化能力的自我表演 真正能帮助我们看清世界的思维模型,其实是把它分为流量和转化两部分,在你转化能力有限的情况下,你想短期获取精准流量,这没有问题 但过了这个阶段之后,你依然停留在精准流量这个词汇上,这就是有害的 所以,如果只是单拎出来这个词去赞美,而不讨论它背后的更大的语境,我认为这是不理解商业的表现 简单讲就是菜 维特根斯坦说,哲学是一场反对语言对我们的理智的蛊惑的斗争 我正在尝试去践行

35
2
4
5,237
数据更新于 2天前
起爆概率
56%
预测浏览量
7,000
现在评论预计可获得 200 次曝光
勒西
7,782
勒西@alwriterla· 3天前发布

为啥古代那么多扒灰? 古代人结婚早,儿子结婚时,老爹还是精壮小伙。 又一大家子住在一起,低头不见抬头见。 公公既有主观动机,又有客观条件,往往也比儿子更有钱有势。

33
1
6
5,128
数据更新于 2天前
起爆概率
47%
预测浏览量
7,000
现在评论预计可获得 100 次曝光