🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
读完 Dan Koe 的文章《如何用一天修复你的整个人生》,很欣喜。发现自己已实践十几年,确实简单有效。 我的实践是,定期更新三篇文档。 文档一是《活好这一生》。每年年初更新这篇文档,内容包括:我不想成为什么、我想成为什么、期待自己今年改变什么。暗合了 Dan Koe 说的 Anti-vision(不想是啥)、Vision(想是啥)和 1 year goal(今年干啥)。 文档二是《干好这一年》。每个月初更新这篇文档,内容包括:这个月最重要的三件事是什么。暗合 Dan Koe 说的 1 month project。这是我打开最频繁的一个文档。偶尔会有大调整。有意思的是,实践多年后,写这篇文档时,会越写越懂自己,不会去写难以实现的事项。定的三件事能干完两件,才能持续正循环起来。 文档三是《过好每一天》。这是更新最慢的一篇文档,经常好几年才会有比较大的调整。内容包括:习惯培养、兴趣实践。去年我新加的一条习惯是:上床不看手机、看手机不上床。文档三暗合的是 Dan Koe 说的 Constraints(约束)。不断达成约束,会有一种平静的自由喜悦。 除了上面说的三篇文档,日常我还经常用的工具是 Linear 和 Calendar,用来管理 Dan Koe 说的 Daily levels 的各种事项。这类工具用法很常见,不多说。 用好上面三篇文档,你的整个人生,会非常不一样。这过程中,不仅能知命,还有机会改命。Dan Koe 写下的,就是如何用一天学会如何去改命。我刚好已实践十几年,确实有用。 如果你不相信我的实践,可以给我点赞、转发、收藏。阅读数超过 2000 万,就公布我的这三篇文档:《过好每一天》、《干好这一年》、《活好这一生》。
推荐试试我写的 comic skill,可以根据输入的素材生成漫画故事、漫画教程 https://t.co/VugPchFhjP
发现一个合法节约 AI 订阅费的方法,以 Claude 为例: 1. 先选最低的那一档,比如 $20 2. 用完了升级下一档,比如 $100 3. 以此类推,最终 $200 通常等你到最后要升级到 $200 的时候可能这个月都要结束了,甚至都不需要。 唯一的问题是操作比较麻烦 这事也许可以找个 AI Agent 比如 Claude Cowork 自动帮我做,快月底了降级订阅,用完了升级
哇咔咔咔!今天第一次做了手抓饭!铸铁塔吉锅一锅出!肥肥的羊排特别给力!超满足,吃了大半锅,睡前再玩会儿壶铃减减肥 https://t.co/jFSWMGFwCS
Revealing the answer: Eigent = Eigen + Agent Eigen means “own” in German and is also related to the concept of eigenvalues. Product vision: a fully local AI agent that is open at every level, from the model and agent framework to the full-stack application. So it truly becomes your “own” agent. Research vision: identifying the principal components, the most important “eigenvectors” of the covariance matrix, behind the scaling laws of agents. Personal reason: my 5-year-old cat is named Eigen 🐱
写了一个 Skill 调MCP 把DAN KOE这篇神文转成6分钟解读视频。 仔细读有些启发,融合了很多人和经典书中的想法,但原创性跟纳瓦尔比差些。 虽然纳瓦尔也集合了前人的智慧,但第一次读“杠杆”、“幸福”等概念的解读,耳目一新,不知道大家的感受如何。 https://t.co/rzWSh5iEUt
Applovin 被华尔街的capitalwatch盯上了,要在周二晚上发它的做空报告,可以关注一下。 https://t.co/r2HzsYYxXg
我现在写代码尽量用 Codex,其他任务用 Claude Code。 Codex CLI 虽然不好用,但是模型好,写代码稳,并且 Token 量大。 Claude Code 好用,模型写代码不如 Codex,但是通用任务执行的更好。 这里其实 OpenAI Codex 团队是要反思一下后续走向的,空费了这么好的模型,整天做些华而不实的更新。
除了 Conductor,又出现两新的 parallel agent(多 agent 并行) 客户端软件。 - https://t.co/Ci3iMxVxhR - https://t.co/iC388PSFgd - https://t.co/yAiPAUE7Xj https://t.co/qVdQM2fpEl

宝玉
华尔街日报最新发了一篇长文《How Google Got Its Groove Back and Edged Ahead of OpenAI》,讲的是 Google 在 AI 竞赛中如何从落后到反超的故事。 2025 年 8 月的一个凌晨两点半,Google 的一位 AI 项目经理 Naina Raisinghani 正在上传 DeepMind 实验室的最新成果,一个超快的图像生成器。她需要给它取个名字才能提交到 LM Arena 排名平台,但这个点没人在线。 于是她随手用朋友给她起的两个外号拼了一个:Nano Banana🍌。 几天后,Nano Banana 冲上排名榜首,在 X 上成为热门话题,用量远超 Google 预期。到 9 月,Gemini App 成了苹果应用商店下载量第一。11 月,Google 发布了迄今最强的 Gemini 模型,在多项指标上超越 ChatGPT,股价大涨。 OpenAI 内部随即发出 Code Red。 时间拨回 2015 年,Pichai 刚接任 Google CEO,那时候 AI 还只是学术圈的事。2016 年他发了一篇博客,说过去十年是智能手机的时代,未来十年将是 AI 优先的时代。 其实 Google 早就在布局。2011 年成立了 Google Brain,联合创始人 Jeff Dean 参与开发了神经网络技术,这是今天大语言模型的基础。后来又收购了伦敦的 DeepMind,创始人 Demis Hassabis 是个国际象棋神童,后来因为 AlphaFold 拿了诺贝尔奖。 还有一步棋当时不太引人注目:Google 开始自研 AI 芯片。他们认为语音识别这类应用会需要大量算力,于是设计了 TPU(张量处理单元),比传统 CPU 和 GPU 更省电。这步棋后来被证明是关键。 不过 Google 一开始对聊天机器人很谨慎。一些高管和研究员担心安全问题,早期模型很容易被诱导出种族歧视或性别歧视的回答。前 Google Brain 员工 Julia Winn 说,Google 对这类风险看得比她待过的任何公司都重。 这种谨慎让一些研究员很沮丧,有的选择了离开。 2022 年 8 月,Google 发布了一个叫 LaMDA 的聊天模型,只开放给少数人测试。测试 App 叫 AI Test Kitchen,有三个功能:想象它、列出它、聊狗。对,第三个功能只能聊狗。 三个月后,OpenAI 发布了 ChatGPT。五天内,一百万人注册。用户没有太多限制,想聊什么聊什么。 Google 内部一些在 AI 上耕耘多年的员工气坏了。分析师和投资者开始质疑:Google 是不是要错过科技史上的下一波大浪? 2023 年 1 月,Jeff Dean、Demis Hassabis 和新加入的机器人专家 James Manyika 向董事会汇报了打造最强模型的计划。 但 Google 等不及了,需要先推一个产品出来。2 月,他们匆忙发布了基于 LaMDA 的 Bard。 发布会翻车了。宣传视频里,Bard 被问到韦伯望远镜的问题,回答说它拍了第一张系外行星照片。这是错的。Alphabet 股价当天跌了 8%。 差不多同一时间,已经退休的联合创始人 Sergey Brin 在一个派对上碰到了 OpenAI 的研究员 Daniel Selsam。Selsam 问他:ChatGPT 这么厉害,作为计算机科学家你不心动吗?怎么不回来全职搞 AI? Brin 觉得他说得有道理,于是回归了。 2023 年大部分时间,Google 都在努力整合内部的 AI 力量。Google Brain 偏研究,DeepMind 偏产品,两边文化不同,合并后产生了不少摩擦。 不过 Google 有一个巨大优势:OpenAI 需要融资,Google 可以从自己几百亿的利润里拿钱做研发。 但 Google 还有一个难题:怎么在拥抱生成式 AI 的同时,不把自己的摇钱树给弄死?Google 占了网页搜索市场 90% 的份额,这是广告业务的根基。 为了弄清楚 AI 搜索应该长什么样,Google 启动了一个叫 Project Magi 的多团队项目,由后来成为搜索副总裁的 Liz Reid 牵头。 Reid 说,难点在于当答案不在单个网页上时,怎么让搜索快速给出清晰的回答。人们不只是在用搜索,而是在依赖搜索。搞砸了的话,你妈、你朋友、你孩子都会来找你算账。 2023 年底,Google 发布了第一版 Gemini。OpenAI 的 ChatGPT 主要用文本训练,Google 的 Gemini 从一开始就用文本、代码、音频、图像和视频一起训练。这是技术野心更大的方案,虽然开发时间更长,但后来证明是值得的。 2024 年 5 月,Google 推出了 AI Overviews,在搜索结果顶部显示 AI 生成的摘要。用户开始进行更复杂的搜索。随后 Google 开发了 AI Mode,一种聊天机器人式的搜索选项。 Reid 说,经过无数次迭代,团队开始发现自己不再只是为了测试而用它,而是真的想用它。 Brin 回来后做的很多工作是帮 Gemini 挑毛病。他还促成了一笔 27 亿美元的收购,把两位离开 Google 创业的 AI 研究员 Daniel De Freitas 和 Noam Shazeer 带了回来。这两人后来参与领导 Gemini 的开发。 2024 年 8 月,Nano Banana 爆火。负责 Gemini App 和 Google Labs 的 Josh Woodward 把这次发布称为成功的灾难:全球用户生成了数十亿张图片,Google 一度找不到足够的算力,只能紧急借用服务器。 到 10 月,Gemini 月活用户从 7 月的 4.5 亿涨到了 6.5 亿。 11 月 Gemini 3 发布又造成算力瓶颈。但 Google 十多年前就在准备这一天了。他们自研的 AI 芯片成了竞争优势,最新的 Ironwood 芯片大幅降低了 AI 模型的运行成本。 11 月底传出消息,Google 正在和 Meta 谈判,要卖给他们价值数十亿美元的芯片。这个消息让 Nvidia 股价当天跌了 7%。 Pichai 在 12 月的内部备忘录里写道:我们以很棒的姿态结束了 2025 年。想想一年前我们在什么位置,这个进步令人难以置信。 Google 用了十多年的积累,经历了 ChatGPT 的冲击和 Bard 的翻车,整合了内部资源,最终在 2025 年底完成逆袭。当然,OpenAI 后来也发布了更强的 ChatGPT,用户量仍然远超 Gemini。这场 AI 竞赛远没有结束。 https://t.co/W3yXCBmv8g
Est. 300 views for your reply
