🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
影视飓风风波有感 独立思考在简中不是不被允许,而是被默默定价成“高风险行为”。 你一旦开始问“为什么”,系统就会回你一个“你问这个干嘛”。 独立不是原罪,显眼才是。 思考不是原罪,越界才是。 大多数人不是不想独立思考,而是被算法、KPI、舆论温度计调教成了“别搞事模式”。 情绪可以有,观点最好不要太立体; 态度可以强,但逻辑别太尖锐。 于是你看到的社会像是一套“软沉默协议”: 能顺着就别横着, 能闭嘴就别展开, 能合唱就别唱独奏。 但真实世界永远奖励那些敢想、敢问、敢推门出去的人。 独立思考不是原罪,它只是昂贵。 昂贵到大多数人承受不起, 也昂贵到真正具备的人会被时代记住。
剪映这个无耻的弹框,是用的什么API实现的啊🤣 一度让我感觉自己在用Windows https://t.co/U3UdSUjhiu
这是 0.5.0 之前的最后一个版本! - 谁在等 Light Mode ☀️! 现在有了!(感谢 Claude Code on Web) - Windows 功能全了 - Search 大优化,快搜现在满血了,深度搜索从几十秒变 6 秒了!
北京人不爬长城 西安人不看兵马俑 外地人,来都来了 真的好无聊啊 https://t.co/r4tmfdVlVK
双十一过完了,买了个小米17pro max,同时升级了一下两个麦克风。 索尼ECM-M1,方便日常拍vlog。 舒尔的MV7i,用于日常教程视频。 https://t.co/p4nOkORCrJ
上午和团队复盘,除了 Reddit,还挖到几个外链建设的宝藏洼地:YouTube 热门视频评论区、Fandom 粉丝社区、Hacker News 讨论帖。高质量、高相关的评论,总能带来意想不到的惊喜。
@中国国安,这有一个煞笔影射领导人。我是良好公民来的,就他天天在我评论区说这些大逆不道的话。我已经block.了。我绝对拥护党和国家的领导的。
这可能是我写的最“接地气”的 AI 科普:从家政阿姨看懂 Agent 和 MCP 我家请了个家政阿姨打扫卫生,这位阿姨高中毕业,但是经过了家政公司专业训练,学会了该怎么针对不同家庭去打扫卫生,使用各种不同的清洁工具。 当然她不可能记住所有工具的用法,所以额外的,家政公司还给她了一本《家政技能手册》,这个手册有两部分,一部分是目录,不同技能的简要介绍,字数不长,阿姨每次来干活之前都会读一遍目录,以便需要时能想起来; 《家政技能手册》的另一部分是技能的详细介绍,详细介绍里面不仅说明了各种技能的详细做法,有的还有配套的手册,有的还需要借助一些工具。 家政公司还给阿姨配备了一款定制的平板电脑,这个平板电脑支持一种智能家居协议,所有支持这种智能家居协议的家电她都可以用这个平板电脑连上操作。 为了提升效率,家政公司还给她配备了便携式扫地机器人,每次她都开车带上,一些扫地的任务就直接使用扫地机器人。 为了我经常需要阿姨来家里打扫,为了避免麻烦,所以我把我家的一些基本情况写成了说明书,好让阿姨知道该怎么更好的清扫我们家,并且阿姨很专业,每次工作完都写了一份详细的工作记录,这样她下次来还可以看一下以前都做了啥。 虽然有这个说明书,当然每次过来我还是要交代一下:“阿姨,明天我家要开了个 party,客厅一定要弄干净整洁点。” --- 说了这么多我当然不是为了炫耀我家请了个阿姨干活或者帮这家家政公司打广告,而是借这个来“辅助解释”一些常见的 AI 名词。 - 家政阿姨:AI Agent,有基础知识(类似于大语言模型),经过训练,会规划会使用工具 - 扫地机器人:SubAgent,专业的、自主的执行者。 主AI(阿姨)负责委托和监督,机器人(SubAgent)负责具体执行。这大大解放了主AI的精力(上下文窗口),让她可以去干更重要的活。 - 智能家居协议:MCP(模型上下文协议),智能家居协议就是那个家电的统一标准: 支持智能家居协议(MCP 协议)的家电工具阿姨都可以使用。 - 《家政技能手册》:Skills,家政技能手册可以帮助阿姨(Agent)学会她没有被训练过的技能,而且这些技能是“动态加载”和“渐进式披露”的。 “动态加载”的意思是:阿姨只有在需要用特定技能的时候,才会去《家政技能手册》翻该技能的详细内容。 “渐进式披露”的意思更进一步:阿姨不会一开始就把整本手册都读完,她干活前先看一眼目录(元数据,大约 100 个词),“哦,这个技能跟我现在的任务有关”。然后它再打开读具体章节(完整的指令,小于 5000 词)。 这有什么好处?省脑子(省上下文窗口)。 确保阿姨总是在最需要的时候,用最少的“脑力”获取最关键的专业知识。 - 我家:Project,存放了与我家相关的说明书、历史信息。 希望上面这个比喻能帮助你更好的理解这些概念。 ⚠️ 需要注意的是,这些比喻只是帮助你理解这些概念,并不能代替你深入的去学习和理解这些知识。
CRS 高危地区就是:香港、新加坡、英国、欧澳日韩等全部加入 CRS 的国家和地区。只要你在这些地方有账户、大额入账或对敲,余额快照都会自动交换给中国税局。离岸地如开曼、BVI 也都在 CRS 内。真正不交换的是美国,但用港卡中转仍会暴露。所以大家务必合规操作。
橘子的创业团队,用了更贴近AI时代的组织形式,战斗力爆棚! 1. 所有人都能提产品想法,自己 Vibe Coding 或说服他人组队开发上线。 2. 快速上线验证,PMF后持续打磨。 比如免费AI音乐工具:nextaibar (用suno API,但更易用) 比如这几天刚上线,免费Nano Banana生图工具。 据说是一个00后应届生程序员一天搞出来的。 改天请他分享下经验 @oran_ge 产品网址见评论区
抖音上, 一个模仿德国知名落榜美术生(带个知名小胡子)的德语博主,开始带货零食了。 零食店的名字叫鱿太仁 ……什么地狱笑话 https://t.co/oyo29Z837d
AI 原生软件,这两周我一直在讲。我也分享过一个最简单、最日常的例子:购物 Claude Skill。 如果你用过,你大概已经体会到了——所谓“AI 原生”,不是比传统 App 多几个智能功能,而是整个运作方式变了。 你不再点按钮,不再找菜单,而是直接说:“帮我记录一下刚买的东西。”“下周提醒我补货。” 系统不是在“记账”,而是在学习你的结构、你的节奏、你家是怎么运作的。 当你真正用起来,你会突然意识到: 你操作软件的方式变了,你的思维方式也跟着变了。 这才是 AI 原生软件的核心。 此文有中文翻译。 When Software Disappears: The Real Beginning of AI-Native Systems https://t.co/UANM07h6DA
如果你用过 Flomo 或者买过小报童, 或者看过《产品沉思录》, 那你大概率知道这些小而美背后的人 —— 少楠 昨晚听了期他关于一人公司的访谈,3 小时信息量巨大。 少楠是典型的产品经理出身,创办了多个项目,包括美食分享应用“食色”、动画门户网站 Anime Taste、便签工具 Evermemo 和二手书平台“摆摆书架”等,也在丁香园做过首席产品官,后来出来做了多年一人公司。 Flomo 和 小报童 都是他和合伙人 白光 一起做的,十来个个人的团队,全员远程,活得还挺滋润。 从这期访谈里整理出 4 条生存法则, 每一条都是他用真金白银验证过的:
网友很快就做了一个生成器 https://t.co/G1oVyAEX5s https://t.co/peI2mYOBhe
经常有人问,能否一次性跟多个AI模型对话。 之前橘子做过一个Chrome插件叫AIHomeTab,把新开浏览器窗口变成AI对话框,一次性向多个模型提问对话。 今天,爱贝壳团队也做了一个类似的插件叫AI ChatHub 产品思路差不多,拼接URL提交到多个模型获得结果。 Chrome 插件应用商店搜“AI ChatHub”安装即可。
YouMind 的这一波更新很不错。划重点: 1、遇到不满意的 AI 产出,可以一键点踩退还消耗的所有积分。真正按效果付费,再也不用担心积分被 AI 乱花了。 2、如果是遇到 YouMind 自己出错了,会自动退还积分,点踩都不需要。 3、写好的文章,可以一键复制到微信公众号了,默认简洁优雅,并支持换主题颜色。 4、AI 配图里的中文问题,也可以调用即梦 4.0 来生图解决了。 你的需求,是 YouMind 前进的动力。 YouMind 的诚实,值得你信任。 大胆创作,不止于学。
我们实验室以前有一个本科生 非常认真,非常聪明,非常努力 大一就来实验室做实验 基本上每天都会在实验室忙一会 有的时候两三个小时 有的时候七八个小时 一直和我们组博士做实验做到了大四 最后本科毕业,论文都还没发出来, 一直到她自己博士入学一两年 她和博士的两篇文章才被接收 所以,每次看到生物学的本科生本科发了什么顶刊。我都有点情绪复杂。然后感叹有个好爹妈真好
ShipAny One 破 $10k 用了 4 小时 ShipAny Two 破 $10k 用了 3 天 感谢支持,继续完善。❤️ 半价活动持续到 11.30 号,新用户 🉑 冲,老用户 0 元购新版。 https://t.co/fbT37uBd8Y
如果有人敢在抖音讲 claude skills,大体分为三种情况 1. 为了让小白听懂,大量使用修辞手法,以至于信息压缩极其严重,根本无法把整个事情完全讲清楚 2. 讲的很专业,但是播放量极差 3. 既有深度,又有流量,这是真高手
作为老板,最心痛的事情莫过于 给员工提供了 Claude Code、Codex、Cursor 各种工具 但员工却不用 了吧...
关于印度裔美国人和华裔美国人差异的有趣的观点(下面的内容是 Junde Wu 原推文内容摘要): 65年移民和国籍法开始,印度大批受过良好教育的医生、工程师、学者进入美国,成了印度裔社区的第一代基础,而他们的高学历背景,也直接塑造了整个族群的教育水平与收入结构。 而华人移民的节奏完全不同。 因为中国经历了文化大革命,高学历、高技能的大陆移民真正的大规模涌入,其实要等到 80 年代末、90 年代 才开始,直到 2000 年代才达到峰值。 我们今天看到的差异,不是因为文化,也不是因为某个族群“更聪明”,而是因为不同族群来到美国的时间点不同、路径不同、筛选机制不同。
今年,我读了很多 alignment 和 AI safety 的论文。 开始一天比一天好奇,Ilya Sutskever 的 Safe Superintelligence Inc 到底在做什么神秘的研究和产品?
M: 来这里的意义是什么? D:因为门票免费? M:那只是现实层….因为黑鸟是冷战侦察机工程巅峰,飞行速度超过马赫2.5全身热膨胀,把缝隙填满。形成内真空状态。波音707的原型,当时在华盛顿航展,毫无征兆的做了空中翻滚。开启喷气式时代。 D:哦,你儿子看上个80刀的纪念品,你去把钱付了? M:算了吧,不如买汉堡。 D:欢迎回到现实层。
谁能认出来?我能。 https://t.co/qa4X3Slw4k
靠,正像Elon曾经说过的,尤根发明了当前AI的everything! 当前AI的所有理论都可以从尤根一个人写过的论文中找到线索。 https://t.co/AMd8ZB4IW8
在讨论 AI-Native 软件范式(AI-Native Systems) 时,我们必须先承认一个现实:用户从来没有被教育过如何使用“语言作为系统界面”。过去三十年他们接受的是另一套训练: 无数个 App 容器,每个 App 代表一个单独的世界,有自己的按钮、菜单、图标、工作流。用户的心智是被图形界面塑形的。 而当你突然把一个纯语言界面放到他们面前——光的、秃的,没有工具条,没有按钮,没有模式切换——大多数用户是会本能不适的。 因为这不是他们被社会化学习过的操作方式。 这正是 AI-Native 的悖论: 语言本来是人类最自然的界面,但在软件里,它反而变成“最陌生的界面”。 换句话说: 用户需要被重新训练,让语言重新成为界面。 但“语言即界面”其实只是表层。真正的底层结构是: 语言 → 结构 → 调度 语言不是聊天,语言是可执行结构; 结构不是代码,结构是可调度的认知单元; 调度不是操作系统,调度是系统的生命机制。 要让消费者理解一个“没有 App、没有按钮、没有菜单”的世界,他们需要一个适应期。因为这是一种范式迁移: 从“点按钮”到“发起意图”; 从“在 App 之间切换”到“让结构在后台自动调度”; 从“模仿电脑的操作方式”到“让电脑模仿人的思考方式”。 这就是 AI-Native 时代真正的冲击点: 不是技术本身,而是用户心智的迁移速度。
老了,胖了。 问AI,我YouTube咋办? 他居然建议我去贴假睫毛…. https://t.co/mHl071AGy7

宝玉
张小珺和李想的3小时长谈的完整版我刚看完,信息量极大。这场对话其实发生在半年前(2025年4月),按照 AI 圈的时间,很多内容其实已经有点变化了。 张小珺有个精妙的比喻: > 这次,我把李想当作一个“CEO大模型”来提问。假设他是MoE模型,我在对话的前三个回合调用了他的三位“专家”:技术专家、战略专家、组织专家。而当谈话深入后半程,我们开始讨论人、能量、亲密关系、记忆程序与人类的智慧。 李想给出的“回答”非常坦诚,甚至有些“反直觉”——不像跟罗永浩那场都是他的成长和创业的故事,也没有太多汽车相关,而更多的是围绕 AI 来谈的,甚至谈了怎么训练模型。 --- 话题一:“信息工具” vs “生产工具”:为什么AI还没让我们真正下班? 这是李想开场就抛出的一个尖锐观察: “身边所有同事、朋友都讲人工智能怎么好,但大家工作时间并没有减少,工作成果也没有实质改善。” 为什么? 他提出了一个“熵增”和“熵减”的对比: AI这东西,特别擅长搞“熵增”——它能处理海量信息,吞吐T级别的数据,把复杂性推到极致。 而人类呢?人类大脑天生是来搞“熵减”的——我们发明方法论、创造工具,本质是为了用最简单的规律,花最少的能量,解决问题。 现在的矛盾点在于,我们几乎所有人,都还只是把AI当成“信息工具”(比如Chatbot)或“辅助工具”(比如智能语音)。 - 信息工具:你问它答。它只是给你一个“Next Token”(下一个词),给你一个参考。这非但没帮你“熵减”,反而增加了海量的、甚至带有幻觉的“无效信息”。 - 辅助工具:帮你调个导航、查个美团。它提升了现有体验,但你还是离不开它。 李想认为,AI真正的爆发点,在于它必须进化成“生产工具”。 什么是“生产工具”?他给了一个极简的定义:“知行合一”。 它不能只“知道”(知),它必须能“行动”(行)。它得能真正替代我,完成专业工作,解决我工作中最重要的那8小时。 他举例,像Cursor或Deep Research,他的同事开始自己掏钱付费了。为什么?因为这些工具开始“动手”了,它们在真正地“做”工作,而不只是“聊”工作。 这引出了他对Agent的最终评判标准:Agent的唯一意义,就是成为“生产工具”。一个只会聊天、不会动手的Agent,价值是极其有限的。 --- 话题二:向DeepSeek学什么?反人性的“最佳实践” 这场对话中,李想毫不掩饰的表达了对DeepSeek及其创始人梁文锋的赞赏。DeepSeek的开源,让理想VLA(视觉语言行动模型)的语言部分研发“进度加快了9个月”。理想后来把自己的操作系统开源,很大程度上就是出于对DeepSeek的“感谢”。 那么,DeepSeek到底做对了什么? 李想的总结是:“它极简地运用了人类最佳实践。” 他拆解了两种“最佳实践”: 第 1 种是做能力(研发)的最佳实践: - 第一步:搞研究 (Research) - 第二步:搞研发 (Development) - 第三步:能力表达 (Expressing Capability) - 第四步:变成业务价值 (Business Value) - 我们常犯的错:直接跳到第二步“搞研发”,忘了第一步“搞研究”。 第 2 种是做业务(推理)的最佳实践: - 第一步:索引分析 (Analysis) - 第二步:确定目标 (Goal Setting) - 第三步:涌现策略 (Strategy) - 第四步:反思反馈 (Feedback/Review) - 我们常犯的错:遇到问题只想改第三步“策略”,却忘了重新做第一步“分析”、第二步“定目标”和第四步“复盘”。 严格遵循这些步骤,其实是“反人性”的。人性总是想走捷径,想随心所欲。而一个卓越的组织,就是要和这种人性对抗。 他认为梁文锋就是这种“自律”和“坚守最佳实践”的化身。 --- 话题三:解密VLA:我们是如何“造”一个司机的? 这是全篇“技术专家”模块最硬核的部分。当别人还在谈论端到端时,李想已经在详细拆解他们下一代的VLA(Vision-Language-Action,视觉-语言-行动)架构了。 他把辅助驾驶的进化分成了三个阶段,这个比喻非常传神: 第一个阶段是规则算法阶段:像“昆虫智能”。比如蚂蚁,严格依赖高精地图(信息素),规则定得死死的,没法泛化。 第二个阶段是端到端阶段:像“哺乳动物智能”。比如马戏团的动物学骑车,它能模仿,但它不理解物理世界。 第三个阶段是VLA阶段:追求“人类智能”。它不仅要看(Vision),还要理解(Language,包括推理、思维链),并且能执行(Action)。 那么,这个“人类司机”是怎么“造”出来的?李想给出了一个通俗的“三步训练法”: 第一步:预训练 (VL基座) —— 仿佛“上学学知识” 目标是让模型理解世界。 用什么数据训练呢? 不仅用普通语料,还要用理想独有的三类数据: 1. 3D Vision数据(物理世界)。 2. 高清2D Vision数据(比如看懂导航地图,清晰度比开源的高10倍)。 3. VL联合语料(最关键的,比如“看到这个导航”+“人类做了这个判断”的组合数据)。 然后呢? 把这个云端320亿参数的“博士”大模型,蒸馏成一个车端32亿参数的“专家”MoE模型,保证在车上能跑得动。 第二步:后训练 (加入Action) —— 仿佛“上驾校学车” 目标是把“知识”变成“行动”,进行模仿学习。 怎么训练呢? 学习人类司机的操作,让VLA模型知道看到什么、理解了什么之后,应该做出什么动作(Action)。 第三步:强化训练 (RL) —— 仿佛“上路实际开” 目标是开得跟人一样好,甚至比人更好。 怎么做训练呢? 1. RLHF(人类反馈):用人类的接管、驾驶习惯来“对齐”,让它开得像个“老司机”,而不是“马路杀手”。 2. 纯RL(世界模型):在模拟器(世界模型)里疯狂跑,用“舒适性”、“交通规则”、“是否碰撞”作为奖惩标准,让它自己“悟”,开得比人类平均值还好。 通过这三步,一个“VLA司机大模型”就诞生了。 李想认为交通领域会是VLA最早落地的场景。而且,未来不会有“通用Agent”,只会有无数个“专业Agent”(比如司机、医生、律师),而它们会运行在一个统一的“Agent OS(智能体操作系统)”上。 --- 话题四:理想的终局:一家“AGI终端公司” 这是“战略专家”模块的思考。 理想这家公司,组织能力在学谁? 李想划出的路线是: 1. 百亿收入阶段:学丰田、通用(流程)、谷歌(OKR)。 2. 千亿收入阶段:学华为(IPD、组织流程)。 3. 迈向万亿(1000亿美金)阶段:必须学苹果。 学苹果什么? 学它从一个电脑公司,拓展成音乐播放器公司、手机公司、服务生态公司的能力。 基于此,李想给出了理想的终极答案。当被问到“理想是谁”时,他不再只说汽车,而是给出了一个极其清晰的定义: “到2030年,我们希望能够成为全球领先的人工智能终端企业。” 他做了个类比: - PC时代:有终端公司(苹果)和平台公司(微软)。 - 移动互联网时代:有终端公司(苹果)和平台公司(谷歌)。 - AGI时代:也必然会有平台公司(如OpenAI),和终端公司。 理想,要做的就是AGI时代的苹果。 他认为,汽车是第一个真正意义上的“AGI终端”,因为它同时具备四个要素: 1. 360°物理感知; 2. 认知决策; 3. 行动能力; 4. 反思反馈。 但理想不会止步于汽车。当规模达到5000亿以上,他们必须像苹果做iPhone一样,去探索其他(符合上述4要素的)AGI终端,比如家庭、穿戴设备。 对于“摊子铺太大”的质疑,李想的回应很直接:“如果我们有1000多亿收入……做这些事情就是合理的……太划算了,干嘛不做?” --- 话题五:从“改变”到“成长”:能量、智慧与亲密关系 这是整场对话我个人最喜欢的部分,它关于“人”。 李想分享了他最重要的一个管理“心法”:“人是很难‘改变’的,但人是愿意‘成长’的。” 所以,他做管理时会“顺着人性去说,逆着人性去做”。话要说得顺人性(我们来一起“成长”),事要做得逆人性(严格执行“最佳实践”)。 他还分享了一个核心概念:“能量”。 他认为,一个组织的核心,是构建一个3-7人的“能量体”(核心合伙人团队)。这个团队必须形成“更强的大脑”(一起决策)和“更强的心脏”(相互支撑)。 如何构建这种能量? 他给出的答案来自他做父亲的体验: “在亲密关系里,你要大胆表达自己的需求……我需要他们(家人、同事)超过了他们需要我。” 他发现,当你表达“我需要你”时,能量就开始流动了。因为所有人都渴望“被需要”。 这引出了他对AI时代的终极思考:AI负责“智能”,人类负责“智慧”。 - 智能(能力):AI可以无限提升。 - 智慧(关系):李想定义,“智慧就是我们和万物的关系”——你和自己的关系,你和他人的关系,你和自然的关系。 AI的终极价值是什么?是把人类从那些消耗能量、不产生“智慧”的低价值劳动(比如打邀约电话)中解放出来,让我们有时间去做真正“熵减”的、有能量的事情——去处理“关系”,去提升“智慧”。 这或许就是“AI与人的关系”这个母题的答案。 访谈的文字链接: https://t.co/1f6T91aK5E
Est. 2.2K views for your reply
