🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
LobeHub App iOS 开始 TF 公测: https://t.co/4j1U6PheDa 欢迎大家下载体验与反馈 🫰
在做线下课的 PPT,发现 manus 真的是最擅长画图的 AI 产品
刷推特刷得久了,要经常提醒自己多去看看线下,多去看看真实的世界。很多情况其实在推特上都是以偏概全,把微小的群体放大到让人以为全宇宙都在想同样的事,但真实世界完全不是这样。 比如有人说:"现在应该没有人再去照相馆拍证件照了吧?看看AI做的大头照那么逼真。“ 这就是离真实世界太久、曾经在自己的虚拟世界中形成的偏差。所以,提醒自己:多去看看真实世界。
我PUA道德绑架 NotebookLM成功了! 让它生成了一个整整105分钟的音频播客!😲 有种老罗的十字路口的感觉了 这下几万字的资料应该都吃干抹净了! 题目写的也非常好,比我可会写多了! 《顶级玩家的25年实战经验:揭穿联盟营销的七大迷思与未来生存的六大战略智慧!》(链接见评论区) 我怕它是胡编乱造的,专门用剪映加了字幕,检查了一下,没有质量很高的! 自定义的提示词如下: 生成一份深入专业的研究播客,而不是轻量的播客概述。 侧重技术准确性、全面的分析和延长的时长,面向具有专家级听众。而且要兼顾哪些零基础的人用户,所以要解释每一个复杂的概念和原理。 请注意这个音频是为哪些要参加考试的人学习准备的,他们学完之后要进行测验考试的,如果考试没通过会丢掉这份工作,后果很严重!所以务必保证不能遗漏每一个重要的知识点! 总结一下写长播客提示词的要点 1、告诉它是专业级的,不能随便聊聊 2、如果遗漏了一些内容,后果很严重! 有兴趣的朋友,快去试试吧~
曾经我们每个人都是梦想家 但有多少人的梦被击碎的只剩下了想家 或许这就是AI带来的情绪价值与意义 https://t.co/n0TD5ktcgy
说到 Git 的分支管理,我就要推荐 GitButler 了 让 Git 分支和 kanban 一样轻松的管理 https://t.co/cCazFjn6Jl
终于有这么一本读物了,几个 AI 大佬研究员一起出了一个详细讲解扩散模型原理的论文 我翻译了一个双语版本,链接放下面了👇 可以非常全面的理解现在图像和视频模型的基石扩散模型,具体内容有: 第一章:概览生成模型的定义、重要性与谱系,为统一理解奠基。 第二章(VAE 视角):以变分推断连接到 DDPM,用潜变量与重构/去噪目标解释训练与采样。 第三章(EBM/Score 视角):从能量模型到 NCSN/Score SDE,以分数匹配和连续时间 SDE 描述生成动力学。 第四章:采样即沿时间反向求解 ODE/SDE,用扩散漂移向量场逐步逼近数据分布。 第五章(NF 视角):从正规化流到 Flow Matching,以可逆变换/流场学习统一“概率随时间运输”的思想。 第六章:以微积分的换元公式为统一底座,并以“条件化技巧”把难题化为回归,实现稳定可控的训练。 第八章:在 ODE 框架重审 DDIM、DPM-Solver,澄清与经典数值法的关系并解释快速采样原理。 第九章:系统化更优数值积分与误差控制,加速迭代采样同时保持保真度与稳定性。 第十章:提出一致性模型等“流映射”思路,直接学习任意时刻到任意时刻的解映射以少步生成。 第十一章:扩展一致性轨迹与 Mean Flow,以学习整条轨迹(积分)实现单步或极少步高质量生成。
裁员是不是因为 AI? 这个问题本身就问错了。 很多技术人喜欢用“因果逻辑”去解释社会现象:有了 AI → 企业裁员 → 人失业。 但社会运作从来不是线性的,大多数复杂事件,都无法用单一因果链条去概括。 我并非社会学专家,但从过去几十年的经验与观察中,我越来越确信: 把社会问题强行套进“物理式因果关系”,不仅解释力弱,甚至会制造幻觉。 很多社会科学研究在过去几十年里,也逐渐沦为论文互引的权威系统,而非真正具备预测能力的模型。 举三个我亲眼所见或亲耳所闻的例子: 改革开放 当年南方大量的三线制造业,其实陷入了几十年的“无用循环”。电子厂、机械厂、仓库堆满货物,火车专线来回运输,但全国的工业消费力远远不够。 所以,改革开放并不是“计划经济走不下去了”的自然结果,而更像是系统到达某个饱和点后的一次相变。我爸的理论是国际形势大于国内矛盾。 苏联解体 曾遇到一位乌克兰移民,说他岳父母在解体后沦落街头讨饭,后来辗转德国,再到美国。 在那之前,一切稳定、工资正常,没人预感到第二天整个系统就会崩塌。 所以苏联解体,也并非因为“苏联模式行不通”,而是一次无法用线性因果解释的系统性坍缩。 疫情 疫情让经济结构与消费心理彻底改变,几乎没有人能用经济学的“基本面”逻辑来预测或解释这一切。按道理来说,这是一场天灾,天灾过后重建更应该刺激需求才对。 这更像是一场集体的心理与社会“断层”,以至于现在很多人回忆时代,包括我大部分同龄的同学,都以 2019 为分水岭。 因此,我越来越认同一种看法: 系统并非因某个单一原因而改变,而是因为内部能量、复杂度、张力累积到一定程度,突然“相变”。 这不是因果链条的问题,而是系统态的跃迁。 所以,当我们说“失业是因为 AI”,这句话的解释力其实极低。 说“不是因为 AI”,也一样。 任何强行的因果归纳,只能在语言层面上成立,却无法真正触及社会的运行逻辑。 @naki2012 你怎么看?你对这类问题比我看的深入。
大师太强了🤯,这是把自己的冥想盆给 AI 了哈🤩。 还好 Nowledge Mem 的存储是纯本地,如果不主动选择(配置自己的供应商和 key),默认其中的 ai 处理也是本地模型,放心折腾!
Gemini APP 的 Canvas 模式即将支持直接生成 PPT 我试了一下还不行,可能还没上线 https://t.co/nBOA9g0mjN
Sora 2 还有一个新功能,可以直接从你抽卡随机的到的视频人物创建角色 这个很有用,比如你随机到一个很好的视频,你想要生产一条新的,就可以用这个功能保证角色一致性 对于构建连续长视频太有帮助了 https://t.co/Ap6kO1EPyh
随着 AI 算力和能源需求的巨大缺口,很多创业公司也开始研究新的计算设备 Extropic 推出了一个跟现有 GPU 和 TPU 完全不同的计算设备 TSU TSU 的核心是“概率比特”(P-bit) 。P-bit 可以在0和1之间“闪烁”,其在每个状态停留的时间取决于一个“可编程的概率” 。 当数百万个 P-bit 连接在一起时,就能产生巨大的计算能力 。 基于上面的思路他们推出了: X0 芯片:包含数十个概率电路,证明了这些新颖的原语可以在硅片上、并且在室温下被可靠地构建和控制 。 XTR0 测试套件: 这是一个桌面设备 ,搭载了两块 X0 芯片 。它旨在让研究人员探索结合了传统处理器和 TSU 的“混合算法” 。 Z1 TSU: 这是 Extropic 的下一代 TSU,也是其“首个商业规模的 TSU” 。Z1 芯片每片将包含 25 万个互连的 P-bit,形成一个大型可编程图 。 Thermol 软件库: 这是一个开源的 Python 库,用于在 GPU 上模拟 TSU ,感觉这可以玩玩
2025 年越来越多公众人物开始下场做知识付费的底层逻辑 https://t.co/zbV3nJNcW0
🎬【新手向】AI 编程从0到3:一套代码开发Web、iOS、安卓三端 APP 本期实例演示 Expo 前端和 InsForge 后端服务, 通过 MCP 后端数据库、用户授权都能全自动搞定。 InsForge 真心值得尝试,可以看我视频的丝滑体验, 哈哈哈,对了,我还找厂家要了 7 折优惠码: JIMMYLV 🔗 https://t.co/UW8aE5ORY7 https://t.co/gnHnLu6mnr
和投资人聊完,收到一个扎心的反馈:“感觉你副业时眼里有光,聊核心业务时反而没有。” 这让我陷入沉思。我真的是更爱“副业”吗?复盘后发现,驱动我兴奋的从来不是“做什么”,而是“做成了什么”。无论是副业从0到1,还是核心产品拿下关键客户,那种攻克难题、拿到结果的成就感才是我的光。 创业果然是一场“见自己”的修行。
在手动安装了自行车的各种配件,一台宜家的办公桌,一台电动升降桌,和一个白板之后 终于决定要搞个这个 https://t.co/aPoZYC7GJ5
原来订阅ChatGPT和Claude不需要第三方中介。 有国内双币信用卡和安卓手机就行。 1. 解决科学上网,朋友推荐 FlClash,2w多Star的客户端,支持安卓。 2. 安装谷歌框架,登录美区或支持ChatGPT下载的谷歌账号。 3. 下载ChatGPT,点升级Plus,输入国内双币信用卡支付即可。 客户端下载地址见评论
我貌似五千多了 🥶 https://t.co/hUbn7gnZBv
把 TED 系列,变成你的“英语私教” 🦜 深入使用了下 https://t.co/mW2CQxPVgh,做了一个 TED 英语学习 SOP: 1)添加 Url 到素材库 2)一键生成 生词表、例句、扩展情景、模拟对话、听力填空、跟读脚本等,还能按水平(无经验/CET4/CET6/雅思/托福)与词汇量自动降级或进阶 3)实时边学边聊 4)聊完进行综合测试归档生词表 目标:用最少时间,做最有产出的学习。 👉 原始提示词我放在评论置顶
Google 前所未有的规模重押 AI 三季度结果出来了: 1. 营收破历史记录,首次突破千亿美元 2. Gemini 月活 6.5 亿,AI模式美区日活 7500 万 3. 云订单积压暴增 46%,企业 AI 收入每季几十亿 4.CapEx 上调至 930 亿美金,还计划明年继续猛加码 5. 每月处理 token 数破 1300 万亿,是去年同期的 20 倍 从云、搜索、广告、订阅到芯片、YouTube、Waymo,全线兑现,每一条业务线都吃到了 AI 的红利。 说实话,这个季度之后 Google 的 AI 商业化兑现度已经全行业领先一轮了。 如果认同AI 商业化兑现速度 = 公司中长期估值的锚,那可以买入Google了。
张小珺和李想的3小时长谈的完整版我刚看完,信息量极大。这场对话其实发生在半年前(2025年4月),按照 AI 圈的时间,很多内容其实已经有点变化了。 张小珺有个精妙的比喻: > 这次,我把李想当作一个“CEO大模型”来提问。假设他是MoE模型,我在对话的前三个回合调用了他的三位“专家”:技术专家、战略专家、组织专家。而当谈话深入后半程,我们开始讨论人、能量、亲密关系、记忆程序与人类的智慧。 李想给出的“回答”非常坦诚,甚至有些“反直觉”——不像跟罗永浩那场都是他的成长和创业的故事,也没有太多汽车相关,而更多的是围绕 AI 来谈的,甚至谈了怎么训练模型。 --- 话题一:“信息工具” vs “生产工具”:为什么AI还没让我们真正下班? 这是李想开场就抛出的一个尖锐观察: “身边所有同事、朋友都讲人工智能怎么好,但大家工作时间并没有减少,工作成果也没有实质改善。” 为什么? 他提出了一个“熵增”和“熵减”的对比: AI这东西,特别擅长搞“熵增”——它能处理海量信息,吞吐T级别的数据,把复杂性推到极致。 而人类呢?人类大脑天生是来搞“熵减”的——我们发明方法论、创造工具,本质是为了用最简单的规律,花最少的能量,解决问题。 现在的矛盾点在于,我们几乎所有人,都还只是把AI当成“信息工具”(比如Chatbot)或“辅助工具”(比如智能语音)。 - 信息工具:你问它答。它只是给你一个“Next Token”(下一个词),给你一个参考。这非但没帮你“熵减”,反而增加了海量的、甚至带有幻觉的“无效信息”。 - 辅助工具:帮你调个导航、查个美团。它提升了现有体验,但你还是离不开它。 李想认为,AI真正的爆发点,在于它必须进化成“生产工具”。 什么是“生产工具”?他给了一个极简的定义:“知行合一”。 它不能只“知道”(知),它必须能“行动”(行)。它得能真正替代我,完成专业工作,解决我工作中最重要的那8小时。 他举例,像Cursor或Deep Research,他的同事开始自己掏钱付费了。为什么?因为这些工具开始“动手”了,它们在真正地“做”工作,而不只是“聊”工作。 这引出了他对Agent的最终评判标准:Agent的唯一意义,就是成为“生产工具”。一个只会聊天、不会动手的Agent,价值是极其有限的。 --- 话题二:向DeepSeek学什么?反人性的“最佳实践” 这场对话中,李想毫不掩饰的表达了对DeepSeek及其创始人梁文锋的赞赏。DeepSeek的开源,让理想VLA(视觉语言行动模型)的语言部分研发“进度加快了9个月”。理想后来把自己的操作系统开源,很大程度上就是出于对DeepSeek的“感谢”。 那么,DeepSeek到底做对了什么? 李想的总结是:“它极简地运用了人类最佳实践。” 他拆解了两种“最佳实践”: 第 1 种是做能力(研发)的最佳实践: - 第一步:搞研究 (Research) - 第二步:搞研发 (Development) - 第三步:能力表达 (Expressing Capability) - 第四步:变成业务价值 (Business Value) - 我们常犯的错:直接跳到第二步“搞研发”,忘了第一步“搞研究”。 第 2 种是做业务(推理)的最佳实践: - 第一步:索引分析 (Analysis) - 第二步:确定目标 (Goal Setting) - 第三步:涌现策略 (Strategy) - 第四步:反思反馈 (Feedback/Review) - 我们常犯的错:遇到问题只想改第三步“策略”,却忘了重新做第一步“分析”、第二步“定目标”和第四步“复盘”。 严格遵循这些步骤,其实是“反人性”的。人性总是想走捷径,想随心所欲。而一个卓越的组织,就是要和这种人性对抗。 他认为梁文锋就是这种“自律”和“坚守最佳实践”的化身。 --- 话题三:解密VLA:我们是如何“造”一个司机的? 这是全篇“技术专家”模块最硬核的部分。当别人还在谈论端到端时,李想已经在详细拆解他们下一代的VLA(Vision-Language-Action,视觉-语言-行动)架构了。 他把辅助驾驶的进化分成了三个阶段,这个比喻非常传神: 第一个阶段是规则算法阶段:像“昆虫智能”。比如蚂蚁,严格依赖高精地图(信息素),规则定得死死的,没法泛化。 第二个阶段是端到端阶段:像“哺乳动物智能”。比如马戏团的动物学骑车,它能模仿,但它不理解物理世界。 第三个阶段是VLA阶段:追求“人类智能”。它不仅要看(Vision),还要理解(Language,包括推理、思维链),并且能执行(Action)。 那么,这个“人类司机”是怎么“造”出来的?李想给出了一个通俗的“三步训练法”: 第一步:预训练 (VL基座) —— 仿佛“上学学知识” 目标是让模型理解世界。 用什么数据训练呢? 不仅用普通语料,还要用理想独有的三类数据: 1. 3D Vision数据(物理世界)。 2. 高清2D Vision数据(比如看懂导航地图,清晰度比开源的高10倍)。 3. VL联合语料(最关键的,比如“看到这个导航”+“人类做了这个判断”的组合数据)。 然后呢? 把这个云端320亿参数的“博士”大模型,蒸馏成一个车端32亿参数的“专家”MoE模型,保证在车上能跑得动。 第二步:后训练 (加入Action) —— 仿佛“上驾校学车” 目标是把“知识”变成“行动”,进行模仿学习。 怎么训练呢? 学习人类司机的操作,让VLA模型知道看到什么、理解了什么之后,应该做出什么动作(Action)。 第三步:强化训练 (RL) —— 仿佛“上路实际开” 目标是开得跟人一样好,甚至比人更好。 怎么做训练呢? 1. RLHF(人类反馈):用人类的接管、驾驶习惯来“对齐”,让它开得像个“老司机”,而不是“马路杀手”。 2. 纯RL(世界模型):在模拟器(世界模型)里疯狂跑,用“舒适性”、“交通规则”、“是否碰撞”作为奖惩标准,让它自己“悟”,开得比人类平均值还好。 通过这三步,一个“VLA司机大模型”就诞生了。 李想认为交通领域会是VLA最早落地的场景。而且,未来不会有“通用Agent”,只会有无数个“专业Agent”(比如司机、医生、律师),而它们会运行在一个统一的“Agent OS(智能体操作系统)”上。 --- 话题四:理想的终局:一家“AGI终端公司” 这是“战略专家”模块的思考。 理想这家公司,组织能力在学谁? 李想划出的路线是: 1. 百亿收入阶段:学丰田、通用(流程)、谷歌(OKR)。 2. 千亿收入阶段:学华为(IPD、组织流程)。 3. 迈向万亿(1000亿美金)阶段:必须学苹果。 学苹果什么? 学它从一个电脑公司,拓展成音乐播放器公司、手机公司、服务生态公司的能力。 基于此,李想给出了理想的终极答案。当被问到“理想是谁”时,他不再只说汽车,而是给出了一个极其清晰的定义: “到2030年,我们希望能够成为全球领先的人工智能终端企业。” 他做了个类比: - PC时代:有终端公司(苹果)和平台公司(微软)。 - 移动互联网时代:有终端公司(苹果)和平台公司(谷歌)。 - AGI时代:也必然会有平台公司(如OpenAI),和终端公司。 理想,要做的就是AGI时代的苹果。 他认为,汽车是第一个真正意义上的“AGI终端”,因为它同时具备四个要素: 1. 360°物理感知; 2. 认知决策; 3. 行动能力; 4. 反思反馈。 但理想不会止步于汽车。当规模达到5000亿以上,他们必须像苹果做iPhone一样,去探索其他(符合上述4要素的)AGI终端,比如家庭、穿戴设备。 对于“摊子铺太大”的质疑,李想的回应很直接:“如果我们有1000多亿收入……做这些事情就是合理的……太划算了,干嘛不做?” --- 话题五:从“改变”到“成长”:能量、智慧与亲密关系 这是整场对话我个人最喜欢的部分,它关于“人”。 李想分享了他最重要的一个管理“心法”:“人是很难‘改变’的,但人是愿意‘成长’的。” 所以,他做管理时会“顺着人性去说,逆着人性去做”。话要说得顺人性(我们来一起“成长”),事要做得逆人性(严格执行“最佳实践”)。 他还分享了一个核心概念:“能量”。 他认为,一个组织的核心,是构建一个3-7人的“能量体”(核心合伙人团队)。这个团队必须形成“更强的大脑”(一起决策)和“更强的心脏”(相互支撑)。 如何构建这种能量? 他给出的答案来自他做父亲的体验: “在亲密关系里,你要大胆表达自己的需求……我需要他们(家人、同事)超过了他们需要我。” 他发现,当你表达“我需要你”时,能量就开始流动了。因为所有人都渴望“被需要”。 这引出了他对AI时代的终极思考:AI负责“智能”,人类负责“智慧”。 - 智能(能力):AI可以无限提升。 - 智慧(关系):李想定义,“智慧就是我们和万物的关系”——你和自己的关系,你和他人的关系,你和自然的关系。 AI的终极价值是什么?是把人类从那些消耗能量、不产生“智慧”的低价值劳动(比如打邀约电话)中解放出来,让我们有时间去做真正“熵减”的、有能量的事情——去处理“关系”,去提升“智慧”。 这或许就是“AI与人的关系”这个母题的答案。 访谈的文字链接: https://t.co/1f6T91aK5E
build in public:今天把JAM的网站概念稿转化成线框图了。内容基本都有了,也定义了中英文字体样式。 本来想直接做高保真设计可以省点时间,但这种常见的初级坑咱们设计老登还是能避开的。 本来可以直接ChatGPT生成字体样式Json导入Figma的,结果我今天去的这个自习室网关把vpn屏蔽了…… 回家再继续。
赚钱分两步 1、找到答案 2、执行 如果你现在没有执行,说明你没有找到答案 如果你找到了答案,你现在应该执行 如果二者都不是,就与钱无缘
赚钱分两步 1、找到答案 2、执行 结果就是,绝大多数人,出于对执行的恐惧,会拒绝找到答案 当你把 100% 能赚钱的方法告诉 TA 时,TA 会说: 我消化消化/我再想想/我考虑考虑 这就跟越狱一样,关在牢里的时候天天想跑 真给你一把开门的钥匙,直接假装看不见
“乔布斯能看到宏观层面,从而激励别人工作。” —— 阿特金森 在开发Mac电脑的时候, 乔布斯觉得开机启动时间太长了,很不满意。 负责Mac电脑操作系统的工程师拉里·凯尼恩,开始对乔布斯解释,从技术上讲,为什么开机需要这么多时间。 但乔布斯打断了他,乔布斯问道:“如果能救人一命的话,你愿意想办法让启动时间缩短10秒钟吗?” 乔布斯走到一块白板前,给拉里演示,“如果有 500 万人使用 Mac,而每天开机都要多用 10 秒钟,那加起来每年就要浪费大约 3 亿分钟,而 3 亿分钟相当于至少 100 个人的终身寿命。“ 这番话让拉里十分震惊,几周过后,拉里将开机启动时间缩短了 28 秒。
12/100 慢即是快 不管你用的是 Codex / Cursor / Claude Code / Trae——记住这条:慢,即是真快。 AI 用得对,拿到稳定 x10 很现实;但很多人为了 x50 / x100,到处发明“捷径”。快是幻觉,欲速则不达,技术债只会越滚越大,最后效率反而被反噬,AI的魔力转圈圈。 与其一脚油门,不如坚持可控节奏(cadence): 先澄清需求(Spec)→ 设计接口(API)→ 小步提交(Small Commits)→ 持续重构(Refactor)。 按这个节奏产出的代码,可维护(Maintainability)/ 可验证(Testability)/ 可扩展(Extensibility)都在线,越到后期越快,这才是真正的“快”。 把返工率从 30% 压到 5%,体感速度常常比“名义提速 2 倍”还快; 对新手来说,从 60% 降到 10%,研发节奏会肉眼提速好几倍——因为你少走了绝大多数回头路。 我的习惯是:每次让 Codex 写代码或拆文档时,趁“冷却时间”做 60 秒微复盘: - Prompt 有没废话?能否去冗、更结构化? - 设计是否多此一层?有没有更直接的接口? - 是不是命中了 AI 的能力边界?有没有方案突破一下? - 这段代码可能留下什么技术债?命名/拆分/魔法数立刻顺手改一处。 ---广告时间--- 最近开了知识星球「海哥和他的小伙伴们」 - (链接在评论区)。 如果你是 - 「想学 AI编程的产品经理/产品负责人」,想顺手做一些开发工作。 - 「没有深入使用 AI 的程序员」,想了解一线 AI 编程程序员是怎么看每个 AI 工具的功能,快速上车。 - 「想学 vibe coding 小白」,想研究一下怎么做个能用的项目,更快学会编程新范式。 那么我的星球可能对你有比较大的帮助。 另外,前一百名附赠和海哥 1v1 手摸手远程会议畅聊 AI,之前的会员聊完甚至还有加钟的需求
转译自 Cline 的作者推文:为什么Cursor和Windsurf选择发布“速度优化”模型,而不是追求更高智能? 对Cursor和Windsurf这些公司来说,发布一款主打速度优化的模型,显然比打造一个从零开始、推动智能边界的基础模型(foundational model)更加实际。 为什么这么说呢?你想象一下: 1. 先拿开源的Qwen3大模型,直接用强化学习(RL)在自家任务环境上微调。 2. 再把微调后的模型部署到Cerebras或其它经过优化的GPU硬件上。 3. 接下来,就让这个智能“中等”、但速度超快的模型顺畅地运行(cook)起来。 相比之下,如果想从头构建一个全新的基础模型,其难度完全是另外一个量级的。这不仅意味着巨额的资金投入、长期的人才积累,还有大量难以预估的风险。而**对于那些做代码智能体(AI coding agent)的公司而言,真正带给市场价值的方式,就是在现有的开源模型基础上,做精细化的微调(fine-tune)和高效的推理(inference)优化**。 坦白说,这种路线恰恰是一种高效的战略——它能以最小的资源成本,尽可能接近速度和智能的帕累托前沿(pareto frontier)。我很乐意看到代码智能体公司们开始进入这个领域,这无疑是行业的积极信号。 但需要强调一点:这并不意味着代码智能体公司在宣称“中等智能但速度快”比“高智能但速度慢”更好。 毕竟,不同场景对智能和速度的需求本就不同。
用我创建的自定义角色介绍了一下 Sora 2 的更新 太可爱了!这下 Sora 2 的日活估计又要暴涨了 https://t.co/DzqBq14CUM
当你觉得竞争太激烈了时,其实是一种自我幻觉 假设有1000个想要同样东西的人,实际竞争情况是: 🔴 红色区域(最大部分):害怕尝试,根本不开始 🔵 蓝色区域:尝试3次失败后就放弃了 🟢 绿色区域:行动太慢 🟣 紫色区域:被其他的事物分散注意力 🟡 黄色小点:真正的竞争对手(另一个认真执行的人) 🟡 另一个黄色小点:你 这也就是说,在1000个竞争者中: >真正会动手的:极少数 >坚持超过3次失败的:更少 >专注且持续行动的:可能就你和另外1-2个人 Take a simple idea, and take it seriously. (认真对待一个简单的想法) —— Charlie Munger 大多数竞争都是虚幻的。真正的障碍不是竞争对手太多,而是大多数人根本不会认真执行。只要你持续行动,你已经超越了99%的竞争者
你们怎么现在才认识到美股市场的先进性,是不是发现币圈赚不到钱了?我不是2月、4月早就说了么,哦,原来你们没信啊 今年币圈能上仓位的机会: aster 开盘能追,你判断出来cz发力核心就行 币安人生,60m能追,你判断出来大家都在玩meme就行 giggle,80m能追,你判断出来迟早要上现货就行 xpl,bn理财,跟着defi og打就行 okb,需要你第一时间看到,第一时间买进去,然后继续不相信okx,高点清仓 其他好像都不是什么大机会吧 美股这边我们今年至少20-40个ticker是赚钱的,倍率没加密这么恐怖,都是40-100%居多 说明一个简单的道理,你要追求高倍数高风险,你就币圈找不均等机会,你要追求稳定增长,pvp砸不到你头上,你就美股
今天早晨 Composer 的体感: 背景:我是 Ultra 订阅,在编辑器里的部分(不包括我用 codex cli/ claude code/ cursor background agent/ cursor bug bot/coder-rabbit),我基本上: - feature 开发、算法研究实现是 GPT5-Codex,Claude-4.5-sonnet 根据执行阶段选择是否 max - debug 我会在 GPT 和 Claude 之间按需切换,少有时候要“时间旅行” - 特别繁琐的小分支或者单独 thread 任务我也会用 auto,能一次过,还快,不占用 credit - 涉及 UI 打磨、比如 layout, typography 等大的设计,我用 v0(这里提一下,v0 官方给出的模型接入 cursor 现在是炸的,没法配置),在别的 thread 里讨论过。不过一些小的调整我发现 Claude 是最优 现在: 这里边开发、debug 我都用到了 composer 1,给我感觉它是能力在线的模型,而且,它太快了。我现在是首选它,在需要的时候才按需找 codex/sonnet 同学入场😉。 一句话:it just works && 天下武功、唯快不破
那么多人都说在日华人精神状态有问题,一开始我还觉得是刻板偏见,现在看还真不是。。。看看这位的回复,跟神经病一样,然后就把我拉黑了,笑死我了哈哈哈哈 https://t.co/tS0Wb4YCxe
昨天听一期播客,听完花 79 块钱买了一张图(pdf), 突然觉得,开发者们一定要去行业一线找机会, 这么大一张 A0 的图,原作者拿 Excel 做的, 可以说是 毫无交互 和 链接... 感觉做成网页版本,可以卖 299 ¥ https://t.co/HsYp8yhnyS
前天晚上,出海社区突然提醒我: 今晚我有场 Twitter 运营增长分享! 可是 PPT 还没动工,时间紧迫,只能火速开干。 虽然素材齐全(X 官方博客公布的推荐算法、GitHub 开源代码、以及我自己三篇 X 增长推文), 但我做 PPT 一向慢,通常要三四天,显然来不及。 于是试了两个 “AI 生成 PPT” 工具,结果发现: AI 做 PPT 纯属伪命题! 即便给了相关的素材,内容还是不符合预期,结构生成不懂场景,无法突出重点,给再多素材,它也不懂你要讲什么。 所以 不得不赶紧调整方向: 1️⃣整理一个目录,生成基础框架 填充相关内容 2️⃣调整内容,因为AI 生成的内容很难完全符合自己的预期,需要做很多的调整 3️⃣ 然后再让 AI 工具来生成 PPT 等等,前两个诉求不不正是 YouMind 强项吗 于是我把所有素材一股脑导入 YouMind 它直接帮我生成了 PPT 框架,然后 YouMind 非常擅长对生成内容后续编辑场景的增强和优化(我觉得这是很多 AI 生成工具的短板) 符合预期了后,导入 gamma,指定生成 14 页 PPT,跑了两次微调,前后不到 3 小时搞定!可以看看效果 下面我详细分享这个细节
Sora app 在美国、加拿大、日本、韩国限时开放注册,不需要邀请码 之前懒得搞邀请码的可以试试 https://t.co/b9EXjJ9xso
怀疑 Cursor 团队住在推特上的,除了大名鼎鼎的设计师:@ryolu_ 还推荐关注: @ericzakariasson 开发 @TheRohanVarma 产品经理 @leerob 开发 @JuanRezzio QA @davidrfgomes 工程师 @austinnickpiel 工程师 @milichab 产品经理 @ajhofmann18 工程师 @msfeldstein 工程师 https://t.co/m266XKIJvj
北京是一个神奇的城市,上个健身房缴费完才知道是陈伟霆开的,每周基本都能碰到陈老板,体验和明星一起锻炼的感觉。 现在这个健身房又偶遇了一个我很喜欢的B站百万粉UP主,人家成功是有原因的,7点多她就开始和私教训练了。
Claude 急了,用域名邮箱注册送 1 个月 Pro 链接 👉 https://t.co/86ekoiMfsE https://t.co/3Sym62tAT0
AK的这成为专家的三条原则不必什么搬来搬去的费曼学习法高到不知哪里去了? 还有一条是AK在另外的推文也说过:sweating,符号接地! https://t.co/xk9U8CEMgo
信息溯源Skills! 卢尔辰这个提法非常好。如果是我的话我会做成一系列的Skills 闭环。在我的宇宙里,闭环为善。我先给你一个,你就直接跟Claude 说: source tracing: 你想问的溯源信息就可以了。截图你可以看到Claude就一步一步的给你溯源推导。 附送安装指南一份😂 https://t.co/yDCwsgW6gY --- name: source-tracing description: > 从高熵的二手内容中回溯到低熵、权威、原始的信息源。 该技能通过结构化步骤,帮助用户验证消息真伪、理解原始语境, 建立独立的信息判断与溯源能力。 --- inputs: - name: claim type: text description: 用户提供的一条未经验证的信息或高热度说法。 - name: context_hint type: text description: 时间、机构、人名或事件关键词等上下文线索(可选)。 - name: verification_goal type: text description: 用户希望达成的溯源目标,例如“找到原视频”、“查看完整讲话稿”等。 process: steps: - step: 去包装 (Depackaging) action: 识别该信息的传播链条,查找最初的发布主体(如官方账号、原作者、机构源)。 - step: 源头定位 (Source Location) action: 搜索并访问权威渠道(政府官网、机构公告、官方YouTube频道、学术数据库)。 - step: 原文解读 (Primary Analysis) action: 阅读或观看原始内容,记录关键论点、关键词与发言语境。 - step: 语境还原 (Context Reconstruction) action: 分析原文语气与时空语境,避免被剪辑或误导。 - step: 多源对照 (Cross Verification) action: 对比两个以上独立来源,确认一致性。 - step: 结构存档 (Structured Archiving) action: 输出溯源记录,包含原始链接、日期、机构、主要观点、对照结果。 outputs: - name: source_trace_log type: json description: > 包含源头链接、时间、机构、主要论点、上下文摘要的结构化记录。 - name: trust_index type: number range: 0–1 description: 源头权威性 + 内容完整性评分。 - name: entropy_delta type: number description: 信息熵下降幅度(表示信息被“去噪”的程度)。 examples: - input: claim: "SEC 将全面禁止算法稳定币" context_hint: "2025年3月,Gary Gensler 演讲" verification_goal: "找到完整演讲视频并核对原文" output: source_trace_log: source_url: "https://t.co/Tc9KXIeiwY" source_date: "2025-03-17" speaker: "Gary Gensler" institution: "U.S. SEC" summary: "讨论稳定币监管框架与透明度原则,未提及全面禁止。" trust_index: 0.95 entropy_delta: 0.82 metadata: primitive_ir_mapping: Entity: SEC Event: Public Speech Resource: Official Video / Transcript Action: Source Tracing Policy: Transparency & Regulation Ledger: Source Verification Log dependencies: - tool: https://t.co/bq6esHklLM usage: "用于定位权威信息源和官方媒体频道" - tool: summarizer usage: "提取原文要点并生成结构化摘要" recommended_chain: - name: Source Tracing - name: Fact Comparison - name: Context Analysis - name: Structural Summary
Cursor 也训练了自己的模型,整得挺狠。 2.0 算是它在模型闭环与 Agent 编程这条路上的一次战略表态,这下子护城河建起来了。 特别是 Cursor 这次把交互范式直接切换到了Agent-first。走了Claude Code 前期一样的路,让智能体成为开发过程中的主要执行者,从Claude Cose走的路子看,IDE 的可扩展性更强了。 IDE 层面,Cursor 也逐渐 OS 化,几乎是重写了一整套智能体基础设施:比如支持Git 工作树或远程机器进行隔离,多个智能体可以并行运行;通过嵌入式浏览器与 MCP 控制器,Agent 可以操作 UI。 到现在 Cursor 现在已经拿到了最关键的三个点: 1. IDE 入口 2. Agent 执行框架 3. 不断采集数据并训练模型的闭环机制 这个飞轮算是转起来了。
软银(SoftBank)曾是英伟达(Nvidia)最大的股东。但在2019年,他们以36亿美元卖掉了自己持有的全部4.9%的英伟达股份。 今天,英伟达市值突破了5万亿美元大关。这意味着孙正义少赚了整整2500亿美元!
Cursor 带着他们的 Agent 编程模型 Composer 杀回来了 之前又快又好又不废话的 cheetah 就是 Composer 模型的预览版 全新 2.0 版本,带来了更好的模型、更专业的界面 还在担心 Cursor 的护城河? 它也是个模型公司了,卷就是了
Sora 重磅更新了三个新功能: 1. 角色客串,可以上传任意一段短视频,把其中的角色做成可以重复使用的角色,在未来的所有视频中保持一致性 2. 短片缝合,可以把多个片段缝合到一起,组合为更复杂的故事 3. 排行榜,可以看到热门的客串秀、热门的remix、热门的角色,有点 IP 打榜的意思了
Proactive,这个词最近看到的频率越来越高。 无论是产品还是论文,能带Proactive全带Proactive。一切都越来越主动。 赶紧听首伍佰老师的 <被动> 缓缓。
#开源项目推荐:snapDOM:快速精准的网页截图神器 snapDOM 能快速且精确地将网页上的任何 HTML 元素截取为高质量、可缩放的 SVG 图片,完全保留原始元素的样式、字体、背景图片、伪元素(pseudo-elements)甚至是 Shadow DOM(一种封装于DOM元素内部的独立DOM结构,用于组件隔离和样式保护)。此外,它还能轻松导出为各种常见的位图格式和 canvas。 项目地址:https://t.co/OstR0LYMMc 演示地址:https://t.co/vpYNAXCG8G
Sam Altam 自己对昨天直播的解读: 昨天我们开了个直播。没看的朋友,这儿是“懒人包”: 我们定下了一组内部目标:到 2026 年 9 月,我们要搞出一个“AI 科研实习生”,它得能在几十万块 GPU 上跑起来;到 2028 年 3 月,我们要搞出一个真正的“自动化 AI 研究员”。 我们很可能实现不了这个目标,但我们还是得说出来。为啥呢?因为这事儿(如果做成了)影响实在太大了,我们觉得本着对公众负责的态度,必须保持透明。 为了保证AI不“跑偏”,我们设计了一个“五层防护网”: 1. 价值观对齐 (Value alignment) (确保AI的是非观和人类一致) 2. 目标对齐 (Goal alignment) (确保AI想做的,就是我们让它做的) 3. 可靠性 (Reliability) (确保AI在各种情况下都能稳定工作) 4. 对抗性鲁棒性 (Adversarial robustness) (确保AI不会被恶意“投毒”或欺骗) 5. 系统安全 (System safety) (确保整个AI系统本身是安全的,不会被黑客利用) 我们对一个叫“思维链忠诚度” (Chain-of-thought faithfulness) 的工具特别兴奋 (这玩意儿是用来确保AI不仅给出正确答案,还能诚实地告诉我们它是怎么想出来的)。不过它目前还有点“脆” (容易“翻车”或失效),还需要划定清晰的边界和抽象。 在产品方面,我们正努力转型成一个真正的“平台”。我们希望,未来绝大部分价值是由那些在我们技术上(比如我们的API或ChatGPT里的应用)搞开发的人和公司创造的。我们的终极目标是,提供一个“AI云”,能催生出巨无霸企业。 目前,我们已经承诺投入大概 30 吉瓦 (GW) 的算力 (1吉瓦约等于一座大型核电站的功率)。在未来几年的总持有成本(TCO,Total Cost of Ownership,指购买、运营、维护的总花费)将高达约 1.4 万亿美元。 砸这么多钱,我们心里有底吗?有。因为我们看到了模型能力和收入增长的喜人前景。我们甚至还想“搞得更大”——我们想造一个“AI工厂”,能以比现在低得多的成本,每周“生产”出 1 吉瓦的新增算力。不过,要实现这个“大跨越”,我们还需要对未来的模型、收入以及技术和金融创新有更大的信心才行。 我们的新架构(指公司结构)比旧的简单多了。现在是这样:我们有一个非营利组织,叫“OpenAI 基金会” (OpenAI Foundation),它负责管理一个“公共利益公司” (Public Benefit Corporation, PBC),叫“OpenAI 集团” (OpenAI Group)。一开始,基金会持有集团 26% 的股份,但如果集团(也就是这个PBC)干得特别好,基金会可以通过认股权证 (warrants) 来增加持股。这个“公共利益公司” (PBC) 的存在,就是为了能(像普通公司一样)吸引(比如融资)实现使命所需要的海量资源。 无论是非营利基金会,还是这个公共利益公司,我们的使命始终没变:确保通用人工智能 (AGI, Artificial General Intelligence) 惠及全人类。 这个非营利基金会(指OpenAI Foundation)起步阶段就承诺投入 250 亿美元,用于两大块:一是健康和攻克疾病;二是“AI 韧性” (AI resilience) (这个词有点新,它指的是所有能帮助社会平稳过渡到“后AGI时代”的事情,不仅包括技术安全,还包括研究经济影响、网络安全等等)。 而且,跟以前不一样,这个非营利基金会现在有能力真正快速地“撒钱”了(指把资金部署到位)。 我们预计,到 2026 年,我们的 AI 系统也许就能搞出点“小”的新发现了;而到了 2028 年,我们可能将见证“大”的发现。 这事儿非同小可。因为我们坚信,科学,以及那些能将科学成果广泛传播(让所有人受益)的机制,才是人类生活质量不断提高的终极法宝。
转译:这波裁员潮的背后,其实藏着两个截然不同的故事,而不是一个。 一方面,像亚马逊 (Amazon)、Meta 和微软 (Microsoft) 这样的科技巨头裁员,是为了筹集资金购买 GPU(图形处理器,AI 训练和运行所必需的强大芯片)。他们的收入在增长,股价在攀升。他们裁掉员工,是为了把钱腾出来,砸向“算力”。这可不是经济不景气时期的“降本增效”。这更像是一场被迫的资源重新配置——把发工资的钱,转投给数据中心。这笔账算得极其残酷:每裁掉 1% 的员工,省下的钱就能多买一批 H100(英伟达公司生产的顶级 AI 芯片,非常昂贵且抢手)。 与此同时,UPS、雀巢 (Nestle)、福特 (Ford) 和塔吉特 (Target) 这些传统行业的公司也在裁员,但原因恰恰相反。他们已经部署了切实有效的 AI(人工智能)工具。比如,客户服务自动化、供应链优化、生成式设计系统等等。AI 带来的生产力提升是实实在在的,而且还在不断累积。这些公司不需要自己去购买庞大的 GPU 集群(由大量 GPU 组合而成的高性能计算系统)。他们从“超大规模云服务商”(比如亚马逊 AWS、微软 Azure 或谷歌云) 那里租用“推理”算力(即运行 AI 模型得出结果),然后裁掉员工。因为现在这笔账(用 AI 替代人力的成本)终于算得过来了。 裁员的双方,都在喂养同一头巨兽。 科技巨头在疯狂“买铲子”(指购买 GPU 等基础设施,就像淘金热里卖铲子的人)。而其他所有人,则在购买用这些铲子挖出来的“黄金”(指 AI 带来的生产力)。 半导体公司稳坐中间,向整个产业链收取“租金”。台积电 (TSMC)(全球最大的芯片代工厂)、英伟达 (NVIDIA)(GPU 的主要设计者)和阿斯麦 (ASML)(制造顶级芯片光刻机的唯一厂商)正在疯狂“印钱”,而产业链的两端(科技公司和传统公司)都在大量裁员。 这个发生的时间点至关重要。目前,企业对 AI 的采用率大约是 10%,并且正朝着 50% 迈进。历史经验告诉我们,这个阶段(从早期采用到主流普及)的发展速度最快,创造的财富也最多。 但问题是,这些财富正集中在“算力”上,而不是“劳动力”上。企业的“市值”(即公司总价值) 增长与普通人的“工资”增长之间的鸿沟,从未像现在这样巨大。 这不是一场经济衰退。这是一场“再平衡”(即经济结构的根本性重塑)。而大多数劳动者,不幸正站在了天平的错误一端。
感谢昨天几位朋友特意从多伦多和湾区飞来温哥华参加@allscaleio 的投资人与合作方的private dinner! 在加拿大十年,知道本地科创生态的特点和局限性,能够有一群有passion/commitment/belief的朋友是很难的。有机会把我们在“村里”一路的支持者聚在一起是一个很lucky的事情! https://t.co/tx0ZQoGFpJ
我的版本: 2023年是 Chatbot 元年。 2024年是 Reasoning model 元年。 2025年是 Agent 元年。 而 2026 年,拭目以待,我不知道,还是不瞎猜了……
复利投资, 对我这种普通人来讲 没啥价值, 你也不用和我讲 如果每天1%的收益 一年以后有多少 对我来讲我有50w 可能通过复利投资很多年以后才可能变成5000w 这对于我这个年龄的年轻人来讲都不现实。 什么对我最现实? 明天有一个事情可以让我赚200w 这件事情最现实。 而且还有可行性。
Cursor 发布 2.0 重大升级,看来这次想一扫颓势了 包含自己训练的编码模型 Composer,以及支持 Agent 并发的新界面两部分👇 首先是他们自己训练的代码模型 Composer,匿名内测时反响不错: - 速度比同类型模型快 4 倍 - 专为中低延迟的智能体编码而构建 - 大多数轮次可在 30 秒内完成 - 使用 MXFP8 训练所以速度很快 然后是新的多智能体界面: - 不在展示具体的代码,以展示 Agent 操作为主 - 并行运行多个 agent,互不干扰 - 简化快速审查 Agent 所做更改的流程,提高速度 - 增加内置原生浏览器,使 Agent 可以读取测试信息 目前新界面和模型均已上线 Cursor
我也吐槽一个它们官方的例子,我去测试了一下它们的hello world,首先是配置有问题跑不起来,需要手动修改 然后它默认是"opus"模型,我好不容易调通,写了一个“hello",然后它给我回了一条消息,我一看 $0.21,卧槽! https://t.co/xlOt4DYbHT
涂鸦,是思维的写作 写作,是思维的涂鸦 感谢整理在一起 我们的设计师沉浸画了好几天 原始插画可访问官网欣赏 产品内部还有不少插画 去看看👇 https://t.co/iBWX44qGHJ
坚持做视频的人肯定不仅仅是因为收入,还是得有热爱。如果你是内容消费者,你永远不知道几分钟的视频,背后创作者可能得花好几天,甚至好几周。 我这种动辄一小时➕的 Vibe Coding 教程,你也不知道录制成本有多久。我从下午 2 点一直录制到了凌晨,好的现在你知道了🥱 明天还得剪辑,周五还有个甲方爸爸的脚本 DDL🥲
喜欢 YouMind 的设计风格,尤其是很多手绘涂鸦风的插画。 涂鸦不在于画得有多好看,价值更多体现在涂鸦这个过程。写作也是,每一次记录与生成,都是一种思维的涂鸦。随性而真,帮助我们在表达中获得新的洞察。 https://t.co/TmGana4hgh
今天出门忘带吹风机了,美团下了一单刚刚送到,60 块就买到了 2000 块的代深,就问你强不强。 王总是我 18 岁时的偶像,果然我当年没看错人😅 https://t.co/KFlOtR6uTa
