🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

理解内容的人,其实不用看平台爆款数据 人性千百年来没有变过,做内容的方法论,早在互联网还没出现的时候,就有了

要怎么赚到钱?首先要有个基本概念,知道属于你的那一份钱目前在谁的口袋里。 欢迎参与人类历史上最庞大最伟大的财富转移工程!想清楚这个问题,明年就不说奔驰宝马了,最起码也是揽胜行政加长!

很多人觉得国内做程序很麻烦,app要软著,网站要备案,接不了海外模型,也得备案 别灰心,办法总比困难多 比如你真的想做Nano Banana套壳,你可以考虑做插件 浏览器插件,PS插件,各种插件生态都可以研究一下 路被堵死的时候,换一条路,也能到罗马

你做的Agents产品,智能来自哪里? Agents的智能,从信息获取渠道的内部和外部来看,内部有两种方式,外部有两种方式 内部方式一:提示词工程 AI可以通过优秀的提示词获得智能,好的提示词能拓展Agents的智慧,比如让Agents使用后退提示,这个Agents就会更具备独立思考能力 内部方式二:领域专家外部构建知识 这个往往都会做,尤其是做垂直领域agents的,专家会构建信息库,通过RAG/SFT摄入,让LLM引用专家知识来增加智能,但往往这种专家的智慧其实也是很有限的 外部方式一:与现实世界的交互 通过与现实世界交互后得到反馈,收集到正确的信息 比如你要收集一些信息,你可以让Agents去搜索,写邮件,甚至打电话,获得对应的信息,使用信息后判断成功或失败,有效的信息会增加成功率 外部方式二:专家用户的上下文 同样的AI,专家用户提供的上下文会令AI开启智能提高成功率,通过专家用户的高成功率对话,会获得经验数据,利用这些经验数据优化提示词/RAG/工具/SFT,同样也可以获得智能 接下来问题来了,如果你做一个AI产品,内部的方法你基本都会做,但如果你的产品早期本身就面向专家用户,你就会多了很多智能数据,那理论上你就会在相同的情况下比其他AI企业更可能快速获得智能 类比回来,比如你要做一个AI瑜伽教练,可能你有两种选择: 1、做广泛受众提供情绪价值 2、做专家受众,帮助专家去给用户制定计划,或帮助专家生成报告等等 第一种路线你可能很快获得用户和付费 第二种路线你会更快获得智能的Agent 因为大众大多数面对一个对话框都不知道说什么,也无法判断Agents的结果 但专家用户不是,他们会提出明确的要求,也有很强的判断力,这些都辅助Agents变得更加智能 那有人会怀疑,专家的需求和大众不一样吧?交互也不一样吧? 其实殊途同归,因为人的懒惰是一样的,对简单的需要也是一样的 这些都可以利用LUI+GUI的方式结合解决 但人们对Agents输出的要求,是不一样的 大众用户不会评估这个瑜伽coach的专业度很高,因为他们没有辨别能力 他们只会觉得在快坚持不下去的时候那两声加油是很好的 但专家用户不是这样的 所以如果你想做个很好的Agents,我觉得它应该先服务好专家用户 如果它能服务好专家用户,它就一定能超出大众预期

flowith 更发布了一个非常大的交互更新他们叫 Context playground,前 200 个跟原推互动的还送会员 你现在可以自由的拖动和复制,还能选择 flowith 画布中的每个节点和元素作为上下文。 另外如果发现 AI 输出结果有问题,你可以直接在展开的侧边栏编辑节点内容更正,这对于图片文字都适用。 新 UI 也符合他们一直良好的审美,推荐试试。

哎,以前某个聚会上认识的一个小网红现在下海去干商K了,就是放不下原本富丽堂皇的生活,我和她说了你不要去,原本很清纯的现在打扮的真的我都不知道怎么形容。只能祝她好运吧,敬而远之。这个社会不会好了。

🙏 新 App 刚提审,7 分钟就进审核啦,希望能一把过!#Connect

尝试了一下新的 AI Coding 产品 Verdent,据说是 TikTok 前算法负责人出来创业做的,可以把它看作是一个可视化增强版 Claude Code,支持 DiffLens、 MCP、支持同时并行运行多个 agent、subagent、内置编辑器和终端…… 谁说 CLI 才是未来,明明 GUI 更好用更方便嘛。 https://t.co/fMhwWV1Yj1 https://t.co/qbSQoRLHY8

数学大师陈省身:不要考第一 给中科大少年班的题词 反直觉但关键:短期vs长远 避免过度应试 他反对将学习目标局限于追求满分,认为过度关注考试成绩会让孩子陷入机械训练,忽视对知识本质的理解和创造力的培养。例如,为考100分反复练习细枝末节,可能浪费时间和精力,反而阻碍长远发展。 保护好奇心与创造力 陈省身强调学习应源于内在兴趣,而非外在压力。过度追求高分可能压抑孩子的探索精神,使学习成为枯燥的“刷题”过程。他主张让孩子在宽松环境中自主思考,保留对世界的惊奇感,这对未来创新至关重要。

人类有了火,但还没有玩转它 理念真空与推演真空 今天的困境在于,我们已经拥有了 AI 这团“火”,但却处于理念真空与推演真空之中。理念真空意味着缺乏新的概念体系与价值叙事来承载这股力量;推演真空则是没有可验证的方法论,人们只能在旧语言的框架下勉强描述新的现象。就像远古人类发现火时,只会照明和取暖,却不知道如何系统地利用它。面对这样的空白,新的写作与推演就必须承担起“方法论生成器”的角色,把火从偶然的工具变成秩序化的文明基础。 你关注的AI初创企业,从2年前到现在的,还剩几个了? 一方面,大批初创企业试图乘着 AI 的热潮创业,但超过 95% 以失败告终。他们往往只是把大模型简单地“包一层壳”,做一个应用或者工具,却缺乏更深层的理念支撑与方法论推演。结果是,产品没有核心价值,生态缺乏粘性,很快就被淘汰。 另一方面,大模型的落地应用遭遇瓶颈。很多用户虽然惊叹于模型在对话、写作上的能力,但在聊完天之后却茫然无措,不知道还能做什么。换句话说,大模型释放出了“火”的潜能,但没有与之匹配的“用火之道”。 这恰恰说明:没有理念和推演,光有火种无法形成文明。当下的问题不是大模型能力不足,而是社会缺乏一套新的叙事和方法去承载、引导和扩展它。写作与推演的重要性就在这里——它们是方法论的生成器,可以将零散的功能场景整合为系统性的结构框架,把“会聊天的机器”转化为“推动结构性变革的工具”。 成为真正的”火“,必须完成”基础设施“的升级 这实际上已经触及到一个更宏大的社会层面的问题。我相信,像 Sam Altman 这样的 AI 顶流人物是清楚的,但真正要解决,可能需要整整一代人的努力。问题的核心在于:我们正处在 协议缺失 的真空地带。 今天的大模型提供商们,有的把 LLM 当作一个 产品(LLM as a Product),强调功能封装、场景应用;有的则把 LLM 当作 原材料(LLM as a Raw Material),强调作为底层能力供他人调用。两种模式看似都合理,但它们背后的社会意义和发展路径完全不同。前者对应的是“应用工具”的逻辑,后者则预设了 LLM 将会像 电力 一样,成为未来的基础设施。 如果要真正跨越到“LLM 等同于电力”的那一步,人类社会需要的不仅仅是技术迭代,而是一整套 社会认同、立法体系、基础设施建设 的跟进。换句话说,AI 的未来不是单靠几家科技公司能决定的,而是整个社会制度要与之对齐。从标准制定、法律约束,到行业协议、教育体系,再到全球性的治理框架,缺一不可。这些工作量是 成指数级的浩大,是“翻越整个大陆腹地”的级别,而不是几家创业公司或者一个研究团队能搞定的。所以其中也会诞生指数级的机会。这就是这代年轻人的机遇。 换个比喻:现在我们手里已经有了“电”,但社会还没建好“电网”,没有统一的插座标准,没有定价体系,没有用电的法律规范。要让大模型真正像电力那样融入社会,成为新的文明基础设施,必然要经历一个漫长、复杂、甚至伴随冲突的制度性建设过程。 我在这篇推文里: 我畅想一个AI基础建设完备,但是又有清晰应用边界的未来:如同电力 https://t.co/bEQkCZUAY9 AI 的瓶颈不在于能力本身,而在于人类社会如何建立配套的协议和制度,把“模型”从新奇的玩具,真正转化为和电力同等地位的基础设施。 如果没有 全民众级别的普及与参与,单靠技术圈内部“画饼”,是无法推动大模型真正跨越到基础设施层面的。技术人可以不断迭代模型、描绘未来蓝图,但这些努力如果脱离社会认同,就很容易停留在圈层自嗨。 历史上类似的情况并不少见。电力、互联网、移动通信,哪一项不是在完成了从实验室到全社会普及的跨越之后,才真正成为文明的底层设施?这中间不仅需要技术突破,更需要 制度化的普及:教育体系把“电学”纳入基础知识,法律体系规范用电与安全,公共投资建设电网与电厂,直到每个家庭都能用上电,电才真正“无处不在”。 AI 也是同样的逻辑。技术圈可以先行一步,但最终的落地需要 广泛的社会参与: 认知普及:普通用户要理解 AI 能做什么,不能做什么; 制度跟进:立法、伦理、治理要对齐新的风险与机会; 文化接受:社会要形成一种“与 AI 共处”的新常态,而不是恐慌或排斥。 没有这些全民层面的参与,再先进的模型也只能在技术圈内部自我循环,很难成为真正的文明级基础设施。 大模型能否像电力一样进入社会,不取决于技术本身,而取决于全社会的普及、认同与参与。 更重要的是,大模型本身的语言能力,恰好提供了前所未有的低门槛普及工具。过去新技术的传播往往依赖专家解读、课程设计、媒体中介,成本高、速度慢;而现在,大模型能够直接用自然语言与任何人沟通,随时随地扮演“解释者”和“翻译器”。这意味着 认知的传播变得既容易又低廉,理论上可以像“普及扫盲”一样,把 AI 的理解快速渗透到社会的各个角落。 换句话说,大模型不仅是需要普及的对象,它本身也是普及的手段。这种双重角色,正是它能否从“技术圈的新玩意儿”走向“文明级公共设施”的关键。 技术圈中有人需要从事传播者的工作,将艰难晦涩的语言,大众化,平白化。并且在各行业,各人群中适配AI的最佳用法。 传播者的核心职责 翻译:把艰深的技术语言、学术话语,转化为大众能理解的日常表达。 不只是简化,而是要做到“去除术语的同时不损失本质”。 普及:面向不同的行业(医疗、教育、法律、艺术…)和不同人群(学生、职场人、创业者…),设计各自能理解的入口和案例。 让 AI 不只是技术圈的讨论,而是成为广泛可用的工具。 适配:针对不同群体,提炼出他们与 AI 的最佳交互方式。 医生需要“辅助诊断+文书整理”,律师需要“条款对比+案例检索”,教师需要“备课+答疑”,普通用户需要“日常助理+学习伙伴”。 传播者要做的是:帮他们找到最短路径,而不是让他们困在术语里。 (4/n)

新站,曲线还算不错。对应 google search console 的,是同样不错的 Stripe 曲线。 MRR 也破 1000 刀了。 https://t.co/Dif2uk6Vkk

最怕遇到的问题是:跟着你的教程走,我多久能学会? 通常我会回答:这取决于你的个人学习能力 但这个回答只是一个体面的应付。实际上真实答案是,学的快的只需要5分钟,学的慢的需要一辈子 而提出这个问题的人,大概率是后者

评价任何技术的正确方法:比较其与物理学定律的极限 不是与竞争对手相比较 ——马斯克/第一性原理 https://t.co/te9aEqDAjt

从今天开始,我会把PMF抛到脑后,只谈论MPF 产品市场契合度,听起来很合理 但它有一个致命的问题:我们把马车,放在了马的前面。 我们应该做的,是先专注于问题和市场,然后再去寻找解决方案。 这个常见的错误,就是为什么我更喜欢用“市场-产品契合 (Market-Product Fit)”,而不是“产品-市场契合”。 语言,会塑造我们的思维。 当你把“市场”放在前面时,你会强迫自己先去思考那个存在于市场和用户脑海中的、真实的问题,而不是那个存在于你产品里的、臆想出来的解决方案。

太惊喜了,在罗永浩和周鸿祎的对谈中,发现了我自己被提到。约等于上罗老师的节目了! 网上有一个人,叫 马东锡 NLP , 你可以交一下这个朋友! 开心! https://t.co/ON7RiTImpQ

很多人不知道去哪里体验国产最强“Veo3”,通义万相2.5 preview ① 夸克造点 https://t.co/z3xtSgOka0 ② 通义万相平台 https://t.co/zIMEnbZuBm 测了几个case,丝毫不比veo3差,国内在图片和视频生成领域,均已达到国际顶级水平。

抖音现在 176w 播放 这条给我干到 30w 粉丝了

来云栖大会还是想聊聊大模型。今年模型卷出了新高度,Qwen 系列本身就已经挺出圈了,原本以为这次发布也就是常规的体量升级和行业对标,结果发现 Qwen3 系列,特别是 Max,还是让我有点小佩服了,真的出了不少东西。 尤其是 Max 的推理机制的提升,作为从业者真的要要开始重新评估国产大模型在业务系统中的组件可用性这个核心命题。 这次Qwen3-Max 两个形态,Instruct 负责对话和常规能力覆盖;Thinking 强化的是多轮推理与复杂任务拆解。其实我不太关心万亿参数规模,我一直盯着它在推理时间可控性上的突破。 这也是过去很多人会忽略的一个重要维度:一个模型在回答问题前到底思考了几次。Qwen3-Max 的这一机制有点像拿根小鞭子抽模型,你让它想清楚再说,它就真能多推理几步。这种在认知深度与决策稳定性上的改进跟我们常讲的 token-level 性能优化不一样。 我对这种变化太敏感了,说明国产大模型终于开始在推理策略层面与 GPT-4 进行对线,而不只是死磕规模了。 这次阿里也给出了一组有力的国际 benchmark 数据,像 AIME25、HMMT 这些数学推理集做到了全球第一。还有 Tau2 Bench这种专打多轮 agent 任务的也都表现不错,这种需要强路径规划和中途保持稳定意图的,我非常关注。 尤其值得一提的是 Qwen3-Next 这个高性价比压缩版,非常适合做低成本部署的智能问诊 / 客服助理。这类模型基本没机会拿 benchmark 冠军,但在真实业务里却是性价比的首选(划重点)。 所以我们看 Qwen3 的整个产品线就非常清楚了:端侧、旗舰和多模态等等全家桶几乎覆盖了所有我们能想到的调用场景和系统部署边界。这种模型系统化战略我是非常认同的,Agent需要靠角色分层+功能分布+推理调度这种架构才能真正构建稳态系统。 我的判断是这代 Qwen3 在试图做更可控、更系统的智能体构建平台。这一轮升级可能就是最产品经理视角+工程视角合理进化的一次,尤其对我们这种偏落地场景、智能体调度的人来说真的很实用。 最后我们选择接入哪个大模型就看谁能稳稳的出活。Qwen3-Max可能是国产模型离这个目标最近的一次。 #阿里云 #通义千问 #Qwen3 #2025云栖大会

我再也不用刷到深夜找热点。 把 Trend Finder 挂上,AI 秒扫 200+ 大 V 推文和官网更新,真正起风就 Slack 喊我。节省 3 小时,灵感先人一步。 https://t.co/4VdiXROS7W

阿里这也太猛了一口气在云栖大会发了超多模型。 其中最重要的是 Qwen3-Max,目前通义规模最大能力最强的模型,包含 instruct 和 thinking 两个模型。 测试集的数据有点可怕,根据他们的测试能力水平已经接近 Claude 4 Opus 和 GPT-5。 在 LMArena 上人工评价结果仅次于 Gemini 2.5、Claude 和 GPT-5。 SWE-Bench Verified 编码测试集上达到了 69.6 分,智能体测试集 Tau2-Bench 上甚至超过了 Cluade opus 4. Qwen3-Max-Thinking 在数学基准 AIME 25 和 HMMT 上获得了满分,目前还没上线。 模型总参数超过1T,预训练使用了36T tokens。 训练稳定性上没有任何loss尖刺,也没有使用训练回退、改变数据分布等调整策略。 其MFU相比Qwen2.5-Max-Base相对提升30%。使用ChunkFlow策略支持了一百万上下文的训练。 同时在训练时也对硬件做了优化,在超大规模集群上因硬件故障造成的时间损失下降为Qwen2.5-Max的五分之一。

几乎所有平台都一样,曝光量过了百万之后,来的就不是正常人了 疯子 傻子 喷子 三选一 为什么很多内容平台不把人当人呀,他们在后台看见的那些东西,就很难让他们把人当人看 远观,我们可以指责他们不食烟火 近看,让你去干这个事儿,保不齐你比他们还过分

Figma 正式推出了官方的远程 MCP 服务器,现在不需要安装 Figma 客户端 只需要在支持的软件比如 Cursor、Cluade code 里面添加,并在打开的网页里面完成账户授权就行 而且现在设计组件和前端组件的映射信息也可以通过 MCP 获取到,如果你的团队有设计系统的话,然后你的设计稿组件采用程度高 前端可以一键用 AI 生成全部的前端代码,而且保证高还原度,设计师和前端协作会到一个新的时代

买了人生第一笔BTC,纪念一下。 准备每周定投500刀看看效果

一年一度的云栖大会,吴泳铭开场这场就扔了个长线炸弹“AGI只是起点,ASI才是终极目标。” 直接把话题拉到了“超级人工智能的三阶段进化路线” 这个提法我还是第一次在国内大厂 CXO 层面听到这么系统地说。 跟我的判断一样,阿里云真的在按操作系统的方式做 AI。如果说 OpenAI 和 Anthropic 还在强调模型智能,阿里现在直接开始讲系统调度和电网级布局了。 他讲 AI 的三阶段进化路径: 1)智能涌现,2)自主行动,3)自我迭代。 这条路径其实暗含了一个判断:人类对 AI 控制权的下沉,是随着“数据-工具-反馈”这个三元系统一点点转移的。越往后,AI 自主权越强,人类在链条上的必要性越低。 常年做 Agent 系统的人真的很有体感,从workflow到agentic,真正的自我推进式 AI,从系统设计上还远远没做好。 “自主行动”这一阶段我觉得非常关键。吴说核心是 Tool Use + Coding + Agent,这一段我直接脑补公司正在构的 agent 编排平台的最大痛点就是:模型能调用工具,但不会判断工具是否合适;能 coding,但缺少代码行为的后果感知。 现在大多数系统都停留在调用工具这一层,有开始往下延伸到 agent 能否规划子任务、能否收集结果反推 prompt 的部分,但做的都一言难尽。 所以他说:“未来,自然语言就是 AI 时代的源代码”,我个人非常认同,但补一句:要让自然语言真的成为源代码,Agent 必须会调试自己。 然后讲到第三阶段自我迭代,我能关联到开头asi,这是真系统了。 吴用了“连接原始数据 + 自主学习”来解释这个阶段,说白了就是 AI 不再靠人类喂数据,而是能像机器人那样自己感知世界 + 自己训练自己。 我们现在做的 AI 训练,几乎都是在 人类整理后的结构化结果上精调,你从来不给它原始混乱数据,后训练时代也鲜有加入做错后的直接代价。 但没有代价,哪来迭代?没有原始世界的反馈闭环,AI 只能永远在 沙盒里复读旧人类。 所以才有了模型为了输出一个所谓的答案,全是幻觉。 (未完)

Cursor 的新官网太顶了 所有的 UI 部分全都可以操作,非常直观的演示具体的功能 无障碍也做的很好,所有的部分都可以用 Tab 键选中和跳转 https://t.co/jh9u8jEgmI

从谷歌里开的 NoteBookLM 产品创业项目公布了,一个个性化的 AI 播客 APP Huxe 具体可以创建: 每日简报:为你量身定制的早间更新。邮件、日历、新闻通知播客。 实时电台:关于你关心主题的持续更新音频流。各处抓取信息,保持最新,从不重复。 深度播客:基于 AI 自动生成的播客,主题完全由用户兴趣驱动。主要面向专业内容和深度知识。 无需用户主动搜索或者提示词,根据用户上下文和兴趣自动生成和推送相关播客,而且有文本、音频、图片多种模态的内容。

麦肯锡调研了50个基于AI智能体(AI Agent)的真实项目,深入分析了它们最常见的失败之处,并将其提炼为以下 6 个关键因素——这对于每一位 AI 工程师都至关重要: 1. 重要的不是智能体,而是整体流程 别光想着做出让人眼前一亮的智能体(Agent),那些看起来很酷的“小玩具”未必真的实用。实际工作中,我们要做的是设计一个完整的系统,而不是炫耀技术。 2. 智能体不是万能解药 并不是所有任务都适合用智能体去解决。像那些变化少、可预测的简单任务,直接用传统规则或机器学习(ML)就行了。如果强行用上大语言模型(LLM),反而会增加复杂性。 智能体真正适合的是那些杂乱无章、变化极大的工作流程,比如从复杂的财务报表里提取信息,这才是真正体现智能体价值的地方。 3. 别制造“AI垃圾”(AI Slop) 别沉迷于表面光鲜的演示Demo,而是要像培养新员工一样认真对待你的智能体。为智能体制定清晰的岗位职责,不断进行培训、测试和改进。这种长期发展的眼光,远比秀几个酷炫的演示更重要。 4. 盯紧每个环节,而不是只看最终结果 如果你在没有充分监控的情况下盲目扩大智能体规模,很可能发生隐秘的灾难。你需要清晰地追踪工作流中的每个环节,这样团队才能及时发现错误,迅速修正逻辑,防止系统彻底崩溃。 要知道,出错是一定的。但只要跟踪到位,你就能准确找到问题在哪,下一次不再犯同样的错。 5. 能复用就别重复造轮子 很多公司经常在开发一次性的智能体,浪费大量资源。聪明的做法是把智能体的功能拆成模块,比如数据导入(ingest)、信息提取(extract)、验证(verify)、分析(analyze)等。这些模块可以在不同的场景反复使用。 麦肯锡的研究发现,这种复用策略能帮你省掉30%–50%的重复工作,效果绝不是开玩笑。 6. 人类依然不可或缺,但角色正在改变 智能体擅长解析数据、自动化和规模化执行任务,但人类的价值在于判断力、处理特殊情况和创造性地解决问题。 未来的竞争并不是“人类 VS 智能体”,而是“人类 + 智能体”的完美组合。 以上六点,都是很多公司在开发AI智能体时容易犯的错误。这些陷阱一旦踩中,可能会严重损害企业的名誉和资源投入。 但现在你已经知道如何避免了。 🧵 原文链接和全文翻译见评论

特别感谢ban总,从大理出来一个月了,用学到的东西拿到了太多成果。 和任何没赚过钱的人一样,期间踩了无数的坑,幸亏在大理学到的方法论让我从一个又一个坑里爬出来,赚到了钱。 刚出大理时,我趁记忆新鲜,把学到的核心记下来,放在了小报童,我赚钱全部是靠这一篇文章记录的方法。 之后还会持续更新,因为已经有很多好消息,没来得及和大家分享。之后我踩的坑和教训也都会记录下来,我想这对任何和我一样的小白来说都是最宝贵的经验和指导。当然,毕竟是ban总的真传,任何身家低于10位数的都能从中学到点什么。 订阅是终身制,如果你知道我接下来的计划,那你肯定知道现在上车是未来几十年的低点。

Wan Animate + Runway Aleph + Nano Banana + 调色 AI 视频现在这个质量用在电影上可能不行,用在网剧、短剧、电视剧这种我感觉已经相当够用了 https://t.co/QqFtRhM0FK

十年前,一个朋友拉我买BTC,还给了我1w块。让我入场,前两天问我当年上车了吗,他在后悔自己卖的太早了。 而我,看着自己昨天刚注册的币安账户,默默和他说,和朋友一起去商K唱歌花完了。

个人心力极其有限,从一而终 选有指数型增长潜力的事情 https://t.co/tEBPlzCu7X

作为一个不会写代码的产品,我做了第一个 Mac App 🎉 Claude Code Now —— 在系统的任何文件夹,一键点击,CC启动! 设计理念: Claude Code 并非只是一个开发工具,而是一个广泛的通用型 Agent。 它可以帮你分析文件、移动文件、整理文件。 它可以基于你的 Obsidian 数据库进行分析、总结、提取洞察。 但是启动 Claude Code 的过程还是太繁琐了,终端、cd、确认权限。 我们的目标就是一键启动,丝滑享受,跳过输入和确认。 于是我做了这款极简的 Claude Code 一键启动器,专为 macOS 设计,可以在任何文件夹快速启动 Claude Code。 它用起来,甚至比 ChatWise 更方便,因为不需要把文件拖动进去啦。

发现了!最强语音转写神器藏在Lenny大礼包 Lenny大礼包里有个叫granola的应用。 原以为就是做会议纪要的AI工具,平平无奇。 钉钉、飞书不是都有AI会议纪要? 直到看前同事 zara的用法才知道。 不止会议,任何音视频,它都会后台监听转写文本。 一键摘要总结(支持自定义Prompt) 可能是最好的实时语音转写 + 笔记工具。 注意事项: 1. 会提示不支持Google账号个人版,只支持企业,忽略掉就行,其实还是能安装的。(可能是某个功能不支持) 2. 默认只支持英文,但其实可以通过提示词必须用中文总结。

Sahil Bloom: 靡不有初,鲜克有终 太多的半途而废 太少的坚持到底 https://t.co/AzuoS6v3ZE

一个暴论:以后会有越来越多的零基础人,成为程序员或者设计师,而现在已经是这个职业的人,不应该成为他们的拦路虎,而应该成为引路人

一个人厉害,不是因为他手里的工具多牛,而是因为他的执行力、眼光和意识。就算不给他 AI,他还能用自动化、找人帮忙,甚至上淘宝都能解决问题。真正起决定作用的,从来都是人,不是工具。

Sam Altman: 智能富足的时代(Abundant Intelligence) 过去一段时间,AI服务的普及速度已经非常惊人,但在未来,我们认为AI的扩展速度将更加令人震撼。 随着AI的能力不断增强,获取AI服务的能力将成为经济发展的关键动力。也许有一天,我们甚至会认为使用AI是一项基本人权。因为几乎每个人都希望有更多、更好的AI为自己服务。 不过,要实现这样的愿景,我们需要大量的算力。一方面,模型的运行需要推理(inference)算力;另一方面,模型的升级则需要训练(training)算力。只有这两种算力同时满足,我们才能不断创造更聪明的AI。因此,我们正在着手打造一个规模庞大的AI基础设施,以满足未来算力的巨大需求。 如果AI继续沿着我们预测的方向发展,就会带来许多令人惊叹的可能性。比如,如果我们拥有10吉瓦(gigawatts)的算力,也许AI就能找到治愈癌症的方法;又或者用这10吉瓦的算力,AI可以为地球上的每个学生提供量身定制的个性化辅导。如果算力不足,我们就不得不在这些伟大的目标中作出选择,但没有人愿意面临这样的困境。因此,我们的答案就是:放手去做,把算力建设起来。 我们的目标简单而明确: 每周建成一座能够提供1吉瓦全新增量算力的“AI算力工厂”。 当然,这个愿望的实现过程将会非常艰难。我们可能需要花费数年的时间,攻克从芯片研发、能源供应,到建筑设计、机器人技术等一系列难题。但我们对此充满信心,并且相信,这将是人类历史上最酷、最重要的基础设施项目之一。 特别令我们兴奋的是,我们希望能将大部分设施建造在美国本土。目前,世界上一些国家在芯片制造厂、新能源设施等基础建设领域的发展速度远超美国,我们希望通过这个项目,扭转这一趋势,帮助美国重回领先位置。 在接下来的几个月,我们将陆续公布更多关于这个项目的细节,并介绍与我们合作的伙伴。今年稍晚,我们还会分享我们如何筹集建设资金的新方案——考虑到算力规模的提升本身就意味着收入的增长,我们为此准备了一些非常有趣的新思路。

早上刷牙听播客,我再也不错过 HN 神帖! AI 每天把热门文章抓成中文摘要,再用 TTS 读给你,10 分钟搞定全球技术圈。开源即用,RSS 同步,耳机一戴,知识自来。 https://t.co/pIBiuO6BAr

Claude Code 能做的事情比 Cursor 多太多了 什么是 context?你的电脑本地文件夹就是最好的 context。 不管什么文件夹,需要增删改查,直接一个 CC 启动。

队友:那谁谁谁离婚了。 我:嗯? 队友:嗯,哎。 我:....和我有什么关系?我怎么发现谁谁谁离婚全是你告诉我的,还专门来告诉我。 队友: 感慨一下。 这个问题嘛,实质是感概+庆幸+自我安慰+“我”/我队友居然还不错+lucky me....

人类一直在用符号解决空间问题啊 几天前我这条帖子说: 大语言模型其实是大符号模型 https://t.co/lH7qhxduNz 符号不要和语言对等, 比如我这个擅长符号的人的确吵不过以前深圳城中村菜市场的东北大妈。她骂我那是她说10句我1句,她的10句还全押韵。 其实人类经常用符号规律去解决“空间问题”,打个比方:积分。 积分的本质是空间测度问题:一块面积、一段弧长、一个体积,本来是直观的几何量,但我们没法直接数无数个点或小块。于是人类发明了符号——∫、dx、变量代换——把不可操作的空间直觉转译成可操作的符号规则。空间问题就这样被“符号化”,可以在纸上、在心里,被操控、被推演。 再比如傅里叶展开。一条任意的函数曲线,本质上是空间中的形状,但我们用符号 e^inx 或 cos(nx),sin(nx) 来表示,把曲线压缩成“频率成分”的代数组合。空间的复杂性被符号规律折叠,之后就能像操纵积木一样组合、运算、预测。 所以当我们说“大语言模型是大符号模型”,意思是它也在做类似的事: 它并没有直接“看见”空间或现实世界; 它是在巨大的符号网络中,调度、压缩、重组; 符号一旦足够丰富,就能间接解决空间问题、物理问题、社会问题。 换句话说,人类用积分符号去算面积,大模型用 token 和 attention 去算意义,它们都证明了一点:符号是人类与世界之间的空间代理器。 如图所示,再“怪兽”的积分方程背后也有它的空间本体。就像参加 Integration Bee,表面是在做积分运算,实质上是在不同阶段不断调用、切换和嵌套符号规则,把一个几何或物理直觉的问题逐步转化为纯粹的符号操控。它的魅力正在于让我们意识到,人类解题的过程并非直接依赖“空间直觉”,而是通过训练在符号层面进行高速跳转与组合。 https://t.co/KRtUOdtZDV 这恰好和大语言模型的能力高度同构:它并不是直接理解现实世界,而是依靠符号网络去构造规律的代理。只要符号系统足够丰富、足够灵活,原本属于空间的复杂问题,也能够在符号域里被压缩、迁移和解决。 判断你的孩子是不是符号天才,这个很简单。一般都:爱玩填字游戏,有可能魔方她就玩不转。喜欢代数,密码解码。如果能学会积分,特别爱玩解积分。爱玩语法,喜欢从句套从句,虽然现实中没有任何英国人这么说话。

「 Agent, LIMI, Working AI 」 “别想太多,干就完了”。 LIMI (Less Is More for Intelligent Agency),使用 78 个精心挑选的样本来训练模型,在 AgencyBench 上,表现优于使用超过 10000 个样本训练的模型。 LIMI 证明,在训练执行具体实际任务的Agent时,Autonomous Agents 的自主性,也许更多来源于更贴合实际具体场景的Trajectory,而非单纯scale-up的数据。 From thinking AI to working AI. 作为干活的牛马 Agent, 别想太多,干就完了。

一边听钢琴一边读马洛伊,让自己的内心安静一点。 最近单曲循环这首: https://t.co/BQCiK5qIQM https://t.co/namx9IZJPx

自媒体业务的理想终局是,让平台上的人在你这只分为两种,一种是关注你的粉丝,一种是被你拉黑的 所以算法的作用就是让你的内容在这个池子里不断地跑,不断地触及更多的人,把他们分类为拉黑 or 粉丝 不过更通常的情况是,因为有些人对你的内容完全不感兴趣,他们既不想冒犯你,也不会关注你,这时候无论你发什么内容,你的粉丝都不会再增长 这也是为什么视频号上没有过千万粉丝的账号 这就是这件事情的真正终局,就是你开始意识到现在的内容路径无论如何都不可能再增长 这件事情就画上了一个圆满的句号

现在用 AI 开发网页应用,一个痛点就是 AI 看不到网页运行情况,需要去 Chrome Dev Tool 手动截图,但现在有 Chrome DevTools 的 MCP 工具了,可以集成到你喜欢的 Coding Agent,比如 Codex、Claude Code、GitHub Copilot,这样这些 Agents 可以直接使用 Chrome DevTools 调试网页。 安装方法和常用提示词如下: ------- Chrome DevTools 为 AI 智能体推出 MCP 协议 | 博客 作者:Chrome 开发者团队 今天,我们正式发布了 Chrome DevTools 模型上下文协议(Model Context Protocol,简称 MCP) 服务器的公开预览版。通过这个新工具,你的 AI 编程助手将可以直接使用 Chrome DevTools 强大的调试功能,极大提升网页开发效率。 很多 AI 编程助手都存在一个基本的缺陷:它们并不能看到自己生成的代码在浏览器中的真实运行状况,就像是闭着眼睛写代码一样。 而 Chrome DevTools MCP 服务器的出现,彻底解决了这个问题。AI 智能体现在能够直接在 Chrome 浏览器中调试网页,享受到 DevTools 的调试功能和性能分析能力,这能有效提高它们定位和修复问题的准确性。 你可以观看下面的视频,直观感受一下: ⸻ 什么是模型上下文协议(MCP)? 模型上下文协议(MCP)是一套开源标准,专门用于将大语言模型(LLMs)与外部工具和数据源进行连接。而 Chrome DevTools MCP 服务器正是利用了这一协议,为 AI 智能体带来了浏览器级的调试能力。 举个例子:Chrome DevTools MCP 提供了一个叫做 performance_start_trace 的工具。当你要求 AI 智能体分析网站性能时,它可以调用这个工具自动启动 Chrome、打开你的网页,并记录下性能追踪(performance trace)。随后,AI 智能体可以分析这些数据,为你提供具体的优化建议。 简单来说,Chrome DevTools MCP 让你的 AI 智能体更擅长网页开发中的调试与优化。 想了解更多细节?可以查阅 MCP 官方文档。 ⸻ MCP 可以为你做什么? 以下是一些具体示例,你可以用自己喜欢的 AI 工具(例如 Gemini CLI)立即体验一下: ✅ 实时验证代码修改 用 AI 智能体生成修复方案后,立即让 Chrome DevTools MCP 在浏览器中验证修改是否达到了预期效果。 你可以试试这个提示: Verify in the browser that your change works as expected. ✅ 快速诊断网络和控制台错误 AI 智能体能分析网络请求,快速定位 CORS 跨域错误,或检查控制台日志,弄清楚为什么功能没有按预期运行。 你可以试试这个提示: A few images on localhost:8080 are not loading. What's happening? ✅ 模拟用户行为 智能体可以自动浏览网页、填写表单、点击按钮,重现 bug 和测试复杂的用户流程,并实时查看运行环境。 你可以试试这个提示: Why does submitting the form fail after entering an email address? ✅ 调试实时样式和布局问题 让 AI 智能体直接连接到实时网页,检查 DOM 和 CSS,快速给出如何解决布局错乱或元素溢出问题的具体建议。 你可以试试这个提示: The page on localhost:8080 looks strange and off. Check what's happening there. ✅ 自动化性能审查 AI 智能体能自动进行性能追踪分析,诊断具体的性能瓶颈,比如过高的 LCP(最大内容绘制)指标。 你可以试试这个提示: Localhost:8080 is loading slowly. Make it load faster. 完整的工具列表可参考工具参考文档。 ⸻ 快速开始使用 想尝试一下?在你的 MCP 客户端配置中添加以下内容即可: { "mcpServers": { "chrome-devtools": { "command": "npx", "args": ["chrome-devtools-mcp@latest"] } } } 测试配置是否成功,可以运行以下提示: > Please check the LCP of web .dev. 更多详细操作步骤,请访问 Chrome DevTools MCP 官方文档。

很多恐惧来源于害怕自己做不好 害怕自己出丑 害怕自己丢人 其实这能有啥呢 这世界没谁认识你 就算你有光环 别人都认识你 那又能怎样 谁还不是个二把刀了 谁还没有个不擅长的事情了 世界会尊重那些敢于出丑的人 因为他们在勇气上,就已经胜出许多人了 勇敢迈一步,扯不着蛋的

如何练英语口语? 我觉得最好的方式是,创造真实的环境 今年我干过的事情: - 和influencer语音砍价 - 和海外用户做访谈 - fiverr/upworks上雇人沟通外包 - 回复那些在推特上做产品调研的人DM,然后进行30-30的沟通 - 约一些newsletter / 渠道商 谈合作 每个人都能干的事情: - 投递几个简历,去面试 - 搞个服务页面,设置下cal,等待别人约你会议 - 找那些做seo的人聊天请教 - 在reddit上找用户做访谈 - 在推特上找那些初创/独立开发 聊天 你说啥?你说不出来? 怕啥,不行就比划,投屏,给对方画画 谷歌也有translator,实在不行在开个AI,不会说了就让外国人等会儿,你输入翻译 你要问有啥心法,就三个: - 害怕什么,就去做什么 - 只要你不尴尬,尴尬的就是别人 - 别人想找你做事,或者你当别人甲方,只要符合这个,你说的再不利索,对方都得忍着! 这事儿就跟学游泳一样,最好的策略就是直接扔水里,哪怕你先狗刨,也不会淹死的

这也是为什么要关注内容生产和内容分发 因为接下来内容营销会进入一个红利期 AI先加剧内容杠杆,出现大量AI虚拟网红 然后减弱内容杠杆,真正有价值的人类声音开始值钱