🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

XX财经一条广告b站30万,抖音30万,最近90%以上都是广告,可以自己查,这几个月是广告不断的,而且是无风险收入。 有币圈kol说财经博主有几个有钱的,给我整笑了,估计他更不理解汽车kol多有钱吧,也正常,币圈kol是这样的,天天赌赌赌,只能赚返佣的钱和kol轮的钱,不知道无风险收入和内容都是可以积累的。 影视飓风其实营收不算头部特别高的,刚过亿。 头部kol,科技、财经、汽车类的,一年3000-2亿其实都不是难事。 但是这个行业上限确实不高,亿是卡死的上限,我没见过内容行业不做平台,营收能过10亿的,目前没见过,而且这几年毛利有降低。

确实,Manus 很聪明,他们把工具分成了 3 层: 第 1 层:函数调用 (Function Calling) 这是最基础的一层,只保留一小组固定的、原子化的函数,比如:读写文件、执行 Shell 命令、搜索文件等。在 LLM 的系统提示词中就只有这一层的工具定义,相对比较少,15 个以内,输入格式和输出格式都很清晰,不容易出错,但这里面有两个工具很特殊,一个是 Shell, 一个是 File。 第 2 层:沙箱工具 (Sandbox Utilities) 每个 Manus 会话都运行在一个完整的虚拟机沙箱里。就是原推文提到的,虚机预装了很多命令行工具,比如格式转换器、语音识别工具,甚至一个 mcp 命令行客户端。 然后这些工具都通过第 1 层中定义的 Shell 来调用,就是命令行工具,命令行调用。 但是这么多工具模型怎么知道呢? Manus 在系统提示词里会直接告诉 LLM,在一个特定的文件夹里有很多预装的命令行工具。对于最常用的工具,直接列出它们的名字。不常用的,LLM 可以直接通过原推提到的命令列出所有命令行工具,通过 --help 参数来查看任何一个工具的用法,因为所有这些工具都是他们自己开发的,格式统一。 第 3 层:代码包与 API (Packages and APIs) 这一层其实就是 LLM 实时编写 Python 代码,通过代码实现更复杂的功能。比如用户想查询某个 API 的数据,可以直接用 Python 写一个函数,fetch API 的数据,并解析成需要的格式。 其实在 Codex 中,用 Python 代码当工具已经用的很多了。 由于复杂的运算都是代码完成的,返回给 主 Agent 的知识计算后的结果,所以并不会占用主 Agent 的上下文。 这样 3 层设计的好处是,从模型的角度看,它需要调用的工具就固定是第 1 层的十几个,而借助命令行和代码,它又可以衍生出无数的工具组合。 还有一点就是我在之前推文提到的子智能体,Manus 也是大量采用“智能体即工具 (agent as tool)”的模式。把子智能体当工具用,比如负责检索是一个子智能体,但是这个子智能体在主 Agent 看来就是一个工具。同时也可以很好的起到减少上下文的效果。

以前有好几个互动很好的推友,’ 也从人家身上学到了很多。 可惜当时忘记关注或者被吞没在了timeline。 想看都再也找不到了, 最近连@pangyusio 胖鱼都没有出现在我的timeline了。 可恶的算法! 我真的没有那么爱看大家天天发AI breakthrough、如何赚大钱、web3又干嘛了,真的有点审美疲劳

过去一周(准确说是 3 天),我为了冲击一下 X 的分成门槛(3 个月 500 万展示),发了几条推文,再次验证了内容的不可能三角,即: 深度(并不一定真有多深,但是用户觉得是干货) 传播性 变现力 这三个角,其实分别对应了三种驱动力: 认知驱动(启发) 情绪驱动(共鸣) 行为驱动(购买) 对应到平时做产品,比如 SaaS 的落地页,可以简化类比为: 产品功能 落地页文案(价值展示) CTA 那么,这个不可能三角,有没有共存的可能呢?答案是有的。 深度+传播,属于认知传播型,需要内容不光让人觉得有干货,还要能共鸣,但是不能营销味太重。主要靠观点出圈。比如罗翔。 深度+变现,属于专家商业型,需要干货强,还要体系化,精准获客,但是传播慢。比如得到 APP,一些垂类培训课程。 传播+变现,属于爆款营销型,需要抓情绪,有话题,还要促转化,但是内容注定浅。比如大量的韭菜课,创业鸡汤,知识付费短视频。 深度+传播,属于有知识,有态度,形成社区影响力。比如罗振宇。 传播+变现,属于社交电商型,用内容包装的商品或者课程,大部分的知识付费,情绪类短视频都是这种。 深度+变现,属于专业服务,比如咨询,顾问类。 三者能交集吗?当然也行,但是很难。需要有自己的知识体系(深度),用人话讲出来,接地气(共鸣),同时还有产品/课程能自然衔接内容价值。 最后,一个人,甚至是一个账号,不是说只能发一种内容的,这个内容的不可能三角,完全可以称为一个 IP 矩阵的不同内容方向。 这其实就是影视飓风 Tim 在做的事。

能画草图就画草图。哪怕是火柴棍,都比文生图来的精准,清晰表达我的想法。 https://t.co/NfygEYBZr5

AI 开发的7大致命错误 Heygen 总结了AI开发的7大致命错误: 1.完美架构症 - 为100个用户设计百万级架构 2.研究瘫痪症 - 几个月访谈,零发布 3.稳定基础幻想 - 等AI"成熟"再发布 4.共识陷阱 - 大家都同意=没人关心 5.质量借口 - "还没准备好" 6.大爆炸发布 - 6个月秘密开发憋大招 7.沉没成本谬误 - "已经投入这么多"不能停

Notion 不能直接用 Claude Code 操作实在太不方便了 未来最好的笔记系统就是一堆 md 文件 Obsidian:等等,你说啥?

据彭博社记者马克・古尔曼报道,苹果计划在 2026 年对 M6 款 MacBook Pro 机型进行重大更新。预计砍掉饱受争议的“刘海屏”,同时还将为部分机型加入触控屏。 今年买 M5 的,又将成为绝版大冤种。难怪苹果急急忙忙就发布了。。。

CNBC记者透露:GPT-6将在今年年底前发布! 这位记者表示,他的消息源是布拉德·格斯特纳(Brad Gerstner)。布拉德是公开的OpenAI投资人,并且经常与OpenAI的高层交流。 https://t.co/4KSl51lvi7

一个反直觉的发现:Discord 不再只是游戏宅男的聚集地。在帮一个 AI 硬件 (Baby Milu) 做冷启动时,发现 Discord 上聚集了大量的年轻女性和 Gen Z 用户。对于面向这个群体的产品,Discord 可能是比 TikTok 或 Instagram 更精准、更高质量的私域流量池。

书看完了,开始正式画分镜。我后面的substack文章会慢慢上连环的图像。抽象概念,工程猜想剧本化是我的下一步。 对我影响很大的一部剧本就是《头脑特工队》,将极抽象的概念影视化,这个想法对我来说诱惑太大了。 我这个绘画虽然很烂但是AI居然看的懂。感谢时代😭! https://t.co/VnfSFUN2Jy

OpenAI 的这个模式还真的蛮好的,让开发者不用费自己的 Token,客户登录 ChatGPT 账号,就可以使用自己的 ChatGPT Tokens 使用应用的 AI 功能,要是推行了我估计也可以发布一点小应用 根据 The Information 报道,一位参与相关讨论的人士透露,OpenAI 正在向各大公司推广一项名为「使用 ChatGPT 登录(Sign in with ChatGPT)」的功能。这项功能允许用户使用 ChatGPT 的账户直接登录各家网站。如果初创公司使用了 OpenAI 的模型,原本需要直接支付给 OpenAI 的 API 调用费用,就可以通过这种方式转嫁给用户,从用户自身的 ChatGPT 用量额度中扣除。

当机器开始“思考”:OpenAI解构语言模型推理的底层逻辑 ——从驯狗的比喻,看懂强化学习如何为AI注入“灵魂” 我们与AI的对话,早已越过答案的边界 当你向 ChatGPT 提出一个复杂问题时,你是否曾留意过那个闪烁的光标,以及它逐字逐句生成回答的过程?我们习惯性地将这个过程称为“思考”。但在这层表象之下,究竟发生了什么?它仅仅是在一个无限庞大的数据库中进行了一次极速检索,然后将结果呈现给你吗?或者,一种远比这更深刻、更接近我们人类认知方式的活动正在悄然发生? 这一切的起点在于一个根本性的区分:知道答案与找到答案。传统的计算模式,更像是前者——一个完美的、无所不知的图书馆员,能瞬间从浩瀚书海中为你提取所需信息。然而,我们今天所见的 AI,尤其是以 OpenAI 的模型为代表的先进大语言模型(LLM),正在向后者演进。它不再仅仅是一个知识的搬运工,而更像一个探索者,面对未知的问题,它需要通过一系列计算、推理和探索,才能最终抵达答案的彼岸。这趟从未知到已知的旅程,便是我们所说的“推理”(Reasoning)。而理解这一过程,不仅是理解 AI 的关键,更是洞察未来智能形态的一扇窗。 从“一步到位”到“步步为营”:推理的本质是时间的艺术 人类在面对难题时,鲜少能瞬间得出答案。我们会分解问题,寻找线索,进行推演,甚至会自我纠错。这个过程,本质上是用时间换取更高质量的思考结果。一个颠覆性的认知是,对于大语言模型而言,这条规律同样适用。 要理解这背后的逻辑,我们首先需要认识一个名为“思维链”(Chain of Thought)的概念。这并非某种固化的程序代码,而是模型从海量人类文本中学到的一种“模仿人类思考”的能力。早期研究者发现,面对一个复杂的数学题,如果直接要求模型给出答案,它往往会失败。然而,若在指令中加入一句简单的咒语——“让我们一步一步地解决这个问题”(Let's solve it step by step)——模型的表现会发生质的飞跃。 它会开始像一个学生在草稿纸上演算一样,将思考过程“说”出来:先做什么,再做什么,最后如何整合。每一个生成的词语,既是上一步思考的结果,也构成了下一步思考的上下文。这串看似“啰嗦”的文字,实际上是模型为自己搭建的逻辑脚手架,一个将复杂计算过程在语言维度上展开的“思维草稿”。 这引出了一个核心洞察:推理的深度,与模型被允许投入的“思考时间”——即计算资源——正相关。 时间越长,它能生成的“思维草稿”就越长,探索的逻辑路径就越深,最终答案的质量也就越高。因此,当我们看到模型“正在思考”时,那不仅仅是用户体验的界面设计,其背后是 OpenAI 在模型质量与用户耐心之间做出的精妙权衡。它在动态地判断,为了给出一个更值得信赖的答案,这次探索值得花费多长时间。 驯服“巨兽”:预训练与强化学习的优雅共舞 如果说“思维链”为 AI 的思考提供了方法论,那么真正塑造其行为、使其从一个博学但混乱的“知识巨兽”变为一个可靠、对齐人类意图的伙伴,则需要两种力量的共同作用:预训练(Pre-training)与强化学习(Reinforcement Learning)。这正是 OpenAI 自 2019 年起就确立的核心蓝图。 预训练,就像是让一个新生儿阅读完人类有史以来所有的书籍、对话和代码。通过这种“野蛮”的知识灌输,模型获得了对世界的基本认知,学会了语言的规则、事实的关联以及隐藏在文本背后的无数种模式。然而,这样一个“知识巨兽”虽然学识渊博,但其行为却是不可预测的,它可能会生成任何内容,无论好坏。就像 GPT-4 的早期内部版本,尽管潜力巨大,却被研究员们评价为“相当愚蠢”和“语无伦次”。 真正的魔法发生在第二步:强化学习。OpenAI 研究副总裁 Jerry Tworek 用了一个极其生动的比喻来解释这个过程:训练 AI,就像训练一只狗。 想象一下,你口袋里装满了零食。当你的爱犬做出正确的行为(比如坐下),你立刻给予它一颗零食和微笑作为“奖励”;当它做出不当行为时,你则收回注意力,表现出失望,这便是一种“惩罚”。日复一日,狗的行为模式就会被你所期望的方向塑造。 强化学习正是如此。研究员们(或被称为“AI 训练师”)会观察模型的输出。如果输出的内容优质、有帮助且无害,模型就会得到一个正向的“奖励”信号;反之,如果输出是错误的、有偏见的或有害的,它就会收到一个负向的“惩罚”信号。这个过程,特别是加入了人类反馈的强化学习(RLHF),就如同一个精密的行为矫正器,不断地对模型的内部权重进行微调。正是通过这个“驯服”过程,那个原始的、混乱的 GPT-4 才被雕琢成我们今天所见的、能够进行流畅且高质量对话的智能体。预训练赋予了它广阔的知识,而强化学习则为它注入了“灵魂”,教会了它如何以一种对人类有益的方式去运用这些知识。 “信念飞轮”:OpenAI内部的创新引擎 能够在短短几年内,以前所未有的速度持续推出震撼世界的产品,OpenAI 的成功绝非偶然。在其惊人的迭代速度背后,隐藏着一个强大而独特的内部创新引擎,我们可以将其抽象为一个“信念飞轮”模型。这个飞轮由三个相互啮合、彼此驱动的齿轮构成。 第一个齿轮是“宏大叙事下的极致聚焦”。OpenAI 从未掩饰其最终目标——构建通用人工智能(AGI)。这个宏大的愿景像一座灯塔,为所有研究提供了统一的方向。然而,在具体执行上,他们又表现出惊人的克制,整个组织只专注于三到四个核心项目。这种策略避免了资源的分散和内部的无谓消耗,确保了最顶尖的人才可以集中力量,在最重要的战线上取得突破。 第二个齿轮是“绝对透明驱动的集体智慧”。在 OpenAI 的研究部门,一个令人惊讶的原则是“每个人都知道每件事”(Everyone knows everything)。这听起来似乎有悖于传统科技公司对知识产权(IP)的保护逻辑,但其背后是对研究效率的深刻理解。他们认为,因信息壁垒导致最聪明的人无法做出最优化决策的风险,远大于 IP 泄露的风险。这种激进的内部透明,打破了部门墙,让思想能够自由碰撞,从而最大化地激发了集体智慧的潜能。 第三个齿轮是“动能与信念的相互加强”。快速地发布产品,会创造出巨大的市场动能和行业影响力。这种势能,又会吸引全世界最顶尖的人才慕名而来。而这些顶级人才,在极致聚焦和绝对透明的文化中,又能以更高的效率协同工作,从而更快地推出下一代产品。每一次成功的产品发布,都在验证并强化着团队最初的那个宏大信念,形成了一个不断加速的正向循环。这便是 OpenAI 能够持续引领行业变革的核心动力。 通往AGI的地图,仍在被绘制 从最初只能解决谜题的技术演示,到如今能够辅助科学家进行复杂计算、甚至在世界顶级编程竞赛中夺魁的强大工具,AI 的进化轨迹令人惊叹。然而,我们必须清醒地认识到,通往通用人工智能(AGI)的道路,没有单一的终极算法,也没有一蹴而就的捷径。 我们今天所见证的,是一个不断演进、层层叠加的构建过程。预训练是基石,强化学习是塑造,而未来,必然还会有更多我们尚未知晓的模块被添加进来。这幅宏伟蓝图的绘制,依赖于对智能本质的持续探索。 当我们孜孜不倦地教导机器如何像人类一样思考时,或许也应该反躬自问:在这个过程中,我们对于自身智慧、意识乃至存在的理解,又被如何深刻地改变了呢?这或许是人工智能时代留给我们最值得长期思考的问题。

真要做一个自动化写作的 Agent,工作流可能更合适,毕竟步骤相对固定,成本也会更低,Claude Code 可以在中间做工具用,另外 Claude Code 写作能力不一定很好,需要搭配不同的模型组合使用效果更佳。 AI 写出来的内容质量,主要取决于 2 点: 1. 你提供的上下文质量 2. 模型能力 最后才是提示词水平 这篇文章好是因为这个访谈质量好,提供了优质上下文内容,否则很难写出来好的结果。 就好比你现在让模型去翻译,大部分时候如果原文不错,翻译结果也会不错,如果原文不行,翻译不出来好的内容。 这种拿现有资料去重写的,也是类似一种语言的翻译,是大模型所擅长的。

通过 Subagents 是一种有效的手段降低上下文,也是类似于软件工程中的分而治之,将复杂问题拆分成若干子问题。 现实中的例子就是一个 Manager 把任务分配给 Employee,他们只负责交代任务的要求,以及等待任务结果,不关心具体实现细节,具体执行的 Employee 可能做了很多琐碎的事情,但是对 Manager 来说只关心完整结果,这样 Manager 的上下文就不会被那些琐碎的事情塞满。 如果用图片(来源见评论)来说明的话,大概是这样

我的系统观 我做的家具,其实都在体现我的系统观。 当混乱出现、熵涌上来的时候,我不会想着“消除”它们:因为根本消除不了。 我的逻辑是:不对抗混乱,而是用结构去吸收它。 比如我家杯子特别多。 我爱喝水、喝茶、喝饮料,全家人都一样。以前杯子总是到处放,桌上、沙发边、床头柜。 我也没办法要求别人“收拾干净”,因为我自己也乱放。 后来我做了一个“杯子轨道”: 让放杯子变成一种有治愈感的动作。 不再是控制人,而是用结构解决问题。 再比如我这张 3D 打印桌子。 它下面其实有个巨大的实木底座,两边是卡座隔离的。这个底座是吸收震动的。再配上实木的三角支架。 为什么?因为我家有狗:德牧姐姐。 她对风吹草动特别敏感,一激动就跳起来狂叫。她一乱动打印机就中断。 我不会强迫她“别叫”,那不是我的解决方式; 也不会把桌子搬进封闭房间。而是让结构来化解行为矛盾。 还有更奇怪的发明。 比如我做过一个“眼不见为净”箱子: 巨大的实木箱子,盖子用气压阀助力打开, 专门放那些“不能扔掉,但又不想看到”的东西。 盖上盖子,上面放只二哈,世界清净了。 我还有一堆让人抓狂的要求: 所有结构必须严密对齐,不能有扫不到、拖不着的角落; 桌子高度要能让我站着办公,也能坐着看书。 这些设计听起来很“强迫”,其实是我在构建与混乱共存的秩序。 平时不敢跟外人说这些,怕人觉得我奇怪。 但推友无所谓,反正我们也不会见面。 这就是我的系统观: 控制不是压制,而是设计结构,让世界自己归位。

Agent Skills 是很好的东西,可以引导 Agent 获取某些技能,而且制作起来很方便。 制作一个技能,就好像给新员工写一份入职手册。不需要为每一个不同任务都专门打造一个独立的智能体,而是只要共享特定领域的专业知识,任何人都可以快速将智能体变成对应领域的高手。 我之前提到过朋友做一个基于他们 Design System 的 Agent,需要通过提示词引导 Agent 去 grep 检索文档,现在就更简单了,只要在全局或者项目目录下的 .claude/skills 下面添加目录,并且放一个包含meta信息的 SKILL\.md 文件,就可以引导 Agents 去学习使用这些 Skill。 官方也给了一个例子就是 PDF Skill,就是包含了一系列 PDF 操作的说明和脚本,Agent 借助这些脚本,就可以操作 PDF,比如提取表单之类。也就是说 Skill 不仅可以包含文档,还可以包含可执行的脚本。 需要注意的是 Skill 里面的 Meta 信息是默认会加载到上下文文的,其余信息用到才会加载。

昨晚还不算被写作影响睡眠,醒来后各种工作。下午去看了另一处位置很不错的房产,又动心了。 回到公寓工作了一会儿,打电话给某大公司印度客服搞得我想把这个世界砸了。 晚上去参加个社交活动,吃非洲菜。看着挺恶心的但是并不难吃,我吃了两盘。各种糊状物用那种酸酸的小面饼卷起来。席间遇到一男的,说自己来自A市,又遇到一女的,说也来自A市,我就说哎那边那个男的也来自A市,我介绍你们认识。 男的说:不用介绍了,她是我妈。 我:🫣🥴

语言的边界就是思维的边界 使用垃圾语言就会拥有垃圾思维 https://t.co/bBUz9eeQYh

昨天跟 @sparkxxf 聊天,他突然问我一句:你现在都用哪些 AI 工具啊? 我一时语塞,倒不是因为用得少,主要已经用到不自知了。 现在这个节奏,AI 工具已经成了我整个工作 / 创作 / 生活系统的一部分。每个工具负责一块,拼起来像个有分工的 AI 小团队,协作还挺默契。 所以我特地盘点了一下日常用到的,留档,也给大家参考。 我的 AI 主力阵容(几乎天天用) 1. ChatGPT Plus 日常思考 、信息整合、策略拆解,并且越来越懂我,快成我的数字影子了。 2. Claude Code api接入 放第二位是真的很好用,但交互不多,很稳,像个清醒的技术合伙人。 3. Gemini Advanced 资料都在 Google Drive,用 Gemini 与 Drive 深度联动,非常顺手。并且每次调研都会用deepresearch模式。 4. Cursor 企业会员 智能 IDE 不只是补代码那么简单,它开始接管项目结构、调试、模块协作。用久了就很难回到只有手写 + 插件的时代。 5. Notion AI 年度会员 文档、任务、汇总、知识库,像一个专职助理 + 内容处理器,笔记再也不会找不到了。 6. Lovart 年费会员 9 月份因为seedream4.0 和nano banana买了一年,新模型更新快、组合能力强、无限画布 + agent 化创作很适合我自己折腾,省事儿。 7. Get 笔记 国内笔记 App 中我蛮喜欢的,视频总结不要太方便,快速预览。 8. NotebookLM Google 的文档助理型工具。上传自己的资料 / PDF 文献,它帮你总结、回答、做辅助查询,很适合做研究、写报告那类事。 9. 火山引擎上字节家的一系列模型 作为企业用户,可以体验他们最新的模型能力。 10. 阿里云上通义家族 企业客户,阿里云在 AI 模型平台上也布局很深,近年来在云 + AI 上的打法越来越激进,希望在大模型 + AI 云服务这条线能抢占更多空间。 11. Grok Premium(X AI) 嵌在 X 平台里,抓流量、分析账内容、快速摘要偶尔用。 12. Perplexity AI 已经不续费了 包括他家的浏览器,用的越来越少了。 13. 其他各种的AI产品 都在手机上,一直没删,新的功能上线就会冲个会员体验下,用的不多。 每个工具有各自的角色与边界,我基本不关心单一工具谁最强,更在意怎么让它们协作和补位。 打个广告, @sparkxxf 他们团队最近上线了https://t.co/UIfdhZTreq,主打电影级视频创作,据说产品 AI Coding 比例超过 95%,可以体验看看。

很多朋友问我这几天用 Suno 做的音乐是咋做的 索性搞了一套万能 Suno 提示词,一键直出! 还有新版 Suno V5 的操作教程,两种生成音乐的方式 详细的教程和提示词在下面👇 https://t.co/yEXixDN6f3