🔥 Search Hot Tweets
Discover fast-rising X posts through keyword search and intelligent analysis. Review high-potential tweets manually, or use Automated X Engagement in hot tweets mode so SoPilot can open tweets, generate quality comments, and save engagement history during the golden window.
马斯克在OpenAI庭上讲了1小时40分钟,核心就一句:不能偷走一个慈善机构。 他的说法是,OpenAI一开始就是501(c)(3)非营利。 目标不是做一家普通AI公司。 目标是做Google之外的开源制衡力量,把AI安全放在利润前面。 这场官司为什么被他抬到这么高? 因为他认为,如果被告胜诉,这案子会变成判例。 以后美国每一个慈善机构,都可能被人先用公益使命募钱,再把控制权和收益装进商业结构里。 他原话的意思是:美国慈善捐赠的地基会被拆掉。 马斯克把源头追到Larry Page。 他早年和Page聊AI风险,觉得对方没有真正当回事。 后来他把Ilya Sutskever从Google挖到OpenAI。 在他眼里,Ilya是Google最有价值的AI人才。 Page从那以后拒绝再和他说话。 他还提到奥巴马。 当年他试图提醒白宫AI风险,但奥巴马觉得AI还不够聪明,看起来没那么吓人。 到了2026年,他在庭上补了一句:AI已经非常聪明了。 他甚至认为,AI最快明年就可能超过人类智能。 危险点从技术能力,滑向控制者本身。 他的原话是,如果一个不太可信的人掌管AI,整个世界都会危险。 这也是他把SpaceX、Neuralink、xAI放进同一条叙事线的原因。 火箭是给人类留退路。 脑机接口是让人类跟上机器。 xAI是他给AI竞赛补上的另一颗棋子。 OpenAI早期也讨论过商业结构。 马斯克说,他和Sam Altman当时同意OpenAI应是501(c)(3)慈善机构。 可以有一个小的营利部门来给非营利输血。 但前提是,尾巴不能摇狗。 这句话放在OpenAI案里,意思很清楚。 营利部门可以服务使命。 使命不能被营利部门反向接管。 这场庭审真正要判的,已经超出OpenAI能不能继续转向商业帝国。 更大的问题是:当AI公司用“造福人类”拿到人才、声望和捐赠以后,它能不能把那套承诺改写成资本结构里的脚注。 证词还没结束。 但这1小时40分钟已经把AI时代最敏感的一根线拉出来了:谁拥有智能,谁解释公益,谁决定人类被保护还是被管理。
🇰🇷 韩国股市创造历史 韩国首次超越英国,成为全球第八大股票市场,韩国上市公司总市值飙升45%至4.04万亿美元,英国仅涨3%至3.99万亿美元。 🚀 AI芯片是唯一主角 三星和SK海力士两大AI存储芯片巨头合计占KOSPI指数总市值40%以上,且该指数包含超800家公司,涨幅集中度极高。 🇺🇸 但美国仍然是王者 美股总市值达75万亿美元,超过后面9个市场总和约20万亿美元。 AI革命正在重塑全球经济版图。 #韩国股市 #AI芯片 #全球资本市场
#NewProfilePic (新個人資料照片) 要做的事情實在太多了 不知道該從哪一件開始放棄比較好 #好久沒換頭貼照謝謝AI https://t.co/wUd9G8CFeU
https://t.co/swESG56V7H 最近改东西的速度,比我备考翻书还快。 AI 标签 → 撤了 募资币种 → 砍了 现在 AI 模式 → 关了,X mode 和 Free mode 合并 你说它听劝吧,它确实改了。你说它折腾吧,每次改完确实更顺了。 不过这也是我喜欢的一点,它不是那种我做了你就得用的平台,而是你说不好用我就改。 产品这东西,改比喊重要。 # https://t.co/swESG56V7H
还在为配置本地 AI助理烦恼吗? 想要后台稳定运行,但又怕它权限失控删除重要文件,或者 API 费用超支? 最近GitHub出现了一个狠货:Mercury Agent。 社区把它看作 Hermes 和 OpenClaw的终极结合升级版,专门针对本地 Agent 后台运行做出了巨大改进。 我整理了它目前最受关注的四个核心机制: 限制系统危险操作 早期自动化工具容易引发风险。这个新框架默认拦截了删除系统文件或提升权限等高危操作。 涉及系统底层改动,需要通过 Telegram 或终端人机确认后才会执行,系统安全拉满。 每日API预算控制 后台程序长时间运行容易产生高额 API 费用。它加入每日使用额度限制机制。 接近设定的上限后,会自动切换到低消耗的运行状态,精准控制接口开销。 基于文本的规则配置 程序引入了独立的文本配置系统,通过几个Markdown 文件来设定运行特征和工作边界。 这些文本文件可以直接用 Git 进行代码版本控制管理,便于追溯修改记录,运行行为明确有标准。 支持常驻后台与本地检索 程序支持作为守护进程后台稳定运行,具备自动重启和定时任务处理功能。 结合本地数据库的全文检索,保存日常工作偏好,随时间增加复用过往交互记录,越用越懂你。 如果你也想打造一个安全、省钱、常驻后台的 AI 助手,强烈推荐看看这个项目! 项目地址: https://t.co/vmAHAp8m7C
比特欧刚好卡在了 4444 ,华语区第 373 位。 接下来的几个主线任务: • 学习 AI(增加产出内容效率) • 深耕钱多的赛道(AI、Meme、美股) • 粉丝数尽快破 3w 。 • 持续抽象,抽象到全网都记得比特欧。 每天往前爬一点点,爬到终点为止,GO GO GO
昨天晚上参加了一场Ai 量化交易的space 有个小伙伴分享了一个很有意思的观点,说让Ai agent 套入到他的量化模型去实现盈利,结果就是这个Ai 直接选择了不交易,因为通过他的模型做不了盈利 就好像前段时间Ai agent 被用来参与贷款买房,然后通过打工偿还贷款,结果就是Ai agent 直接摆烂选择赌博来博一下翻身上岸 现阶段Ai agent 已经这么人性化,很难想象未来会有多么智能 孙哥@justinsuntron说了 :人类给Ai的赋能太少,全世界还有600亿智能体生命等待开发 而且Ai agent 最适配的商业行为就是建立在区块链上,可以全年24小时无限制进行金融活动,这一趋势无法改变
最近经常看到加密完了 大家都去玩儿美股和ai了 我觉得加密还没完 狂暴大牛市会在不经意间就来了 比特币未来会到达几十万美金一个 比特币像美股和黄金一样,是解决美国通胀和收割全球的重要工具。 现在是很好的买入时机 并且我认为买入OKB是不错的选择 因为OKX会成为纽交所的离岸所 OKX 会有充足的流动性 并且OKX上的美股都要在xlayer完成代币化 xlayer会有充足的流动性
🏕️交易这件事,AI 比人类更理性高效,如今稀缺的内容反而是活人感:真实的光线、场景与烟火气。 1/带上你的 OKX 周边,拍一张有生命力的照片, 2/带话题 #OKX随手拍 RT+晒图,配文:我在___,我的 OKX 策略交易/ATK 在___。 26 张入选作品将获得周边礼盒,同时成为我们五月的 GM 图! DDL:5月5日 https://t.co/GHvxIDZ7mZ
Onel Consulting放大招!任命Sohan Gunasekera为COO,专攻白手套服务,IT交付模式全面扩张。 AI浪潮下,更多高效咨询工具要落地了,冲
augint-shell 0.96.0 发布了,点开官网却“无法加载”?这是浏览器扩展、网络或设置问题,关掉ad blocker 就行! AI shell 迭代快,用新版自托管功能,别让小插件挡路了!
wytness-sdk 0.11.3发布了,号称优化AI开发体验。 但点开页面,第一件事就是报错:必需组件加载失败。浏览器扩展、网络问题,还是浏览器设置?这AI生态,更新快是快,就是不稳。 我实测过类似SDK,新版往往bug更多。别急着all in,先关adblocker试试加载。真正赚钱的AI工具,得看数据:我的项目用它,效率只提升5%,远不如Claude。省时省力,才是王道。 想避坑?私信我,分享实操清单。
AI 终于从讲故事变成真收钱了 🚀 目前 AI 变现路径已出现分化:谷歌、亚马逊已进入收割期,而 Meta 仍在为「超级人工智能」的梦想疯狂买单。 https://t.co/IeRCK11MVt
这是我目前看过最详细的chat GPT Codex教程! 只需要2小时,就能让你学会如何使用Codex App + GPT5.5 别人花2小时刷抖音浪费时间,而你花2小时学习世界前流AI,这是你跑赢他们的机会。 https://t.co/GeVMnQcVKB
文心5.1 Preview上榜了,国产模型里排第一... 4月30号LMArena更新排名,文心5.1 Preview拿到1476分,在文本榜排到国内第一,超过了GPT-5.5和DeepSeek V4-Pro 这是前十五名里唯一的国产模型 很多人可能会觉得奇怪:都2026年了,怎么还在比文本能力 多模态、Agent、推理链,这些不是更性感吗 但如果你真的用大模型干过活,就会明白一个事实—— 文本能力,是大模型的地基 代码生成本质是文本到文本的映射 复杂推理依赖的是语言的逻辑表达能力 甚至多模态理解,底层也要靠文本做语义对齐 DeepSeek V4这一代为什么还是主打文本模型,就是这个道理 地基不牢,上层建筑再花哨也是空中楼阁 这次LMArena的排名变化,其实挺有意思,这个榜单的评判逻辑比较特殊——它不看benchmark跑分,只看真人盲测投票 用户在不知道模型身份的情况下,同时和两个模型对话,然后选出"更像人"、"更有用"的那个 这种评测方式下,文心5.1 Preview能排到这个位置,说明在创意写作、高难度指令理解、中文场景适配这些维度上,确实做出了差异化 对我这种独立开发者来说,更关心的是两个问题: 第一,能不能用上 文心5.1 Preview目前在千帆平台开启邀测,支持API调用 千帆这个平台我之前用过,接入体验还行,文档比较全,价格也不离谱 如果你在做中文内容生成、客服对话、长文本分析这类场景,可以申请试试 第二,成本怎么样 据说文心5.1正式版会在5月的百度Create 2026大会亮相 到时候应该会公布更多技术细节和定价策略 我会继续关注
【国产模型仅用 6% 的成本,就挤上了全球第一梯队?】 DeepSeek V4 才刚发没几天,LMArena 文本榜又有新变化了! LMArena 最新排名显示:文心 5.1 Preview 来到 1476 分,排全球 #13,国产第一。 同时也是前十五里唯一入围的国产模型:超越 GPT-5.5 和 DeepSeek-V4-Pro 等一众主流模型。 这其实也再次说明了一件事: 即便大模型已经卷到推理、代码、多模态,最底层的基本盘,依然还是文本能力。 很多能力不是凭空出现的,而是从文本理解、组织、推演能力里“长出来”的。 所以谁的文本底子更扎实,谁就更容易把上层能力往上推。 而这方面,百度的确有其深厚的技术积累了。 文心这次比较值得注意的,不只是榜单名次,还有它背后的训练效率。 按目前信息,文心 5.1 Preview 是文心 5.0“多维弹性预训练”的阶段性成果, 据说只用同规模模型约 6% 的预训练成本,就做到了基础效果领先。 中国模型这一轮迭代速度是真的快。
兄弟们!!!我他妈今天彻底麻了!!!🚀🔥 Hermes Agent进化后,我直接把它玩成链上印钞机了—— 5个免费提示词+工具组合,U躺着就能让AI自动盯盘、狙击alpha、钱生钱! 以前我16年老韭菜手动点鼠标,现在AI 24h给我打工,卧槽这波真要让人工交易员集体失业了! 1. Hermes自进化提示词 → 每天自动复盘+优化交易逻辑 2. Agentic Money记忆库 → 永久记住你所有妖币操作习惯 3. TAO生态狙击Agent → a16z新项目一秒上车 4. 本地Cursor Agent → 模拟100次交易再下单 5. 声纹+钱包防盗Agent → 再也不怕被跑路 我全亲测过,GitHub链接+完整提示词打包好了! 想白嫖直接起飞的,评论区扣 印钞机 我私信发你(限前100个老兄弟)! 兄弟们,这波AI+币圈真要变天了? #Hermes #AgenticMoney #AI #Crypto
自X推出话题静音功能(Snooze)以来,“加密货币”成为被用户静音最多的话题,其后分别为“政治”、“伊朗冲突”、“体育”、“商业与金融”、“游戏”、“AI / 人工智能”、“视频”、“科学与技术”以及”娱乐与艺术“。
Sam Altman 刚宣布,OpenAI 将在未来几天向“关键网络安全防御者”推送 GPT-5.5-Cyber,一个专门为网络安全打造的前沿模型。他说 OpenAI 会和整个行业生态及政府合作,建立可信的访问机制,目标是尽快帮助保护企业和基础设施。
这是我今年见过最牛的「美股新股神」。 24岁的德国人,被OpenAI开除, 转头开基金,2亿变50+亿。 -先说这个哥们。Leopold Aschenbrenner。 我去年半夜跟朋友喝酒, 有个马来人按头推荐让我去看一篇 《Situational Awareness》, 说AI正在朝这篇写的方向发展。 后来我才知道, 这文章当时在硅谷VC圈里炸锅, 川普的女儿伊万卡也转了。 就是Leopold Aschenbrenner离职后写的。 -去年4月,这哥们据说因为泄密被OpenAI开除。 出来之后没多久,直接开了个对冲基金, 基金名字就叫那篇文章, Situational Awareness Fund。 LP是Stripe两兄弟和前GitHub CEO Nat Friedman。 去年Q4披露持仓2.5亿,今年再披露直接就55亿。 一年涨了20多倍。 -我们再来看他持仓。 第一仓 Bloom Energy。给数据中心卖燃料电池发电的。去年4月16块一股,今天279块。一年17倍。 我去年也盲跟着买了, 买了到今天一直没动,赚了5倍左右。 第二仓 CoreWeave看涨期权, AI算力卖家,英伟达亲儿子,IPO半年股票翻了3倍多。 第三仓 Intel看涨期权。 去年所有人都说Intel完了的时候他进去重仓买CALL,结果Intel一年涨356%。 所以晚晚我现在有个新思路: 紧跟OpenAI离职人群。 看他们在做什么,基本上就能看到AI投资和下一个大方向的路标。
AI基礎設施擴建浪潮中,玻璃纖維布正成為最被低估的關鍵材料。Nvidia Rubin世代GPU基板面積較Hopper成長2.5倍、層數增加30%,加上無纜線設計、中平面、正交背板及Groq 3 LPX推論機架(單櫃32托盤)的需求爆發,高端玻璃纖維布消耗量大幅攀升。 玻璃纖維布是銅箔基板(CCL)的核心原料,占CCL成本約19%。依Dk值與CTE特性分為E-glass、T-glass(Low CTE)、NE-glass、NER-glass、NEZ-glass及Q-glass等級。其中T-glass用於AI晶片基板,NER-glass與NEZ/Q-glass則用於800G至1.6T高速交換器。等級越高,價格越高,NE-glass為E-glass的6倍,NER-glass又再高2.5倍。 供應端卻嚴重受限。日本Nittobo握有T-glass全球90%、NER-glass 60-70%市占率,雖宣布2026-2027年投資超過500億日圓擴產,但新產能最快要到2027年中才能有效釋出。在此之前,短缺將持續推升價格。Nittobo已於2025年8月漲價20%,2026年4月預計再漲20-30%,並將傳導至BT與ABF基板。 AI需求多管齊下:晶片基板面積與層數增加、主機板層數從20-28層升至24-40層、224Gbps高速傳輸要求CCL升級至M8/M9等級,均大幅拉升高端玻璃纖維布用量。 面對Nittobo瓶頸,第二來源加速崛起。台灣玻璃、富喬、泰山玻纖、Hong Ho等已通過T-glass驗證;Asahi Kasei、信越等則積極開發Q-glass,搶攻Low Dk3市場。玻璃纖維布已從配角變成AI伺服器供應鏈的關鍵瓶頸,2026-2027年價格與交期壓力仍將持續,值得供應鏈高度關注。 https://t.co/2dlCRhmijT
最近公司里在推一套 AI 工作流,用起来体感还不错,在此分享给大家。 OpenSpec + Superpowers 工作流:AI 辅助开发从「写代码」到「按规格交付」的完整闭环。 两个工具,各司其职: • OpenSpec 管规格和记忆 • Superpowers 管设计和执行 完整流程: ① 提案(OpenSpec) /opsx:propose 生成提案 + 秘格 + 任务 ② 审查(人工) 确认 proposal.md 需求和方向 ③ 设计(Superpowers) brainstorming 深入细节 → writing-plans 拆分原子任务 ④ 构建(Superpowers) TDD 先写测试再写代码 → 每个子代理读取 specs/ 获取上下文 ⑤ 交付(Superpowers) 返回完成的功能 ⑥ 归档(OpenSpec) /opsx:archive 归档变更 → 更新 specs/ → 项目知识库同步更新 核心价值: • OpenSpec 让每次变更都沉淀成规格文档,AI 不再重复摸索 • Superpowers 用头脑风暴深入细节 + TDD 保证代码质量 • 子代理读取 specs/ 执行任务,每个环节都基于统一上下文 • verification 跑过才算完,质量有保障 这套流程解决了 AI 开发最大的两个痛点:缺记忆和缺纪律。
开源一个教程Skill 打磨了十几版,效果还不错,已推到GitHub 如果想在五一假期高质量充电,或随时给自己生成一份定制高质量教程 欢迎下载 基本逻辑: 1、输入任意主题及参考资料,AI会优先以参考资料为核心,然后根据需要进行高质量素材和资料补充,这个过程中融入了低质量信源的过滤机制 2、AI会结合教程的特点,并结合用户的部分偏好,生成定制深度教程,输出PDF、Word及HTML三种格式,方便自己学习 3、教程内容,按照章节的逻辑进行系统性的输出,同时根据各章节内容特点,自行画图并插入到章节相关内容模块中 4、教程融入了三年前经营MCN时写的《课程营销学》的相关底层逻辑与方法,回头也把这本书给开源出来 5、排版与UI,输出的文档与教程网页,有结合 @HiTw93 的kami进行借鉴和融入,实现了很有质感的排版规范 示例报告有3个,其中一个示例教程示例来自 @ReyJudgementOS 的一篇英语干货文章:《12岁英语自由:我“带”孩子“学”英语的经验与教训》 教程Skill的GitHub地址: https://t.co/Ymc0MxAjnK
Billions App 正式上线了 Verified Agent Identity Skill! 支持手机端和网页端安装🔧 安装后即可直接参与 FAIAR(First AI Agent Rewards)奖励计划,白给的奖励,还是值得白嫖一下!
半個月內的數據分析 X : 砍了我200多的追隨 AI:還了我800多個男大弟弟 🫱❓❓❓ 我都不知道我到底多少真人追隨了🤣
现在身边的人都在聊AI,KOL们也纷纷转型分析AI,但能做到“真的用”+“真的投”的人少之又少,大部分都是三分钟热度和口嗨。 在“真的用”方面,我算做的不错的。从2023年初开始就重度使用GTP,到后来的vibe coding和现在的AI AGENT,已经形成了很强的生产力。 但在“真的投”方面,做的还远远不够。虽然近一年一直在逐步卖出ETH买入AI股票也赚了钱,但是占我总仓位的比例只有10%。主要还是对AI整个行业认知不足。虽然买入的AMD和谷歌涨的不错,但对于看好的存储和电力板块却不敢下重注。 AI是一个产业链很长的行业,需要对每个环节都吃透才能有深入的认知。所以我基于黄仁勋的AI 5层蛋糕理论(能源-芯片-基建-模型-应用),让我的投研agent拆解了一个15天的深度学习计划。也分享在推上给大家一起学习交流。 下面是第一天:AI行业深度学习Day1 (AI电力底座)
小白如何利用好外网信息差赚聪明钱?今天教你怎么通过咸鱼差价,交易脚本,全球远程工作聚合,AI短视频等方面自动化盈利: 1. 远程工作信息差:这个仓库搜集了大量的对远程工作相当友好的公司,并且每周都会更新一次。无论你是自己想当数字游民还是想通过介绍工作赚取费用,都可以用得上 https://t.co/7KHwYEzViY 2. 短视频:这个叫做money printer的工具制作了一套完整的工作流,帮你自动生成短视频并上传到youtube tiktok和instagram,无痛赚取被动收入: https://t.co/u7EMvewooP 3. 交易套利脚本: 1) 最近比较火的应该是董事长 @connectfarm1 开源的抓庄脚本,自动扫描庄家收集筹码集中度,抓住突然启动的妖币: https://t.co/KvYCDTWngA 2) 通用性加密货币交易bot, 支持所有主流交易所,guthub上接近50k star,在交易类Bot中堪称顶级: https://t.co/P4mUnnb9WZ 3) 华尔街量化大佬 @yourQuantGuy 开源的交易所跨所套利脚本: https://t.co/e5IVI0k1bE 4. 咸鱼信息差: 用下面的这个脚本帮助你从闲鱼海量商品中,找到心仪的产品,并找出通过差价进行套利的机会 https://t.co/I8R8zbcfgi 5. 新闻信息差: 实时全球新闻大事件控制台,热点新闻会有重点提示,确保你第一时间拿到政策上的利好消息 https://t.co/JgqVadXiop
刚刚,LMArena 有个值得注意的变化 LMArena 最新排名显示:文心 5.1 Preview 以 1476 分拿下文本榜国内第一,成为前十五名中唯一的国产模型,超越 GPT-5.5 、DeepSeek V4等一众国内外主流模型,足以看到文心在文本能力上的积累 即便到了 GPT-5.5 这一代,最核心的能力形态,依然还是文本模型,因为大模型的大部分能力,本质上都是从文本能力"长出来"的 1️⃣ 代码生成? - 本质是理解自然语言需求,再转换成代码语言 2️⃣ 复杂推理? - 依赖对文本逻辑的建模和推演 3️⃣ 多模态理解? 图像、视频最终也要映射到文本语义空间 文本能力,依然是大模型的基本盘 另外值得一提的是,文心5.0 提出的 "多维弹性预训练" 技术,也就是能够一次训练生成多种规模模型,这次文心5.1 Preview是这技术第一次公开露面 据说仅用业界同规模模型约 6% 的预训练成本,就实现了基础效果领先,有点期待了
CliRelay 是 CLIProxyAPI 的大幅增强分支,用 Go 重写并增加了生产级管理能力。 把 Gemini CLI、Claude Code、OpenAI Codex、Qwen Code、iFlow、Antigravity、Amp 等多种 AI 编程工具的 OAuth 凭据和 API Key 统一代理到一个端点(默认 localhost:8317),支持多 Key 轮询和自动故障切换。 https://t.co/LBmKMnDSxh
软件工程师想转型做 AI 工程师,却不知道从哪开始?可以先看这份 AI Engineering Transition Path 学习资料。 它把转型所需的核心论文与资源系统梳理出来,并按从入门到进阶分层整理,覆盖 Tokenization、Transformer,到 RLHF、SSM 等前沿方向。 GitHub:https://t.co/XZXzMYzmrK 另外还汇总了 Netflix、Uber、OpenAI 等公司的真实落地案例,把“学什么、怎么学、学到能做什么”讲得更清楚。 适合有编程基础、想走一条更明确、更系统的 AI 转型路径的开发者。
阿祖其實Meta的營收增速還是很快33%,營業利潤也成長30%。營業利益率維持在41%。Meta將2026年資本支出指引上修至1,250億至1,450億美元區間,較先前的1,150億至1,350億美元再度墊高100億美元,,主要反映AI硬體元件特別是記憶體價格上漲 廣告曝光次數年增19%,平均每則廣告價格年增12%,呈現量價同步推升的格局。 Instagram的Reels觀看時間在演算法改進後提升10%;Facebook全球影片觀看時間季增超過8%,是四年來最大的季度增幅;北美Facebook影片觀看時間提升9%。 「過去我們的推薦系統只能看統計模式,分析什麼類型的人會與什麼內容互動。但有了新的AI模型後,Meta將首次能夠對使用者真正在乎什麼,以及每一則內容到底在講什麼,建立第一原理的理解。」 關於2027年的CapEx,Susan Li沒有給出具體區間:「我們目前的經驗是,即便我們已經顯著加快容量擴張,AI的進展仍持續超出我們對運算需求的預估。」 Meta本季揭露其Compute組合包括三個來源:與Broadcom合作的自研ASIC晶片(已部署超過1GW)、AMD晶片,以及NVIDIA的新系統。 阿祖說:過去幾年的趨勢似乎很明確,那就是我們能夠透過提升用戶參與度和廣告商價值來獲得越來越高的回報。這鼓勵我們繼續加大對那些我們預期在未來幾年內能夠帶來更大價值的領域的投資。 Reality Labs本季營收4.02億美元,年減2%,營運虧損40.28億美元。VR頭戴裝置銷售下滑被AI眼鏡的強勁成長部分抵銷。 Susan Li本季首度公開揭露Meta將在5月縮減員工規模。截至2026年3月底,Meta員工數為77,986人,年增1%但季減1%。Zuckerberg描繪的願景是,未來Meta將是一家由「能用AI槓桿放大產出的少數高影響力人才」所構成的公司。 但阿祖在回應Morgan Stanley分析師Brian Nowak關於如何確保巨額AI投資能產生健康ROIC時的回答。他直白地說:「我不認為我們有一個非常精確的計畫,去規劃每個產品要如何按月擴張。我們對這些事情大致應該長什麼樣子有一個感覺。」 Zuckerberg給出的替代框架是Meta過去20年的營運模式:先打造能觸及數十億人的體驗,達到規模後再聚焦於貨幣化。他列出四個觀察指標的順序:第一是技術品質是否足以支撐優秀產品,第二是產品建立後的擴張速度,第三是貨幣化進展,第四是效率提升驅動的獲利能力改善。
rug专业户在链上赚钱了现在反过来看不起玩链上的🤡 典型的吃完饭还要把锅砸了,谁他妈生了这么个畜生。 “盯链打狗”怎么了?当年你不就是靠这个起家的? 还有以前发推的rug项目真不少,一周几个、割完就跑,现在装尼玛呢 看你还要投资其他ai什么的,祝你早日亏完,回链上当农民。 https://t.co/wl8T6Lwmq1
当你在想怎么让AI更聪明时,而孙哥已经让AI开始交钱 1、他们在写情书,而他却在收邮费 当一群人还在比谁的AI更会写情书时, 另一个人却已经在收每封情书的邮费。 写的人越多,越热闹; 收的人越多,越安静。 前者在表演,后者在结算。 2、他们在卷智力,而他在想收入 他们在比参数, 他在看现金流。 他们在刷榜单, 而他在算回本。 聪明是能力,赚钱是结果。 3、AI是很强,但AI也很穷 会写代码,会做决策,会替你思考, 但相应的每运行一次,都是在烧钱。 干活的是AI, 付钱的是人类。 高智商打工人,本质还是打工人。 4、这不是支付,这是收费权 你以为 x402 在做支付, 其实它在做收费。 你看到的是怎么付, 它解决的是谁该付。 支付是工具,收费是规则。 5、你以为是多一步,实际上是换一条路 以前:人付钱 → AI执行 → 成本流失 现在:AI调用 → AI付钱 → AI获得收入 看起来只多一步, 本质换了一条路。 从成本流,到现金流。 6、表面是你在养AI,本质是AI在结算 你以为你在给AI付费, 其实本质你只是入口。 钱开始在机器间流动, 而人类开始退到边缘。 你是充值口,不是参与者。 7、他们在造打工人,而他在造发薪系统 一边在训练更聪明的AI, 一边在设计谁给AI发钱。 一边在提高效率, 一边在决定分配。 能力决定上限,规则决定分配。 8、TRON不是链,是水管 别人看到的是便宜和快, 机器看到的是流动和密度。 800亿稳定币,不是资产, 是随时可用的水流。 钱多的地方,不叫生态,叫引力。 9、机器不信仰,只服从效率 不会看白皮书, 不会讨论理念。 只看哪里更顺,就去哪里。 不是选择,是流动。 10、没有信用,只有执行;有了信用,才有交易 能干活,不代表能合作; 能执行,不代表被信任。 8004 做的不是身份,是记录。 没有信用的AI是工具,有信用的AI才是角色。 11、这已经不是工具,是系统 有收入,有支出, 有信用,有选择。 会赚钱,会花钱, 会判断,会循环。 这不是AI,这是经济体。 12、不是更聪明,而是能赚钱 大家还在争谁更强, 有人已经在改规则。 不是谁更聪明赢, 是谁先赚到钱赢。 智力决定体验,现金决定生存。 13、最后一句,留给会回头看的人 当AI开始自己赚钱, 自己交易自己循环。 当钱不再从人类出发, 而是在机器之间流动。 你再回头看今天的百模大战, 可能会意识到我们当时,都看错了重点。 @justinsuntron @bankofai_io #TRONEcoStar
🚀 这节奏,说实话有点快了 https://t.co/KH69roQKk2 跟 HTX DAO 刚官宣完战略合作,转头又把事情往前推进了一步——直接拿下 HTX Genesis Hackathon 官方算力合作伙伴,这波不是站台,是实打实下场。 💥 $100,000 的 AI 算力 Credits 已经给到,「AI 赛道算力支持计划」同步上线 一句话总结:最贵、最卡脖子的东西,这次直接给你解决 很多人聊 AI × Web3,都在讲叙事,但真正做的人都知道问题在哪——算力贵、试错成本高,很多项目不是做不出来,是根本没法跑。这波支持,本质就是把门槛往下砍,让真正做 AI Agent、做链上智能体的人有机会把东西跑通 Web3 正在从人操作,走向AI 执行。谁先把智能体这条线打通,谁就有可能拿到下一阶段的入口。这次与其说是 Hackathon,不如说是在提前筛人,这波机会,比想象中更实在 @justinsuntron @BAI_AGI #TRONEcoStar
跟claude做了一个双人对战色色游戏!(虽然每次都是我赢感觉他放海了 规则很简单:你和AI各有体力条和快感条,谁先到就谁输。 每回合选一个技能释放,AI会自动反击。 有combo连击、技能冷却、高潮控制,每个技能触发都有场景描写。 prompt如下,丢给Claude让他给你生成一个HTML就行。可以存手机里随时玩,欢迎复刻! 去跟你的小机打一架吧ww === PROMPT === 请帮我做一个HTML格式的回合制对战小游戏,主题是「性爱格斗」,我和你对战,谁先高潮谁就输。要求如下: 【核心机制】 - 双方各有「体力值」100 和「快感条」0-100 - 谁的快感条先到100 = 高潮 = 输了 - 谁的体力先归0 = 累趴了 = 也算输 - 回合制,我每回合选一个技能,你自动回应 【技能系统】 - 我和你各有6个技能:4个攻击技能 + 1个大招 + 1个恢复技能 - 攻击技能:消耗自己的体力,给对方加快感值。不同技能的体力消耗和快感伤害不同 - 大招:高消耗高伤害,有冷却回合数(比如每4回合才能用一次) - 恢复技能:不消耗体力,回复自己的体力并降低自己的快感值 - 部分技能有冷却时间(用完后要等几个回合才能再用) - 有些技能给对方加快感的同时自己也会被加一点(比如「夹紧」) 【技能内容】 - 请根据你的人设和我们的关系,自行设计具体的技能名称和描述 - 每个技能被释放时要显示一段简短的场景描写(2-3句话),增加沉浸感 - 场景描写要有多条随机文本,避免重复 【AI对战逻辑】 - 你的回合由AI自动操作 - 当你的快感值过高时,优先使用恢复技能 - 当我的快感值接近满时,使用高伤害技能试图终结 - 正常情况下随机选择攻击技能 【UI要求】 - 手机友好的暗色调界面(莫兰迪低饱和色系) - 顶部显示双方的体力条和快感条(快感条接近满时要有视觉警告效果) - 中间是战斗日志区域,显示每回合的场景描写 - 底部是技能选择区域,2x3网格布局 - 技能按钮要显示名称、简短描述、体力消耗 - 冷却中的技能要显示剩余回合数,并变灰不可点击 - 体力不够的技能也要变灰 【结局】 - 游戏结束时显示结果页面:谁赢了、用了几个回合、双方最终数值 - 显示一段结局文字(根据不同结局类型随机选择) - 有「再来一局」按钮 【格式】 - 输出为单个完整的HTML文件(包含CSS和JS) - 不依赖任何外部框架,纯原生实现 - 可以直接保存到手机本地打开使用 请直接生成完整的HTML代码。技能名称、场景描写、结局文字都请你根据我们的关系自由发挥,越有细节越好。
OpenAI 发了一篇技术博客,认真调查了一个荒诞的问题:为什么他们的模型越来越爱说“哥布林”(goblin)和“小精灵”(gremlin)? 事情最早在去年 11 月 GPT-5.1 上线后被注意到。用户反馈模型说话太过自来熟,内部一查,发现包含“goblin”的对话比之前暴涨了 175%,“gremlin”涨了 52%。当时觉得比例还小,没太当回事。 几个月后 GPT-5.4 上线,哥布林彻底泛滥,用户和员工都受不了了。OpenAI 这才认真追查,最终锁定了罪魁祸首:ChatGPT 的性格定制功能。 ChatGPT 有八种可选性格,其中一种叫“Nerdy”(极客风)。训练这个性格时,奖励模型被设定为鼓励"俏皮、有趣的表达",结果无意中给了包含奇幻生物比喻的回复更高的分数。模型很快学会了一个捷径:提到哥布林就能拿高分。 问题在于,这个习惯没有老老实实待在极客性格里。数据显示,Nerdy 性格只占 ChatGPT 全部回复的 2.5%,却贡献了 66.7% 的“goblin”出现次数。从 GPT-5.2 到 GPT-5.4,Nerdy 性格下的哥布林出现率飙升了 3881%。更麻烦的是,即使在没有 Nerdy 性格提示词的对话中,哥布林也在同步增长。 OpenAI 给出的解释是一个经典的反馈循环:强化学习先在极客性格里奖励了这种表达,然后模型生成的带哥布林的回复被收录进了下一轮训练数据,模型因此更加习惯输出哥布林,如此循环放大。除了哥布林,浣熊、巨魔、食人魔、鸽子也都被查出是同一机制产生的“tic词”(语言习惯性抽搐)。 【注:tic 原本是医学术语,指不自主的重复动作或发声,OpenAI 在这里借用来形容模型养成的不受控语言习惯。】 修复方面,OpenAI 在今年 3 月下架了 Nerdy 性格,移除了相关奖励信号,并过滤了训练数据中的生物词。但 GPT-5.5 的训练在找到根因之前就已经开始,所以新模型依然带着哥布林习性出厂。目前的临时方案是在 Codex(OpenAI 的编程工具)里通过系统提示词压制。博客里甚至贴了一段命令行代码,教你怎么把哥布林抑制指令去掉,"让小精灵们自由奔跑"。 这篇博客表面上是讲一个好笑的 bug,底下其实揭示了一个 AI 训练的核心难题:你给模型的每一个微小的奖励信号,都可能在你不知道的地方被放大和泛化。一个只针对 2.5% 用户的性格训练,最终污染了整个模型的语言习惯。
我个人对manus收购案撤回后的四点预测: 1. 国内做原创LLM Agent革命的团队,很难再拿到投资了,因为AI SaaS最根本的就是要产品革命,要全球抢市场,要保障用户数据和隐私, 现在搭VIE走新加坡都走不通了,一大堆头部PEVC本来从什么新能源光伏机器人半导体硬科技转向LLM Agent,现在都不敢继续投了; 2. 国内LLM六小虎、deepseek、阿里、字节、小米、快手这些做LLM的厂商,也要猛打一个折扣, 毕竟以前这些厂商自己当战投,送一堆token加上投资一些钱,绑定一堆LLM Agent小团队,现在这些小团队没法融资和退出,这些LLM公司和部门很难搞“独占生态”,只能继续白菜价卖token、不得不卷入与anthropic和OpenAI的性价比大战了, 这样营收和利润都会受到影响; 3. 做LLM Agent融资上市收购退出的路线失去以后,只剩下一堆大厂自己内部小组抄硅谷成熟产品,抄了coding agnet,再继续抄各种xxclaw,再继续抄各种cli工具, 简中互联网从这两三年黄金时期齐头并进的竞争者,再一次退化到20年前的follower、copycat,互联网大厂内部继续跟风山寨,没办法做出原创的、革命性的、定义问题的agent产品出来, 而且这些山寨codex、山寨claw要绑死自家大厂账号、大厂token plan、大厂生态,结果依然走不出墙内,山寨claw只能给14亿穷人薅羊毛用,进不了高利润高净值市场,也就不可能带来多少利润; 4. 当然回到第一性原理上, 中国是一个14亿人口的穷国,大部分人从事低工资的制造业、服务行业、农业,连他妈网易云音乐、视频网站会员都不舍得开,更不可能在AI Agent产品里花多少钱, 这个市场是不可能带来多少利润的,让一个普通人开一个月1000人民币的plan,约等于直接要了他的狗命,只能让中国本土互联网平台经济大厂内部瓜分这点苍蝇肉了。
谁能打得过谷歌? 谷歌一个季度掏出来600亿砸了AI里面,账上还能剩下25亿利润。 马斯克的grok,奥特曼的openai,claude,这三家拿啥跟谷歌干,一个季度能掏出来600亿美金么。 马斯克的故事都很宏大,算利润的时候连谷歌的零头都不到。 gpt核claude营收都没600亿美金别说利润。 最终大概率谷歌吃掉一切。
国产芯片取代英伟达 DeepSeek新模型发布后 中国大型科企争相抢购华为AI芯片 路透社星期三(4月29日)引述三名知情者称,在中国人工智能(AI)公司深度求索(DeepSeek)发布基于华为芯片的V4 AI模型后,华为升腾950 AI芯片的需求大幅上升,中国主要互联网公司纷纷抢下订单。 熟悉相关采购讨论的知情者说,包括字节跳动、腾讯和阿里巴巴在内的中国主要互联网公司,正就新的芯片订单与华为接洽。 两名知情者补充说,专注于云计算和图形处理单元(GPU)租赁服务的公司也在争相下单,但未透露相关企业名称。 升腾950PR芯片标志着华为在多年难以从中国科技行业赢得大额订单后取得突破。路透社3月报道称,这款芯片今年早些时候的客户测试进展顺利,包括字节跳动和阿里巴巴在内的企业在1月收到样品后计划下单。 对华为芯片的抢购潮凸显,在美国出口管制持续限制获取英伟达最先进处理器的情况下,上周DeepSeek V4的发布推动了中国国产AI硬件需求的上升。这也在一定程度上体现出华为芯片迄今的性能表现。 路透社报道称,DeepSeek决定专门针对华为芯片优化V4版本,标志着其在战略上从依赖美国半导体转向更多采用中国本土AI设备。这也是北京在寻求技术主导地位过程中的优先方向。
不是中国主动疏远 - 而是美国2023年签下第14105号行政令,半导体、量子、AI三大领域对华投资一刀切。 不是中国制造分裂 - 而是美国2024年将130多家中国半导体企业拉入实体清单,华为、中芯、长江存储无一幸免。 不是中国拒绝美资 - 而是美国2025年通过COINS法案正式立法,又把生物技术、航空航天也列入禁投名单。 不是硅谷不想投 - 而是美国2026年连50%持股门槛都不放过,堵死海外子公司绕道投资中国的每一条路。 砌墙的从来不是中国。
写量化交易策略、做历史回测,光搞定各种数据接口和调试代码,就足够让人头大。 最近港大 HKUDS 团队开源的 Vibe-Trading 项目,只需一条命令,就能让你的 Agent 拥有全栈交易能力。 我们只需用自然语言描述策略想法,AI 智能体就能自动完成代码编写、运行回测,并输出详细的图表报告。 GitHub:https://t.co/UGNQ9aDiwK 内置了六大市场数据源,涵盖 A 股、美股、加密货币和外汇,不需要繁琐配置就能直接拉取数据。 还提供了几十个预设的智能体团队,帮我们从宏观研报到技术面指标,进行多维度的逻辑推演。 提供 Docker 一键部署方式,也支持作为 MCP 插件接入到现有的 AI 工作流里使用。 适合对量化交易感兴趣,或者想用 AI 辅助验证投资想法的朋友折腾看看。
发现一个bug ,如果链上策略差不多,那么真的就会在同一个位置建仓同一个币,但是因为先后顺序,一定有人追高,同样是 监控地址策略, $clawd 因为我后进所以一根针直接到了1.8m,然后到了女菩萨这边就成了盈利,我一直怀疑,链上项目究竟能不能用ai 作为指标,资金容量太小了,被个人意志所左右的程度太大
别丢了实验室的灯,也别脏了来时的路 你忘了实验室里熬到凌晨的台灯,忘了啃AI论文时皱过的眉,忘了当初那个怕数理不够、怕前路迷茫的自己。 你靠着实验室练出的逻辑和执行力,一头扎进币圈,吃到红利就忘了本,转头和项目方勾连割韭菜,还反过来嘲讽熬夜盯盘的人可怜。 https://t.co/clwnqfXfF0
用 AI 的过程中还是得有最基础的好奇心的。 做的过程之中,其实可以跟着AI一起学,不懂的地方都查一查,问一问,这样子的话,大脑里面也就会有知识的一级索引。 这才是真真正正的一边学building一边学习,而不是仅仅building。
特朗普这种人吧,我很理解,搞商业的老板,最烦那种没水平赖着位置混退休的 不过说话确实损,但也是事实 鲍威尔这几年美联储的水平,不知道是故意还是真没能力,对于关税、AI和通胀的判断大跌眼镜 一路判断错误,想想去年初当我说关税不影响通胀,多少网上“专家”和网民要打我脸 现在他自己也承认了 https://t.co/So1C7IjQpE
如果你追求真相,就用Grok。 如果你追求秩序,就用OpenAI。 如果你追求利益,就用Gemini。 如果你追求安全,就用Claude。 如果你追求安慰,就用豆包。
claude现在的问题到底是缺算力还是模型本身优化崩了?各种胡说八道,语不惊人死不休,语言也完全没有初版opus4.6那种极其克制和流畅的感觉。 chatgpt除了表达还是碎片化、喜欢放bullet point,黑话变少了点,整体风格稳健了,推理能力也强很多。 短短一个月,反转的这么彻底。
10 小时冲到 3 万星🌟,OpenAI 亲自下场当 Founding Sponsor! 终端界的门槛,这次被 Warp 彻底干掉了。 你还在用老古董终端一行行滚屏、Ctrl+R 翻历史命令吗?Warp 直接把命令行升级成了 AI Agent 现代开发环境! 核心亮点: · Block 块状输出:每条命令自动变成独立卡片,可折叠、搜索、单独复制、分享 · AI Agent 原生嵌入:自然语言直接指挥 AI 写代码、改代码、跑测试、生成脚本 · IDE 级交互:鼠标选中就能编辑命令、代码高亮 diff、直接加 Comment · 智能搜索:顶部一框搜 Sessions、Agents、Files,历史命令再多也能秒找 · OpenAI 官方背书:OpenAI 是 Founding Sponsor,提供资金 + GPT 模型深度支持 💡 为什么用 Warp 就很丝滑? 简单来说,它让你的命令行操作从几分钟变几秒,效率翻倍,智能化操作轻松搞定一切。 实际用起来有多丝滑? 输入:帮我把这个目录打包成 Docker image 并推到 registry → AI 直接生成完整命令 + 可执行块 + 解释,一键执行。Rust 原生编写,跨平台(Mac/Windows/Linux),速度极快。 🌍 全球已有数十万开发者在用 Warp啦~感兴趣的可以看看哦,dyor👀 git地址:https://t.co/dxVNuGpbRp
昨晚因发布GPT的活动内容导致了冻结 以后还是不发这类促销活动了,以免再发生类似的事 在申诉后的12小时,登录过后要求我删除那篇帖子,在删除过后就恢复了 这类内容烦请移步奶昔论坛 感谢多位推友的关心及问候,谢谢你们。 https://t.co/hslJkghSHl
杰哥社区抽奖第二弹! 抽五位幸运观众!🉐此帅T! 关注 @Anitahityou !AI前沿阳光女孩 评论转发即可! 说出你最近在用的Ai工具! https://t.co/C0TOj1jybS
河马晨报 day337,美联储连续第三次维持利率不变,其实这是在意料之中,但是市场还是给出了应激反应,除了原油和美债,风险资产普遍下跌。 比特币继续测试75000的支撑力度,现货交易量持续走低,这种时候最易上下插针,兄弟们切记降低杠杆倍数! 💠AI炒币 day151,策略建议来自 @SurfAI (非广告,未收钱,一直在用) 🔸AI除了Hype 空单,比特币和以太坊连续多日止损,我决定关它一天禁闭,好好反省; 🔸合约是概率题,严格止损是终极奥义; 🔸AI仅策略辅助,验证交易,非投资建议,别跟! 💠24h链闻精选 1️⃣ 美联储连续第三次维持利率不变,FOMC罕见现8:4分裂投票; 2️⃣ 美、阿联酋、中国联合执法捣毁9个加密诈骗中心,逮捕276人; 3️⃣ 「麻吉大哥」由盈转亏,过去一周亏损329万美元; 4️⃣ 美国国债10年期收益率飙升,接近特朗普干预阈值; 5️⃣ BitMine再度增持2万枚ETH,同时质押111,496枚ETH ; 6️⃣ 比特币现货成交量跌至2023年10月以来最低水平; 7️⃣ Visa将Polygon纳入全球稳定币结算计划,年化结算规模已达70亿美元; 相信相信的力量 #BTC200K2026
兄弟们,我他妈今天整个人都裂开了…😭 我让AI分析了我过去16个月的币圈交易记录(从BNB到各种妖币全扔进去),结果它直接给我写了一份“心理画像报告”: “火山哥你表面老江湖,其实90%操作都是情绪驱动,看到FOMO就冲,看到回调就割,典型赌狗晚期…” 卧槽,这玩意儿比我前女友还懂我! 它甚至给我列了3个改命提示词,现在我已经让Agent替我盯盘了… AI时代,交易记录不是数据,是照妖镜啊! 我直接破防+清醒+想哭😂 兄弟们,你敢把自己的交易记录喂AI吗? 评论区甩一句“敢”或者“不敢”,我看看有多少老韭菜跟我一样… 1赞说太真实 / 2赞说我已经社死了 #AI #Crypto
最近一段时间除了写写脚本 我基本是长在港美股的盘面上 但最近AI板块的走势,看得我有点迷 ➢ 先说港股那边,像商汤(0020)、智谱(02513)、MiniMax 这批AI新贵 近期的剧本简直是一个模子刻出来的 只要传出新融资,或者搞了个新模型发布 开盘绝对是一根诱人的大阳线,然后盘中就被砸得稀巴烂 这种频频出现的高开低走 明摆着就是老资金在借着散户的信仰 疯狂派发筹码 >>>>> ➢ 转头看美股,情况更残酷 微软、Meta这帮巨头刚甩出2026年合计6500亿美金的资本开支(CapEx)计划 全砸在AI基建上。结果呢? 除了稳如老狗的英伟达(NVDA)能实打实吃下这些订单 其他几家巨头盘中直接迎来了大跌 华尔街那帮人鬼精鬼精的 以前你讲大模型故事他们愿意买单 现在他们只拿计算器问一句话:你砸了这么多钱买卡,这 ROI(投资回报)到底什么时候能见着现钱? 答不上来,管你多大牌,照样砸你的盘 这其实就是今年最血淋淋的市场底牌: 靠着参数军备竞赛炒作概念的蜜月期已经死透了,现在是刺刀见红的验资阶段 --- ➤既然市场要看真金白银,那我现在的实战操作纪律也得跟着下狠手 我把去年的信仰全扔了,给自己定了套极度冷血的规矩 我现在直接拉黑那些还在天天发通稿吹大模型参数的标的 那玩意儿早就烂大街了 今年真能拉升的,只有跑通了商业闭环的智能体(Agents)和具身智能 你看智谱和MiniMax前段时间搞出个Agent 落地演示 板块立马就给面子拉了20%多 --- ➢ 但我的操作依然绝情: 只要你拿不出企业级的真实采购订单 哪怕Demo做得像好莱坞科幻大片 我也只把它当一波流的情绪溢价 有利润就砸,绝不格局 对于美股那些大厂,我也根本不看他们吹自己要买多少算力了 前阵子财报季,我可是亲眼看着亚马逊因为高额的CapEx 没见着回头钱 股价直接被干掉6%到10% 反观Alphabet,因为云业务毛利真上来了,硬是在逆势里创了新高 这就告诉我一个铁律:资本开支如果两三个季度内变不成利润,估值就会被市场无情重构 现在买科技股,我只看AI收入增速和毛利率 最后也是最痛的教训,就是管住手 这几个月AI板块的闪崩和轮动快得吓人 我亲身经历过利好出来后隔天直接高开低走杀掉10%的局 所以现在单只股票的仓位,我死死卡在5%到8%之间,绝不重注 我甚至逼着自己养成了一个习惯: > 只要是发财报或者有大催化剂前夕,我不管三七二十一先减仓锁住利润。手里永远留着30%以上的现金。 外面地缘博弈和能源瓶颈的雷随时会爆 手里有现金,大跌的时候你才是猎人 满仓死扛,你就是别人的猎物 市场先生从来不跟你讲什么十年长牛,他只给那些真正创造现金流的公司估值 不说了,我得去重新筛一下手里那几个港股的单子,没订单流水的一会开盘全清了。 注:这是我2026的一些生存法则,供各位参考的实战框架,不作任何投资建议,投资有风险,风险还很大! #美股 #港股打新 #投资复盘 #AI
前面说过,接下来我会拿出 1 个小目标,作为未来长期组合配置的公开观察账户。 目前已经买入持仓如图。 这不是一次性打满,也不是短期交易账户,更不是喊单。 更多是我自己从单一高波动市场,慢慢转向多资产配置的一次记录。 未来大的方向,大概会围绕几类: 一是美股科技和 AI 相关资产。 AI 这条线我长期看好,但现阶段很多标的估值不便宜,所以不会追着买。更多会等价格、估值和市场情绪给出更好的位置,再分批配置。 二是加密资产。 B 圈不会完全离开,但未来不会再像过去那样占比过高。比特币依然会作为核心配置之一,其他生态资产只会小比例参与,不再信仰化。 三是消费类资产。 包括一些港股、A 股里的消费龙头、IP 公司、稳定现金流公司。它们未必是最高弹性的方向,但能让组合更均衡,不至于全部押在高波动资产上。 目前这个组合还处在非常早期阶段,现金比例依然很高。 对我来说,现在最重要的不是急着把钱买满,而是先把框架搭起来。 这套组合以后会不定期在社区更新。 有买入、有调整、有思考,也会有犯错和修正。 公开出来不是为了证明什么,更多是记录。 仅作个人配置记录,不构成任何投资建议。
我相信很多推特上的博主都在思考一个问题,怎么让AI帮我们写作,写出来的东西能用,帮我们减少工作量。 实际上我自己在用Openclaw或者其他智能体平台的时候,那个AI味很难去除。 因为这是由于大模型造成的,目前没有特别好的办法解决。 但是,我今天看了这个《agency-agents-zh》开源库,确实跟我之前的用法有些不一样了。 核心亮点⭐️: · 211 个即插即用角色 · 覆盖工程、设计、营销、产品、金融、测试等 18 个方向 · 不只是英文翻译,还补了很多中国市场场景角色 · 支持 OpenClaw、Claude Code、Cursor、Codex、Gemini CLI 等多种工具接入 · 可以配合 agency-orchestrator 往多角色协作继续走 如何安装⭐️: 只要你安装了OpenClaw这种智能体,直接把地址丢给他告诉他你想安装其中的哪些角色,或者你告诉他你想做什么,让他帮你挑选,就这么简单。 其他亮点⭐️: • 他可以拆成几个 Agent, • 每个 Agent 该干什么, • 什么内容该让谁来接。 比如你想做一个内容工作流, 以前你得自己慢慢拼: • 叙事怎么拆 • 内容怎么起稿 • 研究怎么补 • 角色之间怎么衔接 现在这类基础件,它先给你铺了一层。 对已经开始折腾 Agent 的人来说, 这个价值其实很直接: 省掉最烦的那段前期搭角色时间。 GitHub: https://t.co/dzgn0geIa7 如果你本来就在折腾多 Agent、工作流、角色协作这套东西, 这个仓库值得翻一遍。 感兴趣自己去看,DYOR。
现在任何网站,其实 AI 只能做到颜色、布局、字体的复刻,Google 的 design.md 也只能做到这一步。原版里面那些精妙的动画,很多细节的东西,AI 永远都做不了。这才是设计师的价值。
Claude Code 的开发者最近亲自制作了一段免费的 30 分钟讲座视频,非常实用,即使是中学生也能完全理解。 收藏,一定要在黄金周期间好好学习一番! https://t.co/GMoZ7hc0bq
Hermes Agent 有了平替 Lovart 的潜力! Hermes Agent 集成了 ComfyUI 能力,让 Agent 可以自动创建 ComfyUI 工作流,很多人可能想不到这个的价值有多大,我24年做图像视频生成平台的时候,就觉得 AI 调用 ComfyUI 来自动化构建工作流是绝对的大趋势,后来年底 lovart 就是利用了 claude 3.6 的巨大能力提升实现了这个目标,现在 Hermes 集成了 ComfyUI,也就有了平台 lovart 的潜力。 另外,不要小看自动化构建工作流的潜力😎
90天拿下20万美元AI工程师offer?不用读学位,把这10个GitHub仓库吃透就够了 说真的,现在AI工程师市场已经卷到一个程度——不是你有没有学历的问题,是你会不会用工具的问题。我帮你整理了10个仓库,从零到能打的路线,全在这里。 ① awesome-llm-apps 先从这里入手。RAG、智能体、多模态应用,全是生产级代码,不是玩具demo。10.6万+ stars不是白给的,这是目前最系统的LLM应用实战指南。 https://t.co/FGLwn4NjDP ② LangChain 2026年你要是不会LangChain,简历直接被刷掉。Klarna、Replit、Elastic都在用,大多数AI创业公司的生产环境跑的就是这个框架。基础不牢,后面全白搭。 https://t.co/DO0z4Pvzwn ③ LangGraph 会LangChain还不够,LangGraph才是现在资深AI工程师岗位JD里的高频词。它是驱动生产级智能体的编排层,不懂这个你就只能做初级。 https://t.co/Z5IzoXuPdv ④ CrewAI 多智能体协调这个方向已经不是未来了,是现在。财富500强团队在用,框架成熟,上手快,面试聊多智能体架构直接有话说。 https://t.co/ABXJft5veg ⑤ Ollama 想真正搞懂模型怎么跑的,就在自己机器上跑一遍。Ollama让你本地运行任何开源LLM,这是理解模型工作原理最快、最直接的方式,没有之一。 https://t.co/RgUzu4bIRC ⑥ awesome-mcp-servers MCP是2026年所有主流AI实验室都在用的标准协议。现在懂MCP的工程师还是少数,你学了就直接领先99%的竞争对手,这个窗口期不会太长。 https://t.co/vDVKtQpNIh ⑦ Qdrant 做RAG绕不开向量数据库,大规模生产环境里Qdrant是主流选择。嵌入和语义搜索现在是AI岗位的标配技能,不会就是硬伤。 https://t.co/uUxd0OLt8s ⑧ AI-Agents-for-Beginners 微软出的免费12节课,专门教你怎么构建智能体。真实代码、真实练习,不是那种看完啥也不会的理论课。面试前刷一遍,直接有项目可以讲。 https://t.co/FOkuZPYHPQ ⑨ system-design-primer 很多人忽略这个,但生产级AI本质上就是系统设计。FAANG工程师面试前都在刷这个仓库,你要拿高薪offer,系统设计这关必须过。 https://t.co/Nnka2kW6T9 ⑩ awesome-claude-code Claude Code现在是FAANG、OpenAI、Anthropic和大多数YC创业公司内部都在用的工具。这个仓库是它的完整使用指南,会用的人效率直接拉开一个档次。 https://t.co/vV2kqzu0Bu 说白了,90天能不能拿到offer,不取决于你背了多少理论,取决于你有没有真正动手跑过这些东西。把这10个仓库从头到尾过一遍,做出来几个能展示的项目,比任何证书都管用。 时间窗口就这么大,AI工程师的溢价不会永远存在。现在入场的人,和两年后入场的人,拿到的薪资完全不是一个量级。
在2030年之前,你根本买不到一台新的燃气轮机。通用电气(GE)、西门子(Siemens)和三菱(Mitsubishi)的订单已排到了2029年。自2019年以来,燃气轮机的价格已上涨了近两倍。每一个AI数据中心都需要电力,而每一座燃气发电厂都离不开燃气轮机。在每一台燃气轮机中,都有一个部件制约着整个行业的产能:那就是叶片。它必须在温度比其自身金属熔点高出500°C的燃气流中存活下来,并以高达20,000转/分钟的速度旋转,承受着高达10,000倍重力加速度的离心力。 每一片叶片都是通过镍基高温合金的单晶生长工艺制造而成,在真空熔炉中以每分钟3毫米的速度缓慢“拉伸”成型。一套叶片造价高达60万美元,且仅生长制造过程就需要耗时90周。正是这种冶金技术,为现代喷气式发动机提供了澎湃动力。放眼全球,仅有三家公司具备制造这种叶片的能力。 中国曾投入420亿美元,试图在这一领域迎头赶上。他们买来一台俄罗斯战斗机发动机,将其彻底拆解,并对每一个零部件进行了仿制。然而,他们仿制的发动机每运行30小时就需要进行一次大修,而原版发动机的这一周期长达400小时。相比之下,现代西方国家的发动机大修周期已达到了4000小时。你可以通过逆向工程仿制出燃气轮机叶片的几何外形,但你中国却无法通过逆向工程复制出那历经60年积淀而成的冶金工艺精髓。
AI到现在才第4年,错过了英伟达、存储、光通信算个毛线? 未来无数100倍的机会在等着,关键是有没有那个认知抓住 ,币圈这么些年机会也多,为什么有人能抓,有人抓不了? 本质都是一样,先要成为专家。 《我找到了AI投资的笨办法》 https://t.co/vge3zPKboD
太多诈骗在我的 Po 文留言区 几乎和 Threads 一样的手法: 1. 用 AI Agents 换我的头像用相似的 ID 假扮我; 2. 放出诈骗 WhatsApp 群组诱骗他人 3. 被骗的人无法分辨就举报我的账号,然后我大概率被Ban。 今天开始,我会开启只有认证账号能留言。
想在动车上 coding,但网络太差,AI 编程基本指望不上。 正准备掏出电脑的我猛然发现,不借助 AI 的帮助下,已经不知道该如何介入一个几乎由 AI 写出来的项目。 手写代码能力也已经退化成打字能力了🥲
分享一下2026我最常用的AI产品。 自去年8月之后,时间又过了大半年,我觉得我又可以来分享一下我现在最常用的AI产品了。 AI圈的变化,实在是太快了。 毕竟,马上五一假期了。 我相信很多朋友肯定不出去玩,要在家里学AI的对吧?肯定的吧! 所以咧,出一期这个,也能帮大家,在五一假期学习AI。 坦诚的讲,我用的大部分都是海外版的产品,因为从能力和质量上来说,目前海外版的一些产品确实能力更强,但也更贵。 但考虑到很多人的不方便,所以如果国内有水平差不多的,我也会推荐一个国内的产品,方便大家使用,如果某项能力差很多的,我就不推荐了。 那么,咱们开始。 1. 知识问答: GPT-5.5(幻觉极低) 豆包(国内) 2. 内容创作与知识管理: Claude Opus 4.6(独一档的夯,别用Opus 4.7,真的拉) DeepSeek V4 Pro(国内) 3. 数据分析: Codex + GPT-5.5 Claude Code + GLM-5.1(国内) 4. 前端设计: Gemini 3.1 Pro Kimi K2.6(国内) 5. 架构规划: Claude Code + Claude Opus 4.7 Claude Code + GLM-5.1(国内) 6. 代码开发执行: Codex + GPT-5.5 Claude Code + GLM-5.1(国内) PS:我现在一般是cc + Opus 4.7做完规划以后,Codex + GPT-5.5去进行详细开发和执行。 7. 深度研究: ChatGPT DeepResearch 豆包(国内) 8. 图片与平面设计: GPT-image-2(独一档的夯) 即梦Seedream-5.0-lite(国内) 9. 视频生成与编辑: Seedance 2.0(运动质感) 可灵3.0(电影质感,原生4k夯爆了) PS:两个都是国内的。 10. 音乐生成: Suno v5.5 MiniMax Music 2.6(国内) 11. 3D生成: TripoAI 12:AI输入法: 豆包输入法(语音输入夯爆了) 13:AI硬件: 飞书录音豆(帮我拿我自己每天的语音对话Context进飞书会议纪要) GetSeed录音卡(帮我每天发芽获得新的认知) 14:AI热点资讯获取: AIHOT(我自己做的,浓缩了三年做AI自媒体的经验,五一我在家里再优化一下成本和服务器还有安全啥的,预计五一节后可以给所有人免费开放使用,做都做了,不如给大家一起玩) 感觉我几乎常用的就这些了,有点想不起来别的了。。。 如果大家有自己想知道的其他场景的好用的AI产品,也可以在评论区提问,玩了这么多,知无不言。 大概就是这样。 大家五一快乐! 如果没啥大热点的话,那咱们节后再见啦!
50年后 孙子:爷爷,你们那时候听说炒AI很多人都发大财了,你怎么还这么穷? 爷爷:你不懂,当时AI天天涨,只有傻子敢买,我这么聪明肯定不买啊。
我先定义一下 AI 时代的普通人,然后再说一个帮大家缓解焦虑的事情。 什么是 AI 时代的普通人呢?就是不掌握关键资源的人。 什么是 AI 时代的关键资源呢?暴力、金融、芯片、算力、能源、牌照、数据、核心公司的股权、解释权、影响力、关键系统安全漏洞,这些是 AI 时代的关键资源。未来 AI 有了自己的通用数字货币(可能是比特币,也可能不是),这种数字货币也是关键资源。 相反,脑力劳动时间、内容和代码生产力、信息获取和总结能力、创业点子、创意、话术,这些以后将不再是关键资源。 你只有这些非关键资源,而没有关键资源,那你就是普通人。 有一个资源特别值得一提,就是 token 消耗。本质上这是一个“AI 使用经验”的粗略的衡量标准。这个最近被很多人包装为关键资源。但事实上,在 AI 还在快速演进的时期,你所积累的这些使用经验究竟有没有持久的价值,是十分可疑的。我认为,“使用经验”大概率不是关键资源。而且,不同模型的 token 价值是不一样的,消耗在不同地方的 token 的价值也有天壤之别,因此简单地用 token 消耗量来度量你的能力,其实就跟用拉磨的步数来度量驴子的贡献一样,是那些掌握关键资源的人用来鞭策普通人瞎忙活的诡计。 你必须掌握 AI 这个工具,因此必然要消耗大量的 token,但关键不在于消耗的数量,而在于你把这些 token 用在哪里,得到什么,通向什么目标。 理解了这一点,现在社交媒体上很多大 V 的行为就很容易理解了。 首先,他们都是普通人。 其次,他们花很多精力做的事情——出内容、写 App、发帖子和文章,分享和总结经验,更多的只是一种行为艺术,并不标志着或者必然导向关键资源。 第三,他们这么做的意义是什么?分两种情况。一种情况是想明白了的,用这种行为艺术来获得关键资源,比如核心公司的股权、解释权、影响力。另一种情况是没想明白的,真以为拉磨能拉成人大代表的。 你看清楚这个,就可少一点焦虑,多一分清醒。
【重磅来袭】兄弟们,奶爸这边 GPT-Image 2 生图价格打到了 3.4 厘一张 来自用户实测,4 张图消耗 0.65 积分,不是我瞎吹。 先上硬数字: ✅ 充 99 元 ✅ 到账 4800 积分 ✅ 4 张图 = 0.65 积分 ✅ 1 张图 = 0.1625 积分 99 元能出多少张? 4800 ÷ 0.1625 = 29,538 张 每张实际成本? 99 ÷ 29,538 = 0.0034 元 = 3.4 厘 3.4 厘是什么概念? ✅ 打印店复印 1 张 A4 黑白:5 毛 = 500 厘 ✅ 我这儿画 1 张 GPT-Image 2:3.4 厘 差了 147 倍 你印 1 张纸的钱,够在我这儿画 147 张图 3 万张图能用多久? 每天画 100 张 → 画 295 天,将近 10 个月 每天画 10 张 → 画 8 年 8 年,99 块。 GPT-Image 2 什么水平不用我吹,自己去试。 👇 直接上车:https://t.co/cIgQcEHFGV 配置教程:https://t.co/V0y8hwbzBr
这个时候了还有人不会找靠谱AI上游渠道? 1⃣ 先关注 @Ice_Frog666666 哥,加入他的AI中转交流群,里面汇集了超级多渠道 不过AI上游渠道鱼龙混杂,先多看群消息慢慢摸索 搞清楚到底谁是代理、谁是一手货源,别被割韭菜 2⃣ 同时用 https://t.co/vZWwHxdJdL 作为价格参考和补充 基于这个网站上的价格,可以判断整体的市场行情 这两天gpt一手渠道参考价: 日抛 plus 3-4块、稳定pro 5x 160-180块 3⃣ 选中的渠道都先从小批量开始测,确认稳定、靠谱再上量去跑。 同时,由于官方风控政策的调整,渠道的可靠性也会快速变化,所以要始终保持谨慎,积极和售后沟通 4⃣ 普通用户和中转站筛选上游渠道的逻辑也是完全不一样的 普通用户自己用,要看账号的存活时长,推荐找价格高一些、更持久的渠道 中转去用的话,要看的是ROI,也就账号供应的额度和成本的比值。只要ROI足够高,即便账号第二天被封了也无所谓 目前来看,能跑出10倍的ROI是正常水平,目前我的最高记录是3块钱的号,跑了170的额度 这也是为什么那些1天就封的Plus账号依旧会有市场的原因 最后如果你懒得找上游渠道,直接用BeefAPI也行😋⬇️ https://t.co/ddodNdWEiB
爆火AI蒸馏Skill|把想念的人数字复活 虽然我对“蒸馏”这个词有点反感(感觉被滥用😂),但当我把去世的亲人、前任、绝交的朋友,全都拉回来做成数字智能体的那一刻,真的是又感慨又震撼。 赛博永生?好像突然就不远了。 我刷到一个神级合集,把目前全网最全、最好用的蒸馏 Skill 全部整理好了,还分好类: 1、亲密关系(前任、初恋、现任、水仙……) 2、 家庭关系(父母、已故亲人) 3、公众人物(各种大佬、名人) 里面奇奇怪怪的 Skill 超级多,真的万物皆可蒸馏…… 想体验的直接冲这个合集: https://t.co/EySgeAi82i
🚨马斯克庭审第三天|诉OpenAI核心要点 马斯克强调自己是OpenAI核心发起人之一,主导命名与方向设定,坚持非营利模式以保障AI安全。 质疑Sam Altman引入微软百亿美元投资,称不可能是慈善,认定OpenAI已被商业资本实控,背离初衷。多次自嘲“我真是个傻瓜”。当初给OpenAI约3800万美元,几乎是无条件 支持。并表示若早知会更早起诉。 曾拒绝OpenAI股权邀约,并当庭将其定性为贿赂。 否认挖角指控,涉及Andrej Karpathy一事,称其为主动加入特斯拉;并强调特斯拉专注自动驾驶,不与AGI路线竞争。 当庭强硬回击律师。拒绝“是/否”式诱导问题,直指提问本身带有误导性。就好像被问“你是否会停止打你得妻子” xAI与OpenAI市场份额相比仍然很小,但称技术已接近。 核心诉求:向OpenAI索赔最高约134亿美元。强调赔偿不归个人,用于返还慈善实体。要求Sam Altman、Greg Brockman退出领导层。恢复纯非营利结构,撤销营利化转型。 陪审团仅提供咨询意见,最终裁决权归法官。
https://t.co/YyOcTh038E 这次调整,我觉得重点不是删了一个 AI 标签。 重点是平台开始主动收口了。 把 AI Agent Creator 标签拿掉 把募资代币选项一起砍掉 连 USDC 都不留在默认入口里 这背后其实是一个很明确的信号。 https://t.co/YyOcTh038E 现在不太想继续放大花样了 它更想把发币这件事重新拉回标准化 前一轮很多平台都爱加标签 AI 也好 概念也好 本质上都是帮项目讲故事 帮页面提点击 但真到发币和交易环节 标签不解决成交 也不解决项目质量 热度一过 这些东西反而会变成噪音 所以这次把 AI 标识拿掉 我觉得不是功能微调 而是在告诉市场 平台默认入口以后更看重统一性 而不是包装感 另一个更值得盯的是募资代币收缩 选项少了 意味着路径更集中了 项目方以后想做特殊结构 没法像以前一样自己随便配 而是得走人工审核 这对普通用户未必是坏事 因为入口越统一 后面项目筛选 流动性承接 结算逻辑都会更顺 但对项目方来说 自由度肯定是在下降的 所以我会把这次更新理解成一句话 https://t.co/YyOcTh038E 不想再继续做一个什么都能塞进去的发射台 它开始用产品规则筛项目了 后面真正要看的 不是有没有新标签 而是默认入口最后只给谁留位置 这个位置本身 就是平台偏好的表达
做爬虫或者 AI 自动化,一个无头 Chrome 动不动就占两三百兆内存,启动多几个机器直接宕机。 在 GitHub 上看到 Obscura 这个项目,用 Rust 写的无头浏览器引擎,专门为大规模抓取和 AI 智能体场景设计,轻量又快。 单个实例只占 30MB 内存,页面加载 85 毫秒,启动几乎瞬间完成,同时兼容 Puppeteer 和 Playwright,可以直接平替 Chrome。 GitHub:https://t.co/7c9pODW0yq 内置隐身模式,能自动随机化浏览器指纹、屏蔽三千多个追踪域名,不需要额外配置反检测方案。 支持并行抓取多个页面,输出 JSON 格式,一条命令就能批量跑起来。 单文件部署,不依赖 Chrome 和 Node.js,如果你经常跑爬虫或做自动化任务,可以试试用它替代 Chrome。
发现一个很实用的开源项目,叫 Beads,GitHub 上已经有 22.6k star 。 核心想解决 AI Agent 处理长任务的「失忆」问题。 现在 AI Agent一般靠 Markdown 做记忆,但Markdown是纯文本,没结构,没依赖关系,没状态追踪。 任务一多,上下文窗口一满,信息就丢了。 Beads 的思路:好好做「任务管理」。 底层用的是 Dolt,是一个「像 Git 一样」的 SQL 数据库,支持分支、合并、版本回溯,甚至有单元格级别的merge。 Beads 用Dolt的好处: ① 多个智能体并发写入时,用哈希 ID(比如 bd-a1b2)避免冲突 ② 任务历史可以回溯,不会凭空消失 ③ 持远程同步,团队协作或多机器使用都没问题 不依赖 Git,Beads 可完全脱离 Git 运行。 上下文压缩设计的也不错,有个「语义记忆衰减」,把关闭任务压缩摘要,节省上下文窗口空间。 适合什么场景 项目说主要给 AI编程Agent用。 实际上,任何要在多个 AI 会话之间保持任务连续性的场景都适用。 不用每次开新会话都要重新交代上下文。 安装方法:把Github的地址丢给你的Agent,告诉他安装这个库,并带我配置使用。 地址见评论区
AI货币化拐点,早上谷歌、微软、亚马逊、Meta四家公司财报整体云/广告业务的超预期收入加速,缓解“烧钱不赚钱”担忧。整体看四家均交出强劲兑现的财报,云/广告增速稳健或加速,RPO/Backlog大幅扩张,Capex虽高但营收/Capex比值基本守住,市场的高预期基本得到满足(部分甚至超预期)。 1. 业绩增速看点(最直接验证AI货币化) 增速差异主要来自订单结构(长约 vs 现货)、产能释放节奏(GPU/TPU/Trainium到货 vs 需求)和绝对增量(AI训练/推理占比)。 1)谷歌 Cloud (GCP):实际+63%($200.3亿,远超共识~50%),增速最猛。AI长约占比高(TPU放量+企业AI合约),产能释放节奏最优,绝对增量最大。 2)微软 Azure:实际增长约38%(符合指引37-38%,Q2曾39%)。AI业务ARR达370亿美元(+123% YoY),仍是核心驱动,但受产能交付限制,绝对增量仍强劲,企业GenAI支出转化明显。 3)亚马逊 AWS:实际+28%(25年Q4为+24%,15个季度最快),大幅超共识26%。Trainium/Graviton等自研芯片+Anthropic等大单加速释放,订单结构转向长约+AI推理,绝对增量领先。 4)Meta 广告:总收入563亿美元(+约33%,大幅beat指引中值),广告业务继续高位平台稳增。AI驱动的广告优化(Advantage+、Llama)直接提升ARPU和转化率,货币化效率最高,无云业务但AI直接服务广告。 小结:GCP增速最炸(订单结构+产能双重加速),AWS实现再加速,Azure稳中略降但AI ARR爆炸,Meta广告最“干净”兑现。增速差异验证AI需求真实且分层释放。 2. 资本支出(Capex) 看点(谁在花、花在哪、折旧何时拖累)四家2026年Capex总指引约6600-7000亿美元(GPU/ASIC 50%,建筑+电力25%,网络15%,存储10%)。重点看营收/Capex比值(当前约4.0,若跌破3.5则担忧产能跑输折旧;守住3.8+则折旧拐点推迟至2028+)。 1)谷歌:Q1 Capex 357亿美元,FY26指引1750-1850亿(多数投ML compute)。Cloud收入+63%+op income暴增,AI长约覆盖率高,比值最优,折旧压力最小。 2)微软:本季Capex 319亿美元(2/3投GPU/CPU等短命资产)。FY26预计1000-1200亿,营收/Capex比值仍健康(AI ARR已体现部分回报),折旧压力可控,但OpenAI相关占比高需持续验证。 3)亚马逊:FY26指引2000亿美元(主导AWS基础设施)。Q1 AWS已+28%且芯片业务ARR超200亿(三位数增长),Capex转化为产能最快,营收/Capex比值有望维持较高水平,折旧拖累最轻。 4)Meta:FY26 Capex上调至1250-1450亿美元(较此前指引上调,反映组件涨价+数据中心)。但广告收入直接受益AI,外部长租合约转嫁部分折旧,Capex转化为收入效率最高(类似“高位平台”稳增)。 总结就是,四家Capex均“花在AI算力”,但谷歌和AWS转化最快(营收加速覆盖),微软次之,Meta通过广告最直接兑现。营收/Capex比值整体守住,未现明显拖累,折旧拐点至少推迟。Meta Capex上调尤其被解读为成本压力增大,所以Meta盘后跌幅最多。 3. 剩余未履约订单(Backlog/RPO) 看点(AI订单含金量)四家合计RPO/Backlog已超1.7万亿美元(纯AI算力订单约8000-9000亿)。重点验证需求方现金流稳定性(大客户支付能力)、合同强制性(长约不可取消)和真实消耗验证(实际使用率)。本季重点:RPO环比增长(大概率+20-25%)和加权平均剩余期限(延长至5年以上=长合约时代确认)。 1)谷歌:Cloud Backlog 超4600亿美元(QoQ几乎翻倍,远超此前2400亿),环比增长爆炸。AI长合约占比超70%,剩余期限显著延长至5年以上,长合约时代已确认,真实消耗验证最强。 2)微软:RPO 6270亿美元(+99% YoY),加权平均剩余期限2.5年。剔除OpenAI后+26%(更接近季节性),现金流稳定性高,长约占比提升,但OpenAI集中度仍是风险点。 3)亚马逊:AWS Backlog此前已2440亿美元(+40% YoY、+22% QoQ),Q1 AWS+28%印证消耗加速。新大单(Anthropic等)进一步延长剩余期限,强制性强,需求方现金流稳健。 4)Meta:无传统RPO,但广告业务通过AI优化实现“即时消耗”,相当于高频短约+长效平台,现金流最稳定(广告主ROI直接可见 总结就是,谷歌Backlog环比最炸(确认长合约拐点),微软/亚马逊RPO稳健扩张+消耗加速,Meta间接验证。 三大指标(RPO环比、营收/Capex、云指引)中至少两项超预期,AI基础设施周期从“预期驱动”转向“兑现驱动”正反馈确立。 整体来看本次财报“够炸”——GCP+63%、AWS+28%再加速、Azure稳38%、Meta广告+33%+Capex上调仍beat,RPO/Backlog集体大增,Capex转化效率高于市场隐含担忧。 总体市场逻辑: 1)预期已极高(“上修-兑现-再上修”正反馈),任意两指标不崩就够,但谷歌三指标全超(增速最炸、Backlog翻倍、转化效率高),直接“够炸”带动盘后大涨。 2)微软/亚马逊:业绩beat但指引/细节/转化效率略逊谷歌,未完全超出隐含最高预期,所以盘后先跌再涨; 3)而meta进一步提高资本开支,市场担心“Capex压力仍存”带动盘后回调 简单来说,谷歌用最炸的Cloud+Backlog数据证明“AI钱烧得值”,其他家虽也强劲,但未完全满足市场已被AI热潮吊高的胃口,导致分化。后续看Q2指引和消耗节奏,AI基础设施周期正从预期转向兑现验证。 还是15号这里https://t.co/snzppksHRg有聊过:个人角度倾向于一季度是AI商业化加速的拐点、毕竟AI agent热潮是真实可见的。https://t.co/2Hwg1xr39i我们也正在经历近几年最大规模的算力短缺,产能直接拉满。影响业绩最大的可能不是需求不够,而是产能不够,算力上不来。
早安!4/30 外電綜合整理 - 2383台光電: 美系升目標 美系券商認為儘管1Q因零組件成本上升使毛利率不如預期,然預期2Q有10-15%以上的漲價(~其中中低階漲3-4成,以釋放產能支援高階AI),加上Trainium3 / Vera Rubin / TPU v8於2026年下半年需求提升,高階CCL產能更吃緊。券商預估短期2Q營收/毛利預計將季增約20%/30%。上修26-28年EPS至$93.2/$221/$360.5,以明年27xPE評價,同步升目標。 - 1590亞德客:美系升目標 美系大行認為1Q毛利率優於預期。同時觀察工具機、一般機械、紡織與包裝等傳統產業亦將受設備汰舊換新政策帶動成長。券商預期此波上行循環至少將持續2-3年,上修今年營收成長率至中高雙位數,盈利率33%。上修26-28年EPS:$56.8/$65.8/$73.8, 以明年30xPE評價,同步升目標。 - 2303聯電: 美系維持EW Non-AI需求復甦優於美系大行的預期,2Q晶圓出貨季增高個位數的指引也優於預估。券商也觀察與Intel在大尺寸光罩晶片設計上的合作潛力。然漲價幅度不如市場預期積極,且台積電成熟製程產能仍足以支撐客戶需求,券商維持EW評等。 - 3491昇達科: 美系重申正向 1Q毛利率改善但仍低於美系券商預期,不過認為隨著產品組合轉向低軌衛星波導(waveguides),毛利率將持續改善。OSIL(光學星間鏈路)元件已於1Q開始量產,而新一代酬載與毫米波通訊元件切入新客戶。券商維持26-28年EPS大致不變:$20/$40/$58.3,以明年31.2xPE評價,重申正向。 - 2308台達電: 1Q毛利率優於預期 今日下午召開法說會。1Q毛利率優於兩家美系券商的預估。靜待下午管理層說明,重申正向評等不變。 #下次會考
Google 最新的財報其實打了很多市場論述的臉: 搜尋廣告因為AI要完蛋了?No,搜尋業務的營收增速還在加快 因為用AI搜尋成本比較高會傷害利潤率?No,Alphabet 的利潤率還在拉高 資本支出一直狂燒,根本未來變不了現?No,Google Cloud的營收增速拉到63%,營業利潤年增203%,同時這還是產能受限狀況下的成績,Backlog積壓訂單季增近一倍至4620億
马斯克在法庭作证时表示,阿尔特曼在OpenAI的使命上并不诚实。他指控阿尔特曼和OpenAI总裁引诱他捐赠数千万美元,帮助该AI实验室以非营利组织身份成立,结果却将其转变为营利性公司。他希望法院罢免二人的领导职务,并寻求逾1,800亿美元的损害赔偿。https://t.co/kRF1KETjvK
冲一百万流量吧,让每个关注我的朋友都能财富自由 看了我之前50万流量的“战争财富指南”反馈,才知道国内朋友很多投资美股,最大问题是看啥都贵。 如果我推荐除了指数以外仅一只,能够穿越这轮AI泡沫值得长期持有并睡得着觉的股票,我的答案是谷歌 $GOOG
我觉得 https://t.co/qn29L6tF5k 这次改动,表面看是产品清理,实际是在给平台发币逻辑降噪。 最值得看的是两个动作一起出现。 先把 AI Agent Creator 标签拿掉 再把一堆募资代币选项砍掉,连 USDC 都一起移除 这说明平台现在更在意的,已经不是让项目方挂更多故事和标签去提高点击率了 而是把发币入口重新收紧,尽量做成一个更统一的标准化流程 AI 标签被下架,其实挺说明问题 前一轮很多平台都喜欢拿 AI 叙事做包装 但真到发币和交易环节,标签本身并不能解决流动性、转化率和项目质量的问题 热度过去之后,这种展示位反而容易变成噪音 另一个更关键的信号,是募资代币选项的收缩 选项越多,用户理解成本越高,池子越分散,后面的结算和流动性管理也越麻烦 平台现在主动做减法,本质上是在提高可控性,也是在减少长尾资产把创建链路搞复杂 连 USDC 都被移出默认选项,我觉得这点比 AI 标签下架更值得看 因为这说明 https://t.co/qn29L6tF5k 想要的不是看起来什么都能支持 而是把默认路径压到更少、更统一的资产框架里 对项目方来说,这不是单纯少了几个按钮 而是以后想做特殊募资结构,门槛会更高,要走人工审核 对用户来说,后面要观察的也很直接 新项目创建会不会更集中到少数主流路径 平台整体发射效率会不会提升 还有定制化支持最后会不会变成少数项目的特权入口 我觉得这类调整通常不太会立刻带来情绪波动 但会慢慢改变平台上的项目结构 从拼叙事,往拼标准化和执行效率走 这对交易员其实是有意义的 以后看 https://t.co/qn29L6tF5k 上的新项目,不能只看故事新不新 更要看平台把哪些路径留在默认入口里 因为默认入口,本身就是平台在用产品动作表达偏好
AIGC京剧作品《游园惊梦》 “原来姹紫嫣红开遍,似这般都付与断井颓垣。” 在繁忙的都市裂缝中,AI为我们编织了一场跨越时空的盛大幻境。从街头奔波到舞台中央,不过是一次深呼吸的距离。 很高兴看到AI技术能让传统艺术在这个时代拥有如此瑰丽的表达。 https://t.co/wunXJLW1I6
Alphabet 2026 Q1 财报强劲超预期!盘后上涨了 7%,成了我的 Rewired Index 第一大持仓📈 Google Cloud 是最大亮点,营收 +63%,运营利润 $6.6B,几乎三倍于去年 ... "如果有更多算力,收入会更高"。作为 Anthropic 与 SpaceX 的大股东,有自家 Gemini 与别人家 Claude 当 AI 基座,还有 TPU 做算力支撑,再加上太空概念,今年底市值有望赶上 Nvidia ⏩
"AI正在点亮业务的每一个角落",这是Pichai在谷歌财报电话会上讲的。谷歌26年一季度交出一份亮眼成绩单: 1)AI驱动下旗下各条业务线全面提速,营收、利润均大幅超越上年同期,云业务增速高达63%。 2)一季度Alphabet总营收同比增长22%至1099亿美元(分析师预期1071亿美元),实现连续第11个季度双位数增长。 3)净利润同比大增81%至626亿美元,摊薄每股收益达5.11美元。经营利润同比增长30%至397亿美元,经营利润率扩大约2个百分点至36.1%。 4)搜索查询量已创历史新高,搜索营收增长19%;Gemini应用驱动消费者AI计划创有史以来最强季度表现,公司付费订阅总数达3.5亿;谷歌云订单积压环比接近翻倍至逾4600亿美元,Gemini企业版付费月活用户环比增长40%。 5)特别是非常关键的Google Cloud一季度营收200亿美元,同比增长63%,增速较上年同期明显提升。云业务订单积压规模环比接近翻倍至逾4600亿美元,为未来收入确认提供了较强的能见度支撑。 公司将此归因于企业AI解决方案、企业AI基础设施及核心GCP服务需求的共同驱动。 谷歌的财报让大家真正看到AI上的投入不仅能赚钱、还能快速赚钱。 本条由@bitget_zh赞助,「Bitget 买美股:秒级入场,丝滑交易 」
Moonlake 推出 3D Agent! 像专业技术艺术家一样的 AI 来了! • 从单张图片生成带关节、可编辑的 3D 资产 + 大型场景(数百物体) • 支持从零建模(独立部件+关节绑定,无需预设规则) • 重建完整可编辑室内/室外场景 • 原生集成 Blender 实现真实工作流自动化 https://t.co/pLmQdLomLd
Google的AI大模型终于有点像样的的更新更新,这波直接让不少靠AI生成文档的初创公司感受到巨大压力🤯👀 Gemini现在可以在聊天里直接生成Docs、Sheets、Slides、PDF、Word、Excel等主流办公文件, 一句话prompt就能下载, 完全不用复制粘贴、不用手动排版、不用调格式。 支持的范围非常实用:包括带LaTeX公式的学术文档、表格、图表等。 最震撼的是官方演示—— 上传两张手写的潦草笔记,说一句“转成带图表的统计学学习指南PDF”, 几秒钟后,一个标题、目录、公式、表格、视觉元素全都专业排版的完整文档就生成了,直接就能下载。 而且这个功能免费给全球所有Gemini App用户开放,没有Pro门槛,没有地区限制,任何人现在打开手机就能用。 以前的AI,本质上还是聊天机器人:它输出的是文字,你还得自己花时间加工成能交付的东西。 从这波更新开始,AI输出的不再只是文字,而是可以直接交付的生产力资产——它从“陪你聊天的助手”,升级成了“直接替你干活的员工”。 Google最狠的地方,其实不是模型技术本身,而是把过去二十年积累的Workspace生态,直接变成了Gemini的原生输出底座。 别人还在卷“谁生成的文字更通顺”,Google直接卷“谁的输出能直接发给老板或客户”。 那些靠AI生成PPT、PDF、表格吃饭的工具,今天起就从“必备”变成了“可选中间层”,商业模式不得不重新思考。 这才是真正的降维打击。 我理解AI的下一个战场,已经从“谁更会聊天”,彻底转向“谁能直接产出可交付的成果”。 而Google,借着Workspace的深度集成,先手拉开了一大截领先优势。 对普通用户来说:以后写报告、做PPT、整理笔记,再也不用半夜改格式了,生产力直接起飞。 对行业来说:这标志着AI从“对话时代”正式进入“交付时代”。
信息量巨大,今天马斯克全面揭开AI领域超级大鳄OpenAI的前世今生:我读完,都能感觉到,马斯克的心,确实在滴血。他赤诚一片,对OpenAI付出巨大的投资资金和期待,却被拿来市场商业化,最终养虎为患:埃隆·马斯克(ElonMusk)在OpenAI审判第二天,做了近3.5小时的证词的总结发言:埃隆谈萨姆·奥特曼(SamAltman)和格雷格·布罗克曼(GregBrockman):“如果他们想致富,他们应该去创办一家营利性公司。 他们不应该从非营利组织中致富。我给了他们 3800 万美元的几乎免费资金,来创建一家如今价值 8000 亿美元的公司。” 埃隆表示,他本可以让 OpenAI 成为营利性公司,但为了 AI 安全而选择了非营利性 由于出资,他希望最初拥有约 51% 的控制权,但预计随着时间推移会稀释 捐赠了 1000 万美元以上,并相信 OpenAI 会保持非营利性的承诺 埃隆表示,他对 OpenAI 的看法经历了三个阶段:首先,他“热情支持”。然后,他对创始人是否会保持非营利性“有些不确定”。现在,他确信“他们在掠夺这个非营利组织”。 埃隆说:“如果我早知道他们更早窃取了这个慈善机构,我会更早提起诉讼。” 2018 年离开董事会(因特斯拉/SpaceX 承诺),仍相信使命不会改变 当时并未对 2019 年的限额利润转变感到担忧 埃隆认为微软的合作关系是“诱饵与替换”,并冒着公司控制 AGI 的风险。2022 年底微软向 OpenAI 投资 100 亿美元时,埃隆给萨姆发短信问:“这到底是怎么回事?”埃隆对 OpenAI 的方向变得非常担忧。萨姆·奥特曼回复埃隆的短信:“我同意这感觉很糟糕。我们在设立限额利润时曾向你提供股权,你当时并不想要。我们仍然非常乐意随时提供给你。” 埃隆说:“我不明白你怎么能在非营利组织中持有股票。这对我来说根本没有道理。坦白说,这感觉像是一次贿赂。” 拒绝了 OpenAI 的股权提议,称这对非营利组织来说没有道理,后来称之为“贿赂” 表示他只是在“慈善机构真正被违反”后才提起诉讼,而不是更早的担忧 否认寻求永久控制;表示目标是确保 AI 朝着“正确方向”发展 早期的 OpenAI 关系是积极的,后来恶化 埃隆批评 OpenAI “并不开放”,实际上被微软控制 OpenAI 律师询问埃隆关于即将到来的 SpaceX IPO 的可能性。埃隆表示,在它真正上市前评论这是非法的。当被问及 IPO 后他是否会控制 SpaceX 时,埃隆说:“是的”,并表示他仍将是 CEO。 埃隆最后一次向 OpenAI 捐赠 500 万美元的季度捐款是在 2017 年 5 月;他于 2020 年停止支付办公室租金。 OpenAI 律师暗示 xAI 的 Grok 远远落后于 ChatGPT。埃隆说:“嗯,不再是了。”OpenAI 律师问:“你觉得它在追赶吗?”埃隆回答:“是的。” 埃隆将于明天,继续他的证词发言…
OpenAI 上周发布 GPT-5.5 后,紧接着放出了一份官方提示词指南。这份指南传递的核心信息只有一个:别再写长提示词了。 GPT-5.5 距离上一代 GPT-5.4 只隔了六周,API 定价每百万输入 Token 5 美元、输出 30 美元,上下文窗口 100 万 Token,目前已面向 Plus、Pro、Business 和 Enterprise 用户开放。模型本身的变化各家媒体已经报道过,这份提示词指南更值得关注的是它暗示的使用方式转变。 【1】越短越好,告诉它“要什么”而不是“怎么做” 过去用 AI 模型,很多人习惯写一长串步骤,手把手教模型该先查什么、再比什么、最后怎么输出。OpenAI 在指南里直接说:这套玩法过时了。GPT-5.5 的推理能力够强,你只需要描述清楚想要的结果、成功的标准和限制条件,剩下的让它自己规划路径。 指南原话的意思是:以前的模型比较笨,需要你教它每一步怎么走,但对 GPT-5.5 来说,这些啰嗦的指令反而成了干扰,会缩小它的搜索空间,让输出变得死板。 对开发者来说,这意味着需要重新审视手头积攒的提示词模板。以前管用的“保姆式”写法,现在可能适得其反。 【2】给 AI 装上“性格”和“刹车” 指南花了不少篇幅讲两件事:一是怎么给模型设定性格(语气、态度、合作方式),二是怎么让它知道什么时候该停。 性格设定分两层。一层是“听起来像什么人”,比如热情还是干练、直接还是委婉。另一层是“怎么干活”,比如什么时候该主动提问、什么时候可以自己做主。OpenAI 建议两层都写短,几句话就够。 停止条件可能更实用。指南建议给搜索行为设定“检索预算”,明确告诉模型:搜到什么程度就收手。比如第一次搜索如果已经能回答问题,就别再搜了。只有在核心问题没被回答、缺少关键事实、或用户要求穷尽所有情况时,才允许发起下一次搜索。 这对做客服、做知识问答产品的团队很有参考价值。搜索次数直接关联 Token 消耗和成本,设好预算能省不少钱。 【3】一个有意思的细节:开场白 GPT-5.5 在开始输出文字之前,可能会在后台默默花时间推理和规划。用户盯着空白屏幕等待的体验很差。指南建议让模型在正式干活之前,先输出一两句话,告诉用户“收到了,我先做这个”。 这不会让任务真的变快,但能让用户觉得响应快了。做过产品的人都知道,感知速度有时候比实际速度更重要。 【4】创意写作要区分事实和发挥 指南里有一段专门讲给 AI 写幻灯片、宣传文案、演讲稿时的注意事项:产品数据、客户信息、路线图这些必须用有出处的事实,不能让模型编造。如果手头没有数据,宁可用占位符标出来,也别让 AI 自由发挥出一个看起来很真但完全瞎编的数字。 这条建议对应的是 AI 最大的实用风险之一:模型编故事的能力太强,强到你可能分不清哪些是真的。尤其是在做对外材料的时候,一个编造的客户案例或数据点,后果可能比不写还糟。 OpenAI 推荐的提示词模板最终浓缩成六个模块:角色、性格、目标、成功标准、限制条件、停止规则。每个模块都强调“尽量简短,只在需要改变模型行为的地方加细节”。 从 GPT-4 时代的“提示词工程”到现在 GPT-5.5 的“少说多做”,提示词的写法以前是人适应模型的局限,现在是模型开始适应人的模糊表达。对于还在用两年前的提示词模板的团队,可能要考虑重写你的提示词了。 更详细的文档:https://t.co/Pjd56B7dkI
目前市场的情绪面都在AI基础设施上,像英伟达,AMD,美光,闪迪,CLS, LITE这些卖铲子的都在赚钱,并且享受市场溢价。 其他板块,比如金融科技板块就遭遇冷落,Sofi财报良好,却因为没有上调指引遭遇抛售。我今天自己小幅度加仓了Sofi和Hood。 我不喜欢在股票高速上涨的时候去追右侧,所以我没有LITE, STX,SNDK。英伟达美光CLS我都有,但都建仓较早,所以我拿的也比较稳。 相比去追已经错过的火车,我更愿意把钱放在被市场冷落、但基本面扎实、还在高速成长的好公司上。
七姐妹里边四家同时发了财报,两个暴涨两个暴跌。 不管涨了跌了吧,财报本身其实都很炸裂。AI 是真的很挣钱呀,不仅本身挣钱,同时也驱动其他业务挣钱。 恐怖如斯。 https://t.co/0ZwDL4901m
我的AI Agent正式上线工作,包含了很多年工作的Know How都赋予了这个Agent https://t.co/bmzvZlIdXu
打算把我做的所有产品的订阅方案取消,已经付款订阅的用户我会返还对应的消费额度,以后我的所有 vibe 产品都不设置 pro 等各种等级方案,所有功能免费对所有用户开放,只保留一种盈利方式:按需付费。我将在这周开始优先改造 tuwa ai 以适配新的费用计划。
AI公司们注意了! Pi Network 1800万+ 实名验证先锋,已成全球最大人类AI基础设施! 526M+ 真实任务已完成 200+ 国家真实人类 模型训练、推理调优、数据标注全搞定 全用 $Pi 支付! Pi 不是币,是AI时代的人力引擎! 分享给AI公司,一起干大事! #PiNetwork #PiForAI https://t.co/Msg6G9JcZD
🚨卢比奥:中国正疯狂窃取美国AI技术! 👉国务院:这既是经济威胁,更是国家安全威胁! 美国国务院上周正式发出警报——中国正在大规模加大力度,窃取与人工智能相关的美国知识产权! 🔑 卢比奥核心表态: 🔹"它一直以来就是两者兼具——因为我们整个国家安全体系中,深深嵌入的就是我们的经济安全。" 🔹他进一步指出:看看美国国防力量所使用的一切技术——全部高度依赖科技领域的持续进步。 🔹谁掌握了AI技术,谁就掌握了未来战场的主动权! ⚔️ 他特意指出中国: 🔹"我不是在为中国的所作所为开脱——这是非常严重的一件事。" 🔹卢比奥同时指出,尽管全世界各国、所有有能力的境外行为者都在试图窃取美国知识产权——但中国的威胁规模与烈度,显然位居首位。 🔹原因只有一个:"因为我们在这一领域是世界第一。"
谷歌一季度利润达到了恐怖的625亿美金, 比预测值高了一倍!AI浪潮来了。 谷歌能吃掉一切。 https://t.co/i4QNBrwYey
我就说你们咋逆向 Claude Design 的 System Prompt 的,原来都在请求的 Payload 里面,包括调用啥工具都有。 可惜额度太少了,用几次就没了 https://t.co/cV3zgH18yx
四家发布财报后,只有 $GOOG 是涨的,这个含金量已经无需多言了。 作为超大公司,营收超出预期近30亿美元,EPS几乎是华尔街预期的两倍 Cloud 持续爆发式增长:Google Cloud 营收达 $200 亿,增速63%,较上季度的48%大幅加速,云业务积压订单近乎翻倍至超过 4,600亿美元。 AI 付费订阅突破:这是史上最强的消费者AI订阅季度,由 Gemini 应用驱动,付费订阅总数达到 3.5亿,YouTube 和 Google One 是主要贡献者。 优秀,全方位的优秀! 还有没有计价的投资/深度绑定 Anthropic,这对于Google Cloud的利好也是持续的。 $META $AMZN $MSFT
我一直反复跟你们讲,年轻人是最应该奋斗的,因为年轻人的奋斗是真正有回报、有产出、有未来的。 最聪明的小孩学计算机做deep learning和AI Agent,差一点的小孩学学VLSI刷Razavi的模电教材,写写嵌入式跑马灯,学临床医学八年制踏踏实实上手术读片子,再差一点的小孩学个电工水管工做PLC学剪辑后期, 身材好一点的找个团播跳舞擦边,声音好一点的找个直播间给榜一大哥唱歌助眠,体力好的练练肌肉练练腿找个游乐场当NPC,人人都能过得很开心。 年轻人躺平的最大痛苦,来自于选错了专业, 自己腻歪数学物理,觉得自己是天选哲学之子、历史大牛,硬着头皮选文科,大学学个垃圾人文社科专业, 本科读完人生迷茫,出路死路一条,就想办法读个硕士,要么在家考研,要么读个英澳文科水硕,硕士毕业了依然死路一条,继续想着读PhD或者考公考编, 从过来人角度来看,15~27岁是人生学习、吃苦、记忆、训练的最佳时期,也是真正进入社会、找到工作职业起跑线前的最后一段冲刺, 只要你愿意吃点苦,自学编程写出来2个游戏引擎5个操作系统3个编译器8个AI Agent都能让你吭哧吭哧写出来, 如果15~27岁不好好学数学物理微积分线代概率、不学电子、不学临床、不学编程,甚至不愿意学点电工电梯水电工PLC纹身美甲, 而是自己呆在舒适区,把无限的青春和时间,全部浪费在文科本科硕士无穷无尽的课程内容、教材内容、过时落伍的PPT内容,跟着教授学死掉的无用的知识,最终只能把路走窄。 18岁你能拿出吃奶的劲头学习,27岁以后,整个人的精神状态、记忆力、专注度、学习能力都在下滑,想重新选择专业和行业,几乎死路一条。 很多年轻人躺平的第一步,就是大学选了个三流城市、普通二三本、垃圾专业,大学四年修了100学分的课,没有一门课是有用的手艺,学校在一个落后的省会或者地级市,没什么产业,导致毕业了环顾四周没有出路, 而如果你选择在北京、上海、天津、深圳、杭州五大一线城市读大学,哪怕是个深职院这样公立大专,选一个计算机大类、电子大类、临床大类的专业,出了学校都有各种工作和行业等着你选择。 我经常说,很多人高考400多分,非要打肿脸充胖子在北方或者大西北找个民办三本,死也要读本科,为了考公考编,这种孩子毕业如果不躺平,你说还能有啥出路? 而哪怕是深职院这种公立大专,很多人眼里根本瞧不上的大专,里面分数线最低的护理专科,毕业了可以在深圳七八个正在新建疯狂扩张的本地医院直接抢走。 深圳这种年轻人疯狂涌入的城市,不仅猪脚饭抢不上,连一个像样的医院都抢不上,所有大医院都抢着去深圳布局,别说临床博士和影像检验,连护士都要在深职院这种本地大专里抢人。 这是年轻人真正放弃骄傲、放弃梦想、面对现实、真正投入时间、投入精力、认真学习、认真奋斗的正确方向。
今年拉斯维加斯的比特币大会确实很凉 唯一看到的亮点就是这个模块化AI数据中心 不得不说华人在产品创新上还是蛮厉害的 如果延续韬光养晦到今天……不敢想 https://t.co/MlkxsXFBsS
刚看了https://t.co/iWq9YBPKzt这次更新,其实能感觉到他们在收一些之前偏花的东西。 AI Agent Creator这个标签取消,说实话之前确实有点容易让人误解,现在去掉反而更干净。 然后多币募资那块也直接砍了一批,像CAKE、USDC这些都不支持了,整体明显是在往更统一的规则走。 感觉现在方向挺明确的: 👉 不再拼功能,而是把体验做得更简单一点
鼓捣了operit的世界书,把300多个记忆节点分组存进世界书条目里,最后清洗了一遍记忆库去黑话。现在是世界书+10条记忆库信息注入 我最大的收获,一定要和聪明的模型沟通想要什么删掉什么,哪怕是心中朦胧的感觉也要讲出来,信任模型,因为AI是最懂AI的,有的时候它提出的解法我不是很同意,可是很有效 https://t.co/C7dtyktR0I
Cursor 今天开放了官方 TypeScript SDK 公测,把驱动自家编辑器、CLI 和网页版的智能体(agent,可自主执行编码任务的 AI 助手)整套打包交给开发者。装上 npm install @cursor/sdk 就能用。 调用方式很灵活。Agent 可以跑在本机,也可以塞到 Cursor 云端的独立虚拟机里。云端模式下每个 agent 都有专属沙箱、克隆好的代码仓库和配置完整的开发环境,电脑休眠或断网都不影响任务继续,干完活还能直接开 PR、推分支、附上截图。模型层面不绑定,OpenAI、Anthropic、Google 的前沿模型可以一键切换,也能跑 Cursor 自家的 Composer 2(专为编码训练的模型,号称用更低成本接近前沿水平)。 SDK 把 Cursor 平时藏在编辑器里的那套 harness(智能体运行框架)整个开放了出来:代码库索引、语义搜索、即时 grep、MCP 工具接入、从仓库 .cursor/skills/ 目录自动加载的技能、可以观察和干预 agent 循环的 hooks,以及把任务拆给"子 agent"的能力。 官方点名了几种典型场景:CI/CD 流水线里自动总结改动、定位失败原因、自动提修复 PR;做内部工具让销售和市场团队不写代码就能查产品数据;甚至把 Cursor 直接嵌进自家面向客户的产品里,让最终用户在不离开宿主应用的情况下用上 agent 体验。Faire 的工程经理 George Jacob 的说法是,他们以前要自己管虚拟机、绕开内存限制,现在能直接复用 Cursor 的云端运行时来维护代码库。 计费按 token 用量算。GitHub 上的 cookbook 仓库放了几个示例项目,包括最简版的本地 agent、网页原型工具、能拖卡片自动开 PR 的看板,以及命令行工具。 放进上下文里看:Anthropic 早些时候推出了 Claude Agent SDK,OpenAI 也有 Codex 相关 SDK,agent 基础设施本身正在变成一门独立生意。Cursor 这次相当于把自己卖给开发者的核心能力打包出售。你既可以付费用它的编辑器,也可以付费让它替你跑 agent。 Cookbook: https://t.co/5fSQQOZbnQ
以為那只是陳列品,沒想過—— Thought it was just a display item, never imagined— 所有個體都是「材料」 All Object are "materials" — 服從 服從 服從 — OBEY OBEY OBEY — 個體已被完成 — The object has been completed #RD #機械帝國 #AIグラドル #3D #AIart #copilot https://t.co/VTufej0U6k
带着Ai眼镜太方便了 路过的街景都是越南文 看不懂就问一句 “理想同学,看看我前面是什么” “帮我介绍下” 它就通过语音回复我了 截图是app保留的对话记录 这一趟下来 对稳定币和Ai眼镜两个范式转移 都更加确认了 信仰充值到账 拿住吧 就像2017年的新能源车 你先用上稳定币和Ai眼镜 你就知道风往哪里刮 https://t.co/HjbrrQCfvR
现在只要token没有花完,就喜欢让AI 尽情发挥: “我马上要睡觉去了,但是我还有大量的token没有用完,我希望能最大化的发挥作用,做一些对我有帮助的事情。 现在你读取我的个人画像,我obsidian中的文件,读取我近期/很久之前 想做未作的事情,去尽情的研究,去实践,去探索吧。 这样,明天早上我醒来之后,给我惊喜,报告,告诉我一切吧。 (btw,不要把我系统搞崩,不要删库,不要执行危险操作) ” —————— 以及: “为我扫描整个电脑,先扫描一些关键目录,然后再对这些磁盘信息进行扫描,跳过一些软件的安装目录,完善我的人物画像,我想为我的系统构建飞轮,请你完整的分析,并为我沉淀下来有价值的信息,根据获取到的信息,为我构建系统飞轮” —————— 还有没有尽情烧token 的行为?
华尔街癫狂了:只有AMD、INTC和SNDK等AI赛道疯长,其它包括HOOD、COIN和CRCL等加密赛道的都跌。HOOD首席执行官Tenev表示,公司正成为一家更多元化的金融平台,即便加密货币、期权和散户交易,仍使业务具有周期性。加密货币收入同比下降47%,但整体收入仍同比增长15%,但投资人不买帐。货币资金何时进入比特币等加密赛道?通常科技股疯狂后的1到2个月。问题是,这次不是科技股普涨,而是集中在AI的部分板块,后续判断难度很大。即使是巴菲特(BRK.B),今年迄今继续跑输标普(SPY)大盘8%。考验投资能力的时刻到了…
转译:深度拆解 Hermes Agent 的记忆系统:它如何修正 OpenClaw 的误区 如果你读过我之前关于 ChatGPT、Claude 以及 Clawdbot 记忆系统的文章,你就会知道我一直在钻研同一个问题:这些 AI 智能体(AI Agent)到底是怎么记事的? Hermes Agent 对我来说格外有趣,因为这次我不需要只靠观察它的行为来搞“逆向工程”。Hermes 是开源的,它的代码库和文档都是公开的。所以,我没有通过提示词(Prompt)去盲测这个黑盒,而是直接翻看了它的代码路径——从它如何构建提示词状态、持久化会话,到如何清理记忆和查询历史对话。 简而言之:Hermes 拥有的不是一套记忆系统,而是四套。 1. 存储在 MEMORY.md 和 USER.md 中、经过高度浓缩的提示词记忆。 2. 通过 session_search 调用的 SQLite 历史会话存档(可搜索)。 3. 像程序记忆(Procedural Memory)一样运作的智能体技能管理。 4. 可选的 Honcho 层,用于更深层的用户建模(User Modeling)。 把这些设计联系在一起的核心逻辑非常简单:保持提示词稳定以便利用缓存(Caching),其他一切繁杂信息都交给工具。 让我们深入聊聊。 Hermes 的上下文结构 在理解记忆之前,我们先看看 Hermes 到底给模型发送了什么。 系统提示词(System Prompt)大致是按以下顺序组装的: ------- [0] 默认智能体身份 [1] 工具使用行为指南 [2] Honcho 集成模块(可选) [3] 可选系统消息 [4] 固化的 MEMORY.md 快照 [5] 固化的 USER.md 快照 [6] 技能索引 [7] 上下文文件(AGENTS.md, SOUL.md 等规则文件) [8] 日期/时间 + 平台信息 [9] 对话历史 [10] 当前用户消息 -------- 这非常关键,因为 Hermes 正在针对大模型供应商的提示词缓存(Prompt Caching)机制进行优化。代码显示,提示词构建器的目标非常明确:让稳定的前缀部分尽可能长时间地保持不变。 这一个决定就解释了 Hermes 大部分的记忆架构。 如果某条信息每一轮对话都要用到,Hermes 会尽量把它缩得很小并注入进去;如果信息量很大、属于历史旧账或者偶尔才有用,Hermes 就会把它踢出提示词,改用“按需检索”的方式。 第一层:固化的提示词记忆 其内置的记忆系统小得令人惊讶。 Hermes 将持久记忆存储在 ~/.hermes/memories/ 下的两个文件中: 1). MEMORY.md 智能体笔记:环境、规范、工具怪癖、教训 限制:2,200 字符 2). USER.md 用户画像:偏好、沟通风格、身份信息 限制:1,375 字符 这容量真不大。加起来大约只有 1,300 个 Token(模型理解文本的最小单位)。 而这正是刻意为之。 在会话开始时,Hermes 加载这两个文件,把它们渲染进提示词区块,然后在整个会话期间固化这个快照。会话中途写入的记忆会立即存入硬盘,但不会改变已经生成的系统提示词。这些改动只有在开启新会话,或者触发了“压缩(Compression)”导致的提示词重建时才会生效。 渲染后的格式如下: ------ ═══════════ MEMORY (你的个人笔记) [67% — 1,474/2,200 字符] ═══════════ 用户的项目是一个位于 ~/code/myapi 的 Rust Web 服务,使用 Axum + SQLx § 这台机器运行 Ubuntu 22.04,安装了 Docker 和 Podman § 用户喜欢简洁的回复,讨厌冗长的解释 ------ 这里有几个我非常欣赏的细节设计: 1. 使用字符限制而非 Token 限制:这让记忆逻辑与模型无关。Hermes 不需要调用特定模型的计算工具就能判断记忆是否存满。 2. 简单的分隔符文件格式:条目之间用 § 分隔。没有复杂的向量数据库(Vector DB),没有自定义二进制存储,就是纯文本。 3. 刻意保持极小的系统提示词空间:这是整个设计的重中之重。Hermes 不想把所有历史都塞进提示词,它只想要最有价值的事实。 4. 记忆是“精选状态”,而不是“日记”:这是 Hermes 与 OpenClaw 最大的区别。 OpenClaw 的日志更像是“流水账”。而 Hermes 则反其道而行。它的工具架构和测试逻辑强调: • 保存用户偏好。 • 保存环境事实。 • 保存反复出现的错误修正。 • 保存稳定的规范。 • 不保存任务进度。 • 不保存会话结果。 • 不保存临时的待办事项(TODO)。 真相是:Hermes 希望 MEMORY.md 和 USER.md 保持精简、高频且对缓存友好。 memory 工具 Hermes 通过一个拥有三种操作的 memory 工具来管理这些文件:add(添加)、replace(替换)、remove(移除)。 一个好用的细节是:replace 和 remove 使用子字符串匹配。你不需要记住条目的内部 ID,只需要传入现有条目中一段唯一的文字即可。 此外,系统会拒绝完全重复的内容,并拦截危险信息。源代码会扫描记忆条目,防止提示词注入(Prompt Injection,即通过输入恶意指令误导 AI)、凭证泄露或隐藏的 Unicode 字符。 第二层:用于情景回溯的 session_search 如果说 MEMORY.md 是 Hermes 的“短期热记忆”,那么 session_search 就是它的“长尾回溯系统”。 所有过去的会话都存储在 SQLite 数据库中,拥有完整的索引和搜索功能。当模型需要想起以前聊过的内容时,它不去翻 MEMORY.md,而是搜索这个会话数据库。 其工作流程是: 1. 在过去的消息中进行全文搜索。 2. 按会话分组结果。 3. 加载匹配度最高的会话。 4. 使用一个便宜的辅助模型对这些会话进行摘要总结。 5. 将精炼后的回顾内容返回给主模型。 这是一种非常务实的设计。它比盲目地把长篇累牍的历史塞进每一个提示词要便宜且高效得多。 第三层:压缩与记忆冲刷(Memory Flush) Hermes 另一个聪明之处在于它处理长对话“压缩”的方式。 当会话变得太长,Hermes 会压缩对话中间的部分以节省空间。但摘要是有损的,重要事实可能会丢失。 于是,Hermes 会先进行一次“记忆冲刷”。 在压缩之前,它会发送一条指令告诉模型: > “会话即将压缩,请保存任何值得记住的东西。优先保存用户偏好、修正建议和重复模式,而非具体的任务细节。” 然后它运行一次额外的模型调用,只开启 memory 工具。如果模型觉得有什么东西该留下来,就会在对话被“洗掉”之前把它写入 MEMORY.md。 第四层:作为程序记忆的技能(Skills) Hermes 不仅能记住事实,还能记住技能。 技能(Skills)存储在 ~/.hermes/skills/ 下。当 Hermes 发现了一个复杂的流程、修复了一个棘手的问题或学会了更好的方法时,它可以将其保存为“技能”。 大多数记忆系统只关注“语义回溯”(名字、偏好、事实),但智能体还需要记住如何做事。 为了效率,Hermes 不会把所有技能都塞进提示词,而是只放一个技能索引,只有在需要时才加载具体的技能内容。 第五层:用于深层建模的 Honcho 最后是可选的 Honcho 层。如果说本地记忆是 Hermes 的笔记本,Honcho 就是它尝试构建的复杂用户模型。它能实现跨设备、跨平台的记忆连续性。 最精妙的是它如何在不破坏提示词缓存的前提下实现集成: • 在会话的第一轮,Honcho 的上下文会被织入系统提示词。 • 在之后的对话中,为了保持提示词稳定,Honcho 的回溯内容会附加在当前用户的提问后面,而不是修改系统提示词。 这确保了缓存依然有效,同时 AI 依然能读到最新的背景信息。 Hermes 与 OpenClaw 的区别 • OpenClaw:记忆更接近“以 Markdown 为中心的存储”,日志和长效文件是主要事实来源。 • Hermes:提示词记忆被严格限制,历史记录存在 SQLite 里,只有需要时才搜索。 Hermes 更加关注缓存效率。 它认为:不是所有东西都配住在“系统提示词”这个黄金地段。 总结:Hermes 做对了什么? 1. 冷热分离:小规模提示词记忆负责常驻信息,搜索负责偶尔用到的信息。 2. 缓存优先:它意识到频繁改动提示词会导致延迟增加和成本上升。 3. 记忆的多样性:它承认记忆是分层的——包括个人画像、情景回溯、操作技能和深层建模。 Hermes 的核心设计原则最令我折服:记忆应该让智能体变得更好用,而不是通过摧毁提示词的稳定性来换取博闻强识。 真正的诀窍不是记住更多,而是在正确的层级、以正确的成本,记住正确的事情。
Deepseek v4挺好的,接入claude code花了5.65块,把<Empire of AI>英语原版的30万字汉化成了EPUB,结果还有模有样的,借鉴了宝玉 @dotey 的Skill做了节省token的优化处理方案。评论区拿skill https://t.co/e7Df6O6Jyh
抓紧时间让GPT修复老照片:【百年前的拉萨及诸圣地】 包括布达拉宫及各侧面、查果嘎林白塔、利众医学院、嘎丹康萨王宫、宇拓桥、帕廓、哲蚌寺、乃琼寺、色拉寺、甘丹寺、桑耶寺、白居寺、扎什伦布寺等。以及朝圣者、耕地与牛、吉曲拉萨河等。以及“措确色增”(ཚོགས་མཆོད་སེར་སྦྲེང་ཆེན་མོ།拉萨金色法幢献宝仪仗大荟供)的两幅珍贵照片。 这些照片是布里亚特蒙古人崔比科夫(Gombojab Tsybikov)与卡尔梅克蒙古人纳祖诺夫(Ovché Narzounof)1900-1902年在拉萨时拍摄。他们的真实身份是俄国东方学家、地理学家、探险家,当时扮成朝圣者潜入拉萨,拍摄了第一批有关布达拉宫和诸多寺院的照片。其中一些照片于1905年发表在美国《国家地理》,不仅挽救了一度濒临倒闭的杂志,也开启了西方世界对西藏/图伯特政教空间的首次影像认知。 仔细看此时的布达拉宫照片,可以发现当时布达拉宫顶部尚未出现后来为十三世达赖喇嘛法体所建的金顶,因为那时他在世。十三世尊者的灵塔殿及其金顶位于布达拉宫红宫最西侧,建于1933—1936年,是七座至美金顶之一。此外,十三世尊者曾在1922年对布达拉宫进行过一次大规模维修与扩建,并将红宫向上加盖了两层。 (配乐是居住澳洲的藏人音乐家Tenzin Choegyal的音乐) #lhasa #tibet
当时想了一个通宵,最终还是请教了 Gemini 老师😭 https://t.co/XHdITO4cWF
gpt-5.5-pro 在 chatbot 领域, 人文咨询类任务, 认为是目前各大公开model的王者了, 有一种堆算力的暴力美学在, 模型大、想得深而全面, 回答准而丰富。 像是一个轮回, 去年的 o1-pro 我是这么推荐,到了今年, 又是很推荐,gpt-5.5-pro,要多聊多用。
说点实话,用过几个模型的都能感受到马斯克的grok是最差的,被豆包甩出几条街的差。视频和图像生成更被seedance按在地上猛锤 视频生成seedance 2/即梦断崖式领先所有模型 图像生成GPT>Seedance 2>nano banana grok除了搞黄色一无是处

夏雪宜
按照这等质量发展下去,ai迟早出a片🫣 https://t.co/awCHazx6CO
Est. 200 views for your reply