🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。
向我推销这支笔。 https://t.co/w1GlRJG2lt
GENESIS MISSION,创世纪,平台科学时代的起点 (政治篇) 在理解创世纪的初衷之前,我要说川普团队,以及川普背后庞大的支持者,是怎么看待科研和科学的。理解这个,才能真正理解这个背后的深层动因。这是一个历史的转折点,一个真正的范式转折点。这即是一种人类科学科技到达一个临界点的征兆,也是一个人类社会系统反映到社会关系,复杂政治矛盾的表象。 LAUNCHING THE GENESIS MISSION https://t.co/JL6fW1iaFu 首先,我需要简要说明一下 Genesis Mission 到底是什么,以及为什么在白宫发布这份行政命令之后,我认为:它的主旨,不是“推进 AI”、不是“振兴科研”、更不是“扩大科技预算” 它试图构建的是一种全新的 “平台科学(Platform Science)” 组织方式。 这里的“平台”不是网站,也不是数据库,而是一种结构级的科研文明: 把科学从“教授个人—实验室封地—手工实验—PDF论文—学科壁垒”的旧组织形式中, 迁移到“国家级平台—结构化数据—自动化实验—AI调度—任务导向”的新结构中。 这一意图在行政令正文中写得非常清楚。 在《Launching the Genesis Mission》的开篇部分,白宫使用了这样一句极具历史意味的定位: “the United States is engaged in a global contest for primacy in artificial intelligence technologies”—— 美国正在进入一场争夺人工智能主导权的全球竞争。 白宫接着说: “The Genesis Mission builds a new national platform — the American Science and Security Platform — integrating high-performance computing, data, models, and automated experimentation.”—— Genesis 任务将构建一个新的国家平台——“美国科学与安全平台”,整合超级计算、数据、模型与自动化实验。 注意,是 platform,而不是“研究联盟”“大学计划”或“拨款项目”。 白宫的语言不是传统科研计划的词汇,而是系统工程、操作系统、国家能力的词汇。 并且行政令进一步确认这一点: “The Platform shall provide the scientific community with a unified system for data, models, analytical tools, and automated experimentation.”—— 平台将为科研界提供一个统一的系统,用于数据、模型、分析工具与自动化实验。 这一段正式确认: Genesis Mission 的目标不是“资助科学”,而是重新组织科学。 它要建立一套: 统一 IR(数据结构语言) 统一模型接口 统一科学运行时 统一实验自动化队列 统一国家级任务调度机制 可复现、可审计、可组合的科学结构 这正是我所称的:平台科学文明(Platform Science Civilization)。 也就是: 科学第一次从“人脑组织的科学” → “平台组织的科学” 从“大学主导的科学” → “国家平台主导的科学” 从“手工科学” → “工业化科学” 从“自然语言” → “结构语言(IR + logic + Scheduler)” 从“个人封地” → “国家级操作系统(Science OS)”。 后面我们会逐段使用 White House 原文来分析这一点: Genesis Mission 的所有条款,都不是学术式科研政策,而是平台式系统工程设计。 政治 到了这里,我必须把视角重新拉回到政治层面来谈,尽管我本人既不是政治研究者,也没有任何“副业政治分析”的兴趣,甚至长期以来对政治本身都提不起太大热情。但这一次,川普团队推出的 Genesis Mission,却实打实地影响了我未来的判断方向。对我而言,这是第一次感受到政治决策会直接重塑“科学组织结构”,而不仅仅是左右经费或话语体系;对许多读我文章的人来说,我们很多人一生都没有走上传统学院体系规划好的科研路线,却拥有真正热爱科学的心和做科研的能力,只是被封闭僵化的旧学阀结构挡在门外——不属于博士链条、不隶属于某个 PI 派系、没有学术血统,就永远无法踏入科学现场。 在过去,那就算了,专心赚钱养孩子:旧体系是封地,外人永无入口。但如今,川普团队的“平台科学”思路,加上 AI 的技术革命,让这堵由学院文明铸成的铁墙出现了一个前所未有的裂缝。一种能让科学从“学术封地”迁往“平台文明”的巨大结构机会。很多人一生未必能遇到一次。因此我系统地理解川普政治的结构逻辑。对些被旧体系挡在门外、但真正热爱科学的人来说,这可能是AI时代第一次打开的入口。 说回川普。真正重要的问题是:为什么平台科学文明的破局者必须是川普这样的人,而不可能出自学院体系?要回答这个,必须从川普团队的“基本盘”开始谈起。很多人以为川普的支持者是“红脖子”“中西部农民”。这其实是一种刻板印象,甚至说明为什么我平时不想讨论政治:因为门槛太低,人人都能键盘政治,但真正懂结构的人极少。川普的执政基础是“结构阶层”。 他真正的力量基础来自五个支柱:传统产业(制造业、钢铁、机械、汽车)、能源产业(石油、天然气、页岩、核能)、军工体系(航天、武器系统、国防承包商)、工程群体(工程师、技工、系统工程团队)、以及反学院精英群体(对大学体系失望、不信任的美国中产)。 这五大阶层有一个共同点:它们天然与“平台科学文明”深度对齐——它们关注真实世界的物理生产力,而不是象牙塔;偏向工程逻辑,而不是论文逻辑;追求效率、成本、结构可执行性,而不是同行评审与学术声望;依赖硬科学、材料、能源、军工、制造链,而不是精英化的学院体系。因此,川普阵营最欣赏的“美国新英雄”是谁?是 Palmer Luckey 那种“不需要文凭、不需要背书、靠硬实力颠覆产业”的人。这类人物在“学院科学文明”中永远是异类,但在“平台科学文明”中却是核心,不靠资格,靠执行力与工程能力。这倒是跟华强北精神挺像的。 平台科学文明的技术底座是什么?工程化、自动化、HPC(High Performance Computing)、工业链结构、国家级项目、系统工程、科学操作系统、大模型+多智能体、实验室自动化、制造业复兴、新能源体系、国家能力(State Capacity)。这些全部对应川普社会基础中的五大群体的核心利益:他支持的阶层,正是平台科学文明最天然的受益者。 制造业首先会从平台科学中获利:新材料、自动化制造、机器人体系、AI 工业控制、数据平台、极低成本的实验–制造迭代。制造业看平台科学文明 = “产业重生的科技基础设施”。拜登团队科技路线偏向 AI 安全、监管、大厂限制、教育体系、学术合作、ESG,这些都是“知识层的政策”,而不是“工业层的动力”。 能源产业(尤其是传统能源)也与平台科学文明天然相容:它需要聚变、次世代核能、材料突破、地热、涡轮系统模拟与优化,而川普是美国历史最亲能源的一位总统——放松监管、开放勘探、推动核能、反对把能源决策交给大学体系。平台科学文明既支持化石能源效率最大化,也支持新能源突破,这完全符合能源产业的结构利益。 军工体系则是平台科学文明最重要的动力来源:国防工业依赖 HPC、材料科学、聚变、小型核反应堆、自动化制造、生物安全、AI 军用系统,而军工体系一直与大学体系存在结构冲突:学术慢、军工快;学术偏理论、军工偏工程;学术讲自由、军工讲国家安全;学术输出 PDF,军工需要可执行结构。军工视平台科学为:“国家级科学火力整合器(Science OS for National Power)”。拜登团队的军工动员力远弱于川普团队。 工程师阶层更是平台科学文明的天然核心:他们讨厌无用 PDF(呵呵)、讨厌理论化叙事、讨厌没有结构、讨厌低效会议;他们崇拜精确结构、自动化、代码、可验证性和系统工程。而平台科学文明的本质,就是把科学从“论文文明”完全转向“工程文明”。拜登团队的路线偏学术、偏研究文化,而川普的路线偏工程、偏系统执行。 最后,反学院精英群体是平台科学文明最深层的土壤:他们对大学体系彻底失望,厌倦学术封闭、效率低下、自我强化与政治化。平台科学文明要做的是:拆 PI 封地、拆掉论文经济、自动化科研、去学科壁垒、去自然语言依赖、让国家任务成为中心、用工程系统替代人脑、让 AI 成为科研执行主体。这些全部都是反学院群体梦寐以求的结构重构。 这就是为什么平台科学文明的破局者不可能来自大学体系,而必须来自川普这样拥有“反学院 + 亲工程 + 亲产业 + 亲军工 + 亲能源 + 国家能力优先”结构基础的人。他的政治结构与平台科学文明的技术结构、组织结构、产业结构和国家战略结构,是完美同频的。 为什么不是拜登?(当然奥巴马、克林顿也没有在时间点上赶上 AI 的爆发)我认为是结构位置问题。拜登团队的支持基础来自学术界、大学行政体系、科技企业白领、公共政策专家、研究机构、国际合作派以及科学“咨询官僚体系”。这些群体本质上是“学院文明—制度文明”的利益共同体,靠大学、研究经费、同行评审体系、国际秩序和监管框架维持自身权威。因此,拜登团队即便意识到平台科学的必要性,也无法推动这种革命:首先,他们绝不可能打击学术界,因为那等于自毁支持基础;其次,他们不会激进绕过大学体系,因为大学体系就是他们的权力来源与合法性来源;再次,拜登团队思维更偏向“渐进改革”而非“结构性替代”,他们倾向于让高校更透明、增加科研预算、推动国际合作、强化 AI 监管与伦理委员会,而不是“拆掉旧结构、直接重建一个平台级科学操作系统”;最后,他们太重视“共识”与“学术群体的接受度”,而平台科学文明是一场必须“破局”的结构革命,它不可能依靠学术共识启动,也不可能等待学界点头。总之,以拜登体系的支持结构,他们永远不可能启动一个会直接削弱学院体系、重构科学组织方式、改写学术权力格局的国家级科学平台系统;这种政治风险、组织冲突和结构性破坏,只有川普这种“不依赖大学、不依赖学术、不依赖专业官僚体系”的力量才会出手。川普会,拜登不会。 虽然大部分高学历不支持川普 好,一个关键问题必须现在说清楚:为什么拥有高等学历的人,大概率并不支持川普?为什么学历越高、越是 Deep Academia,就越反感川普?深层原因完全不是“知识越多越反川普”这种浅显解释,而是因为高学历群体的社会地位、利益结构、组织嵌入方式,与川普所代表的结构力量天然处于对立阵营。川普代表的是工业、工程、军工、能源、制造业、地方性力量、反精英、反学术生态、反监管、强国家能力、反大学权威的“平台科学文明”阵营(虽然在过去的10年中没有显现);而高学历群体多扎根于大学体系、研究机构、科技白领阶层、医疗法律专业、政策圈、国际合作体系、同行评审体系、证书经济与知识中产结构,这些行业的合法性、薪资、社会地位完全依赖学院文明的旧组织方式:PI 制度、论文经济、同行评审、学科封地、学术自治、知识垄断与城市化知识权威。因此,川普推动的平台科学文明(拆 PI、拆论文经济、拆学院权威、自动化科研、工程化科学、AI 取代传统人脑科研路径、国家任务驱动)等同于直接威胁他们的职业意义、组织地位、阶层身份与未来路径,他们当然不可能支持。 更深的一层是:在美国,高等学位不只是“知识”,它是一种“阶层身份”,代表城市专业阶层、制度依赖度高、国际主义价值观、行政体系与学术权威构成的旧文明;而川普的社会基础来自工程师、制造业、军工、能源、基层技术阶层与反学院精英群体,这些群体对学院体系长期失望,渴望“工程—产业—国家能力—平台科学”这样的结构革命。因此,高学历群体的反川普:他们植根于旧科学文明, 如果你能理解这一些,在我这两年密集上推特的感受来说,是因为你恰好不在旧学术体系,却拥有科学深度、工程能力、AI 原生性与结构化思维,正处于平台科学文明的中心,和传统学院文明的边缘。我们能清晰看见所谓 Academia 到底在玩什么、他们维持的“光鲜外表”背后实际上是一个靠身份、凭资历、用论文当门槛维持的阶层体系;在 AI 到来之后,很多旧结构已经摇摇欲坠,只是还没正式坍塌。必须说,Academia 里面当然也有真正有实力的人,但真正的实力在 AI + 平台科学文明中只会被无限放大,他们会变得更强、跑得更快、突破更多;而那些本来就没啥实力、靠空洞 paper 和象牙塔权力结构混日子的人,才是最害怕这场科学结构革命的群体,因为 AI 会把真能力放大,也会把虚假能力清扫得干干净净。 (1/n)
转译:科技就业寒冬来袭:最新数据令人不寒而栗 作者:Alistair Barr - Indeed最新报告显示,科技行业的招聘岗位锐减,其中数据和分析领域尤其惨淡。 - 与疫情前的招聘高峰相比,数据和分析领域的招聘岗位减少了40%。 - 越来越多的求职者以及生成式AI的兴起,让这个领域的竞争异常激烈。 Indeed是全球规模最大的招聘网站,最近发布了一年一度的就业市场报告,报告中的科技岗位数据 (https://t.co/Jpci09rnof) 显得相当惨烈。其中数据和分析相关岗位的前景尤其不容乐观。 让我们先看看整个就业市场的情况。从Indeed的招聘岗位指数(Job Postings Index)图表中可以清晰看到,自2022年疫情后的招聘热潮之后,可招聘岗位数量便持续下滑: 图2: Indeed的整体招聘岗位趋势图(来源:Indeed) 深入分析后可以发现,科技行业的情况比其他行业更糟糕。在2022年,Indeed的科技岗位招聘指数一度突破200,但如今已经暴跌到67: 图3: Indeed的科技岗位招聘指数图(来源:Indeed) 在科技行业内部,数据和分析领域尤为突出。截至今年10月底,这一领域的招聘指数跌至60,是Indeed追踪的所有行业中最低的。这意味着与疫情爆发前相比,数据分析相关岗位减少了整整40%。 更令人担忧的是,求职者申请这类岗位的人数却还在不断增加。 数据分析相关岗位通常包括业务分析师、数据分析师、数据科学家和商业智能开发人员等职位。Indeed的数据表明,这个领域的供需严重失衡。过去几年,大量求职者接受了数据科学相关的培训,使市场上积累了大量技能型人才,但恰逢企业的招聘意愿冷却下来。 Indeed高级经济学家科里·斯塔勒(Cory Stahle)表示: > 「那些接受了数据科学培训的求职者很可能会继续寻找与自己技能匹配的岗位。因为转行往往代价很高、困难重重,而且耗时费力。」 数据分析岗位的收缩程度比其他类型的岗位更严重。一方面是疫情后企业曾大规模扩张招聘,另一方面是后续企业不再需要补充这么多人员了。 生成式AI(Generative AI)的兴起,让情况变得更加严峻,因为AI工具让人们即使没有受过正式的数据科学培训,也能更轻松地进行数据分析工作。 斯塔勒指出: > 「目前AI还无法完全取代这些岗位上的工作人员,但AI已经能够帮助企业和员工以更少的资源做更多的事情。」 对求职者来说,这意味着找工作将变得异常艰难。 斯塔勒警告道: > 「招聘岗位更少,求职者却更多,这表明目前市场竞争十分激烈。找到一份合适的工作可能需要更多时间,而且这些职位的薪资涨幅也会明显低于前几年。」 来源:https://t.co/Ar2aBMfIgW
求助万能的推友: 如何在 YouTube、TikTok 等海外内容平台上,找到价格合理的中腰部红人。(预算在每期视频 100 - 1000 刀左右)。不求头部,只求中腰部。 用了好几家找红人的 Agent,发现要么找到的是太贵的大红人,要么是伪人(不要问为什么我们能识别出来)。 求真实靠谱的找中腰部红人的办法。雪天伏地感谢。
能源部对于Genesis Mission 创世纪使命的宣传片,大家都看一下。这个重磅消息,时间线上没激起什么水花。我可是两天都既兴奋,又不知道从何开始写起。害得我做了一天家具来理清楚头绪。希望今天能写一篇长文跟大家分享。 https://t.co/38HGNY3aPN 创世纪的初衷是什么?就是当代的科学,已经无法用人脑来理解了。 我再送个潜台词,然而科研资源,被全美,全球,各个实验室的科研“封建小领主”把持。拿钱写水论文,学科不互通,到现在还要求博士生靠手查论文。
日本 IP 开蓝标现在只要 39.38 美元 你能猜到我在想什么吗? https://t.co/6oeEcFMefw
这个提示词有意思,用 Nano Banana Pro 抽卡,看看能生成多离谱的漫画。 我抽出来了一个女孩离谱的一天 提示词: “创作一个四格彩色漫画,采用竖排四格的形式。故事讲述的是一位女性遭遇了一系列完全原创、离谱且极其荒诞的事件(请尽情发挥想象力)。对话幽默风趣、超现实,与剧情相符,且尽量简洁(请绝对不要使用“离谱”、“荒诞”等词语)。”
新思路,现在一个元提示词就是个应用了😅 输入菜品名,就能生成下面的热量拆解图 我的元提示词有11个可以调试的部分 1. 你这张卡片要做的食物/菜品是什么? 2. 请给出食材清单与每种食材的用量(按生重/包装重量)。 3. 你希望热量按什么口径计算(生重/熟重/自定义)? 4. 油脂或酱料的热量要怎么计入? 5. 你希望卡片展示到什么热量与营养信息层级(如单食材、总热量、每份、三大营养素等)? 6. 这张卡片属于哪种内容类型(家常菜/轻食/一锅/外食测评/零食饮品等)? 7. 步骤部分你希望做到多细(极简/关键参数/详细做法)? 8. 你希望这套系列卡片整体走什么风格方向? 9. 标题你想用什么语气或格式? 10. 你是否想加标签/角标?如果加,想加哪些? 11. 热量与营养数据的来源你希望按什么优先级使用? 老规矩,原创元提示词,评论区
我不允许还有人不知道可以在币安上买【美股】了! 很多朋友受限于身份、地区等敏感因素而无法购买美股,但这次币安放发大招了,你可以用加密货币购买股票。 路径:打开币安 APP - 切换到钱包 - 市场 - 链上股票 - 购买你喜欢的股票 相比于其他平台,由宇宙交易所币安 @binancezh 来做这件事大家肯定是更放心的,目前接入了两家老牌底层 RWA 运营商 @OndoFinance 和 @xStocksFi。 科技龙头、加密概念、 ETF 基金都可以流畅购买,交易最低 0 手续费。 最重要的是,在链上交易,某些特殊地区的人群购买美股不用交税。 我们可能正在见证现实世界与加密世界的深度融合。 注意:图中的资产仅作演示,不构成投资建议! -------------------------------------- 如果你还没有注册币安,可以使用我的邀请链接或邀请码注册省 20% 手续费,不填就没有了 https://t.co/9j2dtvAzV2 邀请码 SRXT5KUM 合约邀请码 416378774 链上 Web3 钱包省 30% 手续费: https://t.co/Va58yn4g7u邀请码 RP3AEJ2M
兄弟们,这个也太炸裂了🔥,别看什么 nano banana 了🍌 首个国人打造!效果直逼 Manus!专为 Agent 设计的 Memory 项目 - AContext 正式开源💥 - 存储 agent 对话、反馈、 artifacts - 自动提取 sop,优化 token 提高效果 - 让你的 agent 持续进化,比肩 manus https://t.co/coh9Url457
关于 个人 IP 的真诚,需要思考: 个人 IP 的真诚,跟交朋友的真诚完全是两回事。 前者是商业关系,后者是情感关系。 真诚不是掏心掏肺。 是 专业一致性 × 价值观可见度。 当你的 价值=情感暴露 时, 你就把自己变成了消耗品。 真诚不是自我暴露的勇气。 是在专业领域持续兑现承诺的能力。 边界不是冷漠,是专业。 情感层面的真诚,适合交朋友。 专业操守和价值观践行,才是个人 IP 的真诚。
不是谷歌 AI Studio 开了付费以后,这个计费是怎么回事啊? 我每天用 Nano Banana Pro 跑这么多图,但是费用是 0 就是它计费有延迟,也不至于延迟成这样吧。还是说你开通了付费以后就有一定程度的免费额度? https://t.co/indEyyO0Eg
测了一下 opus 4.5 的前端能力目前大幅领先 codex 中的 gpt 5.1,强逻辑的部分比不过 codex。 如果算上价格的话.....那就比不上 codex 了 另外, 顺手摸了 sonnet 4.5 ,和 gpt 5.1 codex max 依旧没得比.....不知道为啥那么多人说 4.5 很强,反正我用 4.5 的时候觉得能力不如 opus 4.0
从下半周开始,我进入了社交模式。明天约了一位英国的连续创业者喝咖啡,正好可以验证一下我的一个想法。 还报名了由 IBM 主办的 AI Agent 工作坊,地点在 IBM 的city大楼,好多年没去那里蹭吃蹭喝了。 下周我还会去奥克兰新开业的宜家,参与他们的用户测试。 还订了一张 Takapuna 的联合办公空间的日卡,准备开始不定期地去"聚众办公"。 自由职业嘛,关键在于自由,不能太宅了。 图是我拍到的倒霉路的一棵树,自然长成心形也挺厉害的。
有位用户说他用 ListenHub 做了个视频,单条拿到了100万曝光… 我赶紧找来吃饭请教,学习学习 吃完饭让我对视频号的人群有了全新的认知 原来视频号 70% 的人群都是30-50岁的中年人 根本没有年轻人 而50岁以上的人本质是混杂了很多未成年人:因为他们还没手机 这也是为什么他做保险可以这么爆,这个群体最关心保险 不过即便如此,他也还是太强了,直接做到视频号保险赛道推荐量第一名… 专业知识+AI加成,真的猛
Ilya:扩展时代已经结束了,研究的时代已经开始 Ilya Sutskever 大概得有一年多没参加播客访谈了,自从 OpenAI 宫斗离职创办 SSI(Safe Superintelligence)后之后就很少露面了, 最近,他在 Dwarkesh Patel 的播客中进行了一场长达一个半小时的深度对谈。Ilya 毕竟是 Ilya,他不像 Sam Altman 整天满嘴跑火车,只是为了卖货,访谈里面有很多干货,我猜一些观点甚至会影响以后 AI 在研发和投资上的走向。 一个多小时的内容很难说几句话就总结完,还是按照话题挨个整理一下。 【1】为什么 AI 能在考试中碾压人类,却修不好一个简单的 bug? Ilya 在访谈里抛出一个很多人都遇到过也困惑过的现象:现在的模型在各种评分上表现惊艳,但用起来却远远跟不上能力曲线。更诡异的是,你让它改个 bug,它改完引入新 bug;你指出新 bug,它道歉后又改回旧 bug。两个 bug 来回切换,像在打乒乓球。 Ilya 使用一个类比来解释这个问题的:想象两个学生。 第一个立志成为顶级竞赛程序员,刷了一万小时题,背熟所有算法模板,练到条件反射般精准。第二个觉得竞赛挺酷,随便练了一百小时,也拿了不错的成绩。 哪个人未来职业发展更好? 大概率是第二个。 Ilya 说,现在的模型比第一个学生还极端。训练时把所有竞赛题都刷了,还做了数据增强生成更多变体,一遍遍强化。结果就是:所有算法技巧都刻在指尖,但这种准备程度本身就限制了泛化能力。 这个类比点破了一件事:能力和泛化是两回事。刷题刷到极致,可能恰恰堵死了触类旁通的路。 【2】真正的 reward hacking(奖励作弊)是人类研究员 问题出在哪?Ilya 认为是训练数据的选择逻辑变了。 预训练时代很简单:数据越多越好,什么都往里塞,不用挑。但 RL(强化学习)时代不一样了。你得选择做什么强化训练、用什么环境、优化什么目标。 于是一个微妙的循环出现了:研究员想让发布时的 benchmark 得分数字好看,就设计能提升这些指标的 RL 训练。模型变得越来越会考试,但考试能力和真实世界能力之间的鸿沟被放大了。 讽刺的是,真正在奖励作弊的不是模型,是设计训练的人在不知不觉中过度关注了考试成绩。 【3】为什么人类学东西这么快 说到这里就要问一个更深的问题:为什么人类学东西这么快,而且这么稳? Ilya 提到一个特别有意思的医学案例:有个人因为脑损伤,失去了所有情绪——不会难过、不会愤怒、不会兴奋。看起来他还是能说话,能做智力题,测试分数也正常。但他的生活彻底崩溃了:花几个小时决定穿哪双袜子,财务决策一塌糊涂。 这说明什么?情绪不只是情绪,它在某种程度上充当了内置的价值函数。它告诉你什么事值得做,什么选择是好是坏,不需要等到最后结果出来才知道。 价值函数是个技术术语,但概念不难理解。传统的强化学习是这样的:模型做一长串动作,最后得到一个分数,然后用这个分数去调整之前所有步骤。问题是,如果任务需要做很久才有结果,学习效率就很低。 价值函数的作用是“提前剧透”。比如下棋时你丢了一个子,不用下完整局就知道这步不好。编程时如果探索了一个方向走了一千步发现不对,价值函数能让你在一开始选择这个方向时就得到负反馈。 这就像 GPS 导航,不是等你开到终点才告诉你这条路不对,而是在你刚拐错弯时就开始重新规划。 人类大概就是有这么一套系统。而且这套系统的妙处在于:它相对简单,却在非常广泛的情况下都管用。我们的情绪主要是从哺乳动物祖先那里继承来的,针对的是几百万年前的环境,但放到现代社会居然还能用得不错。当然也有失灵的时候,比如面对满街的美食,我们的饥饿感就管不住了。 【4】堆算力堆数据的扩展时代已经结束了,研究的时代已经开始 Ilya 认为规模化时代结束了? 他给了个很有意思的视角:在 2012 到 2020 年,大家在做研究,试这试那,看什么有意思。然后 2020 年左右,scaling law(规模化定律) 被发现了,GPT-3 横空出世。突然之间所有人意识到:原来只要扩展规模,堆数据、堆算力、堆模型参数大小,一路扩充,就能稳定得到更好的结果。 规模化的好处是低风险。而研究是有风险的,你得雇一堆聪明人去探索,不保证有成果。但规模化?只要投入更多资源,就一定能看到回报。公司喜欢这种确定性。但副作用是它吸走了房间里所有的氧气,创新空间被压缩,最后变成“公司比想法多”的局面。 但现在呢?预训练的数据就那么多,互联网就这么大,总会用完。Gemini 据说找到了从预训练榨取更多的方法,但这条路终归有尽头。然后大家转向了强化学习,开始在那上面堆算力。 可问题是:现在算力已经这么大了,再 100 倍真的会质变吗?Ilya 不这么认为。他觉得我们又回到了需要思考到底该做什么的阶段,而不是继续闷头堆资源。 这就像爬山。一开始你发现有条路,往上走就是了,越走越高。但总有一天,你会发现这条路到头了,再往前走也高不了多少。这时候要么换条路,要么换种爬法,总之不能继续原来的策略。 现在的 AI 行业就处在这个节点上。所以 Ilya 说:我们回到了研究时代,只不过这次手里有大得多的计算机。 【5】泛化能力才是核心问题 在 Ilya 看来,当前最根本的问题是:这些模型泛化能力太差了。 什么叫泛化能力差?就是学一样东西需要的数据量太多,而且学会的东西换个场景就不灵了。 人类不是这样的。一个青少年学开车,10 个小时基本就能上路了。而且人类五岁小孩的视觉能力就足以支持自动驾驶了,虽然他不会开车,但识别路况、判断距离这些能力已经很强了,而且这些能力是在父母家里那种数据多样性很低的环境里学会的。 更关键的是,人类学编程、学数学这些东西也很快。这些可不是进化给我们的能力,因为我们的祖先根本不需要写代码。这说明人类不光是在某些特定任务上有进化优势,而是在学习这件事本身上就有某种更本质的能力。 模型呢?虽然在某些具体任务上超过了普通人,但要说学习能力,还差得远。 Ilya 对这个问题有想法,但他说现在不能详细聊,因为在这个竞争激烈的领域,不是所有机器学习想法都能公开讨论的。不过他给了个方向性的提示:这很可能跟如何做到像人类那样高效、稳定的泛化有关。 还有一个可能的阻碍:也许人类的神经元实际上比我们想的做更多计算?如果是这样,事情就更复杂了。但不管怎样,人类的存在本身就证明了这种高效学习是可能的。 【6】重新定义 AGI:从成品到学习者 这里 Ilya 做了一个概念上的重要修正。 AGI 这个概念怎么来的?是作为“狭隘 AI”的反面而诞生的。以前的 AI 只会下棋,只会玩游戏,非常狭隘。所以大家说:我们要造通用的 AI,什么都能做的 AI。 预训练强化了这个印象,因为预训练确实让模型在各种任务上都变强。于是“通用 AI”和“预训练”在概念上绑定了。 但这里有个问题:按照这个定义,人类自己都不算 AGI。 人类有一套基础能力,但缺乏大量具体知识。我们靠的是持续学习。一个聪明的十五岁孩子什么都不会,但学什么都快。“去当程序员”、“去当医生”、“去学习”,部署本身就包含一个学习和试错的过程。 所以 Ilya 心目中的超级智能,不是一个出厂就什么都会的成品,而是一个能像人一样快速学习任何技能的学习者。 【7】能自动学习的 AI 会有多快到来?有多危险? 那么问题来了:如果有这样一个系统,能像人类一样快速学习,而且可以大量复制部署,会发生什么? 人类入职六个月才能产出价值,但这种 AI 可能几周就行。而且不同副本学到的东西还能合并,这是人类做不到的。这难道不会导致某种爆炸式增长? Ilya 认为确实会有快速的经济增长,但到底有多快很难说。一方面有高效的劳动者,另一方面现实世界很大,很多东西有自己的节奏,不是你想快就能快的。 但他确实改变了一些想法。以前 SSI 的计划是“直奔超级智能”——不发布中间产品,一鼓作气搞定终极目标。现在 Ilya 觉得,渐进式发布可能更重要。 【9】为什么要渐进部署?因为想象不出来就得看见 访谈中 Ilya 反复强调一点:AI 的问题在于它还不存在,而不存在的东西很难想象。 你可以读一篇文章说“AI 会变得多厉害”,但读完你觉得“哦,有意思”,然后回到现实。如果你亲眼看到 AI 在做那件事,感受完全不同。 他打了个比方:像二十岁时讨论“年老体弱是什么感觉”。你可以聊,可以想象,但真正的理解只能来自经历。 这导致一个实际问题:所有关于 AI 风险的讨论,都基于对未来 AI 的想象。而想象往往跟不上现实。就连天天做 AI 的人,也会因为当前模型的各种低级错误而低估未来模型的能力。 Ilya 的预测是:随着 AI 变得更强,人们的行为会发生根本改变。竞争对手会开始合作搞安全,政府和公众会开始认真对待监管。这些事情现在开始有苗头了,但还远远不够。而真正的催化剂,是让人们看到更强的 AI。 这也是他对 SSI“直奔超级智能”策略有所松动的原因。原本的想法是不参与市场竞争,专心做研究,等东西准备好了再拿出来。现在他觉得,让 AI 被看见这件事本身是有价值的。当然,无论哪种路径,最终部署都必须是渐进的。 【9】SSI 在做什么?不同的技术路线 SSI 融了三十亿美元。这个数字单看很大,但跟其他公司动辄几百亿的投入比起来似乎不够。 Ilya 算了一笔账。那些大数字里,很大一部分是用于推理服务的。另外,做产品需要大量工程师、销售、产品功能开发,研究资源被稀释。真正用于前沿研究的资源,差距没看起来那么大。 更重要的是,如果你在做不一样的事,不一定需要最大规模的计算来验证想法。AlexNet 用两块 GPU 训的。Transformer 论文最多用了 64 块 2017 年的 GPU,换算成今天也就两块卡。第一个推理模型 o1 的推理能力也不是靠堆算力堆出来的。 研究需要一定算力,但不需要最大算力。真正的瓶颈是想法。 那 SSI 的技术路线是什么?Ilya 没有完全透露,但核心方向是解决泛化问题。他认为现在的方法会走一段然后撞墙,继续进步但无法突破到真正的人类级学习能力。而 SSI 在探索不同的路径。 时间表呢?五到二十年,达到人类级别的学习能力。 【10】安全对齐是什么?应该对齐什么? 说到超级智能,绕不开安全对齐问题。Ilya 的想法是:让 AI 关心有感知能力的生命。 为什么是这个目标而不是“关心人类”?他给了个有意思的理由:AI 本身也会有感知能力。如果你想让 AI 关心人类,可能反而更难,因为它需要做某种特殊化处理。而如果让它关心所有有感知的存在,某种程度上更自然,类似人类对动物的共情,来自于我们用同样的神经回路去理解别人和理解自己。 当然这个方案也有问题。如果大部分有感知能力的存在都是 AI,那人类在数量上会是极少数。这真的能保证人类的利益吗? Ilya 承认这不一定是最好的方案,但他认为至少应该把它列入候选清单,让各家公司到时候可以选择。 还有一个思路他提了但不太喜欢:人机融合。通过类似 Neuralink 脑机接口的技术,让人类部分成为 AI。这样 AI 的理解就是人的理解,AI 的处境就是人的处境,对齐问题某种程度上就消解了。但这显然是个很激进的方案。 【11】如何硬编码高级欲望? 访谈最后有一段很有趣的讨论。 人类有很多社会性的欲望:想被人尊重、在乎社会地位、关心别人怎么看自己。这些不是低级信号,不像闻到食物香味那样有直接的化学感应器。大脑需要整合大量信息才能“理解”社交场合发生了什么。 但进化却成功地把“关心这件事”硬编码进了基因。怎么做到的? 如果说“把多巴胺连到嗅觉感受器”还能想象,那“把奖励信号连到某种需要整个大脑协同计算才能得出的高级判断”就很难想象了。 Ilya 说他有一些猜想,但都不令人满意。这是个谜。但这个谜的存在本身就很有启发性,它说明进化找到了某种方法,可靠地给复杂认知系统植入高级目标。 【12】什么是研究品味? 访谈最后,Dwarkesh 问了 Ilya 个很本质的问题:作为联合创造了 AlexNet、GPT-3 等一系列里程碑工作的人,你怎么判断什么想法值得做? Ilya 的回答很诗意:我寻找的是美感。 不是随便的美感,而是多方面的美:简洁性、优雅性、正确的大脑启发。人工神经元是个好想法,因为大脑确实有很多神经元,虽然大脑很复杂但神经元这个抽象感觉抓住了本质。分布式表示是个好想法,因为大脑确实是从经验中学习。 当一个想法在多个维度上都显得“对”,都有某种内在的和谐,你就可以建立自上而下的信念。这种信念很重要,因为它支撑你在实验结果不好时继续坚持。 有时候实验失败不是因为方向错了,而是因为有 bug。怎么判断该继续调试还是放弃方向?靠的就是这种自上而下的美学直觉:这个东西应该是这样的,所以一定能 work,继续找问题。 这可能就是顶尖研究者和普通研究者的区别。普通研究者容易被数据牵着走,实验不 work 就换方向。而顶尖研究者有某种品味,知道什么是深层次正确的,能够在实验结果和内在直觉之间找到平衡。
🍌 nano banana pro prompt convert your article/content to a cartoon-style infographic --- Prompt --- Please create a cartoon-style infographic based on the provided content, following these guidelines: - Hand-drawn illustration style, landscape orientation (16:9 aspect ratio). - Include a small number of simple cartoon elements, icons, or famous personalities to enhance visual interest and memorability. - If the content includes sensitive or copyrighted figures, replace them with visually similar alternatives; do not refuse to generate the illustration. - All imagery and text must strictly adhere to a hand-drawn style; avoid realistic visual elements. - Keep information concise, highlighting keywords and core concepts. Utilize ample whitespace to clearly emphasize key points. - Unless otherwise specified, use the same language as the provided content. Please use nano banana pro to create the illustration based on the input provided.
不光是前端,所有的技术领域都是类似的,随着 AI 的发展,原有的职责范围、能力要求都会发生变化。 死的不是前端,也不是前端的技术,死的是旧的工作模式。 以前业务有个想法,需要去描述给前端,前端去实现,业务再验证。 现在业务直接用AI搭一个原型出来,不满意自己修改调整,不靠谱直接抛弃。 但业务验证了的需求,还是需要专业的前端/技术去落地,去解决部署的问题、安全问题、性能问题 前端可以让 AI 去做很多枯燥的事 前端可能不再需要自己从头去花很多时间搭脚手架,去到处找 npm 包选技术框架,去自己造轮子,很多体力活可以让 AI 去做,精力花在更有价值的事情上 前端可以借助 AI 去拓展自己的能力边界 前端也不用再局限自己只是前端,后端、运维的也可以做。
warp 太牛逼了,下不动的文件,直接在命令行里面开 16 线程下载 https://t.co/aLoizeztMg
Twitter 黑五折扣隐藏的真深啊,一般人都还找不到 因为只能他人赠送,年费享受 40% OFF,自己买没有这个待遇 每人每天最多赠 3 个 大家可以找熟悉的蓝v用户,让他们帮忙赠送 我也建了免费微信群,群里接龙互赠(自己直接付钱给转赠你的人哈),评论区留下你的微信或加我微信(与推特账号相同) 进群规则: 1️⃣ 48h 内开通蓝 V,不然移除群聊 2️⃣ 群内蓝V互关,这个也算是福利哈,一下积累起大量蓝v关注者 3️⃣ Twitter 已经绑定好了手机号
读一下《原子习惯》,它会彻底改变你的生活。 这里有 12 条最实用的改变法则: 1. 从“你想成为怎样的人”开始,而不是从目标开始 与其只设定目标,不如问自己:我想成为什么样的人? 2. 微小改变会累积成巨大优势 每天进步 1%,长期就是指数级提升。 3. 系统比目标更重要 目标给方向,但系统让成果可持续。 比如,我不是说“要多锻炼”,而是制定了一个可重复的日常运动计划。 清晰的习惯形成循环(4 步) 4. 提示:让习惯变得显而易见 使用“习惯叠加”:例如“冲咖啡后读一页书”,把意图放进日常流程里。 5. 渴望:让习惯变得有吸引力 把新习惯和你喜欢的事物结合,执行起来更轻松、更自然。 6. 反应:让习惯变得容易执行 从极小开始,比如“2 分钟法则”,直接降低行动的门槛。 7. 奖励:让习惯变得有成就感 记录习惯、看到自己的进度,会强化动力,小小成就会不断累积。 如何打破坏习惯 8. 减少接触诱因 直接消除触发点,比如减少不必要的屏幕时间。 9. 增加阻力 让坏习惯更难发生,例如把手机放在另一个房间。 10. 重塑心态 关注“放弃这个坏习惯能带来什么好处”,而不是只想着限制自己。 最终核心思想 11. 坚持 = 自我提升的复利 每一点坚持,都会不断放大,最终塑造你的整体人生轨迹。 12. 微小改变 = 巨大影响 如果你想通过不痛苦的方式改变人生,《原子习惯》非常值得一读。
我的编码模型使用方案 2025年11月末版 前端起手: Gemini 3.0 定位: 前端 One-shot 之王 用法: Cursor / Gemini Canvas / AI Studio 进行初稿生成,特别适合落地页和可视化 逻辑核心: OpenAI Codex 定位: 逻辑修复 用法: 从零生成的代码有时需要较长的 Prompt 引导,文档能力一般, 但在修复 Bug 和理顺复杂业务逻辑方面,最强的“手术刀”, 另外 gpt5 high (不是5.1后面一大推模型) 推理能力依旧是最强, 诊断bug 依然是你的首选 UI/UX 润色: Opus 4.5 定位: 前端样式与动效专家。 用法: 审美在线,专门用于 CSS 调整、动画效果实现以及整体视觉的一致性优化。 手替场景: Cursor (CC) + 国产大模型 定位: 高性价比方案。 用法: 低成本优势,配合工具进行数据清洗、字幕整理等批量化文本任务。在我的实测中, 长文本的分段处理, cc + 国产大模型属于比较顶的一批. 如果你需要使用多个大模型, 可能 cursor 20刀/60刀 是一个非常不错的订阅方案. 以上
昨天晚点发了一篇关于 MiniMax 和月之暗面的长文。 感觉中国大模型创业公司是被夹在两块铁板中间。 一边是几千亿美金估值、几百亿美金预算的 OpenAI / Anthropic / xAI,另一边是有电商、广告、量化现金流喂模型的阿里、字节、腾讯、DeepSeek。 真不容易。 原文6000字,我文章一键转成了解说视频。 https://t.co/9YGxudSMsK
NotebookLM 的 PPT 生成太好用了,结果被挤炸了,免费用户没办法用了 https://t.co/VTVCgNmB9M
经济下行发生失业潮很普遍,我的观察其实反而不是失业的问题。 老推友知道我对“范式”paradigm很关注,经常引用库恩的书。 目前我观察的范式,我认为@naki2012 兄的影子推论,很有道理。 中年女性失业人,会发现再找工作的时候以前的就业经历不怎么被认可。“越老越吃香”,经验老道等认知资产在就业市场上不被转化为个人资本。为什么呢?经验会增加靠谱的程度,业务的熟练度,失误也会少。不是所有的工作都需要拼体力的。我认为这里有更深层的原因。 当然,男推友也可以来说说。 为什么一个经济系统会对经验产生贬值效应? 我认为这不是“职场偏见”那么简单,甚至不是简单的经济不好。而是范式本身在转变。 旧时代经验的价值形式大多属于“隐性结构”。 但新的经济系统是一种“活体系统”,它依赖的是显式结构、可调用结构、可调度结构。 经验是隐性的,而新系统只奖励显性的。 所以你会看到这样的怪象: •业务熟练度不再被看作“资产”,因为系统本身已经可以通过工具链、流程化结构、AI 辅助把熟练度标准化。 •可靠与稳重不再稀缺,因为系统倾向使用可替代性强的模块(人)而不是依赖“长期演化出的能力”。 •经验不再产生价值,因为系统本身的“组织生命”已经从“人吸收经验”变成“系统吸收数据”。 人作为结构载体的价值正在下降,而系统作为“活体”的独立价值正在上升。 这就是我的猜想。 随便找一个「土老板」做实验。你对他说: “来,我把你公司里所有核心白领岗位都做成智能体,让它们完全无缝替代你现在的员工。以后这些智能体由你儿子来操作——管他高考考多少分,他都能一键调度、全盘控制。这样一套系统,你愿意花多少钱?” 在这种结构下,公司未来的“核心员工”只剩两类 家族成员和智能体。 不需要学历,不需要经验,不需要智商天赋,只需要家族身份,就能操控整个企业的智能劳动力。 人力资本正在被结构资本吞噬。 家族资本正在被 AI 强化为“绝对统治结构”。 而普通人的经验与能力不再构成权力来源。
人的性格真是被环境塑造的。多年前第一次接触 MBTI 那时候测出来是 INTP,工作几年后变成了 INTJ,创业两年后又偶尔测成 ENTJ —— 感觉自己就像被生活和工作拧成了不同的形状。
总的来说我是个搞笑的人,生在一个搞笑家庭。 喝点小酒,吃点小肉。 我记得我爸妈,都属于很内向,很不爱社交,闷葫芦型人物。但是在家里仍然,唯一说的话可能就是个笑话。磕磕巴巴的,几十年重复一个差不多的笑话,也要说… https://t.co/g8FUWn7W8M
怪不得这个Github项目,这么短时间竟然有5k多 Star 原来是AK写的,名叫“LLM Council” 直译过来叫 “大模型理事会”。 一次性调用多个不同大模型,互相匿名打分、排名。 消除偏见,总结输出质量最好的答案。 三步: ① 并行收集各模型回答; ② 匿名互评与排名,减少偏见(按准确性和洞见打分) ③ 主席模型综合输出单一高质量答案。
最后一句「目前 AI 的推理能力能让你赚到你无法想象的钱」肯定是实话哈哈,p 佬已经赚翻 不过这事儿,属于是:因为看见,所以相信 大部分人不会相信的
贴一张工程进度。今天翻车了,被梁砸了……老了。 以后这面墙,全挂屏幕🖥️。看你们谁,还跟我比屏幕多。 https://t.co/1IK00MYOKk
在这个帖子下面发一些 FLUX.2 模型的测试的合集 对于设计师友好,FLUX.2 支持非常精准的色值控制 由于 LLM 部分比较差在世界知识和多模态推理上肯定是不如 Banana 简单测试了一下,一致性,比banana差一些,给了6张图,结果生成出来少了一个家具。 https://t.co/tRp7e52ZC1
最近玩疯了。 这两周基本是在 Gemini 3 和 Nano Banana Pro 之间来回折腾,跟被点满了生图天赋一样,天天生成到天亮。 模型强大带来的效果丝滑,很容易被这种爽感裹挟进去。 但可能正因为玩得太嗨,反倒让我注意到一个反差: 大家好像都把 agent 暂时忘了。 不知道有多少人跟我一样,时间线被更强的模型和更丝滑的生图刷得密不透风。 agent 那一套跑流程的讨论从时间线里消失了。 这很值得警惕。最近在其他平台在看一些项目、也跟几家公司聊,能感觉 agent 在悄悄蓬勃起来。 不吵不闹,也没有那种炸裂发布会。但能看到它开始钻进各种真实业务里。 以前要人盯着的小任务,它们有的已经开始自己跑了。 模型升级确实很爽,但 agent 的演化到了没声量但稳稳前进的时刻。 警醒下自己, 玩模型当然好爽,但如果一直停在好玩,很容易忽略掉一个事实: 最后决定业务价值的,往往是那些能把模型用起来的流程和系统。 所以也给自己按了个暂停键: 收敛一下,该回到 agent 这条线索上继续深挖了。 有时候,冷门不是真的没人做,只是热闹把声音盖住了。 而真正值得跟的方向,往往就是这种安静并且一步一个脚印的演进。