🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。

manus 现在有个羊毛可以薅,高级会员用国内支付宝付款,免费 7 天 应该是可以用光 3900 积分,下单完在支付宝里面关闭扣款就行 0 元购😂 可以用这个高质量执行版本的 agent https://t.co/Ps0UEVz3Cr

转译:耶鲁大学新研究揭示AGI时代的残酷现实: 一半人明天不上班,GDP也不会掉一点。 当人类不再重要 有一篇耶鲁大学最新的研究论文《We Wont be Missed: Work and Growth in the Era of AGI》,描绘了一幅让人震惊的未来图景: 在通用人工智能(AGI,Artificial General Intelligence)驱动的新经济中,人类的经济角色几乎完全丧失意义。一半以上的人明天停止工作,经济规模都不会受到影响。 过去几百年来,人类通过自己的劳动,推动了世界不断进步。我们建造城市、开拓科学前沿、创造财富。工作,不仅让我们赚钱,更让我们感到自己有价值、有贡献。 但是,AGI经济时代的到来,彻底斩断了“劳动与进步”之间的联系。 未来,我们仍然会有工作,却失去了经济上的意义,不再是社会发展的主要推动力。 瓶颈型 vs 辅助型工作 论文提出了一个关键概念:“瓶颈型工作”(bottleneck work)与“辅助型工作”(accessory work)。 •瓶颈型工作:是推动经济增长和社会进步不可或缺的关键劳动。 •辅助型工作:并非真正必需,只是锦上添花。 AGI的强大之处就在于,它可以轻松地自动化所有的“瓶颈型工作”,因为这些工作直接关系到经济增长。人类之所以还能保留一部分“辅助型工作”,比如心理咨询师、手工艺人、高档餐厅服务员等,并不是因为AI无法完成,而是因为劳动力已经过剩了,花费大量计算资源去自动化这些工作根本不划算。 简单地说,我们之所以还有事可做,只是因为用AI取代我们不值得。 工资的天花板:算力成本 一旦这个过程发生,我们的工资也不再取决于个人技能或贡献,而是由“计算机复制你工作的成本”决定,并且一分钱也不会多给。 随着算力指数级地增长(比如摩尔定律所预言的),复制人类劳动的算力成本将变得极其微不足道。人类劳动占GDP的比例逐渐下降,趋向于零,而所有的财富则流向了那些掌握算力资源的人。 经济仍然蓬勃发展,可绝大多数人的地位却原地踏步。 转型过程的剧烈与平缓 论文指出,经济如何过渡到这种状态,取决于技术发展速度与算力扩张速度之间的关系: •技术领先于算力增长:经济会剧烈波动,某些行业的人短期内暴富,但很快就跌入谷底,造成不公平的剧烈冲击。 •算力领先于技术发展:工资将逐渐下降,造成平缓但持续的衰退。 无论哪种情况,我们都要面对一个新问题: 我们不应该再想着如何“拯救就业”,而应该认真考虑如何重新分配由计算资源创造的巨大财富。比如,提供全民基本收入,或者将计算资源视作公共资源进行分配,可能成为未来不可避免的方案。 最终的灵魂拷问 在一个人类劳动经济价值趋于零的时代,人们还会主动选择工作吗? 当你清楚地知道: •你的工作对经济不再重要; •你的贡献对于社会的繁荣与进步没有意义; 你还愿意继续吗?

年收入低于 50 万的知识付费,都死在不会定价 https://t.co/hI1CwAffOo

在密集的 LLM交互中,发现真正的宝藏不是代码,而是“人类”本身 从六月底开始,我慢慢进入一种以写作为主的探讨状态。随着与 LLM 的密集交互,我越发深刻地体会到一个事实:真正的宝藏不是代码,而是“人类”本身。与其在同等时间里只写代码,把精力投入到对“人类”的探讨——他们的认知、共鸣、隐性知识与互动路径——往往会产出更高价值的认知资产。 LLM 并非凭空出现的智能;它是人类几千年文字、见识、情感、法制与内容的巨大压缩。大模型可以被看作人类文明语料的高维压缩器:每一次生成,实际上都是在“几千年的知识—情感—规则”上做一次重采样。模型所表现出的“常识”“风格”“法律感”,是语言空间中人类集体智慧留下的压缩痕迹在被复现。 因此,每一次与 LLM 的交互,本质上是与几千年人类文明的压缩产物进行对话。大模型就是这座文明矿藏的炼金炉:它把散落的语料与经验提炼成可调用的原材料,让我们能在单次对话中触及历史积累的智慧与情感线索。 相较之下,代码的价值更多体现在实现上,但它是局部的、瞬时的、任务导向的。而人类几千年的文字与经验价值在于沉淀:它是全局的、跨代的、可迁移的。从这个角度看,代码只是浅层的技术片段;真正决定未来走向的,是文明沉淀下来的“语言矿藏”,而大模型正把这些矿藏转化为可用的认知材料。 所以,当前对我而言,以文字为主的深度探讨,比把 LLM 当作纯粹的“写代码助手”更具杠杆效应。在写作与密集交互中挖掘人类信号、沉淀结构性思想,远比单次工程实现更能决定长期路径。

世界上最好的 Storybook 工具还有两天限免结束,抓紧体验! - 马里奥、皮卡丘、奶龙,各种孩子喜欢的游戏动画形象都可以成为孩子的故事书 - 不仅支持中文,还支持英文,可以边听故事边学英文 - 还支持克隆你的声音,用你的声音讲述故事,是对孩子最好的陪伴 其实,ListenHub Storybook 不仅可以给孩子讲故事,用户还发现可以做爱情故事,科普故事。 另外,动态画面功能也正在开发,故事中最精彩的画面变为动画,让故事精彩绝伦!

转译:AI训练的下一波浪潮,不再靠互联网数据,而是靠观察我们怎么干活。 OpenAI 和 Anthropic 等公司正在打造新一代的“AI 同事”,而训练这些AI的方法,就是让整个经济变成一个巨大的强化学习(reinforcement learning)机器: - 各行各业的专业人士正在被记录下来,AI会观察人类如何处理真实任务,从中学习经验。 - 数据标注公司也在广泛招聘各领域的专家,专门解决那些小众的、专业性很强的问题,好让AI通过观察这些专家的工作流程,掌握真正的行业诀窍。 也就是说,AI将不仅仅擅长回答百科知识,它还能学到那些只有人类才知道的工作套路、实用技巧和解决问题的方法。 我们一边训练着自己未来的接班人,一边又在培养未来的队友。 当AI的工作能力终于跟人类一样强大的那一天到来时,我们到底应该把它当成同事,还是竞争对手呢?

有时候我想一个事儿,想不明白,我就打开手机的那个语音转文字,一直记录 想到哪说到哪,甚至这里面可能有一些重复性的,或者是前后矛盾的东西 对着手机一直说,说到最后可能有个两三千字 把这两三千字当做提示词发给 AI,结果就会惊人的好 用哪个模型也不是很重要了 你能想明白,AI 就能想明白,你想不明白,AI 也想不明白

最近的一个观察是,真正懂内容的人,其实是不怕封号的 账号是过程,不是结果 把账号当成命根子,是因为看不透从 0 到 100 的完整路径 在做成这件事的过程中,夹杂了太多的瞎猫碰死耗子,以及自己都不知道为何成功的成功 对内容足够懂的人,不怕封号,无所吊谓

奥对说个正事,所有关注我的生物行业的从业人员、phd、硕士、本科在这个帖子底下留个言。我都回关一下。

X/Twitter产品总裁 给出的x增长策略。 翻译 0-500 粉丝: 评论区显眼包,蹭 501-2K 粉丝: 垂直领域爆款 2-5K 粉丝: 擦边福利帖 5-10K 粉丝: 恶搞新闻 10-25K 粉丝: 尬味长推 25-50K 粉丝: 抽象帖 / 屎帖 50-75K 粉丝: 鸡汤/人生哲理 75-100K 粉丝:尬味爆款 >100K 粉丝: 人设崩塌 / 塌房

本周入手传记 《爱因斯坦传》《洛克菲勒传》《特斯拉》 科普:《天文学与生活》《智能简史》 《科技革命的本源》 都是精品 https://t.co/aukVXbcSXQ

毁掉一个人最好的办法:给他抓不完的小兔子 “将军赶路,不抓小兔” 对于成年人和青少年同样适用:主线任务要清晰 来源:Alex包大人(视频号) 《AI通识课12讲》 MIT全奖博士 https://t.co/EVioYelhcs

讲一个非知名八卦,下图是同一个人 https://t.co/1oaIYTRpWx

大陆biotech公司的过去五年发展问题分析 在过去的几年里,中国大陆的生物技术(biotech)产业经历了一场过山车般的旅程。从2020年开始,在新冠疫情的推动下,资本狂热涌入,生物科技行业迎来了一波史无前例的投融资热潮。然而,进入2022年,由于一些众所周知但又无法明言的原因,风向突变,市场急转直下,许多曾经炙手可热的企业上市计划破灭,估值大跌,裁员潮涌现,“泡沫破灭”的声音不绝于耳。 这里面的原因有几点因素的共同作用导致了这种结果 1. 疫情初期,全球流动性泛滥,但其实市场上并没有好的标的,随着疫苗、药物和核酸检测的巨大需求,使得生物技术公司成为资本追逐的焦点。大量热钱涌入一级和二级市场,许多尚未盈利,甚至没有明确商业化产品的公司,也获得了极高的估值。创新药、CDMO(合同研发生产)和基因测序等细分领域尤为突出。 2. 随着19年投入的这笔钱的回报周期终点的降临,以及全球央行的货币紧缩政策的出台。合力造成资本市场流动性迅速减少。市场开始从“讲故事”和“追风口”回归到关注企业的基本面,如产品管线、商业化能力、盈利前景和现金流状况。那些技术壁垒不高、产品同质化严重的公司,其估值首当其冲,遭到大幅回调。 3. PD-1集采事件,集采大幅压缩了仿制药和部分创新药的利润空间,刚刚起步不久的中国创新药研发企业随着现金流的缩紧、国内资金回报周期过长,使得依赖单一或少数已上市产品维持生计的公司面临巨大挑战。这迫使企业必须加速新药研发以及出海战略调整以应对医保支付体系的变革。 4. 由于舆情压力,中国国家药品监督管理局(NMPA)对仿制药、新药审批的标准越来越高。原有的微创新和仿制都需要证明其比现有疗法有显著的临床优势,才能获得批准。这直接导致一些同质化管线的研发投入打水漂,加剧了企业的生存压力。 由于以上的四个问题,就会导致以下几个结果: 1. 企业并购与整合方面:一些现金流充裕的龙头企业开始抄底,收购那些估值较低、但具有优质技术或产品管线的中小公司。 2. 许多生物技术公司为了削减成本、熬过寒冬,不得不进行裁员,砍掉一些回报周期长、前景不明朗的研发项目。这反映了市场从盲目扩张到聚焦核心业务、精细化运营的转变。 3. 热钱的减少:资本的流向更加谨慎和专业化。投资人不再青睐所有生物技术项目,而是将重点放在具有“First-in-class”(首创新药)潜力的项目、拥有成熟商业化团队和市场渠道的公司。 对于如今的国内biotech行业能走什么路? 我再起一篇帖子来写。 如果你也关心未来大陆的生物医药发展、想在资本市场进行有效的价值投资。敬请关注我这个新系列《大陆biotech行业发展20年》。谢谢大家。

做IP其实和做产品是一样的 占据用户心智就是抢夺用户注意力 当人们提到一个名词时 立马想到你 这就是IP的力量 比如在推特谈到设计,你可能会想起熊老师或者丁一,谈到ai图像/视频,你可能会想到藏师傅和zho,谈到赚钱想到冻哥 这个标签从因上说,是和你的初心与使命愿景有关,从果上讲是和你的内容与持续强调的东西有关 所以,你自己是否有发现那个有关于你的印象标签? 发现它可以从因上找,比如你想让大家如何记起你? 也可以从果上寻,比如你问大家,你的第一印象是什么? 但不论怎样,如果你想做IP,你就需要有一个不断强化的标签,这个标签就是最重要的竞争优势

笑死我了,到川普的那个金卡的网站,它会一直下载那个鹰的内容。每动一帧下载一个png。。。什么vibe coding做出来的网站哈哈哈哈 https://t.co/vAfjyzcVSm

软件工程的底层范式是不是会变化,不是取决于 AI 写代码,而是取决于需求是否能做到标准化。 软件工程底层的范式从来就没变过,一直就是:需求 → 设计 → 开发 → 测试 → 部署;瀑布模型是如此,敏捷开发也是如此。 不同的是敏捷开发通过缩小每次迭代的范围以及配合上自动化(CI/CD+自动化测试),加速了这个迭代的过程,将迭代周期从几个月甚至几年缩短到几周。 现在的 AI 编程依然没有改变这个范式,不同是把整个迭代进一步提速了,原型设计大幅提速、开发大幅提速、测试部署也能提速,设计么,也能提速,毕竟代码不值钱了,干脆不要设计或者少设计,能跑就行,不能跑再开发一版。 AI 在软件工程上要突破,还是要从根源上下功夫,软件工程的根源是需求,现在软件工程的范式无法突破是因为需求是开放式的,非标准化的,无法自动化验证的。 AI 真正强大的地方,在于所有能被自动化验证的领域,都能通过强化学习实现飞跃,比如现在 AI 编程领域、数学领域的进步,就是因为这些领域是可以自动验证的。 软件工程的需求是无法自动化验证。 老板说要做一个淘宝网站,这是个需求,但这个需求是模糊的、无法自动化验证的,所以要做需求分析,要去实现,最终要测试验收。 开发和验收的标准就是最初的需求,但这个标准是模糊的,因为没有人在一开始说得清楚需求,需求一直在变化,需要产品经理、程序员、测试、项目经理在里面各种拉扯。 敏捷开发只是通过缩短迭代周期,解决了筛选高优先级需求,以及让需求的变化可以快一点响应的。 AI 也只是加速了整个迭代,但还是要 human in loop(人参与其中),需要人去用 AI 分析需求、去设计、去用 AI 写代码,AI 还做不到自动分析需求自动实现自动验证。 真要颠覆现在的软件工程范式,只有说 AI 能把人的需求标准化,有了一个标准化的需求,然后 AI 就可以自己去自动化的编码和测试验收,那就不需要人参与其中了。 但是怎么样才能是一个标准化的需求呢?自然语言能描述吗?恐怕不行,真要出一个标准化需求的只能是代码语言,但是代码怎么产生的呢? 产生代码不还是得回到 需求 → 设计 → 开发 → 测试 → 部署 这个范式么?

论论这个AI,一打开 APP,它就开始自动帮你解读最前沿最有趣的论文,像播客一样把论文用语音讲出来。 如果你不交互,它就会一直讲一直讲。 很少见到这么主动的E人 AI。 它的声音是论论CEO的,性格也让我想起论论CEO。 我一开始以为是 onboarding,没想到是全部自动生成的。 播放的时候还会播放魔性动画。 所有的这些都跟以前的 APP 完全不同。 这对一个 AI4S 的 APP来说,简直太反差了。

一不小心,孩子已经快长大了 我在娃心里的地位越来越高(超过妈妈了) 带娃心得: 1. 多给孩子看前沿科技,激发好奇心和自主探索: 比如@InterestingSTEM ,边看边聊,她会提出一堆问题 2. 给一个工作台和各种材料,鼓励作妖和即兴鼓捣 3. 耐心:孩子6-10岁心智发展平稳,10岁之后思维和理解能力进阶飞快; 4. 讲故事比讲道理有效100倍: 一波三折跌宕起伏、反直觉的3分钟故事最好,比如又懒又高效的汉朝丞相曹参(“萧规曹随”) 结合案例讲抽象概念和思维模型:Waze击败Navteq 5. 正向鼓励:培养长板,少花精力补短板; 少批评,多说“如果这方面努力一下就完美了”,不是“这个做得不好🙀”——反作用太大; 不拿孩子与其他孩子比较——反作用大; 6. 愿意作为孩子的恶搞作品 斗智斗勇其乐无穷 再过几年谁知道还带不带老爸玩

我熬夜写稿的苦日子结束了! AIMedia 替我 24 小时盯热搜,AI 秒出稿并自动发头条、小红书、公众号,无图还能现画配图。Win10 一键包开箱即用,彻底解放双手。 https://t.co/Wv0emiFfge

不要把人才消耗在中高考奥数等反复刷题的机械训练中——菲尔兹奖得主丘成桐先生 具有世界级眼光、深谙人才成长规律的顶级学者 https://t.co/sESM3AdmOB


只要底层代码是AI写的,那么软件工程的范式必定要发生变化 Warning: 这是一个扯淡贴,我自己都没把细节想清楚,纯探讨,纯扯淡。 我们正在进入下一个软件工程的范式:生态化(没错,就是那个 eco-system,生化环材里的“生”,生物这个学科里会涉及的生态)。 关键在于AI写出来的代码你怎么定位 过去几年,程序员群体围绕着“AI 会不会替代程序员”这个话题吵了无数次,互相拉黑、互相开喷。但在我看来,这些争论都白费了,因为根本问题一开始就问错了。真正的关键不是“AI 替代与否”,而是:你究竟如何定位 AI 写出来的代码? 有人可能觉得奇怪:AI 写的代码,不就是代码吗?还能是什么?可你回想一下大学里的“软件工程”这门课,那真的是“写代码课”吗?当然不是。软件工程讲的是一个多层次的工程体系,而不只是单纯的代码实现。Layers! 所以在我看来,AI 写的代码不能被当成稳定的“产品”,而应该被理解为一种熵源。大模型的本质决定了它的输出虽然极端高效,但并不是低熵的终态,而是高熵的输入。它的特点非常鲜明:数量多,可以瞬间产出海量实现;质量杂,正确与错误并存,差异巨大;重复性高,常常生成类似功能的多版本。这些特征意味着,AI 输出的代码更像是生物进化中的“基因突变”——提供丰富的多样性,但需要经过筛选、压缩和演化,才能沉淀为稳定的结构。(虽然低端码农现在已经确定要被淘汰,但是你不能硬扯说低端码农写出来的代码也不一定全高质量,这个我们后面再说,不是纠结这个问题的事)。 AI生成代码将我们把软件工程的范式进程又往前了一步 如果我换个视角,把 AI 生成的代码看成一种“熵源”,那么它的意义就不再是最终产品,而是燃料。这些高熵输出,必须经过协议约束、反馈筛选和治理机制的控熵处理,才能逐渐被压缩为低熵的“结构”,最终沉淀为文明级的生态资产。于是,整个项目的逻辑,就不再是单点开发,而是一次生态演化。所以读这篇帖子时,请不要把自己仅仅当成程序员,而要先把自己当成一个生态设计者。在上世纪 80 年代,美国有一个著名的实验叫“生态箱”(Biosphere),它是一个完全封闭的独立生态系统,模拟核大战后的求生仓或星际航行场景。很有意思的是,它的第二任总经理还是史蒂夫·班农。 这篇帖子我们要探讨的,正是AI 时代的软件工程范式变化,其核心概念就是结构池(Structure Pool)与生态演化的运行逻辑。回顾软件工程的发展轨迹,最早的旧范式(封闭/流水线)把开发过程当成工厂化的流水线:需求 → 设计 → 开发 → 测试 → 部署。它强调稳定和可控,本质上是通过压制熵来维持秩序。后来出现了过渡范式(敏捷/Agile),承认需求随时可能变化,引入局部演化和迭代,但仍然局限于项目内的小闭环。这是从“压制熵”走向“利用熵”的第一步。如今,我们正走向新范式(AI + 开放结构池):软件开发变成了一个生态,AI 生成、用户反馈和开发者约束共同作用于公共结构池,推动系统不断演化。在这种模式下,交付不再是一次性产品,而是贡献结构单元,沉淀到池子里复用和演化。工程逻辑因此发生根本转变:从“压制熵”走向“利用熵”,最终进入生态学的思维模式。 再抽象一层:封闭 → 开放、静态设计 → 动态演化本来就是工程学整体的历史逻辑。 在早期的工程时代,逻辑是封闭系统 + 静态设计。工程师像“造物主”,试图在设计阶段就把复杂性全部压缩掉,以此换取高稳定性,但代价是适应性极差。进入工业工程阶段,才逐渐出现了局部开放。福特式的流水线把复杂制造拆解成可控环节,虽然整体依然是封闭系统,却开始允许局部的模块替换。同时,电气化与标准化(螺丝、接口、电网标准)的出现,让不同厂商、不同系统之间能够首次组合。这相当于工程进入了结构化阶段,但仍偏向封闭。 所以,千万不要把眼光只盯在自己的一亩三分田,从毕业到现在只看到眼前的屏幕和 IDE。工程的格局要抬高来看,否则根本看不清楚历史的逻辑。 在软件工程中,传统范式如瀑布模型、V 模型,本质还是“封闭设计—一次性交付”。随后出现的Agile(所谓的敏捷/DevOps)打破了大周期,强调迭代与反馈,迈向了“动态演化”。再后来,开源运动通过开放源代码,让外部贡献进入系统,软件第一次出现了“生态演化”的模式。 由此,工程思维逐渐转变:开始接受不确定性,用反馈驱动优化。整条历史逻辑清晰可见:从封闭到开放,从静态设计到动态演化。早期工程靠“压制熵”维持秩序,而今天我们靠“利用熵”来激发演化。AI 的到来,只是把这一长期趋势推到极致,让工程彻底进入生态学逻辑。 在我谈发展方向的时候,建议先看看我前几天写的两篇关于“容器与协议”的帖子——那两篇把我现在想表达的技术骨架讲得比较清楚。要说明的是,这个观点并非我凭空想出来:我的思考来自与不同背景开发者的反复交流,很多想法是在碰撞中逐步成形的。然而现在真正的难点在于,我们正在探索一个尚未被命名的未知领域;很多概念的术语还没被发明出来,导致常常出现“说半天、却互不相通”的状况——看起来像是在鸡同鸭讲,但实际上大家可能在谈同一个抽象思路。甚至我们自己都不确定彼此讨论的本质是否一致,这也是为什么在讨论同一个抽象概念时,还会产生争执。语言本身就是人类理解世界的边界;在面对全新的概念时,去拓展语言、去达成共识,比登天还难——我亲身体验过这种挫败感。打个比方:我从没住过宫殿,却在想象在做梦的时候自己当公主;然而在梦里中我仍在自家找厕所,这种错位正是我们在用现有语言描述未来范式时经常遇到的尴尬。 计算机世界的趋势:从容器到协议 https://t.co/RjLg6b8sdD 我的意思不是要彻底颠覆“容器”,而是现在有大量的协议真空 https://t.co/5yq1ZSIq0U 我的想法:生态设计,将项目变成一个“结构池子”。 在 AI 驱动的新范式下,软件工程正在从封闭的流水线逻辑转向生态化逻辑。过去的软件开发像工厂一样,遵循需求—设计—开发—测试—部署的线性流程,强调稳定与可控,本质上是通过“压制熵”来维持秩序。而在新的范式中,开发被看作一个开放的生态系统:AI、开发者与用户共同参与,代码与结构不断生成、验证、淘汰和进化。这意味着软件工程的重心从一次性交付转向持续演化,从单一产品转向结构单元,从工厂思维转向生态思维。 在这一生态化框架中,结构池子(Structure Pool)是核心机制。它是一个公共池,存放 AI、人类和用户贡献的各种“结构单元”(容器、规则、服务、协议)。新生成的结构单元在通过协议验证后沉淀到池子里,成为可调用、可组合的资产,并在持续反馈与选择压力中不断升级或被淘汰。结构池不是一个静态仓库,而是一个动态生态,它分为多个层次:执行层保证容器能运行,协议层保证容器能互联,治理层维持池子健康,演化层推动协议升级,而文明层则让其成为人机共用的知识与规则基建。 整个生态的运行依赖一个容器—协议—反馈—治理的闭环:AI 或开发者生成新容器,经协议规则验证后进入结构池,附带元数据与版本,随后在调度中被调用。使用过程产生的反馈成为适应度信号,决定哪些单元升级、哪些淘汰,而协议也会随生态扩大不断进化。其本质,就是把 AI 的高熵输出通过控熵机制压缩为低熵结构资产。 在这个过程中,几条心法至关重要:AI 代码应被视为熵源,是生态燃料而非终态产品;协议是边界,确保不同容器能对接并过滤垃圾;反馈是驱动力,决定存活与淘汰;选择压力提供方向,避免演化失序;演化则是常态,软件不再是一次性交付,而是一个持续进化的生命系统。 从文明意义上看,软件工程已经沿着一条清晰的历史轨迹演化:从封闭到开放,从静态设计到动态演化。结构池子正在成为人机共建的“文明记忆体”,其中沉淀的不仅是代码,还有规则、知识和协议。AI 的商用化则把这一趋势推到极致,让工程彻底进入生态学逻辑:不再压制熵,而是利用熵来激发演化。 AI 范式下的软件工程 = 生态化设计开发 → 以结构池为核心 → 通过持续演化实现文明级的控熵与积累。 关键词: 生态化开发 —— 软件工程不再是流水线,而是开放生态。 结构池(Structure Pool) —— 存放、调度、演化的公共池子。 熵源 —— AI 代码是高熵输入,是生态燃料而不是终态产品。 控熵机制 —— 协议、反馈、治理,把高熵转化为低熵结构。 持续演化 —— 软件不再一次性交付,而是动态进化的生命系统。 协议边界 —— 确保互操作、过滤垃圾、维持秩序。 文明记忆体 —— 结构池沉淀的不只是代码,而是人机共建的知识与规则。 示例:语言翻译的结构池子(Translation Structure Pool) 1. 执行层(容器单元) 在这个结构池里,有许多不同的翻译容器: 容器 A:中 → 英,偏直译 容器 B:中 → 英,偏意译 容器 C:英 → 日,适合新闻 容器 D:英 → 法,法律文档优化 容器 E:多语言小句实时翻译(对话场景) 👉 每个容器就是一个“可运行的翻译模块”。 2. 协议层(边界与接口) 所有翻译容器都必须符合一个协议,例如: { "input_text": "string", "source_lang": "string", "target_lang": "string", "metadata": { "domain": "general|legal|news" }, "output_text": "string" } 👉 协议保证了:无论内部算法怎么实现,外部都能用统一方式调用。 3. 治理层(验证与筛选) 验证:新容器加入时,先跑测试集(BLEU 分数、延迟、错误率)。 淘汰:错误率过高或不符合协议的容器会被下架。 分层:通过反馈和测试,容器会被标记为 bronze / silver / gold 级别。 👉 这样避免了“垃圾翻译”污染结构池。 4. 演化层(反馈与升级) 反馈采集:用户可以打分、标注错误,系统也监控延迟与准确率。 自我优化:容器 B 在用户反馈中逐渐学会更好地处理成语。 协议升级:当生态发展后,协议增加字段 "formality_level": "casual|formal",支持更精细的语境。 👉 池子随使用情况不断升级,而不是一次性定型。 5. 文明层(共享与沉淀) 不同开发者、公司、甚至用户都可以贡献翻译容器。 有人专门贡献“小语种”容器,有人贡献“学术论文优化容器”。 最终形成一个动态开放的 翻译生态,而不是单一的翻译软件。 👉 池子沉淀的不是某个翻译产品,而是 多样的翻译结构,可被任何系统调用。 一个 语言翻译的结构池子 就像一个多物种的“翻译生态”: 容器是各种翻译模型(不同风格、语言对、场景)。 协议是统一的接口规则。 治理保证质量和秩序。 反馈驱动容器优化和协议升级。 最终沉淀为一个共享的文明记忆体,供全球人机协作使用。 开发的关键,就是你如何去设计这个池子。

转译:有人发现了一个让 AI 智能体(AI Agent)工作更出色的绝妙方法,简单到令人惊讶:只要给它们设定一个人格。 我最近读了一篇关于“心理学增强型 AI 智能体”(Psychologically Enhanced AI Agents)的论文,它揭示了一个引人入注的观点:我们无需进行任何复杂或昂贵的重新训练,就能引导 AI 的行为。 事情的背景是这样的:通常,如果你想让一个 AI 精通某项特定任务(比如,让它擅长创意写作,而不是战略分析),你必须进行成本高昂且耗时的“微调”(fine-tuning)。 问题在于,一个通用的、“一刀切”的 AI 往往不是最佳选择。一个为检索事实而优化的模型,可能很难写出一个富有同理心、感人至深的故事。 这篇论文的关键发现,是一个名为 MBTI-in-Thoughts 的框架。研究人员发现,只要在提示词(prompt)里,简单地要求大语言模型(LLM)扮演一个特定的迈尔斯-布里格斯类型指标(MBTI)人格,它的行为就会发生可预测、且非常有用的改变。 举个例子,在一个策略博弈游戏中: * 被设定为“思考”(T)型人格的智能体,选择背叛的概率接近 90%。 * 而被设定为“情感”(F)型人格的智能体则更倾向于合作,背叛的概率仅为 50% 左右。 这一切仅仅通过一句提示词就实现了,根本不需要任何微调。 这事儿最让人着迷的地方,就在于它出人意料的简单。这种能力其实一直都潜藏在模型内部,而提示词就像一把钥匙,把它解锁了。 为了确保这不是巧合,研究人员还让被“注入”了人格的 AI 去做了官方的 16 型人格测试(16 Personalities test)。结果,AI 的答案与它被指定的人格完全一致。在执行任务时,它真的“变成”了那种人格。 这彻底改变了我对提示词工程(prompt engineering)的看法。它不再仅仅是关于你*问 AI 什么*,更是关于你*让 AI 成为谁*。 实际应用前景可以说是立竿见影: * 需要一个能共情的 AI 客服?把它设定成 ISFJ(“守卫者”)。 * 需要一个能做冷酷市场分析的 AI?试试 ENTJ(“指挥官”)。 你可以根据手头的任务,来匹配智能体的“天赋”。 从更宏观的视角来看,这意味着未来我们可能不再依赖于单一的、庞大的 AI 模型。取而代之的,我们或许可以构建由多个 AI 智能体组成的多元化团队,每个智能体都拥有为其特定角色量身打造的“人格”。 想象一下,一个充满创意的“ENFP”型智能体和一个注重逻辑的“ISTJ”型智能体一起头脑风暴,共同规划一个复杂项目。这就引出了一个全新的问题:要解决某个特定问题,最佳的人格组合是什么? 归根结底,这项研究为我们指明了一个通往更通用、更强大、也更可控的 AI 的未来。我们正在学习的,不仅是塑造 AI 的输出结果,更是它在处理任务时整个的认知与情感风格。一句简单的提示词,就能解锁一个行为的全新维度。

原推转译:有人问我,对于那些固步自封、抗拒变化的“传统软件工程师”,我有什么建议。 我的建议是: 所谓真正的技术专家,就意味着你得不断打磨你的“兵器库”,让自己的技术栈永远跟上时代。如果你拒绝这么做,那恐怕就不能再称自己为“专家”了。 这时候,你其实已经主动选择了另一条路:要么是退居二线,把技术当成一个业余爱好;要么是精神上已经从这个行业“退休”了,或者马上就打算正式退休。 这两种选择都无可厚非,完全是你个人的自由。但如果有一天,那些真正寻求顶尖人才的机会从你身边溜走,也请不要感到意外。

举个例子,某穆斯林大国,在我们这儿人口数量非常多,多到他们聚集多的城市,参选市议员全是他们的人。该国大使可以威胁本地议员:敢说我们国家不好,让你下一次选不上。因为他们可比华人团结多了,那才是祖国召唤,指哪儿打哪儿。一些此族裔移民在这里住着保障房打着黑工赚着不报税收入,然后用这些钱在祖国首都买房做airbnb,小日子爽得很。这样的移民他们心里有认同的只有他们的祖国,并不会对所在国家有认同以及尊重所住国的社会契约,我认为这就是欧洲衰败的一大重要原因。

要深耕,还是得选一个深度足够的领域 做内容是其中之一 今天跟年总@XiaoNianTalk 在佛山见识到了我目前接触过的,对流量理解的天花板选手 2 个月以内,新号,纯靠内容,干到 200w 粉丝 没什么奇技淫巧,没什么核心总结,就是对算法足够理解、对内容足够理解、干了十几年 不是什么事儿都往流量扶持上面扯,什么投流不投流 一个月 100w 粉丝,是可以只靠内容实现的 但是你要把这事儿弄明白,5 年内弄明白的,算天才 亲手做完 300 条内容,迭代 300 次,算是能上得了讨论这个事情的牌桌 这条动态我只写文字,不发视频,因为发了会被喷,会有人说,你这纯装逼,又不写干货 但不是我不想写,是我觉得这个水平,只能聊虚的 只有道,没有术


最近,谷歌好像搞出了比OpenAI更强的Deep Research 原理逻辑如下 人写论文有一套“扩散-收敛”流程: 1. 先下笔成稿,哪怕很粗糙; 2. 不断查资料、补细节、修逻辑、加论据,每一轮都让文章更完善。 这个过程和扩散模型的“去噪”极为相似: 初稿是噪声,搜索验证、修订是去噪的过程。 如果让AI也能模拟“草稿-检索-修订-再检索”的闭环,会不会写得更好? 谷歌团队发现还真的是这样。 把报告写作拆成三步: 1. 生成研究计划,列出关键领域。 2. 围绕每个领域,AI自动生成问题,分批搜索、总结,每次搜索都参考前一次上下文。 3. 把所有问题和答案串起来,生成初稿。 每一步,AI都用自进化算法,生成多个答案,LLM自动评分、融合。 直到所有信息都被充分挖掘、所有论据都被验证。 最终产出一份高质量、结构清晰的长文深度报告。 谷歌评测结果: 在长篇报告生成和多跳推理任务上,TTD-DR 均超越OpenAI DR。 长篇报告胜率达74.5%,已在Google Cloud Agentspace上线,支持企业级应用开发。

https://t.co/VWlSDneOGm “我们正在经历一场从稀缺到丰盈的转变。” —— OpenAI 董事长 Bret Taylor 就像电力取代了人类的体力,AI 正在逐步取代人类的脑力。这场悄无声息的变革,正在各个角落蔓延。 当智慧像空气一样随处可得的时候,人们竞争的瓶颈不再是获取知识的能力,而是能否创造出新颖独特的想法。 过去,因为智慧稀缺,人们把它视为宝贵而专属的财富。而如今,AI 正把智慧变成了随用随弃的消耗品。 几个世纪以来,我们一直努力从人的头脑中“提取”智慧。而现在,我们只需轻轻一点,就能随时生成想要的智能。

AI本该助力新人,为何反而让高手更强? 作者:Can Elma “AI会不会彻底取代程序员?”类似的问题已经被问烂了,人们不断地尝试给出答案。虽然这个话题已经不新鲜,但我还是想分享一些自己的观察和思考。 起初,许多人都相信,未来公司会减少对高级工程师的依赖。毕竟,有了AI,初级程序员也能创造出高质量的代码——至少坊间流传的故事是这样的。然而现实却截然不同。AI并未如宣传中那样神奇,最终真正有效的组合,不是“新人 + AI”,而是“高手 + AI”。 为什么会这样? 我们来仔细看看,在代码编写上,AI到底哪里强、哪里弱。 AI擅长的事: • 快速生成大量样板代码(boilerplate)和脚手架(scaffolding)。 • 自动化重复、枯燥的任务。 • 尝试多种不同的实现方式。 • 借助快速迭代,迅速验证想法。 • 在需求清晰的前提下,快速交付功能。 这些特性帮助了谁?显然更利于高级工程师。对新人来说,想把AI的这些能力真正变成实际价值,要难得多。 AI出问题的地方: • 代码审查(Code review): AI无法真正“理解”代码。审查时可能有些帮助,但一旦涉及边缘情况(edge cases)——而AI生成的代码通常有更多边缘情况——最终还是需要资深工程师出马。 • 不好的指令(Bad prompts): 能写出高质量提示词的人,必须是那些真正懂得自己要做什么的人。如果使用者缺乏深入理解,即使AI看起来产出还行,实际也只是给项目埋下了无数隐患。 • 架构设计(Architecture): 没有扎实的架构,软件很快就会失去价值。当前AI并不擅长设计优秀架构,虽然表面上看起来似乎可以,但实际上,这种复杂推理仍然依赖人类。许多以弱架构起步的项目,最终深陷技术债(technical debt)泥潭。 • 代码质量(Code quality): 选择恰当的抽象层次、正确运用设计模式、保持代码的干净清晰,这些都是AI目前的短板。 • 安全性(Security): 新手搭配AI的组合更容易出现漏洞,就像盖一座房子忘了装门锁。虽说漏洞无处不在,但高级工程师至少能提高警觉和谨慎。 • 错误学习(Wrong learning): 新人如果不能正确判断AI产出的代码好坏,就会潜移默化地吸收错误知识。在公司里,这意味着制造的是损害而非价值。 以上这些问题,概括起来就是:AI暂时对高级工程师并没有威胁,甚至反而让他们更加强大。这里不是在批评新人,而是强调不应对他们抱有不切实际的期望,把他们扔到充满风险的环境中。 我们真正该如何用AI? • 快速原型开发(Fast prototyping): 想快速尝试新想法时,AI再适合不过。 • 加速重复任务(Speeding up routines): AI最重要的用途,就是自动化那些你已经非常熟悉并经常重复的工作。 • 跨领域协作(Multi-disciplinary work): AI可以弥补你知识上的短板,建议有用的函数库或方法,帮你快速连接不同领域的知识点。 • 功能测试(Function tests): 简单重复、风险较低的测试代码,AI可以帮你快速生成,并且容易进行人工复核。 从我的角度来看,这就是AI目前的现状。AI写的每一行代码,我们依然需要逐行审阅。它远远称不上完美:没有自我意识,只会模仿人类的推理,生成结果不可控(non-deterministic),所以我们才依靠确定性的东西,比如单元测试。可是,你真的放心让AI自己编写测试,来验证它自己的代码吗? 我想起我曾发过的一条推特,有个提示词可以让AI在“不懂时回答‘我不知道’”,我评论道:“即使AI回答‘我不知道’,你也不能确定它到底知不知道自己不知道。” 确实,“新人 + AI”的模式很诱人,看起来成本低廉,还迎合了人们“AI将抢走我们工作”的恐惧。但当你把软件开发和其他行业作比较,就会发现软件行业仍然不够成熟。在建筑行业,建筑师专注于设计;但在软件领域,即使是“架构师”,也仍在不断地亲手“砌砖”,编写底层代码。我们还远没有实现真正的分工和专长化,成本优先的思维主导市场,这只会贬低工作价值,让人疲惫不堪。 因此,AI目前非但没有让编程变得更加民主化,反而更集中地将能力交给了那些资深工程师。现实与预期产生了错位。未来会如何发展,谁也说不准。我对AI的长期发展依然乐观,但短期内,我们最好重新校准自己的期待,别再让不切实际的想法越走越偏了。

Codex 默认的提示词效果好很多, Codex 和 CC 同时接入 kimi-k2-0905-turbo-preview 给我项目挑点毛病. 同一句「看看有没有值得优化的地方」, 左边是 codex 的结果, 右边是 cc 的结果. codex 的结果大多是明确而清晰的, cc 的结果大多是先夸一句,然后含糊其词 https://t.co/O8WAtlEush