🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。

我觉得我每天浪费了太多时间,去思考我接下来要说什么话(文本预测) 而 AI 大模型又很适合干这个事儿,如果 AI 可以持续监听我的语音,给我实时推断我接下来要说什么,我就可以节省很多时间和脑力 我准备让 AI 给我做个应用,很简单,用废弃的 iPad 做屏幕,显示实时语音转录的文本,转录就用 eleven labs 的服务 然后专门买个主机本地部署 gpt oss,性能要好,实时预测我说的话的下半句是什么 这样我只要看一眼墙上的 iPad,就知道我接下来要说什么,这岂不是录视频和直播的神器 跑通了就让华强北给我定制一个超薄一体机,适合挂在墙壁上 我要申请专利了,名字就叫 dontbesilent oss

《因为赚钱,所以认知才高;而不是认知高了才赚钱》 我现在不太认同,人是先有高认知,然后再赚大钱这个路径了 也不是说这个说法有错,但我看见的这些案例,总是告诉我,这个人是先碰见了一个能赚大钱的事儿,然后才开始认知猛涨 比如你选一个天花板很低的品类去干淘宝,你每天遇到的事儿就同行互坑、顾客售后,这个时候谈认知增长毫无意义 但是在一个增长的行业里,在一个赚钱的生意里,适实的正反馈会让适度勤奋、有点小聪明的人,快速进步

今天说这个小红书不应该开店的事儿 在小红书 12k 播放,抖音 12w 播放,现在还在涨 然后就发生了一个事儿,我觉得可以很好地解释很多人无法赚钱的原因 1、我说别在自己账号开店,重新开个店,对方说身份证实名不够用了 2、我说那你就花点钱解决,600 块钱用个体户认证,就不占用身份证了,对方说还没开始赚钱,就花 600 太亏 于是这个事儿就死锁在这了,不能上也不能下,无限内耗 也许他花了这个 600,就有一个能赚钱的生意,未必能持久,但至少有机会 有机会,就有可能能辞职,也许人生就往另外一个路线走 但这些可能性通通不存在了,他的先天基因和后天经历,决定了他这一生在遇到任何一个极小的门槛的时候,都会卡住 就这样吧,完犊子

技术人的迷茫,社会的矛盾,临界感的逼近:其实都是同一个问题。 我们需要理解:共识—协议—结构—叙事 的循环 技术人迷茫,尤其是中国的技术人。肉眼可见,推特上越来越多的中青年工程师在寻找“出海”和“独立开发”的机会(这里头有多少卖课的?)。经历过 2010 年代那套“跟随战略”之后,再看看自己手机上那一万个 App,你还能生出再做一个 App 的冲动吗?经历过 LLM 横空出世的狂喜,再看到任何套壳功能都迅速被指数级进化的模型吞没,你是不是更想躺平?——毁灭吧,赶紧的。 我也经历过这样一个阶段,但后来我发现,这其实是个死胡同。因为从根本上说,我们从未真正体验过、进入过现代意义的工业迭代。我们习惯的是“好学生”模式:接外包、抄作业、后发优势、跟随战略,把硅谷的成功搬过来。可整个技术圈没有经历过真正意义上的“原生循环”,所以才在眼前的巨变里显得格外无力。 这一切是什么?它不是单一事件,而是万千头绪的叠加: 科技飞跃发展; 社会躁动不安,就业市场低迷,“毕业即失业”,高校知识体系彻底脱节; 经济衰退、通缩,社会信心几年内跌入低谷; 国际关系骤然僵化,中美关系从十年多次往返签证到如今的彼此封闭; 信息流汹涌而至,大脑完全跟不上节奏。 在这样的背景下,问题回到原点:开发个什么?开发出来给谁?用来干嘛?你如何知道它有用?还是只是在盲目堆积代码? 共识—协议—结构—叙事 的循环 我们往往没有认真思考过:在工业社会里,技术突变如何推动社会变革,这背后有一个极其关键的循环。这个循环不是单一的直线,而是社会在各个层面上不断上演的动态过程:有成功,也有失败;有偶然的发现,也有刻意的设计。在一个技术既遵循达尔文主义的自然选择,又承载人为设计和制度化推动的社会里,这个循环才是技术变革真正的动力。 很多人以为,新技术的崛起是从下往上,从第一行代码写起,逐步推到最高权力层面。但事实并非如此。技术的应用与扩张,从来都是“自上而下”与“自下而上”的互动:它有反馈、有闭环、有分叉(fork),并且这一切是可以通过文字去探讨和推演的。如果你完全没有想过这个循环,大概率只能在失败者的阵营里。 遗憾的是,我看到许多中国技术人,尤其是独立开发者,技术感很强,但社会感、推演力和与社会共识的连接力却非常薄弱。于是他们更容易陷入“功能”与“代码”的死循环,却缺乏把技术嵌入社会循环的能力。事实上,这个循环并不是有固定起点和终点的,而更像是一条首尾相接的蛇:你生我,我生你,彼此生成,彼此强化。 那它到底是怎样的呢?我认为,这个循环的基本原型就是:共识—协议—结构—叙事。 共识—协议—结构—叙事 这一循环,是技术与社会互动演化的核心路径。 首先是一种 共识(Consensus)。社会必须在价值和判断上达成某种普遍认同,这才是一切循环的起点。没有共识,协议就是空洞的,结构是僵化的,叙事则变得虚假。比如,“货币必须有信用”,“AI 必须可解释”,“能源必须清洁”——这些共识都是推动制度与技术演化的起点。 当共识逐渐稳定,就会被转化为 协议(Protocol)。协议把抽象的价值翻译成可执行的条文、标准或接口,它是文明的源代码。金本位制、法币制度、GDPR、AI 法案、巴黎协定,这些都是共识的协议化结果。 随着协议被执行,它会在社会层面逐步沉淀为 结构(Structure)。结构是一种“硬件化”的结果,协议通过它转化为具体的组织、岗位、制度和产业网络。央行体系、银行网络、AI 伦理审计部门、第三方评估机构、碳交易市场、绿色能源产业链,都是从协议中演化出的社会结构。 然而,如果没有 叙事(Narrative),结构和协议是难以为社会大众理解和接受的。叙事把冷冰冰的制度转化为可传播的符号和故事,是文明的扩音器。比如,“美元=国家信用”“In God We Trust”,“透明=竞争力”“AI 是人类的最后发明”,“拯救地球”“绿色未来”,这些叙事为协议和结构提供了合法性和情感支撑。 整个循环以 闭环逻辑 的方式运转:共识被写入协议,协议沉淀成结构,结构通过叙事放大,再次反馈回新的共识。如此周而复始,推动技术与社会的互动演化。理解并主动参与这一循环,才是真正意义上的“做技术”。 当然,不是说所有的技术都能完美符合这个循环,但我们可以举一个人人都听得懂的例子:比特币。 比特币最初的起点,是一个共识:货币不应该完全依赖政府信用,价值必须有去中心化的保障。这个共识源自 2008 年金融危机之后的信任崩塌——“货币必须透明、可验证、不可随意增发”。 在这个共识的基础上,比特币的白皮书就是那份协议。它不是模糊的宣言,而是一套清晰的规则:区块链、工作量证明、有限发行、点对点的验证机制。这些协议把去中心化的理想翻译成了可执行的程序代码。 随着协议的运行,逐渐形成了新的结构。矿池、交易所、钱包服务商、监管沙盒、开发社区,这些都是围绕比特币协议自然生长出来的社会和产业组织。就像央行体系是法币制度的结构化产物一样,比特币也有了自己的生态结构。 但如果没有叙事,比特币不会传播开来。比特币背后的叙事是“数字黄金”,是“对抗通胀的避险资产”,是“货币的未来”。这些叙事让比特币从极客圈走向公众视野,让它成为一种社会现象,而不仅仅是几千行代码。 于是我们就能清晰看到:比特币从共识到协议,再到结构,最后被叙事放大,然后又反过来推动新的共识(例如“区块链不止是货币,还可以用于智能合约”)。这就是循环的力量。 我们现在正处在一种 “结构化推演信息”真空 的状态。 真的,完全真空。科幻故事满天飞,但真正基于链式因果的大规模合理推演和尝试的共识信息,却几乎难以找到。尤其是当下,我们所熟悉、从小习以为常的范式——比如全球化——已经走到尽头。整个世界进入了一种“范式不稳定”时期:过去的经验逐渐松动,看上去根本撑不到未来。 2015 年我去德国旅行时,眼中的德国是一个已经走上工业化巅峰的“社会主义”国家;而现在呢?德国车在美国的存在感越来越低。美国也是如此,我刚到美国时的感受和现在完全不同。国内更不用说,大家刚经历了一个黄金时代,转眼房价突然腰斩,魔幻得让人怀疑现实。 这一切意味着什么?意味着整个世界的上层结构都已经发生了深刻变化。如果上层已经变了,你怎么还能用旧有的技术思维去想象今天的开发工作?循环已经断裂,信息的偏差正在急剧放大。更何况,当 LLM 这种级别的技术成熟时,它投下的可不是一块小石子啊,而是一颗彻底改变水流方向的深水炸弹。 应用型的技术的思考,一定是先从上层出发的 上层逻辑的变化在于:技术必须先从社会层出发,才不会陷入“自嗨内卷”。 因为只有当方向和价值被锚定之后,技术才有存在的意义。 首先,上层决定合法性。技术的生死,往往并不取决于性能是否优越,而是取决于社会是否愿意认同它。谷歌眼镜的技术曾经十分先进,但因为社会共识没有准备好,它最终失败了;而比特币在技术上并不复杂,却因为共识和叙事先行,至今仍顽强存活。换句话说,合法性才是技术能否走出实验室的真正门票。 其次,上层可以约束迭代方向。如果技术仅仅从下层出发,往往会在“能做什么”的自我探索中迷失,结果是越做越偏离社会需要。而一旦从上层先行推演,就能预设价值边界:哪些功能是必须的,哪些功能即便能实现也不能做。这样一来,下层的技术开发才不会陷入盲目内卷,而是有清晰的采纳接口,知道自己要服务的目标是谁。 最后,上层的叙事能反哺技术生态。只有当叙事被建构起来,开发者、投资人和政策制定者才能形成合力。没有叙事的技术,社会往往冷漠以待;但一旦叙事先行,即使技术还不完善,也能迅速获得试点和落地机会。 因此,从上层出发,不仅是为了合法性,更是为了方向、价值和合力。没有上层逻辑的支撑,技术只能在自我封闭的循环中打转,最终被社会抛弃。 (4/n)


你和我之间沟通如此困难 说实话,直到大规模语言模型出现,我才突然意识到“巴别塔”的含义远不止语言之间的隔阂。 真正难以逾越的,是人脑与人脑之间本就存在的深刻断层:即便讲的是同一门语言、来自相似背景,我们在传达复杂概念时仍然困难重重。 把自己的想法准确地说清楚、把它通过大众传播的渠道广播出去,并让别人真正理解——这件事,比想象中要难得多,也更值得我重新设计表达与传播的方式。 所以才开始了我每天推特写作文之路。 我已经试过了:文学化、类比化、幽默化、科幻化、混合化……在科技与文化的缝隙里反复实验。无论是借助文学典故,还是拼贴文化梗子,我都千方百计去塑造一种表达方式,想把抽象的思绪投射成可感的语言。可越是努力,越发现这件事几乎近乎不可能——真正要让思想跨越人心之间的深壑,形成正向回路的沟通,本身就是一场极低概率的奇迹。 当然,如今大语言模型已让我们跨上了一个全新的台阶。那些曾经几乎无法达成的抽象沟通,正在逐渐通过 LLM 获得前所未有的对齐。这无疑是属于我们这个时代的奇迹。

大多数青少年不敢尝试 是因为怕做不好而出丑 因为不敢尝试,可能永远也做不好 勇敢地迈出第一步,先做砸,再做对, 最后做到卓越 https://t.co/8IbOGYfgH6

开创于普鲁士的国民教育, 目的在于培养听话守纪的劳动力, 而不是培养独立的创造者。 教育强调知识和技能,故意忽视社会结构和权力运作。 真正理解金钱,就会触及权力、制度、资源分配的真相。统治阶级更希望主流群体保持“稳定”的心智状态, 从而易于管理,而不是人人去追问权力与财富的本质。 中外学校都不教人赚钱,因为理解钱就会让人开智, 就会理解世界运作的规律,理解社会运行机制, 理解任何事件背后的真相和目的。 理解金钱的最佳视角是公共财政, 公共财政是权力运用的底色

上个月的时候跟量子位深聊了一期关于AI产品的未来,聊完感觉过去互联网那套“先免费圈用户、再追求时长和日活”的黄金法则,在AI时代可能彻底失灵了。 聊着聊着就聊出了这篇万字长文 https://t.co/SaEJ9RGbT2 文中一些反共识的观点: AI播客的核心并非替代人类主播,而是成为保证事实性与完整性的信息整理Agent(“嘴替”)。 评价AI生成内容时,事实性和完整性比“听起来像人”的“活人感”更重要。 AI产品不应追求完全的“自动化”,为满足专业用户的精准需求,强大的手动编辑功能依然至关重要。 AI产品的开发优先级应由一个核心指标决定:该功能是否能直接促进用户付费。 AI应用公司的护城河不在于模型技术,而在于通过工程化和场景know-how,将60分的通用模型在垂直领域打磨成90分的产品。 在AI时代,“用户时长”是虚荣指标,产品的核心指标应该是“任务完成效率”和“付费转化”。 AI产品从第一天就应该考虑收费,因为付费用户能提供最真实的反馈,且留存率和活跃度更高。 AI时代的组织中,传统的“产品经理”岗位可能不再是必需品,团队趋向于“人人都是产品经理”的超级个体协作模式。 互联网经典的“网络效应”在AI时代不再是牢固的护城河,因为产品的核心交互是“人与AI”,而非“人与人”。

像南科大这种单位,真的比传统内地普通985强。 这个摔倒立刻起来的含金量,真的太绝了 https://t.co/HXLz267XBh

高智家庭尽力为孩子塑造前沿心智 普通家庭过早让孩子承受俗务琐事 https://t.co/6ILVSH0j6L

居然能通过提示词套出 (即梦)Seedream 4.0 系统提示! 我自己也试了一下确实可以,而且跟他的差不多。 我结合我自己套出来的和 Fofr 原来的让 AI 还原了完整的系统提示。 整个系统提示词包含角色、输入、输出、任务、文本意图、关键规则、写作规则、图片比例几部分 完整提示词在下面👇 https://t.co/tKO8aOIGzW

跨时空内容农场搬运套利: 时间差异 - 时间搬运:从前火了的,继续发 - 切片搬运:从前火的,截取重排,继续发 地域差异 - 跨平台搬运:不同平台间的搬运 - 跨语言搬运:原内容切换语言搬运 - 跨账号搬运:同内容多账号搬运 搬运要对抗的是平台反垃圾 各种搬运手法对抗的是检测算法,比如汉明距离 搬运模式的套利本质是信息差 它的经济模型是维权风险+搬运成本 与 所获收益的差值 所以做法无非是: - 降低维权风险 (比如二创,比如跨语言) - 降低搬运成本(比如卖课做创业粉,兼职,或者自动化) - 增加爆款率(比如嗅探优质内容以增加概率从而获得收益) - 增加客单价(比如搬运的卖的比原版的还贵) - 降低客单价走量转后续(比如搬运他人优质内容转成流量品进而获客转化后续高价值产品服务) 所有的搬运,最终都是这些事儿

Shopify 分享了他们构建 Agent 的经验,整体架构也是目前主流的 Agentic Loop,就是不停的循环,让大模型判断需要调用什么工具,Agent 去调用工具,根据调用工具的结果看是继续调用工具还是任务完成。 他们针对打造 AI 智能体给了4条核心建议 1. 架构简单化,工具要清晰有边界 2. 模块化设计(如即时指令) 3. LLM 评估必须与人类高度相关 4. 提前应对奖励作弊,持续优化评估体系 我看下来主要是两点值得借鉴的地方: 1. 工具不要太多,尽量控制在 20 个以内;如果数量太多会极其影响 Agent 的能力,很难精确选择工具 那么解决方案是什么呢? 不要看他们分享的 JIT 方案,明显是一个过渡性的产物,需要动态的去生成调用工具的指令,为了保证不影响 LLM 的 Cache,还要动态去修改消息历史,过于复杂。 真正的靠谱方案其实 PPT 里面也写了(看图3),只是它们还没实现,而实际上 Claude Code 这部分已经很成熟了,就是用 SubAgent(子智能体),通过 Sub Agent 分摊上下文,把一类工具放在一个 SubAgent 中,这样不会影响主 Agent 上下文长度,也可以让子 Agent 有一定自制能力,有点类似于一个公司大了就分部门,每个部门就是一个 SubAgent。

Open AI 发布了 GPT‑5‑Codex 版本 很强,怪不得 Anthropic 要反击 专门针对 Codex 优化,更易于引导,更能遵循 AGENTS. md 的指示 代码重构测试成功率从 30% 提高到 50% GPT‑5-Codex 会根据任务复杂性更动态地调整思考时间 简单响应快了 >15 倍,在困难问题上,5-Codex 的“思考”比 5 多了 102%。 https://t.co/VafhDyRlfH


感谢 Nano banana 和 Seedream 4 前两周老马给了快 300 美元了,比之前翻了一倍 https://t.co/hOKygVQ34B

Meta 的新智能眼镜宣传视频泄露了,这次的在镜片上有 HUD 显示,同时还有 semg 腕带可以精准操作眼镜,甚至虚空打字 https://t.co/3a59drPITc

西贝这事我不想具体评论,但它让我想到了餐饮业所代表的“泥土经济”模式。 现在的经济状态其实呈现出一种分裂感: • 在 云端经济(也就是数字经济)里,创业者和数字创作者觉得这是黄金时代。各种AI工具、现成的基础设施、便捷的支付系统、快速的原型验证手段,让一个人就能启动过去需要团队才能完成的项目。播客、线上课程、应用软件、虚拟产品——这类生意的门槛在快速下降,甚至常常让人觉得机会满地都是。 • 在 泥土经济(也就是实体经济)里,情况几乎是相反的。制造业、餐饮、消费品行业,都在经历剧烈的阵痛。就业机会收缩,裁员频繁,很多人一旦失业,很难再找到类似的岗位。开一家餐厅、做一款实体产品,几乎就是“地域模式”:高成本、高风险、回报慢,还受制于疫情后的消费低迷和供应链不稳定。当然还有可能碰到“兵法家”军师和无脑老板的公关昏招导致失业的情况。 这种对比也许能解释为什么“经济好不好”会让不同的人产生完全相反的感受。数字经济的人说这是最好的时代,实体经济的人却觉得几乎是毁灭性的。 对当下的创业者来说,如果不是自带巨大流量,贸然进入餐饮或消费品市场几乎是九死一生。而从软件入手,用云端的方式先跑通模型、验证市场,再考虑是否往实体延伸,可能才是更合理的路径。 这就像是在两个平行世界里生活:一个在云端搭建起了极低成本的“虚拟工厂”,另一个还在泥土里摸索,背着沉重的现实负担。 接下来值得思考的,是这两种经济形态是否会进一步拉大差距,甚至演变成一种新的社会断层。

意义之海: 向量化技术的成熟给人类带来的最大连续的信息库 你听我说,很多所谓的“常识”,之所以看上去像常识,仅仅是因为它存在的时间够久,久到超过了我们的年龄,甚至超过了我们爸妈的年龄。我这两年的最大收获,就是不断打破自己认知里所谓的常识。不破不立。也因此,有时候我说话显得神神叨叨的,那是因为这些想法反常识。但常识一定是对的吗?还是仅仅因为这个常识比我妈还老?科学的精神是什么?如果我们只相信一切比自己老的东西,那还上什么大学? 知识孤岛:我们生活在一个严重信息碎片化的世界却习以为常 行业之间是隔阂的,所谓“隔行如隔山”,金融、医疗、教育、制造的数据标准不同,知识体系彼此独立,人员术语各不相同。跨行业合作往往需要大量人工“翻译”和对接。 一个企业内部也充满隔阂:CRM 系统管客户,ERP 系统管供应链,会计软件管财务,彼此不说同一种语言,甚至不能顺畅导出导入。 更别说个人生活。你一个人就一台电脑,一部手机,但里面装着无数彼此隔阂的容器:Word、PPT、Excel、Email、各种 App……它们像一座座孤岛。手机上一万个 App,几乎没有两个是完全互通的,但用户都是你。 最荒唐的是,哪怕在微软自家,Word 和 PPT 依然是隔阂的。全球几十亿人习惯了这种“反人性”的设计,却居然觉得这是正常的。 向量化是我们这个时代最伟大的信息范式创新。 过去几十年,信息的组织方式一直依赖于离散的符号和人为的分类:数据库表格里的字段、搜索引擎里的关键词、软件里的固定接口。这些方式虽然实用,却把信息割裂成无数孤立的容器。向量化的成熟改变了一切。它第一次让文本、图像、音频、视频、表格、代码这些看似异质的数据,都能被投射到同一个连续的语义空间。相似的意义靠近,不同的意义疏远——人类由此拥有了一个真正的“意义之海”。这不只是一次技术改良,而是一次范式飞跃:我们不再仅仅检索符号,而是可以在空间里导航意义本身。 我认为最大突破在于“连续性” (不绝对,但是暂时这么看吧)。 这和过去所有的信息范式都有本质区别。文字是离散的,一个词一个符号;数字是离散的,一个数一个刻度;数据库是离散的,一行一列的表格;互联网的超链接也是离散的,一个节点一个跳转。但向量化不再依赖这些人为切割的格子,而是把一切信息投射到高维连续空间中。意义不再是零散的格子,而是像一片光滑的海洋,概念之间的关系可以通过“距离”和“方向”自然表达。 这种连续性带来的力量在于:它允许跨域迁移。文本可以和图像在同一空间里对齐(暂时不完美但是现在才到哪儿啊),多语言可以在同一坐标系中寻址,不同学科的知识可以在空间中彼此靠近。这意味着,我们终于有了一个连续的意义底座,所有数据和知识都能在其上流动与组合。 换句话说,连续性让向量空间不仅是一个存储库,更是一个 语义几何场:我们不再只是在格子间跳跃,而是在一片连续的信息海洋中航行。 一片真正的“意义之海”正在形成。这在过去几乎是不可想象的。 我必须插播一段可能听起来很奇怪的内容。之所以奇怪,是因为我们大多数人从未认真想过这件事,它太反直觉了。但我相信,一旦你能跨过这个思维门槛,就会带来一次深刻的思想转变。因为这片意义之海,将决定你未来怎么看待这个世界。 我先说说我自己的感受。我认为我们大部分人,包括我自己,都还没有真正看懂这片海。我们的祖辈一直生活在一个信息隔绝的世界里,分类是绝对的,边界是清晰的,专业是固定的。我们习惯了这种格子化的思维方式,以至于当一个连续的语义海洋摆在眼前时,我们只能说“好像懂了”,却仍然用旧的框架去理解它。 想象一下,如果信息分类不存在会怎样?如果事物之间的边界消失会怎样?如果上大学再没有“专业”的划分会怎样?如果语言之间不需要翻译会怎样?这个没啥好说的,第一个被淘汰的职业估计就是翻译。 说到这里,大家可能会问:为什么我要从图灵时代讲起?我的核心是什么? 我的核心只有三个字:通用性。 图灵在 1936 年提出的“计算通用性”,到今天差不多已经走过了一百年。它让我们第一次明白,所有复杂的计算任务,都能压缩到有限的原语和一条通用纸带上。 而我现在认为,我们正面临另一种新的“通用性”。它不仅仅是语言的通用性(语言本身确实已经被证明可以通用),而是一种更高层次的抽象。我暂时把它叫作 文明通用性 或 社会通用性。这是我未来必须继续探讨的东西,因为它太新、太模糊,以至于我们在今天这种孤岛化的知识框架里,几乎无法想象它。 我的设想是:在“社会图灵机”里,所有社会议题都可以被归约到同一套循环原语:共识—协议—结构—叙事。这将是一条全新的最小原语和一条新的通用纸带。 而这条纸带,像是由 自然语言 + API + 向量空间 共同构成。所有不同的系统、行业、学科,都能被写在同一条纸带上,被同一种循环机制解释和执行。 这仍然是一个非常模糊的设想。但我直觉,它就是我们面临的下一个“图灵时刻”:一次文明级的通用性飞跃。 慢慢靠近,慢慢推演 这片意义之海,真正的价值在于它为我们提供了一种分层的靠近方式。我们不必奢望一开始就完全理解和掌握这种新的“通用性”,而是可以从上到下、层层递进地去接近它。 在上层,意义之海推动我们重新思考社会运行的逻辑。行业之间、学科之间、语言之间的隔阂正在被连续空间消解,所有议题都有可能被统一归约到 共识—协议—结构—叙事 的循环之中。这里的任务,是先在宏观层面建立认知共识,承认这是一个全新的通用框架。 在中层,意义之海需要转化为架构和制度。自然语言、API、向量空间,可以成为新的“社会纸带”,把各行各业的知识和流程接到同一条带子上。这里的工作,是把抽象的共识翻译为可操作的协议、接口和规则。 在下层,通用性才最终沉淀为技术实现。读写 API、向量检索、模型调用、数据流对齐……这些具体的机制就是“最小原语”的具象化。就像当年图灵机的四个原语——读、写、移动、状态转移——为现代计算机奠定了底层,意义之海最终也会压缩出自己的一套底层原语。 换句话说,这片意义之海不是一个抽象的隐喻,而是一条真正的路径:从社会上层的共识,到中层的协议和架构,最后一步步沉淀到技术下层的可执行原语。这就是通用性的形成过程。 而且根据我现在已经尝试的推演来说,在上层慢慢循环和收归之后,技术层都是有大量重合的。 文明需求是无限的,但可复用的技术手段是有限的。技术是“可组合积木”,不同共识最后都会落到类似的机制。推演越多,你都会发现不同议题的下层技术方案正在趋同。 出现“文明原语” 社会图灵机的最小执行单元。 有限的:Callable可调用. Transferable可迁移. Verifiable可验证. Schedulable可组合的技术结构。 (3/n)

从通用图灵机开始讲起 图灵机一开始就是一个“模仿机器 (Imitation Machine)”,这是图灵自己给它起的名字。它告诉我们:计算的本质就是模仿,用有限的原语去模拟无限的可能。 那么问题来了:计算机是否真的“懂”计算? 这个问题听上去很傻,但其实今天全世界几十万人都在问一个同质的问题,“AI 真的懂翻译吗?AI 真的懂推理吗?AI 真的懂写作文吗?”要回答这个问题,我们得回到 1930 年代,去问一声伟大的图灵。 真正的”计算机“ 我儿子正在学习加减法,我给他买了一个算盘。算盘有 100 个珠子,简单得不得了。什么叫 3+2?你在第一行拨 3 颗珠子,在第二行拨 2 颗珠子,然后从第一行开始数:1,2,3,4,5;于是 3+2=5,加法完成。这个算盘就是一种计算工具,它直接映射了数与物理结构的关系。 算盘还算简单,我们再说一个更复杂的工具:差分机 (Difference Engine)。这是英国科学家查尔斯·巴贝奇在 19 世纪设计的自动化数学机器。简单来说,它是一台多项式求值机。只要输入多项式的初始值,机器每转动一轮,就会自动输出一个新的数值。比如给它一个函数 F(x)=x²+4,它会依次计算 F(1)=5,F(2)=8,F(3)=13,F(4)=20……一直运转下去。更关键的是,它的底层逻辑其实完全基于加法和减法。 差分机一号需要 25,000 个零件,重达 4 吨,可以处理到第六阶差分,最高存储 16 位数。虽然最终只完成了七分之一,但它的精密程度让当时的人们叹为观止,至今仍被认为是人类进入科技时代的重要起点。 想象一下,如果蒸汽时代沿着这个方向一直发展下去,也许在某个平行宇宙里,一个高度发达的“蒸汽朋克文明”里,所有的数学运算都会由类似差分机的蒸汽计算机来完成。 平行宇宙,蒸汽朋克 想象一下,如果蒸汽时代沿着这个方向一直发展下去,也许在某个平行宇宙里,一个高度发达的“蒸汽朋克文明”里,所有的数学运算都会由类似差分机的蒸汽计算机来完成。那里的工程师会不停改进齿轮与杠杆,制造更大、更快的机械巨兽,负责加法、乘法、多项式求值,甚至天文航算。他们的世界或许会像一座座轰鸣的工厂,每一道蒸汽阀门和齿轮组都承载着人类对“计算”的映射。 但是,这个文明的局限也很明显:每一种运算,都需要一台对应的机器。加法机只能加,乘法机只能乘,差分机只能做多项式展开。社会必须靠一座座庞大的专用机堆叠起来,才能维持运算的需求。这就是“映射机”的宿命:硬件本身就是函数,物理结构直接写死了计算逻辑。 为什么?我们这个宇宙做对了什么?因为我们有图灵。 模仿 vs. 映射 在图灵机以前,人类制造的“专用机”在硬件层面遵循的其实是映射 (mapping)逻辑,而不是模仿 (imitation)。最直观的例子就是我儿子的算盘。每一颗珠子都真实地映射了一个数字,他现在做的 100 以内加减法,每一道题、每一个数字,都直接对应算盘中的某颗珠子。算盘、机械加法器、乘法机、开平方根机——这些机器的零件、齿轮、滑珠,都是对某种数学运算的物理映射。比如 19 世纪的巴贝奇差分机,它庞大的齿轮组旋转角度,直接对应了多项式的系数和结果。再比如早期的机械表或自动机,齿轮和摆锤的结构直接对应时间的推进。在这些机器里,结构本身就是算法:你想要加法,就去造一个“加法结构”;你想要平方根,就必须再造一个“开方结构”。 图灵的伟大之处正在于此。他没有延续“一个运算一台机器”的映射思路,而是提出了模仿机 (The Imitation Machine) 的概念。在 1936 年的论文《On Computable Numbers》中,艾伦·图灵最初把通用图灵机命名为“模仿机器”。它的本质是:一台机器只要能解释另一台机器的描述,并逐步复制它的运算过程,就能完成所有可计算的任务。换句话说,模仿机器就是今天我们所说的通用图灵机 (Universal Turing Machine, UTM)。 这一思想带来了一次巨大的压缩突破:无限多样的计算任务,都可以统一到有限的原语——读、写、移动、状态转移。结果是划时代的:现代计算机由此诞生,人类第一次统一了“什么是计算”。我们再也不需要为每一种运算单独制造一台硬件机,而是只需要一台通用机,所有差异都交给“描述串”去表达,这就是软件的起点。 图灵机之所以叫“模仿机器”,是因为它不再把计算写死在齿轮里,而是通过有限原语模仿任意计算过程。 映射只能一机一能,模仿才是一机通用。 所以,计算到底是不是在计算?模仿计算算不算计算。你一直在模仿计算。 那么预测下一个token呢?模仿的逻辑推理,模仿的写作,模仿的翻译,算不算在翻译? 通用性的开始:找到一套最小原语 + 一条可通用的纸带。 我们再次回到 1936 年的图灵时代。那是一个数学已经相当发达的年代,逻辑学、数论、形式系统在图书馆里堆积成山,却依然碎片化、彼此隔绝。真正的突破,来自于一个跨世纪的思想节点:艾伦·图灵发现,所有这些复杂、庞杂的计算过程,其实都能被还原成极其有限的几个动作。 他定义了一台抽象的机器,它所做的事情只有四种: 读:读取纸带上的符号 写:在纸带上写入新的符号 移动:将读写头向左或向右移动一格 状态转移:根据规则切换机器的内部状态 就这四个动作,构成了计算的最小原语集合。 图灵由此证明:再复杂的算法,再庞大的形式化推理,乃至一个图书馆的所有计算规则,都可以被压缩到这四个原语的组合中去。压缩效应因此诞生:一切计算机、算法和任务,归根结底都只是这四种动作的不同排列与组合。 从这一刻开始,人类第一次有了精确的定义:什么是“可计算” (精确一点:所有递归可计算函数都能被图灵机执行)。任何可以被描述为这四个动作有限步骤的过程,就是计算;任何超出这四个动作所能模拟的,就不在计算的边界之内。 这就是通用性的起点。从一台模仿机开始,人类进入了计算纪元(具体实现还需要冯诺伊曼结构)。 所以呢?我扯了那么多我到底想说啥?! 我想说,另一套最小原语+一条可通用的纸带 又出现了!那就是LLM。 最小原语:LLM 把所有语言任务归约到单一机制:预测下一个 token。 通用纸带:自然语言 + 大语料 = 输入一段 prompt,即可模拟任意语言任务。 从此定义了:什么是“可被模型化的语言意义”。 (2/N)

现在我们遇到的核心问题: LLM 时代还为什么要搞开发?开发什么?开发给谁用?用来干什么? LLM 是什么?就算我们已经把技术原理研究得底朝天,这个“异己智能 Alien Intelligence”到底是什么? 35 岁大龄程序员找不到工作了,为什么?谁的问题?技术?社会?你自己?还是整个结构给我们发出的一种信号? 从毕业到工作多年,你真的看懂了“计算”吗?计算的过去,计算的现在,和计算的未来? LLM 这个超级符号智能,的确把我这个自认符号天才😅给打趴下了一段时间。以上的问题我不认为自己有完美答案,但是至少现在我比一年前想的多很多。这不是我的答案,这是一个讨论贴,我认为我好不容易靠出卖二哈的色相吸引到不少粉丝,里面的确有许多可以一起探讨这些问题的推友。 1)从通用图灵机开始讲起 图灵机一开始就是一个“模仿机器 (Imitation Machine)”,这是图灵自己起的名字。它告诉我们:计算的本质是模仿,用有限原语去模拟无限可能。 2)LLM 与向量化 向量化技术的成熟带来什么?知识和数据能被统一映射到连续空间。这是一片意义之海——但这片海里既有意义也有无意义。我们需要锚点、航线和港口,才能真正“航行”出价值。 3)工程师的困境 大龄程序员的焦虑,不是个人问题,而是结构信号。工程师在下层技术内卷,功能代码堆砌却无人采纳,那是因为我们从一开始就没把技术应用的循环看清楚。 (1/n)

codex 0.36.0 1. 模型更新! codex 内部新增 gpt-5 特供版 - gpt-5-codex high, 速度上提升了不少. 这几天 codex 人数激增, gpt-5 high 开始变慢, 而 gpt-5-codex high 速度要快很多. 加上和之前一样很低的返工率, 可以 high 起来. 2. 这一版提示词 经过不少的优化「输出更克制、更可审计、更偏摘要化推理, 切到这个模型上会发现 plan / update plan 干净了不少, c-t 切 transcript 的时候 gpt 的废话也少了很多, 整体体验上好了很多. 3. 执行命令超时处理更合适, 上个版本超时没处理好启动服务容易 hang 住 其他大量细节修复

OpenAI 正式推出了专为编程优化的GPT‑5-Codex。它基于GPT-5进行了进一步强化,更适合真正的软件开发场景。不论是短时间的互动,还是长时间自主解决复杂问题,它都能表现出色。此外,它的代码审查能力也得到大幅提升,能在软件上线前揪出关键漏洞。 目前,GPT-5-Codex已经全面上线:云端任务和代码审查默认使用该模型,你也可以在本地通过Codex CLI和IDE扩展自由切换使用。 GPT-5-Codex是在GPT-5基础上,针对软件开发(agentic software engineering)场景优化训练而成。它经过大量真实项目的训练,能从零开始构建完整工程,添加新功能、编写测试、debug、进行大规模代码重构,以及全面的代码审查。相比之前,它更容易引导和控制,更精准地理解指令,代码质量也更高。你再也不用写冗长的风格说明,只要简单告诉它需求,它就能生成干净、高质量的代码。

小模型不是 Agentic AI 的未来,小模型只配给 Agent 当工具 现阶段 Agent 的主要问题不是成本过高,而是智能不足,所以做不好任务,所以需要浪费很多 Token。 不能拿小模型在特定环境特定任务 RL(强化学习) 后的结果来当证据,这不代表其在真实任务中的能力,这就是为什么一堆模型靠训练测试集刷很高分,但是实际一用很垃圾的原因。 真实世界的任务是很复杂的,用户的请求总是千奇百怪,Agent 的核心能力是能充分理解用户的需求,去规划去调用合适的工具收集上下文完成任务。 这样的核心能力连大模型都做不好,更别说现在的小模型,再怎么微调也无法提升 Agentic 能力。 但不是说小模型没用,它作为 Agent 的工具是挺好的,可以低成本高效的完成一些特定任务。 举个例子来说你要做一个翻译的智能体,你可以用 Claude 4 负责任务的规划拆分,去调用工具,但具体翻译文本,可以用一个开源的小模型帮你翻译。

磕磕绊绊总算部署了一套服务器上的运行的MCP。 基于OpenMemory,让AI记住我的一些偏好和信息。 ① Embedding用的 BAAI/bge-m3 ② LLM用的Deepseek V3 Chat 一方面不被任意大模型绑架了,我的信息我做主。 另一方面,记住这些偏好会让AI对话更聪明点。 有希望变成更好的AI私人助理。 https://t.co/n566MVtUoG

看似中国有 14 亿人,市场贼大 实际上考虑到我们的可支配收入,买得起你的产品的人,1 个亿都未必有 真要算有购买力的净买家数,还不如日本人多

ComfyUI 推出官方的云服务! 不用担心自己电脑不行以及不会安装插件和依赖了,直接注册个账号浏览器就能用