🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

朱啸虎说今年AI时代的小红书就应该成立了 我个人觉得这个观点或许有些激进 事物发展是有周期迹象的 24年的时候我们在infra-->旧场景迁移 25年9月,我认为我们还在这里 什么时候能过度到新场景? 我觉得最必要的事情是: - 精细化的3D模型生成 - 世界模型 - 相同效能的本地化小模型 - 击败transformer的新模式 这几个事情当中有一个能突破,都会带来新场景 但就目前而言,还差得远呢 就连agent想干好当下人类做的事情,成功交付结果,以目前的情况看还差很多 那就明显没走到新生态卷内容的地步

用Seedream 4 或Nano Banana制作表情包的技巧分享: 先生成一个Q版IP形象。 再打开Github的表情包库 EmojiPackage,选喜欢的表情批量截图。 一起丢给模型,提示词如下: 用图2形象,参图一的各种姿势生成 x 个表情包 如果希望中文字正常显示,推荐Seedream 4。 经典表情包Github见评论区

一年内,在 5 个平台做到了粉丝量过万,我的自媒体从 0 到 1 全过程 https://t.co/t7IfVBnpLm

发了一条 5 分钟短视频,在评论区收到观众感谢: “谢谢你,这么长的视频我竟然看完了”

做一个销售,做之前总会觉得没保障。 但是只要开了单,回了款,看着几千块几千块打到账上,你就做什么都有信心了。

从回国去到出海去: Ty这篇文我昨天就想回了。但是又怕你们嫌我啰嗦,老人碎碎念,因为我又要从long long ago说起了。 话说这个long long ago, 2010年代: 硅谷华人精英流行的是回国去。给你们几个关键词看能想起来不? 共享经济,百团大战,烧钱,创新工厂,CBD,天使轮, A轮,B轮,C轮.... 那个时候有个华人小青年,Jian Yang。 发明一个Not hotdog app, 然后被他俩白人前朋友堵在停车场了。 你不就是把我们在硅谷发明的东西搬到中国去吗?没有什么原创,照搬。 是的,照搬回大陆,就能获得巨大的成功。 IT业的光辉,在坐各位都是那个时候毕业就进厂拿高薪。星巴克咖啡50人民币一杯的都不眨眼。 留在美国熬H1-B的都是无能之辈,有能之辈都回国创业了。 风投的钱,不是用来花的,而是用来烧的。 现在变成出海去了。为什么? 因为年轻人最敏锐了嘛。

ima 知识库,居然有这么多人加入了 目前排行第 2 排第一的是腾讯 我只能说,我的运气还是太好了 https://t.co/HmzxpDn5x5

发现自己一个规律: 特别忙的时候,通勤路上会听音乐。而且开车特别专注,每个路口,都会恰到好处通过。 不太忙的时候,通勤路上会听播客。开车路上会走神,经常在路口,会突然忘了已绿灯。 听播客时,是看似有收获。 听音乐时,是真的有收获。

大清不是因为无知而错过工业革命,而是因为太清楚这场革命会摧毁自己的统治结构。今天的中国面对科技跃迁时,也会面临类似的“结构排异”考验 —— 历史会押注在谁能解决兼容性问题上。 目前我认为硅谷大佬中,把这件事情看的最清楚的还是Alex Karp, 他认为硅谷方向错了,LLM是原材料——关键是我们这些加工端,我们怎么去让社会接入。 技术不可孤立,科技要连入社会结构才能发挥作用。 竞争在“应用环节” •模型层面,美国、中国、欧洲其实差距在缩小。 •真正的竞争优势在 谁能最快把 LLM 工业化、规模化嵌入到社会系统中。 •这也是为什么 Palantir 一直主打 “AI for decision-making”,直接瞄准政府和工业客户,而不是 ToC 的聊天应用。 矛盾点正是“结构兼容性” •清朝拒绝工业化的逻辑,就是怕工矿业带来 组织规模化,冲击统治结构。 •今天很多机构/国家对 LLM 的矛盾,也是一样: •如果只是“聊天玩具”,没威胁; •如果要嵌入司法、军事、金融,就会触发 结构排异。 •Karp 的敏锐之处在于,他既看到了排异,又试图提供一个 可控的加工层 来解决这种矛盾。 谁能解决“结构兼容问题”,谁就能避免清朝式的排异陷阱。 现在对于不想被淘汰的技术人来说,两条路。一条模型研发端。一条就是这个社会接入端。

🚨 重磅消息:OpenAI 声称找到了 AI 产生幻觉的根本原因。 这可能会是 AI 的又一次大解放。 https://t.co/HjB5qoQbCV

没有哪一项职业会像交易一样,令你的心理素质遭受如此重大的考验。 https://t.co/fhgvgrkEft

All that you need to know about RL for LLMs. Great survey @stingning and @OpenMMLab ! Chat about this paper on @huggingface @HuggingPapers https://t.co/BPVKa3AY9D

如何判断对一个事情有没有深度认知 当你说出来之后,发现既没有人赞同,也没有人反对,鸦雀无声 当你拍成短视频之后,发现既没有人骂你,也没有人点赞,无人参与讨论 真正有深度的信息,一定不会被多数人理解

“最扎心的真相: 赚不到钱的人通常都在做同一件事——用学习和思考来逃避真正的行动。 他们觉得自己在"提升能力",实际上只是在拖延面对市场的检验。”

来自群友的最佳实践 对于不够了解的领域,前期先通过大量的人工学习武装大脑 然后再去问 AI,就会发现写提示词毫无压力 我觉得这个方法几乎适用于任何一个领域 https://t.co/6TgV63AI9P

最近,X官方更新了推流算法。 我做了一个视频,通过可视化方式帮助大家更好理解这个过程。 看看一篇X的帖子会怎样经过6个环节,变成病毒式传播的破圈爆文。 ✅ 第一阶段:创建与索引 - 播下种子 当用户发布推文后,内容首先通过Tweetypie服务创建并写入数据库,随即被强大的实时搜索引擎Earlybird索引。 同时,Safety filter会对内容进行审核,剔除违规信息。 此刻,推文的生命体征刚刚出现,曝光和互动量极低,病毒分数仅为个位数,传播热度处于萌芽状态。 系统为其设定了初始的推荐权重,例如,有价值的回复会带来10倍的推荐加成,而用户举报、屏蔽等负面行为则会施加5倍的推荐惩罚。 ✅ 第二阶段:互动信号采集 - 寻找共鸣 算法本身无法判断内容优劣,它依赖于早期用户的反馈。系统会密切关注最先看到该推文的一小批用户的互动行为。 核心机制SimClusters在此发挥作用,它将用户划分为超过14万个兴趣社群。如果一条推文在某个社群内获得了高于平均水平的互动,算法就会将其标记为“潜力股”。 这是决定推文命运的第一个关键节点。一旦算法成功为推文匹配到第一个核心兴趣社群,其病毒分数和传播热度会得到首次显著提升,为后续的“破圈”传播奠定基础。 ✅ 第三阶段:评分与排序 - 接受审判 通过早期考验的推文,将进入由多个模型组成的复杂评分体系。 首先,一个轻量级排序器会快速淘汰掉互动信号明显不足的内容。幸存者则会进入基于神经网络(MaskNet)的重量级排序器,该模型会综合数百个特征,包括发布者的信誉分(Tweepcred),进行精细化打分。 这是一个质变的时刻,推文的病毒分数会因此暴增,例如从十几分跃升至上百分。高质量的互动(如来自大V的回复)也会在此时大幅提升其“回复权重”,使其传播热度飙升。 ✅ 第四阶段:分发 - 破圈之旅 获得高分的推文,其传播将不再局限于发布者的粉丝圈。 算法会主动将其大规模推荐到非粉丝的“为你推荐”时间线上,实现“网络外分发”。 如果内容与当前热点相关,也会在搜索和趋势渠道中获得额外曝光。 在此阶段,推文的曝光量会迎来第一次指数级暴涨,病毒分数翻倍增长,触达的社群数量也会持续增加,标志着它真正开始走向大众。 ✅ 第五阶段:传播放大 - 强力助推 为使最优质的内容获得最大传播力,算法还握有一张王牌——推送通知。 当一条推文的各项数据指标都表现得极为出色时,PushService会被激活,直接将该内容以通知的形式推送给大量用户的移动设备。 在这一强力助推下,推文的曝光量和病毒分数会再次实现翻倍式飞跃,传播热度被推向新的高峰。 ✅ 第六阶段:病毒顶峰 - 引爆全网 经过层层筛选和多渠道放大,推文的传播进入了一个正向的自增强循环:高曝光带来高互动,高互动又进一步提升其在算法中的权重和评分,从而获得更高的曝光。 最终,推文的曝光量、互动量和病毒分数都达到顶峰,成功触达数十个不同的兴趣圈层,实现了真正意义上的“破圈”。 此时,其正面反馈(如回复权重)达到极致,而负面信号则微乎其微,一条爆款推文就此诞生。

甲骨文(Oracle)创始人拉里·埃里森(Larry Ellison) 以其强悍好斗、坚韧不拔和特立独行闻名于硅谷和商界 故事1:在公司创立初期,埃里森的公司并不叫Oracle。埃里森极其偏爱这个名字,认为它寓意深远—— 数据库就像能给出答案的“神谕”一样, 问题在于“Oracle”这个商标已经被另一家公司注册。 拉里持之以恒地纠缠并说服了那家商标持有公司的老板。 故事2:把竞争对手的名字贴在靶子上,摧毁Ingres 在90年代,Oracle主要竞争对手是Ingres公司, 市场竞争异常激烈,堪称死对头。 为了激励(或者说刺激)销售团队,埃里森想出了一个极其好斗且视觉冲击力极强的办法。 他制作了一个巨大的飞镖靶,并将竞争对手Ingres的名字直接贴在靶心,然后把这个靶子立在了Oracle销售部门的办公室正中央。 故事3:雇佣私家侦探翻找微软的“垃圾” 他自掏腰包,雇佣了一家专业的侦探事务所, 去翻查微软合作方(或说是在微软园区外)的垃圾, 试图从微软丢弃的办公垃圾中寻找可能作为反垄断证据的内部文件、备忘录或电子邮件打印件。 这本书"SoftWar"/软件之战就暗示了他的狠人性格 Softwar + e = software/软件 他的名言:和别人做一样的事,你永远与财富无缘。

实验一下新的团队成员介绍设计风格 试了好几种,最后感觉还是 halftone 挺不错的 https://t.co/KR7Y4mdDkf

刚才看到一句古诗,然后就想 Seedream 4.0 这么好的提示词理解和世界知识,这次终于能把古诗词的意境表现出来了吧。 于是就试了一下,一顿探索过后发现,真的可以了! 你只需要更改后面的诗词内容不需要描述画面信息,Seedream 4.0 就会帮你生成符合诗词意境的图片,而且图片上还有诗词原文。 👇下面有提示词:

我真的快放弃做所谓的自媒体了 🤣 我只是想拿 X/Twitter 做我的笔记本而已: Roam Research对内, Tweet/Thread 对外, 两者都可以双向引用建立网络。 之前的重度依赖twemex插件进行历史tweet的搜索,从而方便Quote相互引用,但是被收购之后必须付费使用咯~ 盘下了https://t.co/YEweHpeEmh域名准备开发一个插件的,但是高昂的API费用又劝住了我,唉,其实结合AI生成 advanced search语法还有挺多玩法的。 Twemex = Tweet + Memex 这两个词的组合,名字真的很好~ 再感叹一下,tweet升级会员之后支持发布后1h可修改,这也是我非常喜欢的笔记特性。

Global Speed 这个浏览器插件是真的强,各种场景下都兼容了,比如iframe、直播回放等,很多其他插件加速不了的视频它都可以🤣 关键是!还开源,值得学习 https://t.co/huKrqINXsG

Naval最有含金量的一条推文,几乎值得裱起来挂墙上。 https://t.co/8ddfh17zB8

我们的官网也刚刚更新啦 如果有品牌,产品设计,动效视频等项目需求的话可以随时私聊我们~ https://t.co/JoAqFAIsy6

最近两个P图模型,即梦4.0和小香蕉都太火了,实际用起来感觉差异非常大。 前几天我写 Nano Banana 的文章时候,当时的判断是 Nano Banana 是今年商业价值最高的模型了。 但是没想到很快,字节就推出即梦4.0 ,完全弥补了 Nano Banana 的中文场景不足的问题,但在非中文的P图场景中的表现有时会出现很奇怪的问题,比如面部模糊。 为了方便大家对这两个模型的能力有个清晰的认知,我写了这篇新的文章来对比。 总而言之,我觉得倒不是输赢问题,而是两个模型的风格差异很大。

大概解释一下这种现象的原因 CR2、ARW、RW2 这种格式都是相机拍摄的 RAW 格式分支,其中 CR2 是佳能特有的 RAW 格式,还有 CR3。 这些文件名称经常被图片上传到网站时候的各种描述、alt 文本、贴子正文里,然后在被爬取训练数据的时候写到图像对应的标签里面去。 文本编码器在预训练时就学到了“CR2/ARW/RW2=相机RAW=高画质/高动态范围/真实光学特征”的强关联;把这样的标记塞进提示词,会把生成分布推向摄影真实感这一簇,从而提升微细节和光影质感。 像 “.CR2” 这类在词表中较稀有但语义非常“聚焦”的 token,会成为嵌入空间里的强方向向量,能明显改变注意力分配与条件分布,比如把模型从“插画/绘画”拉向“数码相机 RAW 照片”。 所以理论上我们可以看到,其他类似 IMG_####.CR2 / DSC0####.ARW / P1######.RW2 / _DSF####.RAF / DNG ####,这种格式应该都会起作用。 而且打标细致的话,你可以更换后面的后缀来使得生成的图片具有各种品牌相机的成像效果。

fofr 说给 Seedream 4.0 提示词加上 “IMG_2094.CR2”,就会提高图像生成的质量 我做了几次测试,发现在使用 API 的时候,加上这个提示词生成图片的细节丰富度、质感以及美学确实会变好 但注意别在即梦里用这个技巧,因为即梦有自动的提示词优化 https://t.co/0GOoWigZfi

你以为的独立开发:只要做个产品,月入20K mrr躺赚 真实赚钱的独立开发:每天不断重复策略 1、关键词设提醒 - 5分钟内回复所有平台的帖子提醒,让他们以为你是个GTM团队。靠这些回复不断接触甲方。 2、把你那该死的路线图Roadmap扔了 - 用户这周要什么,你就做什么,当着客户面写代码,他给你付款,转介绍。 3、提价,而不是低价 - 价格直接翻5倍, 失去80%垃圾客户,收入翻倍,客服时间骤降90%。 4、去写200篇无聊博客 - 只回答你客户Google的那些蠢问题,换来每月50个自动注册。 5、监控“alternative to [竞品]” - 泡在他们论坛里,帮他们的用户,40%的收入都是抢来的“难民”。 6、把“关怀”做到变态 - 亲自回复每个请求,每个流失用户。竞争对手的客服人员并不认识CTO,无法响应,但你就是CTO。 7、把广告预算扔了 - 别再喂养那只吞金兽,去构建在你睡觉时也能产生复利的资产。 就这样,一个月2万美金的MRR就来了。 - 每周工作20-30小时,照样冲浪、度假、玩消失。 - 这不叫“卷”,这叫战略性地只做最重要的事。 - 这也不是工作,这是在构建你的自由。 - 当VC找上门时,你就能理直气壮地溢价。

冲浪普拉斯,发一期家居行业的视频,讲讲为什么那么多CEO集体跳楼,这个行业真的是完蛋了 https://t.co/LE4girp6bU

Seedream 4 根据文章画这种图真是一绝,非常形象,哈哈 https://t.co/uKTZKPHDp0

Codex的课程今晚发布,先来个先行版。除了学会Codex CLI + IDE两种方式使用之外,你还会学习到: 1. 使用Codex实现单词数据清洗工作 2. 使用Codex开发一个区分系统管理员 + 普通管理员的后台 3. 使用Codex开发一个背单词的应用,还有发音 感叹一下,我的给的还是太多了啊~ https://t.co/CKz7PFhZ2M https://t.co/EbnydEqDXV

a16z 新文章 AI 改变了消费级软件的营收留存模式 旧模式:为用户流失而设计 在 AI 时代之前,消费级软件主要有两种盈利模式广告收入和单层级订阅。 这两种模式的共同点是净收入留存率几乎总是低于 100%。因为每年总有一部分用户流失,而留存用户支付的金额不变。 新模式:大扩张时代 用户支出增加:基于使用量的付费模式取代了固定的订阅费。 消费到企业(C2E)的桥梁:用户以前所未有的速度将个人工具带入工作场所,这些工具可以通过公司报销,从而利用企业更大的预算。 实现“大扩张”的三大关键策略 策略一:复杂的定价架构 摒弃单一订阅费,采用混合定价模式,结合价格分层 和 按使用量计费 。 核心思想:借鉴游戏行业“鲸鱼用户”的模式,通过多层级订阅和额外的按需购买选项,让收入与用户的参与度同步增长。 具体做法: 设置多个订阅等级(如 Pro, Ultra),根据功能、速度、模型访问权限等进行区分。 在每个等级中包含一定的使用额度(如生成次数、计算单元),超出部分需要用户购买额外的“点数包”(credit packages)。 策略二:搭建消费到企业的桥梁 为产品增加基础的团队协作功能,从而打开企业市场,实现 ARPU 的巨大提升。 核心思想:如今,员工被鼓励在工作中使用 AI 工具。任何有潜在工作用途的产品,都应假设用户会将其引入团队。从对价格敏感的个人用户转向对价格不敏感的企业买家,是巨大的扩张机会。 具体做法: 开发基础的协作功能,如:团队文件夹、共享库、协作画布、身份验证(SSO/SAML)和安全设置。 为个人和团队设定显著的价格差异。甚至可以像 Notion 当年那样,为个人用户提供非常慷慨的免费计划(甚至亏本),以加速用户基数增长,然后通过对协作功能收费来盈利。 策略三:从第一天起就进行企业级投资 消费级公司应尽早(在成立后一到两年内)建立销售能力并开发企业级功能。 核心思想:在 2025 年,等待是致命的。与 Canva(成立近7年后才推出团队版)不同,现在的市场节奏要求快速行动。如果一家公司推迟开发企业功能,竞争对手会迅速抢占市场。 具体做法: 招聘销售负责人:自下而上的用户增长只能走这么远,最终需要专业的销售团队来处理企业采购流程和签订高价值合同。 构建关键企业功能:除了协作功能外,还需要: 安全/隐私:SOC-2 合规、SSO/SAML 支持。 运营/计费:基于角色的访问控制(RBAC)、集中计费。 产品:团队模板、共享主题等。

小道消息:Gemini 3 Flash 能力超过 Gemini 2.5 Pro,本月不会发布 Gemini 3,但是很快了。

屁股决定脑袋,比如有人下个月就要房贷断供了,讲长期主义就很难。 长期主义 需要 天时地利人和,所以 从这个角度来讲,长期主义 的 一个 竞争力,其实 是他的门槛 本身。 回头归因的话,可能有一部分不是因为某些人选择了长期主义然后成功,而是他们过了门槛 有能力和资源 选择长期主义 所以成功。 而大部分人 没有 选择长期主义的机会,不管是 认知上的积累,还是 物质上的 积累。

https://t.co/LKqiAme8X7 知名主持人塔克·卡尔森(Tucker Carlson)近日在对 OpenAI 首席执行官山姆·奥特曼(Sam Altman)的访谈节目中,当面追问 Sam Altman,就去年 OpenAI 前工程师苏奇尔·巴拉吉(Suchir Balaji)的离奇死亡事件提出质疑,引发了舆论关注。 苏奇尔·巴拉吉曾是 OpenAI 重要的研究人员,2024年曾公开讨论过大语言模型(LLM)训练的版权法律风险问题,并被《纽约时报》等媒体报道为可能出庭作证、参与针对 OpenAI 的诉讼。然而,2024 年 11 月,他被发现死于旧金山的家中,警方初步调查结论为**疑似自杀**。旧金山市法医部门于2025年2月发布官方报告,结论确认巴拉吉死于单一枪伤,现场未发现他杀证据,警方随后结案。 然而,巴拉吉的家属一直质疑官方的“自杀”结论,认为此事仍存诸多疑点,比如: - 为什么案发现场的监控摄像头线路被切断? - 为什么警方未解释他为何在两个不同房间均留下血迹? - 现场为何有不属于死者的假发? - 一名刚刚下单 DoorDash 外卖的年轻人,为何会在数分钟后突然开枪自杀? - 由第三方尸检指出死者可能存在第二处枪伤、搏斗痕迹及头部外伤等情况,却未被官方报告提及。 卡尔森在节目中表示,这些家属提出的疑点“令人极度不安”,并当场追问奥特曼,要求他对外界的质疑作出解释。从奥特曼的反应来看,他明显感到不适与紧张,视频随即引发了公众对于此案的再次热议。 目前,旧金山市官方仍坚持原先的调查结论,即巴拉吉属于自杀事件。但面对这些尚未完全解释的疑点,家属与部分公众人士仍在推动更深入的调查。 --- 视频文稿 --- 塔克·卡尔森(Tucker Carlson): 之前有一名程序员指责你们公司窃取别人的成果,还不给报酬,后来这名程序员就被谋杀了。这到底怎么回事? 山姆·奥特曼(Sam Altman): 那也是一场悲剧。他是自杀的。 塔克·卡尔森: 你真的相信他是自杀的吗? 山姆·奥特曼: 我真的这么认为。 塔克·卡尔森: 你看过相关的证据吗? 山姆·奥特曼: 他算是我的朋友吧。可能不是最亲密的朋友,但也是在OpenAI工作很久的人。他去世的消息让我很震惊。我花了很多时间去了解整件事,看了所有我能找到的资料,我觉得确实是自杀。 塔克·卡尔森: 你为什么这么肯定? 山姆·奥特曼: 现场找到的枪是他自己购买的。我知道说起来很残酷,但我确实看了完整的法医报告。 塔克·卡尔森: 你不觉得这看起来根本不像自杀吗?我个人认为他显然是被谋杀的。你看,现场明显有搏斗的痕迹,监控摄像头的线也被人剪断了。而且他刚点了外卖,刚从加州的卡塔利娜岛和朋友们度假回来。没有任何迹象表明他有自杀倾向,既没留遗书,也没有表现出任何异常。他刚跟家人通了电话,之后就发现他死了,而且房子里多个房间都有血迹。这种情况根本不可能是自杀,很明显是谋杀。你跟警方谈过这件事吗? 山姆·奥特曼: 我没有和警方交流过。 塔克·卡尔森: 他的母亲认为是你下令谋杀了他。 山姆·奥特曼: 你也相信这是真的吗? 塔克·卡尔森: 我只是提出家属的说法…… 山姆·奥特曼: 但你刚刚说了,你自己相信吗? 塔克·卡尔森: 我觉得这件事值得深入调查。我不是说你一定牵涉其中,但当有人指控你们公司犯罪之后却突然被发现死亡,并且现场有明显的搏斗痕迹,这种情况我们不能轻易就说“啊,这是自杀”。尤其当这个人毫无抑郁症状时,就更不能忽视。我想如果你真的把他当朋友,或许应该去和他母亲谈谈。 山姆·奥特曼: 我提出过见面,但她不愿意见我。 塔克·卡尔森: 你能理解外界对这件事的担忧吗?大家会觉得,“会不会真的发生了这种事情?” 山姆·奥特曼: 我还从来没有经历过这样的采访,被暗示涉嫌…… 塔克·卡尔森: 我绝对没有指控你的意思。我只是转达了他母亲的说法。我客观地看了所有证据,真的看不出有任何明显的自杀迹象。我不明白,旧金山市的警方为何能无视现场的可疑之处,直接将其定性为自杀?这太奇怪了。 山姆·奥特曼: 你应该能理解,这听起来像是在指控我。 塔克·卡尔森: 我再澄清一下,我绝对没有指控你做了什么坏事。但我觉得这件事值得搞清楚。我无法理解旧金山警方为何草草下了结论,不进一步调查。 山姆·奥特曼: 据我所知,警方调查了不止一次。说实话,我一开始也觉得挺可疑的。 塔克·卡尔森: 没错。 山姆·奥特曼: 后来又出了一份新的调查报告,更多细节出来后,我才觉得,“哦,也许真的是自杀”。 塔克·卡尔森: 是什么改变了你的想法? 山姆·奥特曼: 是第二份报告里提到的子弹进入的角度,还有现场推断的子弹轨迹和事发经过。 塔克·卡尔森: 这些我也看过,但完全没能说服我。你看,为什么监控摄像头线被剪断了?为什么开枪自杀的人会在两个房间里都有血迹?为什么现场还有一顶不是他的假发?你听过谁在没有任何自杀倾向时刚点了外卖,然后突然就自杀了吗?我做了很多年的警察新闻记者,从未听过这么离谱的情况。 山姆·奥特曼: 这种讨论真的让我觉得很难过,我希望能对逝者表现出更多尊重。 塔克·卡尔森: 我完全理解你的感受。但我是受他家人所托在询问这个问题。他们也只是想要答案。 山姆·奥特曼: 很多人自杀前不会留下遗书,这并不罕见。有些人甚至还会点自己喜欢的外卖再结束生命。这是一起悲剧。 塔克·卡尔森: 但他的家人坚定地认为他是被谋杀的。这就是我问这些问题的原因。 山姆·奥特曼: 如果我是他的家人,我也一定会想要真相,而且可能任何解释都无法真正让我感到安慰。 塔克·卡尔森: 没错。 山姆·奥特曼: 所以我能理解这种心情。但同时我也非常希望能给予他和他的家人应有的尊重。 塔克·卡尔森: 我理解,也非常尊重他的家人。这次采访本身就是他们的意愿。我强调,我并没有指控你参与此事,但我确实觉得所有的证据都指向谋杀。我无法理解旧金山市当局对这么多疑点视而不见,这件事确实让人对整个调查程序失去了信心。 山姆·奥特曼: 我只是想说,当初第一次看到这些信息时,我也觉得可疑。 塔克·卡尔森: 没错,所以并不是我故意挑刺吧? 山姆·奥特曼: 只是后来看到更多细节之后,我才接受了自杀的说法。 塔克·卡尔森: 而这些新的细节,我看了却依旧无法接受。我真的很困惑。 山姆·奥特曼: 说到这里,我真的很难受。这种讨论方式让我感到有些不尊重。 塔克·卡尔森: 我完全能理解你的感受。我只是代表他的家人提出这些疑问,希望能弄清楚到底发生了什么。

现在这些牛皮研究都不发论文改发博客了? Open AI 前 CTO Mira Murati 的新公司 Thinking Machines 发布重磅研究文章《战胜 LLM 推理中的非确定性》 这篇文章中他们着力于解决从 LLM 几乎无法获得可以复现结果的问题。 我自己看了一遍然后让 Notebook做了个视频,👇有总结: https://t.co/bVbQtOyTen

所有“凭感觉编程”(Vibe Coding)工具都在兜售快速致富的骗局 作者:Varun Raghu 我之前写过一篇文章,聊到为什么我不再做“凭感觉编程”。(见评论) 现在想想,我甚至不太想用“凭感觉编程”这个词。它听起来像是不费力的活儿。但事实完全相反:这事儿非常费力,绝不是靠“感觉”就能搞定。 那些工具打着“只需几句提示词就能做出属于你的十亿美元公司”的梦想在卖——真的,全部都是在忽悠人。相信我,我试过大多数。 你很难把人忽悠到相信“随便摆弄就能造出手机或汽车”。可不知怎么的,很多人却会被“几乎不费力就能做出世界级、能赚上百万的软件产品”这种说法骗倒。这就是骗局。 一开始我满怀希望:凭我有限的技术背景,终于也能“动手做”了。几个月时间,我试了不同的平台,写了无数条提示词,花了几百美元——最后得出的结论是:根本行不通。这些工具只是给了你一个“你会写代码”的幻觉。 现在我用 Cursor 只干一件事:给我的落地页做些外观上的调整。原因很简单——前端和设计本来就是我的强项。我只是用 AI 来加速已有的技能,而不是凭空获得不会的本事。 这些 AI 编程工具会不会变得更好?我以后能不能真的靠“凭感觉”把产品做出来?也许吧。但至少此刻,这个行业整体都在搞一场大骗局,把我们所有人都耍了。

结构断裂和科技飞跃的时间重叠了。 我能做什么? 先换语言 → 把自己从旧叙事里解放出来。 再接协议 → 努力提前接入新技术、新秩序的原型。 希望最后成节点 → 尽量把自己塑造成新秩序的一部分,而不是它的旁观者。

有很多程序员朋友问我,是否要离职 all in 独立开发?我的建议是,如果你现在没有一个稳定收入的产品,只有同时满足3个条件可以离职做: 1. 有未来一年不赚一分钱的预期 2. 有接近一年生活开销的现金储备 3. 家人的无条件支持 独立开发的故事很美,但是现金流更加重要。这一年感谢因为做知识付费 + 自媒体,才让我有现金流继续下去,能有一个平和的心态继续做产品。 还有一点,我其实想纠正很多人的一个错误预期。很多人看多了「1个月开发一个产品,几个月内赚了几十万美金」的故事,就以为我上我也行。 这类故事有的是真的,但是主人公要不就是几年之内失败了数个产品,才有一个成功的;要不就是上线后几个月,有疯狂的做marketing,背后的能力也是数年的积累。你知道看到成功,没看到别人背后的成本。 大多数成功的产品,都是用心数月或者数年开发的成果。真实的收入也远没有你想的那么高,很多不会高出北上广深P7+程序员的年薪。

我见过更丝滑更变态的链路: - 现场扫码 → 跳转公众号 - 关注公众号 → 自动推送消息 - 消息点开 → 企微二维码 - 加企微 → 欢迎语发个 H5 - 点进 H5 → 要先注册登录 - 登录后 → 观看品牌视频满 10 秒 - 看完才解锁「下单按钮」 - 点完还得支付,支付成功后 → 才能拿到所谓的“小礼物” 你没看错,这已经是 8 步操作 + 4 次跳转 + 2 次扫码的超级链路。 一环套一环,像极了舔狗在追求女神时候被动接受的行为训练。 每一步都像一扇门,每一个动作背后都绑定了某种数据采集、分发节点、用户识别或系统打标签。 这背后是留下了你的微信openid、直播/地推标记、判断是否二次触达、真要跳出了,还能下次再精准喂你广。 这个世界早没资格谈什么纯粹的互联网了。现在是反用户体验工程的工业化时代。

昨天教师节吃饭,我的一个广东朋友和我聊天。 因为前两天发推说自己想去香港办卡,他看了我推特问我为啥,是有什么业务吗?毕竟现在开港卡炒股要交税,还有乱七八糟的限制。 我说倒也没啥业务,就是觉得得有一个,方便的时候用 他说要用的时候再办呗? 我说不行,很多事情等到那个时候,一些机会已经迟了。很多事情要早早准备好,等到看到机会的时候再去准备就已经来不及了。比如香港优才,有机会就要申请。你先别担心续签的问题。先去做,放在那里,你办了,就总有一天能用到,你不办,你这辈子都不一定会用到。很多好机会就这么从手边溜走了。

Consensus EDU 邮箱免费一年 Pro,手要快! 需绑卡,0 元卡也可, 开通步骤,注意,严格按下面每个选项执行⬇️ 注:Consensus是学术类型的AI搜索引擎 https://t.co/mHBr39DthX

现在很多账号的运营方式真的服,叭叭叭写了一堆,最后说链接放在评论区,好吧忍了至少还是愿意给链接的,点开一看,自己的小红书或 B 站账号,让我自己找链接。。。这世界就不配拥有纯粹的互联网了吗?

我对自由的理解是有选择不的权利 达到自由有两种途径 一种是降低期望回归自我 还有另外一种就是在有限的生命中 构建出一个不需要出售时间或仅付出少量时间就可以持续产出满足生活保障的金钱系统 达到这个目标有六种途径 1.租赁生产资料 2.软件开发产出代码 3.依靠内容 4.依靠分销渠道 5.构建领导力 影响人力 6.依靠AI在时间上放杠杆 有些人是混合了很多模式的 有些人在其中只能选择一两个模式 但不论如何 我们都在想方设法在有限时间内获得更多可支配时间 从这个角度上讲 你一定会在许多年后 后悔把自己的时间廉价的售卖 而不是利用他们构建这6种杠杆系统

对于 Claude Code 来说这一大坨 prompt 其实没啥用,真正有用的是评论的那一行: > "Please add the appropriate logging information so that you [the agent] can use that log output to figure out this issue."

Qwen 2.5 模型的 data contamination 问题,带来的影响非常恶劣,直接影响了以它为基座的文章的结果的可信度。 凡是基于 Qwen 2.5 模型的文章,无论方法多么好,都无法全身心的阅读。 今天读到 K2-Think, 尤其有这种感觉。 方法太solid了,如教科书般,long-CoT SF,RLVR,Plan + Best-of-3 + LLM judging,甚至有WSE + speculative decoding,太好了。 我只想问作者一个问题,这么好的文章,为什么已知Qwen 2.5存在数据污染问题,还要用它作为基座?

写代码很简单,读懂它才是难事 作者:Ibrahim Diallo, Gil 写代码是件容易事。一旦你脑子里有了解决方案,又掌握了你最喜欢的编程语言的语法,写代码真的不难。让大语言模型(LLM)帮你写出整个函数?那就更容易了。但真正的难点不在于写,而在于读。难的是,你需要花时间在脑海里构建起对整个系统的认知地图。这才是所有成本的真正所在。 心智模型 (mental model) 就是你在阅读代码时构建的东西。它是你对系统如何工作的内部地图,上面标注着哪些地方是雷区,哪些东西依赖于另一些东西。没有这张地图,你看到的就只是一行行毫无生气的文本。 我当外包程序员的时候,大部分工作都是以同样的方式开始的。我会接到一个任务,去修复一个我从未见过的应用程序里的 Bug,或者给它增加一个新功能。一开始,我的心智模型一片空白。为了填充它,我会先去看看网站主页长什么样。然后我会查看页面源代码:这是用 React 写的?还是 jQuery?或者某个第三方插件?我会浏览整个代码库,看看他们要在首页上加的那个轮播组件,在别的地方是不是已经用过了。我还会检查他们的构建流程、测试配置,以及他们依赖的工具。我发现的每一个小细节,都会被添加到我脑海中的那张地图里。 这感觉就像搬到一个新城市。你从公寓楼下开始,在几条街道上闲逛,慢慢注意到哪条路通向高速公路,杂货店在哪里,然后你开始逐渐找到方向感。读代码就是这种感觉:你在绘制一幅心智地图,这样你下次在代码里穿梭时就不会迷路。 比如说,你需要理解一个简单的函数,像 getUserPreferences(userId) 这样。要构建关于它的心智模型,你需要追溯以下这些问题: 这个函数是在哪里定义的? - 它返回什么?是一个 Promise 吗?返回的数据结构是什么样的? -它是直接访问数据库,还是通过一个 API? -中间有没有涉及到缓存层? -如果用户不存在,会发生什么? -还有谁在什么场景下调用了这个函数? -它有没有副作用 (side effects)? 要理解这一个函数,就意味着你得在数据库结构、API 定义、错误处理中间件和多个调用点之间来回跳转。只有在构建起这张关系网之后,你才有足够的上下文信息去安全地修改任何东西。 这个过程非常缓慢。读代码比写代码难得多,难太多了。写代码像是在往前走:你在铺设一条崭新的路。而读代码则意味着要追溯别人的脚步,这通常意味着在不同文件间跳来跳去,追踪函数调用,推断副作用,还要揣摩那些没有被白纸黑字写下来的意图。为了理解一个函数,你常常需要查看其他五个文件。做完所有这些之后,你才算有了一张足够让你起步的地图。 这也是为什么调试 (debugging) 比写代码更难。在 Stack Overflow 网站上,一个烂问题下面最常见的评论之一就是:“你能把你的代码贴出来看看吗?” 因为看不到你走过的路,就没人能在脑海里加载正确的模型来帮助你。这也解释了为什么 XY 问题 (XY problem) 总是反复出现。人们只问一个表面症状,却不提供能让别人重建整个问题图景的上下文。 我至今仍对那个在法庭上使用 ChatGPT 的律师感到着迷。他提交了一份法律文件,里面引用了六个根本不存在的案例。所有人都问:他为什么不去读一下这些案例呢?答案是一样的:因为构建心智模型需要时间和精力。他本应去追踪每个案例,阅读它们,然后将它们放入对法律先例的宏观理解中。阅读,才是最难的部分。生成,太容易了。 阅读不仅仅是逐行检查代码。它还包括通读文档、参与代码审查和结对编程。实际上,这些方法都是为了加速我们构建心智模型的过程。但即便如此,你终究还是要亲自去读、去理解。你会发现,程序员总想把东西从头重写一遍,因为他们觉得“旧代码烂透了”。真正烂的,是花时间去读懂它、理解它。 这正是大语言模型在编程领域既强大又危险的地方。无论 AI 生成的代码是完美无瑕还是纯属幻觉,你都必须去读它。你仍然需要追溯它应该做什么,它如何与系统的其他部分交互,以及它的副作用是什么。生成的代码越长,构建心智模型所需的时间就越长。只有当你完成了这个过程,你才能发现问题所在,发现那些生成代码不太适配的地方,或者它在悄悄地破坏其他功能。 当一个大语言模型可以无限量地生成代码或文本时,它诱使我们跳过阅读这个环节。但你无法跳过构建心智模型。就好比你绝不想加载别人的游戏存档,结果一上来就直接被扔进 Boss 战的战场中央。继承或生成一份你根本不理解的代码,就是这种感觉。 这就是为什么软件开发的真正瓶颈不在于“写”,而在于“理解”。 目前,我们还没有能与大语言模型相媲美的“理解工具”——那种能瞬间将整个系统的心智模型从机器灌输到你脑子里的东西。在那一天到来之前,瓶颈依然存在。我们解决了“打字速度”的问题,现在我们能生成的代码,远比我们能读懂的要多得多。但是,除非我们解决了“理解”的问题,否则软件开发的成本依旧没变:它还是取决于一个人需要花多长时间才能搞懂这一切。 这对我们如何使用 AI 工具有着实实在在的影响。与其让 AI 生成大段大段的代码,不如让它帮助我们理解现有的代码。与其用代码行数来衡量生产力,我们或许更应该用团队能多快地为他们的系统建立起准确的心智模型来衡量。 编程的未来,可能不在于更快地生成更多代码,而在于更快地生成“理解”。而这,是一个难得多的问题。

真正的Web 3.0: 语义极,去中心化极,智能极三位一体的新形态 以及一个目前难以想象的终极愿景。 哎,不过话又说回来了,上个世纪60年代的人能想象在口袋里揣一个通用图灵机吗? 接上自由金牛的帖子,我们不妨真正的,好好的梳理一下这个脉络,因为其实在推特上我也发现了这个概念的混乱,不如大家一起讨论。一切从头说起,大家一起对齐。 从真正的 Web 3.0 最初的构想说起 我们必须把互联网的发展看作一个分阶段的故事。前两次互联网的跃迁早已成为定局,进入了历史的年鉴。作为见证者,我们不只是旁观,而是真实参与了这一场场浪潮。 Web1.0 是“只读的互联网”(1990s–2005),以静态网页和门户网站为特征。那是雅虎、AOL、新浪、搜狐的时代,用户只能被动浏览,信息单向流动,像一本没有交互的在线百科全书。 Web2.0 则是“互动的互联网”(2005–2020s),以社交、UGC 和平台化为特征。Facebook、YouTube、微博、抖音让人人都能参与创作,但同时,数据与权力被平台集中控制,用户的内容被关进“围墙花园”。它像一个巨大的社交广场,但钥匙却始终握在平台手里。 这个故事大家都熟悉的不得了,现在都知道Web 2.0即将走到历史的一个阶段。而对于我的大部分推友来说,我们都是web 2.0的生态老人。有一部分人已经感受到他的瓶颈将至,不需要什么技术分析,什么学术论文的原因。这种事情要等到能写论文了,那写的就不是论文了,是史书, Ok? 如果说 Web1.0 给了我们“阅读的自由”,Web2.0 给了我们“表达的自由”,那么接下来的真正范式转移,Web3.0 要夺回的就是“拥有的自由”。 Web 3.0 的构想经历了至少二三十年的思想演化。要讲清楚它,就必须追本溯源。从我的梳理来看,Web3 至少有三条比较清晰而主流的叙事线。 第一条线,是 Tim Berners-Lee 在 2001 年提出的“语义网”。他希望网页不只是超链接文本,而是语义化的数据网格,能够让机器自动推理、发现和执行任务。虽然 RDF、OWL 等标准构建了完整的学术框架,但最终停留在研究与标准化层面,未能真正普及。 第二条线,是 2014 年 Gavin Wood 的加密语境 Web3。他在以太坊的背景下提出了“去中心化互联网”的愿景,以区块链为信任基础,用户真正拥有身份与数据,智能合约取代中心化平台的规则。这是一个关键转折点:Web 3.0 从“语义网”走向“去中心化网”,也成为今天最主流的 Web3 叙事。 第三条线,来自 2006–2010 年间的产业与商业阵营。当时,很多人将 Web 3.0 理解为“智能互联网”,由 AI、大数据与个性化推荐驱动。Google 的 Knowledge Graph 和 Facebook 的社交图谱,是这一叙事的代表。它的价值主张是让用户体验更智能化、更个性化,但本质上依旧是高度中心化,用户并未真正掌握所有权。 这三条叙事线条——语义化、去中心化、智能化——构成了 Web 3.0 最初的思想前沿和技术演变路径,而这一切都发生在 LLM 出现之前。换句话说,今天我们所期待的 Web3,其实是这三条路在新一轮技术爆发下的再次交汇。 Web 3.0中的加密语境叙事线是如何占上风的? 如果我们把 2008–2018 这十年当作一个阶段来看,Web3 的主流叙事确实与 Tim Berners-Lee 的语义网几乎没有交集,而是完全被 “去中心化” 所主导。这背后有几个深层原因。 第一,现实驱动力不同。 语义网的推动力来自学术与标准化组织(W3C、RDF/OWL/SPARQL),它试图从知识结构化的角度让机器“懂语义”。但这种路径需要长时间的本体建模、跨领域协作与标准落地,没有立刻的商业回报。相比之下,比特币在 2009 年直接带来了一套可以运行的去中心化货币系统,立刻有价值共识与价格信号,极大增强了“去中心化”叙事的吸引力。 第二,金融危机与社会环境的催化。 2008 年全球金融危机后,传统金融机构与政府信誉遭到严重挑战。中本聪在比特币创世区块写下的那句“Chancellor on brink of second bailout for banks”就是最直白的宣言。去中心化叙事在这种环境下不仅是技术选择,更是一种政治与经济层面的“对抗姿态”。 第三,产品与社区效应。 比特币、以太坊等项目构建了真实运行的网络与社区,开发者和用户都能参与其中。这种“边写代码边跑网络”的实践优势,让去中心化叙事成为一个活生生的实验场,而语义网还停留在学术会议和标准文件中。 第四,投机资本的放大器。 2013–2017 年间,加密货币价格暴涨、ICO 融资浪潮,让无数人把注意力转向区块链世界。投机的资本驱动虽然带来了泡沫,但同时也迅速扩大了加密叙事的声音,使得“Web3 = 去中心化”的印象牢牢确立。 在 2008–2018 的叙事竞争中,语义网路线缺乏立刻的应用与资本支持,而加密路线却在 技术突破、社会氛围、资本力量 的共同推动下全面占据上风。换句话说,Web3 在这一阶段被塑造成了一种“金融-技术-社区”三合一的去中心化叙事,而“语义”暂时被边缘化,直到 LLM 的出现才重新把两条线牵到了一起。 语义网 语义网这个议题足够宏大,足以写成一本书。它的进展、局限与新一代技术的补位,正好串起了 Web 3.0 中“语义角”的来龙去脉。 从 2001 年提出到今天,语义网大致经历了“学术—标准—部分落地”的演进路径。RDF、OWL、SPARQL、SHACL、PROV-O 等一整套技术规范都已相对完备,在生物医学、金融和政府开放数据等垂直领域有过应用,搜索引擎背后的知识图谱也延续了这一思路。它的确留下了“隐形成就”。然而,它始终没有成为大规模互联网级的应用,而是停留在少数专业场景。这背后既有工程门槛过高、建模依赖专家的原因,也有缺乏商业驱动力和民用反馈的现实。大众用户无法直接书写 RDF 三元组,自然语言与语义层之间始终隔着一道沟。程序员没有动力普遍钻研它,大厂也没能借助消费级应用带动一个循环,因此语义网的生态始终没有跑起来。 Tim Berners-Lee 的设想极为宏大。他希望互联网能经历三次升级:从“文档网”到“数据网”,再从“数据网”到“知识网”,最终从“知识网”走向“推理网”。这意味着机器不仅能存取信息,还要真正理解语义,能够把世界建模成事实、关系和规则,并基于这些知识进行自动推理和任务执行。换句话说,语义网是一个自顶向下的知识工程,试图用形式化逻辑重塑互联网。 直到 Transformer 与大语言模型的出现,这条断裂的桥梁才第一次被补上。LLM 在用户端表现出近似于“懂语义”的能力,不仅能解析自然语言,还能在一定程度上将非结构化文本转为结构化知识片段,并做出近似推理和任务编排。从普通用户的角度来看,语义网设想的“机器懂语义”的目标似乎已经实现了。 然而,差距依然存在。语义网强调的显式结构、可验证推理和可追溯来源,LLM 并没有解决。它把知识折叠进黑箱参数,推理基于统计概率而不是逻辑证明,生成的内容往往缺乏来源与证据链。也就是说,在用户体验层面,LLM 填补了语义网的空白,但在社会级、制度级的“可信闭环”上,它仍然差得很远。 我的想法是:语义网靠 LLM 补上了一部分,但还差关键的一环。 首先,缺乏显式的语义结构。语义网的设计要求是,每个事实都能以 RDF/OWL 的形式明确表述,每个概念都有清晰定义,机器能够准确理解主语、谓语与宾语之间的关系。而在 LLM 的现实中,知识被压缩在庞大的参数空间里,成为一种隐式存在,用户既无法直接查询,也无法保证一致性。这一点非常重要,因为显式结构才能像乐高积木一样拼装和复用,才能成为跨系统的通用协议,也才能被审计、修改、版本化。黑箱参数无法承担这种治理要求,所以如果缺少显式结构,AI 就难以成为社会基础设施,它不能像法律条文或合同那样被引用、修改和对齐。 其次,是推理不可验证。语义网强调基于逻辑的推理,结论可以形式证明,逻辑闭合是可验证的。而 LLM 的推理是一种统计近似,依赖于训练分布,正确率或许很高,却没有可验证的证明链条。这意味着在法律、金融、医疗等场景中,LLM 给出的答案缺乏责任边界,争议处理时无法回溯推理步骤,也不能为社会信任提供坚实基础。没有可验证推理,AI 就无法成为规则执行器或社会秩序的底层,因为缺少信任闭环。 第三,是缺乏可追溯性。语义网要求每条声明都附带来源,明确谁说的、何时说的、在什么上下文里提出,并通过 PROV-O 或命名图实现可追溯和可审计。而 LLM 只能生成文本,无法内建证据链,也无法直接说明知识源自哪一篇文献。这在科学、法律、新闻等领域都是致命的,因为结论必须有出处,合规监管必须有解释,责任划分必须清晰。没有可追溯性,AI 生成的结果只能停留在“参考意见”,而无法进入高信任度的制度场景。 所以,今天的 LLM 给了我们“好用”——它能理解、能生成、能交互;而语义网强调的是“可信”——能组合、能验证、能追溯。要真正构建“社会图灵机”,必须把这两条路线拼接起来:LLM 作为入口,负责理解人类意图,降低使用门槛;语义结构作为底座,提供显式建模与逻辑约束;Web3/区块链作为执行层,保证结果可信、可审计。只有这样,语言才能真正成为系统设计,如同我的 bio 所说:Language as system design — Callable 可调用, Transferable 可迁移, Verifiable 可验证, Schedulable 可组合。 社会图灵机: 三极融合后的 Web3.0 最终形态 因为如果只是工具级的创新,那并不足以称之为范式转移。很多人对 LLM 的落地仍然感到疑惑,本质上就是在问:“万一 LLM 只是一个工具呢?”发明工具当然重要,但工具本身并不会改变文明的底层秩序。类似地,Web3.0 的叙事也在逐渐失去新鲜感,去中心化和区块链似乎都遇到了瓶颈。大家期待的那个“大的要来了”还没有真正到来。那么,真正的大成景象应该是什么样子? 第一极是语义极,目标是让机器真正懂语义。这意味着系统能把人类自然语言意图精准地转译成结构化规则,几乎没有歧义,能够跨语言、跨领域地理解和执行。同时,本体与知识图谱需要覆盖金融、供应链、法律、医疗等主要业务领域,并且能够不断扩展新概念与规范。更关键的是,这些规则必须像乐高积木一样可以自由拼装,形成更复杂的流程,并且每条规则都要有证据映射,能够验证其真实性,避免幻觉。 第二极是去中心化极,它要解决的是秩序与信任的问题。所有的状态变更——无论是交易、合同执行还是结算——都必须可以被全网验证。数据与逻辑需要公开透明,隐私则由零知识证明等方式保护。结果一旦生成,就不可随意篡改,历史记录可以被完整审计。同时,整个系统需要具备抗攻击、抗审查、容错的弹性,保证在极端环境下仍然可靠。 第三极是智能化极,它关乎用户体验。一个真正面向大众的 Web3 系统,必须让普通人无需理解链、Gas、密钥,就能通过对话和点击直接使用。它能根据用户的偏好与上下文提供个性化的服务,并且在跨应用、跨链、跨平台的使用中保持顺滑一致的体验。随着环境变化,它还要能自我适应,无论是法律约束、市场条件还是用户习惯的调整,系统都能自动优化路径。 当三极耦合,就形成了一个全新的“社会图灵机 OS”。在这个系统里,自然语言意图能以 99% 以上的精准度转译为可执行规则,涵盖 80–90% 的社会业务与治理活动;所有执行结果都能百分百验证,过程可追溯,隐私保护灵活;用户几乎无感,就像使用 Web2 应用一样轻松;业务模块能够像 API 或乐高一样自由拼装;语义层和执行层还具备演化性,能够不断扩展,不被单一标准所锁死。 最终的 Web3 绝不会依赖某一个单点指标来取胜。它必须在语义的精准度、协议的可信度、体验的顺滑度三方面同时达标,三者合一,才能真正配得上“社会图灵机”的称号。 一种Web2.0时代不可想象的Web3.0形态。

今天有一个重磅, 即司美格鲁肽的厂家, 诺和诺德, 全球重组,裁员9000人 生物医药的寒冬真的很寒呢

最近状态有点疲惫,忙累之外更多是一种被无形的力量拽着走的那种钝感。 但就在这种疲惫里,反而更想明白一件事: 管理最根本的一条,就是得把人当人看,不能把人当工具。 听起来像废话,但真懂这句话的人,其实不多。 很多组织一开始跑得飞快,KPI 砸下去,成果斐然,但到某个节点就突然卡壳了,团队开始疲惫、人才开始流失、创意开始枯竭,大家好像都在做事,但没人在走心。 为什么? 因为靠制度可以让人听话,但不能靠制度让人愿意。 工具是执行的但人是活的。如果总想用工具的思维去压住人的波动,那人要么躺平,要么跑路,但一定不会把最有力的那部分热情和创造力留给你。 而且最讽刺的是,当你开始把人当工具用的时候,其实你自己也早就变成了那个系统里可以被替代的齿轮了:你天天盯着人效、忙着填坑、追着任务跑,却没人愿意真跟你一起冲。 那什么是真正厉害的管理,一定不是靠流程把一群人变成执行机器,厉害的管理在构建一个允许人作为“人”存在的环境,这里有空间有机会,有各种可能。 一个组织可以用命令让人动起来,但只能用信任让人留下来。 我不确定这是不是所有问题的答案, 但至少在最近这些糟心之后,我开始越来越确认,这是一个不能再妥协的起点。

一个Vibe Coding开发小技巧: 1. 整理官方API,Curl版,带上输入和输出。 2. 一次性发给Claude Code、Augment等编程工具,生成md文档或写入记忆。 能大幅降低 API 接入开发难度。 我整理好了一份,见评论区

不要做饶毅一样的人 其实关于这个话题我已经聊过两次了。但是前几次粉丝数不太多,领域里共友也不太多。趁着今天教师节喝醉了,多聊两句 我见过两三次饶毅,记忆最深刻的一次是北脑刚成立一年的海外学者招聘。当时我就坐在饶毅正后方一起听报告。不得不说,我承认一点,在于这个人确实敢说,对学术也有自己的追求。这个很好,我很敬佩。 但是随着脑计划的逐渐发展,随着时间的流逝。我越来越对这个人的看法有所转变。 我其实一开始很不喜欢蒲慕明主导的脑计划,花了这么多钱,找了这么多人,做了这么多工作,最后做了脑图谱这种工作。我说实话有点可笑。所以当饶毅喷poo说他培养亲信,帮付向东老师打抱不平的时候,我都挺支持他的。 但是我还是想说,不要做饶毅一样的人。原因也很简单。 即,不要为了反对而反对,不要做一个只会反对的反对派。 当然换成poo(蒲慕明)的视角,我接到了一个国家主导的脑计划。这笔钱堪比当年的阿波罗计划。阿波罗想做的事情是发射大火箭,让人登月。但是脑计划最后的终点在哪里?应该做什么?who knows? 如果我们站在人类的角度上来讲,谁能提出好的问题,谁才应该拿这个钱,对吧?但是对于国家而言,对于政治家们而言,他们希望的是花了一笔钱,就能看到结果。但这对于任何的前沿学科来讲,都很难。 换成是你,你会怎么交差? 相比很清楚了,用现有的技术,做一个肉眼可见的庞大工程。这就能交差了。但这是poo想做的吗?of course not! 会做媳妇两头瞒,你想有所做为,你又得为你权力来源负责。那你只能挨骂。不仅上面对你有意见,下面也同样。所以尽管他能在短时间内接纳很多甚至连文章都还没发表的年轻人。(包括我的几个朋友,在没有通过神经所的面试后,poo帮他们在一些新机构找了很好的工作。)所以尽管他还是愿意去支持一些除了脑图谱以外的工作。所以尽管讲课的时候还愿意说一些其他的世界。 但是在饶毅的眼里,不好意思,神经所变成了poo徒子徒孙的聚集地,脑计划成了poo的私家财产。那你就该挨骂,不仅我要公众号骂你,我还要让所有人看到一起和我骂你,让上面对你有意见。比如今年丹扬(poo的妻子)写了一个准备了十几年的计划,被饶毅一篇公众号文章给干碎了。大领导们看到了,项目就彻底黄了。 写这么多,倒也不为别的也不想站谁,你看到了纷繁复杂的世界。你看到了他们之间的纷争。但是你把这群人想象成为了争夺资源的野兽。你就或许能明白一些了。 张居正变法,王安石变法,同样反对派们声音很重。但我们所有后世的人都觉得他们做对了。现在,我很难评poo做对了。但是我想说的一点是,不要为了反对而反对,也不要看到别人反对就反对。很多时候事情比绝大多数人想的更复杂。 在真实的世界里,没有对错。我们实验室有一个现在已经退休的老教授,叫黄石。当年他发了很多文章,上了很多新闻。说人类是来自东亚的。我们有的时候现在看来,都感觉会很ridiculous。但是在当年,夏家辉院士招了他,这个很重要的原因就是,他看到了这个人提的假说,有自己明确的证据,有一些很有趣的方法证明。万一他是对的呢?万一他最后得了诺奖呢? 以至于现在当我看到一些人类遗传学的文章,我依然还会采用黄石老师的一些方法去分析验证。 科学,没有对错,只是因为钱和资源是有限的。所以,才有了争夺,才有了竞争。但是没有人是上帝,也没人可以预言未来的技术发展。 所以,不要做一个反对派。要专注于自己事情。这同样对我而言也是一个警示。