🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

有见识的家长都在鼓励孩子玩游戏 财新杂志总编王烁早早给孩子配Switch 原因:打游戏的孩子更聪明!人生预演。 条件:只玩英文版游戏,玩时只讲英语。 他推崇《塞尔达》:人类文明与人生策略 本书在楼夷公号BetterRead有详细介绍 《和孩子说一切》书中两页👇 购买链接放在评论区

拜占庭将军问题:真-义-利的三角解法 拜占庭将军问题 (Byzantine Generals Problem): 人类共识机制的困境 首先,我们来系统地理解 拜占庭将军问题 (Byzantine Generals Problem)。这是分布式系统与区块链领域中的经典思想实验与数学难题,由 Leslie Lamport、Robert Shostak 和 Marshall Pease 在 1982 年首次提出。设想一群拜占庭帝国的将军正在围攻一座城市,他们必须在同一时刻发起进攻才能获胜;如果有人进攻、有人撤退,则会全军溃败。问题在于,这些将军分散在不同营地,只能通过信使传递消息,其中可能存在叛徒,他们会故意制造虚假或矛盾的信息。而忠诚的将军必须在不确定谁是叛徒的情况下,依旧达成一致行动。 由此提出的核心问题是:在一个通信不可靠、节点可能存在恶意的网络中,如何确保所有诚实方能达成一致决策? 这就是所谓的 拜占庭容错 (Byzantine Fault Tolerance, BFT)。形式化来说,如果系统中有 n 个节点,其中最多有 f 个是恶意的,那么只有在 n ≥ 3f + 1 的情况下,才能保证共识的达成;若 n ≤ 3f,则一致性无法保证。 然而,“拜占庭将军问题”并不仅仅是计算机科学的抽象,它本质上揭示的正是 人类共识机制的根本困境。人类社会的共识从来不是在真空中达成的,而总是伴随着 谎言、欺骗、延迟、噪音与利益冲突。换句话说,拜占庭将军问题就是人类文明问题的抽象模型:文明之所以需要宗教、法律、国家、契约与金融系统,正是为了在不完全信任的环境中寻求稳定的协同。用一种糙的方法说,脑子不互联而且人类里面还有叛徒。 区块链技术只是人类解决这一古老问题的最新一次尝试。2009 年,比特币出现,采用 工作量证明 (PoW),把共识转化为“算力多数”,诚实的多数算力保证了最长链的全网一致。2022 年以后,以太坊完成合并,转向 权益证明 (PoS),将诚实绑定在经济激励上,通过质押与罚没 (slashing) 来约束恶意节点的行为。 用我的话说,这意味着我们终于进入了一个 制度工程化的数字化阶段:不仅用代码来记录规则,更用 code as law / rule as code 的方式,把“共识”转化为可执行的协议,把人类几千年来的共识难题,第一次落在了可以被验证、复制与自动执行的系统之中。 人类文明的演化史,本质上就是不断发明新机制来解决拜占庭困境:在不完全信任的环境下,维持可扩展的群体一致行动。一次共识机制的升级——从神权到法律,从金融到算法——都是文明突破边界、扩大协作半径的关键。 以上这一切你都听过无数次了,不再多说。 区块链式的“拜占庭困境解法”(PoW、PoS、共识算法),是不是目前人类共识机制的最优解? 从目前来看,它确实是已知的最大进步:一次计算上的飞跃,一次人类共识机制的重要演化尝试。区块链无疑是当下在“开放拜占庭环境”中的最佳工程解法,它解决了“共识能不能达成”的问题,却还没有完全解决“共识如何高效、公平、可持续”的更深层挑战。 如果从博弈论的角度来理解拜占庭困境,可以更清楚地看到这一点。还记得电影《美丽心灵》里的约翰·纳什博士吗?他提出的均衡理论告诉我们,如果大家都选择合作(统一进攻或撤退),群体能获得最优结果。但在拜占庭环境中,每个“将军”就是一个理性个体,他会根据自身利益做决策。如果有人背叛或撒谎,他可能在局部获利,却会导致整体失败。这本质上是一个 协调博弈 + 囚徒困境 的混合:个体最优未必等于群体最优。 人类文明史可以被理解为不断发明机制,让个体理性与群体理性对齐的过程: 在 宗教与神话 阶段,通过信仰建立超越个体的“纳什均衡”,让背离神意的代价高于服从。 在 法律与金融系统 阶段,通过契约与信用把合作设计成长远最优策略,在重复博弈中形成稳定均衡。 到了 区块链与算法共识 阶段,则是把背叛转化为可量化的损失:PoW 的电力消耗、PoS 的质押与罚没机制,确保作恶行为变得不理性。 因此,拜占庭困境是信息论上的难题,而博弈论提供了激励机制的解法;人类文明的历史,本质上就是通过不同的博弈设计,让合作逐渐稳定化的历史。 但即便如此,区块链依然存在不少问题, 我先说说以下这些我知道但是不深究的潜在风险: 效率问题:PoW 消耗巨量能源,PoS 和 Rollup 仍面临吞吐量与扩展性瓶颈。 集中化风险:PoW 容易集中在大矿池,PoS 容易集中在大型交易所或流动性质押平台,导致实际的去中心化程度下降。 外部性问题:链上算法只能确保账本内部的真伪,却无法验证链外信息的真实性,例如 NFT 指向的图片可能丢失,链上投票有效但投票者身份未必真实。 博弈论脆弱性:系统的安全依赖“多数诚实”这一假设,但如果经济或政治环境导致多数节点合谋,区块链仍可能失效。例如 PoS 模式下,如果超过三分之二的质押掌握在少数机构手里,就可能形成事实寡头。 以上问题我都不深入研究。 我最关注的其实是 治理问题。共识机制可以确保区块链的状态一致,但 谁来决定协议本身如何修改? 每一次重大升级(比如以太坊的 The Merge)依旧需要开发者、社区和利益相关者之间的社会共识,这不是算法自身能解决的,而是落回到传统的政治、组织与文化博弈中去。 我认为,治理问题才是 LLM 真正落地的机会。 可以把它理解为一个新时代的共识三角:区块链(真)– LLM(义)– 博弈论(利)。 在这个三角中,区块链管“真”。它的优势在于确定性:一笔交易是否发生、一个区块是否有效,所有节点都能在相同规则下验证,不依赖个人信任,而依赖数学与加密学。区块链解决的是事实与历史的不可篡改——例如“谁在什么时候转了多少钱”这种客观真相,都能得到全网一致的裁定。在拜占庭环境里,区块链就是真伪的底层保障。 但光有“真”还不够,还需要“义”。人类共识不仅涉及真伪判断,还需要对事实进行解释和赋义:同一条事实,不同人可能有完全不同的解读,政策、协议和法律文本里也常常充满模糊和歧义。LLM 的优势正在于语义压缩与模式提炼,它能够把成千上万条意见浓缩成几个候选方案,能发现其中的逻辑冲突或潜在共识点,从而帮助人类在语言混乱中提炼出可共享的意义。在拜占庭环境中,LLM 提供的就是语义调解与解释的能力。 然而,即使“真”和“义”都得到保障,也还不足以稳定共识,因为人终究是逐利的。博弈论告诉我们,如果诚实没有收益、而背叛更划算,再好的机制也会被破坏。因此必须有激励机制:奖励诚实参与,惩罚作恶或撒谎,把“合作”设计成理性的最优策略,把“叛徒”的成本最大化。这样,才能在拜占庭环境中确保多数人理性地选择合作。 事实上,今天的币圈乱象,就是因为这个三角缺了“义”,“利”的设计也有缺陷。 账本层面,交易不可篡改、状态全网一致,这是区块链最强大的能力,所以几乎没人能篡改以太坊的账本,“真”已经被保证了。但因为缺乏意义的锚定,激励设计被投机利用:短期投机者只需炒作叙事,就能在“泡沫—崩盘”的周期中套利,而作恶的代价往往不会在链上结算,最终由投资者埋单。合作(长期建设)并不是唯一的理性最优,投机/欺骗也能带来快钱。这样一来,合作(长期建设)就不再是唯一的理性选择,投机与欺骗反而成了获利的快路。多少所谓的“大佬”是走的这条路线呢? 明显博弈游戏没设计好,被钻空子了。 这些数字资产究竟“意味着什么”,没有统一的语义层:一个 ERC-20 代币,到底是股权、通证、治理票、还是单纯的空气币? 一个 NFT,到底是艺术品、门票、数字凭证,还是炒作的 JPEG? 缺乏对“意义”的共识,导致任何人都可以赋予任意叙事。 “这是下一个比特币!” “这是元宇宙地产!” “这是 DeFi 2.0 革命!” 于是,账本层的“真”保障,反而被用来给虚假的“义”背书。 人类的意义之海 在“真–义–利”三角中,意义(义)是最抽象、最难形成共识的部分。相较之下,真和利要具体得多。 “真”比较明确。区块链层面的“真”就是:一笔交易是否发生?一个区块是否被确认?数据有没有被篡改?这些问题都是形式化的、可验证的,因此相对清晰。 “利”虽然复杂,但依然可以度量。利益可以通过收益、成本和博弈模型来衡量:诚实出块能获得奖励,作恶会被罚没质押。换句话说,行为动机终究可以转化为量化的指标。 真正最难的是“义”。意义牵涉到价值观、叙事和信任感,它超出了数学与算法的范畴。比如,同一个代币,有人把它看作投机泡沫,有人却视为数字主权;同一个 NFT,有人觉得只是头像,有人认为是艺术品,也有人觉得只是空气。义不是链上代码能够保证的,而是人类赋予的象征和解释。一旦缺乏统一的“义”,就会出现共识漂移:叙事一旦更换,资产的价格与社群的意义瞬间翻转。 然而,正是“义”决定了系统的长远价值。“真”可以防篡改,“利”可以调动行为,但只有“义”能让人持续参与并进行长期建设。比特币的真正力量不仅在于 PoW 的安全性,而在于“数字黄金”这一意义共识;以太坊的真正力量也不只在于智能合约,而在于“世界计算机”这一叙事。没有义,系统只会沦为逐利的博弈;有了义,才会孕育真正的生态。 理工精神 工业时代的理工精神,已经把原来看似无法处理的“真”与“利”处理得相当完善,这是工业社会最重要的遗产——真与利的极致运用。 科学与工程追求可验证的真理,提供了“真”的保障;资本与市场则把行为激励形式化为价格、成本与收益,精确调动了“利”的逻辑。过去几百年的工业文明,本质上就是在“真–利”双核驱动下高速发展。然而在这一过程中,意义(义)被边缘化:宗教退场,叙事碎裂,语言共识逐渐瓦解。 也因此,当代社会的许多乱象(币圈投机、政治极化、价值漂移)都源于“义”的真空。我们可以保证数据的真实(真),也能设计博弈激励机制(利),但我们无法稳定地锚定意义。人类正在进入一个“后叙事时代”:语言和价值变得高度可操纵,却难以形成共识。 然而此时,天降大语言模型。 能否借助 LLM 这种黑箱语义引擎,把最抽象、最难锚定的“义”也外包给技术系统,让它来生成、压缩和调度?这正是我想研究的课题。 LLM 的潜在角色,可以被视为意义的黑箱生成器。它并不能告诉我们“意义的终极答案”,但可以从海量文本中压缩共识模式,在多样意见之间提炼中间义项,并把碎片化的语言转化为结构化的叙事。它的本质是一种语义压缩黑箱:人类输入混乱的语言,模型就能输出一个相对一致的叙事框架。这不是“发现意义”,而是“生成可用的意义”。 由此,或许可以构建一个新的三层拜占庭解法:区块链管“真”,记录不可篡改的事实;博弈论管“利”,通过理性激励来约束行为;而LLM 管“义”,动态生成并压缩共识叙事。当三者结合,可能在信息过载与信任缺失的世界中,维持大规模群体的协作。

有见识的家长,都在创造条件让孩子玩游戏👇 查立先生是著名天使投资人, 太太是CS博士学霸 引导孩子玩游戏成为世界冠军+进藤校 https://t.co/WqEeAWAaBE

以下是关于 Gemini 2.5 不同套餐版本的使用额度: 免费版(Free) • Gemini 2.5 Pro:每天最多 5 个 提示词(Prompt) • 每天可生成最多 20 个 音频概览(Audio Overview) • 每天最多 100 张 图片生成 • Deep Research(深度研究):每天最多 5 份 报告 AI 专业版(AI Pro) • Gemini 2.5 Pro:每天最多 100 个 提示词 • 每天最多 1,000 张 图片生成 • 每天最多 3 个 视频生成 • Deep Research(深度研究):每天最多 20 份 报告 AI 超级版(AI Ultra) • Gemini 2.5 Pro:每天最多 500 个 提示词 • 每天最多 5 个 视频生成 • Deep Research(深度研究):每天最多 200 份 报告 • Deep Think(深度思考):每天最多 10 个 提示词 AI Studio • 特殊版本,目前尚未公开具体使用额度限制

今天去拜访了一位老板 不经感叹,做老板的不易,进进出出几千万生意,员工拍拍屁股可以全身而退大不了下一家,而自己一家一档都在眼前容不得半点闪失,我去的时候连装修都在自己盯着,忙起来好啊,总比喝西北风强。 如果是我,萃猫科技肯定要招一个会全栈开发,会配客户去商k喝酒,会拿下单子的全职保安队长。

回想自己第一次约炮被拒。 当年正是大一的自己,血气方刚的汉子,下了陌陌。 有个女士给我发了消息,本来聊了两天都挺好,结果人一问我年龄,发现是个弟中弟兄弟。 遂,杳无音信。如果换成现在?弟弟会不会很吃香?

目前大模型对我的三大作用:查询(Query / Search),创作(Creation / Generation) ,推理 / 演绎(Inference) 人机协作的三条轴线: 查询 = 信息接口 创作 = 表达接口 推理 = 思维接口 前面两项就不细说了,查询类似高级google. 面向 已知世界 的信息检索与解读。节省时间,跨学科聚合知识,并能用更清晰的语言框架组织答案。 编程也属于创作类。生成文本、图像、代码、设计稿,辅助写作与创意表达,面向 未知世界 的内容创造与风格变换。 这些都是基础功能。最有核心价值的其实是Inference, 昨天蓝色胖头鱼@chaojidigua 使用的是”推理这个词。推理或者演绎的确是中文最接近的翻译,但是我个人认为还是有点差距。我现在自己脑子里用的一直就是英文词Inference, 这个词对于学院派一定不陌生。 Inference 对我来说,是借助大模型去推进未知边界的一种方式,甚至是触及人类语言尚不可说的领域。它不仅仅是信息的堆砌,而是在复杂问题中展开逻辑推理、模式识别与跨域联想,帮助我在不确定的世界里进行判断、预测与决策支持。 一个推理的窗口非常的长。 通过它,我能够理清思路,探索新的假设,甚至模拟多条可能的路径。这也是我使用最频繁、最烧脑、最能激发全身细胞的功能。从表现上能看出,大模型在这方面也很“辛苦”,因为它常常用我自己的理论常识“忽悠”我。这个时候其实是他没算过来。陷入用对方的话去回应对方的问题的赵本山式忽悠循环。但正是在这种高密度文字的推理调用中,我看到了它对我而言的最大价值。

柴郡🔔|Crypto+AI Plus
特斯拉与三星签署了一项 165 亿美元的 AI 协议。 这笔交易的重点既不是芯片,也不是资金。 它真正决定的,是未来十年哪些 AI 公司能活下去,哪些会被淘汰。 接下来 10 年的 AI 发展趋势将会是这样:🧵 https://t.co/C1Hg5w2F6F
Est. 1.7K views for your reply