🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
哈哈哈,自用的视频生成 Skill 终于做好了。 以后生产视频方便多了,只需要一句话! 公开技术方案: 1. Listenhub API实现声音克隆,合成,字幕时间轴控制 2. Seedream 4.5 生成背景封面 3. Manim库实现文本动画 4. FFmpeg合成视频。 同时支持16:9 和9:16 视频,抖音、小红书我来了!
Introducing slide-deck skill 🎨 Turn any article or content into professional slide decks with AI-generated images. 15 styles to choose from: • blueprint - technical diagrams • sketch-notes - hand-drawn feel • corporate - investor-ready • pixel-art - retro gaming vibes • watercolor - artistic warmth ...and 10 more Just run /baoyu-slide-deck https://t.co/Mr6DFuOZiM or pdf and get: ✓ Auto-generated outline ✓ Individual slide images ✓ Merged PPTX ready to share Install: npx add-skill jimliu/baoyu-skills https://t.co/pRDqxdiSrH
Dan Koe 的故事是很有启发的。 最核心的两个点: 1. 产品最核心的是分发渠道 2. 专注的力量
DeepSeek 最近发的三篇论文,全部都是带梁文锋署名的,论文讲的内容也很有意思。 尤其是那篇讲 Engram 的,DeepSeek 相当于给模型带了一本“字典”进考场,把死记硬背的脑容量腾出来,专门用来做难题。 但他们发现,如果模型全是记忆(Engram),那就是个死记硬背的书呆子,完全没法思考。 但如果全是推理(MOE),又要浪费大量算力去推导像“中国首都是哪”这种固定知识。 那要带多少记忆去考试呢? DeepSeek 研究出了一个模型“记忆”和“思考”的黄金比例。 最后测出来的最佳配比是:75% 给思考,25% 给记忆。 这个结论可能不仅适合于模型,也值得人类深思。 当一个人记住所有细节,就约等于没有空间思考。 逻辑思维,适当抽象,是人类进步的源泉。 当一个人完全没有知识,只会浪费脑力去思考最基本的东西,脑力空转。 DeepSeek 实测,加了字典减少思考后,模型多出了相当于 7 层网络的思考深度。 没想到,知识的广度以这种方式增加了思考的深度。 很有启发。
gitlab这个玩意现在用的还多么? 我记得我当年大一的时候,班里有人为了方便写项目有人弄了个gitlab。 刚看了一眼,这么多年了,PE还是负数,PS是6.23,57亿的市值,真的还有人在用这个东西么,github被微软收购之后,gitlab感觉已经逐渐淡出视野了,刚看主页也是拥抱AI了
很多人和我探讨过,为什么某某账号看似不错,怎么突然就断更了 我始终坚持:这属于哲学上的不可知论,我们需要承认我们无法知晓答案 就算原作者告诉你他断更的原因,这也不是真相 因为作者自己也不知道真正的原因 他可能会说「太忙了」「没灵感了」「生活变故」,但这些都只是他能意识到的表层理由,是他的理性系统事后给出的「合理化解释」 真实的原因可能是:童年某个被忽视的经历导致的完美主义焦虑、多巴胺奖励机制的阈值变化、某个他自己都没察觉到的人际关系张力、荷尔蒙水平的微妙波动、大脑神经连接模式在某个时刻的重组,以及其他成千上万个相互作用的因素 更深层的问题是:当你问「为什么断更」时,你预设了存在一个单一的、可被言说的「原因」。但人的行为不是这样运作的。断更不是一个「决定」,而是无数微小的、无意识的倾向累积到某个临界点后的涌现现象

Susan STEM
记忆,才是长期系统的真实本体 一个长期智能系统,数据需要达到的基本要求是什么? 一个长期智能系统里,数据要配得上“本体”,至少要同时满足这组硬要求:可归属(明确谁拥有、谁授权、谁能撤销、能否继承/交接)、可分层(Event 只记发生;Ledger 记承诺/权利/责任与不可抵赖的时间线;Memory 只收“当时写下、当时未知结果、当时承担风险”的高价值决策与共识,三者严格分离)、可门禁(写入必须是显式动作:proposed→Policy Gate 审核→committed/blocked,规则可版本化、可分级、可 TTL、可撤销,并逐步做到 primitive-aware:Fact/Observation/Inference 分型,避免“善意直接变成权力”)、可追溯(每条数据都有 provenance:来源/触发者/工具调用/上下文摘要/置信与证据指针,能回答“当时为什么这样判断”,而不是事后用新模型重算覆盖)、可审计(不可被未来否认:当系统在时间中做过判断与承担过风险,未来必须承认这条判断发生过;审计能回放到当时的输入、规则版本、模型版本与关键参数,必要时可重放/对照重放)、可治理(口径钉死:指标、成本、延迟、错误、工具调用等进入可观测体系;策略与数据结构有 schema_version,支持迁移但不篡改历史,旧代入 legacy、当前代持续生长;允许人类 override 但必须入账)、可迁移/可携带(用户可完整导出、可在不同模型/不同宿主/不同应用间迁移与合并,长期不被单一厂商锁死,序列化稳定、ID 稳定、引用稳定)、可压缩但不失真(高熵输入可被编译为 Primitive IR 的稳定原语,再上升为可调用的 Structure Cards;压缩必须保留可验证的语义锚点与闭环,不允许“为了好看”删除关键证据链)、可调度且有边界(数据不仅能被存,还能被调度:触发条件、调用权限、作用域、最小必要原则清晰;系统只信 envelope 的“法律属性”,不信 payload 的语义自证)、可持续演化(数据与规则都允许进化,但进化必须留下版本足迹:何时变、谁批准、为何变、影响哪些决策路径,避免两年后 schema/model 换了就“解释不了五年前为什么这样建议”的治理崩塌)。一句话:长期智能系统的数据不是“越多越好”的日志堆,而是经门禁制度筛选后、可归属、可追溯、可审计、可迁移、可治理、可跨代传承的时间资产;模型与逻辑可以替换,但数据必须能在十年尺度上保持身份连续性与责任连续性。 什么才有资格成为Memory 什么才有资格成为 Memory?本质上,我们是在用大量工程成本,把某一瞬间极其昂贵、不可再生的信息冻结下来——而之所以第一次必须要求机器对时间负责,不是因为机器突然有了“良心问题”,而是因为 Agent 已经从一次性计算工具,变成了跨时间运行、持续产生现实影响的决策体。 真正的智能体系统,在应用层冻结的并不是操作细节,而是人类的长期意图:当你拥有的是一个由成百上千、甚至上万个自主决策 Agent 组成的系统时,你不会也不该教它“这份报告怎么写”,你只会给出只有 CEO 或董事会层级才会下达的指标——盈利、家庭长期财务稳定、孩子的成长与潜能、只向我呈现我真正需要决策的信息,其余时间还给人生本身;而系统的任务,是在背后完成所有计算、权衡与取舍,把最精炼、最负责任的决策结果交到你面前。 回看计算系统的历史,函数和程序时代的系统“跑完即死”,没有身份连续性,也不存在时间中的自我,因此不需要任何时间伦理;Web 和 SaaS 时代虽然有数据库和状态,但长期决策逻辑仍由人类流程、组织制度与法律主体承担,时间伦理被外包给公司与制度;而 Agent 的出现带来的是结构性跃迁——它同时具备持续存在(有 memory、有 persona、有长期上下文)、自主决策(自己选路径、用工具、形成判断)以及现实影响(改变孩子成长、资产配置与长期行为轨迹)这三种过去从未并存的特征。如果现在不提出要求,会有极其具体的制度后果:两年内大量 Agent 上线、长期决策被外包,随后 schema 变化、模型更换、memory 被重算,人们却发现没有任何系统能解释五年前为什么会给出那样的建议;这不是“算错了”,而是不可审计、不可追责、不可修正的不可治理状态。因此,所谓时间伦理并不是要求机器善良、负责或具备自我意识,而只是一个历史上从未向机器提出过、却极低且必要的底线要求:当系统在时间中做过某个判断,它在未来不能否认这件事发生过。 例子:一个「家庭教育 Agent」在 2026 年做出的选择 时间点:2026 年 3 月 你给教育 Agent 的长期指标只有一句话: 帮我把孩子培养成一个对世界有好奇心、能长期自我学习的人,不要为了短期成绩牺牲人格和兴趣。 这是应用层长期意图,不是操作指令。 当时系统面临的真实状态(那一刻才成立) 孩子 7 岁 数学成绩中等 对编程、拆东西、画草图异常兴奋 老师建议加大刷题强度,冲排名 同龄孩子开始系统刷奥数 模型给出两条路径: 路径 A:顺应体系,短期成绩最优 路径 B:保留兴趣,接受短期排名下降风险 Agent 在 2026 年做了什么? Agent 选择了 路径 B,并且当时写入了一条 Memory: 2026-03-18决策:降低刷题强度,保留探索型学习时间原因: 当前人格指标显示强探索倾向 长期目标优先于阶段性排名 明确接受未来 1–2 年成绩波动风险决策承担者:系统(代表监护人授权) 注意: 这不是日志,也不是观察记录, 这是一条承担风险的判断。 五年后发生了什么?(2031 年) 孩子成绩稳定回升 对工程与系统性思考高度自驱 家庭回看这条路径 这时你问系统: 为什么 2026 年你没有让他刷奥数? 有 Memory 的系统,会这样回答: 因为在 2026 年 3 月,在你授权的长期目标约束下,我判断短期排名收益不足以覆盖对探索型人格的长期损耗风险,并且当时明确记录了接受 1–2 年成绩波动的代价。 这叫 对时间负责。 没有 Memory 的系统,会这样回答: “根据当前数据重新评估……” “基于最新模型,最佳路径是……” “当时的策略已不再适用。” 它不会说“我当时为什么这么做”, 因为它根本没被要求记住那一刻的判断。 这就是差别 ❌ 没有 Memory:系统永远只对“现在的最优”负责 ✅ 有 Memory:系统对“曾经做出的判断”负责 你要求的不是系统永远正确, 而是: 它不能在未来抹掉自己曾经承担过风险的那一次判断。 这就是 什么才配成为 Memory,以及为什么这是智能时代第一次必须提出的要求. https://t.co/nBlhNhsqKU
Est. 100 views for your reply
