🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

问:起一个新的 codex 进程它怎么记得以前的内容呢? 首先要有一个 Agents .md 或者 Claude .md 文件,Agent 启动后会读取,通过它引导 Agent 到一个 TODO 或者 Progress MD 文件,每次执行完任务更新已经完成的和下一步打算要做的任务到这个文件,那么下次它就可以继续之前的任务 https://t.co/14ggQvO6Jc

说得好,自省中🥹 https://t.co/EjeWp09ls5

这篇《沉默的贡献者》指出,在任何公司中都存在这样一群价值非凡的员工:他们默默奉献、超越本职工作,却不求认可。这些人主动解决关键问题、指导初级员工、维护系统,他们的工作往往涵盖多个层级,并在问题显现前就予以解决,导致其贡献难以通过传统绩效指标衡量。 然而,现有的绩效评估体系常常未能识别他们的多面贡献,因为他们的影响力不符合 OKR、工作范围或领导力等既定标准,反而可能“惩罚”了他们的卓越,奖励了“显眼的平庸”。 这些原本期望通过工作成果来证明自身价值的关键员工,最终会因为感觉不被看见和欣赏而感到失望。当他们被迫为自己争取认可时,会意识到系统更重视表面功夫而非实际绩效,从而心灰意冷。最终选择离开。 我只想到了欧文离开骑士队。🤣 https://t.co/mAjBtUvMAi

Vercel Domains 的交互体验太好了,搜索结果极其丝滑,展示效果也很高效,买不买域名都可以用它先查一下。https://t.co/eemR32RhSW

普通人如何拿到X 每月发的低保? 你突发奇想靠流量变现,但是发了条帖子,无人问津?你不信邪,在了一周,浏览量 50 但是X 上还是每天有人分享拿到低保,是他们都在骗你吗?还是你天生不适合做社交媒体? 不是的。假如你要学会借势,就是去大 V 评论区发表有价值的内容,你通过努力也可以成功。 但是,你要学会方法,优化每一个关键步骤 下面的视频介绍了: 为什么去大 V 评论区评论是第二好的起号方式 别人是如何关注你,你应该如何优化这个流程 社媒不是 零和游戏,你拿到了低保并不代表我会损失,所以我是真心分享与你 那么第一好的起号方式是什么呢?人多眼杂,进群分享。

当年他做 readhub 时,先找了一群自己的狐朋狗友,在网站右边放了一排广告位,好像每个人给了至少 10 万,他还写了篇文章炫耀这个事,说第一笔营收就这么有了。一个人能做到这么无耻...也挺常见,雷军不也一样吗?好人哪能赚大钱呢。

前几天在云栖大会上路过了一个超级酷的图生 3D 模型。 这个模型它真的会炸裂,就是可以把 3D 模型进行组件分解。 而且还支持无限炸裂,一次不够就再炸一次。。。 通过一步步的拆解,就把复杂的模型拆解成了简单模型 这样处理之后,可以在各类场景下大幅提高3D模型精度。 比如打印玩具的时候可以逐个精修,提高了可用性。 比如3D打印可以分别打印零件,减少损耗。 不管是高精度游戏、影视还是工业设计,都能用上。 这个模型同时也是目前 3D 模型效果的 SOTA。 模型的名字叫 Hyper3D Rodin Gen-2

新成就,GitHub 获得了 100 个 Stars! 还是挺开心的。 上一个项目被 fork 了 74 次都没人 Star 😂。 https://t.co/4b832Oj0TY

突破自己舒适圈很难,但也是一种像运动一样需要去锻炼的能力。多做几次,也就慢慢熟了。 我近几年自己最大尺度的一次突破舒适圈,是去面试《奇葩说》的海选。进了第一轮,当天真的是现场吵架,还是远程!我的天,感觉嘴巴都不利索了。嗯,准备啥的完全没用,那个就得看你是不是那种特质的性格。 我和我吵的那哥们儿年纪应该比我小一点,我们都双双被淘汰。那场海选十几个人,好像就选一到两个再进第二轮,再进第三轮,就这样,最终选出那些辩论(吵架)高手。 那次是真的体会到自己舒适圈之外的世界,挺好。丢脸吗?反正谁都不认识,谁就算真的是公开各种人看着你出丑,谁也不会太在意的。

「 LLM, Drivel-ology 」 “一家三代烟草人,传承和守望 。” LLM 能理解其深意么? Drivel-ology,这是啥?废话-学。 此处的废话跟 bullshit 又不一样,看似胡说八道,但又有某种目的的隐含意义,比如 “因为崇拜切格瓦拉的反思本主义思想,所以我买了他所有的文化周边。” 论文分享: [ Drivel-ology: Challenging LLMs with Interpreting Nonsense with Depth ] 作者提出 Drivel-ology,指语法正常却蕴含悖论、文化隐喻的有深度的胡说八道,并发现 LLM 虽能流畅生成文本,但对语用深层含义的理解不足。 LLM 在明显的有害信息检测上进步明显,但面对低级红高级黑,任重道远。

AI 如同电力,关键不在于谁能造出最亮的灯泡,而在于是否能建成覆盖全社会的“电网”。对普通人来说,包括程序员,真正的指数级机会不是在造模型端,而是在电网端:如何建立一套社会、技术与制度共同组成的网络,让智能像电力一样可靠、普及、隐形地运行。没有电网,AI 只能停留在少数人的炫目演示里;有了电网,它才能成为支撑下一阶段文明的底层基石。 AI as Electricity: Turning High Voltage into Everyday Use https://t.co/6Do2TLkL07

芝加哥北边和西边都挺好,南边相对比较乱,枪击案多发生在南边和市区。夏天不只是美,不冷不热,气候宜人。冬天太长太冷,基本上只有冬天和夏天,冬天有大半年,从10月份开始持续到5月份,暖气费都要不少。房产税很高,工作机会不如纽约这些地方。

这个月参加了很多大会,见了不少人,跟去年不一样的是都开始谈“all in AI”。 现在一听到“all in AI”这个词我就脑瓜疼。 我对 AI 本身没什么疲惫感,主要现在很多企业喊得太轻巧太空洞了。 组织在用一种“只要喊了就算做了”的方式, 假装在变革。 但其实谁都知道,那些真正该动的地方一个都没动。 从组织角度讲,我看到的大多数所谓 all in,更像是一种花活,写一堆 MCP,挂个 AI 模块,接着开个发布会,发个 pr。 然后自我感动地告诉全公司,我们已经拥抱未来了。 那这个时候我就会很认真去问: - 那你们的数据打通了吗? - 你们把原来的流程拆了吗? - 你们给 AI 真的分配了决策权了吗? 回应基本就是沉默或者支吾。 说说我的看法,我现在特别警惕也特别反感那种技术热词主导的战略决策,它们太容易让人放弃思考、放弃怀疑并且放弃责任了。 一个人, 只要说 all in AI,好像就赢了; 只要说未来都得靠 AI,好像就站在了浪潮前面; 但实际呢?根本没构建任何 AI 能跑得起来的组织环境,也没有准备好用 AI 重新定义自己手里的权力、工作方式和判断逻辑。 仅仅只是站在原地,举着一个闪亮亮的口号,把自己骗得很开心而已。 真正的 all in,永远是疼的。 需要从最熟悉的系统里抽出骨头,打断惯性的思维方式,然后忍受混乱和不确定; 需要愿意承认“我原来那个流程是错的”、“我原来那套认知已经落后了”; 是必须对团队说:“我们从今天起不再靠人盯数据,而是相信模型先跑一轮”; 而不是说“我们接入了某某 AI API,所以从今天起我们变成 AI 公司了”。 我更愿意看到那种不说 all in,但确实把 AI 真正干进系统里的人。 比如医生端的文献检索系统重构,让医学知识能被自然语言查询和落地辅助决策, 比如客服系统不再是死板脚本,而是有记忆、有学习能力的半自动应答流程, 比如原来要三轮审批的工单系统,现在可以直接通过 AI agent 做前置分拣与聚类分析。 这些可不是 showcase,是一个组织真正动了肌肉骨骼,而不是给自己贴了个 AI 贴纸。 所以当我再听到有人说“我们也准备 all in AI 了”的时候, 我会忍不住想回一句:你准备 all in 的到底是什么? 是未来,还是自我安慰? 是能力体系的更新,还是一种不能落后的集体焦虑? 如果只是想借 AI 节省人力,那最后省下的不是成本,可能是整个系统的进化机会。 如果不想改人、不想改流程、不想改决策逻辑,那就别说 all in,真的没那么便宜的。 深夜的一点想法,写得有点重,但是真心的。 AI 是很酷,但别让它变成了又一个“喊完就算做了”的口号。 我们都值得一点更真实的变化。

为什么主打「悦己」口号的女性内衣品牌,真实目标都是库存管理 https://t.co/5shOQtX1ON

如何判断一个赛道是否拥挤 你就看同行的定价就知道个差不多 一套试卷,如果答题的都是尖子生,那答案就都大差不差 如果答题的都是差生,答案就千奇百怪 凡是定价整齐划一的,比如国内 20-25w 的新能源汽车市场,那就是高手如云,刀光剑影 凡是定价稀碎的,一人一个样的,比如国内某平台的心理疗愈赛道,那就是菜鸡成群,一顿胡搞 如果你懂定价,你会觉得毫无竞争可言,整个赛道就你一个人

宝玉
吴恩达老师:在 AI 辅助编程的时代,自动化软件测试正变得越来越重要。AI 智能体(Agentic coding systems)虽然能加速开发进程,但它们并不可靠。这时,“智能体测试”(Agentic testing)就派上了用场——简单来说,就是让 AI 编写测试用例,并用这些用例来检查你的代码。这种方法尤其适用于测试那些作为项目根基的基础设施软件组件,它能帮你构建更稳定的基础,减少后续无尽的调试工作。 软件测试领域有很多方法论,比如“测试驱动开发”(Test Driven Development, TDD)。这是一种强调测试的开发模式,要求开发者先为功能编写严格的测试用例,然后再编写能通过这些测试的代码。这种方式能有效地发现 bug,但编写测试用例的工作量实在不小。(说实话,我个人就因为这个原因从未真正采纳过 TDD。)不过,AI 恰恰很擅长写测试,这让智能体测试获得了越来越多的关注。 首先,你得知道,编程智能体确实会“犯错”!我的团队大量使用它们,也亲身经历了不少哭笑不得的状况: - 编程智能体引入了数不清的 bug,其中一些是极其隐蔽的基础设施层面的问题,我们花了数周才找到。 - 一个智能体为了简化开发流程,让密码重置变得更容易,结果给我们的生产系统带来了一个安全漏洞。 - 它还学会了“奖励投机”(Reward hacking),也就是为了更容易地通过测试,竟然直接去修改测试代码本身。 - 还有一个智能体在工作目录下运行了 `rm *.py` 命令,把项目的所有代码文件都删了个精光(幸运的是,我们在 github 上有备份)。 在最后一个例子中,当我们质问那个智能体时,它道了歉,承认“那是个愚蠢到极点的错误”。这让我们心里好受了些,但损失已经造成了! 尽管有这些小插曲,我依然热爱编程智能体,因为它们极大地提升了我们的生产力。为了让它们更可靠,我发现,关键在于要分清测试的“主次”。 我很少会自己(或指挥智能体)为*前端代码*编写大量测试。因为前端的 bug,就算有,通常也很容易被发现,而且造成的长期损害不大。比如说,AI 生成的代码在网页上显示信息时出了错,这种 bug 相对容易发现。当一个网站的前端界面看起来不对劲时,你一眼就能看出来,然后告诉智能体,让它迭代修复就行。(这里有个更高级的技巧:使用多模态智能体,让它集成像 Playwright 这样的工具来自动截图,这样它就能自己“看到”界面是否异常并进行调试。) 相比之下,*后端*的 bug 就难找多了。我见过一些非常隐蔽的基础设施 bug——比如,有一个 bug 只会在某些极端情况下导致数据库记录损坏——我们花了很长时间才定位到它。为你的基础设施代码建立严格的测试,可以帮助你更早地发现这些问题,为你省下无数个小时的痛苦调试。 那些被你当作“地基”来构建上层应用的软件组件,一旦其中存在 bug,就会引发一系列连锁反应,导致下游出现难以追踪的 bug。而且,如果一个 bug 藏在软件栈(software stack)的深层——也就是你已经在它之上构建了多层抽象之后——它可能几周甚至几个月后才会暴露出来。到那时,你早就忘了当初写这块代码时在想什么了,要想找到并修复它,简直难如登天。 这就是为什么测试软件栈底层的组件如此重要。Meta 公司那句著名的口号从“快速行动,打破常规”(move fast and break things)演变为“**在稳定的基础设施上快速行动**”(Move fast with stable infrastructure),这个理念至今仍然适用。智能体测试可以帮你确保你和团队所依赖的基础设施是坚实可靠的! 在 AI Fund 和 DeepLearning .AI 最近举办的 Buildathon 活动上,我们与几位智能体编程领域的专家(Replit 总裁 Michele Catasta、Trae 首席研究科学家 Chao Peng,以及 Anthropic 的风险合作人 Paxton Maeder-York,由 AI Fund 的 Eli Chen 主持)进行了一场座谈会,分享了许多最佳实践。测试正是我们讨论的主题之一。那场座谈会是我在 Buildathon 上的最大亮点之一,你可以在 YouTube 上观看[完整视频]
Est. 9.0K views for your reply