SoPilotSoPilot

🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

Li Xiangyu 香鱼🐬
20.5Kfo
Li Xiangyu 香鱼🐬@XianyuLi· 4h ago发布

什么是信息差套利? 我今天查到了一个数据库 专门统计生物医药方面 专利情况,临床实验的 个人会员16800一年 高级会员60w一年 我认识的比较senior的临床研究者 几乎人手一个。

132
6
25
35.7K
Data updated 57m ago
Viral Probability
100%
Predicted Views
436.0K
Est. 1.5K views for your reply
Jackywine
29.8Kfo
Jackywine@Jackywine· 5h ago发布

这一篇不错,基本上把 Claude Code 背后的 Agent、SubA、上下文等等内容都讲清楚了,值得收藏细看

87
22
0
13.3K
Data updated 57m ago
Viral Probability
69%
Predicted Views
48.0K
Est. 3.5K views for your reply
向阳乔木
80.5Kfo
向阳乔木@vista8· 6h ago发布

哈哈哈,自用的视频生成 Skill 终于做好了。 以后生产视频方便多了,只需要一句话! 公开技术方案: 1. Listenhub API实现声音克隆,合成,字幕时间轴控制 2. Seedream 4.5 生成背景封面 3. Manim库实现文本动画 4. FFmpeg合成视频。 同时支持16:9 和9:16 视频,抖音、小红书我来了!

356
69
40
36.7K
Data updated 57m ago
Viral Probability
100%
Predicted Views
264.0K
Est. 600 views for your reply
宝玉
169.0Kfo
宝玉@dotey· 6h ago发布

Introducing slide-deck skill 🎨 Turn any article or content into professional slide decks with AI-generated images. 15 styles to choose from: • blueprint - technical diagrams • sketch-notes - hand-drawn feel • corporate - investor-ready • pixel-art - retro gaming vibes • watercolor - artistic warmth ...and 10 more Just run /baoyu-slide-deck https://t.co/Mr6DFuOZiM or pdf and get: ✓ Auto-generated outline ✓ Individual slide images ✓ Merged PPTX ready to share Install: npx add-skill jimliu/baoyu-skills https://t.co/pRDqxdiSrH

146
29
27
12.2K
Data updated 57m ago
Viral Probability
86%
Predicted Views
59.0K
Est. 200 views for your reply
Orange AI
150.7Kfo
Orange AI@oran_ge· 6h ago发布

Dan Koe 的故事是很有启发的。 最核心的两个点: 1. 产品最核心的是分发渠道 2. 专注的力量

58
5
3
28.5K
Data updated 57m ago
Viral Probability
56%
Predicted Views
128.0K
Est. 10.0K views for your reply
Orange AI
150.7Kfo
Orange AI@oran_ge· 6h ago发布

DeepSeek 最近发的三篇论文,全部都是带梁文锋署名的,论文讲的内容也很有意思。 尤其是那篇讲 Engram 的,DeepSeek 相当于给模型带了一本“字典”进考场,把死记硬背的脑容量腾出来,专门用来做难题。 但他们发现,如果模型全是记忆(Engram),那就是个死记硬背的书呆子,完全没法思考。 但如果全是推理(MOE),又要浪费大量算力去推导像“中国首都是哪”这种固定知识。 那要带多少记忆去考试呢? DeepSeek 研究出了一个模型“记忆”和“思考”的黄金比例。 最后测出来的最佳配比是:75% 给思考,25% 给记忆。 这个结论可能不仅适合于模型,也值得人类深思。 当一个人记住所有细节,就约等于没有空间思考。 逻辑思维,适当抽象,是人类进步的源泉。 当一个人完全没有知识,只会浪费脑力去思考最基本的东西,脑力空转。 DeepSeek 实测,加了字典减少思考后,模型多出了相当于 7 层网络的思考深度。 没想到,知识的广度以这种方式增加了思考的深度。 很有启发。

218
22
27
32.5K
Data updated 57m ago
Viral Probability
100%
Predicted Views
244.0K
Est. 800 views for your reply
Bear Liu
111.5Kfo
Bear Liu@bearliu· 7h ago发布

人类工业文明的顶峰,NASA。 https://t.co/iegvu68zGd

49
0
7
8.6K
Data updated 57m ago
Viral Probability
56%
Predicted Views
22.0K
Est. 200 views for your reply
underwood
12.3Kfo
underwood@underwoodxie96· 8h ago发布

Z-image A face-focused snapshot of a 20-year-old young woman who looks extremely cute and baby-faced, with cute, innocent downturned eyes and slightly droopy lower lids. She has deep chestnut-brown forest-core hair, cascading naturally with a soft glossy sheen. Porcelain-white skin. Wearing a random Lolita outfit, sweet and innocent, with minimalist jewelry. She shows a slight pout, a cute and playful, coy micro-expression that feels delicate and vulnerable. High exposure, low saturation, dark-toned quiet room atmosphere with a lazy, tranquil vibe. Plain, unremarkable composition, like a casual candid phone photo. Bright silver large hoop earrings and a necklace, shiny silver rings, a bracelet, and glossy jet-black nail polish.

62
3
6
1.6K
Data updated 57m ago
Viral Probability
60%
Predicted Views
4.0K
Est. 100 views for your reply
徐冲浪
122.3Kfo
徐冲浪@cyrilxuq· 13h ago发布

gitlab这个玩意现在用的还多么? 我记得我当年大一的时候,班里有人为了方便写项目有人弄了个gitlab。 刚看了一眼,这么多年了,PE还是负数,PS是6.23,57亿的市值,真的还有人在用这个东西么,github被微软收购之后,gitlab感觉已经逐渐淡出视野了,刚看主页也是拥抱AI了

45
0
25
22.9K
Data updated 57m ago
Viral Probability
57%
Predicted Views
32.0K
Est. 100 views for your reply
Lexi 勒西
11.9Kfo
Lexi 勒西@LexiCoding· 13h ago发布

天天在推上,等老马两周发一次低保,这不还是工资思维吗? 跟上班有什么区别?

20
0
22
3.6K
Data updated 4h ago
Viral Probability
48%
Predicted Views
8.0K
Est. 100 views for your reply
dontbesilent
61.7Kfo
dontbesilent@dontbesilent12· 14h ago发布

很多人和我探讨过,为什么某某账号看似不错,怎么突然就断更了 我始终坚持:这属于哲学上的不可知论,我们需要承认我们无法知晓答案 就算原作者告诉你他断更的原因,这也不是真相 因为作者自己也不知道真正的原因 他可能会说「太忙了」「没灵感了」「生活变故」,但这些都只是他能意识到的表层理由,是他的理性系统事后给出的「合理化解释」 真实的原因可能是:童年某个被忽视的经历导致的完美主义焦虑、多巴胺奖励机制的阈值变化、某个他自己都没察觉到的人际关系张力、荷尔蒙水平的微妙波动、大脑神经连接模式在某个时刻的重组,以及其他成千上万个相互作用的因素 更深层的问题是:当你问「为什么断更」时,你预设了存在一个单一的、可被言说的「原因」。但人的行为不是这样运作的。断更不是一个「决定」,而是无数微小的、无意识的倾向累积到某个临界点后的涌现现象

53
4
14
7.2K
Data updated 57m ago
Viral Probability
60%
Predicted Views
10.0K
Est. 100 views for your reply
向阳乔木

向阳乔木

@vista8· 71.0K followers

相信很多人都翻译或总结AK的2025总结了。 为自己学习,再重写排版一遍,推荐看原文。 --- Andrej Karpathy 写了篇 2025 年 LLM 回顾,列了六个他觉得"改变格局"的事。 1. 强化学习找到了新玩法 以前训练大模型,就三步: ① 预训练(2020 年的 GPT-2/3 那套) ② 监督微调(2022 年的 InstructGPT) ④ 人类反馈强化学习(RLHF,也是 2022 年)。 这个配方稳定了好几年。 2025 年多了第四步,RLVR(可验证奖励强化学习)。 让模型去解数学题、写代码这类有标准答案的问题,它会自己摸索出"推理"的策略。 会把问题拆成小步骤,会来回试错,会自己找到适合自己的方法。 这些策略在之前的训练方式里很难教,因为你不知道什么样的推理路径对模型来说是最优的,只能让它自己通过奖励优化去发现。 关键的变化是计算资源的分配。 之前的监督微调和 RLHF 都是"薄薄一层",计算量不大。 但 RLVR 可以训练很久,因为奖励函数是客观的,不会被钻空子。 结果就是,原本用来预训练的算力,被 RLVR 吃掉了。 所以 2025 年,模型大小没怎么变,但强化学习的时间大幅延长。 而且多了一个新的控制旋钮:测试时计算量。 你可以让模型生成更长的推理过程,增加"思考时间",来提升能力。 OpenAI 的 o1(2024 年底)是第一个 RLVR 模型。 但 o3(2025 年初)才是真正的拐点,你能直观感受到差异。 2. 我们在召唤幽灵,不是养动物 2025 年,Karpathy 说他开始更直观地理解大模型智能的"形状"了。 他用了一个很有意思的比喻:我们不是在进化动物,是在召唤幽灵。 大模型的一切都不一样,神经网络架构、训练数据、训练算法,尤其是优化压力。 人类的智能是为了在丛林里生存优化的。 但大模型的智能,是为了模仿人类文本、在数学题里拿奖励、在 LLM 竞技场上获得人类点赞优化的。 所以它们表现出来的能力,特别不均匀,像锯齿一样。 在可验证的领域(比如数学、代码),因为可以用 RLVR 训练,模型的能力会"爆发"。 但同时,它也可能是个困惑的小学生,随时被一个越狱攻击骗走你的数据。 Karpathy 说,人类的智能其实也是锯齿状的,只是形状不一样。 他对评测基准失去了信任。 核心问题是,基准测试几乎都是可验证的环境,所以立刻就会被 RLVR 和合成数据生成盯上。 实验室的团队会在基准测试占据的嵌入空间附近,构建训练环境,长出锯齿来覆盖它们。 在测试集上训练,已经成了一门新的艺术形式。(讽刺?) 他还问了一个很扎心的问题:如果在所有基准测试上都拿了高分,但还是没实现 AGI,那会是什么样子? 3. Cursor 让大家看到了应用层 Cursor 今年火得很快,但 Karpathy 觉得更重要的是,它让人看到了"LLM 应用"这个新层次。 人们开始说"Cursor for X"。 Cursor 这类应用做的事情,不只是调一次大模型: ① 做上下文工程 ② 在后台把多个大模型调用串成越来越复杂的 DAG(有向无环图),平衡性能和成本 ③ 给用户提供一个针对特定应用的界面 ④ 提供一个"自主滑动条",让你控制它的自由度 2025 年有很多讨论,这个应用层到底有多"厚"。 大模型实验室会不会把所有应用都吃掉?还是 LLM 应用有自己的生存空间? Karpathy 的看法是: 大模型实验室会培养出"能力不错的大学生"。 但 LLM 应用会把这些大学生组织起来,通过提供私有数据、传感器、执行器和反馈循环,把它们变成特定领域的专业团队。 4. Claude Code 让 AI 住进了你的电脑 Claude Code 是 2025 年第一个让人信服的"智能体"。 它会循环地使用工具和推理,解决复杂问题。 但更重要的是,它跑在你的电脑上,用你的私有环境、数据和上下文。 Karpathy 觉得 OpenAI 搞错了方向。 他们把 Codex 和智能体的精力,都放在从 ChatGPT 编排的云端容器上,而不是 localhost。 虽然云端智能体群听起来像"AGI 的终极形态",但我们现在生活在一个能力发展不均匀、进展缓慢的中间世界。 在这个阶段,让智能体直接在电脑上和开发者并肩工作,更合理。 Claude Code 把这个做成了一个简洁、优雅的命令行工具,改变了 AI 的样子。 它不再只是一个你要去访问的网站(像 Google 那样),而是一个"住"在你电脑上的小精灵、小幽灵。 这是一种和 AI 互动的新范式。 5. Vibe Coding 让编程变成了所有人的事 2025 年,AI 跨过了一个能力门槛。 你可以用英语描述,就能做出各种复杂的程序,甚至不用管代码长什么样。 Karpathy 在一条推文里随口说了"Vibe Coding"这个词,没想到它传得这么远。 Vibe Coding 让编程不再是专业人士的专利,任何人都可以做。 但更重要的是,它让专业人士也能写更多原本不会写的软件。 Karpathy 举了自己的例子。 他在 nanochat 项目里,用 Rust 写了个高效的 BPE 分词器,但他根本不懂那个级别的 Rust,全靠 Vibe Coding。 他还做了很多快速演示项目(menugen、llm-council、reader3、HN time capsule),甚至做了一些一次性的程序,就为了找一个 bug。 代码突然变得免费、短暂、可塑、用完就扔。 Vibe Coding 会改变软件的样子,也会改变工作的定义。 Karpathy 还提到了他之前写的文章《赋权于民:LLMs 如何颠覆技术扩散》。 和之前所有技术不同,普通人从大模型中获得的利益,远超专业人士、企业和政府。 6. Nano Banana 是大模型的 GUI Google 的 Gemini Nano Banana 是 2025 年最让人惊讶的模型之一。 Karpathy 觉得,大模型是下一个主要的计算范式,就像 1970、80 年代的计算机一样。 所以我们会看到类似的创新,原因也类似。 会有个人计算的等价物,会有微控制器(认知核心)的等价物,会有互联网(智能体网络)的等价物。 在交互界面上,和大模型"聊天",就像 1980 年代在控制台输命令。 文本是计算机和大模型喜欢的原始格式,但不是人喜欢的。 人其实不爱读文字,太慢太累。 人喜欢视觉化、空间化的信息,所以传统计算机发明了 GUI。 大模型也应该用我们喜欢的格式说话:图像、信息图、幻灯片、白板、动画、视频、网页应用。 早期版本是 emoji 和 Markdown,它们是"装饰"文本的方式,用标题、粗体、斜体、列表、表格让信息更容易消化。 但谁会真正构建大模型的 GUI? Nano Banana 是一个早期的提示。 重要的是,它不只是生成图像,而是把文本生成、图像生成和世界知识,都缠在模型权重里,形成联合能力。 最后的话 Karpathy 说,2025 年的大模型,既比他预期的聪明很多,又比他预期的笨很多。 但它们非常有用,行业连它们 10% 的潜力都还没挖出来。 有太多想法可以试,这个领域在概念上还很开放。 他在今年的 Dwarkesh 播客里说过一句话,我觉得很有意思:他同时相信两件看起来矛盾的事,我们会看到快速且持续的进步,但同时还有大量工作要做。 坐稳了。

43
10
2
9.2K
Posted 28d ago · Data updated 27d ago
Reply Suggestion

Est. 300 views for your reply