SoPilotSoPilot

🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

向阳乔木
80.4Kfo
向阳乔木@vista8· 3h ago发布

哈哈哈,自用的视频生成 Skill 终于做好了。 以后生产视频方便多了,只需要一句话! 公开技术方案: 1. Listenhub API实现声音克隆,合成,字幕时间轴控制 2. Seedream 4.5 生成背景封面 3. Manim库实现文本动画 4. FFmpeg合成视频。 同时支持16:9 和9:16 视频,抖音、小红书我来了!

221
48
31
20.2K
Data updated 16m ago
Viral Probability
100%
Predicted Views
261.0K
Est. 800 views for your reply
宝玉
168.9Kfo
宝玉@dotey· 3h ago发布

Introducing slide-deck skill 🎨 Turn any article or content into professional slide decks with AI-generated images. 15 styles to choose from: • blueprint - technical diagrams • sketch-notes - hand-drawn feel • corporate - investor-ready • pixel-art - retro gaming vibes • watercolor - artistic warmth ...and 10 more Just run /baoyu-slide-deck https://t.co/Mr6DFuOZiM or pdf and get: ✓ Auto-generated outline ✓ Individual slide images ✓ Merged PPTX ready to share Install: npx add-skill jimliu/baoyu-skills https://t.co/pRDqxdiSrH

116
25
24
9.4K
Data updated 16m ago
Viral Probability
91%
Predicted Views
79.0K
Est. 300 views for your reply
Orange AI
150.7Kfo
Orange AI@oran_ge· 4h ago发布

Dan Koe 的故事是很有启发的。 最核心的两个点: 1. 产品最核心的是分发渠道 2. 专注的力量

47
3
3
22.1K
Data updated 16m ago
Viral Probability
100%
Predicted Views
306.0K
Est. 28.4K views for your reply
Orange AI
150.7Kfo
Orange AI@oran_ge· 4h ago发布

DeepSeek 最近发的三篇论文,全部都是带梁文锋署名的,论文讲的内容也很有意思。 尤其是那篇讲 Engram 的,DeepSeek 相当于给模型带了一本“字典”进考场,把死记硬背的脑容量腾出来,专门用来做难题。 但他们发现,如果模型全是记忆(Engram),那就是个死记硬背的书呆子,完全没法思考。 但如果全是推理(MOE),又要浪费大量算力去推导像“中国首都是哪”这种固定知识。 那要带多少记忆去考试呢? DeepSeek 研究出了一个模型“记忆”和“思考”的黄金比例。 最后测出来的最佳配比是:75% 给思考,25% 给记忆。 这个结论可能不仅适合于模型,也值得人类深思。 当一个人记住所有细节,就约等于没有空间思考。 逻辑思维,适当抽象,是人类进步的源泉。 当一个人完全没有知识,只会浪费脑力去思考最基本的东西,脑力空转。 DeepSeek 实测,加了字典减少思考后,模型多出了相当于 7 层网络的思考深度。 没想到,知识的广度以这种方式增加了思考的深度。 很有启发。

145
13
16
20.6K
Data updated 16m ago
Viral Probability
100%
Predicted Views
280.0K
Est. 1.5K views for your reply
徐冲浪
122.3Kfo
徐冲浪@cyrilxuq· 10h ago发布

gitlab这个玩意现在用的还多么? 我记得我当年大一的时候,班里有人为了方便写项目有人弄了个gitlab。 刚看了一眼,这么多年了,PE还是负数,PS是6.23,57亿的市值,真的还有人在用这个东西么,github被微软收购之后,gitlab感觉已经逐渐淡出视野了,刚看主页也是拥抱AI了

39
0
18
19.1K
Data updated 16m ago
Viral Probability
57%
Predicted Views
25.0K
Est. 100 views for your reply
Lexi 勒西
11.9Kfo
Lexi 勒西@LexiCoding· 11h ago发布

天天在推上,等老马两周发一次低保,这不还是工资思维吗? 跟上班有什么区别?

20
0
22
3.6K
Data updated 2h ago
Viral Probability
48%
Predicted Views
8.0K
Est. 100 views for your reply
dontbesilent
61.7Kfo
dontbesilent@dontbesilent12· 12h ago发布

很多人和我探讨过,为什么某某账号看似不错,怎么突然就断更了 我始终坚持:这属于哲学上的不可知论,我们需要承认我们无法知晓答案 就算原作者告诉你他断更的原因,这也不是真相 因为作者自己也不知道真正的原因 他可能会说「太忙了」「没灵感了」「生活变故」,但这些都只是他能意识到的表层理由,是他的理性系统事后给出的「合理化解释」 真实的原因可能是:童年某个被忽视的经历导致的完美主义焦虑、多巴胺奖励机制的阈值变化、某个他自己都没察觉到的人际关系张力、荷尔蒙水平的微妙波动、大脑神经连接模式在某个时刻的重组,以及其他成千上万个相互作用的因素 更深层的问题是:当你问「为什么断更」时,你预设了存在一个单一的、可被言说的「原因」。但人的行为不是这样运作的。断更不是一个「决定」,而是无数微小的、无意识的倾向累积到某个临界点后的涌现现象

39
4
12
5.0K
Data updated 2h ago
Viral Probability
63%
Predicted Views
7.0K
Est. 100 views for your reply
宝玉

宝玉

@dotey· 159.3K followers

刚看到一篇《A Year Of Vibes》,算是一篇很有代表性的过去一年对 Vibe Coding 的总结了。 作者 Armin Ronacher 很多人可能不熟悉,但如果你接触过 Python,大概率用过他写的东西——Flask 框架,就是他十几年前的作品。 文档开头第一句话就让我很有共鸣:2025 年,我不再像以前那样写代码了。 跟他的经历很类似,一个写了快二十年代码的人,现在打开电脑,主要的工作变成了——指挥 AI 写代码。他把这比作从“亲自敲键盘的程序员”变成了“虚拟实习生的技术领导”。 我自己对 Vibe Coding 的转变来自于 Claude Code,他也一样,今年四五月份,开始沉迷使用 Claude Code。几个月下来,他在自己博客上发了 36 篇文章,占了这个博客 2007 年至今全部文章的 18%。不是因为他闲了,而是因为 AI 把他从繁琐的实现工作里解放了出来。 他现在同时用三个 AI 编程工具:Amp、Claude Code 和 Pi。他给这三个工具打了个比方——Amp 是保时捷,精致讲究;Claude Code 是大众汽车,实惠能打;Pi 是黑客们的开源玩具。三个工具,三种调性,但他没法告诉你哪个更好。我自己倒是以 Codex 为主,辅助 GitHub Copilot 和 Claude Code。 我估计如果做个调查,每个人使用 AI 编程工具的选择都不一样,因为大家都在“vibes”。 Vibes 这个词贯穿了整篇文章,也是标题的由来。直译是“氛围”或“感觉”,但在这里它指的是一种无法量化、只能凭直觉感受的评判标准。 这可能是 2025 年 AI 编程最诡异的地方:一个行业干了五十年积累下来的工程经验,突然有点不太管用了。什么代码规范、什么最佳实践,在面对 AI 生成的代码时,你最后靠的居然是一种玄学——这个模型“感觉”更顺手,那个工具“用起来”更舒服。 最理性的程序员群体,现在正在用最感性的方式选择技术栈。 Armin 自己一整年都在和 MCP(模型上下文协议)较劲,觉得它不好使。但他拿不出数据,只能说“反正对我没用”。而另一边,有人用得热火朝天。他的朋友 Peter 年初拉他入坑 Claude,现在 Peter 自己跑去用 Codex 了,觉得很香。Armin 试了试,觉得没那么香。 谁对谁错?没有答案。大家都在摸黑走路。 更深层的不适感,来自人与机器的关系。 他开始对这些工具产生了一种“parasocial bond”——中文可以理解为单向的亲密感。就是那种你对某个主播、某个偶像产生的情感投射,对方其实并不认识你,但你总觉得跟对方很熟。 一个 AI 工具,凭什么让人产生这种感觉? 因为现在的 AI 可以有记忆了。你跟它聊过的东西,下次它还记得。它开始有了“人格”的影子。Armin 说他过去两年一直训练自己,把这些模型当成“token 搅拌机”——一个纯粹的概率机器。但这种简化论的视角已经对他失效了。 这些系统表现出人类的倾向,但把它们抬到人的高度又是错的。它们到底是什么?没人能给出一个好的定义。Armin 甚至开始纠结“agent”(智能体/代理)这个词——因为 agency 意味着自主性和责任,而这两样东西应该留在人类手里。 这种“不知道该怎么称呼它”的困惑,本身就说明了问题。 文章最后,他列了几个希望行业能去解决的痛点。 第一个是版本控制。Git 和 GitHub 是程序员吃饭的家伙,但现在它们缺了一块关键信息:prompt。当代码是 AI 生成的,你光看最终的改动,没法判断这个改动好不好。你需要看到是什么指令催生了这段代码,中间走过哪些弯路。 更有趣的是他的一个发现:失败的尝试对 AI 来说是宝贵的。如果你把 AI 引回一个早期状态,你希望它记得之前哪条路走不通。但我们现有的工具压根没设计这个功能。你删掉一段对话历史,AI 就会重蹈覆辙。 第二个是代码审查。现在的 GitHub 审查界面有个滑稽的设计:你没法正式地 review 自己的代码,只能留评论。但在 AI 编程的场景下,程序员经常需要在自己的 PR 里给 AI 留指示。现有的流程根本没考虑这种人机协作。 第三个是可观测性。这是个稍微技术一点的话题,但核心意思是:过去很多监控、调试工具因为太复杂而没人用,但 AI 恰好擅长处理复杂的东西。那些被束之高阁的方案可能要重新翻出来了。 最后他聊了一个略微敏感的话题:有些人已经完全“放手”了,不再审查 AI 生成的代码,直接让它上。这种做法疯狂吗?疯狂。但 Armin 见过有人这么干还挺成功的。他自己还做不到,他还是会仔细检查每一行。 存在的即是合理的,这种“放手派”的存在,说明一种全新的工作方式正在成型。这种方式和他熟悉的那套软件工程完全是两码事。 这让开源社区头疼。越来越多的 PR 是 AI 一把梭生成的,没经过人脑过滤就扔了上来。对于还在坚守传统流程的维护者来说,这种 PR 简直是一种冒犯。Armin 自己的办法是写详细的贡献指南和 PR 模板,但他也知道这有点像堂吉诃德战风车。 也许问题的解法不是让别人改,而是让那些认可 AI 编程的大声量玩家站出来,示范什么叫“负责任地用 AI 写代码”。 这篇文章对我来说是有共鸣的,你能感受到一个资深工程师的真诚困惑。他不是那种对 AI 大唱赞歌的布道者,也不是捂着耳朵拒绝变化的遗老。他夹在中间,一边深度使用,一边深度怀疑。 2025 年已经接近尾声,但他提出的问题一个都没解决:怎么审查 AI 的代码?怎么保存 AI 的失败记忆?怎么跟一个让你产生情感的工具保持健康距离? 这些问题的答案,可能就是下一批成功产品的方向。

205
45
6
27.0K
Posted 27d ago · Data updated 26d ago
Reply Suggestion

Est. 300 views for your reply