🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
哈哈哈,自用的视频生成 Skill 终于做好了。 以后生产视频方便多了,只需要一句话! 公开技术方案: 1. Listenhub API实现声音克隆,合成,字幕时间轴控制 2. Seedream 4.5 生成背景封面 3. Manim库实现文本动画 4. FFmpeg合成视频。 同时支持16:9 和9:16 视频,抖音、小红书我来了!
Introducing slide-deck skill 🎨 Turn any article or content into professional slide decks with AI-generated images. 15 styles to choose from: • blueprint - technical diagrams • sketch-notes - hand-drawn feel • corporate - investor-ready • pixel-art - retro gaming vibes • watercolor - artistic warmth ...and 10 more Just run /baoyu-slide-deck https://t.co/Mr6DFuOZiM or pdf and get: ✓ Auto-generated outline ✓ Individual slide images ✓ Merged PPTX ready to share Install: npx add-skill jimliu/baoyu-skills https://t.co/pRDqxdiSrH
DeepSeek 最近发的三篇论文,全部都是带梁文锋署名的,论文讲的内容也很有意思。 尤其是那篇讲 Engram 的,DeepSeek 相当于给模型带了一本“字典”进考场,把死记硬背的脑容量腾出来,专门用来做难题。 但他们发现,如果模型全是记忆(Engram),那就是个死记硬背的书呆子,完全没法思考。 但如果全是推理(MOE),又要浪费大量算力去推导像“中国首都是哪”这种固定知识。 那要带多少记忆去考试呢? DeepSeek 研究出了一个模型“记忆”和“思考”的黄金比例。 最后测出来的最佳配比是:75% 给思考,25% 给记忆。 这个结论可能不仅适合于模型,也值得人类深思。 当一个人记住所有细节,就约等于没有空间思考。 逻辑思维,适当抽象,是人类进步的源泉。 当一个人完全没有知识,只会浪费脑力去思考最基本的东西,脑力空转。 DeepSeek 实测,加了字典减少思考后,模型多出了相当于 7 层网络的思考深度。 没想到,知识的广度以这种方式增加了思考的深度。 很有启发。
gitlab这个玩意现在用的还多么? 我记得我当年大一的时候,班里有人为了方便写项目有人弄了个gitlab。 刚看了一眼,这么多年了,PE还是负数,PS是6.23,57亿的市值,真的还有人在用这个东西么,github被微软收购之后,gitlab感觉已经逐渐淡出视野了,刚看主页也是拥抱AI了
很多人和我探讨过,为什么某某账号看似不错,怎么突然就断更了 我始终坚持:这属于哲学上的不可知论,我们需要承认我们无法知晓答案 就算原作者告诉你他断更的原因,这也不是真相 因为作者自己也不知道真正的原因 他可能会说「太忙了」「没灵感了」「生活变故」,但这些都只是他能意识到的表层理由,是他的理性系统事后给出的「合理化解释」 真实的原因可能是:童年某个被忽视的经历导致的完美主义焦虑、多巴胺奖励机制的阈值变化、某个他自己都没察觉到的人际关系张力、荷尔蒙水平的微妙波动、大脑神经连接模式在某个时刻的重组,以及其他成千上万个相互作用的因素 更深层的问题是:当你问「为什么断更」时,你预设了存在一个单一的、可被言说的「原因」。但人的行为不是这样运作的。断更不是一个「决定」,而是无数微小的、无意识的倾向累积到某个临界点后的涌现现象

徐冲浪
AI这一轮的本质是——有能力开发大模型的互联网科技公司,通过购买NVDA的显卡获得算力,同时向外卖大模型token的一个生意。 基于这个逻辑,我们可以给出以下几点判断: 1、得益于NVDA显卡算力的进步,所以token的成本可以降低,但是定价权是掌握在这些大模型厂商手中的,所以只要有开发人员,互联网人员,金融人员,这些顶级白领需要AI去帮他们提升效率,那么token的消耗就不可能终止,而且会越来越多,同时市场上还有不少API套壳狗,去做token的二道贩子,或者包一层大模型的各种微创新产品,这是软件层面的消耗,会带来硬件层面的需求,你们看到的各种券商软件(老虎富途长桥)、各种SaaS软件(飞书多维表格)、各种视频平台(一键生成封面),都在搞AI辅助的事情。 2、美国的数据中心没那么好建设,涉及土地审批、电力铺设、机架购买&安装、制冷等等环节,美国开个奶茶店装修下来要几个月不说,还会牵扯工会的问题,因为来装修的人受雇于工会,所以美国的算力短缺是非常正常的,矿企因为本身有土地+电力问题都解决了,只要改造下就行,所以这几个月矿企号称转算力中心,不少股价都飞涨 3、房子的问题是政府在通过人为制造稀缺性,骗傻子接盘,但是当市场真正买不动了,那么这个问题就无法解决,会进入倒灌时期,所以城投是人工造盘子,类似加密货币发山寨币,不住的房子被当成控盘的筹码,提高溢价能力,骗傻子高位接盘,然后市场兜不住的时候,城投自己出货给市场,浇给那些高位接盘的人 4、AI的问题是token本身在随着技术迭代而变得更加便宜,所以大模型公司也在通过技术手段,去尽可能榨干当前算力最强的显卡,以降低成本,你不降价有的是公司降,token的普适性在扩充,使用人数和使用频次在增加,但是使用成本在降低,这个就很互联网早期阶段了,跟科技的发展进程是一样的,唯一的稀缺性握在拥有大模型的科技公司手里,就是我的模型比你更屌,你必须用我的写代码才行。 5、数据中心其实是个苦差事,看ORCL的变化就知道了,所以大模型公司们除了自建,也在往外发订单,搞外包化。这个过程中,扩容也是要花钱的,扩容的钱也会流到市场里,建筑工人,显卡提供商,卡车司机,电力设备提供商等等,所有环节也都会收到甲方的打款,钱的流动规律很正常。 6、综合以上种种,我觉得AI就是互联网初期的状态,AI的token不断降价,但是用户基于token享受到了好用的地方,类似互联网的普及化,大模型提供商们最后会变成类似电信运营商一样,卖的是大模型token的溢价,然后普通用户会付费给那些使用AI功能开发出来的应用,建议大力购买AAPL和GOOG。 7、同时我也给一个预言,中国的AI,未来也有多个走向: a、可能会像外网一样,需要你有一定手段才能访问,这说明gov不想让普通人拥有AI的智能 b、可能会像办理手机号/宽带一样,需要你身份证开户才能访问,这说明gov认为,只要把中国的AI大模型管起来,能剔除掉不干净的东西,那普通人就可以拥有AI的智能
Est. 900 views for your reply
