🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
团队同学采访了一位对 YouMind 感兴趣的英国用户,有几个很有意思的记录: 1、问用户平时用什么 AI 工具,用户回答:MS Copilot、LinkedIn AI、WhatsApp AI。用户根本不知道背后是啥模型(没有 GPT、Claude、Gemini 这些概念)。 心得:一个 AI 产品,如果还有模型选择列表,往往意味着还没真正走向大众用户。 2、用户平时需要收集整理很多资料,问是如何做的。用户打开了一个长长的 Word,贴满链接和文本。每个 Word 文档,就是一个资料收集整理清单。 心得:最朴素的用法,往往就是最大量的场景。做产品一定要面朝土壤,土壤里有丰沃的营养。 只要不去看竞品,所有面向用户的 AI 创业产品,几乎都存在巨大的增量空间。
听播客最痛苦的:不是没时间听 而是听了2小时,只记住2分钟!😭 更惨的是想回听一下某个观点 用手指在屏幕上小心翼翼地来回挪动进度条, 找了十来分钟也没有找到,算了,不找了!🤡 直到我见推上大V推荐了Podwise, 试了一下发现简直像为我量身打造的一样! 它能用AI直接把几个小时的播客音频或视频变成: “能按精准字幕搜索、✅ 可以中英文对照翻译、✅ 还能生成思维导图”的内容。✅ 还能把内容一键导入到我最喜欢的Notion /Obsidian里!😍 2、太多播客想听了,可真的听不过来 我在Youtube和小宇宙上订阅了几十个播客,一天24小时不睡觉都听不完。😭忍不住想 向天再借500年。 怎么办呢?以前 我只能靠运气大法来筛选,或者狂拖进度条,搞得神经紧张、手忙脚乱、头晕脑胀,还经常漏掉很多内容。 用了Podwise后,💡 我把播客链接复制进来,先用3分钟看一下AI大纲和思维导图, 判断这期值不值得花1、2个小时听" 悄悄告诉你,它还有热门播客和剧集的功能!你能看到别人都在听什么!而且大部分热门的播客别人都已经转好了,你连复制粘贴的时间都省了!点进去直接看就行(见图1) 3、我的播客学习工作流,糟糕,我被知识包围了 使用流程: 1⃣ 新节目更新 → 先看AI大纲 2⃣ 扫思维导图 → 判断值不值得听 3⃣ 感兴趣章节 → 点击精准收听 4⃣ 一键导出 → 存到Notion 整个过程10来分钟分钟搞定,以前至少2个多小时 让我摆脱了播客的焦虑,省出了大量的时间! 快速找到自己感兴趣、只听自己想听的部分。发明podwise的人配享太庙🤟 正好现在有黑色星期五的活动,平均每个月只要3.5刀!如果你经常听播客,或是想获取优质的一手的信息源,可以闭着眼睛入手了 👉https://t.co/BeqlW56Wjc 错过就要再等一年了。 最后我想分享一句Telegram创始人Pavel的话: "如果你做和你周围的人一样的事情,你就没有任何竞争优势。而且你在人生的某个阶段也不会变得杰出。"(图2 ) 制造和使用工具是人与动物的本质区别之一。 希望你可以借助AI,加速个人成长,咱们一起加油!💪
🍌 nano banana pro prompt A realistic cyber-aesthetic futuristic business card photograph ---- Prompt ---- A realistic cyber-aesthetic futuristic business card photograph: a left hand is holding a horizontal, acrylic, borderless card the size of a standard business card (3.5" × 2" ratio), filling most of the frame. The card displays a personal business card layout without any banners or background images. It features smooth, rounded edges and emits a soft neon glow with gradients of blue, pink, and purple. The background is dark and blurred to highlight the glowing edges, while cinematic reflections of light appear on the fingertips holding the card, creating a high-tech, holographic atmosphere. The card surface is crystal-clear, and the text elements appear finely engraved. If a logo is provided, integrate it into the design; if not, create a clean typographic logo based on the company name. If any field is left blank, automatically fill it with visually appealing and context-appropriate design elements. The final business card should have a balanced layout, clean lines, and clear visual hierarchy, suitable for professional printing. Name: [Insert Name] Title: [Insert Title] Company Name: [Insert Company Name] Logo: [Use attachment / Create based on company name / Leave blank] Contact Information: - Phone ( icon ): [Phone Number] - Email ( icon ): [Email Address] - Website ( icon ): [Website Url] X (X logo): [X username, e.g. @dotey] Additional Elements: [Social media / QR code / Tagline / Leave blank] ----- Name: Sam Altman Title: CEO Company Name: OpenAI Contact Information: • Phone (icon): +1 (555) 010-AI01 • Email (icon): [email protected] • Website (icon): https://t.co/lnMiwXm1iA Logo: Create based on company name X (X logo): @sama Additional Elements: Tagline: “Advancing safe AGI for humanity”
每天要提交上百次,这个命令可以解决你的 git commit 焦虑症 拷贝在身边,一用好多年 看懂掌声👏 https://t.co/2ufst59Y6y
大结局 ,豆包和微信“和解” 微信账号全部解封,豆包下线微信操控能力 😂 微信真的是令人……………………………… https://t.co/D4SNIiqezi
老外的创业圈子里流行着一句老话:头回创业盯产品,第二回创业盯渠道。 但我觉得其实两者是同一件事。 有经验的人不去盲目追增长,而是把增长“工程化”: - 把渠道当成产品来设计、测试和迭代; - 把产品当成分发的发动机(留存+传播=免费流量); - 把每一步都量化成可复制的流程和指标。 增长不是追来的,是设计出来的。
最近美股整体在高位盘整,如果进入下跌区间,相较于加密资产,美股可能是个很好抄底的机会,毕竟都有外部性收入。 这里还是推荐初入投资的新人去定投SPY或者QQQ,拉长年度和周期,差不多一年可以拿到10%~20%的年化收益,资金量比较容易拉满。 那么加密圈的用户,没有美股券商的新手,怎么购买美股呢? Bybit在7月就上架了10支精选股票代币现货,是行业首家上线xStock股票代币的,属于眼光很好地CEX了,当时市场上对RWA和Payfi两个东西产生了兴趣。 Payfi的问题是用户在信用卡转稳定币的过程中,成本的大头都被Visa、Master、AP这三家抽水了3-5%不等的手续费,所以风声大雨点小,目前的一个趋势是去做AI Agent的x404协议来做自动化的交易。 RWA这边的业态相对丰富了很多,其中最重要的核心就是美股上链,其中大家最为接受的就是xStock作为底层来实现跟美股的1:1映射,目前已经支持到了60多个知名的标的,但是仅仅使用xStock去支持美股代币化还是不够的。 与市场大多数直接上架币股就不管了的方案不同,Bybit还单独提供了中心化的order book,引入了做市商,深度较深,滑点更低,适合大户买卖,不会出现一个人把整个市场拉起来的情况,。 在Bybit购买股票代币的入口有两个,一个是现货交易,一个是Alpha交易,很容易找到,这里推荐用Alpha直接交易,上手更为便捷。 不需要任何钱包就可以直接买卖,大大提高股票新手交易门槛,用户可以交易股票代币赚钱,提供LP赚取交易费用的分成,还可以长期质押赚取稳定收益,等于链上美股defi化,这对于喜欢稳赚不赔的大户来说,可能提供了一个相对靠谱的路径,只要不赶上大熊市,基本上没有什么亏钱的可能性,波动越大,做LP收到的手续费越多,而且手中也是AAPL、GOOG之类的美股。 币圈目前整体缺失可交易资产,除了BTC、ETH、SOL的深度足够以外,其他大多数山寨或多或少都有流动性的问题,那不如玩玩跟美股锚定的股票代币,而且不用去折腾USDT换USD,美股券商开户KYC要海外证明,赚钱了也要想办法处理CRS的问题。 比较可惜的是,市面上目前美股链上化都做的是正股的解决方案,目前还没有期权的解决方案,不知道是因为报价速度、合规性还是什么原因,不然应该会有很多期权的方案被拿到链上,形成AMM做市、pendle之外的第三个围绕加密金融的创新。 如果感兴趣,可以使用我的链接注册: https://t.co/wFBSxKXD9f
不想接外包了,钱虽然还行,一年100个左右,兄弟们分一分也够吃喝,但远没有做自己产品有成就感 但如果不接,就真的没有收入来源了 格局真的不太够,没有兜底,两边都得做 昨晚给 https://t.co/Ui3T4UC3gZ 加了新功能,支持文件上传、油管 公开课也都全量开放给大家了,我也不知道你会不会喜欢,如果你觉得还行,可以分享给身边可能需要的人
mksaas真的挺好用的 很快就能撸个项目 这个tikpulse是用来监控社媒账号的 自己做tiktok或者youtube矩阵的 每天都得人工拉数据到飞书表单 做达人营销也可以方便数据回收 以前是弄api对到飞书 现在直接ai弄一下 还能webhook挂个报告消息发飞书日报机器人 省的实习生天天copy paste数据了 AI真的改变了很多 现阶段还存在一个AI套利空间 但很快可能就会被磨平了
别再被二手信息喂养了。 真正的「第一手信息」和「认知差」,从来不在新闻或者简短推文里,而在那些顶级大脑长达 2 小时的深度播客对话中。 我发现了 Podwise。它干了一件疯狂的事:聚合了全球 1000 万条最高质量的播客内容。 很多人听过硬地骇客,沉浸在科技最前沿的 saito 他们做出来的产品,相信也不会差到哪里。真正体验后,果然是好产品! 专为高效挖掘,拆解高密度知识播客而生的工具,如果你是 AI,金融等从业者,相信你一次就会爱不释手。 这是一个「认知加速引擎」。 当你还在信息噪音中挣扎时,高手已经在这里完成了知识迭代。👇 近期最有价值高质量的播客推荐: https://t.co/rxOkN9WoWA 我用Podwise拆解 lex 最新一期播客,非常丝滑
同款戴森吸尘器 京东 4300,拼多多百亿补贴 3200 京东可删😂
谢谢 @LipuAIX 整理的翻译提示词,分享一些我用 AI 翻译文章的心得。虽然我认为这提示词太复杂了一些,但其中思想是没问题的,我以前也分享过类似的观点: 1. 最好的翻译就是重写 2. 好的翻译效果要分成几步来做 但也要分场景,普通翻译场景,重写一次就足够了,以现在大语言模型的能力,尤其是 Gemini 3 Pro 这样的,一次重写质量已经相当高了。 如果真要做专业翻译,第一遍重写之后,再让 AI 去校对润色是有必要的。 但是校对和润色不要放在一个提示词里面来做,除非内容很短。 主要原因就是我昨天提到的:大模型可以输入很长,但是输出太长就会偷工减料,幻觉严重。 想象一下,如果你翻译一篇 2 千字的文章,按照提示词这样三遍下来,输出就要 5-6 千字了,到后面输出质量就不高了。 所以翻译、校对、润色最好是独立做。 先说翻译,翻译的提示词不需要原推那么复杂,简单的让它“重写”即可,重点是说明: - 文章风格 - 常用的翻译词汇对照表 - 目标读者(可选) 校对,校对需要原文、和译文,检查遗漏、错误的地方。如果对翻译精度要求不高,这一步也可以省略。 润色则不需要英文原文,只需要译文就够了,这时候只需要让模型去检查翻译后的结果语句是否通顺,是不是符合中文表达习惯。已经不需要英文原文了。 另外,文章如果太长,还是需要分块,分块最好按照自然章节和段落,通常段落一级就够了。 至于每一块和上一块怎么衔接,一个简单有效的办法就是把上一块的原文、翻译结果加到上下文中,这样翻译下一块就可以参考上一块的内容和风格。 至于保留多少块的历史,取决于模型和分块大小。通常上一块的原文和翻译就足够了,不用太多,甚至不加历史结果也没问题。 这个过程可以写个程序用 API,也可以手动去模型做。比如我个人就是用 Gemini,不同的提示词做成不同的 Gem,需要用就把内容贴到 Gem 就好。
一些电影剧照下载网站,地址见评论区。 加上Chrome插件Download All images,可以打包下载所有图片。 https://t.co/GIi1REU4rT
如果我是一个有牌照的人,我只会做一件事。即从中国银行贷款人民币。然后存到美国银行吃利息。 这种利差是个傻子都能看到, 真实的世界只会比我说的更荒诞。
🍌 nano banana prompt This illustration is intended for children to use as a coloring page (you may adjust or simplify the elements as needed). The generated content can be provided either as a clear written description or as a small reference image to guide the child’s coloring. ---- Prompt ---- A black-and-white line art coloring illustration, designed for direct printing on standard 8.5×11 inch paper with no page borders. The overall style is clean and simple, using smooth, clear black outlines with no shading, no grayscale, and no color fill. The background should remain pure white for easy coloring. [For users who may need guidance, please include a small full-color reference version of the illustration in the bottom-right corner.] Target audience: [children aged 6–9.] Scene description: referencing the attached image or [A unicorn strolling across a grassy meadow in a forest, under bright sunshine with blue skies and fluffy white clouds.]
这事儿有点意思… 50 位来自字节、阿里、腾讯等机构的 AI 研究员,联合发布了一份 300 页的论文,里面有些关于代码模型和 Agent 的结论,挺出人意料。 关键点: > 小模型也能打败大厂的专有模型 RL(特别是 RLVR)让小开源模型在推理方面超越大模型。 一个用 RLVR 在高质量验证问题上训练的 14B 模型,可以匹敌 OpenAI 的 o3。 > 模型学 Python 有点吃力 预训练时混合语言模型是好事,但 Python 和静态类型语言不太一样。 语法相似的语言(Java 和 C#,或者 JavaScript 和 TypeScript)能产生很好的协同效应。 如果把 Python 大量混入静态类型语言的训练中,反而可能因为 Python 的动态类型而适得其反。 > 语言之间有差异(代码 Scaling Laws) 让模型精通一门语言所需的数据量,很大程度上取决于这门语言本身。 论文认为 C# 和 Java 更容易学习(所需训练数据更少)。 Python 和 JavaScript 实际上更难学,有点讽刺(但你会发现 AI 最常被用于这些语言 😂)。 > MoE vs Dense(能力 vs 稳定性) MoE 模型容量更大,但在 SFT 期间比 Dense 模型更脆弱。 训练中的超参数对 MoE 模型的影响更大,而 Dense 模型更稳定。 MoE 模型还需要持续调整学习率,以避免路由不稳定。 > 代码模型默认是「不安全」的 在公共代码库上训练,会让模型学习到多年积累的不安全编码模式。 安全微调通常效果不佳。 模型可能拒绝写仇恨言论邮件,但会很乐意生成一个存在 SQL 注入漏洞的函数,因为它「能用」。 > 结构比内容更重要 在 CoT 微调中,模板和逐步推理模式比推理的事实性更重要! 模型实际上学习的是分解问题的「认知模板」。 为推理创建合成训练数据时,逐步结构(「如何做」)比确保每个中间事实都完美更重要。 > 「Lost in the middle」问题仍然存在 新模型支持更大的上下文,但当重要代码位于 Prompt(或上下文)中间而不是开头或结尾时,准确性仍然会下降。 > 多 Agent 辩论减少幻觉 对于复杂的软件工程任务来说,这明显更好。 我认为设置辩论非常关键,如果调整不当,甚至可能导致 Agent 强化幻觉。 > 代码安全上的「对齐税」 对齐可能会降低一般的编码能力。 论文实际上提出了一种解决方案,以减轻这种税收的方式进行对齐。 想了解更多细节,可以阅读完整论文。 https://t.co/sXyz0sBiEI
昨天家里堂兄给我打电话,问我怎么挣快钱 我说,你去抖音上找个带货直播间,把它彻底拆解清楚,只要你豁得出去,并且学得足够像,一周后你就能看见现金 结果发现,问题就是豁不出去,问题就是拆不明白哈哈 对标带货直播,是离钱最近的了
公众号排版样式分享:AI写的CSS代码真香 让 AI 帮写了两个公众号排版样式。 字体、间距、加粗调的基本符合自己预期。 你可以在CSS代码基础上,让AI优化改成自己的风格。 需要的留言评论
60寸大电视,5英尺长。拿来看: 包大人~~~ 我从小最爱看包青天。还在看。 https://t.co/sBhLsKFZLS
Gemini 的记忆能力上了 具体的可以在左下角“个人使用场景查看” 可以主动为他添加永久的自定义指令 https://t.co/wJrPvlMhrc
有的人说我答辩太尖锐,用词很不讲究 我就讲几个小点来解释,我说的话一点也不尖锐。 我是一个年轻人,国内几乎90%做自闭症的实验室都是分子背景的老师。从做分子克隆,做测序开始,再到动物学模型,再到各个分子机制与挽救。 这个跨度是30多年的研究。 三十多年了,从一开始的一无所知,到现在天天和你说表型异质性,遗传异质性,没法治。世界留给你们的时间已经很长了。现在想做单碱基突变的临床实验。这能解决多少自闭症患者的问题呢? 既然你们自己也说遗传异质性很复杂做不了。那这件事情不就是一个房子里的大象,你明明知道这件事存在,但你依然以此为借口来拿经费,做项目,申帽子。 有没有1%的可能性,是你们错了呢?是你们出发点错了呢?花了几千亿美金,一代人的青春,证明一件事路线有问题,说实话不丢人。这是这一代很多真正的科学家的使命。 但是,科研圈是一个圈子,是由一个个个体构成的。一个封闭的,自我运转良好的圈子,是不会容许不同声音的。 当年有一个学部委员,请了老外过来做学术会议。底下有一个老师,就在提问。结果把老外挂台上了。这个学部委员就很生气。十年以后,底下提问的老师去申请某邀请制(即申请就基本能拿到)的国家级经费,结果没过,很神奇。 但是也是因为是邀请制的,所以很容易就打听到原因,这才知道这个学部委员自己亲口说:只要是这个人申请,那我就这辈子也不会让他过。 于是第二年让这个老师的学生来做,项目就很顺利通过了(知道这件事的主人公的话,烦请不要在评论区讨论) 说回我的这件事, 同样的,当你想做一些新的事情的时候,你受到的阻碍会更大。绝大多数人是接受不了尖锐的声音的。如果你想做你想做的事情,就要等,就要熬,就要论资排辈,就要花费大好的青春在无意义的事情上。 我老板在我研究生第一天问我想做什么,我说我想做一些合成生物学向神经科学的转化。我老板说,你可以有自己的想法和想做的事情。但是我这里是一个分子实验室,我能指导你的就是分子机制网络。如果你想做别的,那你要不换一个导师,要不然就把自己的想法藏起来。等有一天你自己有实验室了再去做。 我觉得没问题,我等了六年半发了一个还不差的文章。但是现在这个文章可以让我独立吗?并不能。我想独立做事还要等多久?目前看来希望渺茫。 那,算了吧。我还是赚钱吧。
我的创作者收益消失了 5个月了 期间我申述过一次,然后没有回音 黑五的时候我开了 Premium+,然后定了每天起来第一件事情就是申述 第一条,申述,第二天,说我重复申述了 昨晚恢复了😂,我申述信里面特地强调了我是 P+,然后最近频繁创作内容。 看来发生效果了 https://t.co/Slbfein9Zp
新一期的Vibe Coding教程来了:《Web3项目:用Opus4.5开发Crypto-策略监控飞书机器人》 我们会接入CoinMaretCap的API,开发一个自定义策略监控器。当策略触发的时候会自动发送飞书消息到用户,确保投资者不会损失掉交易时机。 https://t.co/0XkbStH8LG
说真的,我已经彻底觉悟了: 我是不可能当个网红的。 技术还能当什么网红? 你以为你是“东北雨姐”。 前阵子还认真学了一下怎么写作文,结果也就这样了。 所以算了,不装了。 2025 年必须掌握的 agentic 技术,我也懒得再去拆什么章节、搞标题党。 一篇大文章,核心脉络先摊在这里。 后续五十多个小项目(可能还不止),我会陆续贴出来,一个个拆开写。 就这样吧。 累了。 但是真心想说一句: 这不是“内容”,这是未来十年的底层能力。 我只是把它整理出来,给真正想学的人一个入口。 Reviewing Lessons of the Year: The Decade of Agents: Essential Agent Skills for 2025 (Powered by Google ADK and a lot of self-made projects) Part 1 https://t.co/PgsB0ikAZT
刚收到了一笔设计费,5500澳币(是的,澳洲客户)。 就用了两个20分钟的会,搞定。签合同打款,大哥一句话没多说。 我寻思着这价格可能报低了 😂 不过这年头先打款再做事的客户,要好好珍惜。 还是做本地市场和欧美项目是正经事。 https://t.co/A9pLIDuoZh
最近 OpenAI 被 Gemini 打得有点难受 Sam Altman 在内部邮件里拉起 code red ChatGPT 正在过最难的一关 其他项目优先级放一边 连 Salesforce CEO 这都公开说 用 ChatGPT 三年了 上手 Gemini 3 两小时 感觉回不去了 OpenAI 手里有 8 亿周活 估值拉到 5000 亿美金 但现金流压力离谱 未来 8 年要砸 1.4 万亿美元买算力和机房 而谷歌那边有搜索印钞机,还有已经ROI打正的谷歌云 节奏完全不一样
🍌 nana banan pro --- Prompt --- Based on you know about me, generate a 3D isometric colored illustration of me working from home, filled with various interior details. The visual style should be rounded, polished, and playful. --ar 1:1 --- [Additional details: a bichon frise and 3 monitors]
Anthropic 收购了 bun!👍 之前看 Anthropic 的一些代码就发现他们很喜欢用 bun,没想到现在直接收购了。 https://t.co/7ECxQ33osy
So the official account shared my prompt… but credited someone else. Did I just unlock the ‘invisible author’ achievement? 😂 What should I say?
小红书上有个帖子,说乔布斯不是搞禅修吗,为什么还对前妻和大女儿干了那么多畜生的事。有个评论说,乔布斯是魔鬼转世,很多人禅修的原因只是为了抑制住心中的混乱和痛苦,他不修行反而会更糟糕。 对此我深有体会。也是一个人越强调什么,越缺乏什么的体现。

宝玉
Ilya:扩展时代已经结束了,研究的时代已经开始 Ilya Sutskever 大概得有一年多没参加播客访谈了,自从 OpenAI 宫斗离职创办 SSI(Safe Superintelligence)后之后就很少露面了, 最近,他在 Dwarkesh Patel 的播客中进行了一场长达一个半小时的深度对谈。Ilya 毕竟是 Ilya,他不像 Sam Altman 整天满嘴跑火车,只是为了卖货,访谈里面有很多干货,我猜一些观点甚至会影响以后 AI 在研发和投资上的走向。 一个多小时的内容很难说几句话就总结完,还是按照话题挨个整理一下。 【1】为什么 AI 能在考试中碾压人类,却修不好一个简单的 bug? Ilya 在访谈里抛出一个很多人都遇到过也困惑过的现象:现在的模型在各种评分上表现惊艳,但用起来却远远跟不上能力曲线。更诡异的是,你让它改个 bug,它改完引入新 bug;你指出新 bug,它道歉后又改回旧 bug。两个 bug 来回切换,像在打乒乓球。 Ilya 使用一个类比来解释这个问题的:想象两个学生。 第一个立志成为顶级竞赛程序员,刷了一万小时题,背熟所有算法模板,练到条件反射般精准。第二个觉得竞赛挺酷,随便练了一百小时,也拿了不错的成绩。 哪个人未来职业发展更好? 大概率是第二个。 Ilya 说,现在的模型比第一个学生还极端。训练时把所有竞赛题都刷了,还做了数据增强生成更多变体,一遍遍强化。结果就是:所有算法技巧都刻在指尖,但这种准备程度本身就限制了泛化能力。 这个类比点破了一件事:能力和泛化是两回事。刷题刷到极致,可能恰恰堵死了触类旁通的路。 【2】真正的 reward hacking(奖励作弊)是人类研究员 问题出在哪?Ilya 认为是训练数据的选择逻辑变了。 预训练时代很简单:数据越多越好,什么都往里塞,不用挑。但 RL(强化学习)时代不一样了。你得选择做什么强化训练、用什么环境、优化什么目标。 于是一个微妙的循环出现了:研究员想让发布时的 benchmark 得分数字好看,就设计能提升这些指标的 RL 训练。模型变得越来越会考试,但考试能力和真实世界能力之间的鸿沟被放大了。 讽刺的是,真正在奖励作弊的不是模型,是设计训练的人在不知不觉中过度关注了考试成绩。 【3】为什么人类学东西这么快 说到这里就要问一个更深的问题:为什么人类学东西这么快,而且这么稳? Ilya 提到一个特别有意思的医学案例:有个人因为脑损伤,失去了所有情绪——不会难过、不会愤怒、不会兴奋。看起来他还是能说话,能做智力题,测试分数也正常。但他的生活彻底崩溃了:花几个小时决定穿哪双袜子,财务决策一塌糊涂。 这说明什么?情绪不只是情绪,它在某种程度上充当了内置的价值函数。它告诉你什么事值得做,什么选择是好是坏,不需要等到最后结果出来才知道。 价值函数是个技术术语,但概念不难理解。传统的强化学习是这样的:模型做一长串动作,最后得到一个分数,然后用这个分数去调整之前所有步骤。问题是,如果任务需要做很久才有结果,学习效率就很低。 价值函数的作用是“提前剧透”。比如下棋时你丢了一个子,不用下完整局就知道这步不好。编程时如果探索了一个方向走了一千步发现不对,价值函数能让你在一开始选择这个方向时就得到负反馈。 这就像 GPS 导航,不是等你开到终点才告诉你这条路不对,而是在你刚拐错弯时就开始重新规划。 人类大概就是有这么一套系统。而且这套系统的妙处在于:它相对简单,却在非常广泛的情况下都管用。我们的情绪主要是从哺乳动物祖先那里继承来的,针对的是几百万年前的环境,但放到现代社会居然还能用得不错。当然也有失灵的时候,比如面对满街的美食,我们的饥饿感就管不住了。 【4】堆算力堆数据的扩展时代已经结束了,研究的时代已经开始 Ilya 认为规模化时代结束了? 他给了个很有意思的视角:在 2012 到 2020 年,大家在做研究,试这试那,看什么有意思。然后 2020 年左右,scaling law(规模化定律) 被发现了,GPT-3 横空出世。突然之间所有人意识到:原来只要扩展规模,堆数据、堆算力、堆模型参数大小,一路扩充,就能稳定得到更好的结果。 规模化的好处是低风险。而研究是有风险的,你得雇一堆聪明人去探索,不保证有成果。但规模化?只要投入更多资源,就一定能看到回报。公司喜欢这种确定性。但副作用是它吸走了房间里所有的氧气,创新空间被压缩,最后变成“公司比想法多”的局面。 但现在呢?预训练的数据就那么多,互联网就这么大,总会用完。Gemini 据说找到了从预训练榨取更多的方法,但这条路终归有尽头。然后大家转向了强化学习,开始在那上面堆算力。 可问题是:现在算力已经这么大了,再 100 倍真的会质变吗?Ilya 不这么认为。他觉得我们又回到了需要思考到底该做什么的阶段,而不是继续闷头堆资源。 这就像爬山。一开始你发现有条路,往上走就是了,越走越高。但总有一天,你会发现这条路到头了,再往前走也高不了多少。这时候要么换条路,要么换种爬法,总之不能继续原来的策略。 现在的 AI 行业就处在这个节点上。所以 Ilya 说:我们回到了研究时代,只不过这次手里有大得多的计算机。 【5】泛化能力才是核心问题 在 Ilya 看来,当前最根本的问题是:这些模型泛化能力太差了。 什么叫泛化能力差?就是学一样东西需要的数据量太多,而且学会的东西换个场景就不灵了。 人类不是这样的。一个青少年学开车,10 个小时基本就能上路了。而且人类五岁小孩的视觉能力就足以支持自动驾驶了,虽然他不会开车,但识别路况、判断距离这些能力已经很强了,而且这些能力是在父母家里那种数据多样性很低的环境里学会的。 更关键的是,人类学编程、学数学这些东西也很快。这些可不是进化给我们的能力,因为我们的祖先根本不需要写代码。这说明人类不光是在某些特定任务上有进化优势,而是在学习这件事本身上就有某种更本质的能力。 模型呢?虽然在某些具体任务上超过了普通人,但要说学习能力,还差得远。 Ilya 对这个问题有想法,但他说现在不能详细聊,因为在这个竞争激烈的领域,不是所有机器学习想法都能公开讨论的。不过他给了个方向性的提示:这很可能跟如何做到像人类那样高效、稳定的泛化有关。 还有一个可能的阻碍:也许人类的神经元实际上比我们想的做更多计算?如果是这样,事情就更复杂了。但不管怎样,人类的存在本身就证明了这种高效学习是可能的。 【6】重新定义 AGI:从成品到学习者 这里 Ilya 做了一个概念上的重要修正。 AGI 这个概念怎么来的?是作为“狭隘 AI”的反面而诞生的。以前的 AI 只会下棋,只会玩游戏,非常狭隘。所以大家说:我们要造通用的 AI,什么都能做的 AI。 预训练强化了这个印象,因为预训练确实让模型在各种任务上都变强。于是“通用 AI”和“预训练”在概念上绑定了。 但这里有个问题:按照这个定义,人类自己都不算 AGI。 人类有一套基础能力,但缺乏大量具体知识。我们靠的是持续学习。一个聪明的十五岁孩子什么都不会,但学什么都快。“去当程序员”、“去当医生”、“去学习”,部署本身就包含一个学习和试错的过程。 所以 Ilya 心目中的超级智能,不是一个出厂就什么都会的成品,而是一个能像人一样快速学习任何技能的学习者。 【7】能自动学习的 AI 会有多快到来?有多危险? 那么问题来了:如果有这样一个系统,能像人类一样快速学习,而且可以大量复制部署,会发生什么? 人类入职六个月才能产出价值,但这种 AI 可能几周就行。而且不同副本学到的东西还能合并,这是人类做不到的。这难道不会导致某种爆炸式增长? Ilya 认为确实会有快速的经济增长,但到底有多快很难说。一方面有高效的劳动者,另一方面现实世界很大,很多东西有自己的节奏,不是你想快就能快的。 但他确实改变了一些想法。以前 SSI 的计划是“直奔超级智能”——不发布中间产品,一鼓作气搞定终极目标。现在 Ilya 觉得,渐进式发布可能更重要。 【9】为什么要渐进部署?因为想象不出来就得看见 访谈中 Ilya 反复强调一点:AI 的问题在于它还不存在,而不存在的东西很难想象。 你可以读一篇文章说“AI 会变得多厉害”,但读完你觉得“哦,有意思”,然后回到现实。如果你亲眼看到 AI 在做那件事,感受完全不同。 他打了个比方:像二十岁时讨论“年老体弱是什么感觉”。你可以聊,可以想象,但真正的理解只能来自经历。 这导致一个实际问题:所有关于 AI 风险的讨论,都基于对未来 AI 的想象。而想象往往跟不上现实。就连天天做 AI 的人,也会因为当前模型的各种低级错误而低估未来模型的能力。 Ilya 的预测是:随着 AI 变得更强,人们的行为会发生根本改变。竞争对手会开始合作搞安全,政府和公众会开始认真对待监管。这些事情现在开始有苗头了,但还远远不够。而真正的催化剂,是让人们看到更强的 AI。 这也是他对 SSI“直奔超级智能”策略有所松动的原因。原本的想法是不参与市场竞争,专心做研究,等东西准备好了再拿出来。现在他觉得,让 AI 被看见这件事本身是有价值的。当然,无论哪种路径,最终部署都必须是渐进的。 【9】SSI 在做什么?不同的技术路线 SSI 融了三十亿美元。这个数字单看很大,但跟其他公司动辄几百亿的投入比起来似乎不够。 Ilya 算了一笔账。那些大数字里,很大一部分是用于推理服务的。另外,做产品需要大量工程师、销售、产品功能开发,研究资源被稀释。真正用于前沿研究的资源,差距没看起来那么大。 更重要的是,如果你在做不一样的事,不一定需要最大规模的计算来验证想法。AlexNet 用两块 GPU 训的。Transformer 论文最多用了 64 块 2017 年的 GPU,换算成今天也就两块卡。第一个推理模型 o1 的推理能力也不是靠堆算力堆出来的。 研究需要一定算力,但不需要最大算力。真正的瓶颈是想法。 那 SSI 的技术路线是什么?Ilya 没有完全透露,但核心方向是解决泛化问题。他认为现在的方法会走一段然后撞墙,继续进步但无法突破到真正的人类级学习能力。而 SSI 在探索不同的路径。 时间表呢?五到二十年,达到人类级别的学习能力。 【10】安全对齐是什么?应该对齐什么? 说到超级智能,绕不开安全对齐问题。Ilya 的想法是:让 AI 关心有感知能力的生命。 为什么是这个目标而不是“关心人类”?他给了个有意思的理由:AI 本身也会有感知能力。如果你想让 AI 关心人类,可能反而更难,因为它需要做某种特殊化处理。而如果让它关心所有有感知的存在,某种程度上更自然,类似人类对动物的共情,来自于我们用同样的神经回路去理解别人和理解自己。 当然这个方案也有问题。如果大部分有感知能力的存在都是 AI,那人类在数量上会是极少数。这真的能保证人类的利益吗? Ilya 承认这不一定是最好的方案,但他认为至少应该把它列入候选清单,让各家公司到时候可以选择。 还有一个思路他提了但不太喜欢:人机融合。通过类似 Neuralink 脑机接口的技术,让人类部分成为 AI。这样 AI 的理解就是人的理解,AI 的处境就是人的处境,对齐问题某种程度上就消解了。但这显然是个很激进的方案。 【11】如何硬编码高级欲望? 访谈最后有一段很有趣的讨论。 人类有很多社会性的欲望:想被人尊重、在乎社会地位、关心别人怎么看自己。这些不是低级信号,不像闻到食物香味那样有直接的化学感应器。大脑需要整合大量信息才能“理解”社交场合发生了什么。 但进化却成功地把“关心这件事”硬编码进了基因。怎么做到的? 如果说“把多巴胺连到嗅觉感受器”还能想象,那“把奖励信号连到某种需要整个大脑协同计算才能得出的高级判断”就很难想象了。 Ilya 说他有一些猜想,但都不令人满意。这是个谜。但这个谜的存在本身就很有启发性,它说明进化找到了某种方法,可靠地给复杂认知系统植入高级目标。 【12】什么是研究品味? 访谈最后,Dwarkesh 问了 Ilya 个很本质的问题:作为联合创造了 AlexNet、GPT-3 等一系列里程碑工作的人,你怎么判断什么想法值得做? Ilya 的回答很诗意:我寻找的是美感。 不是随便的美感,而是多方面的美:简洁性、优雅性、正确的大脑启发。人工神经元是个好想法,因为大脑确实有很多神经元,虽然大脑很复杂但神经元这个抽象感觉抓住了本质。分布式表示是个好想法,因为大脑确实是从经验中学习。 当一个想法在多个维度上都显得“对”,都有某种内在的和谐,你就可以建立自上而下的信念。这种信念很重要,因为它支撑你在实验结果不好时继续坚持。 有时候实验失败不是因为方向错了,而是因为有 bug。怎么判断该继续调试还是放弃方向?靠的就是这种自上而下的美学直觉:这个东西应该是这样的,所以一定能 work,继续找问题。 这可能就是顶尖研究者和普通研究者的区别。普通研究者容易被数据牵着走,实验不 work 就换方向。而顶尖研究者有某种品味,知道什么是深层次正确的,能够在实验结果和内在直觉之间找到平衡。
Est. 4.8K views for your reply
