🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。
很喜欢某被 B 站封杀的知名 UP 主的一句话: “努力的人样子总是很难看的”。 https://t.co/e6T741V0sn
狼来了,放鸽子 两个月的 Gemini 3 终于发布了, 如果不强的话要别大家骂死。刚用上了,Gemini 3 太强了。跑分参数碾压性的领先。 我整理 Gemini 3 最全20 多个使用途径渠道(转发收藏备用此贴): 1、Google 自家AI studio 首发 https://t.co/gkxyfoVzLw 2、第三方zenmux第一时间接入:Gemini 3 pro的free版本模型: https://t.co/pvnJC9kWBs 3、 Gemini 账号购买:https://t.co/1eyRAqVDBI 见评论区👇
Gemini 3 Pro 已经可以在 AIStudio 使用了,模型卡也泄漏了,各方面都很强,除了软件工程基准(SWE Bench)方面略低于 Sonnet 4.5 和 GPT-5.1 直接转译下下面 Deepy 的总结: --- 谷歌最新一代AI大模型Gemini 3的性能数据,居然在官方发布前数小时提前泄露!从泄露的数据看,这款模型简直强大到离谱,让人忍不住想深入挖掘一下,它的发布究竟意味着什么? 1. 成本不再是障碍:普通人也能用得起的强大AI 谷歌这次从零开始,在自家的TPU芯片上训练了Gemini 3模型。它采用了专家混合网络(Mixture of Experts,简称MoE)架构,可以处理超长输入(高达100万token)和输出(64k token),而MoE设计的精妙之处就在于:即便性能爆炸提升,成本也并不会疯涨。也就是说,普通用户未来用上这么强大的AI,花费也不会太高! 2. 电脑操作能力大跃升:真正实现自动化的知识工作 Gemini 3在一项鲜为人知却非常实用的测试ScreenSpot Pro中表现惊艳。这个测试考验AI理解各种软件截图的能力,包括AutoCAD、PhotoShop等专业工具界面。结果Gemini 3以73%的得分一举超过之前最好的模型足足两倍,遥遥领先!这意味着Gemini 3真正能够在复杂的工作场景下,帮助人们高效自动化完成专业的知识型工作。 3. 数学能力“一骑绝尘”:其他模型望尘莫及 Gemini 3这次特别经过大量数学定理证明的强化学习,数学能力超凡。在美国数学邀请赛(AIME)中几乎达到了“完美表现”,而在难度超高的**MathArena**数学基准测试中也达到了惊人的23%(其他主流模型几乎都只有1%左右)。此外,它在体现真正“通用推理能力”的ARC AGI 2测试中,也创造了30%的领先记录,这显示Gemini 3不仅在数学上是顶尖的,通用推理能力也同样拔群。 4. 编程能力惊人,但还有成长空间 Gemini 3在编程测试中展现了惊人的实力,比如在LiveCodeBench的国际象棋等级分(Elo)评分超过了2400,非常优秀。但也有一点小插曲:它在软件工程基准(SWE Bench)中并未拿下第一,反而输给了竞争对手。但在“工具调用”和“终端使用”等测试上,它依然稳居第一。这说明Gemini 3在互动编程、实时问题解决方面非常强悍,但在复杂、长期的代码维护方面,还有提升的空间。 --- 谷歌这次几乎动用了所有的“压箱底绝招”:完善的训练方法、大量私有数据、全新的模型架构,然后在几乎所有重要的基准测试中都实现了碾压式领先。这次升级,明确告诉我们:AI领域的发展速度不仅没有放缓,甚至还在加速向前。 目前来看,谷歌在大模型领域已经形成了相当明显的领先优势。为什么这么说? - 成本优势:谷歌拥有自家芯片TPU,训练成本明显更低; - 数据优势:谷歌掌握远超其他公司的海量专有数据; - 资金优势:拥有雄厚财力投入更多训练和数据资源; - 人才优势:谷歌的人才储备也丝毫不输其他顶级公司。 这种全面碾压的格局,接下来6个月恐怕都难以撼动。谷歌已经用Gemini 3向全世界展示了自己在AI领域的绝对主导地位,而其他公司能否追上,现在还是一个未知数。 无论如何,Gemini 3的发布注定将再次掀起一场AI界的大地震!
切换成 Build 模式就可以在 AI Studio 使用 Gemini 3.0 这么简单的的提示词就能有这么好的效果,太顶了! https://t.co/VzKyV8f9Qq
一直觉得Claude Skill这个概念难懂,也不知道怎么开始 经过昨天研究,发现我想复杂了。 上手其实很简单,如果你有Claude Code,无论官方还是中转。( 比如我用的兔子API @tuzi_ai 的中转) 一共三步: 1. 运行Claude Code,输入/plugin , 选择add marketplace,输入下面网址回车 https://t.co/dw9V8P7qjY 2. 这时会看到两个安装选项,一个是document-skill,一个是example-skill,都装上。 第一个用于处理pdf、word等文档,第二个是样例,未来也能调用。 3. 跟 Claude 对话说:“一步步引导我写第一个Claude skill” Claude会抱怨需求不清楚,让你回答问题,明确需求。 我回答:我想要一个写作Skill,能联网,会用我的提示词,并且安装一个seedream MCP用于生成配图插入文章。 Claude会追问细节,给你一些选择题,都答完,需求明确后。 它会创建一系列文件夹和文件。 第一个写作Skill就做好了!
《这次不一样》《早知道》《贪了》 《没跑掉》《差一分》《要是》《我就知道》《如果》《太贵了》《我感觉》《我感觉要涨》《我感觉要跌》《还会跌的》《有啥利空吗》《又亏了》《要跑吗》《为啥这样跌》《接回来》《没钱了》 《忘记了》《接不到》《卧槽》《真服了》《完蛋了》《还有救吗》 《一笔》《背驰》《大概率》《完美防守》 《拼了》《还好》《还要拿吗》《老师怎么办》《会有很大问题吗》《下次一定跟》《救命》《吓死你》 《大腿拍断》《拉不住了》《不管了》《价值投资》《5年后再看》《下次一定遵守纪律》《违反了我的系统》《万一》《嗨呀》 《以后控制仓位慢慢来》《不敢跟家里人说》《回本了再也不玩了》 《要是能回本就好了》
13w+ 浏览量 《余华写作课》拆书 ,原始提示词: ------提示词开始------ 结合这本书里提到的写作技巧 和 具体写作方法论,写一条长推文,要突出具体实操价值和收藏价值,容易引起读者收藏评论和转发,注意要有足够具体的实操指南,让他看起来像 cookbook ------提示词结束------ 拆解后发现过于复杂,然后又基于结果润色了一遍: ------提示词开始------ 基于这篇内容 写一条长推文,要突出具体实操价值和收藏价值,容易引起读者收藏评论和转发 ------提示词结束------
哈哈,好久之前的垃圾相机拍的 现在回头看还是挺好看的 https://t.co/2BD5syJEqw
Andrej Karpathy 这个阅读方法有点意思… 大概就是: 先自己把文章/章节从头到尾过一遍,把大轮廓先搭起来; 第二遍丢给 LLM 解释 + 总结,看看它怎么梳理; 第三步直接开 Q&A,把想深挖的地方一个个怼出来问。 很有意思,阅读这件事从一个人对着文本死磕变成一个人和一个 AI 一起拆书。 这种方法能很好的解决之前那种看完了但有没什么留下来的浅刷。 有人也是这种阅读习惯吗?
几乎所有大模型都提供了“深度研究”功能,太有用了。 OpenAI 设计了一套数据集 BrowseComp,专门测Deep Research能力,难度很变态。 让真人做,两小时搞不定的放弃率高达 70.8%。 一共1266道题,OpenAI Deep Research正确率也只有 51.5%。 MiroThinker v1.0,一个开源Agent基座模型,这套题准确率竟然达到 47.1% 。 如果你想开发或学习“深度研究”类 Agent 产品。 强烈推荐关注,已分别在Huggingface和Github开源,完全免费! 模型Huggingface: https://t.co/f8LVh2Zkmz 模型Github含论文:https://t.co/KTPC2PnxDO Agent: https://t.co/fnX7KyXx4r
一方面我不喜欢 Andrej Karpathy 总是发明新的概念,一方面又不得不承认他确实很多想法是很有价值的。 比如这里对 Software 1.0/2.0 的定义就挺好的: 1). 软件1.0时代,容易自动化的是你能明确告诉计算机怎么做的事情。 2). 软件2.0时代,容易自动化的是你能自动验证结果好坏的事情。 那这里的自动化都什么意思呢? 1. 软件1.0:靠指定规则(Specify Rule)自动化 过去的几十年,我们用的所有传统软件(比如Excel、Word、会计系统),都是“软件1.0”。 它的核心逻辑是“指定”(Specify)。 你必须像个事无巨细的监工,把每一个规则都用代码写得清清楚楚。比如做个会计软件,你必须告诉它: “如果A栏的数字大于B栏,那么C栏就显示红色。”“月末,把所有D栏的数字加起来,放到Z栏。” 软件1.0擅长什么? 自动化那些规则固定、逻辑清晰的任务。 软件1.0解决的是什么问题呢? 是人类的“机械性重复劳动”。比如打字员、记账员、算账员。只要一个任务的全部流程能被清晰描述出来,软件1.0就能接管它。 2. 软件2.0:靠指定目标(Specify Objective)自动化 现在,AI 来了,升级到了软件2.0。 它的逻辑完全变了。我们不再是指定规则,而是设定目标。 我们不再像监工一样告诉AI每一步怎么做,而是像个教练,只告诉它验收的标准是什么。 比如训练AI下棋。我们不告诉它“当对方出这一招,你就必须走那一步”。我们只给它一个目标:“想办法赢棋”。 然后,AI 就开始自己搜索那个能赢棋的步骤。它通过海量的自我对弈(也就是梯度下降)来寻找最佳策略。 这就是 AK 的核心观点:软件1.0是我们手动写程序,软件2.0是AI自动搜索生成程序。 3. 软件 1.0 时代看“可指定性”(Specifiability),2.0 时代看“可验证性”(Verifiability)。 如果说软件 1.0 自动化任务的标准是我们能不能指定清晰的规则,比如说你要写个自动抓取的爬虫,只要指定清晰饿抓取规则和解析规则就可以了。 那么软件 2.0 自动化任务的标准则是结果是不是能自动被验证。 “可验证性”就是AI能不能在一个任务上进行高效的“刻意练习”。 AK 给出了“可验证”的三个关键条件: 1). 可重置 (Resettable) AI必须能够无限次地重新开始尝试。比如下棋,这局输了,没关系,棋盘一清,马上开下一局。 2). 高效率 (Efficient) AI的练习速度必须远超人类。它可以在一小时内“看”完人类一辈子都看不完的视频,一天内下几百万盘棋。 3). 可奖励 (Rewardable) 这是最关键的一点。必须有一个自动化的、即时的、没有争议的奖惩机制。 自动化至关重要。如果AI每次做完一件事,都需要一个人类专家来看半天,然后给个模棱两可的评价(比如“嗯,这个创意还行”),那AI就没法高效学习。 像在编程、数学领域就很容易符合上面的三个条件,但是像写作这种非标准化的就很难验证。 但对于软件来说,稍微复杂一点的软件系统,其实很难达到可验证的标准。 比如说我在实现 UI 时,会尝试把 UI 设计稿扔给 AI,然后给 AI 一个截图工具,让它反复截图对比设计稿,然后找出差异优化,但是以目前的 AI 能力,还不足以修复这些差异,所以无论你运行多久,也不会真的得到一个理想的结果。 这可能就是我不太喜欢 AK 发明的这些新概念的原因,总是提出一个个概念,但是并没有解决多少问题。
Sam 开的坏头,现在模型的小更新也开始做宣发了 XAI 发布了 Grok 4.1 模型在创造性、情感和协作互动有会优化,目前已经上线 对细微意图更为敏感、交谈更具吸引力、人格更为连贯,幻觉更少。 LMArena 上的代号 quasarflux 原来就是 Grok 4.1 Thinking 。 https://t.co/iz093dSQ2h
一个月https://t.co/uF0efBH0SW 会员才 9.9 美金,100个客户才有 990 美金 卖一份模板就可以 1538 美金,但他远没有卖一份Mentorbook 会员更加让我兴奋 https://t.co/uWMG2sf2UC
https://t.co/aBhEeNzIge 来自 X 账号 TestingCatalog 的爆料:Google 在 Gemini 企业版(Gemini Enterprise)里新增多智能体「自动做研究」模式 Google 正在 Gemini for Enterprise 里打造一个多智能体系统。你给它一个主题,再配上一套评估标准,它就能自己生成一大堆点子,然后拉起一整支智能体团队,像打锦标赛一样一轮轮评审这些点子。 这个系统一次可以连续干活大约 40 分钟。对一个面向普通企业用户的产品来说,这已经是非常长的一次连续推理过程了。 在这 40 分钟结束时,用户会收到一大串点子清单,按你一开始设定的标准从优到劣排好名。整个规模也不小:系统一次能产出大约 100 个点子。对每一个点子,你都能拿到: - 一个概览 - 一个更详细的说明 - 一份点评总结 - 一份完整长评 - 以及一份专门的「锦标赛表现报告」(tournament performance report) 这个「表现报告」还是一个单独的输出,可以单独打开慢慢看。所有生成出来的点子都是可选择的,你可以点进任意一个,继续深入展开。 在当前的内测版本里,Google 看起来内置了三个智能体,其中有两个就是搭在这个多智能体「锦标赛」系统之上的。 第一个叫 “Idea Generation”(创意生成) 在这个模式里,你只要给一个主题,这个智能体就会启动整套多智能体工作流,用「锦标赛式评估」(tournament-style evaluation)来生成和排序各种相关点子。(所谓锦标赛式,就是不断让方案互相“对决”,胜出的留下,弱的被淘汰) 第二个叫 “Co-scientist”(联合科学家) 这个则更偏向科研和研究场景。你可以指定一个研究主题,再提供一些额外数据,然后一整个智能体团队会先生成研究方向和方案,再用同样的锦标赛机制去评估这些想法,只是这次会更强调科研和科学探索的需求。 这里最有意思的一点,是它背后明显投入了非常夸张的算力。允许智能体在一个任务上连续工作大约 40 分钟,这在现在的大多数智能体工具里都算是「豪华配置」了。 在整个 40 分钟里,系统会不断迭代这个问题,不停生成、筛选、打分、重组。目前,这一切都还只出现在 Gemini for Enterprise 里,属于内部开发阶段,对普通用户是隐藏的,还没有以正式功能形式对外开放。 跟现有的智能体实现相比,这一套看起来是个明显的前进一大步。就算是那些已经带浏览器模式的高级智能体,通常也会受限于上下文窗口和时间预算(time budget)。 而这次,Google 的做法,是直接把一大块算力「摆在台面上」给企业客户用,做成一个正儿八经的前端产品界面。这也和所谓的「Level 3 AI」的概念非常契合:这一层级的 AI 智能体,被描述为可以在同一个问题上持续工作一段较长时间。(这里的 Level 3 并不是统一标准,更像是行业里对“能长时间连续工作的智能体”的一种非正式分级说法)从这个角度看,让智能体在单个任务上跑满 40 分钟,是一个非常典型、甚至偏激进的例子。 在实际使用中,这套系统输出的核心是「被充分筛选和精炼过的点子集合」。但它们远不只是随手抛出来的一堆建议,而是可以视为一组结构化的研究方向:在你给定的数据和问题背景下,这些方向有可能真正指向高价值的洞见。所以,Google 正在推进这种极其强力的智能体能力,专门服务于组织、公司和研究团队,这件事本身非常耐人寻味。 等这项功能真正对外发布时,很可能会是一次不小的跃迁,尤其是如果这些智能体最终由 Gemini 3 Pro 来驱动的话。现在,Gemini 3 Pro 还没有进入 Gemini Enterprise,所以目前还不清楚这些实验性智能体背后具体用的是哪一个模型。 这里依然有很多东西需要测试和验证。当你把一个提示词(prompt)提交给这套系统时,它首先会给出一份「计划做什么」的概要:会在哪些维度上评估、打算从哪些方向出发生成和筛选点子。只有在你确认这份概要之后,系统才会真正启动那次「大任务」。这相当于在烧一大笔算力之前,先和你对齐「我到底打算怎么理解你的问题」。 除了多智能体锦标赛工作流之外,Gemini Enterprise 里还有另一个智能体,叫 “chat with your docs”(和文档聊天),它配了一套独立的 UI。这个智能体允许用户上传大小最高 30MB 的 PDF,然后面向这些文档进行专门对话。 这个功能同样属于 Gemini Enterprise 的一部分,目前还没有对外发布,而且在生产环境中暂时不可用。它的设计思路是:最多 30MB 的 PDF 内容可以被分析并写入模型的上下文里,这样用户就能从现有文档中抽取更有价值的信息,而不是只靠人自己翻页看。 在 Gemini Enterprise 里,还有不少其他功能正在开发中,但真正最抢眼的,还是这两条线: 1. 多智能体锦标赛式工作流 2. 面向文档的专用智能体 特别是那个基于锦标赛的多智能体架构,看起来就是一种突破性的产品路线——其他大语言模型(LLM)服务商,目前似乎还没有在这个层级上,给用户提供类似的东西。多智能体锦标赛在面向终端用户的工具里依然非常少见。也许可以拿 Grok Heavy 来做某种对比,但很可能也不能算是和 Google 这套完全同一个方向的东西。 等这些智能体成熟之后,如果能看到一套正式的评估结果和基准测试,那会非常有价值。光从现在的描述来看,那个 Co-scientist 智能体已经足够让很多大型组织和研究团队心动——尤其是那些正在探索新科学方向的团队。 至于这些智能体具体什么时候会正式上线,或者会不会开放给非企业用户,目前还都是未知数。 来源:https://t.co/g3qDUK7cbR
作为 HiFi 小烧友 在听过那么多的耳机之后 最终选择了方便的蓝牙不入耳耳机 时代大势所趋嘛 但是因为要帮用户做声音 又买了个美国人最喜欢的 7506 以前一直听说它好 但总觉得30年前的科技水平…能好到哪里去? 但听过之后就懂了 为什么能卖30年 因为制作音乐的人用它 你也用它 这就是端到端的原理 https://t.co/Io5CneE2hL
1/🧵 一个被冷落30年的肠道激素,如何引发千亿美元减肥药大战? 司美格鲁肽大概能减15-20%体重(至少我看到的试验数据是这样),替尔泊肽突破20%+,市值之争逼近万亿。 从1906年偶然发现到2025年商业巅峰,这场GLP-1革命故事比你想象的更精彩。🧬 Thread ⬇️ 本文由 @muset_ai 辅助创作 https://t.co/3t8HbXKegv
两周前,kimi 发布了 k2 thinking 模型,在国内外引起了广泛讨论。为了验证 ShipAny Two 的 SEO 效果,我基于此模型做了个 Chatbot 网站。 两周后,这个站拿到了 3.6k UV,1.2k 注册用户,2.2k 次对话。 Chatbot 的交互形式,已经成了 AI 产品的标配。ShipAny Two 内置了 Chatbot 功能,只需配置一个 OpenRouter 的 API Key 即可启用,无需编码。意味着你可以基于 ShipAny 做自己的 Chatbot、AI 搜索、AI Coding 产品。 为了一盘醋,包了一顿饺子。 通过上站在 ShipAny 集成常用的 AI 功能,做 AI 时代最好的建站工具。🔨
【1/12】一种被全球严格管制的毒品——K粉 2019年获FDA批准,再次成为精神医学的革命性疗法。 氯胺酮的故事,是一部从救命药→街头毒品→再次救命的过山车史。🎢 这不是什么励志鸡汤,而是科学如何重新定义“危险物质”的真实案例。 Thread ⬇️ 本文由@muset_ai辅助创作 https://t.co/xu94uYCG8f
在用一小段提示词跑出几条 10w+ 之后, 对 Vibe Creating 的看法开始改变了! 之前试 ChatGPT 或 Claude 帮忙写东西: 要么提示词不会、AI 味重、操作复杂, 时间都浪费在「喂素材 + 改结构」上。 上周试着用 https://t.co/i08muKA1nG 做了个实验, 效果不错,昨晚录视频回顾了下流程, 具体提示词放评论区了,坐等你的 10w+ ! (有用记得 点赞、评论和收藏呀~
爬取小红书爆款笔记➡️提炼共性➡️创建模板➡️生成配图➡️输出笔记🎉 Muset 这款主打 Vibe Creating 的产品有点东西!😍整套小红书爆款复刻一气呵成!太牛了!毕竟很多 AI Agent 在爬取笔记这一步就垮了🤪 整个创作过程都在视频里了,Muset 的 Creative Engine 确实很强大! 链接见评论👇 https://t.co/xSoEHRkcy0
Language In → Structure Out:AI 原生开发的第一公理 以下是我的牢骚,一些技术上的原则你打开链接看原文。 我一直有一个近乎公理性的原则——而且我越研究 AI-Native,越觉得它是整个结构文明的地基: 语言进(Language In),结构出(Structure Out)。 什么意思? 输入永远是语言。 因为人类世界根本就是语言构成的: 语言表达意图,语言触发行动,语言决定协作。 但是如果你让系统“用语言输出语言”, 那本质上你只是让一个高熵系统在高熵里漂流。 只有结构能抵抗语言熵。 所以在 AI-Native 世界里,输出必须是结构。 结构是什么?是可调度的、可组合的、可验证的、跨智能体可共享的状态。 为什么“结构出”是不可违背的基本法? 因为未来不是单智能体。 未来是多智能体社会、多开发者生态、多语言世界。 在这种环境下,你不可能用纯语言让两个智能体达成稳定协作。 语言太模糊、太随机、太容易漂移。 今天你说“准备一下报告”, 明天你说“把数据整理一下”, 第三个智能体理解成“做个总结”, 第四个理解成“做个 PPT”。 这在自然语言世界里完全合理, 但在一个需要长期运行、能自组织、能自演化的系统里, 它就是灾难性的熵增。 说一个极端的例子——“今天的文员工作,会被我的结构体系彻底重做” 现在的文员是什么工作形态? 你每天写 prompt: “帮我把昨天的销售数据写成报告。” “帮我总结一下客户反馈。” “把这个表格做成周报。” AI 当然能做。 但 AI 只是在 “一次性理解 → 一次性生成”。 它没有世界模型。 没有结构。 没有跨任务的连续性。 没有智能体之间的协作空间。 这种方式再强,也是 AI 版的手工劳动。 但如果换成我的 AI-Native 路线,会发生完全不同的事: 1. 所有语言输入先被压成结构 销售数据?客户反馈?任务要求? 统统进入结构卡: entity action time constraints status ledger entry 结构是跨智能体可共享、可验证的真实世界。 2. 再由结构驱动智能体之间的协作 所谓“写报告”的智能体,只是最后那一层展示层。 它并不是系统本体。 真正的系统本体发生在结构层: 统计 agent 数据清洗 agent 分析 agent 决策 agent 风险过滤 agent 文书 agent(最后才上) 一个报告在被写出来之前, 其实已经在多个智能体之间经历了十几轮结构计算。 3. 最后生成的报告,只是结构的语言化外壳 你看到的是文字。 但系统真正理解的是结构。 结构才是“世界本体(world model)”。 语言只是“呈现层(rendering)”。 结构出 → 才能让多智能体社会真正出现 AI 原生开发的根本不是生成文本、不是生成代码、甚至不是“自动化”。 AI 原生开发的本质是: 让语言变成可执行结构,让结构成为多智能体的共同世界。 你如果输出的还是语言, 那你永远停留在“一个大模型回答你一句话”的局限里。 但如果输出的是结构, 那你得到的是: 可调度的世界 可协作的世界 可回放的世界 可验证的世界 可持续演化的世界 语言不能形成文明。 结构才能形成文明。 这点我其实最初的想法就是来自 BPS @jinniudashu My Core Position on AI-Native Development: Part 2 (for developers) https://t.co/mUO9DaJhOM
转译:也许你并没有真正尝试——能干的人,也会选择性地无能为力 作者:Cate Hall 五年前的假期里,有两件事情同时发生在我身上:我去了戒毒康复中心,并且遭遇了一名网络跟踪者。 这两件事并非完全没有关联。那个跟踪我的人来自印度,他是在我玩扑克牌时开始关注我的。他逐渐认定我们之间存在某种亲密关系,并坚信我的每条推特都是专门发给他的暗号。 当我连续两个月停止发推后,他确信我一定出事了,于是找到我的邮箱和电话号码,开始疯狂给我发消息,逼问我的下落。 当我意识到这一切时,情况已经失控了。我明确地知道,自己永远不会回应他。我开始不断拉黑他的账号,但他总能换个号码、注册新账号或用其他方法找到我。他每天给我发几十条消息,从威胁到哀求都有。半年后,他甚至找到了我的公司申请职位,我由此得知了他的真实姓名,试图通过他的一位旧友来寻求帮助。然而,那位朋友却因为害怕惹祸上身而拒绝帮忙。我感觉自己束手无策,只好寄希望于他迟早会放弃。 但他从未放弃。数年过去了,我从未回复过他,他却每天依旧给我发数条消息。这些消息越来越恐怖,越来越色情,甚至威胁称会来伯克利伤害我。去年11月,情况终于到了极点:短短几天内,他向我发来了他刚办好的护照和签证申请的照片,并宣称即将前往美国。同时,他通过伪装我的电话号码向我哥哥勒索了一笔钱,声称绑架了我。 「受够了!」我愤怒地想,我决定立刻行动起来。但事实上,我什么都没做。我只是蜷缩成一团哭泣,朋友们劝我报警,我却绝望地认为,自己在美国,他在印度,报警根本没用。 可我的丈夫并不这样想。他坚持认为一定有更好的办法,并请求我允许他代我处理此事。他迅速联系了FBI和美国驻印度领事馆,并在他朋友Govind的帮助下(Govind在印度有亲戚),成功联系到当地警方。短短几个月后,问题得到彻底解决。那个跟踪者再也无法踏上美国的土地。 这件事最有意思的一点是,我丈夫采取的策略并不特别新颖。他所用的方法,和我帮别人处理类似问题时能想到的几乎一模一样。那么,为什么非得另一个人介入,我才明白自己并没有真正尝试过? 我想原因可能是这样的:当跟踪者进入我生活时,我正处于人生的低谷期——孤独、迷茫又穷困潦倒。当时我采用的唯一应对办法,就是忽略并寄希望于他自己放弃,这似乎是当时我唯一有能力做的事。但问题在于,我对这个问题的态度,从那时起就被固定住了。后来,我的生活状况逐渐改善,我的能力也增强了,可我从未重新评估过当时的做法是否正确。 我想,我们所有人都是如此。 人并非简单地高能或低能,而是选择性地拥有行动力(selectively agentic)。 假设我们把生活分成三大领域:工作、与他人的关系(包括所有人际关系)、以及自我关系(身体健康、自我探索、情绪成长等等)。事实上,每个人可能都有至少一个领域,仍然停留在早年未成熟的阶段。在那个领域,我们面对问题时就像十几岁的孩子一样幼稚和无助,而事实上我们早已成年。 在我所处的圈子里,有许多工作领域的高成就者。他们在科学、技术和政策领域不断创新,改变世界。但他们中的不少人,却没有将同样的聪明才智应用到内心的成长和人际关系中。他们能在异国他乡成功推出新产品,却抱怨在约会软件上找不到有趣的人。 默认情况下,我们面对一个曾经失败过的问题时,总是停留在最初尝试并失败的那种无助状态。 比如,假设你20岁时曾尝试过心理治疗,但并未有效缓解焦虑。你逐渐认定这是个无法解决的问题,于是接受焦虑就是你性格的一部分。但现在,你可能已经32岁了,是一家创业公司的技术主管。当工作中遇到难题时,你总能竭尽全力,尝试各种方法,不断学习。可对待自己的焦虑问题时,你却不再尝试了。 你可能从没认真想过自己是否能: - 仔细检查自己的营养和睡眠状况; - 了解各种补剂或药物; - 投资改善自己的休息与恢复; - 问问朋友们最有效的治疗方法,寻找最优秀的治疗师或教练; - 研究一些专为你这样的人开发的新疗法。 你没做这些事,只是忍受,或者用最初学到的需要极大意志力的方法来抵抗焦虑。这种挣扎让你觉得自己很努力。然而感受到辛苦,并不意味着你真正尝试过了。 这让我想起了亚历山大技巧(Alexander Technique)的一个相关概念:“感知失真”(faulty sensory appreciation)。长久习惯的身体紧张会扭曲你的感官,让你误以为僵硬的姿势才是“良好的体态”。同理,那些选择性无能的人可能也有感知失真的情况。比如你觉得人际关系总是困难重重,需要不断付出意志力,这种辛苦甚至成了你努力的证明。然而,不断地挣扎可能只是说明你的生活结构存在问题。 我建议你假设,在你的生活中肯定存在某个领域,你不自觉地被冻结在了过去的某个状态。这非常值得你仔细排查。仔细审视一下工作、与他人关系和自我关系这三个方面,找出你面对的最大问题。有时候,它可能看起来并不像个具体问题,而只是一种悲伤或愤怒,比如没人理解的悲伤,或工作缺乏意义的挫败感。 找到它们后,问问自己:“我真的已经尽了全力、用尽了所有资源去想办法了吗?如果换成朋友遇到同样的问题,我能否给出更好的建议?我如何确定自己是真的尝试过了?” 注:作者的新书《You Can Just Do Things》即将出版。 --- 来源:https://t.co/Wnaj0aUlvA
段永平说过一句很少人注意的话。 "我能保证总部不行贿,但管不了全国代理商。" OPPO做到世界级,段永平投资赚了上百倍。但他依然坦诚承认,有些边界自己控制不了,有些规则自己改变不了。 真正的高手,不是掌握了什么"永恒的智慧"。 而是清楚地知道自己能做什么,不能做什么。 知道什么时候该坚持,什么时候该放弃。 2025了,那些还在找"万能钥匙",“方法论”的人,可能要失望了。 段永平的下篇,关于段永平的成功与局限
《枪炮、病菌与钢铁》其实还有纪录片,3 集时长 2 小时 40 分钟,由原书作者贾雷德·戴蒙德亲自主持,PBS/NGC 联合制作。 相比书本来说更加生动,同时少了很多数据和文献信息,能快速看完。 在哔哩哔哩上搜索就可以找到带中文字幕的。 https://t.co/PRxThNCX0l
朋友公司最近招 senior level SDE,fully remote,薪资匹配加拿大大厂水平。 不加班,没有 oncall,业务主要是为电商商家提供 SaaS 服务让他们能够把自己的业务 scale,目前为这个领域的第一名,公司创始人来自斯坦福和哈佛。 但要求在北美时区附近,加拿大和美国都可以。 要求技术栈主要是 Next.js/React 和 Python。熟悉或者听过 tanstack query,oRPC/tRPC,React Hook Form,Supabase 大量 HC,简历请发送给 [email protected]
养活自己,都是这条路的终极目标了。 起步目标,是离开大厂之后能独立工作,光是这一关,大部分人都过不了。 克服孤独,项目选择,时间安排,进度督查,这一切在完全孤立的情况下完成。不是一般人。 其实我觉得一个很重要的能力,就是在你成为freelancer之后的社会交往能力。俗称社交:交到志同道合朋友的能力。因为社会上是有大量的社群的,尤其是欧美这边,各种协会,组织,兴趣讨论。 这一关,又筛掉不少。
Peter Yang 对 Cursor 设计负责人 Ryo Lu 的访谈中,其中两点尤其认同: 1. 在 AI 原生(AI-native)公司里,角色边界会变得很模糊。 在 Cursor,设计师、产品经理、工程师之间的分工并不是传统那种各管一摊。 Ryo 的说法是:大家会根据自己的长处来做事,谁更擅长就多承担那一块,然后用 AI Agent 把这些工作串起来,形成一个完整的产品体验。 2. 模型越强,规格说明(spec)就越重要,而不是越不重要。 Ryo 的预测是:随着大语言模型能力越来越强,它们会变得非常擅长“严格按规格实现需求”。 这意味着:你的 spec 写得有多清晰、具体、准确,很大程度上就决定了 AI 帮你做出来的东西质量有多高。 3. 分批发布,每一轮都会根据反馈打磨调整 Ryo 讲了 Cursor 内部发布的节奏: 第一步,先发给公司内部员工用; 第二步,再把最新的 nightly build 发给 Cursor 的忠实用户; 第三步,才逐步推给普通用户; 最后,才是企业用户(enterprise)。 每一批用户都是一次打磨机会,让他们在小范围发现问题、修细节,再扩大范围。
国内的知识付费行业,是一个,只要你不割,就能超过 99% 的人的行业 只要你能把话说清楚,就能超过 99.99% 的人的行业 竞争无限接近于 0
