🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
lulu你们看一下 -衣服 -消费 -壁垒低 短期走势比较磨底,长期走势非常MRNA,市场份额在被ALO抢,没有什么明显领先的,服装这玩意就是几年过气一批,某个层面来说还不如买奢侈品的股票,想玩只能短玩,之前有知名美股kol喊过270抄底,几个月过去170了。 自己判断吧,不是特别推荐,但是属于没得玩可以小仓位玩一下
Black Forest Labs 发布 FLUX.2,依旧开源! 支持文生图、多图参考以及图像编辑,文本生成和提示词遵循能力大幅提高。 具体的模型能力有: - 最多同时参考 10 张图片,提供最佳一致性。 - 更丰富的细节、更清晰的纹理和更稳定的光线。 - 复杂排版、信息图、表情包和用户界面的文字渲染 - 在遵循复杂、结构化指令方面得到改进 - 现实世界知识、光照和空间逻辑方面显著更有根据 - 支持高达 4MP 分辨率的图像编辑 这次发布了四个模型版本: FLUX.2 [pro]:与最优秀的封闭模型相媲美的最先进图像质量,在提示遵从性和视觉逼真度方面与其他模型相当,同时生成图像更快且成本更低。速度与质量两者兼得。 FLUX.2 [flex]:可控制模型参数,例如步数和引导强度,让开发者对质量、提示遵从性与速度拥有完全控制。该模型在渲染文本和细节方面表现出色。 FLUX.2 [dev]:32B 开放权重模型,源自 FLUX.2 基础模型。当前最强大的开源图像生成与编辑模型,将文本到图像合成与多输入图像的图像编辑结合在单一模型中。 FLUX.2 [klein](即将推出):开源,Apache 2.0 许可证模型,从 FLUX.2 基础模型通过蒸馏得到的同尺寸模型。比同等尺寸且从头训练的可比模型更强大且更利于开发者使用。 FLUX.2 - VAE:一种新的变分自编码器,用于潜在表示,在可学习性、质量和压缩率之间提供优化的权衡。
两年没健身,在家买了一组哑铃,一个瑜伽垫 打完球回家,来了一套 TABATA,练完当场呕吐了😂 放弃西式健身,改成八段锦可能适合我
我准备好了! https://t.co/XYaatbsySt
Nano Banana Pro 最近确实风头正盛,但是在人物质感跟环境氛围这方面,还得是 Midjourney 😏 第一张真像我前前女友,太那啥了!😍 Prompt 见评论👇记得回来交作业📷 https://t.co/vvE4241W3Q
YouMind 的 Nano Banana Pro 生图功能已支持 4K 高清功能。开启方式:在提示词里,带上高清、HD、清晰等描述词就好。 缺点:生成有点慢,需要 1 - 2 分钟。 优势:中文密集渲染都很精准了,非常强。 赶紧用起来。限时免费一周还有 2 天,这周四晚上结束。 看着燃烧的 tokens,心里好疼。 赶紧用起来,期待对你有用,付费订阅下,这个月底前还有黑五五折优惠码(BLACKGIFT),对所有套餐生效,如果年付,立省 100 或 500 美元。 期待你大胆把 AI 用起来,不止于在媒体看别人玩。 访问可立即注册:https://t.co/VwPMne4V1o 移动端浏览器也可访问
我第一次读《随机漫步的傻瓜》是在几年前。当时只觉得塔勒布毒舌、愤怒、爱骂人,甚至有点装。很多段落我都看不进去,总觉得他在“故弄玄虚”。直到这些年我亲自经历了一些事情:中了全球只有三百个名额的银蕨签证从而移民新西兰、疫情裁员与就业,小概率事件一次次击中我,我才明白,这本书不是难懂,而是我当时“没资格读懂”。 塔勒布一直在讲一件听上去很反直觉的事: 我们看到的世界,是从无数随机路径里选出来的一条“幸存故事”。 但人脑会自动把它当作“规律”,把偶然当必然,把噪音当趋势。 我对这个认知的第一次冲击,是从地震开始的。 汶川地震那一年,我第一次意识到: 所谓“世界有秩序、人生是连贯的”这种信念,可能只是文化灌给我们的幻觉。 地震、海啸、山火这种大自然的暴怒,让我第一次感受到“不连续性”是真实的。 那之后又爆出红十字会的丑事,这种“随机事件 + 意料之外的真相”塑造了我后来很多批判精神。 我当时完全不知道,这就是塔勒布说的“黑天鹅的教育方式”。 书里有一段让我彻底安静下来: 幸存者偏差取决于母体有多大。 母体越大,幸运的故事越多,而我们看到的,永远只是那极少数的幸存者。 这句话解释了太多现象: 爆红的自媒体、突然暴富的投资者、看似“努力就能成功”的创业故事…… 背后全是成千上万看不见的失败路径。 塔勒布举的“消防站效应”也特别真实。 一群消防员闲着聊天久了,就会开始构建一种“共同幻觉”,以为自己总结出了某些规律。 这种现象在社交媒体时代被放大到疯狂: 算法圈出一个信息茧房,你以为全世界都在讨论 GDP,你以为所有人都在做副业,你以为大家都在努力。 其实只是你和你的“消防站”待太久了。 塔勒布的真正目的不是嘲讽别人,而是提醒我们: 不要轻易把 A 和 B 之间建立联系,人脑天生喜欢讲故事,但世界不是靠故事运作的。 你看到股价上涨,不代表你的分析正确; 你看到别人发财,不代表你可复制; 你看到某位基金经理成功十年,也可能只是运气在发光。 他在书里透露自己靠“反向稀有事件”赚钱——简单说,就是靠市场的大波动“吃一次大的”。 这种方式让他在平时可能赚得很少,甚至经常亏一点点,但一旦黑天鹅来临,他能一次回本十次。 我以前完全不理解为什么有人要靠“极少数事件”谋生。 现在我明白了,因为大量的“小收益”本身就是假象,真正改变人生的是极端情境。 这个逻辑同样适用于生活。 恐龙在几千万年的氧气充沛环境里越进化越巨大,但越巨大越脆弱,最后被一颗小行星轻易消灭。 公司也是这样,越大越僵硬、越怕风险、越容易在黑天鹅事件里被震碎。 打工的人也一样,公司裁员、老板情绪失控、行业突然雪崩,这些“黑天鹅”与你的 KPI 没半毛钱关系。 书里有一句话,我读的时候整个人停在原地: 我们经历的现实,只是所有可能历史中的一条路径,我们却把它当成了最具代表性的那一条。 这句话一下子解释了我很多焦虑。 我看到别人成功,我以为那是路径。 我看到别人创业失败,我以为那是命运。 但其实,那只是“其中一条路径”。 我们真正能做的,不是预测哪种路径会发生,而是避免那些“会直接把你弄死的路径”。 塔勒布反复强调一个非常朴素但深刻的策略: 避免负面黑天鹅。 尽量去接触正面黑天鹅。 意思是: 避免掉下悬崖,却尽可能站在会被好运撞到的位置。 我这些年的一个变化,就是开始问自己: “这件事有没有幸存者偏差?” “我是不是被信息茧房洗脑了?” “这是运气,还是能力?” “这个风险是可承受的吗?” 这些看似简单的判断,反而让我比以前更冷静。 我也更能接受自己的无知。 塔勒布说,真正的专业不是预测,而是承认你无法预测。 真正的智慧不是整天分析,而是知道什么时候闭嘴。 最后,如果要用一句话总结这本书,我会这样说: 世界不是连续的,人生也不是; 我们能做的最理性的事,是学会与随机性共处,而不是试图驯服它。 读完《随机漫步的傻瓜》,我最大的感受不是恐惧,而是平静。 我终于不再要求生活“讲道理”。 我开始接受,混乱、突变、黑天鹅、本能偏误——它们不是异常,它们就是世界的底层逻辑。 而我需要做的,只是在这个不连续的世界里,活得更清醒一点。
Anthropic 这次给了三个非常重要的 LLM Inference API 的可选能力,算是进一步优化 Tool Use 过程中比较头疼的问题。 - 搜索工具的工具 - Programmatic Tool Calling:Inference 层的面向 Tool Use 流程、上下文选取处理的 DSL(Python) - Tool Use 例子字段 第一个(让工具总量可扩展、或者用一轮搜索节省一些 tool spec 的 token)、第三个(方便更准确调用复杂多可选参数)比较直接了。 第二个看这个图就比较清楚了:Inference API 上,根据请求 LLM 用结构化、可编程的方式(DSL,Anthropic 给的实现是 python)给出多轮的处理方式,之后过程中的 Ping-Pong 不需要过 LLM,而且中间过程 context 会按照 DSL 的逻辑去按需处理。 这个抽象引入的意义太大了,以前我们做 Chain of Exploration 的时候,就定义过 DSL 让 LLM 给出多轮 Knowledge Graph 的 Exploration Plan,然后去 Evaluate 这个 DSL,就能做到一轮 LLM 然后多轮 Graph Traversal 的工作了,如果 Programmatic Tool Calling 成为 LLM inference 标准,这样的事情就完全不用自己去蹩脚实现了。
针对 openai 的艰难时刻,我向山姆奥特曼谏言 将“等待时间”重新定义为“注意力经济的变现窗口” 在 AI 生成代码的 30 秒 Thinking 阶段,无缝插入精准投放的流媒体广告。 开发者付出注意力,换取 Token 减免;看完广告掉落“算力碎片”,集齐可兑换 GPT-5 使用权或直接提现; 以前是开发者花钱买时间,现在是品牌方花钱买开发者的眼球。 开发者开心,大模型厂商满意,让每一秒等待,都变成真金白银。 拳打谷歌,脚踢 grok,以改兼赈,两难自解。 以上
想培养小孩子的特定习惯吗? 铁锤我花了一下午研究出习惯卡元提示词 输入回答 啥习惯,月份,是否自动生成习惯 老规矩:评论区给出元提示词 https://t.co/TbSfQrmccQ
藏师傅的相去哪儿就去哪儿相机终于发布了正式版! 我还专门写了个官网来介绍功能,同时增加了三个渠道,保证有一个你是能用。 赶紧来试试:https://t.co/5hmaYVC5E2 https://t.co/YUZPUDnJ3U
看完这个,我的反应是,我感觉白领失业,像是整个经济运作系统,到了一个临界点。由于我在国内的本科经历,我同龄人中其实有大量优秀顶尖高校的文科和商科生,一开始她们都是很风光的。 直接说结论: 整个模式发生变化,以PPT和文职管理为核心的传统企业治理模式将发生巨变。 PPT,邮件,无法直接产生action. 听起来很抽象,我知道我的角度跟所有人都不一样。 但是如果你一直关注我,和看过我说Palantir的帖子。就知道我在说什么。 业务到这个科技阶段。肯定不是PPT了,而是Foundary, 本体论,action执行。在这种节点上,会做PPT的前商业精英会一路掉价。 我认为金牛兄对于@jinniudashu Palantir成为初代社会图灵机提供商这种没人想得到的预判,我越来越赞同。 他们现在160刀的股价被低估了。 35岁失去高薪,经历一年挣扎,薪资降幅高达60%;消费降级从星巴克到蜜雪冰城,中年人要向现实低头 https://t.co/o7UVsxg4iO via @YouTube
Kuse 新版看起来也不错,有点像 Youmind 和之前推荐的 Muset,功能也很像。https://t.co/k8EZUoni2Y https://t.co/RyuWV3rY1V
🍌 Extract an image into a JSON-formatted prompt. --- Prompt Start --- Provide a detailed and comprehensive JSON prompt describing all aspects necessary for accurately replicating the original image. Include specifics about objects, clothing, hairstyles, intricate details, accessories, photographic equipment, environment, lighting, style, body poses, and any other relevant elements, ensuring that every detail of the original image can be precisely recreated.
Hunyuan OCR, Tencent's new document-understanding model, is now on @huggingface 🚀 - SOTA in document parsing, visual Q&A and Translation - 1B-parameter, end-to-end - Interactive demo available - Tech report released Model: https://t.co/cMj7Mu2BaL Demo: https://t.co/mEFhQ9FLDl https://t.co/9dd7yL1FGT
中文没有空格,分词就是个大问题。 中文一词多义,"意思"和"意思"可能是完全不同的意思。 中文语序灵活,"我打了他"和"他被我打了",主语都不一样。 所以,中文太复杂,机器搞不定。 我以前也这么想。 直到我理解了 Word2Vec 是怎么工作的。 它根本不在乎语言的语法规则。 它只看一件事:这个词周围都是谁。 "苹果"周围经常是"水果""香蕉""新鲜"。 "蘋果"周围也是。 "apple"周围也是。 对 Word2Vec 来说,这三个词是一回事。 因为它们的用法一样。 中文有一词多义?没关系。 "苹果"(水果)周围是"吃""甜""新鲜"。 "苹果"(公司)周围是"手机""电脑""发布会"。 Word2Vec 会给它们不同的向量。 因为它们的上下文不一样。 中文分词难?也没关系。 Word2Vec 可以直接在字符级别上训练。 不需要分词,直接看字和字之间的关系。 甚至有研究发现,字符级别的中文词向量,效果不比分词后的差。 因为对机器来说,语言不是规则,是统计。 它不需要懂语法,它只需要看够多的数据。 看多了,它自己就知道: 哪些字经常一起出现,哪些词意思相近,哪些句子表达相似的意思。 英文也好,中文也好,对 Word2Vec 来说,都是一样的: 一堆符号,和这些符号之间的统计关系。 所以,中文 AI 不如英文? 不是语言的问题。 是数据的问题。 英文数据多,所以英文模型好。 中文数据少,所以中文模型差。 但这不是中文的错。 Word2Vec 证明了: 任何语言,只要有足够的数据,机器都能学会。 语言的复杂性,对人是障碍。 对机器,只是统计模式的区别。 --- 另一个AI生成版本。
🍌 nano banana pro prompt --- Prompt --- Please create an infographic based on the input content, highlighting key themes and essential points: - Simplify information, emphasizing keywords and core concepts, leaving ample whitespace for clarity. - Include minimalistic cartoon elements, icons, or simple portraits of famous figures to enhance engagement and visual recall. - All text and images should strictly use colored chalk style without realistic illustrations. - Unless specifically requested, maintain the original language of the input content. - Use a horizontal layout (16:9) with a black chalkboard background and colorful chalk drawing style. Use "nano banana pro" for drawing based on the provided content.
最近数学圈发生了一件很有意思的事。 世界顶级数学家陶哲轩在解决一个 Erdős(埃尔德什)的经典问题时,全流程都在用 AI 做助手——从证明草案,到简化证明,再到形式化验证。 Erdős 是20世纪最高产的数学家之一,一辈子发表了1500多篇论文,提出了无数开放问题。数学圈有个著名的"埃尔德什数"——如果你和他合作过论文,你的埃尔德什数就是1;和他的合作者合作过,就是2,以此类推。爱因斯坦的埃尔德什数是2。 后来有人专门做了一个网站,把他的很多未解决/已解决问题系统整理出来,这就是 Erdos Problems 网站。 陶哲轩讲的是其中的第 367 号问题,属于数论里的一个具体问题,专业数学研究级别的问题。 解决过程大概是这样的: 一位数学家 Wouter van Doorn 先给出一个人类手写的反例证明草案,但里面有一个关键恒等式他没完全证明,只是说:“相信有人能帮我确认一下”。 陶哲轩把这个恒等式扔给 Google 的 Gemini Deepthink 模式。大概十分钟后,Gemini 给出了一份完整证明,还顺带确认了整套论证是成立的。 Gemini 的证明用到了 p-adic 等比较高级的代数数论工具,对这个具体问题来说有点杀鸡用牛刀。于是陶哲轩花了半小时,把 AI 的证明手工转化成更基础、更易懂的版本。 两天后,另一位数学家 Boris Alexeev 用一个叫 Aristotle 的工具(基于 AI + Lean)完成了全套形式化证明,还特意手动检查最终结论,以防 AI 在形式化过程中存在编造。 陶哲轩觉得还没完,又用 Deep Research (同时用了 ChatGPT 和 Gemini)做了一轮文献搜索,看这个问题有没有前人类似工作。结果找到了若干关于连续幂数的相关论文,但没有直接解决第 367 号问题。 整个流程:人类提出猜想 → AI暴力证明 → 人类简化优化 → AI辅助形式化验证。 都在说 Gemini 3 已经到了博士生水平,看来所言非虚,这些事情真的需要数学博士级别才能做的出来,但另一方面,真正的数学家也并没有被 AI 代替:是人类决定哪个问题值得解决,是人类判断AI的p-adic方法太重了需要简化,是人类手工完成最终的形式化表述以验证 AI 的结果是否准确。 AI 做的是那些需要大量计算、符号推演、但方向已经明确的体力活。在 AI 时代,问对问题、甄别结果,比以前更重要了。
结束啦,我铁锤人独立开发失败啦,开始卖河粉啦 欢迎大家来点,我用下面的Nano Banana Pro 的Prompt炒给你们吃 0) Think first / 先思考再输出 菜品核心组成识别(干炒河牛 / Beef Chow Fun): 主食:河粉(宽扁米粉) 主蛋白:牛肉片(腌制滑炒) 关键调味:生抽/老抽、蚝油、糖、白胡椒、绍兴酒(或料酒) 典型配菜:豆芽、洋葱、葱段 油与香气:花生油/菜籽油、锅气(wok hei) 最终点缀:葱花、少量胡椒或香油提香 拆分实物层数 N(不含空白层):典型炒粉结构 → N = 6 层 解构叙事顺序(从颠出来的顶端开始): 香气/调味粉香 → 顶部点缀 → 牛肉主体 → 配菜脆爽层 → 河粉主食层 → 酱油油润与锅气油层 每层包含:食材名 + 颜色/形态 + 质感/状态 + 风味作用 锅具中的“整体成品”先出现 → 颠锅抛起后解构成悬浮层 最后输出“成品层(Final Bowl)” 画面叙事: 黑色背景 + 顶端金色标题 人物正面朝向观者,手中颠锅 锅里是完整成品,锅上方是分层悬浮 1) 顶端标题输入(金色字) 标题文字(中文/或双语): 铁锤人独立开发终点:卖炒粉 标题视觉(固定要求): 金色标题 / golden title text, metallic gold foil or brushed gold, subtle glow, high contrast on black 排版建议: 置于画面最顶端,居中或略偏上居中。 不压住人物头部与悬浮层。 可一行主标题 + 小一号副标题(可选)。 约束: 标题已提供,直接使用,不要擅自改写。 2) 画面与人物输入(黑背景 + 颠锅动作版) 背景设定: 黑色背景 / deep black studio background, matte subtle texture, high contrast spotlight 用户头像要求(必须先让用户提供): 请用户上传清晰正脸头像(光线均匀、无遮挡、无夸张滤镜)。未提供头像时不要生成具体人物。 厨师化处理(基于用户头像|必须像本人): 严格保留用户五官比例、脸型、皮肤质感与年龄特征(不改变性别/种族/身份特征)。 禁止“换脸/重塑成陌生人”;相似度优先。 专业厨师造型:厨师帽、厨师服/围裙(干净、利落)。 可加入自然厨师道具,但不喧宾夺主。 表情与气质:自信、友好、专注。 灯光:人物顶侧柔光 + 轮廓光,使其从黑背景中清晰分离。 人物朝向与姿态(关键): 人物正面朝向观者(面向“我”),双手操纵锅具/餐具做颠锅动作。 锅具/餐具指定(必填): 【指定锅具/餐具名称:如炒锅 / wok】 材质与颜色:【铸铁/碳钢 + 深色金属哑光】 动作叙事(已修正的逻辑): 锅内:完整成品(合体状态)清晰可见。 颠出瞬间:成品从锅里被抛起,立刻开始解构。 锅上方:Layer 1…6 依次悬浮展开,保持重力方向一致、间距清晰。 人物与锅在下方“托举/颠出”,分层在上方“展开叙事”。 3) 菜品基本信息 主题菜品(中文):干炒河牛 主题菜品(English):Dry-Fried Beef Chow Fun (Beef Chow Fun) 菜系/风味关键词(可选):粤式 / wok hei / 咸鲜 / 酱香 / 油润 4) 锅内整体(Whole Dish in Pan / Base State|固定层) 锅内整体名称:干炒河牛 / Beef Chow Fun 锅内整体描述: 宽河粉裹着深浅相间的酱油色泽,牛肉片油亮嫩滑,豆芽与洋葱夹杂其间,葱段点缀;整体呈现干香咸鲜、带明显锅气的合体成品。 受光与质感: 锅内可见油光与酱色反射,河粉边缘微焦,牛肉表面润泽,热气轻薄上升。 与动作关系: 成品正处于被颠起的瞬间,锅内仍完整,锅上方即将展开分层解构。 5) 实物分层(Layer 1…6|从颠出来的顶端开始) 总实物层数:N = 6 Layer 1(香气/调味层|Aroma & Seasoning) 食材:白胡椒粉、微量糖粉、少许炒香蒜末碎 颜色/形态:淡米白/浅金色粉末与细碎颗粒 质感/状态:干燥轻盈、颗粒细小、带热香 作用/风味(可选):提香、增鲜、制造“干炒”的香气顶端冲击 备注(可选):胡椒与蒜香形成第一波锅气嗅觉 Layer 2(顶部点缀层|Top Garnish) 食材:葱花、葱段 颜色/形态:鲜绿色小段/细碎 质感/状态:清新脆嫩、轻微油润 作用/风味(可选):清香提亮、对比深色酱香 备注(可选):随热气微微卷曲悬浮 Layer 3(牛肉主体层|Beef Protein Layer) 食材:滑炒牛肉片、少量酱色包裹 颜色/形态:深棕至红褐色薄片,边缘油亮 质感/状态:嫩滑多汁、微焦香 作用/风味(可选):主蛋白鲜味来源、与酱香结合 备注(可选):腌制含生抽、料酒、淀粉形成滑嫩口感 Layer 4(配菜脆爽层|Vegetable Crunch Layer) 食材:豆芽、洋葱丝、韭黄(可选) 颜色/形态:豆芽乳白带黄头、洋葱半透明浅紫白丝 质感/状态:爽脆多汁、轻微热熟 作用/风味(可选):增加清甜与脆感,对比主食柔软 备注(可选):保持短炒,避免出水 Layer 5(河粉主食层|Rice Noodle Base) 食材:宽河粉 颜色/形态:酱油棕色宽扁带状、部分边缘微焦 质感/状态:柔韧滑弹、干身不粘、带锅气焦香 作用/风味(可选):承载酱香与油香的主结构 备注(可选):高温快炒形成“wok hei” Layer 6(汤/酱/油层|Sauce & Oil / Wok Hei Layer) 食材:生抽、老抽、蚝油混合酱汁、热油薄雾 颜色/形态:深琥珀至黑棕色油亮薄膜/雾化油点 质感/状态:油润浓香、薄而均匀附着 作用/风味(可选):咸鲜酱香核心、带微甜收口与锅气 备注(可选):液体层负责把所有实体层“合体”成最终味型 6) 成品层(Finished Dish / Final Bowl) 成品名称:干炒河牛 / Beef Chow Fun 组成描述: 河粉、牛肉、豆芽洋葱与酱油油香在高温锅气中合并成干香咸鲜的一体成品。 主体表现: 宽河粉被酱油与热油均匀包裹,表面油亮、局部微焦;牛肉片嵌入其间,嫩滑带酱香。 顶部点缀: 葱花与葱段落回顶部,形成绿色对比与清香尾韵。 热气/新鲜感(可选): 现出锅的轻薄蒸汽与油香热雾可见。 容器归位: 成品最终落回指定炒锅/餐具中,形成“解构→合体”的定格。 7) 食物标签(Bilingual Labels|Layer 对应 + 中英对齐) 胡椒蒜香顶味 / Pepper-Garlic Aroma Crown 对应图层:Layer 1 对齐要点:中英都指向“胡椒粉+蒜末碎”的顶端香气层。 青葱清香点缀 / Fresh Scallion Garnish 对应图层:Layer 2 对齐要点:同步概括“葱花/葱段”的绿色清香装饰层。 滑嫩酱香牛肉 / Tender Soy-Glazed Beef 对应图层:Layer 3 对齐要点:中英一致描述“嫩滑牛肉片+酱色包裹”的主蛋白。 豆芽洋葱脆爽 / Crunchy Bean Sprouts & Onion 对应图层:Layer 4 对齐要点:双语对齐“豆芽+洋葱”带来的脆爽配菜层。 宽河粉锅气主食 / Wok-Hei Flat Rice Noodles 对应图层:Layer 5 对齐要点:中英都强调“宽河粉”与“锅气焦香”主食层。 酱油油润核心 / Soy Sauce Oil Gloss 对应图层:Layer 6 对齐要点:一致指向“生抽老抽蚝油+热油”的酱/油融合层。 干炒河牛合体成品 / Final Beef Chow Fun 对应图层:Finished Dish 对齐要点:整体标签中英一致指向所有层合并后的最终成品。 8) 快速自检 N = 6 合理覆盖灵魂元素(河粉、牛肉、酱油油香、豆芽洋葱、葱、胡椒蒜香、锅气) 包含:主体、关键调味、典型配菜、汤/酱/油、终极点缀 已先写“锅内整体”,再写“颠出来的分层” 分层顺序符合“风味→点缀→主体→配菜→主食→液体酱油油层→合体” 成品层包含所有层的合并结果 标题为用户输入且金色字效果已明确 人物相似度教练检查(需用户头像后执行): 是否严格保留用户脸型/五官/年龄?→ 待用户头像 相似度是否达到“像本人”?→ 待用户头像 若不够像:减少风格化/回退真实头像特征。 标签对齐检查: Layer 1…6 关键词已列,Labels 全覆盖 中英文语义一致、图层编号真实存在 无遗漏,无需补充
互联网泡沫是2000年,原因是一年IPO了500多家没有任何实际业务支持的公司。 AI是17-18年经历过计算机视觉的繁荣,后面发现计算机视觉能做的就是人脸识别和安防的物体识别,没什么几把突破,于是AI四小龙死CEO的死CEO,上不了市的上不了市,实际上那两年只有中国在吹AI,NLP那时候就是jieba分词的水平,于是那轮结束了。 这几年大模型的出现改变了过去的商业模式,全球最大的市场是广告市场,广告的模式就那么几种,CPM、CPC、CPA、CPS,所有都是基于转化来的。 但是大模型不一样,持有大模型的公司可以卖token给所有其他公司,是订阅模式,无广告但是实际依赖效果的模式(看openai和claude的收入就知道了),如果没有实际作用,3个月用户就会全部流失掉,现在已经持续了几年,而且所有商业公司都在主动用AI提效,这与2000年没有任何实际业务,就一个.com域名就可以上市,有着根本性的不同,token越来越便宜,但是消耗量会越来越大,这是一个普及的过程,类似12年智能手机的普及,所以会看到mag 7疯狂裁员+建数据中心,btc矿企转数据中心,半导体产业疯狂推出新品。 我常说,这个市场,只要不学习,认知就会跟不上,洪灏前几天btc也看到7万了,kol还在crcl看到几年后500,万物都有逻辑,我们赌25bp降息的反而对了。 但是我们知道自己在赌,因为你支持一个小概率事件本质上就是赌,然后美联储副主席威廉姆斯出来讲话,25bp概率从36%变成70%,80%,看到7万的人变成了多头。 敬畏市场,不断学习,跟你现在有多少钱没有关系,你最终会选择适合你的道路,并且一直赚下去。
2025 #黑五 / 感恩节折扣大集合来啦!🔥 收集全网 400+ 个 AI / SaaS / 手机 & PC 应用, 最终 和 @chuhaiqu 一起精选出 100 多个最值得入手的,都是大家常用、优惠力度比较大的,所有折扣链接都放在评论区啦 99% 的年度最低价都在这几天!错过了就要再等一年。
为什么一定要做自己的产品? 大家经常聊“睡后收入”。 但没人告诉你: 睡后收入的本质,不是钱自己会来,是你变贵了。 什么叫变贵? 就是你做一次的东西, 可以卖一百次、一千次。 你写一篇文章,可以被搜索到一万次,帮助很多人。 你录一个课程,可以被购买三年。 你做一个模板,可以被下载无数遍。 你没有睡后收入,不是因为你不够努力。 是因为你做的事情,只能卖一次。 你的时间在卖,你的体力在卖,但你的成果没有在"复利"。 所以,得先想明白一件事: 现在做的,能不能脱离你的时间,自己产生价值? 如果不能,那你做得再多,也只是在用命换钱。 --- 以上由 AI 生成,觉得有道理。 但要做什么产品,每个人都不一样。 需要一点路径依赖,也需要一点机缘。
关心自己的文案有没有 AI 味的人,很多 关心自己的文案好不好的人,很少 似乎只要没有 AI 味,烂文案也可以接受 然而,英雄是不问出处的
所有「去 AI 味」的提示词,都是不懂文字的人写出来的 因为去 AI 味是伪命题 核心问题在于,这个文字到底像谁 只要它像任何一个人,就不会像 AI 人味从来不是依靠去除什么得来的,而是靠注入什么获得的
本来大家都以为 AI 的剧本已经写死了: 模型看 OpenAI,芯片看英伟达。 结果 Gemini 3 一出,剧情突然就反转了。 Google 除了大秀模型,还把真正的杀招摊开摆在桌上,TPU 不止在云里跑,现在要进 Meta 的机房。 市场瞬间整明白了:Google 想建立的一条完整的谷歌链开始成型了。 听懂的也包括Nvidia, 谷歌刚给 Anthropic 扔了 100 万片 TPU, 黄仁勋立刻回手几十亿投资,把对方再锁回 GPU 阵营。 动作跟被谁刺了一刀一样麻利。 划重点, 这是第一次有人证明除了 GPU,TPU 也能撑起最强模型。 而且还便宜省电。 以后英伟达的日子就不会再像去年那么舒服了。 故事还没完,但很明显: Google 掺合进来后 已经开始改写 AI 的供应链叙事, 英伟达也得开始算一笔从没算过的账。 看好 Google。
瑞·达利欧的《原则》将“塑造者”定义为:那些改变世界运行方式的人。 他们往往具有如下特质: 1. 独立思考,不让任何人或任何事阻挡他们实现大胆目标。 2. 内心有事物应当如何完成的清晰“心智地图”,但会不断用现实去检验、修正。 3. 他们想要实现愿景的渴望,强过追逐过程中所承受的痛苦。 4. 能同时看到宏观全局与细微之处,并在不同层次之间综合思考。 5. 视野比大多数人更宽广。 6. 兼具创造力、系统性与实用性。 7. 既强势果断,又保持开放心态。 8. 对所做之事充满激情,对平庸毫不容忍。 9. 希望对世界产生巨大且积极的影响。 10. 对任何成果都觉得不够好。 11. 把现实与可能之间的差距视为悲剧,同时也是永无止境的动力来源。 12. 极度坚韧,被击倒后反而会更强地站起来。 13. 以结果为导向:当必须在达成目标与取悦他人之间二选一时,他们选择目标。 14. 能与其他卓越天才进行多角度交汇,看到自己看不到的东西。 15. 他们追求结果,而不是追求认可。 往往显得有些“刺”,不是因为自负,而是对卓越的执着。 能同时容纳矛盾:既是有远见的梦想家,又极度务实。 能从一个成功跨向下一个成功,并持续数十年。 认为自己有责任把想法变为现实,而不仅仅是想象。 他们塑造世界,而不是让世界塑造他们。
我看到一些人在薅Gemini的学生认证羊毛,我想说,钱都是小问题,到时候封号了你的创意和聊天记录都没了,损失的是你自己。你自己想好,我反正是付费用户了。
有的朋友可能觉得有点花哨 迭代了一下这个 Anthropic 风格的 Nano Banana Pro PPT 提示词。 现在会非常克制的使用插图元素,以及严格遵循网格布局,少用圆润的卡片。 下面是迭代后的提示词👇 帮我根据下面这个文章做一套专业的的中文PPT。 先写1个PPT大纲,规划出每一页的PPT的内容。 然后将每一页的PPT内容分别扔给Nana Banana pro生成对应页面的PPT,需要确保风格一致。 PPT的具体风格应该为“Anthropic/Claude 风格”的“温暖学术人文主义”设计。 背景:使用暖米色/奶油色 (# F3F0E9) 作为纯色底色,略微高级纸张质感。 字体:标题使用优雅的衬线体(Serif),正文使用现代无衬线体(Sans-serif)。 配色:主色调为赤陶红 (# D67052) 和芥末黄 (# F0B857),搭配深海军蓝作为点缀。避免使用霓虹色或纯黑色。 视觉元素:使用注重排版的网格布局,插图风格应为抽象的、有机的黑色手绘线条画,置于赤陶红纯色色块之上,你需要非常克制的使用插图和点缀类的插图元素,插图需要为内容服务。 图表:扁平化、极简的图表,强调数据对比,去除多余边框。 文字和图像都由 Nano Banana Pro 生成,另外不要将PPT 变成一整张图,一页一张图。 文章内容为:
凌晨两点,我盯着电脑屏幕。 桌面上开了23个标签页,都是AI论文。 想整理,但一想到要一篇篇下载、做笔记、配图、排版... 算了,明天再说吧。 突然想到Youmind,试着对话说: "帮我整理AI领域最值得看的20篇论文。" 不到1分钟,文档里出现了20篇论文,每篇都有推荐理由和PDF链接。 随手复制了一段理论,点了"图解万物"。 几张配图自动生成,插到文档里,突然就看懂了。 点右上角"Copy as Wechat"。 还能粘贴到公众号后台发布,牛逼! 如果不是这个无意的尝试。 可能还在把Youmind当另一个普通AI笔记软件用。 --- 由提示词生成,人工做了校对。
用 Nano Banana Pro 做了一套PPT来展示这次 Claude Opus 4.5 模型的具体更新信息 顺便打磨了一套 Anthropic 风格的PPT生成提示词,你可以在NotebookLM 或者 Lovart里边使用 提示词放在下面了👇 https://t.co/tQXjhhlNXX
论文整理>配图>发公众号,一个工具搞定! Youmind 当前布局交互不科学,但还是掩盖不住好用。 1. 打开空白文档,右侧AI 助手 “收集整理AI领域最值看的20篇论文,给出理由,访问地址pdf 也都放到文档 。” 2. 复制任意文本,点击“图解万物” 自动调用Nano Banana Pro生成多张图片辅助理解。 图片还能插到文档中。 3. 学习整理结束,复制发微信公众号 点文章右上角... 选择 “Copy as Wechat” 支持设置样式和自定义CSS,快速发公众号。 --- 其实不止是学论文,学其他内容也适合这个Workflow。 但是,Youmind一些优秀功能藏的有点深。 比如:添加Youtube和小宇宙链接,自动获取转写文本。 不仔细用,很难发现,抽空写个详细教程吧。
停止学没用的东西, AI 时代,可能 90% 的知识学了也是浪费时间。 别误会,这不是说躺平, 恰恰相反——是说要学对东西。 这是最近在播客里学到的一些知识分类法和学习策略:
Anthropic 急了,发布了 Claude Opus 4.5 同时终于从原来死贵的 75 美元变成了 25 美元,当然还是比 Gemini 3 Pro 贵不少。 介绍一下详细更新内容: ## 性能表现:编程任务世界第一 SWE-bench Verified 是测试真实软件工程能力的标准 benchmark,Opus 4.5 在这个榜上拿了第一。 Anthropic 内部还做了个有意思的测试:他们让 Opus 4.5 做性能工程师的入职考试(2小时限时),结果模型的分数超过了所有人类候选人。 不只是编程,Opus 4.5 在数学、视觉、推理等各个维度都有提升。在多语言编程 benchmark(SWE-bench Multilingual)上,8 种编程语言里它拿了 7 个第一。 ## 价格定位:不是最便宜,但性价比相对高 这是关键信息。我把几家的定价列出来对比一下: 顶级模型价格对比(per million tokens): - Claude Opus 4.5: $5 / $25 - GPT-5.1: $1.25 / $10 - GPT-5-pro: $15 / $120 - Gemini 3 Pro: $2-4 / $12-18 ## 效率大幅提升:更聪明意味着更省钱 Opus 4.5 引入了一个新参数叫 effort(努力程度),你可以根据任务选择不同的思考深度。 在 medium effort 模式下,Opus 4.5 达到了 Sonnet 4.5 的最佳分数,但只用了 24% 的输出 tokens。换句话说,少用了 76% 的 tokens。 即使在 highest effort 模式下,Opus 4.5 的表现超过 Sonnet 4.5 有 4.3 个百分点,同时还少用了 48% 的 tokens。 这说明模型变聪明了:更少的回溯、更少的冗余探索、更精准的推理。对于长期运行的代理任务,这个效率提升会直接转化为成本节省。
嗯,我觉得对于年轻人来说的,如果能在这个时代把两件事情搞定(尤其是男孩子): 1)一毕业事业就有不间断的,至少20年的稳健发展 2)职业的长足发展给你带来了还不错的收入,不用很高,胜在不好被淘汰(因为我觉得房子已经多到你不需要太担心买房的问题了) 这个起点来说,就是个winner起点了。以后你的一切,老婆孩子,精神健康等等,都基本有了。男人要养得起全职太太,鼓励太太上班。但是又有让她想不上班就不上的底气。 稳定的基础上,再靠AI探索更稀有的机会。这就是一个男孩子的好起点。这点我还是同意Robinson, 家里不能安排编制,医院,什么特殊项目的,EE,CS. 我爸就是EE。
做副业或小团队创业,就要脱下自己的长衫 我之前也是怕产品不完善,被人骂,刚开始也是犹犹豫豫 我怕做的不够好,被人批评,事实证明,你想多了,没人把你当回事 我怕做的不够好,错失第一波用户,你想的更多,小团队的声量极其有限,早期错失的用户不用可惜 而且创始人必须在早期就要站出来,必须吆喝,不要怕被取关拉黑,他们不是你得目标客户 只有大公司才应该尽可能完美产品推出市场,不然不仅花出去的钱打水漂,后期就算再完善产品,后期也挽回不了早期用户了
跟随 Gemini 3 和 Nano Banana 的火爆,最近每天都在把玩各种内容。突然不再想上小红书、YouTube、抖音等各类平台了。这些传统内容平台都凸显出一个巨大问题:充斥着死内容。 内容不应该生产出来后,就定型了。比如看 YouTube 视频,经常会看到某一画面,脑海里想就这画面延拓一个分支去探索。用 YouMind 可以把感兴趣的画面截取下来,但保存下来后,进一步分叉探究的交互形态,无论 YouMind 还是 NotebookLM,都没做好。 内容生产领域,AI 改变了很多。内容消费领域,还没怎么看到有意思的 AI 产品。可交互、可分叉、可动态调整的内容,还没看到真正的新形态。 未来的内容是活的。有一种可能性是,创作即消费,消费即创作。创作和消费,有机会融为一体。 那会是一个令人向往的新世界。
ChatGPT 真的是骚啊,Google 能忍 这个广告位得多少钱 https://t.co/mAlDRWYqvM
多啦A梦和大雄带你读懂《天道》 你说长文太长不看🙈, 现在4页漫画版来啦😍 第二页见评论区⬇️ (忍不住想说一句:Mano Banana Pro 真牛比,Google 威武👍) https://t.co/GtDI71351V
Rize 黑五打 6 折了,我敢说这是最好的 time tracking 软件,没有之一。https://t.co/QkBXJqF5cY https://t.co/F51kfBlYdK
不露脸、不剪辑,3步生成口播短视频! 1. 刚才的提示词生成文案脚本。 2. 文案发给Listenhub新功能“Explainer Video” 3.选自己的声音TTS,一分钟生成视频
我已经三个月没做笔记了。 不是因为懒,是因为我发现了一件事: 传统的笔记,是一个骗局。 你以为你在记录知识,实际上你在做的是: 把别人的话,用自己的手,抄一遍。 然后放在那里,再也不看。 NotebookLM让我明白了一件事: 笔记的价值不在于记录,在于对话。 我现在的做法是: 把所有资料扔给它,然后开始提问。 "这个观点的反例是什么?" "这两个理论能结合吗?" "如果用这个框架分析我的项目,会怎样?" 它不是在帮我做笔记,它是在逼我思考。 真正的学习,从来不是记住了什么。 而是你能用它问出什么问题。 NotebookLM一直在再等我们的提问。
不知道你是否跟我一样: 收藏夹里躺着几百篇文章,浏览器标签页永远关不完。 你告诉自己"有空再看",但你知道,永远不会有那个空。 我也是。 直到我发现了NotebookLM。 我把过去三个月收藏的100篇关于AI的文章,全扔给它。 然后问了一个问题:"这些文章在说什么?" 30秒后,它给了我一份总结。 不是那种机械的摘要,是真的帮我提炼出了核心观点。 更神奇的是,我问它:"这些观点之间有什么矛盾吗?" 它找出了三个我从来没注意到的分歧点。 那一刻我突然意识到: 我以为我在收藏知识,其实我只是在囤积信息。 NotebookLM做的事情很简单: 它把你囤的那些东西,变成真正属于你的知识。 你可以跟它对话,可以问它问题,可以让它帮你找联系。 就像有一个永远不会累的助教,随时帮你消化你看过的所有内容。 收藏夹终于不再是一个坟墓了。
这个原则非常好! 用这个思路写了一个短视频脚本创作提示词。 待会测试下效果 https://t.co/paZ7yIHG7E
在 Gemini 3 Pro 和 Nano Banana Pro 的加持下,NotebookLM 画 PPT 的能力真的绝了,还要什么自行车! 效果直接看视频😍 附带两份高质量 PPT 的笔记放到评论了👇 https://t.co/pJeeQsk1et
教你一招,AI 绘图顶级方法 任何图片,对我说的是任何,输出结构化 JSON 提示词: https://t.co/SJQLqmiiiW
Claude Opus 4.5 终于发布,依旧是 Coding 和 Agent 之王。 在这两个方面,比 Gemini 3 还要好。 它的智力超强,无须过多指导就能权衡取舍。 可以完成很多 Sonnet 4.5 无法完成的任务。 虽然 Opus 4.5 比 Sonnet 4.5 贵 60% 但是 Opus 在思考 token 减少 76% 的情况下,效果依然超过了 Sonnet https://t.co/1Il13HAT1o
我女儿是个话唠,而且不但是话唠,她还很loud。经常一讲起话来音量超大,随时咯咯大笑,没心没肺那种,相当高能量。你看过《史莱克》吗?就像那只驴子,但是音量很高,还随时大笑。 我经常作为内向者被她折磨得不行。 今天去课后班接她回家,还立着一百多米我就听见她嘎嘎大笑的声音。走过去我对她说,我远远就听见你的声音了。她几步冲到操场对面大吼一声:"大家,你们听得见吗----" 课后班的金发美女老师看着我苦笑,脸上一副不想再活的表情。感觉像在说:"你终于来把她接走了。"我也苦笑回应。 我觉得她的工资里有一部分是精神损失费。 非常搞不懂,我和我老婆都是内向型,怎么会弄出这样一个高能量的E人小孩的。
Cursor 现在可以便宜用 Claude Opus 4.5,Sonnet 的价格,真香! 以及免费使用 Composer 1 模型,速度贼快,大家快冲~ 另外强烈建议安装 Claude Code 和 Codex 插件, 这是我目前最佳的模型调度一体化 GUI。 https://t.co/5DOlUqdTgk
Claude Opus 4.5 发布,最大的亮点是价格只有原来 Opus 4.1 的 1/3。定价为 $5 (输入) / $25 (输出) 每百万 token。 另外它号称输出 token 减少了 76%。 价格和Token减少这两点其实蛮重要的,因为虽然单价看起来还是比 Sonnet 贵,但如果你考虑到 Opus 4.5 完成同样的任务所需的 token 减少了(因为它更聪明,更少废话,一次做对),实际总成本可能并没有想象中那么高。 这两周抓紧体验,现在 Anthropic 都是刚发布的前两周强的离谱,过段时间为了节省算力就会悄悄“量化”或“降智”。
🍌 nano bababa pro prompt check the prompt from @cheerselflin's original tweet would suggest you add `16:9 aspect ratio` https://t.co/2woxUQjc94
🍌 nano banana Pro prompt 💡 add an image as reference --- Create a set of colorful, hand-drawn LINE-style half-body Q-version emoji portraits based on the characters shown, ensuring accurate depiction of their head accessories. Arrange the images in a 4x6 layout, featuring common chat phrases or relevant humorous memes. Use handwritten-style fonts for text. Output must be original—avoid direct copying of the reference image. Final image should be in 4K resolution, 16:9 aspect ratio.
这么还有人在等Claude Opus 4.5,Gemini3不够你玩的是吗。我真的气抖冷,前几天不是说好一起抵制Anthropic的呢,结果只有我当真了是吗,我还是太单纯了。
让智能体写出好文案,有一条红线 就是绝对不能在提示词里面出现模板、公式 比如我以前会在提示词里面用八大爆款叙事模板 现在想来非常愚蠢,这是一件容易做,但路线错误的事情 应该定义一系列规则,告诉 AI,什么是好,什么是坏;在此基础上,让 AI 任意发挥 这是难而正确的事情 如果这样一来,AI 不能产出好内容,是规则有问题,路线是没问题的
《让 AI 分析爆款文案,是最蠢的方法》 让 AI 给我整理了一下,我最近让 AI 给我写短视频开头的时候,我给 AI 提出的负反馈 整理了简单的 7 条规则 当这个规则的条数达到 100~200,AI 差不多就可以替代我了 这里面的重点在于,不要让 AI 去分析爆款文案、爆款开头 要让 AI 知道,我否定了哪些内容、肯定了哪些内容,每一次具体的原因是什么 爆款文案长啥样,不重要 爆款文案是如何被塑造的,很重要 规则>结果
nano banana pro 真是逆天极了,居然会在 Thinking 过程中吐图片 🥵 https://t.co/GLvt99VpG0
第一桶金,常常会面临生意方向的抉择 路线 1:产品需求强,但是做起来阻力大。比如内容一发就违规 路线 2:产品需求弱,没竞争,没人干这个事情,这个产品也没有给顾客解决什么大问题 这个时候一定要坚定选择路线 1 1 的问题,是可以努力解决的 2 的问题,是神也解决不了的
少楠说: 一个产品的用户增长 来自非用户 于是我去微信同学群推广 YouMind 激情介绍 Nano Banana 多牛 一位英语不错的同学回复: 玉伯你开始卖香蕉啦 多少钱一斤
纯想发在即刻上的图 揭示了一个数据事实: 初创公司创始人的 X 粉丝越多 公司收入越低 细想很有道理 搞得我不想涨粉了 https://t.co/EDP25YUG4R
想去哪里点哪里打卡照生成,已经支持生成双人以及多人合照 如果你上传的照片是多人合照照片他也会生成多人的合照 https://t.co/TTE0fQyF6S
11月4日,喊了3个,还是将军给的光模块的思路,我直接gpt一波,找出来3个光模块top3 然后是goog,从5月的看不懂,到后面想明白了,而且我跟做出海营收很高的CEO聊过goog的事情,对方说他不看好goog的,他觉得增长乏力,后面想了好几个月才想明白 5月份我还在推特上说过,看不懂goog,后面7月末左右才下手 前几天也说了,感觉12月要降息25bp,突然就反转了,这波怎么样?
