🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。
现在,当下,立刻,马上 用AI deepresearch帮你检索skills 把那些免费的skills全聚合过来 然后分类目搞网盘,整点儿素材图 弄点儿什么ClaudeCode之父,什么YTB的Skills介绍,就无限洗稿公众号,然后转小红书推文 整他3,5个账号,挂着虚拟商品就卖 顺带着还能卖Claude账号或者API 做课程都寒碜,费劲巴拉录课拉社群搞直播还不够累的 就这么洗,洗出一万块钱,就继续投资把那些付费的skills买来再继续分发 marketing skills,什么writing skills,什么design skills,挨个整 再整一个什么skills合伙人 搞个白银黄金钻石会员 付钱直接发网盘 弄上个分销链路 什么闲鱼淘宝拼多多 就让他们去嗷嗷卖 AI都是做产品赚钱?等产品出来skills都凉没了 23年卖账号,24年卖prompt,25年卖workflow,年年都有新东西 啥也不干,就信息聚合,当大自然的搬运工,闷声赚钱 别人再在推特吹skills的时候 你已经赚完这波钱了 等人们开始意识过来想挣钱的时候 你就github搞个awesome skills引流导航站 弄个页面赚广告费 妥妥降维打击 气死这帮喝汤都喝不上热乎的人
I tested an “anime-to-real-life” workflow. High success rate, low cost, and super easy to use. Inspired by @AIWarper. This workflow works for style transfer on any video with lots of action and movement. Which character or scene do you want to see turned into live action? Drop it in the comments. Tomorrow I’ll share the full workflow + the free tool I built.
输入了我的 2430 条推文,给 manus 做出来的网站 网状结构是我在推文里面使用过的核心关键词,彼此之间的关系 两条指令(第一条指令是生成网站,第二条指令修复了一点小 bug)消耗了 8300 积分 只迭代了一次做成这个效果,比较满意了 https://t.co/T64JwvX5Qg
Obsidian + AI = ? 只需3个插件,重新爱上本地笔记 几年前很痴迷安装各种Obsidian插件,后来弃坑。 发现还是iOS备忘录方便。 现在有了Code Code,发现Obsidian这种本地Markdown,太适合与AI整合了。 如何不想过于折腾,分享个极简Obsidian配置方案。 1. 主题安装Baseline,简洁优雅。 2. 中文字体参考tw93兄开发的妙言,用TsangerJinKai02,代码字体用 JetBrains Mono 3. 插件安装Claudian,把CC整合到侧边栏,能读取当前Markdown对话。 4. 公众号写作,可安装NoteToMP插件,一键发草稿箱。 另外推荐官方的剪藏插件,能把任意内容转Markdown存本地,方便AI处理省token。 所有插件、字体我会放评论区。
42章经最新一期,曲凯和Jenny聊了中美 AI 创投的差异,内容相当优秀,提炼总结下(还是有点长): 嘉宾背景: Jenny在美国长大,2021 年加入 OpenAI,ChatGPT 爆火一周后离开,转身做了投资人。 一、Scaling Law到头了,但应用大有可为 2023 年,中美投资人的共识很明确:投大模型。 但到了 2024、2025 年,情况变了。 Cursor、Perplexity 这些应用公司逐渐做出了自己的护城河,投资人开始重新审视应用层的价值。 Jenny 认为,模型侧的 Scaling Law 已经走到了终点,应用层依然大有可为,尤其是在 ToB 和 ToG 领域。 核心问题是AI交付结果的稳定性,必须做到万无一失。 二、为什么美国AI公司喜欢做toB ? 美国 AI 创业公司几乎都在做 ToB 和 ToG,国内更喜欢ToC。 中国是一个高度统一的大市场,用户需求相对集中。 而美国是一个极度多元的社会,很难形成"一个产品吃下大盘"的 TAM(总可达市场)。 另外,美国企业的付费意愿整体更强,更愿意为"软件"付费,因为人工成本非常高。 在美国,ToB 公司最好的出路往往是被收购,退出路径更明确。 在美国,Prosumer 最终都会走向 ToB,甚至越来越偏向 to 大 B。 Jenny 的判断标准很简单:看谁最终买单。Notion、Figma 都是先从个人用户切入,再由这些人在组织内部推动公司级采购。 B 端用户的支付意愿和粘性都非常强,一旦用上一个产品,通常不会轻易更换。 但她也提醒,如果前两三个大客户占了 60% 到 70% 的收入,往往说明公司还没有真正找到 PMF,可能做了大量定制化服务。 三、如何考察投资人 Jenny 考察创始人时,最看重两点。 第一是有没有真正独到的行业见解,不要只说市场很好,而要说清楚你知道什么别人不知道的事。 第二是能不能快速学习、快速形成对市场的清晰认知。 她最不喜欢那种过度自信、觉得只有自己能做的创业者,更希望听到创始人已经想过竞争对手的优势,以及自己如何建立优势。 四、为什么美国创投青睐年轻人? 美国投资人更敢押注年轻人,甚至是辍学创业者。 这背后是文化和教育方式的差异。 美国的同龄人整体更早熟,16 岁就可以自己开车上学,而且确实有不少创业者从很小就开始创业。 Jenny 统计过美国发展得最好的 100 家 AI 公司创始人的年龄: 最常见的是 26、27 岁,中位数在 28 到 29 岁,其中大约有 10% 到 15% 的创始人在 18 到 25 岁之间。 美国的学制对辍学创业更友好,有 leave of absence (请假)这样的安排,创业失败了可以回去继续读书。 五、硅谷如何给AI公司估值? 硅谷的估值本身就是玄学,没有一套特别理性的定价方式。 天使轮比较常见的是 1,000 万美元,种子轮第一轮大概在 2,000 万到 2,500 万美元之间。 现在 A 轮估值基本都在 1 亿美元以上,但门槛也水涨船高,往往要做到 300 到 500 万 ARR 才能融到一个比较好的 A 轮。 Jenny 认为 AI 公司不应该沿用 SaaS 那一套估值方式,因为 AI 公司每多提供一份服务都会产生额外的 Token 成本,而且很多 AI 公司表面是软件,本质上更接近基建。 六、国内AI创始团队如何去美国融资 国内创始人想到美国融资,Jenny 给出了清晰的路径。 第一步,最好先调整成 Delaware 架构。(Delaware 指的是美国特拉华州,60% 的美国上市公司和初创公司都在这里) 第二步,强烈建议先去硅谷住一到两个月,接触当地的人、熟悉环境,通过当地人来推荐投资人,而不是通过 FA。 第三步,第一次 meeting 通常只有 30 分钟,pitch 一定要非常简洁、清晰。 整个流程下来大概要两周左右,通常见创始人 3 到 4 次就会做出决定。 熟人介绍和 cold email (陌拜邮件)的区别非常大,前者大概有一半的基金会愿意聊,后者可能只有 10%。 七、关于 AI 泡沫 Jenny 觉得明年会有一次比较大的调整,美国的 AI 泡沫会破。 她尤其担心英伟达和 OpenAI,这两家公司只要有一点点变化,都可能把泡沫戳破。 她也担心 Gemini 通过完全免费的方式去获客,这对 OpenAI 会是一个非常大的冲击。 在研究人员当中,Scaling Law 已经结束算是比较大的共识,但在投资人里还没有。 她认为现在所有 AI 大厂在"模型智力"这个方向上都有点黔驴技穷了,但在应用层面还有很多可以优化的空间。 八、Jenny 的基金投资逻辑 Jenny 的基金有一个核心投资逻辑: 你做的事情一定要替代人,不仅仅是赋能人。 她们非常想投那种在某一个垂类中深耕,同时具备技术壁垒、数据壁垒和行业壁垒的公司。 比如她们投过一家用 AI 做维修的公司 MaintainX,和麦当劳、星巴克、万豪酒店合作。 因为只有真正替代人,企业才愿意给你非常大的订单额度。 这个逻辑在美国尤其成立,因为人工成本非常高。 如果想出海,她建议一开始就想清楚方向,再决定拿哪一边的钱。 ---- 原文见评论区,强烈推荐《42章经》,国内最好的播客之一。
大家帮忙看看 @NowledgeMem 的改版网站哈~~ 这是假期前 + 期间陪老婆的间隙打磨的哈,没有之前的颜色有特色但是细节打磨得比之前好一些,还支持了淡色、深色模式。 @thaddeusjiangzh @frostming90 @OnlyXuanwo @zhangjintao9020 https://t.co/UDYhrd5ppU https://t.co/Pfihs7NkBl
说实话,2026 了,有多少人亲手生成过一个 AI 视频吗? AI 视频对普通人来说还是门槛太高了。 我这两天精力都放在研究两个新工具 ,一个是 https://t.co/imJVWdR2H9,还有一个 Createv视频赛道产品。 抖音字节的收入超过了世界最大社交网站 Meta, 2025 Q2:字节跳动营收约 480 亿美元,Meta 约 475 亿美元。 为了研究视频赛道,我又下载装回了上瘾抖音。 刷抖音上瘾不说,前后几分钟我就购物消费了好几单,这不活该张一鸣赚钱谁赚钱吗。 收藏本帖,带你研究一把梭 AI 视频 Medeo AI 产品,拆解商业片制作📽️📹📹,英语学习视频制作🤡🤡,抖音爆火视频制作💩。
🔥这个在抖音上很火啊,挺好玩的,研究了下~ 用我之前发过的反推大法生成一份 json 提示词,支持上传多张参考图🥰 不过参考图越多似乎会影响人物的一致性,所以优先保证前景两个妹子的效果🤔 提示词👇 { "meta": { "system_instruction": "PRIORITY: Focus strict facial identity preservation on the TWO FOREGROUND CHARACTERS (Bottom Left & Bottom Right). The other characters are secondary.", "aspect_ratio": "9:16", "quality": "high_fidelity", "resolution": "4k", "style": "viral social media photography, worm's eye view, crystal clear blue sky" }, "reference_usage": { "instruction": "Map the uploaded face reference(s) specifically to the two girls closest to the camera (at the bottom).", "logic": "Bottom Left Girl = Face Ref A. Bottom Right Girl = Face Ref B (or same ref if only one provided). Top characters = Generic compatible faces.", "focus_weight": "Foreground: 100% Identity match; Background: 50% Vibe match" }, "scene": { "perspective": "Extreme low angle (camera on ground looking up)", "background": "Pure gradient blue sky, no clouds, bright daylight", "composition": "5 girls forming a circle, but the bottom two are much larger and closer to the lens" }, "subject_group": { "concept": "A group of friends looking down at the camera, framing the shot", "PRIMARY_SUBJECTS (STRICT IDENTITY LOCK)": { "note": "These two must look exactly like the reference images", "character_bottom_left": { "position": "Bottom Left (7 o'clock), closest to lens", "face": "Face Reference A, distinct features, big cheerful smile showing teeth", "outfit": "White fuzzy texture jacket or sweater, wearing large white plush earmuffs (cute winter vibe)", "action": "Leaning in close, hair hanging down slightly" }, "character_bottom_right": { "position": "Bottom Right (5 o'clock), closest to lens", "face": "Face Reference B, distinct features, soft sweet smile", "outfit": "Dark navy or black coat, wearing a black beret or bucket hat", "action": "Looking gently at the camera" } }, "SECONDARY_SUBJECTS (ATMOSPHERE ONLY)": { "note": "These characters provide context. Faces can be softer or less detailed.", "top_group": "Three other girls completing the circle at the top (10, 12, 2 o'clock positions)", "styling": "Wearing winter coats (purple/black), hand gestures waving at camera, slightly out of focus or further away compared to foreground" } }, "lighting": { "type": "High-key natural daylight", "direction": "Frontal lighting (falling from the sky onto their faces)", "effect": "Bright skin tones, 'cold weather' rosy cheeks blush effect, sharp details on the earmuffs and hats" }, "vibe": "Best friends forever, joyful reunion, winter sunshine, energetic, high clarity", "negative_prompt": "distorted faces in foreground, ugly teeth, bad anatomy, dark shadows on faces, cloudy sky, buildings, blurry foreground, fish-eye distortion too strong" }
Latent Space年度榜单:2025最值得读的AI论文合集 最近经常让AI辅助读论文。 不是为了完全搞懂,单纯就想了解AI圈里,那些顶级聪明的人在关注什么问题,如何用他们的奇思妙想解决这些难题的。 同时回顾AI发展史上的经典论文,更好了解AI技术的发展路径。 巧了,瞌睡就有人递枕头。 今天看到 Latent Space的2025年必读论文、资料合集,简直雪中送炭! 对 Claude Code说下载文章提到的论文,居然下载了800M论文,共计123篇。 上传到飞书文档和Github了,评论区自取。
“股市是为你们服务的,而不是给你们上课的。” “我认为如果股票一年只报价一次,人们的投资会更明智。” ——沃伦·巴菲特 https://t.co/TVSCMnYwLT
OpenCode 感觉比 Claude Code 更易用啊 尤其是对我们用 Anthropic 账号困难的人来说 - API 接入简单方便,支持所有主流模型 API - 还有可视化的客户端可以安装,没有 CLI 那么麻烦 - 支持 Cluade Code 的所有能力,甚至可以直接调用 CC 创建的 Skills 甚至允许你调用你 Claude 账号本身的模型额度 https://t.co/MWIcw8TsTL
That pose is so cool! Grok { "subject": { "description": "A young woman seen from the back, sitting on the floor, tying her long dark hair into a ponytail, dressed in traditional martial arts attire.", "mirror_rules": "ignore mirror reflection logic", "age": "20s", "expression": { "eyes": { "look": "unseen", "energy": "focused", "direction": "forward" }, "mouth": { "position": "neutral", "energy": "calm" }, "overall": "calm concentration, preparatory mood" }, "face": { "preserve_original": false, "makeup": "minimal or none" }, "hair": { "color": "black", "style": "long hair being gathered into a high ponytail", "effect": "hands holding hair, slightly messy natural strands, motion of tying" }, "body": { "frame": "slender", "waist": "obscured by hakama", "chest": "covered", "legs": "sitting cross-legged or seiza", "skin": { "visible_areas": [ "neck", "wrists", "arms" ], "tone": "fair", "texture": "natural", "lighting_effect": "soft rim light from window" } }, "pose": { "position": "sitting on a patterned round cushion", "base": "stable seated posture", "overall": "back turned to camera, both arms raised to head, fixing hair" }, "clothing": { "top": { "type": "Keikogi", "color": "white", "details": "thick cotton martial arts uniform, wide sleeves, traditional texture", "effect": "soft folds" }, "bottom": { "type": "Hakama", "color": "dark navy blue", "details": "wide pleated trousers, traditional kendo or aikido wear" } } }, "accessories": { "headwear": null, "jewelry": null, "device": null, "prop": "wooden bokken sword resting horizontally on lap", "other": "round patterned zabuton cushion under her" }, "photography": { "camera_style": "old android phone camera aesthetic, lo-fi photography", "angle": "eye-level, shot from behind", "shot_type": "medium shot", "aspect_ratio": "9:16", "texture": "slightly grainy, overexposed highlights, soft focus, digital noise, vintage phone vibe", "lighting": "strong backlight from window, blown-out highlights, dreamy haze, silhouette effect", "depth_of_field": "shallow" }, "background": { "setting": "Japanese dojo or wooden room", "wall_color": "brown wood", "elements": [ "wood paneling", "bright large window", "simple interior" ], "atmosphere": "peaceful, disciplined, quiet morning", "lighting": "intense natural light flooding from the left/front" }, "the_vibe": { "energy": "quiet determination", "mood": "serene", "aesthetic": "martial arts slice of life, authentic, nostalgic", "authenticity": "raw and candid", "intimacy": "observational", "story": "a moment of preparation before practice", "caption_energy": "focus within" }, "constraints": { "must_keep": [ "back view", "tying hair action", "wooden sword on lap", "white gi and dark hakama", "overexposed window" ], "avoid": [ "facing camera", "modern clothing", "bright artificial lights", "high contrast studio lighting" ] }, "negative_prompt": [ "facing viewer", "front view", "holding phone", "mirror selfie", "makeup", "neon", "3d render", "cartoon", "western clothing" ] }
整理一下国产模型的 AI Coding API 的羊毛和使用方法: 1. 智谱的 GLM 4.7,目前是跨年特惠,前三个月20rmb/月;第一年目前特惠是192rmb,挺划算我直接冲了一年;也可以按季冲,目前也是优惠的。链接:https://t.co/zwJeu2aVtB。 2. MiniMax M2.1,目前也是跨年特惠。有一个首月9.9rmb的体验套餐,我冲了首月;适合小白入门玩一玩,之后续费是29rmb/月;第一年是290rmb,这个就不如智谱大方了。链接:https://t.co/JsTuKxCRJI 至于其他的,kimi 目前没看到优惠;千问也没有,而且体验很差,还要上阿里云控制台,难绷。推荐前面这2个。 目前国产编程模型的效果不能说最好,但是量大便宜,价格低到一杯奶茶钱。适合小白起步入手,也适合拿来研发调试,真心推荐大家试试。 使用方法的话,目前主要是可以应用到各种 AI Coding 工具里,比如 Claude Code, Codex, Gemini, Cursor 等等,可以直接按照官方文档里配置。也可以省心直接用社区的开源切换工具,这里推荐2个: 1. cc-switch,比较常见,提供 GUI,直接可以傻瓜切换 Claude Code, Codex, Gemini 的 API Key 配置,直接配置好就可以使用你上面购买的国产 API Key;操作简单直观,支持全面 https://t.co/HFwoOgOGRI。额外提一句,这个是推友 @Jason_Young1231 ,好东西,帮他推广一下。 2. cc-mirror,我很喜欢这个,功能跟上述差不多,但是这个命令行配置,配置成功,比如直接输入 zai,就可以打开一个 zai 主题的 Claude Code,好像每个国产模型都自己独立跑一样。 https://t.co/8FQIzeO8PU
前 Meta 大佬田渊栋的年度总结 分享了他2025的研究方向,在 Meta 的起伏,以及对未来 AI 时代的看法 非常值得一看 https://t.co/UzFoyc1ACZ
最近正好在回看几本以前看得囫囵吞枣的书,用了@howie_serious 推荐的这个方法非常实用。基本不用重看全书,用NotebookLM出思维导图回顾内容和人物,看以前的划线和读书笔记,再把没看懂的地方跟AI聊明白。如果要输出用的是@dotey 这个可以修改Slide Deck文字的方法 https://t.co/TV9C0emHzQ 初读《鼠疫》还在疫情前,全书内容用一句话概括就是因为鼠疫全程封锁,人们迫不得已正视生活,探讨人在孤独和死亡面前的道德选择和心理嬗变。 下面是我这次回看问的几个问题: 1. 书中“要了解一个城市,简便的方式就是探索那里的人如何工作、如何恋爱、如何死亡。”这种判定方式是否有误?(NotebookLM的回答详情见图一) 这是了解一个城市最直接、最简便的切入点。生、死、爱,用人一生中最基本最重要的三件大事,来检测城市健康程度和空虚状态。 2. 原文“倘若我们当中哪一位偶尔想与人交交心或谈谈自己的感受,对方无论怎样回应,十有八九都会使他不快,因为他发现与他对话的人在顾左右而言他。” 人与人的沟通会出现岔口,跟曾经一些聊得来的人产生误解,无视,争执,或跟一些人根本一句话也没办法说。我认为一些岔口可以通过沟通解决,一些岔口是我们做关系筛选和对抗的工具,沟通不了就不再浪费时间。最好的交流就是共同经历,但不能渴望任何一个其他人能完全理解自己。(NotebookLM 解答鼠疫中沟通的岔口见图二) 3. “我唯一感兴趣的事,是求得内心的安宁。”书中的每个角色获取自己内心安宁的方式是什么
刚好和我的对标理论,凑成上下联了 自媒体 IP 的五个标准 1、领域足够大(不重复选题 1000 条以上) 2、领域足够有价值(公认有价值,或者产品能变现) 3、同行们没有在语言层面上把这个领域研究清楚 4、你能把这个领域的事情搞清楚 5、你能把这个领域的事情讲清楚 找对标的五个标准 1、他赚钱(利润是你预期的 10 倍) 2、你能看懂 3、你能模仿 4、不讨论现有业务、现有资源、成长经历、个人偏好、个人优劣势、兴趣爱好 5、不讨论这个业务是什么,能干就执行,不能干就换下一个
“大多数年纪较大、事业有成的人都会告诉你,他们人生中最美好的时光,是他们无所畏惧、按照自己的方式生活的时候。” ——纳瓦尔·拉维坎特 https://t.co/c3Cpgw13GD
这个 repo 有点牛逼, 把一整套科研 + 医疗的复杂流程, 直接拆成了可复用的 AI 能力块。 138 个 scientific skills, 包含文献、组学、药物发现到临床研究、报告生成, 我能想象到的医生和药企的一整套流程都在里面了。 随便拎几个出来, 封装成 AI scientist 产品, 剩下的就是去卖了。 这种 repo,看的人不多, 但看懂的人,基本都知道它值钱在哪。 https://t.co/RRKGAcszM3
以前觉得做笔记是为了「支援未来的自己」,但这句口号喊了很久。 现在有了 AI (Code),做笔记通过 `https://t.co/FG3HotOV8r` 这样的形式,变成了实实在在的「增援未来的 AI」。 ClaudeCode 之父 Boris 团队的做法很有启发: Code Review 发现问题 -> 更新 https://t.co/FG3HotOV8r -> AI 下次不再犯错。 这就是 Dan Shipper 说的「复利工程」(Compound Engineering)。 每一次错误都变成团队资产,让 AI 越来越懂你的项目。 笔记的价值分层也更清晰了: 1. 文档型笔记:增援未来 (Context for AI) 2. 思考型笔记:搞定当下 (Writing is Thinking) PKM 的闭环,终于在 AI 时代跑通了。🚀 #AI #KnowledgeManagement #Coding
2026 第一个工作日 今天向大家正式介绍下 ListenHub x 知乎 24 小时电台 我们把知乎日报和每日热榜搬进了 ListenHub! 它变成了一个24小时不打烊的电台📻 不管是早起洗漱、还是下班路上, 不用再盯着手机屏幕。 来用 ListenHub 听知乎热榜! 这个温暖的电台会一直陪伴你到元宵节 这也是 ListenHub 电台计划的第一弹,后续我们会陆续和其他品牌合作,一起推出丰富的 24 小时电台 ListenHub 所有的电台都将是完全免费的。 我们正在探索一个 AI 时代的电台形态。 https://t.co/uvKXGZdp79
2026 年从这里开始 新的办公场地,感谢鸿鹄汇提供的免费工位 再也不用去咖啡店蹭网蹭工位了 目标不大,10万 MRR 💪 https://t.co/A7bUphnONf
Model Nano Banana Pro Prompt { "subject": { "description": "A high-fashion editorial studio poster featuring the same young female model shown twice (full-body on the left and closer 3/4 view on the right), fair skin, long voluminous copper-red wavy hair, quiet downcast expression, layered preppy-meets-modern styling with a beige oversized belted jacket, striped shirt layers, sheer tights, dramatic striped leg warmers, and chunky black shoes, holding a white bag with black polka dots.", "age": "early 20s", "expression": { "eyes": { "look": "downcast", "energy": "soft and introspective", "direction": "looking downward, not at camera" }, "mouth": { "position": "slightly parted", "energy": "calm, muted" }, "overall": "cool, dreamy, editorial detachment" }, "face": { "preserve_original": true, "makeup": "natural editorial makeup, light base, subtle blush, softly defined brows, muted rose lips" }, "hair": { "color": "copper red / ginger", "style": "long voluminous loose waves with airy bounce", "effect": "soft movement, slightly tousled, a small light-colored hair clip on one side" }, "body": { "frame": "slim", "waist": "not emphasized (oversized outerwear)", "chest": "not emphasized (layered clothing)", "legs": "long legs emphasized by sheer tights and leg warmers", "skin": { "visible_areas": [ "face", "hands", "legs through sheer tights" ], "tone": "fair", "texture": "smooth, clean editorial finish", "lighting_effect": "soft diffused highlights, minimal shadow" } }, "pose": { "position": "two poses of the same model composited in one layout", "base": "relaxed stance, slight slouch, head tilted down; one pose holding the bag, the other with hands near pockets/belt area", "overall": "gentle asymmetry, casual runway-off-duty feeling" }, "clothing": { "top": { "type": "oversized short trench-style jacket with belt, layered over a blue-and-white striped button-up and a white ruffled high-neck inner top", "color": "light beige / sand / warm gray", "details": "wide lapels, double-breasted buttons, belted waist with rectangular buckle, cuffed sleeves; striped shirt hem hanging unevenly; dark plaid hem peeking at the bottom", "effect": "structured outer shell with soft layered textures, preppy collage styling" }, "bottom": { "type": "short skirt implied by visible hem + sheer tights + dramatic striped leg warmers, paired with chunky black shoes", "color": "dark plaid accents, nude sheer tights, white striped leg warmers, black shoes", "details": "a thin band of dark plaid at the hem; leg warmers are white with fine vertical stripes and dark panel accents; shoes are round-toe, thick sole", "effect": "contrast of airy sheer legs with heavy footwear and graphic leg warmers" } } }, "accessories": { "prop": "soft white fabric bag with black polka dots, handheld and hanging at thigh level", "headwear": "none", "jewelry": "none visible" }, "photography": { "camera_style": "high-end fashion lookbook / magazine editorial poster layout", "angle": "mostly eye-level, straight-on", "shot_type": "split composition with one full-body shot and one closer 3/4 portrait of the same model", "aspect_ratio": "3:4 vertical poster", "texture": "clean, sharp, studio crispness with soft tonal transitions", "lighting": "bright diffused studio lighting, minimal shadow, white seamless backdrop", "depth_of_field": "moderate, subject fully in focus" }, "background": { "setting": "white seamless studio background with editorial typography overlay", "wall_color": "off-white / warm white", "elements": [ "magazine-style headline text: 'Mame brand'", "small title text: '25 fall winter'", "subheading text in parentheses: '(Neutra version type)'", "thin black rules/lines and small paragraph-like layout text" ], "atmosphere": "quiet, pristine, gallery-clean fashion space", "lighting": "even bright studio wash" }, "the_vibe": { "energy": "calm, composed, fashion-forward", "mood": "softly melancholic, thoughtful", "aesthetic": "minimal studio +
果然还是有人搞了这个。 基于 Claude Code 的国产模型一键配置工具,直接让你可以在 Claude Code 里快速使用自己买的便宜量大的 GLM 4.7 API 和 MiniMax M2.1 API。 这里稍微科普一下,Claude Code 默认是支持 Claude 官方模型的,但是也可以 Hack 使用第三方模型,效果上虽然离官方 Opus 有差距,但是某些开发、调试场景很合适,且第三方国产模型便宜量大,也适合小白起步学习。 虽然直接配置第三方模型也不难,但是这玩意的好处是支持隔离的会话管理和主题配置,这主题一整,还是挺炫的。
视频创作有个“不可能三角”: 专业度、易用性、控制力 —— 你只能选两个。 💔 Premiere Pro:专业 + 控制,但要学几个月 💔 Veo:专业 + 易用,但生成什么全凭运气 💔 剪映:易用 + 控制,但功能太基础 半年前就用过 Medeo,那个时候已经挺惊艳了,经过这段时间的迭代,Medeo 如今已经能轻易用对话打破这个三角。 基本上科普,故事,影视,广告各种品类都能 hold 得住,甚至有时候你只有一个非常简单的想法,也可以跟他逐步碰撞出一个很棒的作品! 🎊🎊🎊 说个真事。 上个月想做个历史故事介绍视频,打开 Premiere Pro,看着密密麻麻的按钮就劝退了。 试了 Veo,生成 10 次有 9 次不是我想要的画面。 用剪映吧,找场景素材都够我吃一壶了。 花了 2 天,一支 1 分钟的视频还没做出来。 后来用 Medeo,从想法到成品只花了 30 分钟。 🎊🎊🎊 Medeo 做对了三件事: 1️⃣用对话代替操作 “生成一个科技风格的产品介绍,主角是个机器人” → AI 自动完成剪辑、配音、配乐 2️⃣角色一致性 同一个角色可以出现在不同场景,不会“换脸” 3️⃣智能资产匹配 说“赛博朋克城市”,AI 自动从百万素材库找最合适的 本质:把复杂度藏在 Agent 背后。 🎊🎊🎊 我录了个真实操作: 输入:“以长征为历史故事,做一个以微缩模型的视频,每个镜头都由一个微缩模型构成。” 90 秒后 → 成片。 角色、场景、转场、配音、BGM 全部自动生成。 如果用传统工具?至少 2 小时起步。 更牛的是多轮对话调整: 我:“每个片段场景速度需要跟旁白匹配” Medeo:“已调整” 我:“场景里面的小人需要动起来” Medeo:“已更新” 每次调整只需几十秒。 传统工具:找素材 → 导入 → 编辑 → 预览 → 导出(10 分钟起) 🎊🎊🎊 做一支 1 分钟视频的时间对比: • Premiere Pro:2-4 小时(学习成本高,操作繁琐) • Veo:30 分钟(反复生成,碰运气) • 剪映:1 小时(手动找素材,拼接繁琐) • Medeo:10 分钟(对话生成,微调即可) 时间节省 75% 以上,质量不打折。 更关键的是:你不需要学习任何软件,会聊天就会做视频。 🎊🎊🎊 Medeo 特别适合: 💡内容创作者 - 快速产出系列短视频,角色一致性是刚需 💡产品经理/运营 - 产品介绍视频、活动宣传片 💡教育工作者 - 知识科普动画、课程配套视频 💡个人 IP - 个人品牌故事、Vlog 快速剪辑 共同点:需要高频产出,但不想学复杂软件。 🎊🎊🎊 如果你也受够了复杂的视频软件,试试 Medeo。 我的使用体验: ✅ 学习成本:接近 0 ✅ 上手时间:5 分钟 ✅ 效率提升:10 倍 会对话就会做视频,这才是 AI 该有的样子。 你想用 Medeo 做什么视频?评论区见👇
Ado kukic 写了一篇综合性指南,总结了他在2025年12月期间为 Claude Code 发布的每日技巧分享(共 31 条)。 涵盖: 1. 入门起步 2. 必备快捷键 3. 会话管理 4. 生产力特性 5. 推理与规划 6. 权限与安全 7. 自动化与 CI/CD 8. 浏览器集成 9. 高级篇:Agents 和扩展功能 总而言之,这是一篇关于 Claude Code 的全面指南,值得一读。
昨晚上订阅了 Claude Pro,反手就让它整个大的~ 御三家齐活儿, 我现在根本 review 不过来了!😂 https://t.co/ti4lx7L3U4
我个人不喜欢 Spec-Driven Development,有点像瀑布模型写系统设计文档,理论上看起来很牛,但是并不好操作,另外容易想的太多。 我比较推崇小版本迭代,不需要写详细的 spec,几句简单的 prompt 就可以开始生成,每次写一个可以跑起来的版本,然后一点点迭代,每次迭代完都是可以运行的版本 另外大多数时候,Claude Code 的 Plan Mode 就足够好用了,根据你当前想实现的,会写一个 plan 文档,可以反复沟通确认。
🎉 吐血推荐新作:我的独立开发2年总结 https://t.co/zOxLmPUccG 万字长文详细介绍了我是如何入门独立开发、为何做模板产品、如何做产品推广、如何实现用户增长、如何搞定出海支付等等,事无巨细。文章还推荐了很多帮我达成了2年收入10万美刀的目标的实用工具。 欢迎点赞收藏转发,非常感谢 🥳
如果你看过半年前 DHH(Ruby on Rails 的创造者)和 Lex Fridman 的访谈,聊了整整六个小时,他说自己虽然喜欢用 AI 当助手,查 API、找灵感,但坚决不让 AI 直接往他的代码库里写东西。 他的原话大意是:如果你的手指不沾代码,你就会跟代码失去联系。就像弹吉他一样,Spotify 上有完美的录音,但自己弹的乐趣是不一样的。“我的乐趣就是自己敲代码。” 当时在访谈里他还警告年轻程序员:如果一个东西谁都能 vibe coding 出来,那就不是什么值钱的技能。你只是在点“接受”的“tap monkey🐒”。 现在他发推说:别让 AI 的垃圾和尴尬,否定它的神奇。这是我们让电脑做过的最激动人心的事,仅次于把它们连上互联网。 他现在承认,当时一半的抵触其实是因为模型不够好。那时候花在改写 AI 代码上的时间,比自己从头写还多。 但现在情况反过来了。模型能力到了,工具体验也到了。他最近在用的 opencode 让 AI Agent 能跑 bash、访问网页、用 LSP 做代码分析。看模型搞定一个复杂的 bug,他说是 revelation(启示)。 DHH 代表一类人:资深程序员,对代码有洁癖,写了三十年代码还觉得写代码有乐趣的人。这类很多人是抵触 AI 写代码的,但现在越来越多的人开始转变观念拥抱 AI。 DHH 在推文中说他现在还是会手写很多代码但会让 AI 写初稿: > 这既是出于必要(有时候模型还是给不出我想要的效果),也是出于乐趣(写代码本身多好玩啊!)。 > 但我已经完全接受了一个现实:先让 AI 搞个像样的初稿,确实能让工作效率大大提升。 DHH 在 Lex 那期 6 小时的播客里说过一句话: > 我们对未来的预测往往是错的,但这不妨碍我们做选择。 他的选择是:继续写代码,因为喜欢;同时拥抱 AI,因为它确实有用。 “What a time to love computers!” 确实是个爱电脑的好时候。
还记得 Andrej Karpathy 对 Codex 的评论,Codex 专注于cloud 而非像 Claude Code 那样的 localhost 形态。 Cloud code agent 似乎更像是 AGI end game,因此现阶段(AGI实现之前),Claude Code 显得更成功。 最近两天使用 Codex,明显感受到显著进步。如果cloud code agent 真是 AGI 的终局,那么这应该是正确的路径。
我的自媒体 IP 方法论:找一个足够大,并且足够有价值,并且没有被研究清楚的领域,把事情搞清楚,并且讲清楚 https://t.co/UQgMDM9WUp
Code Review in the AI Era: Why Writing It Twice Is Actually Faster If you've been coding for a few years, you've probably lived through this nightmare: you finish the first version, finally get it running, and then realize you misunderstood half the requirements, hit three technical dead ends, and the architecture won't survive the next iteration. Want to rewrite from scratch? The deadline says no. So you keep piling on patches, and three years later, that codebase has become the legacy monster no one dares to touch. This problem has existed for decades. But AI coding tools have accidentally given us a new solution. My Approach: Two Versions, Two Standards This idea isn't new. Software engineering textbooks call it "prototyping", build a rough version to validate your ideas, then do the real development. But nobody actually did this, because it was too expensive. Building a working prototype could take half the time of the real implementation. Who has that kind of runway? Things have changed. AI writes code at a speed that still catches me off guard. A feature that used to take three days might now have a working version in three hours. This shift in velocity turns prototyping from "theoretically nice" into "practically worth it." Here's how it works: you build two separate versions. Version One: The Prototype, Let AI Run Wild The first version has a clear purpose: it's a prototype, not a product. Two goals only: confirm the requirements and solve the hard technical problems. The principle here is "no constraints", don't think about architecture, don't worry about code quality, ignore security and performance. Focus on one thing: make it work. Merge AI-generated code without review. Let the AI iterate until your product manager nods and says, "Yes, that's what I wanted." This code is meant to be thrown away, so put it on a separate branch or even in a standalone repo. Its value isn't in the code itself, it's in two things: figuring out what the requirements actually are, and stepping on all the technical landmines first. No matter how detailed your requirements doc is, you often can't think clearly until you build something. Technical challenges are the same, theory and reality are different beasts. The first version exists to step on every landmine at the lowest possible cost. Think of it like an architect's sketch. Sketches don't need precise lines or perfect proportions. They help you externalize your thinking quickly, experiment, adjust, confirm direction. Nobody builds from a sketch. Version Two: Production, Back to Traditional Engineering Once the first version has cleared the path, you build the second. This is what actually ships. Now you return to traditional software engineering: design first, then break it into modules, run CI pipelines, do proper code reviews. Keep commits small so humans can actually review them. Consider design, maintainability, security, all the things that matter. AI still does the heavy lifting in this phase, but humans lead. Design before implementation. Use plan mode to have AI generate code according to your thinking. The first version's code isn't completely wasted, some modules can be reused, especially algorithm implementations and core business logic. It's like extracting the valuable parts from a sketch and putting them into proper construction drawings. Why This Actually Works Why go through the trouble of two versions? The core reason: before the first version is done, your understanding of the requirements is almost certainly incomplete. The problem with traditional development is that it invests too much effort in the first version. You start architecting before the requirements are fully understood. You consider scalability and maintainability before you've figured out the technical challenges. The result? Massive over-engineering for scenarios that "might happen someday" but never will. Time gets spent on edge cases while the real problems get ignored. The two-version approach lets you clear the path at minimum cost first. After the first version, requirements are confirmed, technical problems are solved, and then you design—knowing exactly what to design and what to skip. Far fewer wrong turns. There's a hidden benefit too. Many senior developers resist AI coding because they can't accept the quality of AI-generated code. But if you tell them this code is meant to be thrown away, it's just for validating ideas, the psychological resistance drops significantly. It's an out: use AI, but don't be responsible for that code. Ultimately, AI hasn't just changed how fast we write code, it's changed the economics of the entire development process. Two passes used to be too expensive. Now two passes is actually cheaper. Accepting that the first version is disposable lets you build a much better second version.
《自媒体 IP 价值创造定理》 作者:dontbesilent 核心定理 一个可持续的自媒体 IP 必须同时满足五个条件:领域选题容量足够支撑长期更新,内容价值经过市场验证,存在尚未被同行充分阐释的认知空白,创作者对核心概念具备本质性理解,能用简洁语言传达复杂思想。 五大公理 公理一:选题库容量守恒定律 自媒体 IP 的生命周期受限于其领域的选题再生能力。可量化标准为:该领域能否在三年内持续产出 1000 个以上不重复且有价值的独立选题。选题枯竭是 IP 死亡的首要原因,领域规模不取决于受众数量,而取决于话题的可分解性与组合性。 公理二:价值验证二元法则 内容价值分为客观可证(直接解决具体问题)与主观待证(需通过数据反馈验证)两类。客观价值无需验证即可确立,主观价值必须通过流量指标(关注度)或交易指标(付费率)完成验证。在启动阶段,对标已验证成功的同类 IP 是降低试错成本的唯一方法。 公理三:认知落差吸引定律 当目标受众对某领域存在认知需求,而现有内容供给者在概念使用、逻辑推演或表达精度上存在明显缺陷时,认知落差形成。能够识别并填补这一落差的创作者,将自动获得注意力资源的倾斜。认知落差的本质是「我懂但别人不懂」与「别人需要但得不到」的交集。 公理四:概念还原溯源法则 理解一个概念的标准路径是:追溯其原始语境→提取核心不变属性→验证跨领域迁移的适用边界。这一过程将概念从模糊的日常用语还原为具有明确内涵和外延的分析工具。只有完成概念还原的创作者,才能产出超越常识层面的深度内容。 公理五:表达效率最大化原则 当内容价值足够时,最有效的传播方式是直接陈述核心信息,而非依赖标题技巧或叙事套路。如果一个选题无法通过平铺直叙吸引目标受众,说明其价值密度不足以支撑独立发布。技巧性包装只能短期获取流量,无法建立长期信任关系。 三大推论 推论一:五要素协同不可分割性 前三个公理构成「领域筛选层」,后两个公理构成「内容生产层」。缺失任一要素将导致系统性失效:无选题库则断更,无价值验证则亏损,无认知落差则同质化,无概念还原则肤浅,无表达效率则失去流量。五要素形成最小完备集。 推论二:认知深度的外显机制 创作者的认知深度通过两个维度外显:能否在大领域中持续发现新选题(广度),能否将复杂概念还原到本质(深度)。如果在高价值领域仍找不到值得表达的内容,说明认知深度不足以支撑 IP 建设。认知是 IP 的唯一不可复制资产。 推论三:商业闭环的自洽逻辑 五大公理构成完整商业循环:选题库保证供给稳定性,价值验证确保需求真实性,认知落差创造竞争壁垒,概念还原提升内容质量,表达效率实现流量转化。这一闭环使 IP 从冷启动、流量获取、粉丝沉淀到商业变现形成正反馈。 结论 自媒体 IP 的本质是认知资产的持续变现:在具有足够选题深度的领域,通过填补认知落差,将经过本质还原的思想用高效方式传递给需要它的人。
这两天在广西旅游的途中,学习完了吴恩达的《Agentic AI》视频课程,分享一下心得体会。 对于想搞 AI Agent、想知道如何实际做好一个 AI Agent 项目的人来说,这是非常推荐的一个课程。 因为我自己也在尝试做 Agent 项目,在学习之前我就有各种疑问,主要是2个部分的问题: 1. 对基本概念、基本方法的疑惑,比如 Vercel AI SDK 里关于 Agent 的各种术语、工具为什么要有,该用在哪儿? 2. 迅速做一个基本的 Agent 不难,但是如何有方法论去迭代和调优 Agent,如何去测试 Agent 等等工程问题,怎么解决。 这些问题,在这门课程里面,都有比较体系性质的解答。这不是一门教你如何 Coding Agent 的代码课程,是从基本概念出发,逐步把什么是 Agent,Agent 的技术发展,Agent 做出来之后,怎么端到端测试,怎么调试和评估每个环节,从而调优 Agent。为什么要有工具调用、为什么要有 MCP、为什么要多步骤调用、什么是多模态 Agent,什么是多 Agent 等等,讲的非常清楚。可以说通过学术理论的方式,全面教会了你如何做一个好 Agent 的内功心法和招式套路。 基本上看完课程之后,我知道应该从哪些方向上去把我的 Agent 项目做好,应该要去做哪些测试、评估的工作。 另外,这门课浅显易懂,只要了解业界 LLM 的基础知识,都可以很好的理解,没有太多的门槛要求,适合 Agent 小白好好的补补课。
