🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
打造被动收入: 把自己家电话改成反向收费。打你家电话的人,需要付费。于是,每天的各种诈骗骚扰电话,就成了一个稳定的被动收入来源 https://t.co/LK657zk1o7
谷歌 Veo 3.1 昨晚这个更新牛皮啊 新的多图参考和 4K 超分,直接把可用性拉满了 多图参考(Ingredients to Video)中人物和物品一致性大幅增强,支持输出竖版视频,也能融合纹理、角色和物品。 视频分辨率也有变化,现在官方支持更好的 1080P 和 4K 超分服务。 目前 FLOW 上就可以使用,选择“素材生视频”就可以,只支持 Veo 3.1-Fast 模型。
现在我们 vibe coding 做产品,基本都是交给 AI 一把梭。 功能写得飞快,但设计这块,像UI、颜色、字体这些,基本都是AI 给啥就是啥,能用就行 就算想改,也不知道该怎么改,纯靠主观感觉 后来我才发现不是不在乎设计,而是根本不知道一个「好的设计」应该是什么样 这个时候,一个成熟、完整的设计标准规范就显得很重要了 而这个东西,叫「设计系统」。 设计系统本质上就是一整套涵盖颜色、排版、间距、icon、组件等的标准规范,在做产品时,按照这个规范来实现就好了 但我们这种非设计师出身的,要想设计一套靠谱的设计系统,那真是太难了 今天我来分享一个网站,收录了各家大厂的设计系统,像Apple、Adobe、Google、Ant Design。颜色系统、icon、排版、字体等,整理得非常完整,都能在里面找到
在大厂最后几年,工作最幸福的时光,是出差的日子。一出差,就不用参加那又长又臭的会了。 创业后,最幸福的日子,是不用出差的时光。不出差,就可以专心做产品,不用跟陌生人说话。 工作期间,你最幸福的时光是什么。
到底是哪个傻逼发明的群接龙???都 2026 年了,地球另一边已经那么科幻了,而这边。。。 https://t.co/lAXwBBDYbv
🤔I guess we’re on their radar now? https://t.co/p43iuFgqCy
尝试了最新版 Distill,很喜欢它的理念,以 list 的方式记笔记,把你人生最关注的所有事情按关键词列出 list,没有文件夹,而是按照 attend to notes 的逻辑,以时间线的形式往 list 加内容,原生支持 agents,还可以索引本地 markdown 文件,UI 也非常好看。虽然使用上有些地方还不是很顺手,但这才是我理想中的笔记软件该有的样子。 https://t.co/4krYLGv4iJ
无论写公众号,还是 X 长文,都需要配图。 从经验看,Nano Banana Pro 和 即梦4.5生图都很好。 用API多少都要花钱,反向代理难度又高。 搜免费配图API,发现阿里巴巴的Z-Image每天可免费生2000张图! 量大又免费,阿里现在也是菩萨啊! 解读过 z-image 论文,很巧妙,中文支持也不错。 简明教程如下: ① 注册阿里魔搭,到下图页面,点红框,复制API代码。 (默认会有API,很贴心) ② 跟Claude Code或OpenCode对话说: 基于下面代码创建一个Claude Skill:【粘贴代码】 当然,直接当API用也行。 做成Skill,方便跟其他写文章Skill组合。 --- 页面地址不好找,我放评论区,如果觉得有用,请一键三连,哈哈哈哈~~
🔥朋友们这套提示词绝了!上传你的靓照就可以生成你跟自己的街头涂鸦合照,社媒疯传预定! 内置了四个主题场景(新年,赛博,民国,国潮),提示词里面这部分可以自定义👇 "mural_main_text": "月入百万", "mural_secondary_text": "2026", "theme": "New Year Festive",(从 style_pool 里面挑一个) 快来赛出你的靓作!😍 { "task_description": "Create a natural street portrait of a real person standing in front of a layered, messy graffiti wall. The wall features a spontaneous, hand-painted caricature of the person.", "global_settings": { "aspect_ratio": "4:3", "camera_view": "Front-on or slight 15-degree angle; avoid extreme perspective distortion; eye-level shot", "overall_vibe": "Authentic urban street culture, raw, energetic, and candid" }, "variables": { "mural_main_text": "月入百万", "mural_secondary_text": "2026", "theme": "New Year Festive", "style_pool": ["New Year Festive", "Cyberpunk Underground", "Vintage Republican", "Traditional Zen"] }, "mural_aesthetics": { "rendering_style": "Hand-painted aerosol art, not a digital print", "messiness_factors": [ "Visible paint splatters and spontaneous drips", "Soft, blurred spray edges (no sharp digital outlines)", "Layered effect: the main portrait is painted over faint, messy background tags and scribbles", "Imperfect symmetry to enhance the 'freehand' look" ], "content": "A vibrant caricature based on the reference person's facial features and joyful expression, integrated into the chaotic beauty of the street wall." }, "style_scenarios": { "New_Year_Festive": { "setting": "An old city street during dusk", "palette": "Dominant deep reds and gold, contrasted with the reference image's colors", "details": "Faint lanterns in the distance, festive graffiti tags" }, "Cyberpunk_Underground": { "setting": "A dimly lit pedestrian tunnel with wet floors", "palette": "Neon blue and violet, mixed with the reference image's color tones", "details": "Exposed wires on the wall, industrial textures" }, "Vintage_Republican": { "setting": "A historic brick alleyway (Lilong)", "palette": "Muted earth tones, sepia, and charcoal", "details": "Old wooden window frames, textured grey bricks" }, "Traditional_Zen": { "setting": "A quiet courtyard with a stone wall", "palette": "Ink black, sage green, and white-wash", "details": "Subtle bamboo shadows, weathered limestone texture" } }, "foreground_subject": { "logic": "Mirror the gender and facial features of the reference image.", "attire_strategy": "Inherit the dominant color palette from the reference photo's clothing. For example, if the reference is wearing a black T-shirt, generate a stylish, theme-appropriate outfit in black or dark tones (e.g., a black techwear jacket for Cyberpunk theme).", "position": "Grounded in the bottom right corner, waist-up or three-quarter view.", "pose_randomization": [ "Casually leaning back against the wall", "One hand adjusting hair or a hat", "A relaxed, mid-laugh stance with hands in pockets", "Slightly looking away from the camera for a candid feel" ] }, "technical_finish": { "wall_texture": "Naturally weathered concrete or brick; subtle cracks and water stains that feel organic, not forced.", "lighting": "Dynamic natural lighting (soft sunlight or ambient street glow) that casts a soft shadow from the person onto the wall, ensuring a deep blend." } }
今天停在路边等娃,正刷着手机,过来两个小伙,一个拿着大疆在拍,另一个很热情地跟我打招呼,说我的车很酷,问是什么车,我问他们干嘛的,答说做自媒体街头采访,问我方便聊聊吗,我也没啥事,就说可以啊,吧啦吧啦聊了五六分钟,他问我做什么工作的,我说目前没有工作,他说没工作开这车怕是油都加不起吧,我说过完年再找。 最后聊完了他问我可以把这个视频发到他的抖音吗?我说你给我加一箱油就可以,他拒绝了,我说那就不可以发。一上来就给我展示了他的号,要是敢偷偷发布我就喷他😅
群友开源了!这款Skill安全扫描器,附带人工精选Skill库,一件安装管理。 Skill学习群藏龙卧虎,群友做了款Skill下载和安全管理软件。 一方面扫描Skill的安全漏洞,另一方面人肉整理了一批优质Skills,还会自动拉取Github更新。 虽然界面花哨,交互设计也有优化空间,但基本可用了。 作者会继续迭代。 充分践行了干中学,想学什么直接下场干,想要什么直接让 AI 实现,必须赞一个。 下载地址见评论区
史上最强 NotebookLM Skill 作者又更新了! 更加黑科技了,把谷歌不让导出的闪卡、脑图、报告也全部获取拿到。 还能可以把NotebookLM解析后的纯文本拿到。 如Youtube字幕,PDF文本、网页搜索结果等。 (这些网页端都无法拿到) NotebookLM基于RAG,幻觉很少,改成Cli可组合工具调用,太强了!
在国内要吃够蛋白质其实还挺不容易的。太多碳水和脂肪了。 晚上在家肉没吃够,出门买肉,就大多只有炸鸡之类的选择。选了半天点了份油看起来少些的,一吃,全是甜味酱,得,糖又超了。 要买无糖无脂的饮料,除了美式,也就是麦当劳的红茶,其他那些花花绿绿的饮品店,都是些糖精奶精白骨精。 看似选择很多,其实也很少。 可能只能靠蛋白粉了。
我今天一直在用 typeless 和 claude code 对话 我突然想到,如果 typeless 能访问我的 cc 工作目录,不考虑速度和费用问题,岂不是可以把我的语音转文字的结果,变成非常好的用户提示词 但如果这样的话,就没必要用 cc 了,如果 cc 被内置到了 typeless 里面,再对接一个实时通话 API 已经可以做一个钢铁侠 Jarvis 的雏形了
注册了美国公司的朋友们,你们挣回 300 美金了吗 https://t.co/PWEyEgpWbs
最近深度使用 Claude Code,总结了一套配置技巧,能让 AI 编程助手更懂你的项目。 分享一下 Commands、Skills、Subagent、模型选择和 Context Fork 的实战经验。 (Thread) https://t.co/jVvbrzjPJr
牛皮,Antigravity 现在已经支持完整的 Skills 规范 你可以在里面使用和创建 Skills 了,这下 OpenAI、谷歌都支持了,Skills 要爆发了 https://t.co/7sq6JUHmU8
深度用 opencode 几天后,用oc把之前自用软件的基座从 claude code 换成了 opencode 比之前体验的时候又好用了一大截,怪不得 A 厂急着封
玉伯之前发了一条推文,说问了很多牛人下一个大模型会有什么惊艳发布,其中一个预测是:可实时生成的视频。 其实我当时没太理解什么是实时生成视频,直到我看了 @PixVerse_ R1 的演示视频,实际体验了一把,才算是理解了什么是实时生成视频,以及它带来的想象空间有多大。 PixVerse R1 可以说是全球首个实时生成模型了,是 PixVerse 自研的大模型。 如果你看了这个视频演示,你会发现它和传统的 AI 视频生成完全不是一回事。演示里是一个"魔法水族箱",金鱼在水草间游动,你打一句话,画面立刻响应。输入"一只小龙虾",红色的鳌虾就趴在石子上了;打"几只蓝色小水母",半透明的水母就漂出来了;说"一条鲨鱼",鲨鱼就从左边游进画面。不是生成完再播放,是你说一句、它变一帧,像在跟视频对话。 更厉害的是复杂交互。你打"一只手伸进去抓鱼",真的有只手从上方探入水中捞鱼;说"用渔网捞",绿色的捞网就出现把金鱼网住了。场景也能随便加——"出现一艘沉船",海盗船模型就沉在鱼缸里了;"掉进去一个棒棒糖",红白旋涡的巨型棒棒糖就躺在石子上,超现实。最离谱的是你还能控制镜头:打"镜头拉远,一个孩子正在看水族箱",视角瞬间从鱼缸内部切到外面,一个小男孩背对着你站在水族箱前。 在实际体验的时候,我也发现一个问题:人的反应速度跟不上视频生成的速度。AI 生成太快了,我写提示词的手速跟不上。但这应该不是大问题,完全可以语音指挥,让 AI 来实时写提示词。 实时生成这个方向打开的想象空间太大了。 直播?想象一下,主播说“今天心情好,给我换个海边背景”,下一秒人就站在马尔代夫的沙滩上了。弹幕刷“下雨”,雨就下了;刷“放烟花”,天上就炸开了。观众不再是观众,是共创者。 游戏?你对着屏幕说“我要进一个赛博朋克风格的酒吧”,酒吧就生成出来了,霓虹灯、全息广告、调酒机器人,全是根据你那句话现编的。不需要提前建模,每个玩家看到的世界都不一样。 教育?老师讲二战诺曼底登陆,不用再放 PPT 了,直接说“给我生成一段盟军抢滩的画面”,学生眼前就是士兵跳下登陆艇、冲向海滩的场景。讲到哪,演到哪。 互动影视?男女主角站在分岔路口,观众投票往左走还是往右走,视频实时往那个方向演下去。每个人看到的结局都可能不一样。 这模糊了视频和游戏、直播、互动内容的边界。视频不再是“做好了给你看”的东西,而是“你说了算”的东西。 @PixVerse_ R1 作为第一个吃螃蟹的出现了,接下来看谁跟上。 如果你能实时控制视频里的一切,你第一个想玩什么?
这两天说这个容易被喷,但还是记录一下 1、我认为 Dan Koe 找选题的能力,大于他把这个选题展开的能力 2、或者说,他展开选题、抽丝剥茧的能力,没有在热门文章中得到体现 3、基于我对他的写作能力的理解,我不认为这些热门文章是他的自我表达,这些是迎合商业模式而特意设计的内容 个人观点,仅供参考
一个专门用来设计界面 UI 的Claude Skill。 安装指令:curl -fsSL https://t.co/VyyiVt93pw | bash 同时支持ClaudeCode、OpenCode、Cursor、Windsurf等工具。 刚测试了下,还算OK吧,可能提示词太简单了。 测试提示词:在下载文件夹生成一个企业官网 landing page,公司叫“Gemini”。 使用时用 /ui-skills [需求描述或给一个代码文件夹] 它会自动生成或优化界面,比较实用。 官网见评论区
基于王老师的这个 X 文章发布 skill,改出了一个 Linkedin 文章和微信公众号版本的。 Linkedin 文章发布 Skill:https://t.co/PtQznthfpo 微信公众号文章排版 Skill: https://t.co/G914e34rkS 微信公众号文章发布 Skill: https://t.co/EhJh0tarRi 公众号文章发布用到了@miantiao 佬的https://t.co/Iry2o5v1vJ来进行自定义排版,@Yangyixxxx 佬的https://t.co/q0dYygtDzj来进行公众号API 授权。 现在配合我自己的文章写作,审稿 skills,可以联动完成多平台发布了。
https://t.co/hMoVbVsqf9 keeps delivering! Buy their stocks to support them on the HK market :) Their wonderful team just dropped GLM-image, a cutting edge image generation model with hybrid autoregressive + diffusion decoder architecture: - The AR part is on top of GLM-4-9B-0414 with an extended vocabulary to incorporate visual tokens. - The diffusion latent decoder is a single stream DiT arch with 7B parameters The model was posted trained on RL with GRPO. Thanks to its architecture, the model can support image generation with dense text / knowledge. It also supports very powerful image editing. How much closer can we get to Nano Bananas? Try the model on @huggingface with the inference provider widget.
最虎的Skill,Ralph-loop,一天干爆Claude Max订阅。 看到一篇文章,作者详细讲了自己怎么用这个Skill 基于PRD,让AI自动写一个完整的需求。 他写的是一个浏览器SQLite的GUI查看器。 成品还挺牛逼的。 1. 第一步很简单,让 Claude 生成需求文档: 给我写个产品需求文档,要做一个浏览器里的 SQLite 查看器。能打开数据库文件,显示内容,可以交互。不要用前端框架,保持简单。 Claude 给了他 62 个需求。 2. 写了一个循环脚本执行: while :; do cat PRD.json | claude-code done 每次循环,Claude 会: 1. 找一个最重要的需求 2. 实现它 3. 更新进度 4. 继续下一个 每次跑 10 个循环,然后刷新浏览器看看有没有炸。 结果?竟然真的做出来了,作者惊呆了。 作品和文章见评论
大家好,出来了训练的第一版,我96G内存都爆,只能搞30秒,不过大体上有平壤味道了,但对于将军的感情训练的稍微夸张了点。 https://t.co/acnBC4xgx4
Antigravity 开始支持 Skills 了,这下要爆发了 他们文档写的不好,我摸索了一下怎么用,这里分享一下 ------ Antigravity 支持两种类型的 Skills,Workspace 和全局。 具体的使用和创建方式就是将你的 Skills 文件夹移动到两个不同的文件位置。 Workspace Skills 需要在你当前打开的项目文件夹下, <workspace-root>/.agent/skills/<skill-folder>/ 比如我我的项目文件叫 Prompt 那他就在这个位置 /Users/guohao/Documents/Text content/Prompt/.agent/skills 全局的 Skills 需要放在 Antigravity 的安装文件夹下面, ~/.gemini/antigravity/skills/<skill-folder>/ 比如我自己电脑的话他应该在这里: /Users/guohao/.gemini/antigravity/skills/ Mac 下打开具体文件夹的方法是:点击访达,在桌面最上面的 Tab 栏找到前往,输入对应的路径。 当你把 Skill 放进去以后,Antigravity Agent 就可以看到你的 Skills 列表,然后如果你的对话内容看起来跟某个 Skills 相关,他就会读取这个 Skills. md 的内容并执行。 比如你用我写的 PPT 生成 Skills 的话就是,帮我基于 XXX 文档创建一个 PPT。
Github 三万星的项目:LiteLLM 用 OpenAI 的 API 格式调用 100+ 种大语言模型的统一接口库 一个开源的 Python SDK 和 AI Gateway,它的最大价值在于: 统一接口:支持 100+ 个 LLM 提供商(OpenAI、Claude/Anthropic、Google VertexAI、AWS Bedrock、Azure、Cohere 等) OpenAI 兼容:所有模型都用 OpenAI 的 API 格式调用,无需学习每个提供商的不同 API 多种端点:支持 /chat/completions、/embeddings、/images、/audio、/batches、/rerank 等 如果自己想Vibe Coding,接入大模型,用这个估计能省不少时间啊! 地址见评论
这篇文章有点厉害,把组织如何用AI提效讲的很清楚。 文章超级长,转写一半大家感受下,推荐看原文 --- 你可能会看到一个矛盾的现象。 AI帮个人干活,效率高得惊人,但放到公司里,效果就大打折扣了。 为什么? 因为公司里的活儿,本质上不是一个人能搞定的。 需要协作、谈判、升级决策,要在时间线上不断对齐判断。 一个再聪明的AI,如果只能单打独斗,在组织里也就是个"局部优化"的工具。 作者这篇文章,主要讲AI怎么从"个人助理"进化成"组织智能"。 上下文不是藏在某个地方的宝藏 很多人觉得,只要给AI足够多的上下文,它就能理解组织怎么运作。 前提是:组织的上下文是个完整的、结构化的东西,就像化石埋在地层里,只要挖出来就行。 真相是,大部分组织根本不是这样运作的。 上下文不存在于某个数据库里,不在某份文档里,甚至不在老板脑子里。 它是在互动中不断生成和消失的。 今天开会定的事,明天可能因为一封邮件就变了。 AI要理解组织,不能只是"读资料",它得参与进来,像人一样在邮件、会议、文档里观察决策怎么展开,冲突怎么升级,共识怎么形成。 这才是真正的"上下文学习"。 人类的协作史,就是AI的未来 尤瓦尔·赫拉利在《人类简史》里说,人类能统治地球,不是因为个体更聪明,而是因为学会了大规模协作。 我们发明了神话、法律、货币、宗教这些"共同故事",让陌生人也能对齐行为。 科学也是这样。 17世纪之前,科学知识是碎片化的,靠私人信件和书籍传播,错误会一直流传,发现会不断丢失。 转折点不是某个新理论,而是协作系统的出现如科学期刊、学术社团、同行评议。 知识开始积累,是因为判断变成了社会化的过程。 电话也一样。 早期电话是点对点连接的,你得知道线通到哪儿才能打。 网络一大,这套就崩了。 怎么办?接线员出现了。 她们坐在交换机前,手动连接电话,记得谁在打给谁,哪些电话更紧急,怎么处理冲突。 电话能规模化,是因为有了这个"人工中介层"。 软件开发也经历过这个阶段。 Git之前,代码协作很脆弱。 CVS和SVN是中心化的,多人改代码得排队,冲突成本很高。 Git让分支变便宜了,记录变成了一等公民,冲突变得可见、可解决。 GitHub又加了一层社会化协作:PR、代码审查、issue讨论。 规律很明显:个体能力先出现,但指数级的生产力,只有在协作结构出现后才会爆发。 AI现在就在这个节点上。 组织不会按"角色"重组,而是按"协作单元" 很多人想象的未来是:AI接管某些岗位,人类做剩下的。 但作者觉得不是这样。 AI不受人类的限制——注意力、带宽、专业分工、层级结构——这些都不存在。 所以未来的组织不会按"角色"设计,而是按"协作单元"设计。 比如法务。 法务的核心工作是"共同立场"。 合同要经过律师、合伙人、客户的多轮谈判,立场在这个过程中不断演化。 今天,资深合伙人的价值很大一部分在于"记得住"——记得之前的先例、风险、立场变化。 未来,AI会承担这部分协调工作。 它跟踪所有未解决的问题,发现立场冲突,把判断性的决策升级给合适的人。 法务团队会重组:大量AI做机械性的起草和信息收集,少数资深合伙人做决策、风险判断、客户关系维护。 再比如市场。 市场的挑战是"叙事一致性"。 产品市场、增长、品牌、销售,各自有各自的说法,怎么对齐? 今天靠开会、审稿、非正式影响力。 未来,AI会跨渠道追踪叙事,发现偏离,升级冲突。 人类的角色从"渠道负责人"变成"叙事把关人"和"战略意图制定者"。 财务、产品也是类似的逻辑。 AI不是替代某个岗位,而是重新分配了协调工作。 最快的路径是: 把AI嵌入到组织已经在用的协作工具里——邮件、消息、浏览器、文档。 这不是"遗留系统",它们是工作的活基础设施。 意图怎么表达、分歧怎么浮现、决策怎么升级、责任怎么记录,都编码在这些工具里。 而且,升级机制已经内置了:@提及、批注、评论、建议编辑、通知。(AI也可以做) AI要做的,不是发明新的协作方式,而是学会在这些已有的机制里参与和升级。
作者Tal Raviv,对 Claude Code 的"压缩"功能很好奇。 就是那个能让对话持续很久不用重新开始的功能。 他直接打开 Claude Code 的"大脑"看了看。 具体怎么看呢: 1. 打开你的用户根目录 2. 按 Command+Shift+.(Mac)显示隐藏文件夹 3. 找到 ~/.claude/projects/ 这个路径 4. 用 Cursor 或 VSCode 打开你的项目文件夹 5. 装个 JSONL Gazelle 插件(开源的) 6. 打开最新的 JSONL 文件,每一行就是一条对话消息 "压缩"不是删除,是做标记 当你在 Claude Code 里运行压缩命令时,你以为它会把旧对话删掉,只留个摘要对吧? 错了。 它做的是:在对话文件里创建一个"压缩边界",写下之前发生了什么的总结,但完整的原始对话还在那儿。 就像你在一本很厚的笔记本里夹了个书签。 书签上写着"前面讲了什么",但前面的内容一个字都没删。需要的时候,随时能翻回去看细节。 有两点挺有意思: 第一,记忆管理是个大问题。 AI 对话工具要保持长时间的连贯性,不能每次都从头开始。 但上下文窗口是有限的,怎么在有限空间里保留最重要的信息,这是个技术活。 第二,好的设计是平衡的艺术。 Claude Code 的压缩机制既保证了效率(通过摘要),又保留了完整性(原始对话还在)。 这种"既要又要"的解决方案,往往比非黑即白的选择更有价值。 最后说一句,Anthropic 之前展示过 Claude Opus 能在单个对话里玩 75 分钟以上的《卡坦岛》游戏,靠的就是不断编辑上下文,而不是重新开始。
很多朋友问我,前几天展示那个可以生成带动效的 PPT 的 skill 是怎么做和怎么用的 写了一篇内容,重点详细介绍一下这个 Skills 如何安装以及如何使用 顺便说一下整个 Skills 的构建逻辑和细节。 https://t.co/7ad2pt3p0j