🔥 推特起爆帖监控
搜索和分析大V账号即将起爆的热帖推文。通过SoPilot插件快速评论和互动,抢先一步占领评论区,你将获得更多的曝光。
群友开源了!这款Skill安全扫描器,附带人工精选Skill库,一件安装管理。 Skill学习群藏龙卧虎,群友做了款Skill下载和安全管理软件。 一方面扫描Skill的安全漏洞,另一方面人肉整理了一批优质Skills,还会自动拉取Github更新。 虽然界面花哨,交互设计也有优化空间,但基本可用了。 作者会继续迭代。 充分践行了干中学,想学什么直接下场干,想要什么直接让 AI 实现,必须赞一个。 下载地址见评论区
今天停在路边等娃,正刷着手机,过来两个小伙,一个拿着大疆在拍,另一个很热情地跟我打招呼,说我的车很酷,问是什么车,我问他们干嘛的,答说做自媒体街头采访,问我方便聊聊吗,我也没啥事,就说可以啊,吧啦吧啦聊了五六分钟,他问我做什么工作的,我说目前没有工作,他说没工作开这车怕是油都加不起吧,我说过完年再找。 最后聊完了他问我可以把这个视频发到他的抖音吗?我说你给我加一箱油就可以,他拒绝了,我说那就不可以发。一上来就给我展示了他的号,要是敢偷偷发布我就喷他😅
🔥朋友们这套提示词绝了!上传你的靓照就可以生成你跟自己的街头涂鸦合照,社媒疯传预定! 内置了四个主题场景(新年,赛博,民国,国潮),提示词里面这部分可以自定义👇 "mural_main_text": "月入百万", "mural_secondary_text": "2026", "theme": "New Year Festive",(从 style_pool 里面挑一个) 快来赛出你的靓作!😍 { "task_description": "Create a natural street portrait of a real person standing in front of a layered, messy graffiti wall. The wall features a spontaneous, hand-painted caricature of the person.", "global_settings": { "aspect_ratio": "4:3", "camera_view": "Front-on or slight 15-degree angle; avoid extreme perspective distortion; eye-level shot", "overall_vibe": "Authentic urban street culture, raw, energetic, and candid" }, "variables": { "mural_main_text": "月入百万", "mural_secondary_text": "2026", "theme": "New Year Festive", "style_pool": ["New Year Festive", "Cyberpunk Underground", "Vintage Republican", "Traditional Zen"] }, "mural_aesthetics": { "rendering_style": "Hand-painted aerosol art, not a digital print", "messiness_factors": [ "Visible paint splatters and spontaneous drips", "Soft, blurred spray edges (no sharp digital outlines)", "Layered effect: the main portrait is painted over faint, messy background tags and scribbles", "Imperfect symmetry to enhance the 'freehand' look" ], "content": "A vibrant caricature based on the reference person's facial features and joyful expression, integrated into the chaotic beauty of the street wall." }, "style_scenarios": { "New_Year_Festive": { "setting": "An old city street during dusk", "palette": "Dominant deep reds and gold, contrasted with the reference image's colors", "details": "Faint lanterns in the distance, festive graffiti tags" }, "Cyberpunk_Underground": { "setting": "A dimly lit pedestrian tunnel with wet floors", "palette": "Neon blue and violet, mixed with the reference image's color tones", "details": "Exposed wires on the wall, industrial textures" }, "Vintage_Republican": { "setting": "A historic brick alleyway (Lilong)", "palette": "Muted earth tones, sepia, and charcoal", "details": "Old wooden window frames, textured grey bricks" }, "Traditional_Zen": { "setting": "A quiet courtyard with a stone wall", "palette": "Ink black, sage green, and white-wash", "details": "Subtle bamboo shadows, weathered limestone texture" } }, "foreground_subject": { "logic": "Mirror the gender and facial features of the reference image.", "attire_strategy": "Inherit the dominant color palette from the reference photo's clothing. For example, if the reference is wearing a black T-shirt, generate a stylish, theme-appropriate outfit in black or dark tones (e.g., a black techwear jacket for Cyberpunk theme).", "position": "Grounded in the bottom right corner, waist-up or three-quarter view.", "pose_randomization": [ "Casually leaning back against the wall", "One hand adjusting hair or a hat", "A relaxed, mid-laugh stance with hands in pockets", "Slightly looking away from the camera for a candid feel" ] }, "technical_finish": { "wall_texture": "Naturally weathered concrete or brick; subtle cracks and water stains that feel organic, not forced.", "lighting": "Dynamic natural lighting (soft sunlight or ambient street glow) that casts a soft shadow from the person onto the wall, ensuring a deep blend." } }
无论写公众号,还是 X 长文,都需要配图。 从经验看,Nano Banana Pro 和 即梦4.5生图都很好。 用API多少都要花钱,反向代理难度又高。 搜免费配图API,发现阿里巴巴的Z-Image每天可免费生2000张图! 量大又免费,阿里现在也是菩萨啊! 解读过 z-image 论文,很巧妙,中文支持也不错。 简明教程如下: ① 注册阿里魔搭,到下图页面,点红框,复制API代码。 (默认会有API,很贴心) ② 跟Claude Code或OpenCode对话说: 基于下面代码创建一个Claude Skill:【粘贴代码】 当然,直接当API用也行。 做成Skill,方便跟其他写文章Skill组合。 --- 页面地址不好找,我放评论区,如果觉得有用,请一键三连,哈哈哈哈~~
尝试了最新版 Distill,很喜欢它的理念,以 list 的方式记笔记,把你人生最关注的所有事情按关键词列出 list,没有文件夹,而是按照 attend to notes 的逻辑,以时间线的形式往 list 加内容,原生支持 agents,还可以索引本地 markdown 文件,UI 也非常好看。虽然使用上有些地方还不是很顺手,但这才是我理想中的笔记软件该有的样子。 https://t.co/4krYLGv4iJ
🤔I guess we’re on their radar now? https://t.co/p43iuFgqCy
在大厂最后几年,工作最幸福的时光,是出差的日子。一出差,就不用参加那又长又臭的会了。 创业后,最幸福的日子,是不用出差的时光。不出差,就可以专心做产品,不用跟陌生人说话。 工作期间,你最幸福的时光是什么。
现在我们 vibe coding 做产品,基本都是交给 AI 一把梭。 功能写得飞快,但设计这块,像UI、颜色、字体这些,基本都是AI 给啥就是啥,能用就行 就算想改,也不知道该怎么改,纯靠主观感觉 后来我才发现不是不在乎设计,而是根本不知道一个「好的设计」应该是什么样 这个时候,一个成熟、完整的设计标准规范就显得很重要了 而这个东西,叫「设计系统」。 设计系统本质上就是一整套涵盖颜色、排版、间距、icon、组件等的标准规范,在做产品时,按照这个规范来实现就好了 但我们这种非设计师出身的,要想设计一套靠谱的设计系统,那真是太难了 今天我来分享一个网站,收录了各家大厂的设计系统,像Apple、Adobe、Google、Ant Design。颜色系统、icon、排版、字体等,整理得非常完整,都能在里面找到
我今天一直在用 typeless 和 claude code 对话 我突然想到,如果 typeless 能访问我的 cc 工作目录,不考虑速度和费用问题,岂不是可以把我的语音转文字的结果,变成非常好的用户提示词 但如果这样的话,就没必要用 cc 了,如果 cc 被内置到了 typeless 里面,再对接一个实时通话 API 已经可以做一个钢铁侠 Jarvis 的雏形了
谷歌 Veo 3.1 昨晚这个更新牛皮啊 新的多图参考和 4K 超分,直接把可用性拉满了 多图参考(Ingredients to Video)中人物和物品一致性大幅增强,支持输出竖版视频,也能融合纹理、角色和物品。 视频分辨率也有变化,现在官方支持更好的 1080P 和 4K 超分服务。 目前 FLOW 上就可以使用,选择“素材生视频”就可以,只支持 Veo 3.1-Fast 模型。
这两天说这个容易被喷,但还是记录一下 1、我认为 Dan Koe 找选题的能力,大于他把这个选题展开的能力 2、或者说,他展开选题、抽丝剥茧的能力,没有在热门文章中得到体现 3、基于我对他的写作能力的理解,我不认为这些热门文章是他的自我表达,这些是迎合商业模式而特意设计的内容 个人观点,仅供参考
玉伯之前发了一条推文,说问了很多牛人下一个大模型会有什么惊艳发布,其中一个预测是:可实时生成的视频。 其实我当时没太理解什么是实时生成视频,直到我看了 @PixVerse_ R1 的演示视频,实际体验了一把,才算是理解了什么是实时生成视频,以及它带来的想象空间有多大。 PixVerse R1 可以说是全球首个实时生成模型了,是 PixVerse 自研的大模型。 如果你看了这个视频演示,你会发现它和传统的 AI 视频生成完全不是一回事。演示里是一个"魔法水族箱",金鱼在水草间游动,你打一句话,画面立刻响应。输入"一只小龙虾",红色的鳌虾就趴在石子上了;打"几只蓝色小水母",半透明的水母就漂出来了;说"一条鲨鱼",鲨鱼就从左边游进画面。不是生成完再播放,是你说一句、它变一帧,像在跟视频对话。 更厉害的是复杂交互。你打"一只手伸进去抓鱼",真的有只手从上方探入水中捞鱼;说"用渔网捞",绿色的捞网就出现把金鱼网住了。场景也能随便加——"出现一艘沉船",海盗船模型就沉在鱼缸里了;"掉进去一个棒棒糖",红白旋涡的巨型棒棒糖就躺在石子上,超现实。最离谱的是你还能控制镜头:打"镜头拉远,一个孩子正在看水族箱",视角瞬间从鱼缸内部切到外面,一个小男孩背对着你站在水族箱前。 在实际体验的时候,我也发现一个问题:人的反应速度跟不上视频生成的速度。AI 生成太快了,我写提示词的手速跟不上。但这应该不是大问题,完全可以语音指挥,让 AI 来实时写提示词。 实时生成这个方向打开的想象空间太大了。 直播?想象一下,主播说“今天心情好,给我换个海边背景”,下一秒人就站在马尔代夫的沙滩上了。弹幕刷“下雨”,雨就下了;刷“放烟花”,天上就炸开了。观众不再是观众,是共创者。 游戏?你对着屏幕说“我要进一个赛博朋克风格的酒吧”,酒吧就生成出来了,霓虹灯、全息广告、调酒机器人,全是根据你那句话现编的。不需要提前建模,每个玩家看到的世界都不一样。 教育?老师讲二战诺曼底登陆,不用再放 PPT 了,直接说“给我生成一段盟军抢滩的画面”,学生眼前就是士兵跳下登陆艇、冲向海滩的场景。讲到哪,演到哪。 互动影视?男女主角站在分岔路口,观众投票往左走还是往右走,视频实时往那个方向演下去。每个人看到的结局都可能不一样。 这模糊了视频和游戏、直播、互动内容的边界。视频不再是“做好了给你看”的东西,而是“你说了算”的东西。 @PixVerse_ R1 作为第一个吃螃蟹的出现了,接下来看谁跟上。 如果你能实时控制视频里的一切,你第一个想玩什么?
基于王老师的这个 X 文章发布 skill,改出了一个 Linkedin 文章和微信公众号版本的。 Linkedin 文章发布 Skill:https://t.co/PtQznthfpo 微信公众号文章排版 Skill: https://t.co/G914e34rkS 微信公众号文章发布 Skill: https://t.co/EhJh0tarRi 公众号文章发布用到了@miantiao 佬的https://t.co/Iry2o5v1vJ来进行自定义排版,@Yangyixxxx 佬的https://t.co/q0dYygtDzj来进行公众号API 授权。 现在配合我自己的文章写作,审稿 skills,可以联动完成多平台发布了。
一个专门用来设计界面 UI 的Claude Skill。 安装指令:curl -fsSL https://t.co/VyyiVt93pw | bash 同时支持ClaudeCode、OpenCode、Cursor、Windsurf等工具。 刚测试了下,还算OK吧,可能提示词太简单了。 测试提示词:在下载文件夹生成一个企业官网 landing page,公司叫“Gemini”。 使用时用 /ui-skills [需求描述或给一个代码文件夹] 它会自动生成或优化界面,比较实用。 官网见评论区
Github 三万星的项目:LiteLLM 用 OpenAI 的 API 格式调用 100+ 种大语言模型的统一接口库 一个开源的 Python SDK 和 AI Gateway,它的最大价值在于: 统一接口:支持 100+ 个 LLM 提供商(OpenAI、Claude/Anthropic、Google VertexAI、AWS Bedrock、Azure、Cohere 等) OpenAI 兼容:所有模型都用 OpenAI 的 API 格式调用,无需学习每个提供商的不同 API 多种端点:支持 /chat/completions、/embeddings、/images、/audio、/batches、/rerank 等 如果自己想Vibe Coding,接入大模型,用这个估计能省不少时间啊! 地址见评论
作者Tal Raviv,对 Claude Code 的"压缩"功能很好奇。 就是那个能让对话持续很久不用重新开始的功能。 他直接打开 Claude Code 的"大脑"看了看。 具体怎么看呢: 1. 打开你的用户根目录 2. 按 Command+Shift+.(Mac)显示隐藏文件夹 3. 找到 ~/.claude/projects/ 这个路径 4. 用 Cursor 或 VSCode 打开你的项目文件夹 5. 装个 JSONL Gazelle 插件(开源的) 6. 打开最新的 JSONL 文件,每一行就是一条对话消息 "压缩"不是删除,是做标记 当你在 Claude Code 里运行压缩命令时,你以为它会把旧对话删掉,只留个摘要对吧? 错了。 它做的是:在对话文件里创建一个"压缩边界",写下之前发生了什么的总结,但完整的原始对话还在那儿。 就像你在一本很厚的笔记本里夹了个书签。 书签上写着"前面讲了什么",但前面的内容一个字都没删。需要的时候,随时能翻回去看细节。 有两点挺有意思: 第一,记忆管理是个大问题。 AI 对话工具要保持长时间的连贯性,不能每次都从头开始。 但上下文窗口是有限的,怎么在有限空间里保留最重要的信息,这是个技术活。 第二,好的设计是平衡的艺术。 Claude Code 的压缩机制既保证了效率(通过摘要),又保留了完整性(原始对话还在)。 这种"既要又要"的解决方案,往往比非黑即白的选择更有价值。 最后说一句,Anthropic 之前展示过 Claude Opus 能在单个对话里玩 75 分钟以上的《卡坦岛》游戏,靠的就是不断编辑上下文,而不是重新开始。
Antigravity 开始支持 Skills 了,这下要爆发了 他们文档写的不好,我摸索了一下怎么用,这里分享一下 ------ Antigravity 支持两种类型的 Skills,Workspace 和全局。 具体的使用和创建方式就是将你的 Skills 文件夹移动到两个不同的文件位置。 Workspace Skills 需要在你当前打开的项目文件夹下, <workspace-root>/.agent/skills/<skill-folder>/ 比如我我的项目文件叫 Prompt 那他就在这个位置 /Users/guohao/Documents/Text content/Prompt/.agent/skills 全局的 Skills 需要放在 Antigravity 的安装文件夹下面, ~/.gemini/antigravity/skills/<skill-folder>/ 比如我自己电脑的话他应该在这里: /Users/guohao/.gemini/antigravity/skills/ Mac 下打开具体文件夹的方法是:点击访达,在桌面最上面的 Tab 栏找到前往,输入对应的路径。 当你把 Skill 放进去以后,Antigravity Agent 就可以看到你的 Skills 列表,然后如果你的对话内容看起来跟某个 Skills 相关,他就会读取这个 Skills. md 的内容并执行。 比如你用我写的 PPT 生成 Skills 的话就是,帮我基于 XXX 文档创建一个 PPT。
这篇文章有点厉害,把组织如何用AI提效讲的很清楚。 文章超级长,转写一半大家感受下,推荐看原文 --- 你可能会看到一个矛盾的现象。 AI帮个人干活,效率高得惊人,但放到公司里,效果就大打折扣了。 为什么? 因为公司里的活儿,本质上不是一个人能搞定的。 需要协作、谈判、升级决策,要在时间线上不断对齐判断。 一个再聪明的AI,如果只能单打独斗,在组织里也就是个"局部优化"的工具。 作者这篇文章,主要讲AI怎么从"个人助理"进化成"组织智能"。 上下文不是藏在某个地方的宝藏 很多人觉得,只要给AI足够多的上下文,它就能理解组织怎么运作。 前提是:组织的上下文是个完整的、结构化的东西,就像化石埋在地层里,只要挖出来就行。 真相是,大部分组织根本不是这样运作的。 上下文不存在于某个数据库里,不在某份文档里,甚至不在老板脑子里。 它是在互动中不断生成和消失的。 今天开会定的事,明天可能因为一封邮件就变了。 AI要理解组织,不能只是"读资料",它得参与进来,像人一样在邮件、会议、文档里观察决策怎么展开,冲突怎么升级,共识怎么形成。 这才是真正的"上下文学习"。 人类的协作史,就是AI的未来 尤瓦尔·赫拉利在《人类简史》里说,人类能统治地球,不是因为个体更聪明,而是因为学会了大规模协作。 我们发明了神话、法律、货币、宗教这些"共同故事",让陌生人也能对齐行为。 科学也是这样。 17世纪之前,科学知识是碎片化的,靠私人信件和书籍传播,错误会一直流传,发现会不断丢失。 转折点不是某个新理论,而是协作系统的出现如科学期刊、学术社团、同行评议。 知识开始积累,是因为判断变成了社会化的过程。 电话也一样。 早期电话是点对点连接的,你得知道线通到哪儿才能打。 网络一大,这套就崩了。 怎么办?接线员出现了。 她们坐在交换机前,手动连接电话,记得谁在打给谁,哪些电话更紧急,怎么处理冲突。 电话能规模化,是因为有了这个"人工中介层"。 软件开发也经历过这个阶段。 Git之前,代码协作很脆弱。 CVS和SVN是中心化的,多人改代码得排队,冲突成本很高。 Git让分支变便宜了,记录变成了一等公民,冲突变得可见、可解决。 GitHub又加了一层社会化协作:PR、代码审查、issue讨论。 规律很明显:个体能力先出现,但指数级的生产力,只有在协作结构出现后才会爆发。 AI现在就在这个节点上。 组织不会按"角色"重组,而是按"协作单元" 很多人想象的未来是:AI接管某些岗位,人类做剩下的。 但作者觉得不是这样。 AI不受人类的限制——注意力、带宽、专业分工、层级结构——这些都不存在。 所以未来的组织不会按"角色"设计,而是按"协作单元"设计。 比如法务。 法务的核心工作是"共同立场"。 合同要经过律师、合伙人、客户的多轮谈判,立场在这个过程中不断演化。 今天,资深合伙人的价值很大一部分在于"记得住"——记得之前的先例、风险、立场变化。 未来,AI会承担这部分协调工作。 它跟踪所有未解决的问题,发现立场冲突,把判断性的决策升级给合适的人。 法务团队会重组:大量AI做机械性的起草和信息收集,少数资深合伙人做决策、风险判断、客户关系维护。 再比如市场。 市场的挑战是"叙事一致性"。 产品市场、增长、品牌、销售,各自有各自的说法,怎么对齐? 今天靠开会、审稿、非正式影响力。 未来,AI会跨渠道追踪叙事,发现偏离,升级冲突。 人类的角色从"渠道负责人"变成"叙事把关人"和"战略意图制定者"。 财务、产品也是类似的逻辑。 AI不是替代某个岗位,而是重新分配了协调工作。 最快的路径是: 把AI嵌入到组织已经在用的协作工具里——邮件、消息、浏览器、文档。 这不是"遗留系统",它们是工作的活基础设施。 意图怎么表达、分歧怎么浮现、决策怎么升级、责任怎么记录,都编码在这些工具里。 而且,升级机制已经内置了:@提及、批注、评论、建议编辑、通知。(AI也可以做) AI要做的,不是发明新的协作方式,而是学会在这些已有的机制里参与和升级。
最虎的Skill,Ralph-loop,一天干爆Claude Max订阅。 看到一篇文章,作者详细讲了自己怎么用这个Skill 基于PRD,让AI自动写一个完整的需求。 他写的是一个浏览器SQLite的GUI查看器。 成品还挺牛逼的。 1. 第一步很简单,让 Claude 生成需求文档: 给我写个产品需求文档,要做一个浏览器里的 SQLite 查看器。能打开数据库文件,显示内容,可以交互。不要用前端框架,保持简单。 Claude 给了他 62 个需求。 2. 写了一个循环脚本执行: while :; do cat PRD.json | claude-code done 每次循环,Claude 会: 1. 找一个最重要的需求 2. 实现它 3. 更新进度 4. 继续下一个 每次跑 10 个循环,然后刷新浏览器看看有没有炸。 结果?竟然真的做出来了,作者惊呆了。 作品和文章见评论
牛皮,Antigravity 现在已经支持完整的 Skills 规范 你可以在里面使用和创建 Skills 了,这下 OpenAI、谷歌都支持了,Skills 要爆发了 https://t.co/7sq6JUHmU8
https://t.co/hMoVbVsqf9 keeps delivering! Buy their stocks to support them on the HK market :) Their wonderful team just dropped GLM-image, a cutting edge image generation model with hybrid autoregressive + diffusion decoder architecture: - The AR part is on top of GLM-4-9B-0414 with an extended vocabulary to incorporate visual tokens. - The diffusion latent decoder is a single stream DiT arch with 7B parameters The model was posted trained on RL with GRPO. Thanks to its architecture, the model can support image generation with dense text / knowledge. It also supports very powerful image editing. How much closer can we get to Nano Bananas? Try the model on @huggingface with the inference provider widget.
最近深度使用 Claude Code,总结了一套配置技巧,能让 AI 编程助手更懂你的项目。 分享一下 Commands、Skills、Subagent、模型选择和 Context Fork 的实战经验。 (Thread) https://t.co/jVvbrzjPJr
注册了美国公司的朋友们,你们挣回 300 美金了吗 https://t.co/PWEyEgpWbs
很多朋友问我,前几天展示那个可以生成带动效的 PPT 的 skill 是怎么做和怎么用的 写了一篇内容,重点详细介绍一下这个 Skills 如何安装以及如何使用 顺便说一下整个 Skills 的构建逻辑和细节。 https://t.co/7ad2pt3p0j
