🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
习得一项技能最好的方法,依然是: 亲手去做一遍,然后再讲出来 说到烂大街的费曼式学习法, 真实践起来没几个人能执行 收藏夹吃灰的再多,不如自己写个 Demo https://t.co/vEwLcLFV3i
ChatGPT 给写作建议是蛮好的,但是让它写或者修改不太行,所以我经常会让 ChatGPT 给建议,把建议贴给 Claude 让它根据建议修改,这样搭配效果挺好。
试了一下 Kimi-K2.5,真的很顶! 美学表现、设计还原、从视频还原动效交互都是 T0 水平。 我后面写前端应该都会优先用这个模型了。 里面还有些藏师傅的使用小技巧。
https://t.co/KsfNsYFgGu
这篇文章配图是用的 baoyu-skills 里面的文章配图 baoyu-article-illustrator skill,一次成型,除了1张重新生成了,效果还可以。 封面图是 baoyu-cover-image skill $ npx skills add jimliu/baoyu-skills
有朋友说为什么大佬腿这么好看 我只想说,其实大多数大家看到的 淘宝丝袜照都是男的拍的, 女性腿部脂肪含量太高, 就是没有男性的好看 🤪🤪🤪🤪
最近工作上和一些95后打交道,觉得这帮留欧的95后本事不大谱不小,活没怎么干钱一分不能少! https://t.co/Zbv30CgdSf
这个魔幻的世界现在割裂的特别严重 根本都不是什么鸟枪换炮 是一边还在拼刺刀,一边在用大炮,还有人在用原子弹 原始生产力是一拨人 原始生产力+AI但用的不好是一拨人 AI Coding但持续Bug是一波人 懂AI Coding+Review 有整体框架思路是一波人 直接把AI Coding框架做成生产效能系统是一波人 这5波人,又在和3类信息做交叉 第一种信息是信息极度匮乏的 第二种信息是中间区间的,比如开始知道用skills的 第三种信息是隐藏深水区,有超多好用的隐藏在水下的好东西,一直就是自己用,从不会拿出来说的 第五类人往往交叉了第三种信息源 然后还在试图希望信息扩散的慢一些 因为只要没人发现它 传播它 几十倍的效率杠杆就在这个窗口时间差里不断积累势能
哈哈哈哈哈,现在世界上不管什么东西,一旦流行了,就会被国人盯上,然后就会在小红书、闲鱼、Crypto 出现。 https://t.co/UuXwYpRNGh
某A10: 你只要盯紧mag7+ intel amd arm等半导体公司就可以了,AI最大的胜利者一定是从他们中间诞生的。
过去 几十个 小时里,最像「现象级 demo」的,就是 Clawdbot, 一个用 Mac mini + Claude 堆出来的自动化个人公司代理,星标一天直接从一万多翻倍到两万多,作者自己都吓呆了。 更细一点看,现在 GitHub 上 AI 开发工具已经形成一个「三件套」, 像 OpenCode / Continue 这种全功能编码代理,当中枢大脑; 再配合 vLLM、Ollama 一类本地 / 服务器推理后端,把算力拆分开用。 围绕这些核心,还有一圈 Agent 编排和看板工具, 比如 Vibe Kanban 这种「给多代理配任务墙」的项目,帮你把不同 Agent 的状态、上下文和任务进度都可视化出来。 如果你玩 MCP 和 Skills,这一波开源趋势其实给了一个很现实的路线, 用 OpenCode / Continue 当 IDE 入口,用 Clawdbot 这类项目当「任务脚手架」,后面挂 MCP Server、下载器、爬虫和 toAPI 风格的 HTTP 包装。
过去这几年,投产比最高的时间支出 就是专门用两个月的时间在不同的城市体验居住了一下 然后从北京跑路了 这是干的最有价值的一件事儿,没有之一 寒冷与干燥,完全就是没有必要的体验,不能没苦硬吃
Super excited to see the new Kimi K2.5 model released, with the usual congratulations from @Hailuo_AI - Continuous pretrained on 15T visual & text token on top of Kimi K2 - Multimodal model with both image and *video* understanding - Interleaved Thinking and Multi-Step Tool Call - Both instant mode and thinking mode available with one config flip - Parallel sub-task support
这版本的 @Kimi_Moonshot k2.5 + kimi cli 确实有点牛 下面这个 remotion 视频用了两句提示词 1. 第一段提示词 + @Remotion skill 定好骨架 2. 第二段也就一句话提示词换上 remotion + kimi 的 logo 而 remotion 官方做这个 demo 用的模型是 opus 4.5 当然我并不是说 k2.5 已经超过了 opus 4.5 , 但这个进步速度太夸张了.
赚钱无关于想法,而在于执行力 1、找到当下捕获注意力的东西,比如clawdbot 2、开始帮助他人搭建,部署 3、但搭建部署是售卖时间,这赚钱效率太低了,于是转念去思考,你要如何资产化它 4、vibecoding一个网页,免费提供Clawbot安装服务,不收任何钱,就免费 5、这个网页自然会有天然的广告流量,google ads为你提供基本收入 6、每一个部署都需要VPS,你可以注册VPS的联盟营销,靠分佣赚钱,流量足够大的时候,分佣比例自然就高了 7、同样的逻辑,API服务也可以赚到钱 8、紧接着,由于你捕获了注意力,会有大量的广告商家来找到你,你的google ads广告位也开始发生了溢价 9、最后,因为大量的人在使用你的服务,你获取了许多email名单,不论是向他们推销clawdbot提示词,使用教程,还是深度定制服务,你都有了机会 很多生意没有壁垒,但成为用户心智首选和第一,就是执行力+窗口时间差带来的壁垒
我们开发了很久的 ListenHub 2.0 今天终于正式上线! - 六大核心功能,解说视频、PPT、AI播客、TTS、AI 生图、音色克隆,成为你的最强表达工具 - 备受期待的 🍌 Nano Banana Pro 生图,使用高级稳定算力,提供全网最高的 4K 无损画质输出,同时推出 API 和 Skills,方便 Agent 调用。 - 全新发现页,分享创意,发现灵感,让你一键做同款 - AI 实验室,AI 音乐生成,未来还有更多好玩工具让会员无缝体验 - 积分奖励系统,通过邀请和签到可以免费获得积分,玩得更畅快 后面会写文章和做一场直播为大家详细介绍使用方法。 欢迎大家前去官网体验 https://t.co/FRhQBWI2X6
DeepSeek 这还没到过年就开始发力了! 发布了升级后的 OCR 2 模型,主要优化是加入模拟人类视觉的“因果推理”机制 将原来的 Clip 模型替换为 LLM 架构模型,用的 Qwen 0.5B 看看这两代模型都做了什么👇 ====== 从视觉压缩到因果推理 OCR 1 证明了一件事:视觉可以作为文本的高效压缩形式。 "一张图胜过千言万语"不只是比喻。他们的实验显示,10 个文本 token 压缩成 1 个视觉 token 时,OCR 精度能达到 97%。甚至 20 倍压缩比下还能保留 60% 的精度。 这解决了 LLM 处理长文本计算量大的问题,用视觉模态节省 Token。 ------ OCR 2 要解决的是更本质的问题:阅读顺序。 传统的 Vision Encoder 都是固定的光栅扫描,从左到右,从上到下。但人类看图不是这样的,你会根据内容的语义逻辑跳着看。 复杂排版的文档、表格、公式,空间位置顺序和逻辑阅读顺序根本不一样。OCR 2 就是要让编码器学会这种"因果推理"能力。 ====== 架构升级:用 LLM 替换 CLIP 这是两代模型最大的区别。 OCR 1 的编码器是 SAM + CLIP 串联结构。SAM 负责视觉感知(窗口注意力),CLIP 负责视觉知识(全局注意力)。 OCR 2 把 CLIP 换成了一个紧凑的 LLM(Qwen2 0.5B)。 为什么要这么做?因为 LLM 架构天然具备"因果推理能力"。 ------ 注意力机制的巧妙设计 OCR 2 用了混合注意力机制: ▸ 视觉 Token 之间:双向注意力(类似 ViT),保持全局视野 ▸ 新增的查询 Token(Query):因果注意力(类似 LLM 解码器) 这些 Query 的数量和视觉 Token 一样多,它们的作用是对视觉信息进行语义重排序。 通过定制的注意力掩码,Query 采用三角形掩码,能基于之前的上下文逐步"推理"出下一个视觉信息的重点。就像你看文档时,会先扫标题,再看关键段落,最后才看细节。 ====== 级联因果推理:两步走 OCR 2 的推理过程是级联的: 第一步,编码器通过 Causal Query 对视觉信息进行逻辑重排序。 第二步,解码器(DeepSeek-3B-MoE)再进行文本生成。 这种设计显著提升了文档的阅读顺序准确性。在 OmniDocBench 测试中,阅读顺序编辑距离从 0.085 降到 0.057。 ------ 实际应用中的稳定性也更好。 生产环境的数据清洗任务中,OCR 2 的重复率从 6.25% 降到 4.17%。生成的文本更稳定可靠,不会出现那么多胡言乱语。 ====== 保持高压缩率,提升信息密度 OCR 2 继承了 OCR 1 的高压缩特性。 视觉 Token 数量限制在 256 到 1120 之间(和 Gemini-3 Pro 的预算一致),既保证效率,又通过因果重排序提升了信息密度。 在相同或更少的 Token 预算下,OCR 2 在 OmniDocBench 上的整体性能比 OCR 1 提升了 3.73%。 不是靠堆 Token,而是让每个 Token 都更有价值。
净说大实话 就是因为不知道咋获客,又得找点事儿干,才天天研究自动化省时间
Derek Mobley 是一位年过40的非裔工程师,患有焦虑和抑郁症。过去几年里,他通过 Workday 平台(在美国找过工作的都知道这家)申请了100多个岗位,无一例外被拒。更离谱的是,很多拒信是凌晨1:50发来的,距他提交申请不到一小时。 这个点没有HR工作,只能是AI。Mobley 怒而起诉,指控 Workday 的 AI 筛选工具存在年龄、种族和残疾歧视。目前,加州北区法院已批准针对"年龄歧视"的全美集体诉讼。只要你年满40岁,自2020年9月以来用 Workday 投简历被拒,就可能成为原告之一。 Workday 服务全球超过11,000家企业,财富500强中65%都在用它。它的 AI 工具会对求职者进行评分、排序、筛选,甚至可以在没有人工干预的情况下自动拒绝候选人。 Workday 的辩护逻辑是:我们只是个软件供应商,只是按照雇主设定的标准执行,做决定的是雇主,不是我们。 但2025年5月16日,美国加州北区地方法院法官 Rita Lin 根据《反就业年龄歧视法》(ADEA)批准了此案的初步认证,她在裁定中写道:"Workday 的软件并非简单地按雇主设定的标准机械执行,而是参与决策过程,推荐某些候选人继续,拒绝其他人。" 换句话说,AI 不是工具,是"代理人"。既然你替雇主做了筛选决策,那歧视的责任你也得担。 如果雇主可以把招聘决策外包给算法,而算法供应商又说"我只是个工具",那反歧视法律就形同虚设了。 对此,Workday公司表示,该诉讼缺乏依据,并强调法院的裁决只是初步的。 https://t.co/P5kGuWFsF5
Clawdbot 官方直接发文说,「别再给苹果公司送钱了, 能运行 Node . is 的设备,都可以拿来部署 Clawdbot。」
提交了一个章鱼猫~ watch file 的机制太好了,兼容 conductor ~~~ https://t.co/zHKsPdDC1R
Claude 上线了一批支持远程连接的 MCP 服务 现在在连接器部分多了个精选分类,估计是深度合作调整过的。 比如 Figma 画流程图,Gemma 生成 PPT,还有 Canva 和 GitHub 等 https://t.co/xgrbQnGmiN
他妈的,迟早有一天玩这屌 AI 得给自己玩破产。 https://t.co/pRqmJjXeip
AI 时代变化太快了,特别是如果经常刷推,可能每天都有新的东西,从白天研究到晚上,发现还没研究明白,第二天新的又来了。 难的事可能从获取新信息变成了如何静下心来做好自己想做的事情。
我笑死 这个段子我看过一遍英文的推 然后看过一遍中文翻译英文的推 然后看过一遍小红书抄推的 现在,我看了一遍从推上截图小红书的 太逗了 https://t.co/0TLfeDBvpV
昨天,小朋友把自己书包搞丢了 昨晚,带着他在马路上找了一两个小时 最后开开心心回家了 今天早上起床要去上学了 问我:爸爸,我的书包呢? 不是,哥,你这么不记事儿的吗????
这个分析了 clawdbot 的 persist memory 文章写的真不错,实现还是有一些启发的,推荐阅读。 等给 @NowledgeMem 的文档和 claude code plugin 加一下 PreCompact hook 的 memory 更新。
Auto Claude 这个功能挺好,AI根据项目代码和功能从 Code、UI、Docs、Security、Performance 这5个维度给你提出一些建议,要是觉得建议不错,就可以直接转成任务,加到kanban的计划任务列表,点击启动,就会开启执行,然后你继续忙你的事情,等它做完通知你Review代码,这感觉还真是不错。 https://t.co/dgkzzZRZBV
如果你的自媒体归途是卖课 那么往往会遇到一种两难境地 一方面你需要分享有价值的信息以涨粉 另一方面需要售卖增值内容以转化 这个度把握起来就有一定困难 其实到也没那么复杂 记住两个原则就可以了 第一个原则是,分享的干货是从影响人的思维方式入手,而不是教人们如何一步步去做 第二个原则是,没必要刻意隐藏部分价值内容以转化,顺其自然就好 这相当于只告诉别人错了,别人也相信你是对的,并突破了固有的思维模式 但却没有操作指南,不知道如何进行 于是课程就有了好奇带来的价值 听君一席话 焦虑会变大 只需塑造怕 钱就入囊下😂
让我想起了和很多年前 nodejs 界的 TJ 大神,可能天才程度比他还要高很多,当时很多 nodejs 的基础流行库都是 TJ 写的,后来突然就消失了。
看了 @karpathy 这篇,很有感想。 对Code Agent 的认知,在2026突然开始改变。 前两周,只靠 codex 和 claude code 完整复现和提高了 一篇 AI 论文方法。Code Agent 熟练使用 pytorch,并按照我的想法,增加了全新的实验,我一行代码都没写。 而且,Code Agent,可以同时在多个不同项目的 repo 工作。而作为人类的我们,成为了最大瓶颈,因为我们只会单线程的观察思考和给出指令,我们无法在同一秒说出两句话。 其实 Code Agent,这种 CLI Agent 的设计理念就是 Agent - Computer - Interface,并没有人类什么事。 所以,未来即使出现 AK 说的 10 倍 100 倍工程师,也都是暂时的。 全部都是 Agent,Human out of the loop。
这两天的热点言论:用vibe coding做出11个垃圾来。 我的观点:如果做出垃圾是产品的起点,那么这绝对值得鼓励。 如果做几个垃圾来捞钱是做产品的终点,那么这种想法也很垃圾。
ClawdBot 的作者 @steipete 就是AI文艺复兴时代的达芬奇
学到新词,elicitation attack,诱导攻击。 利用与攻击任务相近的领域构建无害提示,诱导 frontier 模型输出微调数据。 微调开源模型,因为数据无害,模型接受微调,被诱导具备了攻击能力。 使用看似无害的化学合成信息微调,模型制造化学武器的能力得到显著提高。
我当年也支持民主党。2016年大选,还嘲笑川普。 当时有句话,说是希拉里当选就是第一位女总统,桑德斯当选就是第一位犹太总统。川普当选,就是美国最后一位总统。 后来,在唐人街做义工。发现民主党用盒饭换穷人选票,西雅图三旺永远都在计票最后一小时反超,才识破了民主党的嘴脸,从此倒向右派。
号称比 Homebrew 快 20 倍的替代品,快不快不知道,但很多传统基础设施真的该更新换代了。 https://t.co/ojVLvwaozm