🔥 Search Hot Tweets

Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.

Real-time Hot Tweet Analysis

CuiMao
29.0Kfo
CuiMao@CuiMao· 3h ago发布

我就简单输入了几个提示词, 中国,家暴,AI… https://t.co/fFe3Hw7EyQ

76
4
28
33.6K
Data updated 9m ago
Viral Probability
100%
Predicted Views
425.0K
Est. 1.3K views for your reply
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
16.1Kfo

宝藏论文,虽然转过了,再转一次。 LLM的reasoning的epic failures,就像这几天大家转的50米洗车的案例,作为纯符号层的llm推理,论文中也首先提到要区分embodied和non-embodied,llm显然很难区分这一点,顾此失彼,让人走过去却忘了车! 论文的survey框架不错,不仅对于模型训练,对于如何搭建agent脚手架也有裨益。 一个会从错误中持续学习的agent会很可怕😱

60
7
1
3.3K
Data updated 9m ago
Viral Probability
62%
Predicted Views
7.0K
Est. 400 views for your reply
马东锡 NLP
36.5Kfo
马东锡 NLP@dongxi_nlp· 6h ago发布

CLI Agent + SSH 是我最多使用的 code agent 使用场景。几乎所有 CLI 动作都可以在 ssh session 中完成,只要有云,你几乎可以做任何事情,不受本地算力限制。 在 Opus 4.6 出来的时候,ssh 因为安全问题一度无法使用。 只过了两周,claude code 直接官方支持了 SSH support。 https://t.co/6s8rRRaDIO

41
3
3
9.4K
Data updated 9m ago
Viral Probability
55%
Predicted Views
23.0K
Est. 1.4K views for your reply
宝玉
182.0Kfo
宝玉@dotey· 6h ago发布

https://t.co/SvbenMCaFg

380
78
27
41.2K
Data updated 9m ago
Viral Probability
100%
Predicted Views
315.0K
Est. 1.0K views for your reply
Asuka小能猫
11.0Kfo
Asuka小能猫@AsukaOdysseus· 8h ago发布

#NewProfilePic 换个新头像,两年多以前年轻漂亮的自己。当然现在也年轻漂亮( https://t.co/k3JX9Fpvsw

56
0
3
1.7K
Data updated 9m ago
Viral Probability
49%
Predicted Views
4.0K
Est. 200 views for your reply
歸藏(guizang.ai)
124.9Kfo
歸藏(guizang.ai)@op7418· 10h ago发布

https://t.co/YF4f1z9s0W

217
37
10
16.3K
Data updated 9m ago
Viral Probability
77%
Predicted Views
25.0K
Est. 100 views for your reply
Mina
7.2Kfo
Mina@Minamoto66· 10h ago发布

我的一个朋友婚姻不幸。初婚嫁了一个这边的华人来到欧洲,家暴她。 离婚后找了一个欧洲人,这个欧洲人个子不高,收入尚可,离异有一个孩子。 两个人婚后时常因为他前妻和孩子吵架,这个孩子明确对她说:这个家里只能有我一个小孩。 朋友先天就有一些妇科疾病,二人尝试过几次试管都以失败告终。结果去年年底跟我说自然怀上了。 她回中国待产,说等快生了再回欧洲。今日给她发消息祝新年快乐,她回复说她刨腹产下一个男孩,孩子不足七个月,在nicu里插管。 短短几个字,没有什么生育经验的我也能感受到其中分量。我问她她老公有没有去中国陪她,她说完全没有,那个人只是在纠结怎么样跟他儿子说这件事。 短短几个字,我都替她心疼。结婚、生孩子,真的都是要非常慎重的事,这几年看了太多人间悲剧,莫不是与这些残破的家庭有关。尽量一对夫妻走到老,后妈后爹不好当啊。

40
0
16
10.5K
Data updated 9m ago
Viral Probability
49%
Predicted Views
14.0K
Est. 100 views for your reply
歸藏(guizang.ai)

歸藏(guizang.ai)

@op7418· 116.8K followers

DeepSeek 这还没到过年就开始发力了! 发布了升级后的 OCR 2 模型,主要优化是加入模拟人类视觉的“因果推理”机制 将原来的 Clip 模型替换为 LLM 架构模型,用的 Qwen 0.5B 看看这两代模型都做了什么👇 ====== 从视觉压缩到因果推理 OCR 1 证明了一件事:视觉可以作为文本的高效压缩形式。 "一张图胜过千言万语"不只是比喻。他们的实验显示,10 个文本 token 压缩成 1 个视觉 token 时,OCR 精度能达到 97%。甚至 20 倍压缩比下还能保留 60% 的精度。 这解决了 LLM 处理长文本计算量大的问题,用视觉模态节省 Token。 ------ OCR 2 要解决的是更本质的问题:阅读顺序。 传统的 Vision Encoder 都是固定的光栅扫描,从左到右,从上到下。但人类看图不是这样的,你会根据内容的语义逻辑跳着看。 复杂排版的文档、表格、公式,空间位置顺序和逻辑阅读顺序根本不一样。OCR 2 就是要让编码器学会这种"因果推理"能力。 ====== 架构升级:用 LLM 替换 CLIP 这是两代模型最大的区别。 OCR 1 的编码器是 SAM + CLIP 串联结构。SAM 负责视觉感知(窗口注意力),CLIP 负责视觉知识(全局注意力)。 OCR 2 把 CLIP 换成了一个紧凑的 LLM(Qwen2 0.5B)。 为什么要这么做?因为 LLM 架构天然具备"因果推理能力"。 ------ 注意力机制的巧妙设计 OCR 2 用了混合注意力机制: ▸ 视觉 Token 之间:双向注意力(类似 ViT),保持全局视野 ▸ 新增的查询 Token(Query):因果注意力(类似 LLM 解码器) 这些 Query 的数量和视觉 Token 一样多,它们的作用是对视觉信息进行语义重排序。 通过定制的注意力掩码,Query 采用三角形掩码,能基于之前的上下文逐步"推理"出下一个视觉信息的重点。就像你看文档时,会先扫标题,再看关键段落,最后才看细节。 ====== 级联因果推理:两步走 OCR 2 的推理过程是级联的: 第一步,编码器通过 Causal Query 对视觉信息进行逻辑重排序。 第二步,解码器(DeepSeek-3B-MoE)再进行文本生成。 这种设计显著提升了文档的阅读顺序准确性。在 OmniDocBench 测试中,阅读顺序编辑距离从 0.085 降到 0.057。 ------ 实际应用中的稳定性也更好。 生产环境的数据清洗任务中,OCR 2 的重复率从 6.25% 降到 4.17%。生成的文本更稳定可靠,不会出现那么多胡言乱语。 ====== 保持高压缩率,提升信息密度 OCR 2 继承了 OCR 1 的高压缩特性。 视觉 Token 数量限制在 256 到 1120 之间(和 Gemini-3 Pro 的预算一致),既保证效率,又通过因果重排序提升了信息密度。 在相同或更少的 Token 预算下,OCR 2 在 OmniDocBench 上的整体性能比 OCR 1 提升了 3.73%。 不是靠堆 Token,而是让每个 Token 都更有价值。

27
2
4
4.5K
Posted 18d ago · Data updated 18d ago
Reply Suggestion

Est. 600 views for your reply