🔥 Search Hot Tweets
Search and analyze hot tweets from KOL accounts list (list: https://x.com/i/lists/1961235697677017443) within 6 hours. Use SoPilot plugin to quickly comment and occupy the comment section.
哇咔咔咔!今天第一次做了手抓饭!铸铁塔吉锅一锅出!肥肥的羊排特别给力!超满足,吃了大半锅,睡前再玩会儿壶铃减减肥 https://t.co/jFSWMGFwCS
写了一个 Skill 调MCP 把DAN KOE这篇神文转成6分钟解读视频。 仔细读有些启发,融合了很多人和经典书中的想法,但原创性跟纳瓦尔比差些。 虽然纳瓦尔也集合了前人的智慧,但第一次读“杠杆”、“幸福”等概念的解读,耳目一新,不知道大家的感受如何。 https://t.co/rzWSh5iEUt
我现在写代码尽量用 Codex,其他任务用 Claude Code。 Codex CLI 虽然不好用,但是模型好,写代码稳,并且 Token 量大。 Claude Code 好用,模型写代码不如 Codex,但是通用任务执行的更好。 这里其实 OpenAI Codex 团队是要反思一下后续走向的,空费了这么好的模型,整天做些华而不实的更新。

向阳乔木
今天DeepSeek又发表了一篇论文,让AI解读,仔细读完,觉得很牛逼。 我和好友交流论文学习心得时,经常感叹,大模型的设计真的越来越像人。 这篇论文用一个很巧妙的办法,让AI实现了无限记忆,那就是「查字典」。 还有一个反直觉的事儿,Engram优化有“查字典”能力后,知识问答类能力虽然有提升。 但最大的提升反而是计算推理能力! 把「脑力」用在真正需要思考的地方,减少记忆负担,会变得更聪明! 这么看,建立自己的第二大脑太重要了,无需多言。
Est. 100 views for your reply
