即刻App年轻人的同好社区
下载
App内打开
潦草学者
711关注2k被关注2夸夸
AI 探索者 创作者 产品经理
公众号:潦草学者
🖋/📖/📷☕️/🍻/🤘🏻/🏓
项目:Analogy, PageChatSider
置顶
潦草学者
3年前
Readwise Reader 是最好用的阅读软件之一。
但作为一款海外产品,Readwise Reader 在中国有些许水土不服。

为了让你更好地使用 Readwise Reader ,我们做了一款小工具—— wechat 2 reader

这款小工具解决了两个问题:
1. 让收藏文章更加便捷,在微信内转发文章或链接,即可以收藏文章。
2. 解决了Readwise Reader 在收藏中文文章时,图片丢失的问题。
1719
潦草学者
13:22
RAG 被淘汰
接下来走来的是:Agentic Search

arxiv.org
01
潦草学者
3天前
字节也做了一个类似manus的通用agent产品

www.anygen.io
00
潦草学者
3天前
flomo 的年度洞察
「持续记录 意义自然浮现」

三个pro体验邀请码
A46E-51EB-0851
3CAB-9626-B60B
8EA4-0A46-48E0
20
潦草学者
4天前
太好了这个,满足了我在 ClaudeCode 里使用 Gemini-3 的需求。

艾逗笔: 分享一个很棒的开源项目:Antigravity Tools 这是一个把 Antigravity 里面的模型转成标准 API,给 Claude Code 等 Coding Agent 接入的智能代理项目。提供多账号管理、协议转换和智能请求调度等功能,让你能稳定、低成本地在 Claude Code、Codex 中使用 gemini / claude 系列模型。 如何使用? 1. 访问 Antigravity Tools 代码仓库,按照指示安装 Antigravity Tools 桌面软件 2. 在 Antigravity Tools 桌面软件添加账号,打开浏览器通过谷歌账号登录 Antigravity 3. 在终端配置环境变量,让 Claude Code 使用自定义的 API 端点 export ANTHROPIC_API_KEY="sk-xxx" export ANTHROPIC_BASE_URL="http://127.0.0.1:8045" 4. 打开 Claude Code 发送指令,开始使用 CC 有哪些限制? 在 Antigravity Tools 里可以添加多个 Google 账号,每个账号都有一定的 Antigravity 模型额度,如果额度不够了,可以点击切换账号,智能切换到额度足够的账号。 可以为你添加的账号升级 Antigravity 高级套餐,获得更高的额度,既能在 Antigravity 编辑器使用,也能在 Claude Code、Codex 使用,相当于一次充值,同时分配给多个编程智能体用。 可以用哪些模型? Antigravity 免费账号主要支持的是 gemini / claude 系列模型,不支持 gpt 模型,如果在 Codex 接入,需要加一个模型映射,比如把 gpt-5-codex 映射到 gemini-3-pro-high 这个项目目前只提供桌面版软件,不支持 Web 应用,不能通过服务器部署做 API 中转站,仅供自己在本地使用,一定程度降低了对 Claude、ChatGPT 的账号依赖,仅需一个 Google 账号,即可使用 Antigravity、Claude Code、Codex、Gemini Cli 等编程智能体。 有兴趣的可以试试。👇 https://github.com/lbjlaq/Antigravity-Manager

80
潦草学者
6天前
智谱和沪上阿姨的联动活动很有趣

如果你是 GLM coding plan 的用户,在 Clande code 里面输入「阿姨助我」!就可以领取一杯沪上阿姨的免费奶茶兑换券。

活动详情可以查看:
docs.bigmodel.cn

Cline/OpenCode 等其他 CLI 也可以使用。
51
潦草学者
9天前
对大模型研究的预测,这篇文章里讲的挺好的

里面提到的一些观点:

## 关于训练范式与能力方向: RLVR 的范式效果有上限
1) RLVR 将从目前主要集中在数学和代码,扩展到「解释评分」与更多学科领域,如化学、生物等,成为 2026 年之后持续发力的核心技术之一。
2) 过程奖励模型(PRM)目前效果一般,但作者判断会在未来 RLVR 体系内复兴,用来评价推理过程而不仅是最终答案,尤其受到 DeepSeekMath-V2 等工作的推动。

## 关于架构与效率方向
1) 未来几年内,SOTA 模型仍会以解码式 Transformer 为主,不会在短期内被完全新架构取代。
2) 但会持续叠加 MoE、Gated DeltaNet、Mamba、KDA、DSA 等效率优化层,以降低训练/部署成本,高效混合架构将成为一线实验室的重点而非边缘研究。
3) 文本扩散类模型会在「低延迟、廉价推理」场景中产业化,例如预期出现 Gemini Diffusion 这类工业级模型,但整体建模质量暂不取代主流 Transformer LLM。

## 工具使用与智能体化
1) 大模型将越来越以「工具用户」而非「单体知识库」的角色出现,搜索、计算器和专用 API 的使用会继续压低幻觉率,尤其在本地部署生态中会逐步成为默认模式。
2) 开源社区会「缓慢但稳定地」采纳带本地工具调用和更强 agent 能力的模型,MCP 等统一协议会成为事实标准。

## 数据、RAG 与长上下文
1) 在文档问答等场景中,「经典 RAG + 检索每个问题」会逐渐不再是默认方案,开发者会更多地依赖更强的长上下文能力,尤其是更好用的中小开源模型出现后。

## 关于 持续学习与知识更新:
1) 2027 年前后会出现更多针对「持续学习」的工程与算法进展:在不断引入新数据的同时尽量减轻灾难性遗忘,让模型不必频繁从零开始预训练。但尽管目前还缺乏真正的突破,但行业讨论度已非常高,作者预计这是未来几年重要发力点之一。

## 评测与Benchmark:
1) 公开基准被过度优化导致「分数失真」的问题会继续恶化,排行榜不再可靠,但基准依旧是“必须跨过的门槛”。
2) 更好的评测方法和更透明的报告,将成为推动领域健康发展的关键共识。
3) 大语言模型不局限于线上的评测集,更多被要求能够在现实世界中获取反馈。

The State Of LLMs 2025: Progress, Progress, and Predictions

01
潦草学者
11天前
多年后,某本商业历史书上记载

「Manus 被收购」开启了 AI 创业者的大航海时代
22
潦草学者
11天前
因为公众号的推荐机制
现在做微信公众号,
基本上只能当标题党了 😢

打不过就加入...
20
潦草学者
16天前
这下真成章鱼🐙了
00