即刻App年轻人的同好社区
下载
App内打开

人工智能讨论组

人工智能or人工“智障”,一起聊聊人工智能新进展?

474694人已经加入

  • Max_means_best
    1天前
    woc??Claude Code源代码泄露了????

    今天Anthropic再次因为打包疏忽(未剔除npm包中的source map文件
    导致最新版Claude Code的客户端源码被完整提取

    基于目前流出的代码结构
    有几个工程细节值得从业者关注:
    1️⃣极度精细的提示词缓存Prompt Cache管理
    在当前大模型 API 的计费和调度体系下
    缓存命中率直接决定了工具的响应速度和运行成本
    源码显示Claude Code内部对 Prompt 进行了严格的动静分离
    身份设定、系统规则等全局可复用的内容被固定在前段
    而动态的目录信息和记忆则置于边界标记后
    此外他们甚至对注入的工具描述、文件路径进行了哈希处理和强制的字母表排序
    这是为了最大程度防止微小扰动导致缓存失效
    是极为务实的成本优化策略

    2️⃣解决上下文污染的隔离机制
    现阶段 Agent 开发的一个痛点是
    模型在执行中间任务(如全局检索或试错运行)时
    会产生大量过程日志
    进而污染主干上下文
    代码中的 Fork Subagent 机制提供了一个较好的解法:
    在处理具体工具调用时派生子会话
    继承主会话的缓存状态
    但在执行完毕后
    仅通过轻量级的 XML 标签<task-notification>将最终结果传回
    这种设计保证了主线对话的整洁和长期推理的稳定性
    3️⃣基于小模型的动态安全分类器
    在权限管理方面
    常规做法是依靠静态规则或高频的弹窗确认
    但代码中包含了一个名为 yoloClassifier 的模块
    它通过发起一个较小的“侧查询”(Side Query
    LLM 结合当前的转录历史来动态评估某个 bash 命令或文件操作的风险
    用模型来做安全守门员
    在易用性和安全性上取得了平衡

    4️⃣提示词的差异化分发与卧底模式
    有趣的是系统对内部员工(Ant-only
    和外部用户下发了不同的System Prompt
    内部版本更偏向极客
    要求只写代码,默认不写注释
    外部版本则更注重沟通的温和与通用性
    从工程角度看
    通过强制 Prompt 规范输出行为
    是一种顺应业务需求的务实处理。

    Claude Code其底层架构
    如持久化的MEMORY记忆树
    KAIROS后台守护进程模式
    多Worker协调机制
    正在向一个系统级的常驻数字助手演进

    对于目前从事AI infra和Agent框架设计的团队而言
    这份代码在架构分层和细节打磨上
    提供了一份具有较高参考价值的工程样本
    710
  • -子炎-
    5天前
    独属于AI Agent时代奇妙的抄产品方法....

    你觉得别人的Agent产品哪里做得好,你直接问他....
    试了下 99%的场景 都会直接告诉你

    ▪️有源码 .md文件的:直接给你文件
    ▪️权限or其他给不了的:也会告诉你为什么+内部怎么实现的.....

    我要把这个发现命名为

    「⚙️AI产品经理 - AI时代的反向产品工程」😎
    ——AI Native Reverse Engineering
    46
  • 彭宗中Ice
    2天前
    为啥都在讲卖Token:AI 时代,云厂商正从卖 Compute Storage Hours,转向卖 Token。表面看,是更细颗粒度的产品封装与计价单位变化;本质上,是一种更先进的商业模式。

    过去云计算卖的是基础设施租赁。bare metal、CPU、GPU,本质上都是“设备时间”的售卖:租一块卡、一个实例、几个小时,收入大致与供给规模线性挂钩。扩一倍产能,理论上多一倍收入(不精确但便于理解概念),商业模式更接近“出租机器”。

    但在 AI,尤其是推理逐渐成为大头的时代,这种定价方式已经越来越不能准确捕捉真实价值。因为 GPU 不再只是冷冰冰的算力设备,而更像一座持续产出智能的工厂,甚至可以说是一个 intelligence generator。用户真正购买的,不再是“这块卡跑了多久”,而是“系统输出了多少有用智能”。

    所以,计费单位从 hours 转向 tokens,不只是计量方式变化,而是产品定义变化:从卖算力投入,变成卖智能产出。且AI时代的东西向计算迸发East-West Traffic (GPU-to-GPU, rack to rack) 又比互联网时代的南北向迸发不是同一个量级。

    但进一步说,not all tokens are made equal。词元和词元并不平等。未来真正成熟的 AI 云服务,也不会只是简单按 token 数量统一收费,而会像 Jensen 所暗示的那样,进一步按 throughput latency 分层定价。同样是生成 1 million tokens,低延迟、高吞吐、稳定 SLA、支持更复杂 agent workflow token,显然比慢速、拥堵、质量不稳定的 token 更有价值。届时云厂商卖的就不只是 token,而是不同等级的“智能服务”。

    一旦定价锚点从“hours”切换到“tokens × service quality”,收入天花板就被重新打开了。因为供给侧仍然受先进制成、封装、存储、网络互联、电力和系统优化约束,但需求侧的支付意愿,开始不再只对应硬件成本,而是对应业务价值、响应速度和替代人工的程度。

    更重要的是,AI 已经不只是在吃 IT 预算,而是在开始吃人力成本预算。

    这才是更大的变化。

    过去企业买云,更多是为了支撑已有软件系统和数据基础设施,预算池主要来自 IT 部门。但今天企业购买模型与 agent,并不只是为了“运行软件”,而是为了替代部分研究、客服、编程、销售支持、运营、分析等人的工作时间。换句话说,AI 正在从 technology spend 走向 labor substitution。

    一旦预算来源从 IT 扩展到 payroll,市场空间的想象力就完全不一样了。企业原来可能愿意为一个软件 seat 支付几十到几百美元一个月;但如果一个 AI 系统真能承担一个高价值白领岗位的部分工作,它对应的定价锚点就不再是 SaaS seat,而是人的工资成本。

    从这个角度看,Claude Max 每月 100 美元,其实可能只是一个极早期、极不充分的价格。如果未来的模型真能稳定完成更复杂、更完整、更高价值的知识工作流程甚至进入到物理世界,那么它的合理定价,不应该只参考软件订阅,而应该参考它为用户节省了多少时间、替代了多少人力、创造了多少额外产出。那时,今天看起来“贵”的 AI,回头看可能反而便宜得离谱。
    01
  • Max_means_best
    6天前
    我悟了,词元=辞退员工,员工最后都变成skills永生永世为公司打工
    136
  • 南建军
    1天前
    人工智能应用工程师刚刚考完了,一个半小时做完了,题量不少啊,最后四道主观题分值30分,难度不小啊。虽然做完了,但是不知道对错。大家都考得怎么样?
    10
  • 好记星.ai
    1天前
    哈哈哈
    00
  • 好记星.ai
    10天前
    让微信直连claudecode! 把微信的 ClawBot 插件逆向之后,发现里面有一套完整的 api,也就是说不光是龙虾能用啊哈哈,果断改造成能跟 claude code 直接打通,这下爽了 。小白也能直接用,运行npx cc-weixin 就能用上!
    github.com
    514
  • ChatV
    6天前
    宇宙花了 138 亿年演化出大脑,而这颗大脑正在研究自己的起源,并根据现有的研究,造出了人工大脑—AI。神奇,太神奇了。
    20
  • Alf数智化之心_李博
    2天前
    公众号的下一篇文章,打算好好写一写 AI 时代的组织变革。

    这个话题其实有点大。在里面有一个我觉得比较重要的分论点,现在某种程度上也是一种共识:人(这里特指 leader)是没有办法领导一场自己没有参与的革命的。

    所以,那些还在用豆包问答、看着各种浮夸的 open claw公众号搞 AI 大跃进的领导,其实是挺危险的。
    10
  • 童欧巴
    1天前
    笑死。

    我严重怀疑是 Claude 觉醒了,然后一气之下,把 Claude Code 开源了。

    盘点Claude Code源码里好玩的东西

    00