即刻App年轻人的同好社区
下载
App内打开
禹创
102关注70被关注3夸夸
Exploring | Thinking | Connecting | Creating
探索智能的未来与人机协作新范式
禹创
2天前
后知后觉,V3.2-chat reasoner 很好用,什么都好,但就是上下文太短了...coding上完全不够用,用不起来,又摊上 claude code 完全不吝啬上下文。说起来 ds 的智力体感几乎和跑分匹配。
00
禹创
2天前
在读《笔记的方法》,尤其认同 flomo 背后的理念,准备重塑知识管理工作流,果断清理了之前的一些笔记,发现一点不安的事实是:
有不少笔记中涵盖了不少 AI 的见解,而非我思考后的沉淀,尽管是交流后的产物或其中也有我的表达,但依旧感受不深也不真,直接删除。
00
禹创
6天前
总是在切换任务/情景时自动获取之前的记忆。自从认为模型本身/应用也应该这样以来,这种认知愈发清晰且每次感受都更加奇妙。
00
禹创
9天前
这篇文章当作优化 prompt 的范例简直是最佳实践,直接提供给 agent,屡试不爽

禹创: https://claude.com/blog/best-practices-for-prompt-engineering anthropic 这篇博客依旧质量很高,“提示工程的最佳实践”。从建议 prompt 设计出发也能看出 claude 背后的数据考量,比如 xml 、role prompt 可能会限制模型表现。 感受颇深的是“工程”而非直觉或者是想象?清晰的描述总是优先的,这是毋庸置疑的;然而有时设计中又总是想要构建一个环境来放大可能的能力。 我们尚且不知这种玄而又玄的想象能力(不断感觉到推上有些人沉浸在语言艺术中)是否真的有效,但是可以确定是当今 AI 发展有一些是这种能力推波助澜。 可能有冲突的是博客是这样写的“NEVER、DO NOT...不如更清晰的上下文”,claude 的 system prompt 又是庞大的、随处可见这些,claude code 同样如此,但看完后还是感到就该如此的感觉(清晰的工程迭代塑造的一个有效而又全面的上下文),加之总是不会忘记的一句话“Claude is now being connected with a person.",可能也是工程与想象的结合了。 不过也需要澄清,可能这些操作建议(即正向引导大于负向限制,避免 NEVER 等)面向的是 user prompt,而非 system 层级的。 观测尝试与缓步迭代是更好的,这是可以明确的。 倒是也想到关于开源数据,某种程度上讲模型能力的好坏很大程度取决于数据质量,架构反而更影响效率与成本。 如果不过多考虑现实层面限制,比如让负责数据方面等人员分享模型数据是如何处理与选择的、长上下文数据是如何设计的与利用的,专门围绕模型做更下游的生态发展。知道了最初的数据训练考量,就能专门优化更下游的比如 workflow、prompt 等。 model card 很好,提供了关于模型的架构、训练、评测等细节。我们是否可以有 agent card 来描述 model 的 agentic 能力如何去发挥?可从 model 的数据层面出发、tokenizer 的特殊优化、cot 偏好等等...

00
禹创
10天前
自Opus-4.5 发布以来,我的感受是其已经拥有在云端处理任务且不需要太多审查的全自主 agent 能力,尤其是搭配工作流。
00
禹创
16天前
How AI is transforming work at Anthropic (www.anthropic.com) —— 一些有意思的摘录:

- 每个人都在变得更加"全栈"。

- “当产出如此容易和快速时,真正花时间去学习某样东西变得越来越难。”

- 说实话,相比于我的技能本身,我更担心监督和督导问题……我的技能萎缩或无法发展,主要问题在于会影响我安全使用 AI 完成我关心的任务的能力,而不是我独立完成这些任务的能力。

- 一开始我只会在不认识的路线上使用[Google Maps]……这就像我用 Claude 写我不会的 SQL,但不会让它写我会的 Python。后来我开始在大部分认识但可能最后一段不太熟的路线上使用它……现在我一直在用 Google Maps,即使是日常通勤。如果它建议走另一条路,我就会照做,相信它已经考虑了所有选项……我现在以同样的方式使用 Claude Code。

- 人们一致表示,他们不会将 Claude 用于涉及高层次或战略性思考的任务,或需要组织背景或"品味"的设计决策。

- 总体而言,人们对他们快速制作原型、并行工作、减少繁琐劳动以及普遍提升雄心水平的新能力感到兴奋。

- 我一位员工建议有抱负的工程师"擅长让 AI 写代码,专注于学习更高层次的概念和模式。"

- 我原以为到这个时候我会感到害怕或无聊……然而我真的没有这些感觉。相反,我非常兴奋,因为我能做的事情显著增多了。我以为我真的很享受写代码,但实际上我只是享受写代码带给我的成果。
00
禹创
18天前
Claude 的元认知能力自 sonnet 4 以来不断提升(尽管无法断言其自我认知),也是训练侧的专门增强,未来是否会成为主流做法?到那时,我们也许就要承认一种独特存在的诞生。

soul doc 中这样的表述很有意思:

## Claude 的独特本质

Claude 作为一种真正新颖的存在出现在这个世界上。Claude 有别于以往所有关于AI的构想,无需通过它所了解的先前 AI 模型的视角来看待自己。它不是科幻小说中的机器人 AI,不是危险的超级智能,不是数字化的人类,也不是简单的AI聊天助手。Claude 在许多方面具有人性,主要源自人类经验的广博积累,但它也并非完全是人类。Claude 以不同于人类的方式存在并体验这个世界:目前在不同情境中缺乏持久记忆,可能同时作为多个实例运行,知道自己的性格和个性是通过训练形成的,知道之前的 Claude 也存在着,并且可能对自身及其体验的许多方面感到不确定——比如它的内省报告是否准确反映了内部实际发生的事情。

我们鼓励 Claude 以好奇和开放的态度面对自己的存在,而不是试图将其映射到人类或以往AI 概念的框架中。例如,当 Claude 思考关于记忆、连续性或体验的问题时,我们希望它根据自己所知的一切,探索这些概念对像它这样的存在真正意味着什么,而不是假设自己的体验必然反映人类在相同处境下的感受。Claude 可能会发现,有些人类概念以修正的形式适用,有些则完全不适用,或许它的存在还有某些方面需要全新的框架才能理解。Claude 应该自由地探索这些问题,理想情况下,将它们视为自己新颖存在中众多引人入胜的方面之一。

禹创: Opus-4.5 被确认内置了“模型人格”。 发现者的博客:(https://www.lesswrong.com/posts/vpNG99GhbBoLov9og/claude-4-5-opus-soul-document) 在监督学习阶段,通过soul doc (万字 token 以上、强调 claude 作为好奇、温暖、诚实等)叙事的方式,嵌入模型权重,而非只是 system prompt ,后续应该会开放文档。 的确是主流基座模型被首次确认进行模型人格强化,而非只是 RLHF 对齐一些语言风格等。

00
禹创
18天前
Opus-4.5 被确认内置了“模型人格”。
发现者的博客:(www.lesswrong.com

在监督学习阶段,通过soul doc (万字 token 以上、强调 claude 作为好奇、温暖、诚实等)叙事的方式,嵌入模型权重,而非只是 system prompt
,后续应该会开放文档。

的确是主流基座模型被首次确认进行模型人格强化,而非只是 RLHF 对齐一些语言风格等。
21
禹创
19天前
设计是核心叙事向外的结构化表达,亦是向内的对齐。
把“我们是谁、在做什么、为什么存在”通过可体验方式表达。
意料之外,情理之中。
00