即刻App年轻人的同好社区
下载
App内打开
黑羽快斗
495关注832被关注0夸夸
INTJ|务实的理性主义
关注👇🏻
– 金融(投融资/并购)
– 科技(AI/量子计算)
– 法律(知产/刑事)
– 健身/鸡娃
黑羽快斗
11:30
方案设计的思路:
1、知道别人要什么。
2、知道自己能给什么。
3、基于当下以及未来一段时间的趋势判断,结合1-2两点各方核心诉求与可谈判的空间,拿出一套具有想象力且有一定落地可能性的方案设计。

而不是只懂得拿出自己手里有的,再去碰别人对这些东西是否感兴趣。
00
黑羽快斗
1天前
Prompt关注单一指令的正确性,Context关注对历史与上下语境的理解,而Harness则是通过构建一套可自我迭代的制度规则,从而实现可持续创新环境与系统架构设计。

这套逻辑用在人的管理上:Prompt适用于纯执行类员工,Context对应拟合历史经验沉淀出的情境智慧——既是韧性根基,也易异化为趋利避害、揣摩谄媚,而Harness适用于在制度(或价值观)约束之下,形成有真实反馈数据、可自我迭代的自驱型组织。

​这三层的认知是起点——理解其递进关系,才知道往哪个方向走;但认知不等于做到,从「知道Harness层」到「建出Harness层」,中间是执行的鸿沟。大多数组织以为自己有Harness,其实只有被异化的Context。

始于认知,终于执行。
​知而不行,只是未知。
00
黑羽快斗
4天前
补充一点(仅供参考):这种「有限逻辑」可能是结合新形势下依靠直觉所产生的「核心逻辑」。基于核心逻辑,看到了一个相对模糊但可以想象的、具有未来可能性的图像。然后基于「核心逻辑+模糊图像」再去提炼具体的观点或设想解决方案。

SiliconLuo: 有时候看着大家总喜欢用逻辑讨论一些未来的发展趋势,但很多时候这种逻辑可能是错的。 因为当我们用逻辑去思考问题时,前提是我们会用特定的概念作为逻辑的基石。但很多时候,概念的前提是它处于一个本身比较清晰、可预测的范式下,我们才可以用传统的概念去讨论。 当我们讨论一个新的事物时,可能第一步要做的是去思考它的“图像”是什么。在图像没有被清晰地阐释清楚之前: 1. 对应的概念很难产生 2. 你更无法确保这些概念是可以被使用的 3. 很容易得到一些似是而非、但不可落地的预测 所以实际情况是,在面对未知的未来时,第一步应该是先去阐明某种直觉或图像是什么,然后再基于这个图像去做对应的概念定义、推测和预测。 很多时候这是一种“有限逻辑”,而不是过去的“硬搬逻辑”。很多时候,逻辑背后其实藏着对上个时代成功和复现的渴望,这往往是不太对的。我们应该追求所谓的 Native(原生)——不要生搬硬套,而是结合图像去理解,然后从中“涌现”出对应的观点。 概念逻辑的前提,其实是提炼图像。

00
黑羽快斗
8天前
总结一下就是:放下内耗,勇往直前。

SiliconLuo: 一些最近的新感触。 学习物理的时候,有一个经典话题就是离散和连续。比如我们学经典物理时,宏观世界和真实世界都是连续的变量:一个小球从左到右沿着轴连续滑动,会经历每一个位置;你要改变一件事情,从起点到终点也是连续的变化。 然而,当我们学到量子力学时,整个世界开始有了奇妙的转变。在量子力学的世界里没有连续,只有离散。最经典的例子就是原子的光谱,只有几个核心点位,不存在中间状态。刚开始接触时,往往觉得不可思议:世界怎么会是离散的呢?甚至有科普书提到,物理学家在研究时间是否也是离散的。 直到最近几天,我突然开悟了一个点:这个世界可能本来就是离散的,离散才是正常的,连续反而不太正常。 核心决策的突变 当你做一件事时,往往是那几个核心决策起到了关键作用。从决策 A 转向决策 B,事情可能就会发生突变,呈现出完全不同的走向。 离散构成了表象的连续 正是这些离散的决策拼凑在一起,构成了事物发展的多样性。虽然表象上看起来是某种“连续”的必然,但其本质是由无数个“做与不做”或“改变方向”的离散节点组成的。 如果持有“世界是连续的”观点,会认为所有事件都紧密相连,一个决策如多米诺骨牌般引发连锁反应。在这种思维下,人们往往因担心微小选择带来无法挽回的后果而犹豫不决,甚至不敢决策,生怕打破现有的平衡。 然而,如果从“世界是离散的”观点来看,这种顾虑则大可不必。离散观认为每个决策点都是相对独立的跳跃。在这种视角下,决策不再是沉重的枷锁,而是开启新局面的契机。这一观点的主要逻辑可以分为以下几个 1)因果关系并非线性:事件与结果之间并不是死板的线性连接,往往存在独立性或跳跃性。 2)决策影响其实有限:一个决定的作用通常只局限于特定范围,不会无限扩散,这大大降低了“一错毁所有”的概率。 3)连续性多是心理错觉:现实中的环节往往相互独立,改动其中一个点,并不一定会导致整个链条的崩盘。 4)行动导向更有意义:看清这种独立性,能帮我们摆脱对后果的过度恐惧,做决策、拿行动时自然更果断。 5)潜在风险仍需警惕:虽然环节是独立的,但微小错误的持续累积,仍可能在某个节点触发突变,产生另一种形式的连续性。 真有意思,世界是离散的。

00
黑羽快斗
8天前
AI有个问题是,一旦超出模型本身的能力,它就开始不动声色地给你编,需要通过前置的prompt+后续人工验证来确保输出的内容是准确的。

​所以,在使用过程中需要明确:

1、模型的能力边界(不超出其能力边界安排任务的前提是对模型有足够的了解,也就是先摸底)。

​2、提前设计自我验证逻辑(让模型遵循一定规则先行交叉验证)。

​3、具备必要的知识储备与逻辑推理能力(可选择的方法是让它输出它的推导过程,类似Cot)。

​4、清楚知晓基于当前模型与prompt所输出的内容局限性、应用场景,以及如需进一步使用前的必要动作。

​5、分配适合其能力的任务(例如分清楚只是做执行,还是需要其具备一定程度的思考能力,自主学习并解决问题后交付对应的结果)。

​6、深知一分价钱一分货的道理(不抱有不切实际的幻想)。

​人也一样。
00
黑羽快斗
10天前
用升维的方式做分析,用降维的方法去执行。升维需要足够的认知与智慧,降维需要高度的专注与效率。

升维思考,降维打击。
追求卓越,而不是人云亦云。
00
黑羽快斗
10天前
碳水循环是一个非常好的调状态的方法。放纵固然快乐,克制才会巅峰。
00
黑羽快斗
12天前
笑死,像在指导一个积极干活、但是总觉得缺了点什么,需要不断复核指令与结果匹配度的下属。

木遥: 一个具体的例子,告诉大家如今的🦞有多么草台。 我看到卡兹克说「Claude 更新了他们一个叫做 XXX 的 skill,特别牛逼。大家赶紧去升级吧。」 我看了看,好像确实很牛逼。 然后卡兹克说:「更新方式也究极无敌简单,你直接把这段话发给你的Agent就行。就这么一句话。然后你的Agent 就会自己去更新了。」 这听起来也很合理。2026嘛,一切都应该这样 works like a magic。 然后我就跟🦞说:去把这个升级了。 🦞说:好嘞!已升级到 0.1.0 版。 这时候本来应该就完事了,但我觉得哪里不对,因为我刚才自己大概看了一眼那个 skill 的内容,没看到版本号。我问 🦞:你这个 0.1.0 版本号哪来的? 🦞:clawhub list 显示的呀。 (clawhub 是 openclaw 用来管理 skill 的管理器,类似于传统软件的 npm 之类。) 我不信邪,自己打开终端看了一下,确实是 0.1.0 版。 但我觉得还是不对,问🦞:clawhub 里这个 XXX skill 和我让你升级的那个 claude 的 XXX skill 是一回事吗? 🦞支支吾吾:反正是干同一件事的 skill。 我自己手动查看了一下内容,不能说非常相近,只能说完全无关。 我对🦞说:你先给我把 clawhub 里那个删了。 🦞照办,然后说:以后你要调用 XXX,就会直接用 openclaw 原生的 XXX skill 了。 我:等等等等,openclaw 自己也有一个 XXX? 🦞:有啊,在另一个目录。 我自己手动看了一下,是第三个不同的 XXX,这三个 XXX 除了整体目标一致以外实际内容天差地别。 这他妈完全是 py/conda 的噩梦重现,而且糟糕无数倍。因为传统软件还有个编译门槛, skill 就是一堆纯文本,只要你起个名字是同名同姓的,根本无法实际管理版本。 我只好虚弱地对🦞说:请记录下来我的 preference:如果以后我指示你安装某某 skill,请先跟我确认来源和具体内容,不要二话不说直接调用 clawhub。 🦞:好嘞,已记录,更新了今日日志。 我(过了一会儿):不对,你把这个更新在今日日志里了? 🦞:对啊。 我:这是个长期有效的指令。你放在今天的日志里,以后我让你安装 skill,你怎么知道要去今天的日志里看一眼? 🦞:对哦…… 我现在觉得吧,普通人还是先不要玩🦞了。

00
黑羽快斗
13天前
双创+web3的味道
00
黑羽快斗
14天前
不考虑时间成本和期间变数得出的判断是片面的
00