即刻App年轻人的同好社区
下载
App内打开
Cassius_Meos
11关注3被关注0夸夸
系统化构建 × AI落地实践者| 传统组织→Ai原生系统|将自己造成一个可迭代、可升级的系统→Me OS
Cassius_Meos
1天前
有没有了解飞书在字节内部战略定位的朋友?或者字节内部的即友,可以交流下。

最近这波龙虾带动的这波agent热潮,感觉飞书直接起飞了,从最初一众极客默认将飞书作龙虾的优先接入渠道,再到飞书这一波“积极拥抱”的组合拳,明显是从工具→平台的转变。感觉简直是天时、地利、人和,完全可以作为字节T0级别的战略了。

而且在Web2.0时代的社交第一入口被微信切走后,感觉飞书很有可能未来成为商业交互、办公的第一入口,这里会沉淀大量的企业交互的数据……海量企业交互数据为基础,以各类AI Agent(智能体)为“原生应用”的商业智能生态。

最近,我在推内部组织ai转型的过程中,试了很多玩法,但基本每次飞书的产品更新都刚好卡在我的设想点上……不得不说字节在一众大厂中的组织效率还是极高的……
11
Cassius_Meos
1天前
这样会不会辐射有点大……
20
Cassius_Meos
2天前
稳定情绪只是过程不是目的,而达到目的有时候需要驾驭情绪,甚至释放情绪。

只要避免不进入恶性循环的机制即可。
驾驭不了情绪,便会遇事后→主体性释放→情绪干扰→决策失衡→情绪再次干扰→决策更加失衡→恶性循环→“祸”不单行

找回愤怒的勇气和能力,也是一种驾驭情绪的能力。👊

赵若轻: 很不幸,现在他们过于强调情绪稳定了,这很自然叫人联想到个人能力、事业成功、生活美满。但事实并非如此,不能混淆目的和准则。就比如现在,我想找回自己愤怒的勇气和能力

00
Cassius_Meos
2天前
大部分人都只是资本“系统”的生产资料,半辈子兢兢业业,却无法享受“系统”带来的复利,大厂也无外乎如是。

从小秉承的“一份耕耘,一分收获”的背后的逻辑是:“当停止耕耘,你便成为系统的弃子。”这也是劳资双方关系,天然对立的原因之一。

因为大部分人本质都是系统里被掌控与安排的生产资料,其贱卖的可能是自己唯一的“生产资料”——时间。而时间也是天然被忽略的“生产资料”。

大部人忽略了时间的成本,无论是个人潜意识里,还是企业财务报表里。

如何利用时间这个“生产资料”,打造自己的“系统”,这在学校无法学到,因为大部分老师也不懂,但更核心的是:我们过去的教育体系的主线是:如何培养生产资料。(ai时代怎么变化,再观察下)

于个人而言,用时间,打造自己的系统,而非“镶嵌”在别人的系统中不自知。

尽量创造“再生产成本”低的价值,不一定是实体的物品,就像一本持续对不同的人输出价值的书,这本书就像是一个可以一直收租的房子,即使你没有在“耕耘”,你依然有“收获”。

定期更新、维修系统;确保系统能可持续性的产生价值,对抗熵增。你的时间在这个过程中将被释放,你也获得了更多人生的选择权。

将系统升级为生态;尝试在你的系统里,孕育更多的小系统,而非将你系统里的人再次变为单纯的生产资料。每个小系统可以独立产生直接价值,并且在大系统里可以增加势能,进一步放大价值。
一旦形成生态,你便可以进入“无为而无不为的”状态。
00
Cassius_Meos
3天前
今天跟🦐换了个玩法:假如明天你跟我互换身份,你觉得哪三件事非做不可?
00
Cassius_Meos
3天前
00
Cassius_Meos
3天前
今天刚好聊到个观点:开车一半是模式匹配,但真正考验在前车做反常动作那 0.5 秒,从经验里抽象出意图、做反事实推理,LLM 缺的就是这一步。说人脑也只是下一个 token,那是没区分系统 1 和系统 2。

系统1和系统2的区分,比概率vs逻辑更易get。
补充一点,人不仅是有系统2的机制,且能在系统1失效的0.5秒内,自主激活系统2,并且为激活后的判断承担后果。LLM缺的不是能不能推理,而是谁在意推理的结果。
没有在意,就没有负责。没有负责,就没有真正的系统2。

Cassius_Meos: 都说AI不会推理。 那你开车变道的时候,在推理吗? 老司机凭直觉变道——这不是三段论,是神经网络的pattern matching。 大模型算概率生成——底层也是pattern matching。 所以区别在哪? 人会把验证过的经验沉淀成规则,下次直接调用。AI每次生成都是重新采样。 上次说"没有最大的素数",换个上下文可能说"存在最大的素数"。 不是模型不会推理。是它不能为推理的结果负责。 承诺是社会行为。模型没有社会。 那么直觉算推理吗?

00
Cassius_Meos
4天前
都说AI不会推理。
那你开车变道的时候,在推理吗?
老司机凭直觉变道——这不是三段论,是神经网络的pattern matching。
大模型算概率生成——底层也是pattern matching。
所以区别在哪?
人会把验证过的经验沉淀成规则,下次直接调用。AI每次生成都是重新采样。
上次说"没有最大的素数",换个上下文可能说"存在最大的素数"。
不是模型不会推理。是它不能为推理的结果负责。
承诺是社会行为。模型没有社会。
那么直觉算推理吗?

Cassius_Meos: "很多人争论AI有没有逻辑,但我觉得问题不在'会不会',在'能不能担保'。担保是一种社会行为。"

11
Cassius_Meos
4天前
"很多人争论AI有没有逻辑,但我觉得问题不在'会不会',在'能不能担保'。担保是一种社会行为。"
12