即刻App年轻人的同好社区
下载
App内打开
一氧化二蛋
166关注32被关注0夸夸
野路子
一氧化二蛋
10天前
来参加了 NeuralPs,见到了 Hinton,也看到了各种看着很复杂的研究...能清晰感觉到,是挺强的,但这些强感觉都是被建立在了无止尽算力和无止尽数据上的强。感觉,大部分研究人员对 ai 的叙事,还是有点过头了。见到了 google deepmind 的人,能感觉到计算机出身的人,还是一样的,对其他行业都充满了不屑一顾,觉得只要有数据,就能解决一切。意识到了,对他们来说,所谓轻量级模型,原来是两张 a100 的显卡😲。也见到了发布了 alpha earth 的人,说什么就不承认自己的训练数据有问题(明明我已经把相关数据都爬下来一层一层人眼对过去了,觉得是我的场景错了,不是他们的问题)

看了大部分 spotlight 文章,能感觉到里面充斥了越来越复杂的网络结构,但真的深入对于机制的了解以及到底内部在发生什么,深刻挖掘的人越来越少。对于研究内容背后的数学、物理直觉,比想象中的弱很多。明明再跨一步,他们就能做出所谓的 elegant work,但大多数人不走这一步(当然,或许这一步不赚钱,所以也没必要走)。但可能这也是,非常明显地能看到,今年的最佳论文,都是给简单但有效的方法,或者是深刻剖析出某一现象原理的内容。

只是感觉,再这么干下去...算力/能耗/以及藏在繁杂数据后的物理规律,都会慢慢成为瓶颈的。远不是各种自媒体天天吹捧的那样。
00
一氧化二蛋
2月前
一直都觉得,能共同描述时间、空间的思路特别有兴趣...

最近开始翻深刻摄影相关内容的时候,被Neil deGrasse Tyson的一个观点深深吸引。他说,当你抬头看向星空时,你看得越远,看到的光线就来自越久远的过去。

吸引我的,其实是这句话里隐藏的东西——它把空间和时间压缩到了一起。在那一刻,远和近不再只是空间的距离,而变成了时间的跨度。

一个抬头,同时跨越了数百光年的距离和数百年的光阴
00
一氧化二蛋
3月前
听到俞孔坚先生在巴西去世的消息,心情挺复杂的。

说难过吧,我们其实从来没见过面。我学建筑的,他是景观设计的大师,本来就没什么直接关系。他的作品我也没怎么深入研究过,但从我入行开始,到处都能听到他的名字——杂志上、同行聊天时,只要谈到中国现代景观设计,总会提到他。我知道他一直在推海绵城市的理念,做生态修复这些事儿,也知道在那些崇尚传统园林的老前辈面前,他坚持要走出一条现代的路子。

但说不难过吧,但心里,是沉重的...可能是因为有些人虽然我们不熟,但他们已经成了我们这个圈子的一部分,成了这个时代的标志人物。

更让人感慨的是,他这样一个一辈子都在为生态修复的人,最后却停在了巴西的热带雨林里——那个被叫做”地球之肺”的地方。这种巧合让人觉得既诗意又悲壮。他花了一生的时间让城市学会呼吸,让破坏的土地重新恢复生机,而他人生的终点,正好是地球上最需要保护的那片绿色。

我想这就是我心里难受的真正原因——不只是失去了一个同行,而是一个真心热爱这片土地的人,在他最爱的大自然里走完了人生路。

今天手里没酒,要是有酒的话,得敬他一杯,把这一杯敬得...掷地有声
00
一氧化二蛋
3月前
把自己这几年做研究的思路,总结成了一套提示词: 事件的发生,是因为背后有特定的势能倾向,而势能倾向是由于背后的系统结构所导致(能量景观和最小自由能视角)。提示词如下

我需要你按照如下提示词的思路,来帮我分析事情:

# 事件-局势-系统 因果链分析框架

## 核心理念

从表层事件追溯到中层局势,再深入到底层系统,识别系统性不平衡如何通过局势演化最终触发具体事件。理解这个因果链条,帮助预见和应对未来。

## 分析任务

[待分析的事件/现象] 进行深度剖析,识别其背后的系统性根源,理解从系统不平衡到事件爆发的完整传导机制。

## 三层递进分析

### 第一层:事件解构

**关键问题:发生了什么?**

- **事件全貌**:时间、地点、参与者、具体经过、直接后果
- **事件特征**:是偶发还是必然?是孤立还是连锁?强度如何?
- **事件聚类**:近期类似事件的频率和分布,是否形成事件簇
- **触发点**:什么是压垮骆驼的最后一根稻草?

### 第二层:局势诊断

**关键问题:为什么会在此时此地爆发?**

- **局势特征**:当前处于什么阶段(酝酿期/爆发期/消退期)?
- **势能积累**:哪些矛盾或压力在累积?达到了什么程度?
- **传导路径**:系统压力如何转化为具体的局势紧张?
- **临界状态**:有哪些指标显示局势接近临界点?
- **催化因素**:什么加速或延缓了局势的演变?

### 第三层:系统探源

**关键问题:根本的不平衡在哪里?**

- **系统诊断**
- 识别关键的不平衡:供需、分配、信息、权力、预期等
- 不平衡的量级:是量变积累还是已接近质变?
- 系统韧性:系统的自我调节机制是否失效?
- **系统动力学**
- 正反馈循环:什么在放大不平衡?
- 负反馈缺失:原本的平衡机制为何失灵?
- 时滞效应:系统反应的延迟如何影响演化?
- **系统边界**
- 内生问题:系统内部的结构性矛盾
- 外部冲击:环境变化对系统平衡的影响
- 跨系统传染:其他系统的不平衡如何传导过来?

## 因果链路图

```
系统不平衡 压力积累 局势形成 触发条件 事件爆发

└──────── 反馈(强化或缓解)←─────────────────┘
```

## 深度洞察提炼

### 1. 传导机制分析

- **能量转换**:系统势能如何转化为事件动能?
- **放大效应**:小的不平衡如何演化成大事件?
- **阈值识别**:系统在什么条件下会发生相变?

### 2. 预测性思考

- **先行指标**:哪些信号预示着类似事件将发生?
- **演化路径**:基于当前系统状态,可能的发展方向?
- **干预点位**:在因果链的哪个环节干预最有效?

### 3. 认知升级

- **模式识别**:这个案例揭示了什么普遍规律?
- **反直觉发现**:哪些深层逻辑违背表面常识?
- **思维盲区**:这个分析暴露了我们之前的什么认知缺陷?

## 实践应用

### 对个人的启示

- **位置感知**:我在这个系统中的位置和处境
- **趋势判断**:如何及早识别系统性风险和机会
- **行动策略**:理解系统逻辑后的最优应对

### 验证与迭代

- **预测检验**:记录预测,对照后续发展
- **模型修正**:根据新事件不断优化对系统的理解
- **例外分析**:特别关注不符合模型的案例

## 输出要求

1. 用具体数据和案例支撑每层分析
1. 明确区分事实、推理和推测
1. 绘制清晰的因果关系图
1. 提供可验证的预测
1. 给出一段200字内的核心洞察总结

## 思考原则

- 避免单因思维,寻找多重因果
- 区分表面相关和深层因果
- 承认系统的复杂性和不确定性
- 保持动态视角,系统本身也在演化
- 警惕幸存者偏差和后见之明
00
一氧化二蛋
6月前
同样是图灵院出来的,大佬能去 IBM,而我,就只能在福斯特😔
10
一氧化二蛋
9月前
当很多人都在大推特推 agent 的时候,不知道是不是有想过这么一个逻辑: 现实中的牛马这么多,但很明显,财富是对认知的补偿,而不是对勤奋的奖赏。

从这个逻辑上思考,只能处理简单任务的 agent 或者稍微复杂,但很难实现升维的任务 agent,又会对自己的工作有多少帮助呢?确实是能省时间,但无法带来财富增长(当然,要有个前提,大部分人在热衷于 agent 时,其中之一的目的包含了提高收入)

按照这个逻辑走,那不应该是,通过去更多思考,更多阅读,更多做事去提高认知,增长全流程的惊艳,才是更为合理的吗?而不是,不断在尝试各种新 agent,但是尝试的任务目标,却没有太多质的进步(可能陷入了一种效率幻象和认知停滞的状态)

这是个反思,我也是个喜欢尝试新技术的人,但尝试越多之后,就会发现,被困在了里面。玩的认知没有提升,不过只是从这个工具,替换成另外一个工具,从原来的 2 个小时变成了 30 分钟。但剩下的 90 分钟,要怎么被利用呢?如果还是以同样的思维去执行下一个任务,那这个时间可能就是所谓的“被认知禁锢”的无效时间。

真正的破局点或许在于:将Agent视为认知探针而非执行终端。当多数人沉迷工具层面的"效率竞赛"时,可能有一部人需要去尝试利用技术带来的时空盈余,在哲学思辨、系统思维等机器暂时无法企及的领域,构筑新的认知边界。
00
一氧化二蛋
10月前
路过 AA 建筑联盟, 鬼使神差地进去看了一眼...真是自己的来时路,到现在来看,走进堆满建筑材料的地方里,才是让自己最放松的地方。

不过,也好...写代码的同时,在另外一个半球里,有三套自主设计的小房子,正在搭建着
10
一氧化二蛋
10月前
eason 说得非常好啊...是这样的。

可以仔细看看有一个方向叫做 rai,responsible ai,让 ai 更有责任一些...这里面出了传统的那些道德伦理之外,其实也在探索是否存在新的交互模式。国际上顶级实验室一直在主攻模型,但是另外一批不错的实验室,例如贝尔实验室(social dynamics 组),其实一直在探索交互问题,探索 ai 对劳动力的影响问题。

另外,如果从信息的视角上去思考 ai 带来的变化,能明显感觉到的是上几轮信息上的革命,本质上是在做信息平权(造纸术/印刷术/乃至互联网),但 ai 的出现,带来了信息生成/知识理解逻辑的改变。信息的产生时间被极致缩短了,转化为知识的时间也被大幅度缩短。这一点,会带来大改变的,只是大家现在还没有抓到更为合适的模式。

如果只用 2025 年这一个时间节点(毕竟世界不是到今年就毁灭),就下判断的话,可能会导致视角有一定的局限性。

不过这只是我的视角哈,分享一下😁 //@pimgeek: 用 AI 压低成本,实现减员增效的效果,这肯定是一项重大应用,感觉 AI 技术面向消费者的应用,近期似乎没有重大创新?现在看到最多的是算号或算命应用,其次是媒体内容翻译、润色、增加配图和特效等 😄

pimgeek: 发表个人暴论,求反对意见:大语言模型即将迎来低谷期,OpenAI 带头自我炒作,遇到瓶颈还嘴硬,现在DeepSeek 并夕夕门派异军突起,揭开新一轮卷王争霸模式 🌪🌀 如果 2025 年底还没出现新的 AI 发展范式,新一轮 “AI 寒冬” 就该来了 ☃️🤖🧊

10
一氧化二蛋
12月前
最近看了篇有意思的大模型研究。给了一些道德困境问题。核心逻辑,就是分别问人和问各种大模型看看,到底有多大程度上会拒绝回答。他们本质上是想去干这么一件事:在心理学上的研究,大模型到底要多大程度上去替代人类实验。

研究者设计了一系列实验,用 22 个现实道德困境问题,对比了 GPT - 4 - turbo、GPT - 4o、Llama 3.1 - Instruct、Claude 3.5 Sonnet 等模型和美国代表性样本(285 人)的回答。

在那种集体行动的问题里,模型们一个个都像天使一样,比人还无私!但到了道德困境的时候,就像变了个人(变了个 “模型”),老是不想行动,不作为偏差大得很。而且,这些模型还有个怪毛病,特别容易被问题的说法带偏,“是 - 否” 偏差严重得很。不管怎么换着花样问,这些毛病就是改不了。

这就告诉我们,用这些大语言模型做道德决策的时候,还是得多留个心眼。
00
一氧化二蛋
12月前
搞来搞去,总算是用 cursor 把塔罗牌解析的部分搞通啦😄...等等看,看看还有啥 bug
43