即刻App年轻人的同好社区
下载
App内打开
Porcoo
73关注227被关注0夸夸
connect the dots.
Porcoo
2月前
目前,一种新的 ChatGPT 模型正在悄悄测试中。

一些消息来源称其为 GPT-5.4。

早期报告称,系统性能大幅提升,尤其是在编码方面。我们说的是单次提示符下即可输出超过 6000 行代码。不仅输出内容更长,而且能够构建结构化、复杂的程序。
00
Porcoo
2月前
做线上内容策展,不是把内容像展品一样摆出来,而是像策展人一样替用户完成筛选、框定、排序和解释:先定义问题,再减少选择;先搭出理解层级,再补足语境;最后留下一个能被记住、能被继续使用的判断。
00
Porcoo
2月前
策展价值 =(高质量选择 × 清晰理由 × 稳定结构 × 可验证信任)÷ 用户时间成本
00
Porcoo
2月前
最近看了《The Atlantic》的一期播客实录,题目是《What Do the People Building AI Believe?》。它真正吸引我的,不是讨论模型性能,而是把问题换成了一个更根本的方向:**那群造 AI 的人,到底在相信什么?** ([The Atlantic][1])

我越来越觉得,这才是理解当下 AI 浪潮的关键。因为技术不会凭空长成某种样子,它总会带着建造者的想象力、恐惧、野心和价值观。你看的是模型,背后其实是人。([The Atlantic][1])

这期节目把这一轮 AI boom 形容成三件事的叠加:**淘金热、意识形态、以及近乎宗教式的技术信仰。** 这句话特别准。它点出了为什么现在的 AI 讨论总带着一种过热感:很多人已经不只是把 AI 当工具,而是把它当成某种历史性的力量,甚至把自己想象成在参与“造神”。([The Atlantic][1])

节目里对当下旧金山的描述也很有意思。Jasmine Sun 说,现在那里的氛围非常亢奋。钱很多,融资疯狂,城市在经历疫情后的低谷后,重新有了一种“我们回来了”的精神状态。那种感觉不是单纯行业回暖,而是一个地方重新相信:**未来仍然先发生在这里。** ([The Atlantic][1])

而当一个城市开始这样想象自己时,它会对很多东西变得更宽容:更激进的试验、更夸张的叙事、更怪异的行为方式,都会被包装成“站在历史前沿的人本来就该如此”。这也是为什么今天的 AI 圈常常给人一种既像创业现场、又像新宗教现场的感觉。([The Atlantic][1])

节目里把 AI 圈内部概括成两大派:末日派和加速派。末日派认真担心失控超级智能会带来文明级灾难;加速派则基本是“别停,先做出来,边跑边解决问题”。表面看像悲观和乐观的分歧,但我觉得更深处其实是两种历史观的冲突:一派觉得 AI 是最大的存在性风险,另一派觉得 AI 是最大的历史机会。([The Atlantic][1])

我很认同节目里另一个特别成熟的判断:AI 的现实并不是直线式爆发,而更像一种“锯齿前沿”。它会在一些任务上强得惊人,在另一些任务上又显得很笨。所以现在你会看到两种完全相反、但都不算错的体验:有人觉得“这东西根本没用”,有人觉得“它已经快替我干完整份工作了”。问题不在于谁看错了,而在于 AI 的能力本来就分布得非常不均匀。([The Atlantic][1])

这也意味着,真正值得警惕的,未必是某个好莱坞式的“AGI 突然降临”时刻,而是这种不均匀、断裂、却持续的渗透:它一点点进入工作流,一点点进入组织,一点点进入教育,再一点点改变人们对“能力”的理解。([The Atlantic][1])

节目对硅谷政治的分析也很精彩。它指出,很多 tech 圈人的真实坐标轴越来越不像传统左右,而更像“加速/减速”。谁要监管、问责、要求慢下来,就更容易被当成障碍;谁让他们继续 build、继续 scale、继续 let it rip,谁就更容易获得支持。某种意义上,这解释了为什么不少科技精英会阶段性地靠近特朗普式政治,但又不完全等于传统保守主义。([The Atlantic][1])

更有意思的是,节目还提到一种“特朗普式科技营销”——一些创始人真正学到的,未必是具体政策,而是那种对注意力的绝对支配:挑衅、夸张、自信到近乎神话,把争议本身变成品牌资产。([The Atlantic][1])

最后让我最在意的,是它谈到写作和阅读。节目里有个细节很刺痛:一个大学生对 Jasmine 说,你们那代人很幸运,因为你们是在 ChatGPT 之前学会写作的;而他觉得自己“完了”,因为机器写的东西更容易得到反馈。这个细节真正让人不安的,不是 AI 会不会写得更好,而是:**一代人会不会在形成自己的声音之前,就先放弃了练习表达。** ([The Atlantic][1])

如果真是这样,AI 改变的就不只是生产方式。它改变的是人对自我表达、独立思考、以及“我是否值得自己开口”的信心。

所以听完这期,我最深的感受是:

**AI 首先不是技术问题,而是文化问题。
而文化问题的核心,从来都是:人相信什么。**

我们最终拥有的 AI,很可能会越来越像造它的那群人。

[1]: www.theatlantic.com "What Do the People Building AI Believe? - The Atlantic"
00
Porcoo
2月前
海因茨·冯·福斯特有一句我很喜欢的话:
“If you desire to see, learn how to act.”

我会把它翻成:
如果你想看见,就先学会行动。

这句话最深的地方在于,它颠倒了我们习惯的认知顺序。我们总以为是“先看清,再行动”,但现实里,很多事情恰恰相反:你不是因为看见了才行动,而是因为行动了,才终于看见。

为什么?因为很多真相不是静态摆在你眼前、等你观察的。现实更像一个会回应你的系统。你站在原地,只能看到表面;只有当你真正介入——去写、去做、去发、去试、去表达、去承担反馈——那些原本隐藏的结构、阻力、机会、边界,才会慢慢显形。

所以,行动不只是“执行认知”,行动本身就是获取认知的方式。

这对创作尤其明显。很多人总想等“想明白了再写”,但真正的经验常常是:你是在写的过程中,才发现自己真正想说什么。对做产品、做内容、做关系、做职业选择也一样。你不进入现场,就不会有真实反馈;没有反馈,你的理解就只能停留在想象层面。

这句话也在提醒我们:
很多“看不清”,不一定是因为你思考得不够多,
而可能只是因为你和现实发生的互动还不够多。

所以,当你卡住时,最有用的往往不是继续空想,而是做一个更小但更真实的动作:发出去、试一次、问一句、做个原型、开始第一步。因为很多你以为要靠“想”才能得到的答案,其实要靠“做”才能出现。

你想看见更多,就别只做旁观者。
先行动,世界才会向你显形。
00
Porcoo
2月前
奥威尔这句:

**“Nothing was your own except the few cubic centimeters inside your skull.”**

是《一九八四》里最锋利的句子之一。

它真正写的,不只是贫穷、监控或恐惧,
而是一个更深层的现实:

**当一个极权系统足够强大时,它不仅控制你的行动、财产、语言和历史,甚至试图侵入你的内心。**

这句话最震撼的地方,在于它把“人的最后边界”压缩到了极小的尺度。

不是房间,
不是家庭,
不是公开表达的权利,
甚至不是身体本身。

到最后,真正还属于你的,
只剩下头骨里那几立方厘米的空间——
也就是你尚未被彻底征服的意识。

“inside your skull” 这个说法非常重要。
因为它意味着:
当所有外部空间都被占领之后,
人的思想成了最后的私人财产,
内心成了最后未被殖民的领地。

这时,自由已经不再是一种扩展性的权利,
而变成一种防守性的残存。

但《一九八四》真正可怕的地方还在于:
它并不满足于让你服从。

它要你相信;
不满足于让你沉默,
它要你在内心认同。

也就是说,
它的最终目标,
是连这最后几立方厘米都不放过。

所以这句话既是在说:
**人还有最后的防线;**
也是在暗示:
**连最后的防线,都可能被攻破。**

这也是为什么它今天仍然如此尖锐。

在监控、算法、舆论操控、信息过载和语言模板化的时代,
问题不只是“你说了什么”,
而是:

**你是否还保有真正独立的内心空间?**

奥威尔写的,归根结底是一个问题:

**当外部世界都在争夺你的注意力、情绪与判断时,
你还能不能守住头骨里那几立方厘米的自由。**
00
Porcoo
2月前
Licklider 这句话很值得反复读:

“用户真正想要的,是开放的软件,是可以被修改的软件,是能够参与到一种渐进式改进过程中的软件。”(The user wants open software, software that can be modified, and that can participate in a progressive improvement process.)

它的重点,绝不只是“开源”两个字。

这句话真正指出的是:
**好软件不该是封死的成品,而应是一个可塑、可参与、可持续演进的系统。**

“open software” 的含义,不只是源码开放。
更深一层是:软件不应只是一个只能被消费的黑箱,而应是用户能够理解、介入、重塑的工具。
也就是说,用户不该只是点按钮的人,也应该有机会成为参与者。

“can be modified” 说的则是用户主权。
真正好的软件,应该适应人的需求,而不是让人反过来适应软件的限制。
当软件可修改,用户就能修补它、扩展它、重组它;
而不是被平台、默认设置和封闭生态彻底锁死。

最重要的是最后那部分:
**participate in a progressive improvement process**

这句话的真正锋芒在这里:
软件不是一次性交付的静态产品,
而是会在使用、反馈、协作、迭代中不断变好的过程。

这其实是一种非常现代的软件观:
**软件不是物件,而是演化机制。**
**不是完成品,而是持续生成中的基础设施。**

放到今天看,这句话依然非常尖锐。
因为很多 SaaS 更方便了,却也更封闭;
很多平台更强大了,却让用户失去控制权;
很多 AI 工具更聪明了,但也越来越像不可修改的黑箱。

所以 Licklider 这句话今天的现实意义是:

**真正好的技术,不只是更智能、更顺滑,
还应该让用户保有修改权、控制权,以及参与改进的能力。**

说到底,这句话捍卫的不是一种开发方法,
而是一种技术立场:

**技术不该只是被交付给用户,
技术应该允许用户参与它的继续生成。**
00
Porcoo
2月前
伊万·伊里奇在《去学校化社会》里提出过一个很超前的想法:**learning exchange(学习交换)**。

他的核心判断是:

**人最有效的学习,往往发生在自己主动寻找“想知道的东西”时,而不是被动接受“别人安排好的教学”时。**

学校式教育的问题,不只是效率低,而是它默认了一个前提:

* 只有老师才能教
* 只有课程才算学习
* 只有证书才能证明能力

于是,学习被变成了一条被管理、被分发、被标准化的流水线。

伊里奇想要的则完全相反——
他设想一种“学习之网”:

* 想学的人,可以随时找到资源
* 会的人,可以把技能公开出来,与他人交换
* 有相同目标的人,可以彼此匹配、共同学习
* 专业人士也可以像“开放节点”一样,被社会直接连接

这背后真正重要的,不只是“自主学习”,而是:

**学习的起点,应该是问题,而不是课程;
学习的动力,应该是欲望,而不是服从。**

当一个人是因为自己真的想弄明白某件事,才去搜索、提问、试错、连接他人——
这种学习通常更深,也更难被遗忘。

从今天看,搜索引擎、论坛、社群、YouTube、在线课程、AI,本质上都像是伊里奇当年设想的“学习交换网络”的雏形。
但问题也还在:

**如果平台、算法、认证体系重新垄断了知识分发,
那我们只是把“学校”换了个形态。**

所以,伊里奇这句话最值得记住的,不是“去学校”,而是:

**把学习的主动权,重新还给学习者。**

真正的学习,不是被灌输。
真正的学习,是一个人带着真实的问题,主动走向世界。

#教育
#自主学习
#IvanIllich
#去学校化社会
#终身学习
#知识管理
#学习方法
00
Porcoo
4月前
OpenAI 的一位研究人员表示:在 OpenAI 内部,研究人员将首先被 AI 取代,其次是基础设施工程师,最后才是销售人员。

听起来有悖常理,但这种情况确实可能发生。创意成本不高。大多数研究都是创意生成加上实验,而人工智能在很大程度上do (可以排除顶尖研究人员。

人工智能基础设施代码是研究人员开展实验的基础。代码库庞大,训练数据分布不均,且漏洞频发。

销售纯粹是人类心理学:人性、信任、激励和情感。这才是人工智能的最终挑战。
00
Porcoo
4月前
据彭博社报道,阿里巴巴Qwen团队负责人林诣彬估计,未来3到5年内,中国公司通过根本性突破超越OpenAI和Anthropic等领先企业的概率不到20%。

据报道,腾讯控股的同事以及智普人工智能(一家主要的中国大型语言模型公司,本周在中国主要的语言模型公司中领跑公开市场融资活动)的同事也持有同样的谨慎评估。
林指出,虽然像 OpenAI 这样的美国实验室正在投入大量计算资源进行研究,但中国实验室却严重受到计算能力不足的限制。

即使是他们自己的服务(即推理),他们也消耗了大量的计算能力,以至于没有足够的计算能力用于研究。
00