即刻App年轻人的同好社区
下载
App内打开
池建强
36关注8k被关注9夸夸
「MacTalk」出品人
墨问西东创始人,极客时间创始人,目前创业。做产品、写作、拍照片、做播客。 产品:https://mowen.cn
池建强
1天前
没有灵魂伴侣这回事,我 20 多岁时,有人告诉我,每个人在世上都不止有一个灵魂伴侣,而是有 30 个。我告诉我同事的时候,他说:“是的,我正努力和她们每个人睡觉。” 🤣

——帕梅拉·德鲁克曼在《纽约时报》上发表文章《40 岁以后明白的事》。文中说,40 多岁的人不再和“潮人”待在一起,而是愿意和“自己人”待在一起。
00
池建强
2天前
//求求你们了,别再整新玩意儿了 Manus 没用过,OpenCode 还没装, Cowork 还没捂热,又来个Clawdbot.
前脚 Remotion 干翻剪映,后脚 Pencil 打倒 Figma,去年前端已死,今年 iOS 爆发。上周嘲笑苹果,这周下单Mac。
32
池建强
2天前
读视觉杂志,看到一句摘录,觉得作者很有趣,于是找到了整篇文章,确实很有趣,分享给大家。

如果你不那么在乎他人对你的看法,你对他人的了解会大大增多,达到让你吃惊的地步。在结束对话之后,你不再琢磨刚才发生了什么。其他人的想法和动机终于清晰地显露出来。

人们一直在尝试着影响你对他们的看法。在一些极端的情况下,他们就像在传递一条自己的个人口号,比如“我对孩子的教导很宽松”;“我的薪水有小几十万呢”;“我是如假包换的,并没有试图去投射出一个自己的形象!”

不用吃药而能连续睡八小时,这是人生的一大幸事。事实上,划掉不用吃药。

没有什么灵魂伴侣,至少没有传统意义上的那种。20 多岁的时候,有人告诉我,每个人在世上都不止一个灵魂伴侣,而是有 30 个。(告诉某个同事后,他说,“恩,我正努力跟她们所有人睡觉。”)

送给中老登们,也送给自己 😂

40 岁以后才明白的道理 · 墨问

01
池建强
7天前
00
池建强
7天前
强烈推荐这篇,十项全能新时代

前两天看了深寒色的猫的笔记,发散地在群里聊到,工业革命带来了社会分工和术业有专攻的时代,AI革命可能带来重新聚拢、多技能集于一身的时代。这两个时代所需要的能力和发展模式可能完全不同。

🐾 番外:十项全能新时代 · 墨问

00
池建强
8天前
墨问创作助手,其实是个 Chrome 扩展,更新了:

chromewebstore.google.com
10
池建强
10天前
通过反射,接收到了一点点的阳光 [破涕为笑]
10
池建强
10天前
有没有什么确定的方法让自己的写的内容直接进入公众号或者小红书的流量池,然后得到推荐呢?

我只能说,如果你写这个话题,进入流量池的概率会比较大。

我最近在推荐的信息流里看到好几篇类似的文章,确实阅读量很大。但是,打开作者的其他文章/笔记,都是几十几百的阅读量。说明啥呢,就是没找着秘籍呗,但假秘籍却被推荐了,说白了也是个概率问题。

公众号的机制其实并不复杂,如果你有基础订阅用户,比如几万,写的内容又好,互动率高,时不时就会获得推荐。

至于小红书,我完全搞不懂推荐机制。如果你看到一个人的点赞特别多,有两种方式可以做到:

1、买薯条自己加热。小红书的薯条加热机制比公众号灵光,舍得花钱,一定有效果。
2、删掉点赞差的小红书。我就这么干 😂
20
池建强
10天前
二爷转我一个链接,说苹果要出 3000 块的 Mac 了。我说这东西对我没啥吸引力。

我一年过半百的老登,我为什要用便宜 Mac,我为什么还要用便宜东西?我没有理由啊。😂
30
池建强
11天前
AI 的世界真是日新月异,这才几天又一款全新的 AI 模型出现了:全球首个通用实时世界模型 PixVerse-R1。

我觉得 PixVerse-R1 的发布标志着视频生成正在从“静态输出”转向“实时交互”的全新阶段。用户设定好世界观,就可以在生成视频流的过程里和 AI 实时交互,比如通过 prompt 改变地图和角色的行为。游戏、漫剧利好。

我试了一下,有 Deepseek 时刻的味道。

随着模型发布的还有一份技术报告,其中提到了三个创新性技术:Omni、Memory IRE。

Omni 是一个从底层就支持多种模态的通用模型,用来做世界模型的计算基座。它用同一套 Transformer,把所有模态都编码进一条连续的 token 序列里,相当于用一条时间线来理解和生成整个世界的感知,这让不同模态之间的配合更自然、更精准。在训练上,用原始比例和分辨率来学习,不去随便裁剪、拉伸,所以画面里的构图、比例和细节都能尽量保持真实,不会被几何变形和伪影破坏。同时,模型通过海量真实视频把物理规律“学进了脑子”,比如光影怎么变化、物体怎么运动,所以它生成出来的平行世界,在光照和运动上大体是符合物理常识的。

Memory 这套机制,主要就是解决长视频里前后对不上和显存爆表这两个老大难问题。它不是一次性生成一整段视频,而是一帧一帧往后推,理论上可以一直生成下去,形成无尽的视频流。同时,它有一块专门的记忆模块,会把角色是谁、世界规则是什么这些关键信息单独记住,后面生成时直接用这份“记忆”,不用每次都从头算一遍,这样既保证了前后逻辑和物理效果统一,又不会让显存占用失控。

IRE 最有意思,可以理解为一套让模型实时响应的加速引擎,是实时响应的关键。

它做了三件事:

第一,用“时间轨迹折叠”把原来曲里拐弯的生成过程拉成一条直线,让噪声更快变成画面,把传统需要 50 多步的扩散采样压缩到 1~4 步,速度直接提升了几个数量级。
第二,用“引导校正”把各种条件约束(比如提示词、控制信息)直接融进模型内部,不再走传统 CFG 那套“双倍算力”的老路,节省算力。
第三,通过“自适应稀疏注意力”精简计算图,重点算该算的地方、略过不重要的区域,在 1080P 这种高分辨率下,还能在有限算力里给出接近即时的响应。

看起来 PixVerse-R1 是构建了一个可交互的数字世界计算基础设施,为 AI 原生游戏、实时 VR/XR、互动电影等全新媒介形态提供了新的可能性。

通用级PixVerse R1的技术突破,揣着进入平行世界的密码

13