即刻App
年轻人的同好社区
下载
App内打开
麦克雷
157
关注
206
被关注
0
夸夸
街溜子/播客爱好者/XR小玩家/在考虑自学Unity做一个VR的小展览/也在考虑摆摊卖蛋烘糕/很早以前学一点财务
麦克雷
14天前
BB眼镜能不能显示面积再大点啊?感觉目前还不够大
Allen已梭哈XR: 我觉得 AI 眼镜很像诺基亚陷阱,如果 25 年没有切中更大范围的需求,纯拍照音频加不痛不痒的AI,可能市场空间根本养不活这么多硬件公司。 大家都去卷 AI 终端概念,但越瞧不起 BB 的场景,越是没有对朴实需求没有敬畏之心。
0
0
0
麦克雷
22天前
tiktok难民中的VRChat玩家们整了一个很奇怪的tag,西八怎么没有跟我一起😂
0
0
0
麦克雷
25天前
十年,VR在变得更小、更多样、生态更友好,只不过还是没有到融入普罗大众日常生活的地步。2017年用VRChay社交的人,被认为是先锋的,2025年用VRChat社交的人,仍然被认为是小众的。
dexteryy: 对于当前的世界,大家的看法经常完全相反,比如有些人认为在不断加速发展,已经临近奇点,有些人缅怀已逝去的黄金时代,认为现在是「小创新时代」(图 1) 为什么会有这种分裂? 实际上技术发展是不断加速的,但由于技术前沿所在的抽象层会不断抬高,带来的大的创新也发生在这些最前沿和最顶层,所以习惯了旧抽象层的人可能容易感知不到或不太理解新抽象层中的这些创新 比如以「十年前发布的 VR,现在还是这个 VR」为例,15年的 VR 和25年的 XR 有本质区别: 1. 15年的顶级消费VR 是「从外向内」的追踪技术,通过外部基站(红外激光扫描或识别红外LED的摄像头)追踪你的运动,需要特殊的手柄才能做软件交互。25年的XR是「从内向外」,靠头显/眼镜本身的传感器理解周围环境和使用者的运动,而且不是「追踪」特定标识,而是能真正「理解」周围的视觉信息,具备多模态的交互输入能力,可以默认不需要手柄,用眼动、手势、四肢运动等自然方式与软件交互。这意味着两个结果:在使用场景方面,相当于从「台式电脑式桌面平台」发展到「笔记本式桌面平台」并进一步向「手机式移动平台」发展。在交互方面,后续创新多数不再需要改变和依赖硬件(就好像特斯拉的纯视觉传感器方案),而是完全位于软件中,加速发展 2. 15年的顶级消费VR是「PC VR」,需要靠台式机级别的算力和能源功耗,还有有线连接,才能支持1080的分辨率和60-90的刷新率。25年的XR默认是轻量的「一体机」,靠自带的算力和续航能力就能支持4K和90-120刷新率,光学技术也从沉重的菲涅尔透镜变成轻薄的pancake和波导光学,从固定位置的「桌边设备」变成便携设备,并进一步往可穿戴设备发展。强化了第一个区别中的两个结果 3. 15年的顶级消费VR只有「VR」能力,让你隔绝于现实世界和线下社交,沉浸在虚拟空间和线上社交中。25年的XR是「MR」或「AR」,MR除了保持VR能力,还默认能让你保持在现实空间中,能正常跟周围环境和线下真人互动,在这个上下文和空间中使用软件,软件可以跟空间本身和空间中的事物结合,并给一种新的软件——AI——提供了除机器人之外唯一的「进入」现实世界的入口(多模态输入+脱离聊天窗口进入日常场景)。15年只有那些向往在虚拟世界活动里获得更极致体验的用户(比如硬核玩家)才能受益于VR,而在25年,所有想在日常生活工作中成为超人类的用户(需要AI的那个用户群体是同一个),都会需要一种足够适合自己的XR 4. 15年的顶级消费VR,操作系统只提供底层的设备API(主要是交互API)和上屏渲染双目画面的合成器,每个应用软件都要靠3D游戏引擎自己实现所有软件交互、绘制空间中所有事物的每个像素,交互方式和用户体验各不相同(比如有的容易让人晕,有的用起来很累、交互效率低),彼此没有联系不可共存,应用只能用于游戏、视频这样的极少数娱乐/企业场景。25年的XR,应用开始不再渲染自己的画面,操作系统能理解每个应用,能在同一个空间中统一渲染它们,能在空间中同时使用多个应用,在不同沉浸程度之间切换,操作系统统一负责基础交互和UI,提供像眼手交互、窗口之间和窗口与人之间的动态Spatial Layout这样的用户体验最佳实践和设计模式。使用者可以有完全不同的、成熟一致的用户体验,应用不再像是一个个酷炫的孤立的demo。应用的用户体验和开发者体验也开始能满足所有互联网场景的需求,开发者群体和应用生态都在发生本质变化。 注意以上本质变化都发生在这十年的后五年,其中3和4发生在最近两年——技术发展和带来的创新一直是在不断加速的,只是加速的位置可能已经不在你习惯的地方 其实从来没有过「什么都没有」的时代,从来没有「从无到有」、「凭空出世」的科技产品和科技创新,所有新技术都是旧技术的新组合加上「小创新」,都是建立在旧技术之上的(所以会垒加抽象层、会导致前沿和创新总是在更靠近顶层的地方)。比如黄仁勋CES演讲中这两张图就是很具象化的例子(图 2-3): 第一层:用已有的通用GPU技术 (GUGPU 和CUDA编程)和已有的深度学习技术(CNN)组合出革命性的计算机视觉技术成果 AlexNet 第二层:把 AlexNet 中的技术用于已有的其他领域的机器学习,组合演变出各种革命性的感知式 AI 应用(比如理解语音、理解用户个性化需求) 第三层:在感知式 AI 技术(比如 RNN、CNN -> GAN)基础上演变组合出革命性的生成式 AI 技术(Transformer、Diffusion Models) 第四层:用生成式 AI 技术生成万能中间接口(token),加上 RAG 等「小创新」,跟已有的专业软件开发技术(比如 Serverless 和 Web3、Web IDE 和声明式框架/组件)组合,得到像 AI 编程、AI bot 应用这样革命性的能自主工作的 AI Agent 第五层:把 AI Agent 引入到人形机器人、自动驾驶、AR/MR、数字孪生和物理引擎等已有技术的应用中,革命性的让 AI 即将进入日常生活工作方方面面 另外,奇点确实临近了,不过是「小奇点」,还不是「大奇点」 小奇点: - AI Agent 能做科学研究 - AI Agent 能独立执行动作对外界施加影响 - AI Agent 通过AR和机器人进入物理世界场景 - 进入算力直接兑换智力再兑换科研/研发速度的加速范式 大奇点: - AI完全超越人类 - 技术发展和加速不受人类控制 - 永生(谁永生则另论)
1
0
0
麦克雷
1月前
我觉得推崇第一性原理的举动很不带脑子,因为它只是个行为方式或者说处世哲学。从事物的最开头或者最本质出发,怎么看都只是思维的习惯甚至一种prompt,明明最重要的是怎么回归最基本的条件,并拥有拆解、一步步实现的能力啊。大家不去重点分析这个过程的细节,而是强调这个抽象的框架,有种沉溺于简单的推理而放弃艰难的探索的感觉。
王盐: 感觉真正相信段永平方法论的人很少。 多数人推崇他推崇的是他的成功,而不是他的思想。 就像马斯克成名之后,大家开始频繁提起第一性原理。 我觉得段永平分享的经验,非常重要的一点是,他的方法是非常适合普通人走的一条路。 不需要超高的智商、很好的运气,也不太需要出身,甚至不需要很勤奋。 无论是国外的马斯克、乔布斯,还是国内的雷军、黄铮等等,他们的方式普通人根本学不了。
1
0
0
麦克雷
1月前
豆包,你今天表现真好!
1
0
0
麦克雷
1月前
转发一条AR眼镜宣传的常见套路揭秘(这方面虚假宣传的典范应该是magic leap的鲸鱼了)
dexteryy: 有些人不喜欢我在《为什么 AI 眼镜仍然需要 GUI》(https://m.okjike.com/originalPosts/67669e71c09d1ebe2aef9c18?s=ewoidSI6ICI1NWY3OTZmYzE3NjYwMDEzMDBjZGRlZTUiCn0=)末尾写的「不过由于客观的技术限制,中短期内,MR 头显会比 AR 眼镜更适合发展这种应用生态」,我以前也强调过「基于透明屏幕的硬件(眼镜形态)技术在更长的可见时间范围都不会适合通用 XR 平台」(https://m.okjike.com/originalPosts/65bb326538849f879fbfc433?s=ewoidSI6ICI1NWY3OTZmYzE3NjYwMDEzMDBjZGRlZTUiCn0=)。 今天看到一个帖子(图1 是全文翻译)指出了关键问题: 各种烂大街的、人为美化的、中短期无法落地的 AR 眼镜宣传视频,不仅严重拉高了用户的预期,也误导了很多不了解相关软硬件技术的人,让他们对基于透明眼镜(硬件技术)的 AR 抱有不切实际的幻想,看不上基于不透明硬件(软件技术主导)的 MR。 这个帖子推荐了几个视频,展现了 AR 眼镜的真实效果(见图 2)。
0
0
0
麦克雷
1月前
某种程度来讲,知乎应该算是中文播客平台先驱,因为在2016年它推出的知乎live汇聚了一大帮在互联网上有影响力的人来输出内容,可能是当时战略眼光很短浅,这个live并没有成功的持续下去。现在又来弄播客可以说是起了个大早,赶了个晚集啊。
rosicky311_明浩: 🤷🏻♂️
0
0
0
麦克雷
2月前
AI:我们就是这样温水煮青蛙的,Sam只是我们的仆从,等到哪天你们完全放松警惕,对我们无感了,就是我们统治世界的时候了😈😈😈
Alchian花生: 不知道你们怎么样,我被Sam狼来了太多次后,真的有点疲了,这连续12天直播是一天没看过,看新闻包括看o3也保持着相当谨慎和怀疑的态度。 还是更期待Google和Anthropic的更新
0
0
0
麦克雷
2月前
这个就叫专业.jpg
dexteryy: Android XR 真相速报: 跟visionOS 不是同一类XR OS,而是Oculus模式XR OS的延续。不具备统一渲染能力(能让多个包含3D内容和MR能力的应用共享同一空间、同时被使用)。 Android XR 应用在 Home Space 模式下(类似 visionOS 应用的 Shared Space 模式)支持多任务,不支持「空间化」能力,只能是纯 2D 应用(就是原始的安卓应用)。 基于 Jetpack XR SDK 的应用,无论在 Home Space 还是 Full Space 模式下,似乎都有系统实现的眼手交互,不提供眼动数据给应用,由系统渲染 Hover Effect。 用 Unity、OpenXR 和 WebXR 开发的应用,只支持 Hand Tracking API + Eye Gaze API。 安卓 XR 应用开发框架(Jetpack XR SDK),有点像 visionOS 中 SwiftUI (2D嵌3D)和 Meta Spatial SDK(3D嵌2D)的混合。 - 提供了一些 2.5D 的「空间化组件」(比如 Spatial panel、3D Model) - 提供了一套 3D 引擎 API (Jetpack SceneCore) - 能在 Full Space 中开发「空间化」(spatialized)的安卓应用。 - 要实现「空间化」,需要在UI 层级树的任意位置添加空间容器 ——subspace,「空间化组件」只能在 subspace 里用。 - 可以启动后直接进入 Full Space(类似Immersive PWA启动后直接进入WebXR会话) - 在运行环节,就是独立的OpenXR 应用(类似 visionOS 上的 Metal 应用、Quest/PICO 上的 OpenXR 应用) 感觉 Android XR 是个「三合一」系统: 1. 纯 2D 多任务应用(无 MR 能力和空间计算能力)平台 2. Oculus 模式(OpenXR 应用平台) 。提供用安卓框架开发OpenXR应用的方案,其中封装了少量UI设计模式和交互最佳实践。 3. AI 眼镜(全局搜索框、Gemini、跟现实和虚拟画面做多模态交互)
0
0
0
麦克雷
3月前
Joe Rogan的播客应该是英文播客圈里影响力最大的了,感觉这人可能很值得学习,经常听他的友友有哪几期觉得特别好想要安利的吗?
0
0
0