【从苹果 AI 胸针,聊聊 AI 可穿戴为什么还在“找形态”】
最近外媒爆料,苹果在内部探索一款类似 AI Pin 的胸针形态 AI 硬件。根据目前的信息,这款产品还处在比较早期的研发阶段,形态接近一个可夹在衣服上的小型设备,体量类似 AirTag,预计至少要到 2027 年才有可能走向公开发布。
关于AI硬件,从整个行业来看,共识一直很清楚——AI 最理想的载体依然是眼镜。苹果在做,Meta 在做,Google 也在做,国内不少创业团队最早的设想其实也是眼镜形态。很多项目后来没继续推进,并不是不认可方向,而是判断眼镜在现阶段,工程和体验的难度仍然偏高。
这类 AI 设备一旦想真正有用,核心就不只是“能不能回答问题”,而是要持续理解你所处的环境和状态,也就是上下文能力。而上下文能力意味着更长时间的感知开启,这对眼镜来说会直接带来续航和佩戴成本的问题。并不是所有人都习惯戴眼镜,即便是本来就戴眼镜的用户,当重量、体积和发热明显增加后,长期佩戴的门槛也会迅速提高。
在这个背景下,苹果去探索眼镜之外的形态,其实并不意外。胸针这种形式,本质上是在第一视角完整性和佩戴成本之间做了一次取舍。它没有那么理想,但胜在灵活,不要求全天戴在脸上,却依然能在需要的时候,获取一定程度的环境信息,作为 AI 的输入来源。
再看这款设备的硬件配置,为啥是两颗摄像头、三颗麦克风,再加一个物理按键?
两个摄像头更好分工,一颗偏向广角,用来获取整体环境和场景信息;另一颗偏向标准视角,用来识别你真正关注的目标。“先感知、再聚焦”的组合,有助于减少 AI 对场景的误判,也能在一定程度上控制功耗。另外,两个摄像头一定程度上可以做物体深度信息,以及你是在靠近还是走远。
三颗麦克是一个小型阵列:一颗负责主要拾取用户语音,一颗作为环境噪声参考,用于降噪和回声消除,另一颗则用于判断声源方向,帮助系统区分“是不是佩戴者在说话”。如果在地铁、街道、商场这种复杂环境里经常误触发或听不清,这类无屏 AI 设备基本就很难成立。
至于那个物理按键,反而可能是整个设计里最关键的一环。从交互上看,它既可能承担“按住说话”这种明确的语音触发,也可能通过单击、双击、长按来区分不同意图,比如快速识别当前场景、记录信息,或者直接关闭感知模块。这个开关对隐私保护很重要,让用户始终有一个不依赖软件状态的“我说了算”的开关。
总之,苹果在AI领域算是想明白了,还是做自己最擅长的硬件,大模型不行,可以买别人的先用着。