刚刚下班回家,第一次打车遇到了听障司机,想到 AI 的软硬件结合,可能对他们会带来很大的帮助。
我在车里一坐下,习惯性的说了手机尾号,但司机很奇怪的,把手机给我让我自己输入,我以为他没听清,于是又重复了一遍手机尾号,然后他指了自己耳朵,我才意识到他听不见。
我赶紧道歉,然后输入手机尾号,他比了 OK,就开始出发,可能这种场景他也遇到很多次,哪怕在车里其实放有提示,大晚上我也看不到。
在行驶过程中,我注意到几个细节
1. 车比较干净,没有异味,因为他是弱势群体,就在这些方面更加用心,才能跟健全司机竞争
2. 车里有 3 个屏幕,而且导航的显示屏比较大,方便他看路线,大概 5-10 秒会看一次导航,因为他听不到语音播报
3. 到了之后,我一下子不知道怎么跟他说直接大路边停就行,不用拐进小路,但他应该通过后视镜看到我的姿势和表情,就停了下来,并给我打手势
[图片]
整个过程,他的服务并没有比其他健全司机的差,但是全过程对他来说,其实要付出更多努力,他的工作体验并不好,以及可能他会遇到一些不明事理的乘客。
想到如果我们的 AI 眼镜能做成,可以实现
1. 看到我入座,多模态理解,发出声音提示我输入手机尾号,或者直接把我报的尾号输入到司机端 app,类似智谱的 auto GLM 模型能力
2. 镜片显示导航地图,就不用频繁低头看大屏幕的导航也更安全
3. 快抵达目的地,可以辅助跟乘客沟通具体下车点,乘客的声音转成字幕显示到镜片上
4. 可能还有其他的沟通场景,从当前技术发展看,是有可能实现的
查了一下,中国有 2780 万听力残疾人,这也是一个挺大的市场规模,更别提更大范围的残障人士群体,但他们都隐身了,社会基建因为成本也没做好
马斯克的 neuralink 成功让一个瘫痪病人重新可以生活,一年后,他说,他最害怕的是马斯克把这个收回,因为他已经无法接受自己瘫痪在床的日子了。
AI 对我们可能是锦上添花,但对某些人可能是完全两类人生