# Raycast应该马上做语音输入法
walnut.hedwig.pub## 侵略性不强的语音输入法
我曾经在很长的一段时间内对AI语音输入法毫无兴趣,想当然地认为这个领域的竞争已经结束了——已有的几大输入法随时间推移只会越来越强,况且输入法的逻辑是独占式的,同一时间内只能使用一款输入法。
但在尝试了Typeless之后才发现我之前的想法有多狭隘——用户并不需要决定要不要放弃主力输入法,只需要在想要说话的时候按下Fn(Typeless的默认快捷键),两个输入法互为补充。你可以在语音输入后,打字微调;也可以先打字,再语音要求翻译成其他语言。
AI语音输入法能不能成为你唯一的主力输入法并不重要,而能不能无缝地融入你的工作流,很重要。
有一个标志性的场景,就是用语音输入法指挥AI去Coding,你怎么说,他就怎么干,严谨、情商这些迫使你在沟通时要慢慢打字、字斟句酌的元素全都可以丢掉,「嬉笑怒骂皆成Prompt」,大脑皮层的褶皱都随之舒展开了。
## 从意图到指令
用搜索代替管理是计算机领域历史悠久的典型理念,当网站多到黄页上放不下的时候,不如放弃分门别类的徒然努力,直接搜索(Google);当你的设备上的文件资料足够多的时候,不如放弃为每一个文件设计一个合理路径的尝试,直接搜索(Spotlight)。
同样的,当我在电脑上安装了几百个App,有数千个功能的时候,能不能避免一层一层地点击,通过搜索直达我想要的功能?
当然可以,Alfred和Raycast就是这个领域的代表者,你可以在任何地方呼出他们的输入框,通过指令快速调用对应功能。
但是这个流程一直存在一个问题:就是用户需要记忆自己配置了哪些指令,并且需要在每次使用的时候将自己的意图翻译成不同的指令。
比如你可能想将一段英文翻译成中文之后再去Google,那么你需要先使用翻译指令,然后再使用搜索指令。我试图向朋友们推荐Raycast的最大难点就在这里——你必须把自己当成路由器,把自己的需求拆分成不同指令后再发给不同的工具。
借助Typeless的交互,这个问题就被大大简化了,呼出输入框——语音输入需求——软件自行判断需要调用哪些插件然后执行——结束。用户也可以趁机脱离路由器的比喻,升级成纯粹的指挥者。
Raycast拥有丰富的插件生态和适合尝鲜的生产力用户,何乐而不为?