刚刚下载试玩了一下 Mac 版 Ollama 本地大模型 App
App 下载地址
ollama.com (见左图),支持 M1 芯片,下载模型文件的部分需执行一条终端命令(大概率要用🪜)。安装完毕后约占 5GB 硬盘空间,可通过命令行直接提问,模型响应速度很快。除了问各种常识或编程问题,也可以测测“弱智吧”提问,欣赏生成式笑话 (见中间图) 😅
Ollama 有一个第三方对话客户端 Snapbox,可以快速实验一些提示词 (Prompt),我感觉挺有趣的,右图是我用自己写的提示词生成译文的过程,提示词全文 =『Translate {{input}} into Chinese without sentence by sentence explanations, and rephrase the translation into more natural expressions.』
这些实验引发了我对大模型价值的开脑洞思考:它虽然不像传统的互联网应用那样,不能直接满足“端到端”的需求,但是在不同人处理各类知识密集型工作的过程中,都起到了一些润滑或简化的作用。我推测:未来人们或许可以基于大模型创造一种全新的“知识工作评估基准线”——
『原本由人类完成的一项智力工作,最少最少需要多少个字母的 Prompt 才能在开源大模型上可重复地模拟出来?』
有了这个基准线,或许更容易横向对比评估各类智力工作的含金量 🤔
PS: 关于 Ollama 本地大模型 App 的最新推荐,以及第三方客户端 Snapbox 都是在
@傅丰元 的 X 时间线分享中看到的