本地跑LLM大语言模型用什么工具?
LM Studio和Ollama都是优秀的本地大语言模型工具。个人觉得LM studio对于新手简单一些。
Ollama主要通过命令行操作,操作起来像docker,对程序员更为方便,但需要额外使用Docker来获取UI界面。 而LM Studio开箱即用,提供用户友好的UI界面,特别适合不习惯命令行操作的用户。
另外,Ollama 下载模型直接使用命令ollama run即可,它会自动处理下载和加载过程,非常符合习惯docker用,LM studio通过可视化的方式下载模型。
Ollama 和 LM Studio 都支持使用 .gguf 格式的大型语言模型(LLM)文件,但加载有所不同。LM Studio 允许直接下载后加载模型以供使用,而 Ollama 则需要一个ollama create命令来“打包”模型,类似于创建 Docker 镜像的过程,来将 .gguf 文件转换成二进制文件,这就有点麻烦了。
还有,LM studio完全兼容OpenAI数据格式,这意味着可以使用第三方的GPT套壳工具调用LM Studio的本地模型。
总的来说LM studio对于初学者友好,Ollama对于熟悉在docker的程序员们友好,方便灵活, 适合工程使用。
更多介绍请访问他们官方网站:
lmstudio.aiollama.com