在 n8n 中使用 Ollama 的本地 LLM 模型

查看 48|回复 1
作者:DejavuMoe   
纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭
https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/

n8n, ollama, llm

Lanzhijiang   
虽然但是 GPU 云不是到处都是,什么共绩算力,autoDL ,各大云服务商也都有 GPU 服务器巴拉巴拉的
您需要登录后才可以回帖 登录 | 立即注册

返回顶部