问一个大模型本地部署的问题

查看 33|回复 3
作者:sakujo   
在 pc 上跑了 ollama ,想在软路由的 docker 上布置个 open-webui 供家里其他设备使用。部署好了,但是 open-webui 一直找不到模型。
我确定 ollama 的服务搭的没问题,环境变量也改了,在局域网的其他机器上都能访问到。
open-webui 的 ollama 设置里也改成了 pcip:11434,但 open-webui 就是连接不到 ollama ,有没有懂得麻烦给指导一下

open-webui, ollama, 部署

andy20160606   
11434 端口 是不是没打开,把防火墙先关掉试试呢
sakujo
OP
  
@andy20160606 #1 应该是没问题,我在局域网其他设备上访问 pcip:11434 ,都能显示 Ollama is running
gaobh   
在不在一个网段
您需要登录后才可以回帖 登录 | 立即注册

返回顶部