项目地址

项目里说得很清楚了 一个是ollama在本地 一个是在别的服务器 我目前在mac调试 所以用的本地做演示 别的服务器还没玩

https://github.com/open-webui/open-webui

问题反馈

我期间测试了open-webui跟ollama都在mac上 没啥毛病 但是 我部署在win的ollma 怎么都访问不了
看日志里 host跟bridge模式的网络都是无法访问 但宿主机又是可以正常访问调用的
这让我有点摸不着头脑了 按理说我mac宿主机能访问我win的ollama就行了呀 我mac的chatbox都能正常调用win的ollama
但docker里的open-webui就是无法调用 我把win的ollama 反代映射到外网 ollama.darklotus.cn 都能正常访问调用
但局域网内就是失败 该排查的问题点几乎全排查了 原因未知 但既然是以macmini来跑大模型 似乎也用不到win
而我跑ai的显卡在win服务器上 我之前在linux上的docker直接调用win的ollama都是正常没问题的
考虑到ollama反代出去设置成域名就能被openwebui调用 所以也无需担心什么了
openwebui可以部署在云服务器上 ollama反代出去仅允许前端服务器的IP访问就好了
不然搞破坏的人 调用你的ollama白嫖大模型就算了 就怕他调用你的ollama接口把所有模型全部下载下来把你的硬盘填满 恶心死你

以下部署命令来自官方 两个命令都测试了 都出现上述问题 所以ollama在别的服务器 设为其他地址我寻思也没啥用啊
因为Ollama在本地的命令依旧可以调用反代到公网的ollama

注意事项

我的ollama就在mac的宿主机上哈 默认地址是

http://127.0.0.1:11434

用下面命令创建的docker就不要去改动什么了 默认ollama接口地址是

http://host.docker.internal:11434

Ollama在本地命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v /Users/lian/Docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Ollama在别的服务器

记得把命令里的URL改成你的

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v /Users/lian/Docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
最后修改:2024 年 12 月 06 日
如果觉得我的文章对你有用,请随意赞赏