问答社区
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI完全离线操作。
打开 WebUI(以前的 Ollama WebUI)👋
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。有关更多信息,请务必查看我们的Open WebUI 文档。
开放式 WebUI 的主要特点 ⭐
-
🚀轻松设置
:ollama
:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,并支持标记图像,获得无忧体验:cuda
。 -
🤝 Ollama/OpenAI API 集成:轻松集成 OpenAI 兼容的 API,以便与 Ollama 模型进行多功能对话。自定义 OpenAI API URL 以链接到LMStudio、GroqCloud、Mistral、OpenRouter 等。
-
🧩管道、开放 WebUI 插件支持:使用管道插件框架将自定义逻辑和 Python 库无缝集成到开放 WebUI 中。启动您的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,并探索无限的可能性。示例包括函数调用、控制访问的用户速率限制、使用 Langfuse 等工具进行使用情况监控、使用 LibreTranslate进行多语言支持的实时翻译、有毒消息过滤等等。
-
📱响应式设计:享受跨台式电脑、笔记本电脑和移动设备的无缝体验。
-
📱移动渐进式 Web 应用程序 (PWA):使用我们的 PWA 在移动设备上享受类似本机应用程序的体验,提供本地主机离线访问和无缝用户界面。
-
✒️🔢完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能来丰富交互,提升您的 LLM 体验。
-
🎤📹免提语音/视频通话:通过集成的免提语音和视频通话功能体验无缝通信,从而实现更加动态和互动的聊天环境。
-
🛠️模型生成器:通过 Web UI 轻松创建 Ollama 模型。通过开放 WebUI 社区集成轻松创建和添加自定义角色/代理、自定义聊天元素以及导入模型。
-
🐍原生 Python 函数调用工具:通过工具工作区中的内置代码编辑器支持增强您的 LLM。只需添加纯 Python 函数即可自带函数 (BYOF),从而实现与法学硕士的无缝集成。
-
📚本地 RAG 集成:通过突破性的检索增强生成 (RAG) 支持深入探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,
#
在查询之前使用命令轻松访问它们。 -
🔍 RAG 的网络搜索
SearXNG
:使用、Google PSE
、Brave Search
、serpstack
、serper
、Serply
、DuckDuckGo
和TavilySearch
等提供商执行网络搜索SearchApi
,并将结果直接注入您的聊天体验中。 -
🌐网页浏览功能
#
:使用后跟 URL 的命令将网站无缝集成到您的聊天体验中。此功能允许您将网络内容直接合并到您的对话中,从而增强交互的丰富性和深度。 -
🎨图像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项无缝集成图像生成功能,通过动态视觉内容丰富您的聊天体验。
-
⚙️多个模特对话:轻松地同时与多个模特互动,利用他们的独特优势来获得最佳响应。通过并行利用一组不同的模型来增强您的体验。
-
🔐基于角色的访问控制(RBAC):通过受限的权限确保安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留专有的模型创建/拉取权限。
-
🌐🌍多语言支持:借助我们的国际化 (i18n) 支持,以您喜欢的语言体验开放式 WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!
-
🌟持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想要了解更多有关 Open WebUI 的功能吗?查看我们的Open WebUI 文档以获取全面的概述!
🔗 另请查看 Open WebUI 社区!
不要忘记探索我们的兄弟项目Open WebUI Community,您可以在其中发现、下载和探索定制的模型文件。 Open WebUI 社区提供了各种令人兴奋的可能性,可增强您与 Open WebUI 的聊天交互! 🚀
如何安装🚀
通过 Python pip 安装🐍
可以使用 Python 包安装程序 pip 来安装 Open WebUI。在继续之前,请确保您使用的是Python 3.11以避免兼容性问题。
-
安装 Open WebUI:打开终端并运行以下命令来安装 Open WebUI:
pip install open-webui
-
运行 Open WebUI:安装后,您可以通过执行以下命令启动 Open WebUI:
open-webui serve
这将启动 Open WebUI 服务器,您可以通过http://localhost:8080访问该服务器
快速开始使用 Docker 🐳-笔记:
请注意,对于某些 Docker 环境,可能需要额外的配置。如果您遇到任何连接问题,我们有关Open WebUI 文档的详细指南随时可以为您提供帮助。
警告
使用 Docker 安装 Open WebUI 时,请确保-v open-webui:/app/backend/data
在 Docker 命令中包含 。此步骤至关重要,因为它可确保正确安装数据库并防止任何数据丢失。
提示
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议使用带有:cuda
或标签的官方图像:ollama
。要启用 CUDA,您必须在 Linux/WSL 系统上安装Nvidia CUDA 容器工具包。
使用默认配置安装
-
如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
如果 Ollama 位于不同的服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将 更改
OLLAMA_BASE_URL
为服务器的 URL:docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
仅用于 OpenAI API 使用的安装
-
如果您仅使用 OpenAI API,请使用以下命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装带有捆绑 Ollama 支持的 Open WebUI
此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化安装。根据您的硬件设置选择适当的命令:
-
使用 GPU 支持:通过运行以下命令来利用 GPU 资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
-
仅适用于 CPU:如果您不使用 GPU,请改用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个命令都有助于 Open WebUI 和 Ollama 的内置、无障碍安装,确保您可以快速启动并运行一切。
安装完成后,您可以通过http://localhost:3000访问 Open WebUI 。享受! 😄
其他安装方法
我们提供各种安装替代方案,包括非 Docker 本机安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的Open WebUI 文档或加入我们的Discord 社区以获得全面的指导。
故障排除
遇到连接问题?我们的Open WebUI 文档已为您提供帮助。如需进一步帮助并加入我们充满活力的社区,请访问Open WebUI Discord。
打开WebUI:服务器连接错误
如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。使用--network=host
docker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:http://localhost:8080
。
Docker 命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
保持 Docker 安装最新
如果您想将本地 Docker 安装更新到最新版本,可以使用Watchtower来完成:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
In the last part of the command, replace open-webui
with your container name if it is different.
Check our Migration Guide available in our Open WebUI Documentation.
Using the Dev Branch 🌙
Warning
The :dev
branch contains the latest unstable features and changes. Use it at your own risk as it may have bugs or incomplete features.
If you want to try out the latest bleeding-edge features and are okay with occasional instability, you can use the :dev
tag like this:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
What's Next? 🌟
Discover upcoming features on our roadmap in the Open WebUI Documentation.
Supporters ✨
A big shoutout to our amazing supporters who's helping to make this project possible! 🙏
Platinum Sponsors 🤍
- We're looking for Sponsors!
Acknowledgments
特别感谢Lawrence Kim 教授和Nick Vincent 教授在将该项目发展成为一项研究工作时提供的宝贵支持和指导。感谢您一路以来的指导!