17370845950

OpenWebUI 部署 Ollama 可视化对话界面

本文介绍两种部署ollama webui的方法:使用node.js和使用docker。

一、Node.js部署

  1. 安装Node.js: 从官网下载并安装Node.js: https://www./link/c273a867d4f81ad1055432bd598e114e 安装完成后,建议设置npm镜像源,例如腾讯云镜像:npm config set registry http://mirrors.cloud.tencent.com/npm/

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

  1. 克隆仓库: 使用Git克隆Ollama WebUI Lite仓库:git clone https://www./link/5bd7ddf87f22025a5f5d682ce5f93ad6.git,然后进入仓库目录:cd ollama-webui-lite

  2. 安装依赖: 运行 npm ci 安装项目依赖。

  1. 运行: 执行 npm run dev 启动应用。

访问 http://localhost:3000/ 即可使用。

二、Docker部署 (Windows)

本节介绍在Windows系统下使用Docker部署Ollama WebUI。 请确保已安装Ollama并完成配置。

  1. 拉取镜像并运行: 在终端执行以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

运行成功后,终端会显示容器ID。 在Docker的容器列表中可以看到 open-webui 容器。

  1. 访问应用: 访问 http://localhost:3000/ 或Docker分配的端口。

  1. 注册并使用: 注册账号后,选择模型即可开始对话。

更多信息请参考: https://www./link/fe5e902f7f31e84ff8ad88c13b653f2a 和 https://www./link/5bd7ddf87f22025a5f5d682ce5f93ad6