简单部署私域大模型

构建家庭智能助手。

Windows 安装 Ollama

首次运行ollama run llama3.1,会联网加载模型。可以选择的模型有:

Model Parameters Size Download
Llama 3.1 8B 4.7GB ollama run llama3.1
Llama 3.1 70B 40GB ollama run llama3.1:70b
Llama 3.1 405B 231GB ollama run llama3.1:405b
Phi 3 Mini 3.8B 2.3GB ollama run phi3
Phi 3 Medium 14B 7.9GB ollama run phi3:medium
Gemma 2 2B 1.6GB ollama run gemma2:2b
Gemma 2 9B 5.5GB ollama run gemma2
Gemma 2 27B 16GB ollama run gemma2:27b
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Solar 10.7B 6.1GB ollama run solar

WebUI

  • Windows 下安装 ollama,并至少导入一个模型配置
  • Web UI github
  • Windows 下安装 Docker Desktop,更新到最新版

如何进入powershell:

  • win+R,进入“运行”,输入powershell
  • 或者右键左下角win图标,选择终端
1
2
3
4
5
6
7
# 进入 Powershell
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

# 镜像地址
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:cuda

docker start open-webui

https://docker.aityp.com/image/ghcr.io/open-webui/open-webui:main
Docker 启动 log

打开:localhost,可以切换选择模型,可以作为日常知识的获取途径。

WSL + Docker + Ollama + WebUI

手机连接

  • 保证手机和电脑连在同一个局域网下
  • 在powershell中运行ipconfig,查看IP地址,一般为192开头
  • 假设IP为 192.168.1.1,在手机浏览器中输入 192.168.1.1:3000
  • Iphone手机可以将此网页保存到桌面