使用ollama部署开源大模型
Docker部署ollama
用多种部署方式
Linux部署
| 1
 | curl -fsSL https://ollama.com/install.sh | sh
 | 
如果使用Docker部署,可以查看https://hub.docker.com/r/ollama/ollama
| 12
 
 | docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
 
 | 
使用GPU运行时
需要安装nvidia-container-toolkit
| 12
 3
 4
 5
 6
 
 | apt-get install -y nvidia-container-toolkitsudo nvidia-ctk runtime configure --runtime=docker
 sudo systemctl restart docker
 
 # 使用GPU
 docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
 
 | 
运行模型
| 1
 | docker exec -it ollama ollama run llama2
 | 
运行成功后,就可以使用命令行或者API调用
例如直接使用命令行对话
命令行
直接对话
API调用
| 12
 3
 4
 
 | curl -X POST http://localhost:11434/api/generate -d '{"model": "llama3",
 "prompt":"Why is the sky blue?"
 }'
 
 | 
会有不断的响应
| 12
 3
 4
 5
 6
 
 | {"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:03.805379096Z","response":" do","done":false}{"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:05.535767763Z","response":" things","done":false}
 {"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:06.641917458Z","response":" like","done":false}
 {"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:06.983027208Z","response":" going","done":false}
 {"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:07.308691542Z","response":" to","done":false}
 {"model":"llama2:7b-text-q2_K","created_at":"2024-04-28T08:18:08.367600292Z","response":" work","done":false}
 
 | 
最终"done":true表示结束
多个模型
还有更多的模型,可以查看https://ollama.com/library
安装Web UI
安装Web界面,更方便使用
参考文章 https://docs.openwebui.com/
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 
 | #!/bin/bashNAME=open-webui
 HOME=$(pwd)
 
 docker stop $NAME
 docker rm $NAME
 docker run --name $NAME --restart=always \
 -p 3008:8080 \
 -e OLLAMA_BASE_URL=http://ollama:11434 \
 -d ghcr.io/open-webui/open-webui:main
 #-v $HOME/data:/app/backend/data \
 #--gpus all \
 
 | 
可以支持多种模型
安装另外一个Web UI
也安装另外一个Web界面
| 1
 | docker run -p 3000:3000 ghcr.io/ivanfioravanti/chatbot-ollama:main
 | 

安装成功后,通过浏览器访问http://localhost:3000/, 会提示选择模型,然后就能正常使用了。
参考文章
https://docs.openwebui.com/