Ollama 使用笔记
一、安装 Ollama
从官网下载安装 Ollama。
查看版本号:
ollama --version
二、在 shell 中安装和运行模型
在 Models 中选择一个你想部署的模型,复制安装命令,并在终端中执行。
官方建议:应该至少有 8 GB 的 RAM 来运行 7b 版本,16 GB 的 RAM 来运行 13b 版本,32 GB 的 RAM 来运行 33b 版本。
本文以 deepseek-r1:7b 为例。
下载模型
ollama pull deepseek-r1:7b
Tip: 下载即将完成时速度可能会变得非常慢,只要按 Ctrl+C,再重新执行一次命令,就会继续正常下载。
显示模型信息
ollama show deepseek-r1:7b
运行模型(一次性响应)
ollama run deepseek-r1:7b "写一首诗"
运行模型(进入聊天模式)
ollama run deepseek-r1:7b
结束当前会话
/bye
列出所有模型
ollama list
列出当前加载的模型
ollama ps
停止当前正在运行的模型
ollama stop deepseek-r1:7b
三、使用 REST API 调用模型
/api/generate 接口:生成一次性响应
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt":"为什么天空是蓝色的?"
}'
/api/chat 接口:与模型聊天
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1:7b",
"messages": [
{ "role": "user", "content": "你好呀!" }
]
}'
可能相关的内容