外观
Ollama使用
约 216 字小于 1 分钟
2024-11-07
安装
https://ollama.com/download
下载使用模型
ollama run deepseek-r1
显存使用
显存用量 = 参数数量*每参字节数
修改局域网访问
/etc/systemd/system/ollama.service
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0:11434" # 监听所有网络接口
Environment="OLLAMA_ORIGINS=*" # 允许所有来源的HTTP请求# 重启生效
sudo systemctl daemon-reload
sudo systemctl restart ollama.service结合WebUI使用
docker安装,lobechat sudo docker run -d -p 13210:3210 -e ACCESS_CODE=abaaba --name lobe-chat lobehub/lobe-chat
配置给沉浸翻译使用
- 在沉浸式翻译插件的设置中,选择“自定义API Key”,并将APIKEY设置为
ollama。 - 在模型选项中,选择你已经下载并希望使用的大模型
qwen2.5:7b。 - 在“自定义API接口地址”中,填写Ollama服务的地址
http://127.0.0.1:11434/v1/chat/completions - 设置用户环境变量,开启跨域
- 新增
OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=#重启生效
- 新增
