Skip to content

Ollama使用

约 216 字小于 1 分钟

2024-11-07

安装

https://ollama.com/download

下载使用模型

ollama run deepseek-r1

显存使用

显存用量 = 参数数量*每参字节数

修改局域网访问

/etc/systemd/system/ollama.service

[Service]
...
Environment="OLLAMA_HOST=0.0.0.0:11434"  # 监听所有网络接口
Environment="OLLAMA_ORIGINS=*"  # 允许所有来源的HTTP请求
# 重启生效
sudo systemctl daemon-reload
sudo systemctl restart ollama.service

结合WebUI使用

docker安装,lobechat sudo docker run -d -p 13210:3210 -e ACCESS_CODE=abaaba --name lobe-chat lobehub/lobe-chat

配置给沉浸翻译使用

  • 在沉浸式翻译插件的设置中,选择“自定义API Key”,并将APIKEY设置为ollama
  • 在模型选项中,选择你已经下载并希望使用的大模型 qwen2.5:7b
  • 在“自定义API接口地址”中,填写Ollama服务的地址http://127.0.0.1:11434/v1/chat/completions
  • 设置用户环境变量,开启跨域
    • 新增 OLLAMA_HOST=0.0.0.0
    • OLLAMA_ORIGINS=# 重启生效