跳到主要内容

Ollama 本地大模型对接

前置条件

配置说明

Docker部署配置参数

# Ollama 服务配置
SPRING_AI_OLLAMA_BASE_URL: http://host.docker.internal:11434 # Ollama 服务地址
SPRING_AI_OLLAMA_CHAT_ENABLED: true # 启用 Ollama 对话功能

# 模型配置
SPRING_AI_OLLAMA_CHAT_OPTIONS_MODEL: qwen3:0.6b # 模型名称,如 qwen3:0.6b
SPRING_AI_OLLAMA_CHAT_OPTIONS_TEMPERATURE: 0.7 # 温度参数,控制输出的随机性,范围 0-1

# 文本嵌入配置
SPRING_AI_OLLAMA_EMBEDDING_ENABLED: true # 启用文本嵌入功能
SPRING_AI_OLLAMA_EMBEDDING_OPTIONS_MODEL: qwen3:0.6b # 文本嵌入使用的模型

源码部署配置参数

# Ollama 服务配置
spring.ai.ollama.base-url=http://127.0.0.1:11434 # Ollama 服务地址
spring.ai.ollama.chat.enabled=true # 启用 Ollama 对话功能

# 模型配置
spring.ai.ollama.chat.options.model=qwen3:0.6b # 模型名称,如 qwen3:0.6b
spring.ai.ollama.chat.options.temperature=0.7 # 温度参数,控制输出的随机性,范围 0-1

# 文本嵌入配置
spring.ai.ollama.embedding.enabled=true # 启用文本嵌入功能
spring.ai.ollama.embedding.options.model=qwen3:0.6b # 文本嵌入使用的模型

配置步骤

1. 安装 Ollama

  1. 访问 Ollama 官网:https://ollama.ai/download
  2. 下载并安装适合你操作系统的版本
  3. 启动 Ollama 服务

2. 下载模型

# 下载所需模型
ollama pull qwen3:0.6b

3. 修改配置文件

配置说明
  • 确保 Ollama 服务地址配置正确
  • 根据实际需求调整 temperature 参数
  • 如果不需要文本嵌入功能,可以将 SPRING_AI_OLLAMA_EMBEDDING_ENABLED 设置为 false

4. 管理后台配置

  1. 登录微语管理后台
  2. 进入 AI 模型配置页面
  3. 选择 Ollama 作为默认模型
  4. 保存配置

provider provider-choose

5. 获取聊天代码

  1. 在管理后台找到"获取聊天代码"选项
  2. 复制生成的代码
  3. 将代码集成到你的网站中

provider-code

效果展示

配置完成后,你可以在网站中看到如下效果:

provider-chat

常见问题

  1. Ollama 服务连接失败

    • 检查 Ollama 服务是否正常运行
    • 确认服务地址配置是否正确
    • 检查防火墙设置
  2. 模型加载失败

    • 确认模型是否已正确下载
    • 检查模型名称是否正确
    • 查看 Ollama 服务日志
  3. 对话响应慢

    • 检查服务器配置是否满足要求
    • 确认模型大小是否适合当前硬件
    • 可以适当调整 temperature 参数

相关资源

这页文档对您有帮助吗?