常見問題
問題1:可以不使用 Ollama 嗎?
答案:可以
配置步驟
1. 修改預設模型為智譜AI,關閉 Ollama 服務
# 在 docker-compose.yml 中關閉 Ollama 服務
# 修改預設模型為智譜AI
SPRING_AI_MODEL_CHAT: zhipuai
SPRING_AI_MODEL_EMBEDDING: zhipuai
# 關閉 Ollama 服務
SPRING_AI_OLLAMA_CHAT_ENABLED: false
SPRING_AI_OLLAMA_EMBEDDING_ENABLED: false
或在源碼配置檔案中:
# 修改預設模型為智譜AI
spring.ai.model.chat=zhipuai
spring.ai.model.embedding=zhipuai
# 關閉 Ollama 服務
spring.ai.ollama.chat.enabled=false
spring.ai.ollama.embedding.enabled=false
2. 啟用智譜AI服務
重要提示
必須填寫真實的智譜AI API Key,否則無法正常啟動。使用 glm-4-flash 模型免費,不會產生費用。
取得API Key:智譜AI控制台
# 在 docker-compose.yml 中配置
SPRING_AI_ZHIPUAI_API_KEY: 'sk-xxx'
SPRING_AI_ZHIPUAI_CHAT_ENABLED: true
SPRING_AI_ZHIPUAI_CHAT_OPTIONS_MODEL: glm-4-flash
SPRING_AI_ZHIPUAI_CHAT_OPTIONS_TEMPERATURE: 0.7
SPRING_AI_ZHIPUAI_EMBEDDING_ENABLED: true
或在源碼配置檔案中:
spring.ai.zhipuai.api-key=sk-xxx
spring.ai.zhipuai.chat.enabled=true
spring.ai.zhipuai.chat.options.model=glm-4-flash
spring.ai.zhipuai.chat.options.temperature=0.7
spring.ai.zhipuai.embedding.enabled=true