云搜索服务 CSS-基于Dify集成CSS与DeepSeek构建智能问答助手:步骤三:Dify接入Embedding和DeepSeek
步骤三:Dify接入Embedding和DeepSeek
Dify作为一个开源的大语言模型(LLM)应用开发平台,通过配置和调用搜索大模型和DeepSeek模型服务的API,来实现功能集成和扩展。
- 在Dify平台接入搜索大模型,包含Embedding模型和Rerank模型。
- 单击Dify平台右上角的头像,选择“设置”中的“模型供应商”。
- 在模型供应商页面中选择“OpenAI-API-compatible”,单击“添加模型”配置Embedding和Rerank模型。配置说明参见表1。
表1 添加搜索大模型 参数名称
Embedding参数值
Rerank参数值
模型类型
选择“Text Embedding”。
选择“Rerank”。
模型名称
填写“query2doc”或“query2query”。
在FAQ短文本召回场景中,当query召回相似query时,doc不参与检索,建议使用query2query模型,其他场景选择query2doc模型。
填写“rerank”。
API endpoint URL
填写“http://{搜索大模型的内网访问地址}/v1”,搜索大模型的内网访问地址即为2获取的IP地址和端口号。例如获取到的内网地址为“xx.xx.xx.xx:xxxx”,则此处填写“http://xx.xx.xx.xx:xxxx/v1”。
模型上下文长度
填写“512”。Embedding搜索大模型只支持512。
“OpenAI-API-compatible”模板会对Rerank分数做归一化,这个并不影响最终结果排序,但是如果需要使用分值过滤,则建议使用“Xorbits Inference”模板配置Rerank模型,配置说明参见表2。
- 在模型列表可以查看接入的模型。
图6 查看接入的模型
- 在Dify平台接入DeepSeek模型服务。
- 单击Dify平台右上角的头像,选择“设置”中的“模型供应商”。
- 在模型供应商页面中选择“OpenAI-API-compatible”,单击“添加模型”配置DeepSeek信息。配置说明参见表3。
- 在模型列表可以查看接入的模型。
图7 查看接入的DeepSeek