如果你觉得里面提供的模型偏少,想使用Llama 3.1这样的国际先进模型,这时要用OpenAI-API-compatible的方式加入这些模型,首先你需要选择添加大语言模型还是Embedding模型,模型名称可以从SiliconCloud的模型页面拷贝,然后填入从SiliconCloud上生成的API Key。需要注意,Endpoint URL填入的是https://api.siliconflow.cn/v1。然后根据平台所支持的相应模型上下文长度进行填写,最大Token上限指的是输出Token上限,一般是默认的4096,你也可以根据模型具体情况进行填写。目前SiliconCloud还不支持Function calling、Stream function calling,但相信未来会支持。其中的vision支持就根据你所要添加的模型是否支持进行选择。我们来看一下实际填写Llama3.1-8B的例子,不过不是所有平台的都填写一样的内容,你可以根据实际情况填写。在Dify上,向量化模型的填写就比较简单。填写你的Endpoint URL以及你的Key与上下文,基本上就可以使用。注意,模型名称和上下文长度一定得按照SiliconCloud模型页面的内容填写。如果我们要验证一下在Dify是否成功接入了SiliconCloud的API。关闭配置页面之后,你可以从应用模板创建一个应用,比如文章翻译助理,创建好之后,如果在右上角选择模型的地方看到硅基流动的八个模型,同时还会看到有OpenAI API Compatible的模型Llama3.1-8B。SiliconCloud提供的这些模型有一个非常好的优点,文本生成、向量模型都与OpenAI的接口兼容,这为我们提供了把这些模型直接接入到一些应用平台的非常好的基础。