deepseek大模型(深度求索)怎么使用标准的OpenAI API格式来访问?

智增增api6个月前更新 zhizengzeng
730 0
(日前,深度求索开源第二代MoE大模型DeepSeek-V2,顶着“价格屠夫”的称号一炮而红——性能比肩GPT-4、价格仅有GPT-4的近百分之一。)
这次是看怎么来用python语言来编写调用深度求索的deepseek大模型的示例。
不过我们这里使用的是OpenAI的python包,用标准的OpenAI API的格式来访问。
.
智增增的大模型API接口,就可以实现,通过标准的 OpenAI API 格式访问绝大部分的大模型,包括:支持百度文心一言、阿里、讯飞、清华ChatGLM、 百川、GPT3.5、GPT4、Embedding、Whisper、Fine-tuning、assistant、google gemini、claude等
.
(当然其它模型也是类似的,具体的模型列表可以参考这里: http://doc.zhizengzeng.com/doc-3979947
.
废话不多说,直接上代码:
  • 第2步:编写代码。注意配置的base_url是:https://flag.smarttrot.com/v1

    deepseek大模型(深度求索)怎么使用标准的OpenAI API格式来访问?

  • 然后直接上代码

import os
from openai import OpenAI
import requests
import time
import json
import time

API_SECRET_KEY = “xxxxxx”;
BASE_URL = “https://flag.smarttrot.com/v1/”

# chat with other model
def chat_completions4(query):
client = OpenAI(api_key=API_SECRET_KEY, base_url=BASE_URL)
resp = client.chat.completions.create(
model=”deepseek-chat“,
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: query}
]
)
print(resp)
print(resp.choices[0].message.content)

if __name__ == ‘__main__’:
chat_completions4(“你是哪个公司开发的什么模型?”);

最后就能看到返回结果了

ChatCompletion(id=’92aa7caf-1012-4e71-95e2-a6dd3549d75c’, choices=[Choice(finish_reason=’stop’, index=0, logprobs=None, message=ChatCompletionMessage(content=’ 我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek Chat。基于人工智能技术,我旨在通过自然语言处理和机器学习算法来提供信息查询、对话交流和辅助决策等服务。’, role=’assistant’, function_call=None, tool_calls=None))], created=1715561059, model=’deepseek-chat’, object=’chat.completion’, system_fingerprint=None, usage=CompletionUsage(completion_tokens=45, prompt_tokens=15, total_tokens=60), code=0, msg=’ok’)
我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek Chat。基于人工智能技术,我旨在通过自然语言处理和机器学习算法来提供信息查询、对话交流和辅助决策等服务。

 

© 版权声明

相关文章

暂无评论

暂无评论...