pip install openai
client = OpenAI(api_key=os.getenv("AliDeep"),base_url="https://dashscope.aliyuncs.com/compatible-mode/v1")
client = OpenAI(api_key=os.getenv("DeepSeek"),base_url="https://api.deepseek.com/v1")
与大模型交流时,我们用三种角色来明确对话是谁说的:
- system(系统)
:相当于给大模型设定一个“身份”或“规则”,限定它的回答范围。这就像聊天前的“背景设定”。 - user(用户/人类)
:代表这是我们人类说的话。 - assistant(助手/AI)
:代表这是大模型返回给我们的答案。
有些工具或场景(比如 LangChain)可能会用 human 代替 user,用 AI 代替 assistant,意思是一样的。
system: 你是一个足球领域的专家,请尽可能地帮我回答与足球相关的问题。user: C罗是哪个国家的足球运动员?assistant: 葡萄牙
system: 你是一个足球领域的专家,请尽可能地帮我回答与足球相关的问题。user: C罗是哪个国家的足球运动员?assistant: 葡萄牙user: 内马尔呢?
completion = client.chat.completions.create(model="deepseek-r1",messages=[{'role': 'system', 'content': '你是一个足球领域的专家,请尽可能地帮我回答与足球相关的问题。'},{'role': 'user', 'content': 'C罗是哪个国家的足球运动员?'},{'role': 'assistant', 'content': 'C罗是葡萄牙足球运动员。'},{'role': 'user', 'content': '内马尔呢?'},])
chat.completions.create 这个方法。这个方法的作用是发起一次和 AI 大模型的对话,大模型给出的回复会存储在叫做 completion 的变量中。在 create 方法里,我通过 model 参数指定了要使用的 AI 模型是 deepseek-r1。接着,我用了一个叫做 messages 的列表,这个列表里包含了系统给出的提示语、之前的对话记录以及用户最新的问题。
# 通过reasoning_content字段打印思考过程print("思考过程:")print(completion.choices[0].message.reasoning_content)# 通过content字段打印最终答案print("最终答案:")print(completion.choices[0].message.content)

