通过API方式,可以简单调用多个本地大模型,可以进行结果对比。后续可以联系多个大模型,通过协同工作完成相对复杂的任务。
当前比较简单的两种方式进行ollama API调用,使用openai的库,或者使用ollama自己的库。
1、使用OpenAI方式
pip install openai
示例
运行ollama后
from openai import OpenAI
client = OpenAI(
base_url ="<http://localhost:11434/v1>",
api_key='ollama',#api_key没用,应该是随便填
)
response = client.chat.completions.create(
model="gemma:7b",
messages=[
{"role": "system", "content": "你的我的问答助手"},
{"role": "user", "content": "海水里为什么有盐"},
]
)
print(response.choices[0].message.content)
2、使用ollama python
pip install ollama
一次性输出
response = ollama.chat(model='qwen:14b', messages=[
{
'role': 'user',
'content': '1990年发生了什么',
},
])
流式输出
response2 = ollama.chat(model='llama2-chinese:13b', messages=[
{"role": "system", "content": "你是我的文字助手,帮我整理材料,格式化文本"},
{ 'role': 'user', 'content': "帮我总结一篇文章"},
],
stream=True,
)
for c in response2:
print(c['message']['content'], end='',flush=True)