AI Agent技术社区

AI Agent技术社区 litellm ollama python api 模式测试

litellm ollama python api 模式测试

一起简单说过itellm 支持多种模式的大模型运行,有proxy 模式(可以proxy 模型以及包含api服务的模型接口),也有直接通过python 代码进行访问的,以下是对于ollama 模型的一个简单运行试用python代码模式appv4.py此模式litellm 会自己进行登录后复制from litellm ...

一起简单说过itellm 支持多种模式的大模型运行,有proxy 模式(可以proxy 模型以及包含api服务的模型接口),也有直接通过python 代码进行访问的,以下是对于ollama 模型的一个简单运行试用

python代码模式

  • appv4.py
    此模式litellm 会自己进行
from litellm import completion
 
response = completion(
  model="ollama/qwen2:1.5b",
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)
 
print(response)
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.

 

response = completion(
  • 1.
  • 效果

litellm ollama python api 模式测试_github

实际api 调用( 通过wireshark 分析的)

litellm ollama python api 模式测试_python_02

说明

litellm ollama python 代码模型的运行也是通过基于ollama 提供的接口调用,只是对于model 格式上有一个比较明确的定义, ollama/qwen2:1.5b 其中ollama 是必须的,属于provider 名称,后边是实际模型的名称

参考资料

 https://docs.litellm.ai/docs/proxy/quick_start
 https://github.com/BerriAI/litellm

原创作者: rongfengliang 转载于: https://blog.51cto.com/rongfengliang/11663727
Logo

Agent 垂直技术社区,欢迎活跃、内容共建。

更多推荐

  • 浏览量 265
  • 收藏 0
  • 0

所有评论(0)

查看更多评论 
已为社区贡献2条内容