litellm+deepseek+claudeCode
摘要:本文介绍了使用Docker部署LiteLLM代理服务来调用DeepSeek模型的方案。通过docker-compose配置LiteLLM和Redis服务,并在config.yaml中设置DeepSeek API参数,可实现本地代理访问。尽管此方案能绕开Claude账号限制,但测试发现成本较高(1.5元/次),作者建议可考虑改用本地Ollama方案以降低成本。配置包含端口映射、模型参数设置和成
claudeCode 搞账号太难了。而且挺贵。
本地用docker 启动litellm 提供 llm 代理服务。
然后 calude 使用
ANTHROPIC_BASE_URL=http://localhost:4000
ANTHROPIC_MODEL=deepseek-reasoner
ANTHROPIC_SMALL_FAST_MODEL=deepseek-reasoner
就可以使用代理服务了。

随便玩一下都花了1.5元

下面是docker-compose.yml
# docker-compose.yml
version: '3.8'
services:
litellm-api:
image: ghcr.io/berriai/litellm:main-v1.72.6.post1-nightly
container_name: litellm-api
ports:
- "4000:4000"
environment:
- LITELLM_CONFIG=/app/config/config.yaml
- LOG_LEVEL=INFO
volumes:
- ./config:/app/config # 挂载本地配置
- litellm-models:/app/models # 模型存储卷
command: ["--config", "/app/config/config.yaml"] # 关键修改
depends_on:
- redis
restart: unless-stopped
redis:
image: redis:7.0-alpine
container_name: litellm-redis
volumes:
- litellm-redis:/data
restart: unless-stopped
volumes:
litellm-models:
litellm-redis:
然后当前目录有config目录
下面配置下config.yml
cat config/config.yaml
model_list:
- model_name: deepseek-reasoner
litellm_params:
model: deepseek/deepseek-reasoner
api_key: "这里是你的deepseek的api key"
api_base: "https://api.deepseek.com/v1"
timeout: 120
max_tokens: 40960
metadata:
cost_per_1k_tokens: 5 # 成本监控
max_concurrent_requests: 10
感觉还是贵。不行就用本地ollma吧。
更多推荐


所有评论(0)