claudeCode 搞账号太难了。而且挺贵。

本地用docker 启动litellm 提供 llm 代理服务。

然后 calude 使用

ANTHROPIC_BASE_URL=http://localhost:4000

ANTHROPIC_MODEL=deepseek-reasoner

ANTHROPIC_SMALL_FAST_MODEL=deepseek-reasoner

就可以使用代理服务了。

随便玩一下都花了1.5元

下面是docker-compose.yml

# docker-compose.yml

version: '3.8'

services:

 litellm-api:

  image: ghcr.io/berriai/litellm:main-v1.72.6.post1-nightly

  container_name: litellm-api

  ports:

   - "4000:4000"

  environment:

   - LITELLM_CONFIG=/app/config/config.yaml

   - LOG_LEVEL=INFO

  volumes:

   - ./config:/app/config # 挂载本地配置

   - litellm-models:/app/models # 模型存储卷

  command: ["--config", "/app/config/config.yaml"] # 关键修改

  depends_on:

   - redis

  restart: unless-stopped

 redis:

  image: redis:7.0-alpine

  container_name: litellm-redis

  volumes:

   - litellm-redis:/data

  restart: unless-stopped

volumes:

 litellm-models:

 litellm-redis:

然后当前目录有config目录

下面配置下config.yml

cat config/config.yaml 

model_list:

 - model_name: deepseek-reasoner

  litellm_params:

   model: deepseek/deepseek-reasoner

   api_key: "这里是你的deepseek的api key"

   api_base: "https://api.deepseek.com/v1"

   timeout: 120

   max_tokens: 40960

  metadata:

   cost_per_1k_tokens: 5 # 成本监控

   max_concurrent_requests: 10

感觉还是贵。不行就用本地ollma吧。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐