需要确认在你的电脑中执行 ollama run 模型名 拉取的模型是不是速度是慢->快->慢 这么个过程 如果是就用下面的方法,保存成一个shell脚本执行即可

#!/bin/bash

# 提示用户输入模型名称
read -p "请输入模型名称(例如:deepseek-r1:70b): " MODEL_NAME

while true; do
    # 使用用户输入的模型名称运行命令
    ollama run "$MODEL_NAME" &
    CMD_PID=$!
    echo "启动的进程 ID: $CMD_PID"
    echo "等待 60 秒..."
    sleep 60
    echo "正在终止进程 $CMD_PID"
    kill -9 $CMD_PID
    wait $CMD_PID 2>/dev/null
done

修改说明:

  1. read 命令:通过 read 命令提示用户输入模型名称,并将其存储在变量 MODEL_NAME 中。
  2. 参数传递:将用户输入的 MODEL_NAME 传递给 ollama run 命令。
  3. 其他逻辑保持不变:脚本仍然每 60 秒运行一次,并终止上一次运行的进程。
    使用方法:
  4. 将脚本保存为文件,例如 run_ollama.sh
  5. 给脚本赋予可执行权限:
    chmod +x run_ollama.sh
    运行脚本:
    ./run_ollama.sh
    按提示输入模型名称,例如 deepseek-r1:70b
    这样,脚本会根据用户输入的模型名称动态运行。
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐