第六十九回 没羽箭飞石打英雄 宋公明弃粮擒壮士-三种方法免费运行DeepSeek大模型
宋江打了东平府,才得知卢俊义打东昌府输了两阵,郝思文输给了没羽箭张清,项充被丁得孙的标叉射中。于是宋江带着兵马直奔东昌府。张清再次搦战,宋江派出徐宁、燕顺、韩滔、宣赞,都被张清的石子打败,呼延灼见到石子飞来,用鞭来隔挡,结果被打中手腕。刘唐挺身而战,一朴刀砍去,砍着张清战马,那马后蹄直踢,刘唐面门上扫着马尾,双眼生花,被一石子打倒在地然后被抓。杨志对战张清,第一个石子从肋窝里飞过去,第二个石子打到
宋江打了东平府,才得知卢俊义打东昌府输了两阵,郝思文输给了没羽箭张清,项充被丁得孙的标叉射中。于是宋江带着兵马直奔东昌府。
张清再次搦战,宋江派出徐宁、燕顺、韩滔、宣赞,都被张清的石子打败,呼延灼见到石子飞来,用鞭来隔挡,结果被打中手腕。
刘唐挺身而战,一朴刀砍去,砍着张清战马,那马后蹄直踢,刘唐面门上扫着马尾,双眼生花,被一石子打倒在地然后被抓。
杨志对战张清,第一个石子从肋窝里飞过去,第二个石子打到头盔上,杨志胆丧心寒,赶快退出。
雷横和朱仝一起上,结果一起被石子打中,关胜来救,张清一石子打来,关胜把刀一隔,正中刀口,迸出火光,关胜无心恋战,勒马便回。
双枪将董平出战,两个石子都躲过去了,两个人近战,结果枪连胳膊搅在一块儿。索超来救,对面龚旺、丁得孙来截,后来林冲、花荣、吕方、郭盛四个人又来救董平、索超。
最终,梁山拿下了“花项虎”龚旺“中箭虎”丁得孙两员大将,他俩被送上梁山泊。张清前后打了梁山泊15员大将,抓住了刘唐,回到州衙后太守把盏相贺。
收兵后宋江与卢俊义、吴用说:“我闻五代时,大梁王彦章,日不移影,连打唐将三十六员。今日张清无一时,连打我一十五员大将,真是不在此人之下,也当是个猛将。”

梁山好汉基本上快聚齐了,人工智能领域的DeepSeek大模型也补齐了AI世界的最后一块拼图!
三种方法免费运行DeepSeek大模型
使用Ollama 在Ubuntu运行deepseek大模型
安装ollama
sudo snap install ollama运行deepseek-r1
ollama run deepseek-r1:1.5b飞桨PaddleNLP套件中使用DeepSeek r1大模型
安装飞桨PaddleNLP
首先安装最新的PaddleNLP3.0版本:
pip install paddlenlp==3.0.0b3
下载PaddleNLP源代码
跟其它大模型部署不一样,PaddleNLP主要是用来训练、微调的,推理只是它的几个功能之一,所以并没有像专业的推理那样装上二进制就能用。换句话说,PaddleNLP推理需要PaddleNLP的源代码,下载源代码:git clone https://github.com/PaddlePaddle/PaddleNLP
运行大模型
运行大模型之前,需要到PaddleNLP目录下,这样才能调用llm的库。或者可以用sys导入PaddleNLP所在的目录,在我们这个项目中,目录是:'/home/aistudio/PaddleNLP'import sys sys.path.insert(0, '/home/aistudio/PaddleNLP')推理
import paddle from llm.predict.predictor import PredictorArgument, ModelArgument, create_predictor from paddlenlp.utils import is_paddlenlp_ops_available predictor_args = PredictorArgument( model_name_or_path="deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", src_length=1024, min_length=32, max_length=512, top_k=0, top_p=0.7, temperature=0.95, repetition_penalty=1.0, dtype="float16", inference_model= True if is_paddlenlp_ops_available() else False, ) paddle.set_default_dtype(predictor_args.dtype) predictor = create_predictor(predictor_args, ModelArgument()) input_text = "请介绍一下deepseek r1大模型的特点" print(predictor.predict(input_text))输出:
['<think>\n好的,我现在要介绍一下DeepSeek-R1的大模型特点。首先,我需要了解DeepSeek-R1是什么,它属于哪个领域,比如聊天机器人还是文本处理。然后,我要查找它在技术上的优势,比如模型架构、计算能力、推理速度等。此外,可能还要提到它的用户群体和应用场景,比如医疗、教育、商业等领域的具体案例。最后,总结一下它的优势,让用户全面了解它。\n\n首先,DeepSeek-R1应该是一个专业的AI聊天机器人,可能用于医疗、教育、商业等领域。它的主要特点可能包括高精度、实时响应、长对话能力以及高效计算能力。模型架构可能有先进的语言模型,支持多种对话风格。推理速度也很重要,可能有支持多任务处理,适用于多种场景。此外,它可能有强大的数据支持,可以学习和理解用户需求。最后,它可能在多个领域都有广泛应用,比如医疗AI、教育科技等。\n\n在技术方面,DeepSeek-R1可能采用了先进的模型架构,比如Transformer,用于处理长文本。它可能具备强大的计算能力,支持并行处理和异构计算,处理大规模数据集。推理速度可能非常快,可能支持实时或高频率的推理。此外,它可能集成多种智能工具,提升用户体验,如AI生成、实时分析等。\n\n在应用场景方面,DeepSeek-R1可能在医疗领域提供精准的诊断建议,教育领域帮助学生学习,商业领域优化决策。同时,它可能支持多语言处理,适应不同用户群体的需求。另外,深度学习模型可能在处理复杂和多样化数据时表现优异,适合实时数据分析和预测。\n\n总结一下,DeepSeek-R1的特点包括专业性、高效、实时响应、长对话、强大的计算能力、多种应用场景和强大的数据支持。这些特点使其在多个领域都有广泛应用,提升用户体验和效率。\n</think>\n\nDeepSeek-R1 是一个专注于大语言模型(LLM)的智能机器人,主要用于多个领域如医疗、教育、商业等。它具备以下主要特点:\n\n1. **专业性和实时性**:\n - 专注于专业领域,如医疗和教育,提供精准的诊断和建议,实时响应用户需求。\n\n2. **高效的大语言模型**:\n - 基于先进的Transformer架构,处理复杂和多样化数据,提供高质量的文本生成和分析。\n\n3. **强大的计算能力和推理速度**:\n - 具备并行计算能力,支持高效的推理']在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型
首先进入星河社区的模型部署页面:飞桨AI Studio星河社区-人工智能学习与实训社区
点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,
稍等一会儿,就部署成功了!
点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。
部署模型的api调用代码:
# pip install openai from openai import OpenAI client = OpenAI( api_key="apikey,AIStudio会自动加上自己的key", base_url="https://api-b4v8damcv97cu8dc.aistudio-app.com/v1" ) completion = client.chat.completions.create( model="deepseek-r1:70b", temperature=0.6, messages=[ {"role": "user", "content": "你好,请介绍一下你自己"} ], stream=True ) for chunk in completion: if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content: print(chunk.choices[0].delta.reasoning_content, end="", flush=True) else: print(chunk.choices[0].delta.content, end="", flush=True)
欲知后事如何,且听下回分解。
更多推荐


所有评论(0)