什么是LM Studio

本地运行大模型的工具,LM Studio和Ollma是最受欢迎的两款。

LM Studio支持专门为M系列芯片适配过的模型文件,对于有Mac M系列芯片的同学来说,使用LM Studio来运行本地大模型,是比较推荐的方式。

一、LM Studio安装

1.1 下载及安装

进入LM Studio官网(https://lmstudio.ai/),下载对应的版本并安装

1.2 进入LM Studio

打开LM Studio,软件会提示你安装你的第一个LLM大模型。

点击【Get your first LLM】,将默认下载Google-Gemma-3-12B,等待下载完成,即可加载该LLM模型,开始使用。

二、安装你的第一个LLM大模型

2.1 查找LLM大模型

进入【发现】页面,会展示当前LM Studio已支持的LLM大模型,并有相关的模型简介和模型规格等信息介绍,覆盖市面上主流的LLM大模型。

这里以「DeepSeek-R1-0528-Qwen3-8B 」模型为例,进入【发现】页,可以看到,显示的第一个LLM大模型就是「DeepSeek-R1-0528-Qwen3-8B 」。当然,你也可以搜索你想要的模型关键词,找到对应的模型。

2.2 下载LLM大模型

找到你想安装的LLM大模型,点击右下角的【Download】按钮,即可启动LLM大模型文件的下载。

LM Studio会弹出下载弹窗,显示当前下载中的大模型大小,下载进度以及预估的剩余时间。

同时,你已经下载完成的LLM大模型文件,也会在这里展示出来。

耐心等待,模型下载结束后,点击「Load Model」加载模型,就可以运行并使用你的第一个本地LLM模型。

三、开始与本地LLM大模型的对话

3.1 加载LLM大模型

进入【对话】页面,会显示Chatbox页面,用来与LLM大模型进行交互式对话。

点击页面上方的「模型选择器」,会展示出当前你本地已下载好的LLM模型文件,同时支持按模型最近发布时间/模型大小/下载时间等维度进行排序,方便查找想要的模型。

从「模型选择器」展示出的模型列表中,选择你想要使用的「LLM模型」,点击并开始加载模型

「模型选择器」会展示该LLM模型的加载进度,稍等片刻,模型加载完成,即可开始与LLM大模型进行对话。

3.2 输入你的第一个问题

选择并加载好LLM模型后,在LM Studio窗口下方的「模型对话框」,输入你想问模型的问题

这里以「分析当前LLM大模型的市场规模与竞争格局」为例,看看LLM大模型会怎么回答

3.3 大模型思考并回答你的问题

模型接收到问题后,开始分析与思考你的问题,并给出相应的回答

点击「Thoughts」,可以查看模型的思考过程,即思维链,这是DeepSeek-R1模型的强项。

等待LLM大模型思考并回答完毕,查看回答是否符合预期即可。当然,你也可以继续提问。

至此,你的第一个本地LLM大模型就成功运行起来了(给自己鼓个掌👏)

如果对LLM大模型回答的结果不够满意,可以点击「重试」,或者补充更多的信息,这样LLM模型的答案会更准确。

结语

本文简要介绍如何使用LM Studio快速下载并使用本地LLM大模型,并完成与本地LLM模型对话

LM Studio支持市面上主流的LLM大模型,帮助你快速开启本地AI之旅,快去试试吧

接下来,将继续更新AI和LLM相关内容,敬请期待,Respect!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐