本地 AI 大模型是什么?能干什么?是时候考虑部署一个Ollama AI模型了!
部署Ollama AI模型,看这一篇足够了,详细图文教程
什么是本地AI大模型?
简单来说,本地 AI 大模型就是把一个强大的人工智能"装进"你的电脑里。它不需要依赖云端服务器,所有的计算和处理都在你自己的机器上完成。就像你拥有了一个随时待命的"离线版 ChatGPT"。
就是我今天给大家推荐的Ollama!
Ollama的优势
安装 Ollama 的最大优势在于:你能在本地轻松随意切换不同AI模型,例如:谷歌的Gemma、OpenAI的GPT,阿里的Qwen、幻方的Deepseek等等很多厂家的AI模型你都可以拿过来用,有擅长语言处理的、有擅长数学推理的、还有擅长编程的,这些模型你很轻松的一点鼠标,就切换了,是不是很方便!
主要特点:
- 断网状态下也可以和AI轻松对话
- 数据保存在本地,保障隐私不外露
- 可玩性高,可以结合各种应用使用(如视频翻译插件)
配置要求
配置方面,cpu怎么也得8核起或i5以上,内存8gb以上吧真别在低了,玩ai主要看内存,硬盘怎么的也得留出来个20gb起吧,Ollama只能安装到C盘,一个模型动辄5gb、10gb的,装C盘确实有点难受,下面我会讲到如何更改路径装到别的盘。能有块3060以上的显卡那是最好不过,虽然Ollama是消费级设备就能运行,那咱也差不多点,如果低于这个配置,听劝就别折腾了,配置高点,流畅点,体验OK点。
Ollama支持Windows、MacOS、Linux,今天演示在Windows上的安装过程。
Windows要求: Windows 10 22H2 或更高版本、家庭版或专业版
下载安装
首先到官方下载Ollama软件,链接:Ollama官方下载链接,(软件目前1.12个gb,建议你用下载器,还在用浏览器下载的兄弟们推荐你们用全球大名鼎鼎的IDM下载器,下载稳定、速度快、快到10M以内你都看不到进度条,IDM下载器链接:官方IDM下载器+激活方法)
1、直接安装到C盘
想直接默认装C盘,请直接双击打开软件,按一下"Install",你就什么也不用管了。
2、自定义安装目录
不想安装到C盘的,看这里:
例如:你下载的OllamaSetup安装文件在D:\Downloads
你想装到E:\Ollama
步骤:
- 打开D:\Downloads(OllamaSetup安装文件所在目录),在空白处按住Shift键,点击鼠标右键,选择PowerShell
2、输入命令
.\OllamaSetup.exe /DIR="E:\Ollama"
按回车执行
3、弹出安装框,点击Install,进行安装
4、显示安装到指定目录。
配置设置
5、安装完成,先设置一下关键内容,点击左侧栏展开,选择Settings
6、设置大模型的下载地址,不建议安装在C盘,可以指定到目录,这里演示指定到E:\ai\
Ollama使用方式
Ollama提供两种使用方式:
- 云模型 适合体验非消费级电脑硬件的更大型AI模型,云模型需要在 ollama.com 上注册一个帐户登录后使用。
- 本地模型 适合个人消费级电脑,将模型下载到本地运行,如需使用联网功能,也是需要登录账户后使用。
下载模型
第一种方式:使用PowerShell命令行
用PowerShell命令行,输入以下命令:
ollama pull qwen3:8b
下载中,实时显示下载进度。
显示"success"则表示模型已经下载成功。
现在启动模型,输入命令:
ollama run qwen3:8b
显示>>>send a message表示模型启动成功,可以进行对话。
在PowerShell命令行中可以直接和模型进行对话(可以断网运行)。
在UI界面中选择qwen3:8b,可以和模型直接对话,点击联网按钮,会提示登录,登陆后可使用,用于让AI获取网上实时性的内容。
第二种方式:使用UI界面下载
在UI模型列表中选择带下载箭头图标的模型
这里演示gemma3:4b
随便输入对话,即可激活该模型的下载
模型下载完成,可以观察到模型列表的gemma3:4b下载图标已经消失了。
在PowerShell命令行中查询本地模型的概况
输入命令
ollama list
或者
ollama ls
以下图示中显示了本次演示中分别安装的两个模型。
删除模型
例如图示,想删掉"codellama:13b"这个模型
输入命令
ollama rm codellama:13b
显示deleted`codellama:13b`,说明这个模型已删除。
扩展阅读
常见问题
Q: PowerShell 下载模型时速度越来越慢了,怎么办?
A: 按 Ctrl+C 结束下载,然后重新输入命令执行,Ollama 支持断点续传。
Q: 在 PowerShell 执行命令时是否需要进入 Ollama 安装目录?
A: 不需要,Ollama 已设置好全局变量,在任何目录下都可以执行命令。
Q: 下载的模型文件会保存在哪里?
A: 如果使用默认设置,模型将下载到:
C:\Users\用户名\.ollama\models
本教程中已更改模型路径,下载到 E:\ai 文件夹。
Q: 下载模型后运行 run 命令一直转圈,UI界面也无响应怎么办?
A: 大概率是电脑性能不足,建议尝试更轻量化的模型或使用云端模型。
Q: Ollama 的更新日志和模型配置文件在哪里?
-
日志与更新: 按 Ctrl + R,输入以下命令:
explorer %LOCALAPPDATA%\Ollamaapp.log:GUI 应用日志server.log:服务器日志upgrade.log:升级日志
-
模型与配置文件: 按 Ctrl + R,输入以下命令:
explorer %HOMEPATH%\.ollama
Ollama常用命令汇总
以下命令中包含qwen3:8b,这个模型名称是示例。
安装命令参数
| 参数 | 作用 | 示例命令 |
|---|---|---|
| /S | 静默安装,不弹出安装界面 | OllamaSetup.exe /S |
| /DIR= | 指定安装目录 | OllamaSetup.exe /DIR=E:\Ollama |
| /NOICONS | 不创建桌面图标 | OllamaSetup.exe /S /NOICONS |
| /NORESTART | 安装后不自动重启 | OllamaSetup.exe /S /NORESTART |
指定目录安装Ollama到E:\Ollama:
.\OllamaSetup.exe /DIR="E:\Ollama"
. 表示在当前目录下(PowerShell中不会主动寻找根目录)
OllamaSetup.exe 当前目录下的安装文件名
/DIR= 用于指定安装目录的参数
"E:\Ollama" 指定安装的目录,E:\Ollama这个路径是示例,你可以改成你想要的路径
可配合其他参数使用,如/S 静默安装参数
例如:.\OllamaSetup.exe /S /DIR="E:\Ollama"
模型管理命令
模型指定存储路径:
setx OLLAMA_MODELS "E:\Ollama\models"
1、E:\Ollama\models将下载的模型存储到指定位置,这个路径是示例
2、确保"E:\Ollama\models这个目录必须存在,不存在请提前创建
3、为了确保环境变量生效,运行完命令后关闭并重启PowerShell
4、对环境变量不熟悉的可以直接在应用程序(UI)的设置中设置。
拉取模型:
ollama pull qwen3:8b
也可用于更新本地模型,仅更新差异。
运行模型:
ollama run qwen3:8b
qwen3:8b模型不存在时,运行此命令也可达到下载模型的效果。
列出本地电脑的模型:
ollama list
ollama ls
二选一,没差别。
显示模型信息:
ollama show qwen3:8b
删除模型:
ollama rm qwen3:8b
列出当前加载的模型:
ollama ps
停止当前正在运行的模型:
ollama stop qwen3:8b
启动服务:
ollama serve
如果不想运行桌面应用(也称UI)程序的情况下,启动 ollama 时。
登录 Ollama账户:
ollama signin
退出Ollama账户:
ollama signout
复制模型:
ollama cp qwen3:8b my-model
硬件与模型参数的匹配
先看内存,内存指标是关键瓶颈,模型越大越吃内存
再看cpu和gpu,没有独显也能运行,速度慢点而已,有Nvidia显卡(支持cuda)可加速推理
再看硬盘,基本上从小到大参数的模型都得4 GB 到20 GB 以上,心里有数就行。
通过以下原则大致判断,自己的硬件设备适合多少B参数的模型:
- 8 GB 的内存大致可运行 7B 以下的参数
- 16 GB 的内存大致可运行 8B-13B 左右的参数
- 32 GB 的内存大致可运行 33B 左右的参数
举例参考(以qwen3:8b为例):
qwen3是模型名称,表示阿里千问第三代,8b是参数规模为80亿。
| 模型名称 | 参数量 | 适合任务 | 内存需求 |
|---|---|---|---|
| qwen1:1.8B | 1.8B | 轻量对话聊天、翻译 | 8-12GB |
| qwen3:8B | 8B | 写个文章,编个程,整理个摘要 | 16-32GB |
| qwen2:14B | 14B | 长文本的推理、计算,适合复杂任务 | 32-64GB |
| qwen1:7B | 72B | 高精度的推理计算,一般公司级别的部署 | 128GB起 |
更多详细模型请查阅:
评论
发表评论