本地 AI 大模型是什么?能干什么?是时候考虑部署一个Ollama AI模型了!

部署Ollama AI模型,看这一篇足够了,详细图文教程

什么是本地AI大模型?

简单来说,本地 AI 大模型就是把一个强大的人工智能"装进"你的电脑里。它不需要依赖云端服务器,所有的计算和处理都在你自己的机器上完成。就像你拥有了一个随时待命的"离线版 ChatGPT"。

就是我今天给大家推荐的Ollama!

Ollama的优势

安装 Ollama 的最大优势在于:你能在本地轻松随意切换不同AI模型,例如:谷歌的Gemma、OpenAI的GPT,阿里的Qwen、幻方的Deepseek等等很多厂家的AI模型你都可以拿过来用,有擅长语言处理的、有擅长数学推理的、还有擅长编程的,这些模型你很轻松的一点鼠标,就切换了,是不是很方便!

主要特点:

  • 断网状态下也可以和AI轻松对话
  • 数据保存在本地,保障隐私不外露
  • 可玩性高,可以结合各种应用使用(如视频翻译插件)

配置要求

配置方面,cpu怎么也得8核起或i5以上,内存8gb以上吧真别在低了,玩ai主要看内存,硬盘怎么的也得留出来个20gb起吧,Ollama只能安装到C盘,一个模型动辄5gb、10gb的,装C盘确实有点难受,下面我会讲到如何更改路径装到别的盘。能有块3060以上的显卡那是最好不过,虽然Ollama是消费级设备就能运行,那咱也差不多点,如果低于这个配置,听劝就别折腾了,配置高点,流畅点,体验OK点。

Ollama支持Windows、MacOS、Linux,今天演示在Windows上的安装过程。

Windows要求: Windows 10 22H2 或更高版本、家庭版或专业版

下载安装

首先到官方下载Ollama软件,链接:Ollama官方下载链接,(软件目前1.12个gb,建议你用下载器,还在用浏览器下载的兄弟们推荐你们用全球大名鼎鼎的IDM下载器,下载稳定、速度快、快到10M以内你都看不到进度条,IDM下载器链接:官方IDM下载器+激活方法

1、直接安装到C盘

想直接默认装C盘,请直接双击打开软件,按一下"Install",你就什么也不用管了。

2、自定义安装目录

不想安装到C盘的,看这里:

例如:你下载的OllamaSetup安装文件在D:\Downloads

你想装到E:\Ollama

步骤:

  1. 打开D:\Downloads(OllamaSetup安装文件所在目录),在空白处按住Shift键,点击鼠标右键,选择PowerShell

2、输入命令

.\OllamaSetup.exe /DIR="E:\Ollama"

按回车执行

3、弹出安装框,点击Install,进行安装

4、显示安装到指定目录。

配置设置

5、安装完成,先设置一下关键内容,点击左侧栏展开,选择Settings

6、设置大模型的下载地址,不建议安装在C盘,可以指定到目录,这里演示指定到E:\ai\

Ollama使用方式

Ollama提供两种使用方式:

  • 云模型 适合体验非消费级电脑硬件的更大型AI模型,云模型需要在 ollama.com 上注册一个帐户登录后使用。
  • 本地模型 适合个人消费级电脑,将模型下载到本地运行,如需使用联网功能,也是需要登录账户后使用。

下载模型

第一种方式:使用PowerShell命令行

用PowerShell命令行,输入以下命令:

ollama pull qwen3:8b

下载中,实时显示下载进度。

显示"success"则表示模型已经下载成功。

现在启动模型,输入命令:

ollama run qwen3:8b

显示>>>send a message表示模型启动成功,可以进行对话。

在PowerShell命令行中可以直接和模型进行对话(可以断网运行)。

在UI界面中选择qwen3:8b,可以和模型直接对话,点击联网按钮,会提示登录,登陆后可使用,用于让AI获取网上实时性的内容。

第二种方式:使用UI界面下载

在UI模型列表中选择带下载箭头图标的模型

这里演示gemma3:4b

随便输入对话,即可激活该模型的下载

模型下载完成,可以观察到模型列表的gemma3:4b下载图标已经消失了。

在PowerShell命令行中查询本地模型的概况

输入命令

ollama list

或者

ollama ls

以下图示中显示了本次演示中分别安装的两个模型。

删除模型

例如图示,想删掉"codellama:13b"这个模型

输入命令

ollama rm codellama:13b

显示deleted`codellama:13b`,说明这个模型已删除。

扩展阅读

常见问题

Q: PowerShell 下载模型时速度越来越慢了,怎么办?

A: 按 Ctrl+C 结束下载,然后重新输入命令执行,Ollama 支持断点续传。

Q: 在 PowerShell 执行命令时是否需要进入 Ollama 安装目录?

A: 不需要,Ollama 已设置好全局变量,在任何目录下都可以执行命令。

Q: 下载的模型文件会保存在哪里?

A: 如果使用默认设置,模型将下载到:

C:\Users\用户名\.ollama\models

本教程中已更改模型路径,下载到 E:\ai 文件夹。

Q: 下载模型后运行 run 命令一直转圈,UI界面也无响应怎么办?

A: 大概率是电脑性能不足,建议尝试更轻量化的模型或使用云端模型。

Q: Ollama 的更新日志和模型配置文件在哪里?

  • 日志与更新:Ctrl + R,输入以下命令:
    explorer %LOCALAPPDATA%\Ollama
    • app.log:GUI 应用日志
    • server.log:服务器日志
    • upgrade.log:升级日志
  • 模型与配置文件:Ctrl + R,输入以下命令:
    explorer %HOMEPATH%\.ollama

Ollama常用命令汇总

以下命令中包含qwen3:8b,这个模型名称是示例。

安装命令参数

参数 作用 示例命令
/S 静默安装,不弹出安装界面 OllamaSetup.exe /S
/DIR= 指定安装目录 OllamaSetup.exe /DIR=E:\Ollama
/NOICONS 不创建桌面图标 OllamaSetup.exe /S /NOICONS
/NORESTART 安装后不自动重启 OllamaSetup.exe /S /NORESTART

指定目录安装Ollama到E:\Ollama:

.\OllamaSetup.exe /DIR="E:\Ollama"

. 表示在当前目录下(PowerShell中不会主动寻找根目录)
OllamaSetup.exe 当前目录下的安装文件名
/DIR= 用于指定安装目录的参数
"E:\Ollama" 指定安装的目录,E:\Ollama这个路径是示例,你可以改成你想要的路径
可配合其他参数使用,如/S 静默安装参数
例如:.\OllamaSetup.exe /S /DIR="E:\Ollama"

模型管理命令

模型指定存储路径:

setx OLLAMA_MODELS "E:\Ollama\models"

1、E:\Ollama\models将下载的模型存储到指定位置,这个路径是示例
2、确保"E:\Ollama\models这个目录必须存在,不存在请提前创建
3、为了确保环境变量生效,运行完命令后关闭并重启PowerShell
4、对环境变量不熟悉的可以直接在应用程序(UI)的设置中设置。

拉取模型:

ollama pull qwen3:8b

也可用于更新本地模型,仅更新差异。

运行模型:

ollama run qwen3:8b

qwen3:8b模型不存在时,运行此命令也可达到下载模型的效果。

列出本地电脑的模型:

ollama list
ollama ls

二选一,没差别。

显示模型信息:

ollama show qwen3:8b

删除模型:

ollama rm qwen3:8b

列出当前加载的模型:

ollama ps

停止当前正在运行的模型:

ollama stop qwen3:8b

启动服务:

ollama serve

如果不想运行桌面应用(也称UI)程序的情况下,启动 ollama 时。

登录 Ollama账户:

ollama signin

退出Ollama账户:

ollama signout

复制模型:

ollama cp qwen3:8b my-model

硬件与模型参数的匹配

先看内存,内存指标是关键瓶颈,模型越大越吃内存
再看cpu和gpu,没有独显也能运行,速度慢点而已,有Nvidia显卡(支持cuda)可加速推理
再看硬盘,基本上从小到大参数的模型都得4 GB 到20 GB 以上,心里有数就行。

通过以下原则大致判断,自己的硬件设备适合多少B参数的模型:

  • 8 GB 的内存大致可运行 7B 以下的参数
  • 16 GB 的内存大致可运行 8B-13B 左右的参数
  • 32 GB 的内存大致可运行 33B 左右的参数

举例参考(以qwen3:8b为例):

qwen3是模型名称,表示阿里千问第三代,8b是参数规模为80亿。

模型名称 参数量 适合任务 内存需求
qwen1:1.8B 1.8B 轻量对话聊天、翻译 8-12GB
qwen3:8B 8B 写个文章,编个程,整理个摘要 16-32GB
qwen2:14B 14B 长文本的推理、计算,适合复杂任务 32-64GB
qwen1:7B 72B 高精度的推理计算,一般公司级别的部署 128GB起

更多详细模型请查阅:

Ollama官方模型列表 | Ollama官方文档 | Ollama官方Github

评论

此博客中的热门博文

Office LTSC 专业增强版 2024安装激活,保姆级教程

IDM官网原版下载器:激活教程(含提示注册解决方法)