# Ollama 启用 Vulkan 后端完整指南(适配 AMD 780M 核显,兼顾 Windows/Linux) > 在本地运行大模型时,AMD 780M 核显作为 Ryzen 7000/8000 系列 APU 的核心组件,具备不错的轻量级 AI 推理能力,但官方 ROCm 后端并不原生支持其 gfx1103 架构,配置过程繁琐且稳定性不足。Ollama 从 v0.12.6 版本开始正式支持 Vulkan 后端,为 AMD/Intel 核显提供了更简洁、更稳定的 GPU 加速方案,无需魔改库,开箱即用,尤其适合 AMD 780M 核显用户实现本地模型流畅推理。本文将详细讲解 Ollama 启用 Vulkan 后端的完整流程、配置细节、性能参考及常见问题排查,方便后续查阅复用。  ## *本文核心 1. 驱动新版 2. 设置环境变量`OLLAMA_VULKAN`值为`1` ## 一、核心优势:为什么选择 Vulkan 后端? 相较于 ROCm 魔改方案,Ollama + Vulkan 组合对 AMD 780M 核显用户而言,核心优势体现在三点,也是其成为首选方案的关键: 1. **无需魔改,配置简单**:无需替换 ROCm 专用库、修改配置文件,仅通过环境变量即可启用,Windows 和 Linux 系统均适用,小白也能快速上手。 2. **稳定性更强,兼容性更好**:规避了 ROCm 魔改可能出现的库版本不匹配、推理崩溃、显存溢出等问题,适配 Ollama 最新版本,支持绝大多数主流量化模型。 3. **适配核显特性**:Vulkan 对 AMD 核显的适配更友好,能充分利用 780M 的 GPU 算力,同时降低 CPU 占用率,让 CPU 资源释放用于其他任务,尤其适合轻薄本、迷你主机等轻量级设备。 补充说明:Vulkan 后端的性能虽比 ROCm 魔改略低 10%-20%,但综合稳定性和配置成本,是 AMD 780M 核显使用 Ollama 的最优解;对于追求极致性能的用户,可在配置成功 Vulkan 后,再尝试 ROCm 魔改方案作为补充。 ## 二、前置准备 无论 Windows 还是 Linux 系统,在启用 Vulkan 后端前,需完成以下前置配置,确保硬件、软件环境满足要求,避免后续出现 GPU 无法识别、推理异常等问题。 ### 2.1 硬件要求 * 核显:AMD Radeon 780M(gfx1103 架构),仅支持 Ryzen 7000/8000 系列 APU(如 7840HS、8700G、7940HS 等)。 * 内存:建议 32GB 双通道 DDR5(频率 ≥ 4800MHz),开启 EXPO 超频模式;最低 16GB 单通道(仅能运行 7B 以下小模型,易出现卡顿)。 * BIOS 设置:进入电脑 BIOS(开机按 F2/F10/F12,不同品牌主板快捷键不同),找到「UMA 显存分配」选项,设置为 ≥ 8GB(推荐 16GB),同时确保「iGPU 启用」(部分主板默认关闭,需手动开启),设置完成后保存重启。 ### 2.2 软件要求 * Ollama 版本:≥ v0.12.6(推荐最新版,如 v0.1.30+),旧版本不支持 Vulkan 后端,需手动更新。 * 驱动要求: * Windows:更新 AMD 显卡驱动至 2025.11+ 版本(Adrenalin 驱动),旧驱动可能导致 Vulkan 无法识别核显。 * Linux:系统内核 ≥ 6.0(自带 amdgpu 驱动),安装 Vulkan 相关依赖包,确保核显能被 Vulkan 识别。 * 系统要求:Windows 10/11(64 位)、Linux(Ubuntu 22.04+/Fedora 38+,推荐 Ubuntu,配置更简单)。 ## 三、Windows 系统配置流程 Windows 系统下,Ollama 启用 Vulkan 后端仅需 3 步,核心是通过环境变量指定 Vulkan 后端,无需修改复杂配置,具体步骤如下: ### 3.1 启用 Vulkan 后端(两种方式,按需选择) Ollama 启用 Vulkan 后端的核心是设置「OLLAMA_VULKAN=1」环境变量,提供临时启用和永久启用两种方式,可根据需求选择。 #### 方式 1:临时启用(适合测试,重启后失效) 1. 按下「Win + R」,输入「cmd」,打开命令提示符(CMD),或打开 PowerShell(Win + X,选择「Windows PowerShell」)。 2. 输入以下命令,关闭 Ollama 服务(确保进程已完全结束): `taskkill /f /im ollama.exe` 3. 输入以下命令,设置环境变量并启动 Ollama 服务: `set OLLAMA_VULKAN=1 ollama serve` 4. 命令执行后,CMD/PowerShell 窗口会保持运行(不要关闭),此时 Ollama 已启用 Vulkan 后端。 #### 方式 2:永久启用(推荐,重启电脑后仍生效) 1. 右键点击「此电脑」→「属性」→「高级系统设置」→「环境变量」。 2. 在「用户变量」区域,点击「新建」,弹出新建环境变量窗口: * 变量名:OLLAMA_VULKAN * 变量值:1 3. 点击「确定」,关闭所有环境变量窗口,重启电脑(必须重启,环境变量才能生效)。 4. 重启后,Ollama 会默认启用 Vulkan 后端,无需每次手动输入命令。 ### 3.2 验证配置是否成功 1. 打开 CMD/PowerShell,输入以下命令,运行一个轻量级模型(推荐 Llama 3 8B q4_0,适配 780M 核显): `ollama run llama3:8b` 2. 模型加载完成后,随便输入一句提问(如「介绍一下 AMD 780M 核显」),同时打开「任务管理器」→「性能」→「GPU 0」(AMD Radeon 780M)。 3. 若 GPU 利用率上升(通常在 30%-80% 之间,根据模型大小波动),说明 Vulkan 后端已成功启用,780M 核显正在参与推理;若 GPU 利用率始终为 0,说明配置失败,需排查前置准备或配置步骤。 ## 快照 - https://i.788910.xyz/t/26/04/Gx9tP2fMly.png - https://i3.wp.com/i.788910.xyz/t/26/04/Gx9tP2fMly.png - https://788910.xyz/api/snapshot?p=4b0e5f22f10f2eb6c329819f8b88bcc1&u=https://i.788910.xyz/t/26/04/Gx9tP2fMly.png