2025-03-14 16:12:07 +08:00

6.1 KiB
Raw Blame History

title, date, tags
title date tags
大模型 2025-02-18 10:06:57

Ollama

1. 安装

首先需要下载并安装Ollama这是运行模型的基础环境。

image-20250218102658870

2. 下载模型

打开命令行终端,根据需要运行以下命令之一来下载对应版本的模型:

image-20250218104847668

以DeepSeek为例

7B 版本(推荐显存 8G:

ollama pull deepseek-coder:7b

8B 版本(推荐显存 8G:

ollama run huihui_ai/deepseek-r1-abliterated:8b

14B 版本(推荐显存 12G:

ollama run huihui_ai/deepseek-r1-abliterated:14b

32B 版本(推荐显存 32G:

ollama run huihui_ai/deepseek-r1-abliterated:32b

70B 版本(需要高端显卡支持):

ollama run huihui_ai/deepseek-r1-abliterated:70b

3. Ollama 常用命令

在使用 Ollama 时,以下是一些常用的命令操作:

# 启动 Ollama 服务
ollama serve

# 从 Modelfile 创建模型
ollama create <模型名称>

# 显示模型信息
ollama show <模型名称>

# 运行模型
ollama run <模型名称>

# 停止运行中的模型
ollama stop <模型名称>

# 从仓库拉取模型
ollama pull <模型名称>

# 推送模型到仓库
ollama push <模型名称>

# 列出所有已安装的模型
ollama list

# 列出正在运行的模型
ollama ps

# 复制模型
ollama cp <源模型> <目标模型>

# 删除模型
ollama rm <模型名称>

# 显示模型文件
ollama show --modelfile <模型名称>

4. Ollama模型存储目录

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%\.ollama\models

如何将它们设置为不同的位置?

如果需要使用不同的目录,可以将环境变量 OLLAMA_MODELS 设置为你选择的目录。

注意:在 Linux 上使用标准安装程序时,ollama 用户需要对指定目录有读写权限。要将目录分配给 ollama 用户,请运行 sudo chown -R ollama:ollama <directory>.

请参考上面的部分了解如何在你的平台上设置环境变量。

image-20250218132430850

5. WSL中Ollama使用Windows中的

# 编辑环境变量
vim /etc/profile

# 文件末尾添加
export PATH="$PATH:/mnt/c/Program Files/Ollama"
alias ollama='ollama.exe'

nvidia-smi

nvidia-smi是nvidia 的系统管理界面 其中smi是System management interface的缩写它可以收集各种级别的信息查看显存使用情况。此外, 可以启用和禁用 GPU 配置选项 (如 ECC 内存功能)。

nvidia-smi

nvidia-smi

+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.86.09              Driver Version: 571.96         CUDA Version: 12.8     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA RTX 4000 Ada Gene...    On  |   00000000:01:00.0 Off |                  Off |
| N/A   50C    P8              7W /   85W |    4970MiB /  12282MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|    0   N/A  N/A           16221      C   /python3.12                           N/A      |
+-----------------------------------------------------------------------------------------+

解释相关参数含义:

GPU本机中的GPU编号

NameGPU 类型

Persistence-M

Fan风扇转速

Temp温度单位摄氏度

Perf表征性能状态从P0到P12P0表示最大性能P12表示状态最小性能

Pwr:Usage/Cap能耗表示

Bus-Id涉及GPU总线的相关信息

Disp.ADisplay Active表示GPU的显示是否初始化

Memory-Usage显存使用率

Volatile GPU-Util浮动的GPU利用率

Uncorr. ECC关于ECC的东西

Compute M.:计算模式

Processes 显示每块GPU上每个进程所使用的显存情况。

持续监控

# 使用 watch 命令,它可以定时执行指定的命令并刷新输出。例如,每隔 1 秒刷新一次 GPU 状态,可以使用以下命令
watch -n 1 nvidia-smi

nvidia-smi -L

#  列出所有可用的 NVIDIA 设备
nvidia-smi -L
GPU 0: NVIDIA RTX 4000 Ada Generation Laptop GPU (UUID: GPU-9856f99a-c32c-fe63-b2ad-7bdee2b12291)

ModelScope

模型下载

安装

pip install modelscope

命令行下载

# 下载完整模型库
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
# 下载单个文件到指定本地文件夹以下载README.md到当前路径下“dir”目录为例
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B README.md --local_dir ./dir

Anaconda

Jupyter Notebook

安装

pip install jupyter

运行

jupyter notebook
# 若是root用户执行会出现警告 Running as root is not recommended. Use --allow-root to bypass. 需在后面加上 --allow-root
jupyter notebook --allow-root

UnSloth