2025-03-14 16:12:22 +08:00

245 lines
6.1 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
title: 大模型
date: 2025-02-18 10:06:57
tags:
---
# Ollama
## 1. 安装
首先需要下载并安装Ollama这是运行模型的基础环境。
![image-20250218102658870](https://markdownhexo.oss-cn-hangzhou.aliyuncs.com/img/image-20250218102658870.png)
## 2. 下载模型
打开命令行终端,根据需要运行以下命令之一来下载对应版本的模型:
![image-20250218104847668](https://markdownhexo.oss-cn-hangzhou.aliyuncs.com/img/image-20250218104847668.png)
以DeepSeek为例
7B 版本(推荐显存 8G:
```bash
ollama pull deepseek-coder:7b
```
8B 版本(推荐显存 8G:
```bash
ollama run huihui_ai/deepseek-r1-abliterated:8b
```
14B 版本(推荐显存 12G:
```BASH
ollama run huihui_ai/deepseek-r1-abliterated:14b
```
32B 版本(推荐显存 32G:
```bash
ollama run huihui_ai/deepseek-r1-abliterated:32b
```
70B 版本(需要高端显卡支持):
```bash
ollama run huihui_ai/deepseek-r1-abliterated:70b
```
## 3. Ollama 常用命令
在使用 Ollama 时,以下是一些常用的命令操作:
```bash
# 启动 Ollama 服务
ollama serve
# 从 Modelfile 创建模型
ollama create <模型名称>
# 显示模型信息
ollama show <模型名称>
# 运行模型
ollama run <模型名称>
# 停止运行中的模型
ollama stop <模型名称>
# 从仓库拉取模型
ollama pull <模型名称>
# 推送模型到仓库
ollama push <模型名称>
# 列出所有已安装的模型
ollama list
# 列出正在运行的模型
ollama ps
# 复制模型
ollama cp <源模型> <目标模型>
# 删除模型
ollama rm <模型名称>
# 显示模型文件
ollama show --modelfile <模型名称>
```
## 4. Ollama模型存储目录
- macOS: `~/.ollama/models`
- Linux: `/usr/share/ollama/.ollama/models`
- Windows: `C:\Users\%username%\.ollama\models`
### 如何将它们设置为不同的位置?
如果需要使用不同的目录,可以将环境变量 `OLLAMA_MODELS` 设置为你选择的目录。
> 注意:在 Linux 上使用标准安装程序时,`ollama` 用户需要对指定目录有读写权限。要将目录分配给 `ollama` 用户,请运行 `sudo chown -R ollama:ollama <directory>`.
请参考[上面的部分](https://ollama.readthedocs.io/faq/#how-do-i-configure-ollama-server)了解如何在你的平台上设置环境变量。
![image-20250218132430850](https://markdownhexo.oss-cn-hangzhou.aliyuncs.com/img/image-20250218132430850.png)
## 5. WSL中Ollama使用Windows中的
```shell
# 编辑环境变量
vim /etc/profile
# 文件末尾添加
export PATH="$PATH:/mnt/c/Program Files/Ollama"
alias ollama='ollama.exe'
```
# nvidia-smi
> nvidia-smi是nvidia 的系统管理界面 其中smi是System management interface的缩写它可以收集各种级别的信息查看显存使用情况。此外, 可以启用和禁用 GPU 配置选项 (如 ECC 内存功能)。
## nvidia-smi
```shell
nvidia-smi
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.86.09 Driver Version: 571.96 CUDA Version: 12.8 |
|-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA RTX 4000 Ada Gene... On | 00000000:01:00.0 Off | Off |
| N/A 50C P8 7W / 85W | 4970MiB / 12282MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| 0 N/A N/A 16221 C /python3.12 N/A |
+-----------------------------------------------------------------------------------------+
```
解释相关参数含义:
GPU本机中的GPU编号
NameGPU 类型
Persistence-M
Fan风扇转速
Temp温度单位摄氏度
Perf表征性能状态从P0到P12P0表示最大性能P12表示状态最小性能
Pwr:Usage/Cap能耗表示
Bus-Id涉及GPU总线的相关信息
Disp.ADisplay Active表示GPU的显示是否初始化
Memory-Usage显存使用率
Volatile GPU-Util浮动的GPU利用率
Uncorr. ECC关于ECC的东西
Compute M.:计算模式
Processes 显示每块GPU上每个进程所使用的显存情况。
### 持续监控
```shell
# 使用 watch 命令,它可以定时执行指定的命令并刷新输出。例如,每隔 1 秒刷新一次 GPU 状态,可以使用以下命令
watch -n 1 nvidia-smi
```
## nvidia-smi -L
```shell
# 列出所有可用的 NVIDIA 设备
nvidia-smi -L
GPU 0: NVIDIA RTX 4000 Ada Generation Laptop GPU (UUID: GPU-9856f99a-c32c-fe63-b2ad-7bdee2b12291)
```
# ModelScope
## 模型下载
### 安装
```shell
pip install modelscope
```
### 命令行下载
```shell
# 下载完整模型库
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
# 下载单个文件到指定本地文件夹以下载README.md到当前路径下“dir”目录为例
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B README.md --local_dir ./dir
```
# Anaconda
>
# Jupyter Notebook
>
## 安装
```shell
pip install jupyter
```
## 运行
```shell
jupyter notebook
# 若是root用户执行会出现警告 Running as root is not recommended. Use --allow-root to bypass. 需在后面加上 --allow-root
jupyter notebook --allow-root
```
# UnSloth