Heim  >  Artikel  >  Betrieb und Instandhaltung  >  Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

王林
王林nach vorne
2023-05-12 08:34:272726Durchsuche

Einführung

nvidia-smi – NVIDIA System Management Interface-Programm

nvidia smi (auch bekannt als NVSMI) bietet Überwachungs- und Verwaltungsfunktionen für nvidia Tesla-, Quadro-, GRID- und GeForce-Geräte aus den Fermi- und höheren Architekturfamilien. Geräte der GeForce Titan-Serie unterstützen die meisten Funktionen, für den Rest der Marke GeForce werden nur sehr begrenzte Informationen bereitgestellt. NVSMI ist ein plattformübergreifendes Tool, das alle Linux-Distributionen unterstützt, die von Standard-NVIDIA-Treibern unterstützt werden, sowie 64-Bit-Versionen von Windows ab Windows Server 2008 R2.

✨nvidia-smi

NVIDIA System Management Interface (nvidia-smi) ist ein Befehlszeilentool, das auf der NVIDIA Management Library (NVML) basiert und zur Unterstützung bei der Verwaltung und Überwachung von NVIDIA-GPU-Geräten entwickelt wurde.

Mit diesem Dienstprogramm können Administratoren den GPU-Gerätestatus abfragen und den GPU-Gerätestatus mit entsprechenden Berechtigungen ändern. Es zielt auf Tesla-, GRID-, Quadro- und Titan-X-Produkte ab, aber auch andere NVIDIA-GPUs werden nur eingeschränkt unterstützt.

NVIDIA-smi wird mit NVIDIA-GPU-Anzeigetreibern unter Linux sowie 64-Bit-Windows Server 2008 R2 und Windows 7 ausgeliefert. Nvidia-smi kann Abfrageinformationen als XML oder für Menschen lesbaren Klartext an die Standardausgabe oder eine Datei melden.

✨Der häufig verwendete Befehl nvidia-smi zeigt alle GPU-Informationen an Maximal mögliche Taktrate

nvidia-smi

PS:Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

nvidia-smi-Befehl

Geben Sie nvidia-smi direkt in die Befehlszeile ein. Der Befehl sollte ein Befehl sein, mit dem alle Alchemisten vertraut sind.

Hinweis: Es wird empfohlen, watch -n 0.5 nvidia-smi zu verwenden, um den Status der GPU dynamisch zu beobachten.

Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

Über den Befehl nvidia-smi erhalten wir eine so informative Seite:

Tue 9. Nov. 13:47:51 2021
+------------------------------------------- -------------------------------------------------+
| NVIDIA-SMI 495.44       Treiberversion: 495.44       CUDA-Version: 11.5     |
|-------------------------------+ --------+---------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Flüchtige Unkorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Speichernutzung | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|==============================+========= =============+======================|
|   0  NVIDIA GeForce ...  Aus  | 00000000:17:00.0 Aus |                  N/A |
| 62 %   78 ° C    P2   155 W / 170 W |  10123MiB / 12051MiB |    100 %      Standard |
|                               |                      |                  N/A |
+-------------------------------+--------- -------------+--------+
|   1  NVIDIA GeForce ...  Aus  | 00000000:65:00.0 Aus |                  N/A |
|100 %   92C    P2   136W / 170W |  10121MiB / 12053MiB |     99 %      Standard |
|                               |                      |                  N/A |
+-------------------------------+--------- -------------+--------+
|   2  NVIDIA GeForce ...  Aus  | 00000000:B5:00.0 Aus |                  N/A |
| 32%   34C    P8    12W / 170W |      5MiB / 12053MiB |      0 %      Standard |
|                               |                      |                  N/A |
+-------------------------------+--------- ------------+--------+
|   3  NVIDIA GeForce ...  Aus  | 00000000:B6:00.0 Aus |                  N/A |
| 30 %   37 ° C    P8    13W / 170W |      5MiB / 12053MiB |      0 %      Standard |
|                               |                      |                  N/A |
+------------------------------+--------- ------------+--------+

+-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
|    0   N/A  N/A      1258      G   /usr/lib/xorg/Xorg                  6MiB |
|    0   N/A  N/A     10426      C   ...a3/envs/JJ_env/bin/python    10111MiB |
|    1   N/A  N/A      1258      G   /usr/lib/xorg/Xorg                  4MiB |
|    1   N/A  N/A     10427      C   ...a3/envs/JJ_env/bin/python    10111MiB |
|    2   N/A  N/A      1258      G   /usr/lib/xorg/Xorg                  4MiB |
|    3   N/A  N/A      1258      G   /usr/lib/xorg/Xorg                  4MiB |
+-----------------------------------------------------------------------------+

其中显存占用和 GPU 利用率当然是我们最常来查看的参数,但是在一些情况下(比如要重点监控 GPU 的散热情况时)其他参数也很有用,笔者简单总结了一下该命令输出的各个参数的含义如下图:

Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

可以看到其中各个位置的对应含义在输出本身中其实都已经指出了(蓝框),红框则指出了输出各个部分的含义,大部分输出的作用一目了然,这里笔者将其中几个不那么直观的参数简单整理一下:

  • Fan:从0到100%之间变动,这个速度是计算机期望的风扇转速,实际情况下如果风扇堵转,可能打不到显示的转速。

  • Perf:是性能状态,从P0到P12,P0表示最大性能,P12表示状态最小性能。

  • Persistence-M:是持续模式的状态,持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态。

  • Disp.A:Display Active,表示GPU的显示是否初始化。

  • Compute M:是计算模式。

  • Volatile Uncorr. ECC:是否开启 ECC 纠错。

  • type:进程类型。C 表示计算进程,G 表示图形进程,C+G 表示都有。

nvidia-smi 命令的其他参数

除了直接运行 nvidia-smi 命令之外,还可以加一些参数,来查看一些本机 Nvidia GPU 的其他一些状态。下面笔者简单介绍几个常用的参数,其他的有需要可以去手册中查找:man nvidia-smi

-L

-L 参数显示连接到系统的 GPU 列表。

nvidia-smi -L

# 输出:
GPU 0: NVIDIA GeForce RTX 3060 (UUID: GPU-55275dff-****-****-****-6408855fced9)
GPU 1: NVIDIA GeForce RTX 3060 (UUID: GPU-0a1e7f37-****-****-****-df9a8bce6d6b)
GPU 2: NVIDIA GeForce RTX 3060 (UUID: GPU-38e2771e-****-****-****-d5cbb85c58d8)
GPU 3: NVIDIA GeForce RTX 3060 (UUID: GPU-8b45b004-****-****-****-46c05975a9f0)

GPU UUID:此值是GPU的全球唯一不可变字母数字标识符。它与主板上的物理标签无关。

-i

-i 参数指定某个 GPU,多用于查看 GPU 信息时指定其中一个 GPU。

-q

-q 参数查看 GPU 的全部信息。可通过 -i 参数指定查看某个 GPU 的参数。

如:

nvidia-smi -i 0 -q

输出太长了,笔者这里就不列了,大家可以自己试一下,是很完整的信息。

topo

topo 展示多GPU系统的拓扑连接信息,通常配合 -m 参数即 nvidia-smi topo -m,其他参数可自行查阅。

输出如下,这里用代码块没法对齐,就直接贴图了:

Was sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?

Das obige ist der detaillierte Inhalt vonWas sind die am häufigsten verwendeten nvidia-smi-Befehle unter Linux?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:yisu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen