nvidia-smi 命令解读
来源:互联网 发布:免费淘宝账号和密码 编辑:程序博客网 时间:2024/05/20 01:39
nvidia-smi 命令解读
nvidia-smi是用来查看GPU使用情况的。我常用这个命令判断哪几块GPU空闲,但是最近的GPU使用状态让我很困惑,于是把nvidia-smi命令显示的GPU使用表中各个内容的具体含义解释一下。
这是服务器上特斯拉K80的信息。
上面的表格中:
第一栏的Fan:N/A是风扇转速,从0到100%之间变动,这个速度是计算机期望的风扇转速,实际情况下如果风扇堵转,可能打不到显示的转速。有的设备不会返回转速,因为它不依赖风扇冷却而是通过其他外设保持低温(比如我们实验室的服务器是常年放在空调房间里的)。
第二栏的Temp:是温度,单位摄氏度。
第三栏的Perf:是性能状态,从P0到P12,P0表示最大性能,P12表示状态最小性能。
第四栏下方的Pwr:是能耗,上方的Persistence-M:是持续模式的状态,持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态。
第五栏的Bus-Id是涉及GPU总线的东西,domain:bus:device.function
第六栏的Disp.A是Display Active,表示GPU的显示是否初始化。
第五第六栏下方的Memory Usage是显存使用率。
第七栏是浮动的GPU利用率。
第八栏上方是关于ECC的东西。
第八栏下方Compute M是计算模式。
下面一张表示每个进程占用的显存使用率。
显存占用和GPU占用是两个不一样的东西,显卡是由GPU和显存等组成的,显存和GPU的关系有点类似于内存和CPU的关系。我跑caffe代码的时候显存占得少,GPU占得多,师弟跑TensorFlow代码的时候,显存占得多,GPU占得少。
- nvidia-smi 命令解读
- nvidia-smi命令解读
- nvidia-smi 命令解读
- nvidia-smi 命令解读
- nvidia-smi 命令
- nvidia-smi命令
- CUDA之nvidia-smi命令详解
- 查看GPU的类似top命令:nvidia-smi -l
- centos nvidia-smi error
- 小技巧之nvidia-smi
- nvidia-smi: Control Your GPUs
- 查看GPU信息 nvidia-smi
- nvidia-sim 和roc-smi
- nvidia-smi监测GPU状态
- nvidia-smi还是nvidia-prime都是显示无效
- GPU Memory exhausted, but no process listed by nvidia-smi
- nvidia-smi GPU驱动安装后使用率很高
- 解读NVIDIA显卡
- 静态变量的初始化,静态变量在类内定义,在类外进行初始化。
- MyBatis 入门级配置文件
- 文本处理三剑客之sed
- ADS-B及雷达显示终端7.2
- LinuxStudyNote(6)-Linux常用命令(2)-文件处理命令(1)-目录处理命令ls、所有者所属组其他人、文件权限、i节点
- nvidia-smi 命令解读
- 线程中用Thread还是runable
- android配置集成CI持续化开发工具Jenkins
- curl常见返回错误码<转载>
- js基础-引用类型-Array对象 ★★★☆
- ssm(spring+spring mvc+mybatis+maven)高仿bilibili视频网站项目实例
- POJ
- python根据字典中值的大小,对字典中的项排序
- Android权限申请哪些需要动态申请