Pytorch 学习之:关于 GPU 训练你必须知道的几件事
创始人
2024-04-25 12:11:15

文章目录

  • torchvision 下载的 `pretrain` 模型路径
  • cuda 版本一定要适配
  • 多 cuda 训练 `DataParallel` 使用须知

torchvision 下载的 pretrain 模型路径

  • 使用 torchvision 来直接下载 pretrained 模型,有时候服务器的下载速度很慢,不如直接下载到本地之后传上去,但是问题来了,torchvision 模型下载后的存放路径是什么呢?
import torchvision.models as models
model = models.alexnet(pretrained=True)

在这里插入图片描述

  • 可以看到源码中是定义的这个位置,如果是 MAC 系统,那么 $XDG_CACHE_ HOME/ 这个位置就是

    cd ~/.cache/
    
  • 所以 $XDG_CACHE_ HOME/ torch 位置就是

    cd ~/.cache/torch
    
  • 在这里面的 checkpoints 下面就是所有下载的模型了
    在这里插入图片描述

cuda 版本一定要适配

  • 我最近在自己重写 rcnn 的代码,然后默认 torch 的版本是 1.4, 然后我的设备 gpucuda 版本是 11.1
  • 我在进行训练的时候,model.to(device) 好久都没反应,不报错。
    在这里插入图片描述
  • 经过一步步 debug,发现这个版本上掉以轻心了,重新安装 pytorch10.1 版本,cuda 11.1 就可以了

多 cuda 训练 DataParallel 使用须知

  • 很多人都会使用 torch.nn.DataParallel 进行多卡联合训练
  • 但是今天我在设置多卡训练的时候报错: AssertionError: Invalid device id
  • 我运行的时候 0,1,6,7 卡被占用。所以我的 device 设置如下:
os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")model = DataParallel(model, device_ids=[int(i) for i in args.device.split(',')])
AssertionError: Invalid device id

在这里插入图片描述

  • 经过查阅资料 发现:
  • 设置 os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5" 相当于告诉机器,我现在使用这四个设备,那么这四个设备的 device_id 就分别变成了 0, 1, 2, 3 所以代码应该写成下面这样:因为使用 DataParallel 的时候要求必须从设备 0 开始,所以我们需要想办法将我们调用的设备设置成从 0 编号开始
os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")model = DataParallel(model, device_ids=[0,1,2,3])

相关内容

热门资讯

猫咪吃了塑料袋怎么办 猫咪误食... 你知道吗?塑料袋放久了会长猫哦!要说猫咪对塑料袋的喜爱程度完完全全可以媲美纸箱家里只要一有塑料袋的响...
demo什么意思 demo版本... 618快到了,各位的小金库大概也在准备开闸放水了吧。没有小金库的,也该向老婆撒娇卖萌服个软了,一切只...
北京的名胜古迹 北京最著名的景... 北京从元代开始,逐渐走上帝国首都的道路,先是成为大辽朝五大首都之一的南京城,随着金灭辽,金代从海陵王...