pretrain 模型路径import torchvision.models as models
model = models.alexnet(pretrained=True)

可以看到源码中是定义的这个位置,如果是 MAC 系统,那么 $XDG_CACHE_ HOME/ 这个位置就是
cd ~/.cache/
所以 $XDG_CACHE_ HOME/ torch 位置就是
cd ~/.cache/torch
在这里面的 checkpoints 下面就是所有下载的模型了

rcnn 的代码,然后默认 torch 的版本是 1.4, 然后我的设备 gpu 的 cuda 版本是 11.1model.to(device) 好久都没反应,不报错。
pytorch 的 10.1 版本,cuda 11.1 就可以了DataParallel 使用须知torch.nn.DataParallel 进行多卡联合训练AssertionError: Invalid device id0,1,6,7 卡被占用。所以我的 device 设置如下:os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")model = DataParallel(model, device_ids=[int(i) for i in args.device.split(',')])
AssertionError: Invalid device id

os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5" 相当于告诉机器,我现在使用这四个设备,那么这四个设备的 device_id 就分别变成了 0, 1, 2, 3 所以代码应该写成下面这样:因为使用 DataParallel 的时候要求必须从设备 0 开始,所以我们需要想办法将我们调用的设备设置成从 0 编号开始os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")model = DataParallel(model, device_ids=[0,1,2,3])