pytorch的model.eval()和BN层的使用
内容摘要
这篇文章主要为大家详细介绍了pytorch的model.eval()和BN层的使用,具有一定的参考价值,可以用来参考一下。
文章正文
这篇文章主要为大家详细介绍了pytorch的model.eval()和BN层的使用,具有一定的参考价值,可以用来参考一下。
感兴趣的小伙伴,下面一起跟随php教程来看看吧!
看代码吧~
代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 | <code> class ConvNet(nn.module): def __init__(self, num_class=10): super(ConvNet, self).__init__() self.layer1 = nn.Sequential(nn.Conv2d(1, 16, kernel_size=5, stride=1, padding=2), nn.BatchNorm2d(16), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2)) self.layer2 = nn.Sequential(nn.Conv2d(16, 32, kernel_size=5, stride=1, padding=2), nn.BatchNorm2d(32), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2)) self.fc = nn.Linear(7*7*32, num_classes) def forward(self, x): out = self.layer1(x) out = self.layer2(out) print (out.size()) out = out.reshape(out.size(0), -1) out = self.fc(out) return out</code> |
pytorch中的model.eval()和BN层的使用
代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 | <code> # Test the model model. eval () # eval mode (batchnorm uses moving mean/variance instead of mini-batch mean/variance) with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: images = images.to(device) labels = labels.to(device) outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item()</code> |
pytorch中的model.eval()和BN层的使用
如果网络模型model中含有BN层,则在预测时应当将模式切换为评估模式,即model.eval()。
评估模拟下BN层的均值和方差应该是整个训练集的均值和方差,即 moving mean/variance。
训练模式下BN层的均值和方差为mini-batch的均值和方差,因此应当特别注意。
补充:Pytorch 模型训练模式和eval模型下差别巨大(Pytorch train and eval)附解决方案
当pytorch模型写明是eval()时有时表现的结果相对于train(True)差别非常巨大,这种差别经过逐层查看,主要来源于使用了BN,在eval下,使用的BN是一个固定的running rate,而在train下这个running rate会根据输入发生改变。
解决方案是冻住bn
代码如下:
1 2 3 4 5 | <code> def freeze_bn(m): if isinstance(m, nn.BatchNorm2d): m. eval () model.apply(freeze_bn)</code> |
pytorch中的model.eval()和BN层的使用
这样可以获得稳定输出的结果。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持php教程。
注:关于pytorch的model.eval()和BN层的使用的内容就先介绍到这里,更多相关文章的可以留意
代码注释