TorchVisionV0.9中引入的ML模型

摘要:
TorchVisionV0.9中引入的ML模型TorchVisioV0.9已经发布。它包含许多新的机器学习模型和功能、速度改进和错误修复。用法:model=torchvision.models。mobilenet_v3_large#model=torchvision.models。mobilenet_v3_small#模型=torchvisio.models.quantization。mobilenetv3大型模型。Eval()预测=模型目标检测:FasterR-CNNMobileNetV3-LargeFPN。用法:model=torchvision.models.detection。fastrrcnn_mobilenet_v3_large_fpn#模型=torchvisio.models.detection。fastrrcnn_mobilenetv3_large320-fpnmo模型。Eval()预测=模型语义分割:DeepLabV3withDilatedMobileNetV3LargeBackbone:MobileNetV3Large扩展版和DeepLabV3的结合帮助我们建立一个高度准确和快速的语义分割模型。用法:model=torchvision.models.segmentation。deeplabv3_mobilenet_v3_large#model=torchvision.models.segmentation。lraspp_mobilenetv3_大型模型。Eval()预测=模型在不久的将来,我们计划发表一篇文章,详细介绍如何训练上述模型,并讨论它们的权衡和设计选择。

TorchVisionV0.9中引入的ML模型

TorchVisionV0.9已经发布,它包含了许多新的机器学习模型和功能,速度改进和错误修复。在这篇博文中,我们简要介绍了新引入的ML模型,并讨论了它们的主要特性和特性。

分类

MobileNetV3 Large & Small:这种二分类模型针对移动用例进行了优化,并用作其他计算机视觉任务的主干。新MobileNetV3体系结构的实现支持原论文中描述的大小变体和深度倍增参数。我们为具有深度倍增1.0和分辨率224x224的大网络和小型网络提供预先训练的ImageNet权重。我们以前的方法已经更新,可以用来轻松地从头训练模型(向Ross Wightman致敬,感谢他指导我们做了一些训练配置)。与ResNet50相比,在CPU上比ResNet50快6倍,这意味着它是一个很好的候选应用程序,其中速度是重要的。对于速度至关重要的应用程序,您可以牺牲更高的速度精度,并使用比ResNet50快15倍的小模型。

Quantized MobileNetV3 Large:量化版本MobilNetV3 Large减少了45%的参数,它比未量化版本快约2.5倍,但在准确性方面保持竞争力。它通过对非量化版本的迭代,采用量化感知训练方法在ImageNet上进行了装配,并可以使用现有的参考脚本从头开始训练。

用法:

model = torchvision.models.mobilenet_v3_large(pretrained=True)
# model = torchvision.models.mobilenet_v3_small(pretrained=True)
# model = torchvision.models.quantization.mobilenet_v3_large(pretrained=True)
model.eval()
predictions = model(img)

目标检测:

Faster R-CNN MobileNetV3-Large FPN:把MobileNetV3 Large更快的R-CNN检测器和特征金字塔网络相结合,可以获得高精度和快速的目标检测器。使用提供的参考脚本在COCO 2017上安装预先训练的重量,该模型在CPU上比同等的ResNet50探测器快5倍,同时在准确性方面保持竞争力。

Faster R-CNN MobileNetV3-Large 320 FPN:这是以前模型的一个迭代,它降低的分辨率(最小值=320像素),也降低了的准确性。但它比同等的ResNet50检测器在CPU上快25倍,因此对于真正的移动应用来说是很好的。

用法:

model = torchvision.models.detection.fasterrcnn_mobilenet_v3_large_fpn(pretrained=True)
# model = torchvision.models.detection.fasterrcnn_mobilenet_v3_large_320_fpn(pretrained=True)
model.eval()
predictions = model(img)

语义分割:

DeepLabV3 with Dilated MobileNetV3 Large Backbone:  MobileNetV3 Large扩展版本与DeepLabV3相结合,有助于我们建立一个高度准确和快速的语义分割模型。使用我们的标准训练方法,将预先训练的权重模型安装在COCO 2017上。最终的模型与FCN ResNet50具有相同的精度,但是它的CPU速度快了8.5倍,因此它是大多数应用程序的优秀替代品。

Lite R-ASPP with Dilated MobileNetV3 Large Backbone: 我们介绍了一种新的语义分割 liter R-ASPP的实现,并将其与扩展的MobileNetV3 Large相结合,建立了一个非常快速的分割模型。与以前轻量级的分割模型FCN ResNet50相比,新模型损失了一定的精度,但实现了15倍的速度提升。

用法:

model = torchvision.models.segmentation.deeplabv3_mobilenet_v3_large(pretrained=True)
# model = torchvision.models.segmentation.lraspp_mobilenet_v3_large(pretrained=True)
model.eval()
predictions = model(img)

在不久的将来,我们计划发表一篇文章,详细介绍如何训练上述模型,并讨论它们的权衡和设计选择。在此之前,我们鼓励您尝试新的模型,并提供您的反馈。

转自:https://pytorch.org/blog/ml-models-torchvision-v0.9/

免责声明:文章转载自《TorchVisionV0.9中引入的ML模型》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇linux下以太网功能不能正常使用的原因及解决办法EOSIO开发区块链DApp之智能合约下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

nginx 414 Request-URI Too Large

症状 nginx 414 Request-URI Too Large #客户端请求头缓冲区大小,如果请求头总长度大于小于128k,则使用此缓冲区, #请求头总长度大于128k时使用large_client_header_buffers设置的缓存区client_header_buffer_size 128k; #large_client_header_buf...

通过CSS控制图片样式,实现图片弹出效果

Code 1<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> 2 2<html xmlns="http://www.w3.org/1999/xh...