显卡1060和1660测试对比

摘要:
1060的cuda核心是1280,1660是1408,前者的核心大约是后者的91%,这与花费的时间比例相似。

为了测试,在车辆重识别Veri776数据集下取了小样本数据集

1060
python==3.6.7 torch==0.4.0
Total elapsed time (h:m:s): 0:12:43


1660
python==3.7.1 torch==1.0.1
Total elapsed time (h:m:s): 0:11:45

1660花费的时间大约是1060的92.4%。

1060的cuda核心是1280,1660是1408,前者的核心大约是后者的91%,与花费的时间比例相近。

免责声明:文章转载自《显卡1060和1660测试对比》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇【P4语言学习】Parser解析器Keras 之 多层感知机(MLP)下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

torch_geometric安装

因为需要跑一些别人的GCN的任务,所以就要安装相关的包; 首先要注意cuda版本和pytorch中的对应关系,必须严格对应,比如我的机器上,cuda版本是10.1; pytorch的cuda版本也是10.1,之前其实是10.2,又重装了一遍; pytorch版本是1.4; python版本是3.6;然后在这个网页上 https://pytorch-ge...

torch笔记合集

Torch笔记 import torch import numpy as np import torch.nn as nn a_np = np.random.rand(10,100) numpy知识回顾 a_np.dtype # 数据类型 a_np.ndim #维度个数 a_np.shape # 形状 整数元祖 a_np.dtype=np.int...

pytorch的Embedding使用

torch.nn.Embedding存储的是形如num_embeddings*embedding_dim的矩阵,以词向量为例,num_embeddings表示词向量的个数,embedding_dim表示词向量的维度。 初始化: 它提供了从已知Tensor进行初始化的方法:nn.Embedding.from_pretrained 配合torch.from_n...

Anaconda CUDA9.1.83对应的pytorch安装,不同版本的pytorch下载

CUDA版本是 9.1.83,python版本3.6.5 win10 使用如下语句可以安装cu91版本的pytorchpip3 install http://download.pytorch.org/whl/cu91/torch-0.4.0-cp36-cp36m-win_amd64.whl 然而下载torchvision会使用之前缓存中的torchvi...

pyTorch进阶-torch

一、Broadcast自动扩展 Expand和unsquee的结合,习惯性行是高维度,列是低维度 example: 小维度指定,大维度随意 二、拼接与拆分 Cat Stack:增加新的维度 Split(按照长度进行拆分) Chunk(按照数量进行拆分) torch.stack torch.stack(sequence, dim=0) 参数:...

LibTorch实战六:U2-Net实战部署<三>

 导读 一、数据标注 二、模型评价 三、源码解读 四、Libtorch部署 五、性能分析  六、问题记录 导读 U2-Net模型分为两种: U2NET---173.6 MB (参数量:4千万) U2NEP---4.7 MB    (参数量:1 百万) (5s为700万个参数,VGG-16有4000万,ResNet 1.3亿个参数)项目地址:http...