pytorch中nn.RNN()总结

摘要:
nn中。RNN(input_size,hiden_size,num_layers=1,非线性=tanh,偏差=True,batch_first=False,drop-out=0,双向=False)参数描述input_size输入特征的维度。通常,rnn中的输入是单词向量_大小等于单词向量的隐藏维数_大小隐藏层神经元的数量,或

nn.RNN(input_size, hidden_size, num_layers=1, nonlinearity=tanh, bias=True, batch_first=False, dropout=0, bidirectional=False)

参数说明

    • input_size输入特征的维度, 一般rnn中输入的是词向量,那么 input_size 就等于一个词向量的维度
    • hidden_size隐藏层神经元个数,或者也叫输出的维度(因为rnn输出为各个时间步上的隐藏状态)
    • num_layers网络的层数
    • nonlinearity激活函数
    • bias是否使用偏置
    • batch_first输入数据的形式,默认是 False,就是这样形式,(seq(num_step), batch, input_dim),也就是将序列长度放在第一位,batch 放在第二位
    • dropout是否应用dropout, 默认不使用,如若使用将其设置成一个0-1的数字即可
    • birdirectional是否使用双向的 rnn,默认是 False
      注意某些参数的默认值在标题中已注明

输入输出shape

  1. input_shape = [时间步数, 批量大小, 特征维度] = [num_steps(seq_length), batch_size, input_dim]
  2. 在前向计算后会分别返回输出隐藏状态h,其中输出指的是隐藏层在各个时间步上计算并输出的隐藏状态,它们通常作为后续输出层的输⼊。需要强调的是,该“输出”本身并不涉及输出层计算,形状为(时间步数, 批量大小, 隐藏单元个数);隐藏状态指的是隐藏层在最后时间步的隐藏状态:当隐藏层有多层时,每⼀层的隐藏状态都会记录在该变量中;对于像⻓短期记忆(LSTM),隐藏状态是⼀个元组(h, c),即hidden state和cell state(此处普通rnn只有一个值)隐藏状态h的形状为(层数, 批量大小,隐藏单元个数)

代码:

rnn_layer = nn.RNN(input_size=vocab_size, hidden_size=num_hiddens, )

# 定义模型, 其中vocab_size = 1027, hidden_size = 256

num_steps = 35

batch_size = 2

state = None# 初始隐藏层状态可以不定义

X = torch.rand(num_steps, batch_size, vocab_size)

Y, state_new = rnn_layer(X, state)

print(Y.shape, len(state_new), state_new.shape)

输出

torch.Size([35, 2, 256]) 1 torch.Size([1, 2, 256])

具体计算过程

Ht = input * Wxh + Ht-1 * Whh + bias
[batch_size, input_dim] * [input_dim, num_hiddens] + [batch_size, num_hiddens] *[num_hiddens, num_hiddens] +bias
可以发现每个隐藏状态形状都是[batch_size, num_hiddens], 起始输出也是一样的
注意:上面为了方便假设num_step=1

import  torch
from torch import nn

rnn = nn.RNN(input_size=100,hidden_size=20,num_layers=1)

print(rnn)

x = torch.randn(20,3,100) #3句话,每句话 10个单词,每个单词100纬度

out, h = rnn(x)
print(out.shape,h.shape)

print(nn.RNN(100,20))
输出:
  

      RNN(100, 20)
      torch.Size([20, 3, 20]) torch.Size([1, 3, 20])
      RNN(100, 20)

import  torch
from torch import nn

rnn = nn.RNN(input_size=100,hidden_size=20,num_layers=4)

print(rnn)

x = torch.randn(20,3,100) #3句话,每句话 10个单词,每个单词100纬度

out, h = rnn(x)
print(out.shape,h.shape)

print(nn.RNN(100,20))
输出 :torch.Size([20, 3, 20]) torch.Size([4, 3, 20])

免责声明:文章转载自《pytorch中nn.RNN()总结》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇虹软人脸识别——官方 Qt Demo 移植到 Linux错误:java.lang.IllegalStateException: TimerTask is scheduled already下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Ztree _ 横向显示子节点、点击文字勾选、去除指定元素input的勾选状态

前些天项目需要树结构表现数据,需求ztree就能满足所以直接使用ztree只是踩了些小坑。。。 1.ztree子节点横向显示(下图): 效果说明:第三级子节点按需求横向显示其他竖向显示,每行最多显示5个(修改位置在zTreeStyle.css里面哦,在外面设置不上的,页面也获取不到想要设置样式的节点。。。如果你能还望赐教)代码如下: 1 .ztree&g...

input 只能输入数字、字母、汉字等

1.文本框只能输入数字代码(小数点也不能输入) <input onkeyup="this.value=this.value.replace(/D/g,'')"onafterpaste="this.value=this.value.replace(/D/g,'')" /> 2.只能输入数字,能输小数点. <input onkeyup="if...

jquery中选择器input:hidden和input[type=hidden]的差别

jquery中选择器input:hidden和input[type=hidden]的差别 关于选择器:hidden的申明,在jquery申明文档中是如许说的:匹配所有不成见元素,或者type为hidden的元素。而[type=hidden]是查找所有type属性便是hidden的元素。两者是有雷同之处和不合之处的。:hidden匹配所有不成见元素,或者...

微信公众平台开发尝试

最近看了一篇博文是说微信公众平台搭建,于是心血来潮自己也尝试了一下。 1.不用多讲了,申请微信公众号,对于个人来说,只能申请订阅号。 可以看这个链接的文章,http://jingyan.baidu.com/article/414eccf6011ff06b431f0aec.html 2.采用的是Sina App Engine来脱管服务,就要申请sae开发者权...

chrome表单自动填充导致input文本框背景变成偏黄色问题解决

chrome表单自动填充后,input文本框的背景会变成偏黄色的,想必大家都会碰到这种情况吧,这是由于chrome会默认给自动填充的input表单加上input:-webkit-autofill私有属性造成的,解决方法如下,感兴趣的朋友可以了解下 chrome表单自动填充后,input文本框的背景会变成偏黄色的,这是由于chrome会默认给自动填充的inp...

echarts地图迁徙图(根据数据设置线的颜色)

<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>echarts中国地图</title> <style> .centerItem {...