根据简单有效原则,先上一张图片:
图中先给出一个名字为C的Tensor,人为赋值为[ [ [ 1, 2, 3], [ 3, 4, 5 ] ], [ [ 6, 7, 8 ], [7, 8 , 9] ], [ [ 12, 34, 51 ], [ 78, 79, 80 ] ] ],在这一组简单的数据中,batchsize=3即3个数据单元 [ [ 1, 2, 3], [ 3, 4, 5 ] ]、[ [ 6, 7, 8 ], [7, 8 , 9] ]、[ [ 12, 34, 51 ], [ 78, 79, 80 ] ],对于每个数据单元,例如 [ [ 1, 2, 3], [ 3, 4, 5 ] ]又可以看到是由[ 1, 2, 3]和[ 3, 4, 5 ] 组成,其他两个同理,因此可以得到数据单元的长度length=3, height=2,如果数据总体按照(batchsize, length, height)的格式来描述,那么C可以描述为(3, 3, 2),对应于实际,我想C应该就是用来表达总体的数据集。
当D = C.view(3,-1)即D = C.view(batchsize, -1)时(备注:-1为自动计算剩余维数),可以看到效果,首先由三维Tensor C变成了二维的Tensor B,然后本来在C中是两行数据[[1, 2, 3], [3, 4, 5]]经过view(batchsize, -1)以后合并为一行[1, 2, 3, 3, 4, 5],这样对应实际例如图片的输入,1张图片是由多个行向量排列到一块的。即[ [ , ,.., ], [ , ,..., ],...[ , ,..., ] ]这样的结构,所以实际输入到网络中有时候需要将原本基本向量即带有行和列的向量平整为行向量。
当E = D.view(1,1,-1)时候,可以看到生成的是一个3维Tensor,和view()中参数个数保持一致,第二个例子没有太多实际的意义,只是为了进一步测试view的用法。