亲宝软件园·资讯

展开

Python查看Tensor尺寸及数据类型

ShuqiaoS 人气:1

查看Tensor尺寸及查看数据类型

Tensor尺寸查看

命令:

例子:

input = torch.randn(20,16,50,32)
input.shape

输出为:

在这里插入图片描述

注意调用的时候不要用x.shape()

否则会报错:AttributeError: 'Tensor' object has no attribute 'get_shape'

数据类型查看

命令:

例子:

input = torch.randn(20,16,50,32)
input.type()

输出:

在这里插入图片描述

Pytorch基本数据类型tensor

在Pytorch中必须使用Pytorch特有的张量(tensor)数据类型,本文介绍tensor的基本操作

Python和Pytorch数据类型对应

在这里插入图片描述

以上数据是存储在CPU中。

如果使用.cuda(),会返回一个GPU上的引用

import torch
a = torch.tensor([1,2])
c = a.cuda
print(c)
print(type(c))
-----输出------
D:\Users\Lenovo\anaconda3\python.exe C:/Users/Lenovo/Desktop/pythonProject2/main.py
<built-in method cuda of Tensor object at 0x000002A03434CA00>
<class 'builtin_function_or_method'>
Process finished with exit code 0

创建tensor的方法

import torch
import numpy
a = numpy.array([1,2,3,4])
b = torch.from_numpy(a)  #从numpy中引入
print(b)
c = torch.tensor([1,2,3,4])
print(c)  #直接创建
d = torch.Tensor([4,5,6,7])
print(d)  #直接创建
e = torch.Tensor(2,3)
print(e)  #用shape创建随机的指定维度的tensor

一些常用的生成tensor方法

import torch
a = torch.rand(3, 3) #生成指定大小的,元素范围[0,1]的tensor
print(a)
b = torch.rand_like(a) #生成与对象tensor大小一致的tensor
print(b)
c = torch.randint(1,10,(3,3)) #生成(3,3)大小,[1,10)范围的tensor(包括1,但不包括10)
print(c)
d = torch.randn(2,4) #生成均值为0,方差为1的随机tensor
print(d)
e = torch.full([2,5],0) #生成全部一样的tensor
print(e)
f = torch.arange(0,10)  #生成顺序tensor
print(f)
g = torch.linspace(0,9,steps=8)  #生成[0,9],等分成8个的tensor
print(g)
print(torch.ones(3,1),
      torch.zeros(4,5),
      torch.eye(6)) #生成全1,全0,单位矩阵tensor

tensor的切片与索引

import torch
a = torch.rand(3, 7) #生成指定大小的,元素范围[0,1]的tensor
print(a)
print("*"*100)
print(a[0])  #取一行
print("*"*100)
print(a[:2,4:])  #指定一块子区域
print("*"*100)
print(a[:,2])  #取一列
print("*"*100)
print(a[:,0:7:2]) #[0,7]行隔2行取样
print("*"*100)
print(a.index_select(1,torch.tensor([2,6])))  #指定切片位置
print("*"*100)
mask = a.ge(0.8)
print(torch.masked_select(a,mask)) #通过掩码条件切片(注意切片后会被flatten)
print(mask) #看看mask矩阵

tensor的维度变换(重点)

基本操作:

import torch
a = torch.rand(3,4,2) #生成指定大小的,元素范围[0,1]的tensor
print(a)
# view方法:变换tensor的形状
print(a.view(3, 8))  #压缩维度
print(a.view(3,2,2,2))  #扩展维度
# unsqueeze方法:在指定地方插入一维(squeeze方法同理会消除一维)
print(a.unsqueeze(1))
print(a.squeeze(1))  #squeeze只有在原有维度为1才有用,试试把上面改成rand(3,1,2)看看效果

tensor的叠加和分割

```python
import torch
#cat操作
a = torch.rand(4,1,3)
b = torch.rand(3,1,3)
# print(a)
# print(b)
c = torch.cat((a,b))  #合并tensor(只能在其他dimension一致的情况下才能合并)
# print(c)
# print(c.shape)
#stack操作
d = torch.rand(4,1)
e = torch.rand(4,1)
# print(d)
# print(e)
f = torch.stack((d,e))  #合并tensor,与cat不同的是,stack会增加一个更高的维度
# print(f)
# print(f.shape)
#split操作
g = torch.rand(5,2,1)
h,i = g.split([1,4])
# print(g)
# print(h)
# print(i)

tensor的数学运算

import torch
#基本加减乘除
a = torch.zeros(4,3)
b = torch.ones(3)
# print(a+b)  #这样会报错,正确做法如下
# print(torch.add(a, b))  #结果全是1,broadcast运算逻辑
c = torch.tensor([[1,2,3],[4,5,6],[7,8,9]])
d = torch.eye(3)
# print(torch.add(c,d))
# print(c+d)  #不采用broadcast逻辑时,这样也可以
# print(c*d)
# print(c/d)
# print(c**2) #平方
# print(c**0.5) #开平方
#矩阵相乘
# print(torch.matmul(torch.ones(3,3),torch.ones(3,3)))
# print(torch.ones(3,3)@torch.ones(3,3))  #用@的效果是一样的
#高维度的矩阵相乘
e = torch.rand(4,3,2,3)
f = torch.rand(4,3,3,5)
g = e@f
# print(g)
# print(g.shape)  #可以看到,本质上也是二维矩阵相乘的规律
#clamp算法
print(c.clamp(4))  #把小于4的值全部都替换成4

tensor的统计相关操作

import torch
#norm方法(求范数)
a = torch.arange(10,dtype=float)
b = a.view(2,5)
print(a.norm(1))
print(b.norm(1))
print(a.norm(2,dtype=float))  #同理求二范数
print(b)
print(b.norm(1,dim=1,dtype=float))  #求指定维度的范数
#求最大、最小、平均、求和
print(a.sum())
print(a.min())
print(a.max())
print(a.mean())
#top N的值
c = torch.tensor([1,2,3,3,4,4,4,5,5,5,5,6,8,8],dtype=float)
print(c.topk(3))
print(c.topk(3, largest=False))  #找到前N最小的值
print(c.kthvalue(4))  #找到第k小的值

#比较
print(a>4)
print(a!=8)
#where
cond = torch.tensor([[1,2],[3,4]],dtype=float)  #用where组合2个tensor
d = torch.zeros(2,2)
e = torch.ones(2,2)
print(torch.where(cond>2,d,e))

以上为个人经验,希望能给大家一个参考,也希望大家多多支持。

加载全部内容

相关教程
猜你喜欢
用户评论