Tensor 實際上就類似於 numpy 中的數組,兩者可以自由轉換。
import torch
x = torch.rand(3,4)
print("x Tensor: ",x)
output :
x Tensor: tensor([[0.3558, 0.2883, 0.6485, 0.9077],
[0.7769, 0.3269, 0.1042, 0.9279],
[0.8269, 0.0521, 0.2655, 0.9333]])
接著練習 Variable 的操作
from torch.autograd import Variable
x=Variable(torch.rand(2,2))
print("x variable: ",x)
output :
x variable: tensor([[0.7233, 0.0387],
[0.2422, 0.5431]])
在 Torch 中的 Variable 就是一個存放變數的記憶體位置
Variable 是有導數 grad 的,x.data 是數據,這裡 x.data 就是 Tensor。 x.grad 是計算過程中動態變化的導數。
output :
x.data: tensor([[0.7233, 0.0387],
[0.2422, 0.5431]]) ,x.grad: None
這邊因為還無法計算grad. 所以顯示None。
沒有留言:
張貼留言