人工智能學習Pytorch進階操作教程
一、合並與分割
1.cat拼接
直接按照指定的dim維度進行合並,要求除瞭所需要合並的維度之外,其他的維度需要是一樣的
2.stack堆疊
例:此處創建一個和a一樣的tensor,按照某一維度進行stack,就會在堆疊的維度前面,生成一個新的維度,用以進行選擇,比如新生成瞭一個2維,就可以通過0,1進行選擇。具體是什麼意義,取決於實際的問題。
比如兩個班成績單用stack合並,生成的新維度,就可以選擇0或1來選擇這個新維度,從而達到選擇班級的目的。
3.拆分
①Split按長度拆分
第一個參數可以是單獨的數字a,意思是每一個拆分出來的部分有a個數據;可以是一個類似list的對象b,意思是把數據按照b裡面的方式拆分,拆分成len(b)個tensor。
②Chunk按數量拆分
傳入的第一個參數就是拆成幾個chunk,然後把原來的維度除以這個數量即可。
比如下面的例子,原來維度是[2,32,8],chunk參數傳入2,就需要拆成2個,則2/2=1,最終每一個的維度變為[1,32,8]。
二、基本運算
1.加減乘除
和numpy中的一致。也可以使用torch.add等方法。
2.矩陣相乘
註意,*就是元素與元素相乘,而矩陣相乘可以用以下兩種:torch.matmul,@
如果是高維矩陣相乘,計算的其實就是最後的兩個維度的矩陣乘法。
3.次方計算
和numpy中一致,可以使用**來計算任意次方。此外.pow()也可以計算。
指數和對數計算也基本一致,log默認是以e為底的。
4. clamp
通常用於當出現梯度過大等情況時,對梯度進行裁剪。通過輸入最大最小值,目標中超出最大值的按最大值來;低於最小值的按最小值來。
三、屬性統計
1.求范數
註意一點:求哪個維度的范數,哪個維度就會被消掉。
2.求極值、求和、累乘
3. dim和keepdim
在很多方法中,都可以對dim進行設置。如果不設置,就是把所有數據展開後,求全局的。
註意這裡的dim,a的形狀是[4,10],求最大值時,如果設置dim=1,也就是列,個人理解,意思是結果的維度需要是列,那麼就是把整行的數值進行計算找最大值,最後返回一個列作為結果。
4.topk和kthvalue
topk參數:k(前k個最大值),dim(以dim的維度返回結果)
這個方法默認的是返回的最大值,同時會返回它們的索引。
kthvalue參數:k(第k小的值),dim
5.比較運算
和Numpy中的一致。如果使用torch.eq方法,返回每個對應位置的結果;如果使用torch.equal方法,返回的是整體對比的結果。
6.高階操作
①where
②gather
索引行數小於等於表的行數。也就是說,既然要用索引來去找表中的內容,就不能超過表的索引長度。索引在傳入gather方法中的時候,必須要轉換成Long的類型。
舉例如下:
返回值的形狀一定是索引的形狀,因為就是按照索引去取的值。返回值的內容就來自於輸入的input,根據索引獲得的對應的值。
以上就是人工智能學習Pytorch進階操作教程的詳細內容,更多關於PyTorch進階的資料請關註WalkonNet其它相關文章!
推薦閱讀:
- 解析Pytorch中的torch.gather()函數
- Pytorch數據類型與轉換(torch.tensor,torch.FloatTensor)
- 淺談tensorflow與pytorch的相互轉換
- pytorch人工智能之torch.gather算子用法示例
- pytorch中的廣播語義