Pytorch實現(xiàn)tensor序列化和并行化的示例詳解
Pytorch 實現(xiàn) tensor 序列化和反序列化
序列化 Serialization
保存一個對象到一個硬盤文件上
torch.save(obj, f, pickle_mode, pickle_protocol)
參數(shù):
- obj – 保存對象
- f - 類文件對象 (返回文件描述符)或一個保存文件名的字符串
- pickle_module – 用于 pickling 元數(shù)據(jù)和對象的模塊
- pickle_protocol – 指定 pickle protocal 可以覆蓋默認參數(shù)
從磁盤文件中讀取一個通過 torch.save()保存的對象
torch.load(f, map_location=None, pickle_mode)
torch.load() 可通過參數(shù) map_location 動態(tài)地進行內(nèi)存重映射,使其能從不動設(shè)備中讀取文件。一般調(diào)用時,需兩個參數(shù): storage 和 location tag。 返回不同地址中的 storage,或著返回 None (此時地址可以通過默認方法進行解析)。 如果這個參數(shù)是字典的話,意味著其是從文件的地址標記到當前系統(tǒng)的地址標記的映射。 默認情況下,location tags 中 "cpu"對應(yīng) host tensors,‘cuda:device_id’ (e.g.‘cuda:2’) 對應(yīng) cuda tensors。 用戶可以通過 register_package 進行擴展,使用自己定義的標記和反序列化方法。
- f – 類文件對象 (返回文件描述符)或一個保存文件名的字符串
- map_location – 一個函數(shù)或字典規(guī)定如何 remap 存儲位置
- pickle_module – 用于 unpickling 元數(shù)據(jù)和對象的模塊 (必須匹配序列化文件時的 pickle_module )

并行化 Parallelism
torch.get_num_threads torch.get_num_threads() → int #獲得用于并行化 CPU 操作的 OpenMP 線程數(shù) torch.set_num_threads torch.set_num_threads(int) #設(shè)定用于并行化 CPU 操作的 OpenMP 線程數(shù)
以上就是Pytorch實現(xiàn)tensor序列化和并行化的示例詳解的詳細內(nèi)容,更多關(guān)于Pytorch tensor序列化和并行化的資料請關(guān)注腳本之家其它相關(guān)文章!
- 使用PyTorch/TensorFlow搭建簡單全連接神經(jīng)網(wǎng)絡(luò)
- PyTorch使用教程之Tensor包詳解
- 最新tensorflow與pytorch環(huán)境搭建的實現(xiàn)步驟
- pytorch?tensor合并與分割方式
- PyTorch?TensorFlow機器學習框架選擇實戰(zhàn)
- pytorch中tensorboard安裝及安裝過程中出現(xiàn)的常見錯誤問題
- Pytorch之tensorboard無法啟動和顯示問題及解決
- Pytorch Dataset,TensorDataset,Dataloader,Sampler關(guān)系解讀
- PyTorch中tensor[..., 2:4]的實現(xiàn)示例
相關(guān)文章
Python內(nèi)置的HTTP協(xié)議服務(wù)器SimpleHTTPServer使用指南
這篇文章主要介紹了Python內(nèi)置的HTTP協(xié)議服務(wù)器SimpleHTTPServer使用指南,SimpleHTTPServer本身的功能十分簡單,文中介紹了需要的朋友可以參考下2016-03-03
Python爬取微信小程序Charles實現(xiàn)過程圖解
這篇文章主要介紹了Python爬取微信小程序Charles實現(xiàn)過程圖解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-09-09
詳解python中Numpy的屬性與創(chuàng)建矩陣
這篇文章給大家分享了關(guān)于python中Numpy的屬性與創(chuàng)建矩陣的相關(guān)知識點內(nèi)容,有興趣的朋友們可以學習參考下。2018-09-09

