Matlab操作HDF5文件示例

HDF5文件

在使用Matlab對數據進行預處理時,遇到瞭內存不足的問題,因為數據量太大,在處理完成以前內存已經爆滿。如果使用Matlab的.m文件對文件進行存儲的話,則需要將數據分割成多個文件,對後續的處理造成瞭不便。HDF5文件則是一種靈活的文件存儲格式,有一個最大的好處就是在Matlab的處理過程中可以對它進行擴展寫入,也就是說不是所有數據處理完以後一次寫入,而是邊處理邊寫入,極大的降低瞭對系統內存的要求。

HDF5文件類似與一個文件系統,使用這個文件本身就可以對數據集(dataset)進行管理。例如下圖所示,HDF5文件中的數據集皆存儲根目錄/,在根目錄下存在多個group,這樣一些group類似與文件系統的文件夾,在它們可以存儲別的group,也可以存儲數據集。

對於每一個dataset 而言,除瞭數據本身之外,這個數據集還會有很多的屬性 attribute,。在hdf5中,還同時支持存儲數據集對應的屬性信息,所有的屬性信息的集合就叫做metadata;

使用Matlab操作HDF5文件

使用Matlab創建HDF5文件

使用Matlab創建HDF5文件的函數是h5create,使用如下:

h5create(filename,datasetname,[30, 30 , 3, inf],'Datatype','single','ChunkSize',[30,30,3,1000])

filenameh5文件的文件名(不知道什麼問題,在我的電腦上使用時,這個函數無法指定路徑)。

datasetname則為數據集的名字,數據集名稱必須以/開頭,比如/G

[30,30,3,inf]位數據集的大小,比如我的數據集為30x30大小的彩色圖像,並且我希望數量能夠擴展,那麼就可以指定最後以為度為inf,以表示數量不限。

Datatype為數據類型

ChunkSize為數據存儲的最小分塊,為瞭讓數據能夠具有擴展性,所以為新來的數據分配一定的空間大小,對於一個非常大的數據,這個值設置大一點比較好,這樣分塊就會少一點。比如我的數據集中,30x30大小的彩色圖像大概有10萬個左右,那麼1000個存儲在一起較為合適,則chunksize設置為:[30,30,3,1000]。

使用Matlab寫入HDF5

在創建瞭hdf5文件和數據集以後,則可以對數據集進行寫操作以擴展裡面的數據。使用Matlab寫入HDF5文件的函數是h5write,使用如下:

h5write(fileName,datasetName,data,start,count);

fileName: hdf5文件名

datasetName:數據集名稱,比如/Gdata:需要寫入的數據,數據的維度應該與創建時一致,比如,設置的數據集大小為[30,30,3,inf],那麼這裡的data的前三個維度就應該是[30, 30, 3],而最後一個維度則是自由的

start:數據存儲的起點,如果是第一次存,則應該為[1, 1, 1, 1](註意數據維度的一致性),如果這次存瞭10000個樣本,也就是[30,30,3,10000],那麼第二次存儲的時候起點就應該為[1,1,1,10001]

count存儲數據的個數,同樣要根據維度來(其實就是數據的維度),這裡為[30,30,3,10000]

使用Matlab查看HDF5文件信息

Matlab中可以使用h5info函數來讀取HDF5文件的信息:

fileInfo = h5info(fileName);

然後通過解析fileInfo結構,則可以得到HDF5文件中的數據集名稱、數據集大小等等必要信息。

使用Matlab讀取HDF5中的數據集

Matlab中可以使用h5read函數來讀取HDF5文件:

data = h5read(filename,datasetname,start,count)

filename:HDF5文件文件名

datasetname:數據集名稱

start:從數據集中取數據的其實位置

count:取的數據數量

還是以上面的30×30的彩色圖像為例,如果每次需要取1000個,那麼第一次取時,start應該設置為[1, 1, 1, 1] ,count設置為:[30, 30 ,3 1000]。第二次取值時,start則應該設置為[1, 1, 1, 1001],count則設置為:[30, 30, 3, 1000]。

以上就是Matlab操作HDF5文件示例的詳細內容,更多關於Matlab操作HDF5文件的資料請關註WalkonNet其它相關文章!

推薦閱讀: