• slider image 168
:::
條列式新聞
新聞載入中,請稍後...

9-2 將硬碟格式化為 ZFS 格式及ZFS分割區

Proxmox VE 官網 ZFS 文件
https://pve.proxmox.com/wiki/Storage:_ZFS

接下來的 硬碟格式化為 ZFS 格式的過程都會依 上面 官網文件 的說明來操作

使用主機:Acer M265   記憶體:4G

 

今天將某一部 Proxmox VE 主機裡的硬碟轉換為 ZFS 格式,
(先講重點:虛擬機在 ZFS 檔案系統上可以使用 Snapshot 還原 , 使用 Storage/目錄 方式,而非直接使用 ZFS Storage 方式,這個方式目前還沒有深入研究)

硬碟型號:電腦教室汰換下來的學生主機的硬碟 二顆

Model Family:     Western Digital Caviar Blue (SATA)
Device Model:     WDC WD5000AAKS-22V1A0
Serial Number:    WD-WCAWF3068031
User Capacity:    500,107,862,016 bytes [500 GB]

Model Family:     Western Digital Caviar Blue (SATA)
Device Model:     WDC WD5000AAKS-22V1A0
Serial Number:    WD-WCAWF4364428
User Capacity:    500,107,862,016 bytes [500 GB]

 

首先把這二顆建立 ZFS Raid 1

zpool create -f -o ashift VM3 /dev/sdb /dev/sdc

再建立壓縮功能

zfs set compression=lz4 VM3

建立完成後

# df -h|grep VM3
VM3                   450G   128k  361G  1% /VM3

 

以 rsync 將原來的虛擬機檔案傳送回來,但傳送的速度卻……非常地慢…真得慢到超級慢。想說,以後還要同步備份這些虛揓機,那要花的時間真得要很久

而原來在另外一台 Proxmox VE 的主機上,同樣地也接了同型號的2顆硬碟,
搭配使用   免插卡式SATA 2陣列卡/雙通道硬碟加速卡

將寫入的動作交給這片卡來做,速度可以達到和 ext4 檔案格式的速度

而使用 zfs 檔案格式的硬碟,官網不建議使用 陣列卡,原因為 CPU 可以完全控制硬碟的讀寫, CPU 整體效率有多高,

ZFS 檔案系統的效率就有多快。而在 FB 的 Proxmox VE 中文社團裡是建議 使用 ZFS 將兩顆硬碟建立為 Mirror (Raid 1) 會比 單顆硬碟使用 ZFS 檔案系統會來的有效率。而在我實作中,
這2顆藍標的500G硬碟做成 ZFS Raid1 的效率(非常慢) <  2顆藍500G 配合 Raid1 陣列卡(快)
這2顆藍標的500G硬碟做成 ZFS Raid1 的效率(非常慢) <  1顆藍500G 直接使用 ZFS 檔案系統(快)

這是非正式格式化測試,不是 zfs 讀寫的測試,而且,主機的 cpu 效率並不快,況且也已是六、七年前的主機。

 

而另外2顆硬碟
Device Model:     ST5000NM0084         00FN169 00FN172IBM
User Capacity:    5,000,981,078,016 bytes [5.00 TB]
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s)

這兩顆 5T 的硬碟做成 ZFS Raid1 寫入的速度反而更快,所以,推測和 硬碟的速度也有關。


 

硬碟 ZFS 磁碟陣列 使用陣列卡 硬硬存取效率
500G x 2
SATA 2.6,
3.0 Gb/s
ZFS Raid 1
(Mirror)
非常慢
500G x 2
SATA 2.6,
3.0 Gb/s
ZFS  Raid 1
陣列卡
5T x 2
SATA 3.1, 6.0 Gb/s
(current: 3.0 Gb/s)
ZFS Raid 1
(Mirror)
超級快


所以使用 ZFS 檔案系統,需要較高等級的 CPU 與 較快的硬碟速度,但若對於大量硬碟存取需求不那麼迫切的話,普通的桌機就能適用了。

 


:::
展開 | 闔起

文章類別

書籍目錄

展開 | 闔起

線上使用者

5人線上 (5人在瀏覽線上書籍)

會員: 0

訪客: 5

更多…