Proxmox VE 4.x 中文初階學習手冊
Proxmox VE 官網 ZFS 文件
https://pve.proxmox.com/wiki/Storage:_ZFS
接下來的 硬碟格式化為 ZFS 格式的過程都會依 上面 官網文件 的說明來操作
使用主機:Acer M265 記憶體:4G
今天將某一部 Proxmox VE 主機裡的硬碟轉換為 ZFS 格式,
(先講重點:虛擬機在 ZFS 檔案系統上可以使用 Snapshot 還原 , 使用 Storage/目錄 方式,而非直接使用 ZFS Storage 方式,這個方式目前還沒有深入研究)
硬碟型號:電腦教室汰換下來的學生主機的硬碟 二顆
Model Family: Western Digital Caviar Blue (SATA)
Device Model: WDC WD5000AAKS-22V1A0
Serial Number: WD-WCAWF3068031
User Capacity: 500,107,862,016 bytes [500 GB]
Model Family: Western Digital Caviar Blue (SATA)
Device Model: WDC WD5000AAKS-22V1A0
Serial Number: WD-WCAWF4364428
User Capacity: 500,107,862,016 bytes [500 GB]
首先把這二顆建立 ZFS Raid 1
zpool create -f -o ashift VM3 /dev/sdb /dev/sdc
再建立壓縮功能
zfs set compression=lz4 VM3
建立完成後
# df -h|grep VM3
VM3 450G 128k 361G 1% /VM3
以 rsync 將原來的虛擬機檔案傳送回來,但傳送的速度卻……非常地慢…真得慢到超級慢。想說,以後還要同步備份這些虛揓機,那要花的時間真得要很久
而原來在另外一台 Proxmox VE 的主機上,同樣地也接了同型號的2顆硬碟,
搭配使用 免插卡式SATA 2陣列卡/雙通道硬碟加速卡
將寫入的動作交給這片卡來做,速度可以達到和 ext4 檔案格式的速度
而使用 zfs 檔案格式的硬碟,官網不建議使用 陣列卡,原因為 CPU 可以完全控制硬碟的讀寫, CPU 整體效率有多高,
ZFS 檔案系統的效率就有多快。而在 FB 的 Proxmox VE 中文社團裡是建議 使用 ZFS 將兩顆硬碟建立為 Mirror (Raid 1) 會比 單顆硬碟使用 ZFS 檔案系統會來的有效率。而在我實作中,
這2顆藍標的500G硬碟做成 ZFS Raid1 的效率(非常慢) < 2顆藍500G 配合 Raid1 陣列卡(快)
這2顆藍標的500G硬碟做成 ZFS Raid1 的效率(非常慢) < 1顆藍500G 直接使用 ZFS 檔案系統(快)
這是非正式格式化測試,不是 zfs 讀寫的測試,而且,主機的 cpu 效率並不快,況且也已是六、七年前的主機。
而另外2顆硬碟
Device Model: ST5000NM0084 00FN169 00FN172IBM
User Capacity: 5,000,981,078,016 bytes [5.00 TB]
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s)
這兩顆 5T 的硬碟做成 ZFS Raid1 寫入的速度反而更快,所以,推測和 硬碟的速度也有關。
硬碟 | ZFS 磁碟陣列 | 使用陣列卡 | 硬硬存取效率 |
500G x 2 SATA 2.6, 3.0 Gb/s |
ZFS Raid 1 (Mirror) |
無 | 非常慢 |
500G x 2 SATA 2.6, 3.0 Gb/s |
ZFS | Raid 1 陣列卡 |
快 |
5T x 2 SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s) |
ZFS Raid 1 (Mirror) |
無 | 超級快 |
所以使用 ZFS 檔案系統,需要較高等級的 CPU 與 較快的硬碟速度,但若對於大量硬碟存取需求不那麼迫切的話,普通的桌機就能適用了。