Proxmox VE � �pisode 06

?é Stockage Proxmox � LVM, ZFS & NFS

Ma�trise l'organisation du stockage dans Proxmox : pools LVM-thin, ZFS avec RAID-Z, int�gration NAS via NFS, et comment tout organiser efficacement pour maximiser la fiabilit� de ton homelab.

Avril 2026
?é Par OWL
é ~35 min de lecture
Interm�diaire
Illustration stockage Proxmox VE LVM ZFS NFS

Ma�triser le Stockage Proxmox

??é
Types de Stockage
Comprendre les diff�rents backends : local, local-lvm, ZFS, NFS/SMB � leurs forces et leurs limites.
💰
ZFS sur Proxmox
Cr�er un pool ZFS RAID-Z depuis l'interface Proxmox, comprendre la d�duplication, la compression et les snapshots ZFS.
💰
NAS via NFS & SMB
Connecter ton NAS TrueNAS ou Synology � Proxmox pour stocker les ISOs, backups et disques de VMs sur le r�seau.
💰
Surveillance & Maintenance
Surveiller l'�tat SMART des disques, g�rer les scrubs ZFS, et maintenir la sant� du stockage dans le temps.

Stockage Proxmox de A � Z

La m�taphore d'OWL : L'Entrep�t & ses Rayonnages ?é

Imagine ton serveur Proxmox comme un grand entrep�t. Les disques physiques sont le b�timent lui-m�me. Les pools de stockage (LVM, ZFS) sont les rayonnages � l'int�rieur : on organise, �tiquette et range. Et le NAS externe via NFS, c'est un entrep�t annexe connect� par une porte � tu peux y mettre des palettes (ISOs, backups, donn�es) accessibles depuis ton entrep�t principal.

ZFS c'est le rayonnage premium : il dit automatiquement quand une bo�te est ab�m�e (checksums), en garde une copie de secours (RAID-Z), et peut faire des photos de l'�tat du rayonnage � tout moment (snapshots). C'est bien plus intelligent que des rayonnages ordinaires (ext4/LVM simples). ?é

1. Types de Stockage Proxmox � Vue d'Ensemble ??é
Type Backend Snapshots VM disks ISO/CT Id�al pour
local R�pertoire é é é ISOs, templates CT
local-lvm LVM-thin é é é Disques VMs/LXC par d�faut
ZFS ZFS pool é é é é Tout � le meilleur
NFS R�seau é é é NAS externe (TrueNAS)
SMB/CIFS R�seau é é NAS Windows/Synology

??é Interface Web � Voir tous les storages

1Dans le panneau gauche é cliquer sur Datacenter
2Onglet Storage é liste de tous les backends avec Type, Status, Contenu
3Pour voir les disques physiques : cliquer sur le node (pve) é onglet Disks
?é CLI � Voir les stockages et disques
# Voir les storages Proxmox
pvesm status
Name Type Status Total Used Avail
local dir active 30.22G 4.89G 25.33G
local-lvm lvmthin active 450.00G 12.50G 437.50G


# Lister les disques disponibles
lsblk -d -o NAME,SIZE,MODEL,TYPE
NAME SIZE MODEL TYPE
sda 500G Samsung SSD 870 disk
sdb 500G Samsung SSD 870 disk
sdc 2T WD Red Plus disk
nvme0n1 256G Samsung NVMe 980 Pro disk

2. LVM-thin � Le Stockage par D�faut de Proxmox ?é

LVM-thin (Logical Volume Manager - thin provisioning) est le backend par d�faut cr�� lors de l'installation. Il permet d'allouer plus d'espace que ce qui existe r�ellement (thin provisioning) et supporte les snapshots.

??é Interface Web � Ajouter un stockage LVM-thin

1Datacenter é onglet Storage é bouton Add é LVM-Thin
2ID : nom du storage (ex: ssd-data)
3Volume group : s�lectionner pve (le VG principal)
4Thin pool : s�lectionner data
5Content : cocher Disk image et Container
éCliquer Add é le nouveau storage appara�t instantan�ment dans la liste
?é CLI � �tendre le pool LVM existant
# Voir les groupes de volumes (VG) et volumes logiques (LV)
vgs && lvs
VG #PV #LV VSize VFree
pve 1 3 446.62g 0g
LV VG Attr LSize é thin pool


# Ajouter un nouveau disque au pool LVM
pvcreate /dev/sdc
vgextend pve /dev/sdc
lvextend -l +100%FREE pve/data
Size of logical volume pve/data changed to 1.90 TiB é

3. ZFS sur Proxmox � Le Syst�me de Fichiers Premium ?é

ZFS est int�gr� nativement dans Proxmox VE. C'est le syst�me de fichiers le plus robuste pour un homelab : int�grit� des donn�es par checksums, RAID software natif, snapshots instantan�s, compression transparente.

Mirror
= RAID 1

2+ disques. Survit � 1 panne. 50% capacit�. Recommand� pour l'OS.

RAID-Z1
= RAID 5

3+ disques. Survit � 1 panne. Reste (N-1)/(N) capacit�.

RAID-Z2
= RAID 6

4+ disques. Survit � 2 pannes simultan�es. Recommand� donn�es.

??é Interface Web � Cr�er un pool ZFS

1Panneau gauche é cliquer sur le node pve é onglet Disks é sous-onglet ZFS
2Bouton Create: ZFS é fen�tre de configuration
3Name : datapool � le nom du pool ZFS
4RAID Level : choisir Mirror (2 disques) ou RAID-Z (3+)
5Compression : lz4 � toujours activer, gain 30-50% sans co�t de perf
6ashift : 12 (pour SSD/NVMe 4096 bytes) ou 13 pour certains HDDs
7Cocher les disques � inclure dans le pool é Create
éProxmox cr�e le pool ET l'enregistre automatiquement comme storage � c'est tout !
?é CLI � Cr�er et v�rifier un pool ZFS
# Pool Mirror (2 SSDs) � RAID 1
zpool create -f -o ashift=12 rpool mirror /dev/sda /dev/sdb

# Pool RAID-Z1 (3 HDDs)
zpool create -f -o ashift=12 datapool raidz /dev/sdc /dev/sdd /dev/sde
zfs set compression=lz4 datapool

# V�rifier l'�tat
zpool status
pool: datapool state: ONLINE � 0 erreurs é

# Enregistrer dans Proxmox si cr�� en CLI
pvesm add zfspool datapool-storage --pool datapool --content images,rootdir

4. Maintenance ZFS � Scrub, �tat & Remplacer un Disque ?é

??é Interface Web � Lancer un Scrub ZFS

1Node pve é onglet Disks é sous-onglet ZFS
2S�lectionner le pool é bouton Detail pour voir l'�tat (ONLINE, disques, erreurs CKSUM)
3Bouton Scrub é confirmer é Proxmox lance la v�rification d'int�grit� en arri�re-plan
4Progression visible dans Tasks en bas de l'interface
?é CLI � Scrub, snapshots ZFS & remplacement disque
### Scrub � v�rifier l'int�grit� de tous les blocs ###
zpool scrub datapool
zpool status datapool é surveiller la progression
scan: scrub in progress since Fri Apr 11 08:00:00 2026
1.50T scanned / 250G repaired (16.7% done)


### Automatiser le scrub mensuel (crontab) ###
echo "0 2 1 * * root zpool scrub datapool" >> /etc/cron.d/zfs-scrub

### Snapshots ZFS (instantan�s, quasiment gratuits) ###
zfs snapshot datapool@avant-install é cr�er
zfs list -t snapshot é lister
NAME USED AVAIL
datapool@avant-install 128M 2.72T
zfs rollback datapool@avant-install é restaurer
zfs destroy datapool@avant-install é supprimer

### Remplacer un disque d�faillant (RAID-Z1) ###
zpool status é trouver le disque FAULTED
zpool replace datapool /dev/sdc /dev/sdf é remplacer
Resilvering started: 2026-04-11 � ETA: 2h30m
# ZFS recr�e les donn�es manquantes sur le nouveau disque (resilver)

5. Connecter un NAS via NFS ?é

Si tu as un NAS TrueNAS Scale, Synology ou autre, tu peux brancher ses partages directement dans Proxmox pour stocker tes ISOs, backups et m�me des disques de VMs.

??é C�t� TrueNAS Scale � Cr�er le partage NFS

TrueNAS Scale � Partage NFS
# Dans TrueNAS Scale :
Shares é Unix Shares (NFS) é Add
Path : /mnt/pool1/proxmox-data
Maproot User : root
Maproot Group : root

# V�rifier que NFS est d�marr� :
System é Services é NFS é Running é

# L'adresse du NAS (exemple) :
192.168.1.51:/mnt/pool1/proxmox-data

??é C�t� Proxmox � Ajouter le stockage NFS

Proxmox � Ajouter NFS Storage
# Via interface web : Datacenter é Storage é Add é NFS
ID : nas-truenas
Server : 192.168.1.51 é IP du NAS
Export : /mnt/pool1/proxmox-data é partage NFS
Content : ISO image, VZDump backup file
Max Backups: 5

# Via CLI :
pvesm add nfs nas-truenas \
--server 192.168.1.51 \
--export /mnt/pool1/proxmox-data \
--content iso,backup

# V�rifier le montage
pvesm status nas-truenas
nas-truenas nfs active 3.62T 450G

# Voir o� c'est mont� sur le serveur
df -h | grep nas
192.168.1.51:/mnt/pool1/... 3.6T 450G 3.2T 13% /mnt/pve/nas-truenas

Latence NFS : Ne stocke pas les disques de VMs actives en NFS si ton r�seau est � 1 Gb/s � les I/O disques seront le goulot d'�tranglement. Utilise NFS pour les ISOs et les backups. Pour les disques de VMs, pr�f�re le stockage local (ZFS/LVM).

6. Stockage SMB/CIFS � Pour les NAS Windows & Synology ?é

??é Interface Web � Ajouter un partage SMB/CIFS

1Datacenter é Storage é Add é SMB/CIFS
2ID : synology-nasServer : 192.168.1.52
3Username / Password : compte du NAS avec acc�s en �criture
4Cliquer Load Shares é Proxmox interroge le NAS et liste les partages disponibles
5Share : s�lectionner proxmox-backupContent : VZDump backup file
éCliquer Add é le partage SMB est mont� et visible dans la liste du storage
?é CLI � Ajouter SMB/CIFS
pvesm add cifs synology-nas \
--server 192.168.1.52 \
--share proxmox-backup \
--username proxmox-user \
--password MON_MOT_DE_PASSE \
--content backup

??é Plan de Stockage Recommand� par OWL

Voici comment OWL organise le stockage sur un homelab typique avec un serveur Proxmox + NAS :

Architecture stockage homelab OWL
??é Serveur Proxmox
+-- local (r�pertoire /var/lib/vz)
� +-- ISOs, templates CT é 30 GB SSD OS

+-- local-lvm (LVM-thin sur SSD NVMe 500GB)
� +-- Disques VMs & LXC actifs é rapide, snapshots é

+-- zfs-data (ZFS Mirror sur 2� SSD 1TB)
� +-- Donn�es persistantes VMs é int�grit� garantie

+-- ?é NAS TrueNAS Scale (NFS)
+-- nas-iso é ISOs et templates
+-- nas-backup é Backups VZDump
+-- nas-data é Donn�es massives (m�dias)
é

La r�gle d'or : VMs actives sur stockage local rapide (NVMe/SSD), sauvegardes sur NAS (NFS/SMB), donn�es froides sur HDD. C'est la s�paration performance vs capacit� vs co�t.

7. Surveillance des Disques � SMART & Alertes ?é

??é Interface Web � V�rifier l'�tat SMART des disques

1Node pve é onglet Disks
2Liste de tous les disques avec leur �tat sant� (Health) � PASSED é ou FAILED é
3Cliquer sur un disque é bouton Show SMART values é tableau complet des attributs
Surveiller : Reallocated_Sector_Ct > 0 = mauvais signe. Current_Pending_Sector > 0 = urgent !
?é CLI � Surveillance SMART avanc�e
# Installer smartmontools
apt install -y smartmontools

# V�rifier l'�tat de sant� d'un disque
smartctl -H /dev/sda
SMART overall-health self-assessment test result: PASSED é

# Voir les attributs SMART importants
smartctl -A /dev/sda | grep -E "Reallocated|Pending|Uncorrectable|Hours"
Reallocated_Sector_Ct 0x0032 100 100 000 Old_age Always 0
Power_On_Hours 0x0032 100 100 000 Old_age Always 8423h
Current_Pending_Sector 0x0032 100 100 000 Old_age Always 0


# Depuis l'interface Proxmox : Node é Disks é vue �tat SMART
# é Cliquer sur un disque é "Show SMART values"


# Activer les tests SMART automatiques (/etc/smartd.conf)
DEVICESCAN -a -o on -S on -n standby \
-s (S/../.././02|L/../../7/04) \
-m root -M exec /usr/share/smartmontools/smartd-runner

é Checklist � Stockage Proxmox Op�rationnel

  • épvesm status affiche tous tes storages avec statut active
  • éTu peux cr�er une VM et s�lectionner le bon storage pour son disque
  • éSi tu as ZFS : zpool status affiche ONLINE sans erreur CKSUM
  • éLe NAS (si connect�) est visible dans Datacenter é Storage et son contenu accessible
  • éLes disques sont v�rifi�s SMART : PASSED, 0 Reallocated_Sector

?é Probl�mes Courants & Solutions

é "storage is not accessible" dans Proxmox pour le NFS é

?é V�rifie : 1) le service NFS est d�marr� sur le NAS, 2) l'IP du NAS est joignable depuis Proxmox (ping 192.168.1.51), 3) le chemin d'export est exact et accessible, 4) le pare-feu du NAS autorise Proxmox en NFS (ports 111, 2049 TCP/UDP). Sur TrueNAS : Network é Global Configuration é Default Gateway est configur�.

é ZFS pool DEGRADED � un disque est FAULTED é

?é Ne panique pas si tu as du RAID-Z � les donn�es sont intactes. 1) zpool status pour identifier le disque d�faillant, 2) �teindre proprement Proxmox, remplacer le disque physique, 3) au red�marrage : zpool replace datapool /dev/sdc /dev/sdf. ZFS start un "resilver" pour reconstruire les donn�es sur le nouveau disque.

é Plus d'espace dans local-lvm mais le pool LVM semble plein é

?é Le thin pool LVM peut �tre plein m�me si du stockage physique est disponible. �largis-le : lvextend -l +100%FREE pve/data si d'autres PVs sont disponibles. Ou ajoute un disque : pvcreate /dev/sdX && vgextend pve /dev/sdX. Pense aussi � supprimer les anciens snapshots qui consomment de l'espace.

é ZFS consomme �norm�ment de RAM é

?é ZFS utilise l'ARC (cache en RAM) agressivement. C'est voulu et b�n�fique pour les performances, mais peut laisser croire que la RAM est pleine. Pour limiter l'ARC : echo "options zfs zfs_arc_max=4294967296" > /etc/modprobe.d/zfs.conf (ici limite � 4 GB). Sur un syst�me avec 32+ GB de RAM, laisse ZFS g�rer librement.