?é Comp�tences acquises
Ma�triser le Stockage Proxmox
local, local-lvm, ZFS, NFS/SMB � leurs forces et leurs limites.??é Le Tutoriel Complet
Stockage Proxmox de A � Z
La m�taphore d'OWL : L'Entrep�t & ses Rayonnages ?é
Imagine ton serveur Proxmox comme un grand entrep�t. Les disques physiques sont le b�timent lui-m�me. Les pools de stockage (LVM, ZFS) sont les rayonnages � l'int�rieur : on organise, �tiquette et range. Et le NAS externe via NFS, c'est un entrep�t annexe connect� par une porte � tu peux y mettre des palettes (ISOs, backups, donn�es) accessibles depuis ton entrep�t principal.
ZFS c'est le rayonnage premium : il dit automatiquement quand une bo�te est ab�m�e (checksums), en garde une copie de secours (RAID-Z), et peut faire des photos de l'�tat du rayonnage � tout moment (snapshots). C'est bien plus intelligent que des rayonnages ordinaires (ext4/LVM simples). ?é
1. Types de Stockage Proxmox � Vue d'Ensemble ??é
Type
Backend
Snapshots
VM disks
ISO/CT
Id�al pour
local
R�pertoire
é
é
é
ISOs, templates CT
local-lvm
LVM-thin
é
é
é
Disques VMs/LXC par d�faut
ZFS
ZFS pool
é
é
é
é Tout � le meilleur
NFS
R�seau
é
é
é
NAS externe (TrueNAS)
SMB/CIFS
R�seau
é
?é
é
NAS Windows/Synology
??é Interface Web � Voir tous les storages
1Dans le panneau gauche é cliquer sur Datacenter
2Onglet Storage é liste de tous les backends avec Type, Status, Contenu
3Pour voir les disques physiques : cliquer sur le node (pve) é onglet Disks
?é CLI � Voir les stockages et disques
# Voir les storages Proxmox
pvesm status
Name Type Status Total Used Avail
local dir active 30.22G 4.89G 25.33G
local-lvm lvmthin active 450.00G 12.50G 437.50G
# Lister les disques disponibles
lsblk -d -o NAME,SIZE,MODEL,TYPE
NAME SIZE MODEL TYPE
sda 500G Samsung SSD 870 disk
sdb 500G Samsung SSD 870 disk
sdc 2T WD Red Plus disk
nvme0n1 256G Samsung NVMe 980 Pro disk
| Type | Backend | Snapshots | VM disks | ISO/CT | Id�al pour |
|---|---|---|---|---|---|
local |
R�pertoire | é | é | é | ISOs, templates CT |
local-lvm |
LVM-thin | é | é | é | Disques VMs/LXC par d�faut |
ZFS |
ZFS pool | é | é | é | é Tout � le meilleur |
NFS |
R�seau | é | é | é | NAS externe (TrueNAS) |
SMB/CIFS |
R�seau | é | ?é | é | NAS Windows/Synology |
??é Interface Web � Voir tous les storages
pve) é onglet Diskspvesm status
Name Type Status Total Used Avail
local dir active 30.22G 4.89G 25.33G
local-lvm lvmthin active 450.00G 12.50G 437.50G
# Lister les disques disponibles
lsblk -d -o NAME,SIZE,MODEL,TYPE
NAME SIZE MODEL TYPE
sda 500G Samsung SSD 870 disk
sdb 500G Samsung SSD 870 disk
sdc 2T WD Red Plus disk
nvme0n1 256G Samsung NVMe 980 Pro disk
2. LVM-thin � Le Stockage par D�faut de Proxmox ?é
LVM-thin (Logical Volume Manager - thin provisioning) est le backend par d�faut cr�� lors de l'installation. Il permet d'allouer plus d'espace que ce qui existe r�ellement (thin provisioning) et supporte les snapshots.
??é Interface Web � Ajouter un stockage LVM-thin
ssd-data)pve (le VG principal)datavgs && lvs
VG #PV #LV VSize VFree
pve 1 3 446.62g 0g
LV VG Attr LSize é thin pool
# Ajouter un nouveau disque au pool LVM
pvcreate /dev/sdc
vgextend pve /dev/sdc
lvextend -l +100%FREE pve/data
Size of logical volume pve/data changed to 1.90 TiB é
3. ZFS sur Proxmox � Le Syst�me de Fichiers Premium ?é
ZFS est int�gr� nativement dans Proxmox VE. C'est le syst�me de fichiers le plus robuste pour un homelab : int�grit� des donn�es par checksums, RAID software natif, snapshots instantan�s, compression transparente.
2+ disques. Survit � 1 panne. 50% capacit�. Recommand� pour l'OS.
3+ disques. Survit � 1 panne. Reste (N-1)/(N) capacit�.
4+ disques. Survit � 2 pannes simultan�es. Recommand� donn�es.
??é Interface Web � Cr�er un pool ZFS
datapool � le nom du pool ZFSlz4 � toujours activer, gain 30-50% sans co�t de perf12 (pour SSD/NVMe 4096 bytes) ou 13 pour certains HDDszpool create -f -o ashift=12 rpool mirror /dev/sda /dev/sdb
# Pool RAID-Z1 (3 HDDs)
zpool create -f -o ashift=12 datapool raidz /dev/sdc /dev/sdd /dev/sde
zfs set compression=lz4 datapool
# V�rifier l'�tat
zpool status
pool: datapool state: ONLINE � 0 erreurs é
# Enregistrer dans Proxmox si cr�� en CLI
pvesm add zfspool datapool-storage --pool datapool --content images,rootdir
4. Maintenance ZFS � Scrub, �tat & Remplacer un Disque ?é
??é Interface Web � Lancer un Scrub ZFS
1Node pve é onglet Disks é sous-onglet ZFS
2S�lectionner le pool é bouton Detail pour voir l'�tat (ONLINE, disques, erreurs CKSUM)
3Bouton Scrub é confirmer é Proxmox lance la v�rification d'int�grit� en arri�re-plan
4Progression visible dans Tasks en bas de l'interface
?é CLI � Scrub, snapshots ZFS & remplacement disque
### Scrub � v�rifier l'int�grit� de tous les blocs ###
zpool scrub datapool
zpool status datapool é surveiller la progression
scan: scrub in progress since Fri Apr 11 08:00:00 2026
1.50T scanned / 250G repaired (16.7% done)
### Automatiser le scrub mensuel (crontab) ###
echo "0 2 1 * * root zpool scrub datapool" >> /etc/cron.d/zfs-scrub
### Snapshots ZFS (instantan�s, quasiment gratuits) ###
zfs snapshot datapool@avant-install é cr�er
zfs list -t snapshot é lister
NAME USED AVAIL
datapool@avant-install 128M 2.72T
zfs rollback datapool@avant-install é restaurer
zfs destroy datapool@avant-install é supprimer
### Remplacer un disque d�faillant (RAID-Z1) ###
zpool status é trouver le disque FAULTED
zpool replace datapool /dev/sdc /dev/sdf é remplacer
Resilvering started: 2026-04-11 � ETA: 2h30m
# ZFS recr�e les donn�es manquantes sur le nouveau disque (resilver)
??é Interface Web � Lancer un Scrub ZFS
zpool scrub datapool
zpool status datapool é surveiller la progression
scan: scrub in progress since Fri Apr 11 08:00:00 2026
1.50T scanned / 250G repaired (16.7% done)
### Automatiser le scrub mensuel (crontab) ###
echo "0 2 1 * * root zpool scrub datapool" >> /etc/cron.d/zfs-scrub
### Snapshots ZFS (instantan�s, quasiment gratuits) ###
zfs snapshot datapool@avant-install é cr�er
zfs list -t snapshot é lister
NAME USED AVAIL
datapool@avant-install 128M 2.72T
zfs rollback datapool@avant-install é restaurer
zfs destroy datapool@avant-install é supprimer
### Remplacer un disque d�faillant (RAID-Z1) ###
zpool status é trouver le disque FAULTED
zpool replace datapool /dev/sdc /dev/sdf é remplacer
Resilvering started: 2026-04-11 � ETA: 2h30m
# ZFS recr�e les donn�es manquantes sur le nouveau disque (resilver)
5. Connecter un NAS via NFS ?é
Si tu as un NAS TrueNAS Scale, Synology ou autre, tu peux brancher ses partages directement dans Proxmox pour stocker tes ISOs, backups et m�me des disques de VMs.
??é C�t� TrueNAS Scale � Cr�er le partage NFS
Shares é Unix Shares (NFS) é Add
Path : /mnt/pool1/proxmox-data
Maproot User : root
Maproot Group : root
# V�rifier que NFS est d�marr� :
System é Services é NFS é Running é
# L'adresse du NAS (exemple) :
192.168.1.51:/mnt/pool1/proxmox-data
??é C�t� Proxmox � Ajouter le stockage NFS
ID : nas-truenas
Server : 192.168.1.51 é IP du NAS
Export : /mnt/pool1/proxmox-data é partage NFS
Content : ISO image, VZDump backup file
Max Backups: 5
# Via CLI :
pvesm add nfs nas-truenas \
--server 192.168.1.51 \
--export /mnt/pool1/proxmox-data \
--content iso,backup
# V�rifier le montage
pvesm status nas-truenas
nas-truenas nfs active 3.62T 450G
# Voir o� c'est mont� sur le serveur
df -h | grep nas
192.168.1.51:/mnt/pool1/... 3.6T 450G 3.2T 13% /mnt/pve/nas-truenas
Latence NFS : Ne stocke pas les disques de VMs actives en NFS si ton r�seau est � 1 Gb/s � les I/O disques seront le goulot d'�tranglement. Utilise NFS pour les ISOs et les backups. Pour les disques de VMs, pr�f�re le stockage local (ZFS/LVM).
6. Stockage SMB/CIFS � Pour les NAS Windows & Synology ?é
??é Interface Web � Ajouter un partage SMB/CIFS
1Datacenter é Storage é Add é SMB/CIFS
2ID : synology-nas � Server : 192.168.1.52
3Username / Password : compte du NAS avec acc�s en �criture
4Cliquer Load Shares é Proxmox interroge le NAS et liste les partages disponibles
5Share : s�lectionner proxmox-backup � Content : VZDump backup file
éCliquer Add é le partage SMB est mont� et visible dans la liste du storage
?é CLI � Ajouter SMB/CIFS
pvesm add cifs synology-nas \
--server 192.168.1.52 \
--share proxmox-backup \
--username proxmox-user \
--password MON_MOT_DE_PASSE \
--content backup
??é Interface Web � Ajouter un partage SMB/CIFS
synology-nas � Server : 192.168.1.52proxmox-backup � Content : VZDump backup file--server 192.168.1.52 \
--share proxmox-backup \
--username proxmox-user \
--password MON_MOT_DE_PASSE \
--content backup
??é Plan de Stockage Recommand� par OWL
Voici comment OWL organise le stockage sur un homelab typique avec un serveur Proxmox + NAS :
+-- local (r�pertoire /var/lib/vz)
� +-- ISOs, templates CT é 30 GB SSD OS
�
+-- local-lvm (LVM-thin sur SSD NVMe 500GB)
� +-- Disques VMs & LXC actifs é rapide, snapshots é
�
+-- zfs-data (ZFS Mirror sur 2� SSD 1TB)
� +-- Donn�es persistantes VMs é int�grit� garantie
�
+-- ?é NAS TrueNAS Scale (NFS)
+-- nas-iso é ISOs et templates
+-- nas-backup é Backups VZDump
+-- nas-data é Donn�es massives (m�dias)
La r�gle d'or : VMs actives sur stockage local rapide (NVMe/SSD), sauvegardes sur NAS (NFS/SMB), donn�es froides sur HDD. C'est la s�paration performance vs capacit� vs co�t.
7. Surveillance des Disques � SMART & Alertes ?é
??é Interface Web � V�rifier l'�tat SMART des disques
1Node pve é onglet Disks
2Liste de tous les disques avec leur �tat sant� (Health) � PASSED é ou FAILED é
3Cliquer sur un disque é bouton Show SMART values é tableau complet des attributs
?éSurveiller : Reallocated_Sector_Ct > 0 = mauvais signe. Current_Pending_Sector > 0 = urgent !
?é CLI � Surveillance SMART avanc�e
# Installer smartmontools
apt install -y smartmontools
# V�rifier l'�tat de sant� d'un disque
smartctl -H /dev/sda
SMART overall-health self-assessment test result: PASSED é
# Voir les attributs SMART importants
smartctl -A /dev/sda | grep -E "Reallocated|Pending|Uncorrectable|Hours"
Reallocated_Sector_Ct 0x0032 100 100 000 Old_age Always 0
Power_On_Hours 0x0032 100 100 000 Old_age Always 8423h
Current_Pending_Sector 0x0032 100 100 000 Old_age Always 0
# Depuis l'interface Proxmox : Node é Disks é vue �tat SMART
# é Cliquer sur un disque é "Show SMART values"
# Activer les tests SMART automatiques (/etc/smartd.conf)
DEVICESCAN -a -o on -S on -n standby \
-s (S/../.././02|L/../../7/04) \
-m root -M exec /usr/share/smartmontools/smartd-runner
??é Interface Web � V�rifier l'�tat SMART des disques
apt install -y smartmontools
# V�rifier l'�tat de sant� d'un disque
smartctl -H /dev/sda
SMART overall-health self-assessment test result: PASSED é
# Voir les attributs SMART importants
smartctl -A /dev/sda | grep -E "Reallocated|Pending|Uncorrectable|Hours"
Reallocated_Sector_Ct 0x0032 100 100 000 Old_age Always 0
Power_On_Hours 0x0032 100 100 000 Old_age Always 8423h
Current_Pending_Sector 0x0032 100 100 000 Old_age Always 0
# Depuis l'interface Proxmox : Node é Disks é vue �tat SMART
# é Cliquer sur un disque é "Show SMART values"
# Activer les tests SMART automatiques (/etc/smartd.conf)
DEVICESCAN -a -o on -S on -n standby \
-s (S/../.././02|L/../../7/04) \
-m root -M exec /usr/share/smartmontools/smartd-runner
é Checklist � Stockage Proxmox Op�rationnel
- é
pvesm statusaffiche tous tes storages avec statutactive - éTu peux cr�er une VM et s�lectionner le bon storage pour son disque
- éSi tu as ZFS :
zpool statusafficheONLINEsans erreur CKSUM - éLe NAS (si connect�) est visible dans Datacenter é Storage et son contenu accessible
- éLes disques sont v�rifi�s SMART :
PASSED, 0Reallocated_Sector
?é Probl�mes Courants & Solutions
é "storage is not accessible" dans Proxmox pour le NFS é
?é V�rifie : 1) le service NFS est d�marr� sur le NAS, 2) l'IP du NAS est joignable depuis Proxmox (ping 192.168.1.51), 3) le chemin d'export est exact et accessible, 4) le pare-feu du NAS autorise Proxmox en NFS (ports 111, 2049 TCP/UDP). Sur TrueNAS : Network é Global Configuration é Default Gateway est configur�.
é ZFS pool DEGRADED � un disque est FAULTED é
?é Ne panique pas si tu as du RAID-Z � les donn�es sont intactes. 1) zpool status pour identifier le disque d�faillant, 2) �teindre proprement Proxmox, remplacer le disque physique, 3) au red�marrage : zpool replace datapool /dev/sdc /dev/sdf. ZFS start un "resilver" pour reconstruire les donn�es sur le nouveau disque.
é Plus d'espace dans local-lvm mais le pool LVM semble plein é
?é Le thin pool LVM peut �tre plein m�me si du stockage physique est disponible. �largis-le : lvextend -l +100%FREE pve/data si d'autres PVs sont disponibles. Ou ajoute un disque : pvcreate /dev/sdX && vgextend pve /dev/sdX. Pense aussi � supprimer les anciens snapshots qui consomment de l'espace.
é ZFS consomme �norm�ment de RAM é
?é ZFS utilise l'ARC (cache en RAM) agressivement. C'est voulu et b�n�fique pour les performances, mais peut laisser croire que la RAM est pleine. Pour limiter l'ARC : echo "options zfs zfs_arc_max=4294967296" > /etc/modprobe.d/zfs.conf (ici limite � 4 GB). Sur un syst�me avec 32+ GB de RAM, laisse ZFS g�rer librement.