Outils pour utilisateurs

Outils du site


stolon_install_hp_proliant_san

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
stolon_install_hp_proliant_san [16/12/2019 11:24] – [Matériel] antoinevestolon_install_hp_proliant_san [16/12/2019 12:20] (Version actuelle) – [Configuration RAID matériel] antoineve
Ligne 3: Ligne 3:
 ===== Configuration RAID matériel ===== ===== Configuration RAID matériel =====
  
-Faire F8 au démarrage pour lancer "ILO", quitter "ILO" et refaire F8 pour entrer dans l'utilitaire de configuation RAID.+Faire F8 au démarrage pour lancer "iLO", quitter "iLO" et refaire F8 (:?:) pour entrer dans l'utilitaire de configuration RAID.
  
-RAID 1+0 pour le système+{{:stolon:hp_proliant:ilo.png?direct&400|}}{{:stolon:hp_proliant:raid_1.png?direct&400|}} 
 + 
 +Créer un RAID 1+0 pour le système avec les disques 1 et 2.
  
 ===== Installation de Debian ===== ===== Installation de Debian =====
Ligne 14: Ligne 16:
  
 ===== Matériel ===== ===== Matériel =====
-Il faut créer 1 volume logique par disque (RAID 0) dans l'utilitaire de gestion RAID+Il faut créer 1 volume logique par disque (RAID 0) dans l'utilitaire de gestion RAID
 + 
 +{{:stolon:hp_proliant:raid_2.png?direct&400|}}{{:stolon:hp_proliant:raid_3.png?direct&400|}}
  
 Ensuite, pour gérer depuis debian, ajouter de dépôt de HP et la clé qui va bien : Ensuite, pour gérer depuis debian, ajouter de dépôt de HP et la clé qui va bien :
Ligne 121: Ligne 125:
      SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 249  (WWID: 50014380146544CF)      SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 249  (WWID: 50014380146544CF)
 ===== Création du zpool ===== ===== Création du zpool =====
 +
 +==== Installation de ZFS ====
  
 Pour ZFS sur Debian, il faut ajouter les dépôts //contrib// et les //backports// (https://wiki.debian.org/ZFS#Installation) puis : Pour ZFS sur Debian, il faut ajouter les dépôts //contrib// et les //backports// (https://wiki.debian.org/ZFS#Installation) puis :
Ligne 127: Ligne 133:
   apt install -t buster-backports dkms spl-dkms   apt install -t buster-backports dkms spl-dkms
   modprobe zfs   modprobe zfs
 +  echo "zfs" >> /etc/modules-load.d/modules.conf
   apt install -t buster-backports zfs-dkms zfsutils-linux   apt install -t buster-backports zfs-dkms zfsutils-linux
 +  
 +==== Création du ZPOOL ====
 +
 +  # zpool create proxmox-vm raidz2 scsi-3600508b1001c275fe0d7d76bb0ba8880 scsi-3600508b1001c491ce324a249074009c1 scsi-3600508b1001c676738ce3e53b30dffa6 scsi-3600508b1001c703f1382e3b4ea517541 scsi-3600508b1001c8ad367bb2e8a134cbf36 scsi-3600508b1001c8e548f2c854a7cb6a650 scsi-3600508b1001c9227adce3d39d01e6f01 scsi-3600508b1001ca0b7f382069127921c26
 +  # zpool add proxmox-vm spare scsi-3600508b1001ce6b930ef2926c40585db
 +  # zpool add proxmox-vm spare scsi-3600508b1001cf48d2991474b4eeb7187
 +
 +==== Visualisation du ZPOOL ====
 +
 +  # zpool list
 +  NAME         SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
 +  proxmox-vm  4.36T   333K  4.36T        -             0%     0%  1.00x    ONLINE  -
 +
 +==== Statut du ZPOOL  ====
 + 
 +  # zpool status
 +    pool: proxmox-vm
 +   state: ONLINE
 +    scan: none requested
 +  config:
 +  
 +  NAME                                        STATE     READ WRITE CKSUM
 + proxmox-vm                                  ONLINE               0
 +   raidz2-0                                  ONLINE               0
 +     scsi-3600508b1001c275fe0d7d76bb0ba8880  ONLINE               0
 +     scsi-3600508b1001c491ce324a249074009c1  ONLINE               0
 +     scsi-3600508b1001c676738ce3e53b30dffa6  ONLINE               0
 +     scsi-3600508b1001c703f1382e3b4ea517541  ONLINE               0
 +     scsi-3600508b1001c8ad367bb2e8a134cbf36  ONLINE               0
 +     scsi-3600508b1001c8e548f2c854a7cb6a650  ONLINE               0
 +     scsi-3600508b1001c9227adce3d39d01e6f01  ONLINE               0
 +     scsi-3600508b1001ca0b7f382069127921c26  ONLINE               0
 + spares
 +   scsi-3600508b1001ce6b930ef2926c40585db    AVAIL   
 +   scsi-3600508b1001cf48d2991474b4eeb7187    AVAIL   
 +  
 +  errors: No known data errors
  
  
Ligne 140: Ligne 184:
   * L'espace restant sur les disques "systèmes", en RAID 1 matériel : j'ai créé une partition "data" en XFS pour poser les images des distributions, les templates de VM, ..., partagé en NFS.   * L'espace restant sur les disques "systèmes", en RAID 1 matériel : j'ai créé une partition "data" en XFS pour poser les images des distributions, les templates de VM, ..., partagé en NFS.
  
 +{{:stolon:hp_proliant:boot.png?direct&400|}}{{:stolon:hp_proliant:infos_serveur.png?direct&400|}}
 ====== Identification des disques ====== ====== Identification des disques ======
   - Model EF0600FATFF, PN 533871-003, CT 2ATFF01EG0S3PE, Ref HUS156060VLS600, PN 0B24473, SN JZXLHNZJ   - Model EF0600FATFF, PN 533871-003, CT 2ATFF01EG0S3PE, Ref HUS156060VLS600, PN 0B24473, SN JZXLHNZJ
stolon_install_hp_proliant_san.1576495451.txt · Dernière modification : 16/12/2019 11:24 de antoineve