1. Introduction  
2. Connexions SCSI  
3 Mélange de périphériques SCSI 
4. RAID (Redundant Array of Independant Disk)
5. Ce qu'il faut savoir sur le RAID 
6. Solutions RAID

1. Introduction.

Les données sont primordiales dans toutes les applications informatiques. Pour les serveurs, deux directions sont utilisées pour augmenter les performances et récupérer les données en cas de panne de disque dur: les connexions en SCSI et l'utilisation du RAID. Les deux techniques sont généralement utilisées en même temps.

2. Connexion SCSI.

Après les disques durs de type IDE en première, intéresserons nous aux disques durs et périphériques de type SCSI, utilisés dans les serveurs réseaux.
Les connexions SCSI (Small Computer System Interface) ont par rapport aux périphériques IDE plusieurs avantages. 
  1. Le nombre de périphériques connectés sur la même nappe est plus important, jusque 15 suivant les normes
  2. Une connexion SCSI est multi-session: le disque dur peut exécuter plusieurs applications simultanément (ou presque) et l'écriture (ou la lecture) d'un fichier ne doit pas attendre la fin de l'opération précédente. Ceci est le cas par exemple lorsque l'on écrit un gros fichier sur le disque dur, la lecture suivante ne doit pas attendre pour démarrer. Le SCSI est capable de gérer jusqu'à 255 requêtes de lecture /écriture en parallèle, au contraire de l'IDE qui ne peut traiter qu'une opération (complètement) à la fois. Ceci ne fonctionne de plus qu'avec un système d'exploitation compatible (Win NT, Win 2000 ou XP Pro, Novell), à l'exclusion de Win 95 et consort.
  3. Les périphériques SCSI peuvent être internes ou externes. Le transfert de données se fait directement par DMA entre les deux périphériques.
  4. Un disque dur SCSI inclut automatiquement un contrôle d'erreur des données enregistrées.
Les vitesses sont donc plus élevées qu'en IDE (même à taux de transfert égal), avec des prix plus chères.
La norme SCSI a évoluée, mais on rencontre encore quasiment toutes les normes selon les appareils à connecter. Le terme NARROW se réfère à un bus sur 8 bits, WIDE pour un bus sur 16 bits.

Normes SCSITaux transfert MB/s maximumLargeur bus(en bits)Longueur maximum câble SCSINombre conducteursNb. max. connexion (non compris la carte contrôleur)
SELVDHVD
SCSI (NARROW)
SCSI 1
586 m--257
FAST NARROW SCSI1083 m--507
Fast Wide SCSI
SCSI 2
20163 m12 m25 m68 ou 8015
Ultra SCSI Narrow2083 m--503
Ultra SCSI Narrow2081,5 m--507
Wide Ultra SCSISCSI 3
40
16 bits
3 m
-
-
68 ou 80
3
Wide Ultra SCSI
40
16 bits
1,50
-
-
68 ou 80
7
Wide Ultra SCSI SCSI 3DIFFERENTIEL
40
16 bits
-
12 m
25 m
68 ou 80
15
Ultra 2 SCSI (Narrow)
40
8 bits
6 m
-
-
50
7
Wide
Ultra 2 SCSI
80
16 bits
-
12 m
25 m
68 ou 80
15
Wide Ultra 160
Ultra 3 SCSI ou SCSI 5
160
16 bits
-
12 m
-
68 ou 80
15
Wide Ultra 320 SCSI
320
16 bits
-
12 m
-
68 ou 80
15
Par comparaison
E-IDE ATA 13313316 bits-80 fils (mais connecteur 40)2

Le taux de transfert, la longueur des cordons, le nombre de fils et de périphériques diffèrent selon la norme.
Ce qu'il est important de connaître pour commander un cordon ou un terminateur :
  1. Le nombre de fils et le modèle des connecteurs.
  2. La norme SE, LVD ou HVD.
Tous les autres renseignements sont superflus sur le plan des connecteurs.
SCSI 1 (NARROW SCSI) : Il est codé sur 8 bits seulement
SCSI 2 (WIDE SCSI) : Codé sur 16 bits il autorise un taux de transfert jusqu'à 20 MB/s
Carte SCSI 2 Adaptec AH 3940. Cette carte est identique à une 2940 mais possède 2 canaux internes distincts (RAID)
Connecteur SCSI2 interne
SCSI 3 (ULTRAWIDE SCSI) : il permet d'atteindre des taux de transfert de 40 MB/s
- SCSI 3 DIFFERENTIEL : il utilise du câble de très bonne qualité appairé et véhicule par paires deux signaux, le signal utile étant la différence entre les deux. Il existe 2 types de chaînes différentielles :
- le HVD (High Voltage Differential) qui travaille sous 5 volts et permet d’atteindre des longueurs de chaîne de 25 m alors que l’UltraWide ne permet pas de dépasser 6 m. Utilisé surtout dans des configurations professionnelles.
-le LVD (Low Voltage Differential) qui travaille sous 3,3 volts et permet d’atteindre 12 m de longueur de chaîne. Il utilise les nappes internes LVD, cordons LVD, terminateurs externes LVD et les terminateurs internes LVD.
La connectique est spécifique à chacune des 3 normes : les cordons et les nappes internes n’ont pas la même impédance en Ultra Wide, en HVD ou en LVD. Les terminateurs aussi sont différents. Il faudra veiller à ne pas mélanger les différents types de cordons et terminateurs entre eux, surtout le HVD incompatible avec les autres.
Toutefois la norme LVD permet de connecter des périphériques non LVD sur la carte hôte et à l’inverse de connecter des composants LVD sur une carte hôte non LVD. Bien entendu les débits ne seront pas dans ce cas ceux du LVD.
La norme Ultra 2 SCSI LVD est une extension du SCSI 3. Sur le plan connectique les signaux sont véhiculés dans deux fils à la fois, le signal utile étant la différence entre les deux. La qualité du câble doit permettre d’éliminer l’interaction entre des signaux passant dans des fils voisins en éliminant les interférences. L'utilisation d'un cordon standard SCSI 3 (y compris de bonne qualité), réduit la vitesse (jusqu'à 80 Mo/s théoriques).
La norme Ultra 3 SCSI ou Ultra 160/m ou SCSI 5 (SCSI PARALLEL INTERFACE SPI-3):
L’Ultra 160/m est une implantation spécifique de la norme Ultra 3 SCSI et ne retient que 3 éléments de cette norme :
  • Taux de transfert doublé par rapport à l’Ultra 2 SCSI : 160 Mo/s au lieu de 80 Mo/s.
  • Test physique du bus SCSI par le contrôleur, au démarrage, permettant de déterminer la vitesse de travail en fonction des différents éléments de la chaîne SCSI. Il va sans dire que la qualité des cordons et terminateurs jouera un rôle décisif dans la vitesse globale de la chaîne.
  • Contrôle de redondance cyclique (CRC) qui permet le contrôle d’erreurs dans la transmission des données.
Ce sont les caractéristiques essentielles qui caractérisent l’Ultra 160/m, le "/m" signifie que cette norme est manageable (test physique et CRC).
La désignation utilisée pour l’Ultra 2 SCSI, LVD, est impropre car l’Ultra 3 SCSI est lui aussi LVD.
Il utilise la même connectique, donc cordons et terminateurs sont identiques, mais doivent être plus encore ici d’excellente qualité, compte tenu des débits très élevés. On peut aussi utiliser 15 périphériques sur une longueur totale de 12 m.
Il est manageable car une carte Ultra 160/m saura gérer des périphériques connectés dans la même chaîne avec des vitesses différentes, en respectant leurs vitesses respectives : 80 Mo/s pour l’Ultra 2 SCSI ET 160 Mo/s pour le 160/m.
Ainsi c'est la règle du maillon le plus faible qui détermine la vitesse globale de la chaîne disparaît.
A l’inverse un contrôleur Ultra 2 SCSI pourra aussi gérer les 2 normes en même temps, mais à une vitesse unique de 80 Mo/s. Les 2 normes sont donc complètement compatibles.
La norme Ultra 320 SCSI (SCSI PARALLEL INTERFACE SPI-4) :
Cette nouvelle norme enrichit tout en gardant les spécifications de la précédente norme Ultra 160/m :
  • Transfert d’unités d’information (IU transfert ou packetization). Les informations indépendantes du flux de données, par exemple les commandes échangées entre la carte hôte et le disque dur, sont transférées à la vitesse nominale soit 320 Mo/s.
  • Multiplexage des tâches d’entrées/sorties sans attendre la phase du BUS FREE. Continuité du flux de données sans phases d’inertie et exploitation optimisée des canaux disponibles.
  • La chaîne de commandes pour l’envoi d’un paquet de données se simplifie et les différentes étapes sont moins nombreuses, d’où une amélioration des taux de transferts.
  • Rectification du signal de données par rapport au signal d’horloge (skew compensation). Skew est la différence de temps dans l’acheminement de deux signaux différents en provenance d’un même émetteur vers deux cibles différentes situées dans le même bus de traitement.
Il peut s’agir d’une carte hôte émettant des signaux différents vers deux disques durs situés sur la même chaîne SCSI.
Pour maintenir la logique du système, le délai entre les deux signaux est arbitré par un signal d’horloge. La vitesse de traitement est telle que tous les périphériques Ultra 320 accomplissent une compensation en mode réception car un écart d’une nanoseconde peut faire la différence entre un signal valide et une transmission incorrecte.
DB 25
Centronix 50 mâle externe (plus de pin que le connecteur centronix imprimante standard)
SUB 50 mâle
Connecteur DB68HD

3. Mélange de périphériques SCSI

Généralement, on ne mélange pas les périphériques SCSI de différents types, néanmoins des terminaisons spéciales permettent de chaîner des périphériques NARROW (50 pin) avec des ULTRA WIDE (68 pin), tant en interne qu'en externe.

4. RAID (Redundant Array of Independant Disk).

Cette fonction nécessite un contrôleur disque particulier et ... toujours un système d'exploitation spécifique réseau lourd (une fois de plus, évitez Win 95 / 98/ME). Adaptec fournis des contrôleurs RAID IDE, mais ce n'est pas la majorité des cas pour des questions de performances. Certains systèmes d'exploitation réseau permettent également, dans une moindre mesure, d'effectuer du RAID logiciel. Dans ce cas, c'est le processeur qui exécute la fonction de contrôleur RAID, d'où un ralentissement.
Le RAID permet d'associer plusieurs disques durs de même type (connexion SCSI et capacité) en une seule grappe. En cas de défaillance d'un disque dur, les versions de RAID autres que 0 permettent de reconstruire les données perdues à partir des autres unités de la grappe. L'implantation de cette technologie peut être matérielle, logicielle ou passer par une combinaison des deux. Les solutions proposées peuvent être regroupées en six grandes familles, du Raid 0 au RAID 5.

4.1. RAID 0 (striping) 

Le RAID 0 n'apporte aucune sécurité des données, il augmente seulement le taux de transfert des informations. L'information est découpée à la suite de l'autre sur l'ensemble des disques durs (4 disques dans le cas ci-dessous) L'unité qui regroupe les disques durs bénéficie de la somme des débits de chaque disque. Un accès (opération de lecture) ou un transfert (opération d'écriture) s'effectue en simultané sur l'ensemble de la grappe sur un mode parallèle. La panne d'un seul disque dur provoque la perte de toutes les données.
RAID 0

4.2. RAID 1 (Mirroring)

Dans les liaisons RAID 1, les données sont dupliquées intégralement sur un second disque dur ou sur une seconde grappe. Les performances en lecture sont doublées grâce à l'accès simultané aux deux disques (à condition d'avoir deux contrôleurs séparés). Cette méthode réduit néanmoins la capacité de stockage. Il correspond au Mode logiciel "Miroir" de Windows NT4 ou Windows 2000 Server.
Ecriture
Lecture

4.3. RAID 2

RAID 2 repose sur une grappe avec plusieurs disques de parité et une synchronisation des accès. Cette technologie est peu utilisée de par sa complexité et le surcoût qu'elle entraîne. Il est identique au RAID 0 avec un contrôle des données intégré. On utilise généralement 3 disques de contrôle pour 4 disques de données. La méthode de correction est l'ECC. Néanmoins, tous les disques durs SCSI incluent ce contrôle d'erreur, d'où le caractère anecdotique de ce mode. Cette technologie RAID n'as pas été commercialisée de manière industrielle.

4.4. RAID 3

 Le RAID 3 est basé sur des grappes de disques identiques avec une unité de stockage réservée au stockage du bit de parité. Si le disque de parité tombe en panne, on se retrouve en RAID 0. La sécurité des données est peu implantée. Attention, le disque de parité est 2 fois plus utilisé que les autres disques.

4.5. Le RAID 4

RAID 4 se différencie du RAID 3 par une gestion asynchrone des unités. Même si les accès fonctionnent en parallèle sur les différentes unités, le disque de parité est plus souvent sollicité. Ceci implique en RAID 3 un goulot d'étranglement. La seule différence avec le RAID 3 est la structure des données implantée sur les disques.
Écriture en mode RAID 4:
En écriture, les données sont décomposées en blocs de petite taille et répartis sur les différents disques composant le RAID 4. Simultanément, le contrôle de parité s'inscrit sur le disque dédié à cet effet.
Lecture en mode RAID 4:



AvantagesDéfauts
Tolérance de panne et parité centralisée sur un disque dédié.La mise à jour des données de parité dégrade les performances de Raid 4. Pour cette raison, les matrices à parité distribuée sur l'ensemble des disques (RAID 5) sont toujours préférées aux systèmes RAID de niveau 4.
Parité : processus algorithmique permettant au système de reconstituer une donnée défectueuse ou manquante à partir de l'information de parité mémorisée au cours de l'écriture.
Un sous-système en RAID 4 présente un rapport capacité/ performance/ investissement intéressant.
Les performances en lecture des piles de disques de niveau RAID 4 sont excellentes (comparables à celles du niveau RAID 0).
Puisqu'il n'y a pas duplication des données, mais uniquement enregistrement des données de parité correspondantes, le coût par méga-octet d'une solution de niveau RAID mode 4 demeure raisonnable.
La capacité utile du volume RAID 4 est égale à la somme des capacités de tous les disques moins un disque (réservé pour la parité). Ex : 4 disques de 40 Go en RAID 4 = 160 Go bruts = 160 - 40 = 120 Go utilisables

4.6. Le RAID 5

RAID 5 s'apparente au RAID 4 avec un bit de parité distribué sur l'ensemble des unités de la grappe, supprimant ainsi le fameux goulot d'étranglement tout en bénéficiant des performances de la gestion asynchrone. Ce mode correspond à l'agrégat par bandes avec parité sous NT4 ou 2000 Server. Les disques travaillent tous autant. Lors d'un échange à chaud (hot plug) d'un disque dur, les données sont recréées à partir des autres disques dur.
AvantagesDéfauts
Bonne tolérance de pannes et erreurs3 disques minimum (mais plus est admis)
Excellente implantation commercialeRemise à la normale lente en cas de problèmes
Remplacement des disques à chaud
Le RAID 5 est souvent utilisé pour les applications qui utilisent de petites informations de manière aléatoire sur de petits volumes, typiquement les serveurs d'applications sur des bases de données.

4.7. Orthogonal RAID 5

L'Orthogonal RAID 5, technique logicielle développée par IBM, ce mode utilise un contrôleur par disque. Dans le langage courant, l'orthogonal RAID 5 est assimilé à un RAID 5.

4.8. Les autres RAID

D'autres système RAID sont proposés. Ce ne sont que des RAID 5 évolués. Ces modes restent rares du fait d'une architecture complexe et un coût élevé.
RAID 6 est une extension du RAID 5 mais utilise une double parité (sur 2 disques séparés). Ce système permet de travailler avec 2 disques durs défectueux, avec forcément une perte de performances.
RAID 7 met en jeux plusieurs disques de données couplé avec 1 ou plusieurs disques de parité. le contrôle des données et de la mémoire cache et le calcul de la parité se fait par un microcontrôleur. Ceci donne des performances jusque 50 % plus rapides que dans les autres modes RAID. Cette solution est une marque déposée de Storage Computer Corporation
RAID 10 implante le striping (RAID 0) couplé au Mirroring (RAID 1). Une excellente mais coûteuse solution de tolérance de panne. Ce système est le plus sûr et le plus rapide. Néanmoins, sa difficulté de mise en oeuvre et le prix le rende peu utilisé.

5. Raid hardware et software.

Le RAID peut être géré de manière hardware ou logiciel. La gamme des systèmes d'exploitation "professionnels" de Microsoft peuvent gérer le RAID de manière logicielle: 
  • Windows NT, 2000 et XP Pro gèrent le RAID 0, 1, 5
  • Netware gère le RAID 1
  • Lynux gère les RAID 0, 1, 4 et 5, le plus souvent grâce à des patchs logiciels.
  • Les séries DOS, WIN95/98/Me et XP Home ne gèrent pas le RAID en mode natif.
Cette manière de procéder permet au système d'exploitation d'utiliser plusieurs disques en mode RAID sans hardware dédié. Par contre, en utilisant un hardware adéquat (avec le pilote associé), tous les systèmes d'exploitation peuvent travailler en RAID en théorie. Pour rappel, les systèmes d'exploitation "amateurs" de Microsoft ne tirent pas non plus parties des possibilités de l'SCSI, notamment pour le transfert par DMA simultané de données entres disques durs.

6. Solutions RAID.

Voici quelques solutions de contrôleurs RAID matériels.

Adaptec AAA-132

Carte RAID Adaptec AAA-132 (2 canaux W). Remarquez en bas les quatre connecteurs (2 wide sur 16 bits et deux narrow sur 8 bits) et sur la droite le connecteur wide 16 bits externe. En haut à gauche, un emplacement pour de la mémoire cache (ici occupé par une barrette 72 pins).
ADAPTEC ATA RAID 2400 A
Carte RAID ATA/100 complète et abordable pour la sécurité des données. Idéale pour les utilisateurs qui souhaitent bénéficier de fonctions RAID avancées avec des disques durs ATA (type IDE).
La carte 2400A est une solution RAID à coprocesseur pour les environnements de serveurs utilisant des disques durs ATA-100. Elle prend en charge jusqu'à 4 disques durs avec des taux de transferts atteignant 100 Mo/s par canal sur 4 canaux - pour une fonctionnalité RAID de niveau supérieur à un prix abordable. Cette solution permet d'augmenter la capacité et les performances du serveur. Des fonctions d'administration évoluées sont proposées par le logiciel Storage Manager Pro d'Adaptec.
Principales caractéristiques
  • Coprocesseur i960RS
  • Mémoire extensible jusqu'à 128 Mo
  • 4 canaux pour 4 disques durs maximum
  • RAID 0, 1, 0/1, 5, JBOD
  • Interface graphique évoluée
  • Extension de capacité en ligne
  • Remplacement automatique, Immédiat
D'autres modèles et marques de contrôleurs de disques durs RAID (SCSI ou IDE) existent.

Publier un commentaire

Blogger