Bonjour Pierre-Philipp, Xavier

Désolé pour la réponse tardive, je ressorts mollement d'une grippe intéressante, la dernière datait de 2016. Il en faut de temps en temps pour maj le SI :)

Perso je suis un fan de DRBD et ils ont un module pour les longues distances https://linbit.com/disaster-recovery/
Cette option ne semble pas libre, mais c'est intéressant :)
je sais pas si DR est libre ou pas, ce serait dommage car DRBD lui-meme est bien libre.  https://github.com/LINBIT/drbd

Linbit a toujours eu un mal de chien à monétiser son travail. DRDB est libre mais tout ce qui tourne autour ne l'est pas... trop.


J'avais des résultats allant de spectaculaires à plantés (sans vraiment comprendre parfois). Bon en local ça marche, mais de DC à DC... J'ai trituré toutes les options possibles pour voir, testé DRDB 8 et 9 (à l'époque, je ne sais plus où ils en sont). Je dois être moins doué qu'AWS ;>>>

moi j'ai des bon resultats en terme de perf et je pense que j'ecrase Ceph RBD assez facilement.  ce serait normal d'ailleurs, car il n'y a aucun overhead (pas de hash table ou d'algo de distribution, juste des configs qui point vers des paires de noeuds variees).  en plus c'est ideal pour un cluster convergent, c'est meme fait pour, alors qu'avec Ceph RBD faut quand meme se poser la question de savoir si les noeuds supporteront la double charge (virtu + stockage).  Bon et puis CephFS il n'y a pas le choix, c'est force'ment un autre cluster de'die', mais c'est un autre cas d'usage.

CEPH n'est pas KISS. Ce simple fait suffit à ne pas aller plus loin pour moi. DRDB est KISS, mais...


je joue beaucoup avec.  Je fais des cluster XEN et utilisais LVM2 et maintenant OpenZFS zvol **sous** les resources DRBD.  il faut noter que DRBD v8 inclus dans le noyau nunux fait simplement des mirrors, alors que DRBD v9 sait aussi faire du diskless, donc un noeud qui n'a pas de mirroir local peut aussi voir les volumes.

Oui. J'ai testé les deux. DRDB9 a plus de possibilités, comme d'avoir n miroirs (1 master 2 slaves, ça peut être bien).

Pas testé avec ZFS, je croyais même que ZFS et DRDB étaient incompatibles...


J'ai aussi fait des tests avec les snapshots, c-a-d qu'on peut faire des templates sur des vdisk normaux (des resources DRBD quoi) et puis des snapshots soit LVM2 soit ZFS pour obtenir des instances base'es sur ces vdisks.  C'est funky et pas pret pour la prod j'en conviens, mais bon dans mes PoCs pour l'instant cela marche.  J'ai parle' de mes peurs concernant LVM2 ici: https://www.youtube.com/watch?v=gUnFc99VfTo&list=PLQMQQsKgvLntZiKoELFs22Mtk-tBNNOMJ

Ta vidéo est très intéressante et reflète mes propres recherches. Toutefois j'ai appris des trucs aussi, merci !

La salle est très sympa mais il est choquant de voir qu'il y a si peu de gens à t'écouter (i.e à se poser les bonnes questions, même non conventionnelles). J'ai la même impression concernant un langage que je promeus depuis longtemps, Ada.


J'ai pouss'e le vice jusqu'`a tenter la convergence re'seau en plus de la convergence XEN + DRBD: https://pub.nethence.com/network/fuck-martinez-part4

Ouah, son site, on dirait (presque) du gopher :>
En pratique ? Pour nos use cases ? mmm... Mais j'ai gardé les liens :)



Comme j'ai pas trouvé d'équivalent sous Linux (dans mon use-case), je rêvais à me mettre à FreeBSD/ZFS qui semble avoir ce qu'il faut nativement, lui. Mais, une seule vie, pas  assez de temps :)

ah non c'est l'inverse.  FreeBSD HAST n'est probablement pas capable de faire du dual-primaries, ce qui est absolument ne'cessaire lors de la live-migration d'une instance XEN d'un noeud `a l'autre, ne serait-ce que pendant une micro-seconde.  Je n'ai jamais essaye' HAST et cela reste `a faire (si un jour vous vous ennuyez, on pourrait faire cela ensemble en visio).  Quant `a ZFS c'est juste un gestionnaire de volume + filesystem, pas un outils de stockage distribue' en soit.  Ceux qui s'en servent comme cela jouent sur la fonction re'seau mais il n'y a qu'un seul controlleur, c'est le client.  Un peu comme du RAID ge're' avec un seul controlleur.  Avec DRBD et HAST c'est deux tetes, deux controlleurs.  Et en plus duellement actif avec DRBD si besoin. De la magie pure !

Je n'ai pas été jusque là. Jamais utilisé ZFS, par manque de temps (je suis curieux par défaut) et pragmatisme puisque Xen + GNU/Linux Debian + mdadm + lvm2 forment une stack avec une stabilité qui s'oublie, donc pas cherché plus loin.

Ce que je voulais faire, c'était de la migration à chaud. Dans un process automatique, éventuellement avec une prise de décision automatique (ce dernier point étant débattable, je me méfie comme de la peste des "automatismes de décision" fondés sur des conditions).

Après plein d'essais, allant de magie noire (quand ça marche, c'est beau) à la migration avortée, jusqu'à la destruction instantanée et inexplicable du volume LVM (et... non ! je ne m'étais pas emmêlé les scripts dans les primaires/secondaires), j'ai enfin admis que c'était overkilled par rapport aux besoins de l'infra. Nos clients peuvent supporter une coupure de quelques minutes (transfert de la VM, maj IPFO, maj  routage+FW du node, maj IP de l'instance - pointopoint).

Je n'ai pas pu, en boucle, faire tourner ça des dizaines de fois, sans que ça foire à un moment, donc useless pour moi. C'était peut-être le réseau, mais bon, le vrack OVH, ça marche. La lecture attentive des sources de DRDB m'a un peu achevé. C'est comme regarder les sources ISDN (RNIS/numeris) d'Asterisk (expérience d'il y a 15 ans). En regardant le tas de spaghetti, les rustines, toussa, on soupire et on comprend mieux pourquoi c'est chaud et pourquoi la peinture ne sera jamais sèche ; il faudrait tout réécrire.

Rien que le bidule à base de volaile (COQ) pour aller faire correspondre la version des sources avec la version du noyau était une horreur. Finalement, j'allais me servir dans les dépôts Proxmox. Au moins, eux, ils avaient la bonne réponse ;)


Mais si tu me dis que tu y es arrivé, de façon systématique et récurrente, sans aucune erreur, dans un vrai réseau (pas un lab, en lab ça marche), c'est que j'ai loupé une marche, ce qui est très possible :)

--
Stéphane Rivière
Ile d'Oléron - France

_______________________________________________
Liste de diffusion du French Sysadmin Group
https://www.frsag.org/

Répondre à