Commit 941cc0cf authored by remy.d1's avatar remy.d1
Browse files

space before ":" in french... Other Managing solutions for clusters

parent 416234c1
......@@ -34,20 +34,20 @@ cd /export/rocks/install
- Modification du fichier ```/export/rocks/install/site-profiles/6.2/nodes/extend-compute.xml```
- Copiez le fichier d'exemple:
- Copiez le fichier d'exemple :
```bash
cd /export/rocks/install
cp site-profiles/6.2/nodes/skeleton.xml site-profiles/6.2/nodes/extend-compute.xml
```
- Editez le fichier extend-compute.xml et rajouter, entre les balises ```</pre>``` et ```<post>```:
- Editez le fichier extend-compute.xml et rajouter, entre les balises ```</pre>``` et ```<post>``` :
```xml
<package>nethogs-0.8.0-1.el6</package>
```
- Rajoutez également les packages nécessaires à "java1.7" et "java1.8".
- Dans la section post, rajouter:
- Dans la section ```<post>```, rajoutez:
```
mkdir /scratch
chmod 777 /scratch
......@@ -68,14 +68,15 @@ cluster.local:/usr/slurm /slurm nfs,nobootwait,noauto defaults 0 0
> **Note** Il est possible de modifier la liste des hôtes connus sur le noeud maître en modifiant ```/etc/hosts.local```. Puis, en synchronisant avec ```rocks sync config```, le fichier ```/etc/hosts``` sera mis à jour.
- Vérifions que le fichier produit est bien un fichier xml valide:
- Vérifions que le fichier produit est bien un fichier xml valide (la sortie doit être vide) :
```bash
xmllint --noout /export/rocks/install/site-profiles/6.2/nodes/extend-compute.xml
```
- On demande à Rocks de recompiler la distribution et de réinstaller compute-0-0:
- On demande à Rocks de recompiler la distribution et de réinstaller compute-0-0 :
```bash
cd /export/rocks/install
rocks create distro
rocks list host boot
rocks set host boot compute-0-0 action=install
......@@ -84,14 +85,14 @@ ssh compute-0-0 reboot
ping compute-0-0
```
Pour toute modification nécessitant la réinstallation des noeuds, il faudra certainement recompiler la distribution (sauf solution _maison_) avec:
Pour toute modification nécessitant la réinstallation des noeuds, il faudra certainement recompiler la distribution (sauf solution _maison_) avec :
```bash
cd /export/rocks/install
rocks create distro
```
Lorsque le ping abouti, on vérifie que tout se passe bien:
Lorsque le ping abouti, on vérifie que tout se passe bien :
```bash
Ctrl+C
rocks-console compute-0-0 &
......@@ -99,7 +100,7 @@ rocks-console compute-0-0 &
Si ça se passe mal, vous pouvez accéder à un shell par SSH sur le port 2200 sur l'hôte, dans un environnement chrooté, dans ```/mnt/sysimage```
Les logs intéressants se trouvent dans ```/tmp```, ```/var/log``` et ```/root``` une fois l'installation finie:
Les logs intéressants se trouvent dans ```/tmp```, ```/var/log``` et ```/root```, une fois l'installation finie :
```
{/mnt/sysimage}/var/log/rocks-install.log
/root/install.log*
......@@ -111,7 +112,7 @@ Pour plus d'informations de debug, voir [ici](../files/debug_rocks.pdf)
Quand l'installation est terminée:
Quand l'installation est terminée :
```bash
ssh compute-0-0
......
# Et maintenant (...) ? Dois-je adopter RocksCluster ?
Vous savez désormais installer un cluster classique RocksCluster. L'intérêt majeur de RocksCluster est sa simplicité, la quantité importante d'utilisateurs et la réactivité de la liste de diffusion. Cependant, de nombreux systèmes permettent également d'installer/exploiter des clusters:
Vous savez désormais installer un cluster classique RocksCluster. L'intérêt majeur de RocksCluster est sa simplicité, la quantité importante d'utilisateurs et la réactivité de la liste de diffusion. Cependant, de nombreux systèmes permettent également d'installer/exploiter des clusters :
- [*xCat*](http://sourceforge.net/p/xcat/wiki/Main_Page/),
- [*Warewulf*](http://warewulf.lbl.gov/trac),
- [*kadeploy*](http://kadeploy3.gforge.inria.fr/),
......@@ -27,7 +27,7 @@ Par ailleurs, le côté diskfull n'est pas forcément un avantage. Vous avez un
Cette question est donc bien plus complexe qu'il n'y paraît et sort du contexte de ce TP et reste un point de vue subjectif.
Avant d'adopter RocksCluster et de choisir le matériel pour votre cluster, il faut se poser un certain nombre de questions:
Avant d'adopter RocksCluster et de choisir le matériel pour votre cluster, il faut se poser un certain nombre de questions :
- Quels sont les moyens (humains, infrastructure ([\*](#details_infra)), financiers) affectés au cluster et à sa gestion ?
- Quel dimensionnement (taille du cluster, nombre d'utilisateurs) ?
- Quelles displines, quelles applications et quels sont les types de calculs amenés à tourner sur mon cluster ?
......@@ -40,7 +40,7 @@ Avant d'adopter RocksCluster et de choisir le matériel pour votre cluster, il f
<!--sec data-title="Autres quesions à se poser pour le matériel" data-id="autres_questions" data-show=false ces-->
Cette dernière (et pourtant simple question) en amène beaucoup d'autres:
Cette dernière (et pourtant simple question) en amène beaucoup d'autres :
- Ai-je un besoin impératif de stabilité ? De quelle évolutivité ai-je besoin pour ma solution ?
<br />
=> _C'est une question que se pose tout administrateur système (pour la sécurité, les pilotes, etc...), mais ce choix dépend aussi de la displine qu'exerce vos utilisateurs: dans certains cas on préfèrera la stabilité pour éviter de perdre des semaines de calcul, dans d'autres, on aura besoin des dernières technologies, des derniers packages et relancer un job ne sera pas un problème._
......@@ -65,7 +65,7 @@ Pour la mise en place d'un nouveau projet, je conseille de visionner [cette vid
Cependant, RocksCluster reste une distribution Linux classique basée sur CentOS. Vous pouvez le modifier comme bon vous semble et tout le code de surcouche _maison_ Rocks est libre et modifiable à souhait. Le fichier extend-compute permet de passer en phase de post-installation n'importe quel script shell.
A l'UMR5554/ISE-M et sur la plate-forme LabEx MBB, nous utilisons un RocksCluster modifié pour nos besoins:
A l'UMR5554/ISE-M et sur la plate-forme LabEx MBB, nous utilisons un RocksCluster modifié pour nos besoins :
- pas de service 411 pour synchroniser nos utilisateurs, mais une connexion à un LDAP,
- un système de déploiement et d'hébergement de packages _maison_,
- plusieurs NAS déclarés dans Rocks (mais pas gérés par Rocks) sous debian like avec NFS/ZFS, qui hébergent les homes des utilisateurs et des applications ainsi que des librairies,
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment