Bonjour,
Lorsque je lance ma pipeline nextflow utilisant slurm qui fonctionne sans problème d'habitude, je reçois un problème d'espace pour la création d'un fichier temporaire.
Sachant que j'ai suffisamment d'espace sur mon compte je pense que le process fait référence à /tmp ou /var.
Serait-il possible de m'aider à résoudre ce problème ?
Command exit status:
127
Command output:
(empty)
Command error:
/var/spool/slurm/slurmd/job47685552/slurm_script: line 22: cannot create temp file for here-document: No space left on device
.command.sh: line 2: concat_repeat_positions.py: command not found
Bonjour,
En effet, je pense que le job échoue à la création d'un fichier temporaire sous /tmp
.
Certains noeuds de calcul ont un espace /tmp
plus réduit que d'autre (de qques 10Go à 1To), ou un autre job/utilisateur sature l'espace /tmp
du noeud.
On travaille pour améliorer ça. En attendant, p'têtre relancer le job ou vérifier l'espace disponible dans /tmp
avant d’exécuter NextFlow.
Sachant que les jobs slurm sont lancés par nextflow automatiquement et que slurm s'occupe de l'allocation sur les noeuds, y a t'il un moyen de vérifier la mémoire par avance disponible sur les noeuds ?
Bonne journée à vous
Malheureusement non (pas pour l'instant).
1 « J'aime »
Hello,
Pour info, j'ai eu des problèmes similaires il y a peu et j'ai posté ici la solution adoptée.
Mon problème était lié au dossier /tmp
utilisé par singularity, je ne sais pas si cela est directement le même problème, mais je pense que vous pouvez jouer aussi avec la variable TMPDIR
à exporter en amont.
2 « J'aime »