[A FERMER] Soumission jobs (slurm) : bizarreries avec seff

Salut la fine équipe !

J'ai quelque chose de bizarre quand je contrôle la consommation de ressources de mes jobs (en cours ou terminés) avec seff, l'info "Memory efficiency" m'indique un score très mauvais car apparemment la mémoire totale du noeud est réquisitionnée ? Exemple :

seff 19711091
Job ID: 19711091
Cluster: core
User/Group: bjob/bjob
State: COMPLETED (exit code 0)
Nodes: 1
Cores per node: 3
CPU Utilized: 00:03:16
CPU Efficiency: 49.12% of 00:06:39 core-walltime
Job Wall-clock time: 00:02:13
Memory Utilized: 3.01 MB
Memory Efficiency: 0.00% of 251.65 GB

Or, j'ai bien précisé ma requête de resources lors de ma ligne de commande (ex synthétique) :

sbatch -c 2 --mem=2GB -J test -o test.o -e test.e --wrap "seqtk sample -s 1337 R1.f*q* 0.1 | gzip -f -6 -c > R1_rdx10pc.fq.gz";

J'ai l'impression que --mem n'est pas pris en compte... Est-ce que je me trompe quelque part dans ma syntaxe ? Sur notre cluster local (@GR) l'allocation de resources semble fonctionner comme attendu.
La conséquence actuelle est que j'ai des jobs en attente car trop de RAM allouée à ma personne :stuck_out_tongue:

Merci pour votre aide !
Bastien

ERRATUM : aucun pb, c'est une grosse coquille dans mon script (bouuuuh) sur la variable que j'utilise pour les requêtes mémoire : je demandais "--mem=G", qui semble être interprété comme toute la RAM du noeud.
My bad !!

2 « J'aime »