Bonjour,
Je souhaite faire des assemblages à partir de données de métagénomique cela nécessite beaucoup de mémoire RAM, serait-il possible d'avoir accès au "fat memory" compute node ?
11 assemblages et leur polissage sont prévus, à raison d'environ 35cpus sur 5jours par assemblage. Le projet ayant eu du retard, serait-il possible de prolonger / avoir accès de nouveau au fat memory node ?
Je vous remercie et vous souhaite une belle journée
Cordialement,
Bastien CAMILLO
Bonjour,
Etes-vous sûr d'avoir besoin d'autant de ressources (mémoire ou cpu) ?
Sur vos derniers jobs, les ressources demandées sont sous-utilisées.
Par exemple sur le job 45642421
seul 1.6% des 64 CPU et 0.5% de 1.1To de RAM n'a été utilisé (ce qui est vraiment trop faible).
On peut vérifier l'usage des ressources notamment grâce à reportseff.
Ajuster au mieux les ressources (SLURM job efficiency - IFB Core Cluster Documentation) permets de lancer plus de jobs en parallèles (tout en étant dans les limites fixés par utilisateur) et d'éviter de gaspiller.
Sinon, vous avez toujours accès à la partition bigmem
si nécessaire pour vos projets.
A noter qu'avez des noeuds "standards" (partition fast) on peut déjà monter à 1.5To RAM.