Acces big fat memory to do metagenomic assemblies

Bonjour,

Je souhaite faire des assemblages à partir de données de métagénomique cela nécessite beaucoup de mémoire RAM, serait-il possible d'avoir accès au "fat memory" compute node ?
11 assemblages et leur polissage sont prévus, à raison d'environ 35cpus sur 5jours par assemblage. Le projet ayant eu du retard, serait-il possible de prolonger / avoir accès de nouveau au fat memory node ?

Je vous remercie et vous souhaite une belle journée

Cordialement,
Bastien CAMILLO

Bonjour,

Etes-vous sûr d'avoir besoin d'autant de ressources (mémoire ou cpu) ?
Sur vos derniers jobs, les ressources demandées sont sous-utilisées.
Par exemple sur le job 45642421 seul 1.6% des 64 CPU et 0.5% de 1.1To de RAM n'a été utilisé (ce qui est vraiment trop faible).
On peut vérifier l'usage des ressources notamment grâce à reportseff.
Ajuster au mieux les ressources (SLURM job efficiency - IFB Core Cluster Documentation) permets de lancer plus de jobs en parallèles (tout en étant dans les limites fixés par utilisateur) et d'éviter de gaspiller.

Sinon, vous avez toujours accès à la partition bigmem si nécessaire pour vos projets.

A noter qu'avez des noeuds "standards" (partition fast) on peut déjà monter à 1.5To RAM.