Bonjour,
Je souhaite faire des assemblages à partir de données de métagénomique cela nécessite beaucoup de mémoire RAM, serait-il possible d'avoir accès au "fat memory" compute node ?
11 assemblages et leur polissage sont prévus, à raison d'environ 35cpus sur 5jours par assemblage
Je vous remercie et vous souhaite une belle journée
Cordialement,
Bastien CAMILLO
Bonjour Bastien,
Je viens de vous donner accès à la partition bigmem
pour le projet hesa_metagenomics
.
N'oubliez pas de spécifier la partition (--partition=bigmem
) et votre compte (--account=<votre-projet>
) si vous voulez utiliser cette dernière.
A noter (mais je vois que vous l'avez vu), que par défaut vous pouvez utiliser les noeuds de calcul standard jusqu'à 1.5To de mémoire: https://ifb-elixirfr.gitlab.io/cluster/doc/slurm/slurm_at/
Dans tous les cas, notamment au vu des ressources demandées, vérifier bien l'usage des ressources: https://ifb-elixirfr.gitlab.io/cluster/doc/slurm/slurm_efficiency/ (à savoir si les ressources demandées et allouées sont bien utilisées).
Bonne journée
Bonjour,
Super, merci beaucoup!
Merci pour ces spécifications, effectivement je ne suis pas encore habitué à SLURM, mais j'ai vu les limitations initiales.
Bonne journée
Bastien