Bigmem acces given at the wrong project

Bonjour,

Je viens de voir en voulant utiliser cette partition que vous avez donné accès au bigmem pas au bon projet. Vous l'avez donné à hesa_metagenomics au lieu de mags_odontella_tara

J'ai également une question, étant donné que dans la description du cluster certains noeuds "16 compute nodes (128 cores, 2 TB RAM) HPE Apollo 2000 XL225n Gen10+, 2x AMD EPYC 7662 (3.1GHz, 64 cores), 3 TB RAM", est-il possible d'y avoir accès sans la restriction de 1.5TB par utilisateur ? au lieu du bigmem étant donné qu'ils ont plus de coeurs ou alors la permission bigmem permet de les utiliser sans cette limitation ?

Je vous remercie par avance pour votre réponse et vous souhaite une belle journée

Cordialement,
Bastien CAMILLO

Bonjour,

Je viens de voir en voulant utiliser cette partition que vous avez donné accès au bigmem pas au bon projet. Vous l'avez donné à hesa_metagenomics au lieu de mags_odontella_tara

C'est corrigé.

J'ai également une question, étant donné que dans la description du cluster certains noeuds "16 compute nodes (128 cores, 2 TB RAM) HPE Apollo 2000 XL225n Gen10+, 2x AMD EPYC 7662 (3.1GHz, 64 cores), 3 TB RAM", est-il possible d'y avoir accès sans la restriction de 1.5TB par utilisateur ? au lieu du bigmem étant donné qu'ils ont plus de coeurs ou alors la permission bigmem permet de les utiliser sans cette limitation ?

Actuellement, la partition bigmem (qui permets d'aller au delà de 1.5 To) inclus la machine bigmem (64 coeurs, 3 To RAM) et deux noeuds de calcul type HPE Aplollo avec 128 cores, 2 TB RAM. Pour interroger la configuration: sinfo -p bigmem.
Il est donc possible en utilisant cette partition d'utiliser plus de 64 coeurs et plus de 1.5To RAM.
Sans spécifier cette partition, on est limité à 1.5To RAM.

Dans tous les cas, pensez à bien vérifier l'usage des ressources (SLURM job efficiency - IFB Core Cluster Documentation). Il arrive en effet que les ressources allouées ne soient pas toujours utilisées.

J'espère que cela réponds à votre interrogation.