Demande accès queue bigmem

Bonjour, serait-il possible d'avoir accès temporairement à la queue bigmem pour le projet yeast_neutral_model. J'ai un job de fusion de gvcf puis conversion en vcf qui a échoué avec 1To de RAM (3000 génomes de levure, arrêté au chromosome 7 sur 16). J'ai vu que le maximum était de 1.5To donc je ne pense pas que cela suffira pour ce job (commande : sacctmgr -p show qos format=Name,MaxTRESPerUser).

Si cela est accordé, j'ai juste à changer la partition de long à bigmem dans mon fichier de config snakemake ?

Merci d'avance

Bonjour Louis,

C'est fait ! Vous avez à présent accès à la partition bigmem pour votre projet yeast_neutral_model.

Il suffit effectivement normalement de changer la partition dans votre config snakemake et les jobs devraient être envoyé sur bigmem :slight_smile:

Bonne journée,

Julien

Merci à vous !

J'ai toujours le statut "QOSMaxMemoryPerUser" pour le job pourtant je ne dépasse pas les 4To de RAM totale à priori. D'ou peut venir le problème ?

Cordialement

JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
40496046 bigmem merge_gv louisxiv PD 0:00 1 (QOSMaxMemoryPerUser)

threads: 8
resources: mem_mb=3000000, mem_mib=2861023, disk_mb=110386, disk_mib=105273, tmpdir=, partition=bigmem, account=yeast_neutral_model, cpu_per_task=8, slurm_partition=bigmem, tasks=1, cpus_per_task=8, jobname=merge_gvcfs

Bonjour,

Effectivement, j'ai oublié d'activer la QoS bigmem pour votre association à la partition bigmem.
Cette QoS vous permet de mobiliser plus de RAM pour cette partition.

J'ai annulé le job en attente qui n'utilisait pas la bonne QoS.

Merci ! J'ai comme NODELIST(REASON) : Resources donc le job devrait se lancer sans soucis dès qu'il y aura de la place

Bonne journée