Problème mémoire Picard MarkDuplicates

Bonjour Loïc,

L'erreur renvoyée est assez courante avec Java.
Ce n'est pas la mémoire qui manque mais, pour simplifier, la mémoire alloué à Java (qui par défaut est assez faible, ~2Go max).
Il faut donc augmenter la mémoire utilisée par la machine virtuelle Java (JVM).
Plus d'info ici: java - What are the -Xms and -Xmx parameters when starting JVM? - Stack Overflow

Par exemple, en ajoutant l'option -Xmx8g lorsque vous lancer java.
Certains outils comme picard, snpEff, etc utilisent java sans que ce soit visible.
Il faut alors arriver à spécifier cette option au lancement (exemple sur le forum: Problème Java heap space - #2 par dbenaben, Problème picard tools - #2 par Mag, Error Pilon (polishing) - #2 par dbenaben)
En bref:

# Pour donner 8G de RAM à la JVM
picard -Xmx8g MarkDuplicates -I bam ... 
# Cela équivaut à lancer
java -Xmx8g -jar picard.jar MarkDuplicates ...

Si on regarde vos jobs, la mémoire semble bien utilisé. Par exemple pour votre dernier job via la commande seff on observe que le job est monté à 100Go (et a utilisé 50% des CPU):

$ seff 37935272
Job ID: 37935272
Cluster: core
User/Group: ltalignani/ltalignani
State: COMPLETED (exit code 0)
Nodes: 1
Cores per node: 2
CPU Utilized: 02:38:07
CPU Efficiency: 51.33% of 05:08:04 core-walltime
Job Wall-clock time: 02:34:02
Memory Utilized: 100.81 GB
Memory Efficiency: 78.76% of 128.00 GB

Une fois le job terminé, vous pouvez vérifier l'usage des ressources avec sacct ou seff (et c'est une bonne pratique de le faire:
Voir Job information on ended job ou https://ifb-elixirfr.gitlab.io/cluster/doc/troubleshooting/#slurm-how-to-use-resources-wisely

Pour info si 128G n'est pas suffisant, vous pouvez aujourd'hui monter jusqu'à 1500G sur les noeuds standards (de nouveau serveurs ont été mis en service).