Hello,
I wanted to perform the retention time correction on my xset.merged.groupChromPeaks.RData ( build on a list of 107 full scan) but I had those two error messages :
An error occurred while running the tool toolshed.g2.bx.psu.edu/repos/lecorguille/xcms_retcor/abims_xcms_retcor/3.6.1+galaxy1.
and
This job was terminated because it used more memory than it was allocated.
Please click the bug icon to report this problem if you need help.
The job API ID is 6c2aa51cf3051ac4
As the reporting seems to be desactivated for this galaxy instance I wanted to know what are the solutions to this issue.
Bonjour,
Merci pour l’augmentation de la capacité.
J'ai une seconde erreur due cette fois-ci à l'outil CAMERA
" An error occurred while running the tool toolshed.g2.bx.psu.edu/repos/lecorguille/camera_annotate/abims_CAMERA_annotateDiffreport/2.2.6+camera1.46.0-galaxy0."
voici le message obtenu :
This job was terminated because it used more memory than it was allocated.
Please click the bug icon to report this problem if you need help.
Job API ID: 9091d40b7c5cd403
Serait-il possible d'augmenter également la RAM sur l'outil CAMERA ?
Je me permet de m'incruster dans ce sujet afin d'éviter de créer un doublon. Je rencontre le même message d'erreur :
This job was terminated because it used more memory than it was allocated.
Please click the bug icon to report this problem if you need help.
Il plante avec l'outil suivant : An error occurred while running the tool toolshed.g2.bx.psu.edu/repos/lecorguille/xcms_merge/xcms_merge/3.12.0+galaxy0 .
Faut-il également augmenter la RAM alloué pour cet outil ?
@team.galaxy , j'ai relancé l'outil hier soir mais celui-ci a de nouveau planté avec le même message d'erreur. L'augmentation de la RAM est-elle effective ou dois-je patienter ?
J'ai relancé ce matin.
@team.galaxy , l'outil a de nouveau planté avec le même message d'erreur : "This job was terminated because it used more memory than it was allocated."
Bonjour, @Ludovic Serait-il possible que vous partagiez votre historique (à minima nominativement avec moi si jamais les données sont sensibles - melanie.petera[at]inrae.fr) ? Cela me permettrait d'essayer d'évaluer le volume de données en entrée du module. L'étape findChromPeak merger n'est normalement pas une des plus RAM-phage, avoir un aperçu des "quantités" pourrait également aider à anticiper la suite du workflow. J'ai eu l'occasion de faire tourner des analyses à ~1250 échantillons cette année, donc en théorie le nombre d'échantillons en soit ne devrait pas être la limite en soit pour cette étape, mais tout dépend probablement de la quantité d'info qui s’agrège.
Mélanie
@melpetera Je vous ai partagé mon historique directement via votre adresse mail. Nous avions également lancé des XCMS avec plus de 1000 échantillons et nous arrivions à lancer le Workflow complet.
Début d'année prochaine, nous devrons lancer l'XCMS d'une gosse cohorte avec presque 2000 échantillons. Galaxy pourra-t-il supporter la charge ?
Après quelques échanges avec @melpetera , il a été identifié qu'il y a eu des changements de limites de RAM dans les outils XCMS.
Le problème semble à ce jour toujours en cours d'investigation.