Je rencontres (ainsi que deux autres collègues) une erreur avec l'outil STAR (alignement RNAseq). Cette erreur n'apparait pas à chaque fois, mais uniquement pour certains échantillons (qui proviennent de la même expérience RNAseq).
Voici l'erreur :
!!!!! WARNING: --genomeSAindexNbases 14 is too large for the genome size=395142899, which may cause seg-fault at the mapping step. Re-run genome generation with recommended --genomeSAindexNbases 13
EXITING because of fatal ERROR: could not open temporary bam file: ./_STARtmp//BAMsort//b34
SOLUTION: check that the disk is not full, increase the max number of open files with Linux command ulimit -n before running STAR
Jan 29 11:38:58 ...... FATAL ERROR, exiting
Je ne pense pas que ce soit une erreur de création de l'index du génome, puisque certains échantillons s'alignent avec succès sur celui-ci. Il doit s'agir soit d'un problème de nombre de fichiers temporaires ouverts, soit d'un problème de mémoire utilisée ? Y a-t-il des paramètres que vous pouvez modifier de votre côté pour que ces analyses fonctionnent ?
Désolée je n'avais pas vu ta réponse ! Normalement tu as un historique partagé du nom de "imported: Formation RNAseq - Données myzus", avec un run STAR en rouge.
Salut,
À mon tour de ne pas avoir vu ta réponse, désolé !
Pour ton problème, ce n'est déjà pas un problème de ram. Peut-être un problème de nombre de fichiers ouverts sur le noeud de calcul. Tu peux tenter de relancer le job ? avec un peu de chance il passera ce coup-ci
Anthony
Oui en fait j'ai l'impression que c'est aléatoire, ça a fonctionné pour certains participants de la formation pas pour d'autres. Du coup je me demandais si ça pouvait être stabilisé. Mais si ce n'est pas possible, je vais dire à la personne concernée par cette erreur de relancer pour voir.
EXITING because of fatal ERROR: could not open temporary bam file: ./_STARtmp//BAMsort//b34
SOLUTION: check that the disk is not full, increase the max number of open files with Linux command ulimit -n before running STAR
La limite suggéré (ulimit -n) a déjà été augmenté (de 1024 à 131072) sur les noeuds de calcul.
Je pense donc que ce n'est pas ça.
Il est possible qu'un espace temporaire sur un noeud de calcul est saturé causant une erreur. Mais cela reste à mon avis assez exceptionnel.
Je pense que l'erreur est aléatoire ou peut-être selon le nombre de jobs déjà présents/fichiers ouverts sur le nœud où est lancé mon job ? Peu importe, je pense sérieusement passer à HISAT, un autre aligneur RNAseq: STAR étant connu pour ces problèmes d'utilisation de mémoire/grand nombre de fichiers ouverts.