Job interrompu, quota atteint?

Bonjour,
j'essaie d'aligner les lectures de 12 échantillons RNAseq avec hisat2. Les jobs se lancent, commencent à écrire les sam, puis s’arrêtent sans générer de message d'erreur (mais avec des .core). Je soupçonne que j'atteins mon quota (est-il de 500 Go ou d'un To pour le projet lxactko_analyse?). En faisant tourner un seul job j'ai vu que le sam généré faisait près de 150 Go avant d'être converti en bam de 15 Go. J'ai donc 2 questions:

  • est-il possible de dépasser temporairement son quota?
  • y a t'il un moyen simple de vérifier la place disponible sur mon projet et de suspendre les autres jobs jusqu'à ce que la place soit à nouveau suffisante?

Merci beaucoup de votre aide!

Magali

Bonjour Magali

je ne fais pas partie du team IFB mais je donne un début de réponse car déjà confronté au même problème avec MMSEQS.

J'avais des crashes intempestifs de MMSEQS en raison d'une base de données mal formatée, qui générait ce fameux fichier "core" de taille gigantesque et qui est en fait une copie de la RAM au moment du crash.

Donc à priori, ce n'est pas le manque de place qui fait crasher ton programme (sinon le fichier core ne pourrait pas se créer) mais autre chose (reformate tes bases par exemple).

Sinon pour t'éviter de créer un fichier SAM intermédiaire volumineux, tu peux aussi "piper" ta sortie hisat vers samtools.

Par exemple ma commande générique hisat2 qui me génère directement un "sorted bam" et que je fais tourner sous slum:

hisat2 -x $REF.
-1 /tmp/$DATE.1.fastq
-2 /tmp/$DATE.2.fastq
--threads 20
--summary-file $DIR/BAM/$SUMMARY
--no-unal |
samtools view -b -u -o - |samtools sort -o /tmp/$BAM

J'espère que ça aidera
G.

Merci beaucoup de ta réponse!
Je n'ai pas l'impression que ce soit le même problème que toi, mes .core faisant 0 o.
J'ai pensé à faire un 'pipe' mais j'avais peur que ça demande une quantité énorme de RAM. Je vais tester.

Bonjour Magali,

Le quota pour votre projet lxactko_analyse est de 500GB, vous utilisez actuellement 161GB, et il y a une tolérance jusqu’à 750GB (vous pouvez donc dépasser temporairement les 500GB)

OK, merci beaucoup. J'ai réussi à processer mes données en lançant les échantillons 2 par 2, c'est pas hyper pratique mais c'est fait. Si quelqu'un a une solution à ma 2nde question, je suis toujours preneuse!
Merci

Magali