Mémoire Temporaire

Bonjour.

Je voudrais demander plus d'espace mémoire temporaire car j'analyse des données métagénomique lourdes.

Mon nom de projet est evol_atac_seq sous shebrew

Merci.

Bonjour,

Le nombre de fichier max sur votre "home" a été atteints (108k fichiers sur un quota de 100k).
Pour voir votre quota sur le home:

lfs quota -h -p 163153 /shared/home/shebrew

Est-ce c'est pas simplement ça qui vous bloque ?
Dans tous les cas, je vous invite à faire un peu de nettoyage dans votre /home (notamment dans les environnements conda qui génère bcp de fichiers) ou à déplacer les fichiers dans votre espace projet.

J'ai nettoyé mon home mais je reçois toujours cette erreur .

Some of your processes may have been killed by the cgroup out-of-memory handler

Bonjour Simeon,

L'erreur out-of-memory indique en manque de mémoire vive (RAM).

Il faut essayer en demandant plus de mémoire (option --mem ou --mem-per-cpu).

Merci de vous assurer du bon usage des ressources (CPU, mémoire, etc) avec la commande seff une fois le job terminé.

Bonjour

J'ai essayé demander plus du mémoire mais je reçois toujours la meme erreur.

Voici mon script sbatch.

#SBATCH --job-name=METAPHLAN_RUN
#SBATCH --mail-type=begin
#SBATCH --mail-type=end
#SBATCH --nodes=4
#SBATCH --ntasks-per-node=24
#SBATCH --mem-per-cpu=8G

J'ai remarqué que je peux dépasser 10G pour le paramètre --mem-per_cpu

Bonjour,

Je vous ai donné accès à la machine "bigmem" (3To, 124 cœurs "hyperthreadés") pour le projet evol_stem_regen.
Pensez à préciser la partiton (-p bigmem) et le compte correspondant (-A evol_stem_regen).

Mais je ne suis pas sûr que cela suffise. Serait-il possible de découper vos données pour ne les traiter que par "petit bout" ?