Bonjour.
Je voudrais demander plus d'espace mémoire temporaire car j'analyse des données métagénomique lourdes.
Mon nom de projet est evol_atac_seq
sous shebrew
Merci.
Bonjour.
Je voudrais demander plus d'espace mémoire temporaire car j'analyse des données métagénomique lourdes.
Mon nom de projet est evol_atac_seq
sous shebrew
Merci.
Bonjour,
Le nombre de fichier max sur votre "home" a été atteints (108k fichiers sur un quota de 100k).
Pour voir votre quota sur le home:
lfs quota -h -p 163153 /shared/home/shebrew
Est-ce c'est pas simplement ça qui vous bloque ?
Dans tous les cas, je vous invite à faire un peu de nettoyage dans votre /home (notamment dans les environnements conda qui génère bcp de fichiers) ou à déplacer les fichiers dans votre espace projet.
J'ai nettoyé mon home mais je reçois toujours cette erreur .
Some of your processes may have been killed by the cgroup out-of-memory handler
Bonjour Simeon,
L'erreur out-of-memory
indique en manque de mémoire vive (RAM).
Il faut essayer en demandant plus de mémoire (option --mem
ou --mem-per-cpu
).
Merci de vous assurer du bon usage des ressources (CPU, mémoire, etc) avec la commande seff
une fois le job terminé.
Bonjour
J'ai essayé demander plus du mémoire mais je reçois toujours la meme erreur.
Voici mon script sbatch.
#SBATCH --job-name=METAPHLAN_RUN
#SBATCH --mail-type=begin
#SBATCH --mail-type=end
#SBATCH --nodes=4
#SBATCH --ntasks-per-node=24
#SBATCH --mem-per-cpu=8G
J'ai remarqué que je peux dépasser 10G pour le paramètre --mem-per_cpu
Bonjour,
Je vous ai donné accès à la machine "bigmem" (3To, 124 cœurs "hyperthreadés") pour le projet evol_stem_regen
.
Pensez à préciser la partiton (-p bigmem
) et le compte correspondant (-A evol_stem_regen
).
Mais je ne suis pas sûr que cela suffise. Serait-il possible de découper vos données pour ne les traiter que par "petit bout" ?