Impossible d'ouvrir une session JupyterLab

Bonjour,

Depuis plusieurs jours je n'arrive pas à lancer de session JupyterHub depuis la nouvelle page ondemand.cluster.... . Ca marchait presque instantanément avec le système précédent, là je n'ai réussi qu'une seule fois mais récemment rien. J'ai essayé différentes quantités de mémoire et de CPU et après "Starting" je finis toujours par avoir : "Your session has entered a bad state. Feel free to contact support for further information". C'est pareil avec fast et long, et je ne demande pas de GPU. Si je lance un job sur fast avec slurm ça passe pourtant tout de suite.

Après l'échec de JupyterLab, dans "output.log" j'ai (même en demandant un seul Go de mémoire) :

Script starting...
Waiting for Jupyter Notebook server to open port 26367...
TIMING - Starting wait at: Tue Mar 19 22:16:15 CET 2024
TIMING - Starting main script at: Tue Mar 19 22:16:15 CET 2024
Currently Loaded Modulefiles:

  1. jupyterlab/3.5.0
    TIMING - Starting jupyter at: Tue Mar 19 22:16:15 CET 2024
  • jupyter lab --config=/shared/home/dcros/ondemand/data/sys/dashboard/batch_connect/sys/jupyter/core/output/c9223c3a-0b06-4043-aeae-5c81612ce4e3/config.py --FileContentsManager.delete_to_trash=False
    /shared/home/dcros/ondemand/data/sys/dashboard/batch_connect/sys/jupyter/core/output/c9223c3a-0b06-4043-aeae-5c81612ce4e3/script.sh: line 27: 46038 Killed jupyter lab --config="${CONFIG_FILE}" --FileContentsManager.delete_to_trash=False
    Timed out waiting for Jupyter Notebook server to open port 26367!
    TIMING - Wait ended at: Tue Mar 19 22:17:25 CET 2024
    Cleaning up...
    slurmstepd: error: Detected 1 oom-kill event(s) in StepId=38472920.batch. Some of your processes may have been killed by the cgroup out-of-memory handler.

Merci

David

Bonjour,
J'ai toujours ce problème. Est-ce que je suis le seul à le rencontrer ?
Merci
David

Bonjour,

Attention, il faut absolument spécifier l'unité !
Si on demande 4 on aura 4Mo... la mémoire sature immédiatement et job Jupyter échoue alors a se lancer.
Il faut donc indiquer 4G pour avoir 4Go de mémoire

On est en train de modifier le formulaire pour mitiger cette erreur.

PS: Vous approchez la limite du nombre de fichier dans votre /home (95652, max 100000).
En cas de saturation, ca peut également causer des soucis pour lancer des notebooks.
Essayer de faire un peu de ménage (souvent dû aux environments conda, packages python ou R, etc.)
Voir: lfs quota -h -p 164169 /shared/home/dcros

Désolé pour ce retour tardif

1 « J'aime »

Parfait, merci :slight_smile: