MPI version of CP2K (cp2k.popt) @team.software

Bonjour @team.software,

Je souhaite demander l'installation de la version MPI (cp2k.popt) de CP2K.
Celle déjà installée est la "single node" (cp2k.ssmp) qui est très lente.

Le guide d'installation est ci-dessous.

Si c'est possible j'aimerais avoir les versions MPI et openMP afin de comparer leurs performances. Le code pour installer les différentes versions est :.

make -j N ARCH=Linux-x86-64-gfortran VERSION="sopt popt ssmp psmp"

Merci beaucoup.

Cordialement,
Ruel

Bonjour,

Apparement sur conda il y'a seulement la version nonmpi ou openmpi, et j'ai pas l'impression que elle sont vraiment séparé, difficile de determiné laquel s'installe quand on ne precise pas le numéro de build ... Enfin bref, une tentative d'installation de la version openmpi est en cours:

module load cp2k/8.2.0.openmpi 
1 « J'aime »

Super! Merci beaucoup @Francois.

Bonjour Francois et @team.software

Je n'arrive pas à lancer l'exécutable cp2k.psmp

J'ai fait:

module load openmpi/4.0.4
module load cp2k/8.2.0.openmpi

Normalement, si ça marche, je serais capable d'afficher la version du logiciel avec :

cp2k.psmp --version

Mais ca donne

MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD
with errorcode 1.
NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.

Pourriez-vous me dire ce que je peux faire pour résoudre ce problème, s'il vous plaît?

Merci beaucoup,
Ruel

Bonjour Ruel,

Il n'est pas nécessaire de charger le module openmpi. openmpi est intégré à la distribution cp2k/8.2.0.openmpi

cp2k.psmp doit vraisemblablement être lancé via mpirun.

Pour tester de manière interactive, vous pouvez effectuer une réservation avec salloc.

Par exemple :

salloc --ntasks=2 --mem-per-cpu=50MB

Une fois que les ressources vous ont été allouée, vous pouvez lancer :

mpirun cp2k.psmp --version

N'oubliez pas de libérer les ressources :

exit

Julien

1 « J'aime »

Rebonjour Julien et @team.software

J'ai essayé

salloc --ntasks=2 --mer-per-cpu=50MB
mpirun cp2k.psmp --version

Mais, il donne le meme erreur.

MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD
with errorcode 1.

NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.

J'arrive pas encore trouver une solution. :thinking: