En FORTRAN será vía el llamado a subrutinas:
call MPI_ROUTINE (ARGUMENTOS, IERROR)
En C el uso será de la forma:
MPI_Xxxxxx(argumentos)
El primer paso será invocar a la biblioteca adecuada (C: mpi.h, F: mpif.h)p.e.: #include "mpi.h"
Todo programa MPI tiene que ser inicializado y finalizado (para liberar correctamente los recursos).
¿¿Cómo funciona??
Versión Fortran
PROGRAM simple
include 'mpif.h'
integer errcode
! Inicializar MPI
call MPI_INIT (errcode)
! Parte Principal del Prog…
! Terminar MPI
call MPI_FINALIZE (errcode)
end
Versión C
#include "mpi.h"
/* Headers */
main(int argc, char **argv)
{
/* Inicializar MPI */
MPI_Init (&argc, &argv);
/* Parte principal del Prog….. */
/* Terminar MPI */
MPI_Finalize ();
exit (0);
}
Un programa MPI: el esquema básico
Los siguientes pasos son definir un comunicador, indicar el número total de procesadores en el sistema y el rango de cada uno dentro del conjunto.
El comunicador típico es MPI_COMM_WORLD (definido en mpi.h/mpif.h): son todos los nodos requeridos al sistema.
(Pueden definirse otros comunicadores si es necesario)
"Hola Mundo" en FORTRAN con MPI
PROGRAM main
include 'mpif.h'
integer errcode, rank, size
call MPI_INIT (errcode)
call MPI_Comm_rank (MPI_COMM_WORLD, rank, errcode)
call MPI_Comm_size (MPI_COMM_WORLD, size, errcode)
print*, "Hola Mundo! Soy el proceso", rank, " de", size
call MPI_FINALIZE (errcode)
end
"Hola Mundo" en C con MPI
#include "mpi.h"
#include < stdio.h>
int main(int argc, char **argv)
{ int rank, size;
MPI_Init (&argc, &argv);
MPI_Comm_rank (MPI_COMM_WORLD, &rank);
MPI_Comm_size (MPI_COMM_WORLD, &size);
printf( "Hola Mundo! Soy el proceso %d de %dn", rank,size);
MPI_Finalize ();
exit (0);
}
¿Qué es un mensaje?
Son paquetes de datos que se intercambian entre los diferentes subprogramas.
Un mensaje se compone de: datos + direccionamiento:
Punto de origen de los datos
Tipo de datos a intercambiar
Longitud de los datos a intercambiar
Destino (u origen)
Una etiqueta que lo distinga
Comunicador
Intercambio de Mensajes
Tipos de Datos
El usuario puede construir otros tipos de datos.
MPI soporta arquitecturas heterogéneas, la definición del tipode datos a intercambiar hace que sean compatibles.
Comunicaciones Punto a Punto
Es la forma mas simple de transmisión de mensajes
Un proceso envia un mensaje a otro
Existen diferentes formas de hacerlo (sincrónicamente, asincrónicamente, bloqueante, no bloqueante, etc).
Ejemplo
Quiero calcular ?como :
double precision mypi, pi, h, sum, x, f, a
integer n, myid, size, i, rc, ierr, status
c — funcion a integrar
f(a) = 4.d0 / (1.d0 + a*a)
c — Numero de intervalos
read(5,*) n
c — tamaño del intervalo
h = 1.0d0/n
c — realiza las sumas
sum = 0.0d0
do i = 1, n
x = h * (dble(i) – 0.5d0)
sum = sum + f(x)
enddo
mypi = h * sum
pi=mypi
write(6, '(" pi es aproximadamente:", F18.16)') pi
end
include 'mpif.h'
double precision mypi, pi, h, sum, x, f, a
integer n, myid, size, i, rc, ierr, status
c — funcion a integrar
f(a) = 4.d0 / (1.d0 + a*a)
call MPI_INIT( ierr )
call MPI_COMM_RANK( MPI_COMM_WORLD, myid, ierr )
call MPI_COMM_SIZE( MPI_COMM_WORLD, size, ierr )
print *, "Proceso ", myid, " de ", size, " funcionando"
if(myid.eq.0) then
read(5,*) n
endif
if(myid.eq.0) then
do i=1,size-1
call MPI_SEND(n,1,MPI_INTEGER,i,1,MPI_COMM_WORLD,ierr)
enddo
else
call MPI_RECV(n,1,MPI_INTEGER,0,1,MPI_COMM_WORLD,status,ierr)
endif
h = 1.0d0/n
sum = 0.0d0
do i = myid+1, n, size
x = h * (dble(i) – 0.5d0)
sum = sum + f(x)
enddo
mypi = h * sum
if(myid.eq.0) then
pi=mypi
do i=1,size-1
call MPI_RECV(mypi,1,MPI_DOUBLE_PRECISION,MPI_ANY_SOURCE,MPI_ANY_TAG, MPI_COMM_WORLD,status,ierr)
pi=pi+mypi
enddo
else
call MPI_SEND(mypi,1,MPI_DOUBLE_PRECISION,0,99, MPI_COMM_WORLD,ierr)
endif
if (myid .eq. 0) then
write(6, '(" pi es aproximadamente:", F18.16)') pi
endif
call MPI_FINALIZE(rc)
end
Página anterior | Volver al principio del trabajo | Página siguiente |