Ejemplo
Sub
if(myid == 0)
{
printf("Tenemos %d procesadoresn", numprocs); for(i=1;i< numprocs;i++)
{
sprintf(buff, "¡Holaaa %d! ", i);
// Regresa el resultado
MPI_Send(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD);
}
for(i=1;i< numprocs;i++)
{
// Recive el valor de cada proceso
MPI_Recv(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD, &stat);
printf("%sn", buff);
}
}
Ejemplo
Sub
else
{
// Recive el valor de cada proceso
MPI_Recv(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD, &stat);
sprintf(idstr, "Procesador %d ", myid);
strcat(buff, idstr);
strcat(buff, "reportandosen");
// Regresa el resultado
MPI_Send(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD);
}
// FInaliza
MPI_Finalize();
return 0;
}
Trabajos Futuros
Sub
Conclusiones
Sub
El acceso remoto a memoria es lento.
La programación puede ser complicada
Java Puro escaso rendimiento debido a la inicialización costosa RMI
Falta de rendimiento se agudiza para redes de baja latencia (Myrinet, SCI
Página anterior | Volver al principio del trabajo | Página siguiente |