Programaci´on Paralela en MPI
Xavier Andrade V.
Introducci´on
A pesar del aumento exponencial de la capacidad de los pro-
cesadores, esta no es suficiente para el estudio de muchos
sistemas.
Es necesario entonces usar varios procesadores para realizar
una sola tarea.
Aparece un factor importante, la comunicaci´on entre proce-
sos.
La computaci´on paralela es un ´area actual de estudio tanto
en el desarrollo de sistemas como en la programaci´on.
1
Sistemas Paralelos
Existen distintas maneras de interconectar varios procesadores en
un sistema.
2
Sistemas de Memoria Compartida
Est´an compuestos de procesadores y m´odulos de memoria
interconectados.
Existe un direccionamiento de memoria com´un para todos
los procesadores.
La comunicaci´on entre procesos es muy r´apida.
Escalan a un m´aximo del orden 100 procesadores por proble-
mas de rendimiento y costo.
3
Sistemas de Memoria Distribuida
Cada procesador tiene su propia memoria.
Un sistema de interconexi´on permite acceder la memoria de
los otros procesadores.
Escalan a miles de procesadores.
4