El Grid es una tecnología que tiene como objetivo compartir recursos en Internet de forma uniforme, transparente, segura, eficiente y fiable. Según Ávila, en la tesis de máster escrita el año (2010) titulada “Verificación de arreglos de cobertura utilizando supercomputación y computación Grid”, la tecnología Grid nace dentro de la comunidad de supercomputación. El concepto es análogo a las redes de suministro eléctrico que ofrecen un único punto de acceso a un conjunto de recursos distribuidos: Supercomputadoras, grupo de equipos, almacenamiento, fuentes de información, personal, bases de datos, entre otros. Esta tecnología permite interconectar recursos en diferentes dominios de administración respetando sus políticas internas de seguridad y su software de gestión de recursos en la Intranet. Coordina recursos que no están sujetos a un control centralizado, usando protocolos e interfaces basados en estándares abiertos y de propósito general. La tecnología Grid propone agregar y compartir recursos de computación distribuidos entre diferentes organizaciones e instituciones, a través de redes de alta velocidad, de modo que el acceso a los mismos sea sencillo, flexible y fiable.
En palabras de Ibán Cabrillo, en la tesis de máster escrita el año 2008 titulada “Operación y desarrollo de herramientas para la gestión de datos en un entorno Grid”, la palabra Grid, que significa malla en castellano, se usa en el entorno de las redes eléctricas pues está diseñada como un mallado de líneas de corriente interconectadas unas con otras, de forma que, para el usuario final, una persona en casa por ejemplo, es totalmente transparente el uso de la misma. Al igual que cuando se pulsa un interruptor, la energía que se consume en ese momento puede ser suministrada desde varios lugares diferentes, siendo lo único importante que haya corriente cuando se pulsa el interruptor, y no de donde proviene la energía. Con esta idea básica nace el concepto de computación Grid. Lo que pretende la computación Grid es que con una simple conexión a la red, un terminal por ejemplo, se disponga de acceso a diferentes sistemas de computación, almacenamiento, etc., de forma transparente para el usuario, pudiendo estar éstos distribuidos por diferentes partes del mundo.
En diversas ocasiones autores de renombre como Ian Foster, en el libro escrito con Kesselman el año 1999 titulado “Grid: Proyecto original para una nueva infraestructura computacional”, han comparado la tecnología Grid con una “red eléctrica distribuida”. La comparación a la que se refieren estos autores es la que se realiza en el ámbito de acceso a los recursos. Es decir, la situación ideal consistiría en que cualquier entidad con necesidad de procesar una gran cantidad de datos, pudiera acceder a un conjunto de recursos computacionales geográficamente dispersos, como las centrales eléctricas, con la misma facilidad con la que un electrodoméstico se conecta a la red eléctrica. De esta manera, una determinada organización no se vería obligada a adquirir un nuevo recurso computacional cada vez que lo necesitara, con el costo en tiempo y dinero que este proceso lleva implícito. Además, tampoco se encargaría de la gestión y el mantenimiento de estos recursos, incrementando así la velocidad en el proceso de computación de los datos. Para dar respuesta a estas necesidades, los autores Ian Foster y Carl Kesselman propusieron a fines de los años 1990 un nuevo paradigma de programación denominado computación Grid, nombre derivado de su analogía con la red eléctrica, que tiene como objetivo principal facilitar el acceso a recursos computacionales distribuidos.
Según Herrera, en la tesis doctoral titulada “Modelo de programación para infraestructuras Grid computacionales”, al año 2008, existen otros modelos de computación en red que aportan mecanismos para aprovechar al máximo los recursos distribuidos que generalmente se encuentran infrautilizados, estos son: (1) Computación de grupos. Formado por un grupo dedicado de equipos como alternativa a la adquisición de un equipo multiprocesador. La principal ventaja de este modelo de computación en red consiste en el aumento de la relación costo-rendimiento, sin embargo su mayor desventaja radica en la dificultad de programación y mantenimiento de estos sistemas. Los grupos suelen estar gestionados por software de planificación como MOSIX de la Universidad de Israel o PBS desarrollado inicialmente por la Administración Nacional de Aeronáutica y del Espacio de los Estados Unidos. (2) Computación Intranet. Consiste en la unión de potencia computacional desaprovechada en los recursos hardware distribuidos en una red de área local. Su principal ventaja consiste en que proporciona un rendimiento semejante al ofrecido por sistemas de alto rendimiento con un costo económico casi nulo. Las herramientas SGE de Sun Microsystems, LSF de Platform Computing o Cóndor de la Universidad de Wisconsin permiten la gestión oportunista de los recursos. (3) Computación Internet: Este modelo de computación aprovecha la potencia de los recursos distribuidos por Internet siguiendo el modelo cliente-servidor y obteniendo de esta manera un gran rendimiento en la ejecución de aplicaciones. Sin embargo, estas ejecuciones están limitadas por el bajo ancho de banda y por la escasa seguridad en Internet. Dentro de este campo se pueden encontrar aplicaciones pertenecientes a los “voluntarios de la computación Grid”, como las dedicadas a investigaciones astronómicas o de enfermedades como el cáncer.
No hay comentarios:
Publicar un comentario