lunes, 12 de mayo de 2014

Seguridad y nuevas tecnologías en los sistemas distribuidos


SEGURIDAD 

     Es la capacidad del sistema para proteger datos, servicios y recursos de usuarios no autorizados. El fin de la seguridad es garantizar la protección o estar libre de todo peligro y/o daño, y que en cierta manera es infalible. Como esta característica, particularizando para el caso de sistemas operativos o redes de computadores, es muy difícil de conseguir (según la mayoría de expertos, imposible), se suaviza la definición de seguridad y se pasa a hablar de fiabilidad (probabilidad de que un sistema se comporte tal y como se espera de el) más que de seguridad; por tanto, se habla de sistemas fiables en lugar de hacerlo de sistemas seguros. A grandes rasgos se entiende que mantener un sistema seguro (o fiable) consiste básicamente en garantizar tres aspectos: confidencialidad, integridad y disponibilidad. Algunos estudios integran la seguridad dentro de una propiedad más general de los sistemas, la confiabilidad, entendida como el nivel de calidad del servicio ofrecido. Consideran la disponibilidad como un aspecto al mismo nivel que la seguridad y no como parte de ella, por lo que dividen esta última en sólo las dos facetas restantes, confidencialidad e integridad. En este trabajo no seguiremos esa corriente por considerarla minoritaria.

·                     La confidencialidad: Nos dice que los objetos de un sistema han de ser accedidos únicamente por elementos autorizados a ello, y que esos elementos autorizados no van a convertir esa información en disponible para otras entidades.
·                     La integridad: Significa que los objetos sólo pueden ser modificados por elementos autorizados, y de una manera controlada.
·                     La disponibilidad: Indica que los objetos del sistema tienen que permanecer accesibles a elementos autorizados; es el contrario de la negación de servicio. Generalmente tienen que existir los tres aspectos descritos para que haya seguridad: por ejemplo en un sistema Unix puede conseguir confidencialidad para un determinado fichero haciendo que ningún usuario (ni siquiera el root) pueda leerlo, pero este mecanismo no proporciona disponibilidad alguna. Dependiendo del entorno en que un sistema Unix trabaje, a sus responsables les interesara dar  prioridad a un cierto aspecto de la seguridad. Por ejemplo, en un sistema militar se antepondría la confidencialidad de los datos almacenados o transmitidos sobre su disponibilidad: seguramente, es preferible que alguien borre información confidencial (que se podría recuperar después desde una cinta de backup) a que ese mismo atacante pueda leerla, o a que esa información esté disponible en un instante dado para los usuarios autorizados. En cambio, en un servidor NFS de un departamento se premiará la disponibilidad frente a la confidencialidad: importa poco que un atacante lea una unidad, pero que esa misma unidad no sea leída por usuarios autorizados va a suponer una pérdida de tiempo y dinero. En un entorno bancario, la faceta que mas ha de preocupar a los responsables del sistema es la integridad de los datos, frente a su disponibilidad o su confidencialidad: Es menos grave que un usuario consiga leer el saldo de otro que el hecho de que ese usuario pueda modificarlo.
                           


     Dentro del campo de la protección de la información podemos destacar tres grandes problemas, además comunes, que intervienen en nuestros sistemas y perturban nuestra información, primero encontramos a los HACKER que son usuarios muy avanzados que por su elevado nivel de conocimientos técnicos son capaces de superar determinadas medidas de protección. Su motivación abarca desde el espionaje industrial hasta el mero desafío personal.  También Los virus informáticos son programas, generalmente destructivos, que se introducen en el ordenador (al leer un disco o acceder a una red informática) y pueden provocar pérdida de la información (programas y datos) almacenada en el disco duro.   Para evitar problemas en caso de apagón eléctrico existen las denominadas UPS (acrónimo de UninterruptedPowerSupply), baterías que permiten mantener el sistema informático en funcionamiento, por lo menos el tiempo necesario para apagarlo sin pérdida de datos.
MEDIDAS DE SEGURIDAD • Una alternativa es el uso de una llave pública y una privada mediante el protocolo de seguridad Securet Socket Layer (SSL) que autentifica tanto al usuario que envía como al que recibe la información, porque es durante este proceso de transmisión que ocurren la mayor parte de las violaciones en la seguridad. • Una técnica para proteger la confidencialidad es el cifrado. La información puede cifrarse y descifrarse empleando ecuaciones matemáticas y un código secreto denominado clave. Generalmente se emplean dos claves, una para codificar la información y otra para descodificarla. La clave que codifica la información, llamada clave privada, sólo es conocida por el emisor. La clave que descodifica los datos, llamada clave pública, puede ser conocida por varios receptores. Ambas claves se modifican periódicamente, lo que complica todavía más el acceso no autorizado y hace muy difícil descodificar o falsificar la información cifrada. Estas técnicas son imprescindibles si se pretende transmitir información confidencial a través de un medio no seguro como puede ser Internet. Las técnicas de firma electrónica permiten autentificar los datos enviados de forma que se pueda garantizar la procedencia de los mismos (imprescindible, por ejemplo, a la hora de enviar una orden de pago).

LA COMPUTACIÓN GRID

     La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una importante revolución.
               

     El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación o empresas se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.

     Llamamos grid al sistema de computación distribuido que permite compartir recursos no centrados geográficamente para resolver problemas de gran escala. Los recursos compartidos pueden ser ordenadores (PC, estaciones de trabajo, supercomputadoras, PDA, portátiles, móviles, etc), software, datos e información, instrumentos especiales (radio, telescopios, etc.) o personas/colaboradores.

     La computación grid ofrece muchas ventajas frente a otras tecnologías alternativas. La potencia que ofrecen multitud de computadores conectados en red usando grid es prácticamente ilimitada, además de que ofrece una perfecta integración de sistemas y dispositivos heterogéneos, por lo que las conexiones entre diferentes máquinas no generarán ningún problema. Se trata de una solución altamente escalable, potente y flexible, ya que evitarán problemas de falta de recursos (cuellos de botella) y nunca queda obsoleta, debido a la posibilidad de modificar el número y características de sus componentes.

     Estos recursos se distribuyen en la red de forma transparente pero guardando unas pautas de seguridad y políticas de gestión de carácter tanto técnico como económico. Así pues, su objetivo será el de compartir una serie de recursos en la red de manera uniforme, segura, transparente, eficiente y fiable, ofreciendo un único punto de acceso a un conjunto de recursos distribuidos geográficamente en diferentes dominios de administración. Esto nos puede llevar a pensar que la computación Grid permite la creación de empresas virtuales. Es importante saber que una grid es un conjunto de maquinas distribuidas que ayudan a mejorar el trabajo sobre software pesados


CARACTERISTICAS

 Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite;


 Alta disponibilidad. con la nueva funcionalidad, si un servidor falla, se reasignan los servicios en los servidores restantes;




 Reducción de costes: con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y podremos hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón;

Se relaciona el concepto de grid con la nueva generación del protocolo IP. El nuevo protocolo de Internet IPv6 permitirá trabajar con una Internet más rápida y accesible. Una de las ideas clave en la superación de las limitaciones actuales de Internet IPv4 es la aparición de nuevos niveles de servicio que harán uso de la nueva capacidad de la red para intercomunicar los ordenadores.



     Este avance en la comunicación permitirá el avance de las ideas de grid computing al utilizar como soporte la altísima conectividad de Internet. Es por ello que uno de los campos de mayor innovación en el uso del grid computing, fuera de los conceptos de supercomputación, es el desarrollo de un estándar para definir los Grid Services frente a los actuales Web Services.



Desventajas



No obstante, la computación grid presenta algunos inconvenientes que deben solucionarse. Estos problemas son:
 Recursos heterogéneos: la computación grid debe ser capaz de poder manejar cualquier tipo de recurso que maneje el sistema, si no resultará totalmente inútil.


 Descubrimiento, selección, reserva, asignación, gestión y monitorización de recursos son procesos que deben controlarse externamente y que influyen en el funcionamiento del grid.

 Necesidad de desarrollo de aplicaciones para manejar el grid, así como desarrollo de modelos eficientes de uso.

 Comunicación lenta y no uniforme.

 Organizativos: dominios de administración, modelo de explotación y costes, política de seguridad...

 Económicos: precio de los recursos, oferta/demanda



Ventajas y requisitos



En definitiva, grid supone un avance respecto a la World Wide Web:

El World Wide Web proporciona un acceso transparente a información que está almacenada en millones de ordenadores repartidos por todo el mundo. Frente a ello, el grid es una infraestructura nueva que proporciona acceso transparente a potencia de cálculo y capacidad de almacenamiento distribuida por una organización o por todo el mundo.
Los requisitos que debe cumplir cualquier grid son:
Los datos deben compartirse entre miles de usuarios con intereses distintos. Se deben enlazar los centros principales de supercomputación, no sólo los PC. Se debe asegurar que los datos sean accesibles en cualquier lugar y en cualquier momento. Debe armonizar las distintas políticas de gestión de muchos centros diferentes. Debe proporcionar seguridad.
Y los beneficios que se obtienen:
 Proporciona un mecanismo de colaboración transparente entre grupos dispersos, tanto científicos como comerciales.


 Posibilita el funcionamiento de aplicaciones a gran escala.

 Facilita el acceso a recursos distribuidos desde nuestros PC.

 Todos estos objetivos y beneficios se engloban en la idea de "e-Ciencia".

Estos beneficios tendrán repercusión en muchos campos:

 Medicina (imágenes, diagnosis y tratamiento).
 Bioinformática (estudios en genómica y proteómica).
 Nanotecnología (diseño de nuevos materiales a escala molecular).
 Ingeniería (diseño, simulación, análisis de fallos y acceso remoto a instrumentos de control).
 Recursos naturales y medio ambiente (previsión meteorológica, observación del planeta, modelos y predicción de sistemas complejos).
La tecnología derivada del grid abre un enorme abanico de posibilidades para el desarrollo de aplicaciones en muchos sectores. Por ejemplo: desarrollo científico y tecnológico, educación, sanidad, y administración pública.


NUEVAS TECNOLOGÍAS EN SISTEMAS DISTRIBUIDOS
                                   
      IBM anunció una serie de productos de software que se “auto-reparan”. Estos productos son capaces de encontrar y resolver problemas en forma automática, para evitar caídas de sistemas antes de que ocasionen demoras en la operatoria basada en Internet, o la pérdida de valiosa información sobre los clientes. El software marca la próxima ola de tecnología autonómica auto-administrable de IBM, al entrar de lleno en el terreno de la reparación pro-activa de los problemas de tecnología informática.

     El nuevo software de la división Tivoli de IBM es capaz de identificar y luego llegar al lugar del problema para resolverlo. Por ejemplo, puede reparar cuellos de botella o logjams de Internet, y devolver los sistemas al estado operativo en línea después de producirse un corte de electricidad. Con este recurso, se elimina la engorrosa tarea de encontrar y reparar contratiempos que naturalmente ocurren en sistemas informáticos complicados y entrelazados, para que las empresas de todo tipo –desde minoristas de mediano porte hasta compañías de seguros multinacionales- puedan administrar en forma segura y completa sus aplicaciones en línea. En modo análogo al sistema nervioso autónomo del organismo, capaz de reparar un hueso quebrado sin intervención del pensamiento consciente, el nuevo software de reparación autónoma de IBM se hace cargo de las desaceleraciones y las interrupciones de servicio, evitando que los consumidores que visitan un sitio se frustren con la espera y decidan pasar al sitio de la competencia, por ejemplo.

La tarea de resolución de problemas relacionados con caídas e interrupciones de sistemas puede llevar horas o incluso días a los equipos de especialistas de TI, pues requiere revisar los registros de error para rastrear los problemas, paso por paso, hasta encontrar el punto de falla. De hecho, la firma de analistas Enterprise Management Associates estima que determinar la causa de un problema puede llevar entre el 50 y el 80% del tiempo del personal de TI, mientras que el tiempo dedicado a su reparación es el 15 a 20% restante.
La iniciativa de computación autonómica de IBM, que abarca múltiples industrias y fue lanzada en 2001, durante los últimos cuatro años ha logrado simplificar radicalmente la gestión de la tecnología informática y su infraestructura subyacente, al automatizar los procesos e incorporar la inteligencia a los sistemas en sí, ayudando a movilizar a las empresas hacia ambientes de autogestión. IBM ha construido el portafolio más amplio de productos, servicios y soluciones habilitados para la modalidad autonómica, con más de 475 características de autogestión en 75 productos IBM distintos.

“La era de la tecnología auto-reparable ha llegado – comentó Alan Ganek, Chief Technology Officer de la División de Software Tivoli de IBM y Vicepresidente de Computación Autonómica de IBM. –Estos nuevos productos de IBM permiten a las empresas detectar y corregir los problemas de TI en forma automática (y detrás de escena) para que puedan enfocarse en los proyectos estratégicos que son valiosos para su negocio. Estamos abriendo nuevas puertas para reducir la complejidad de la tecnología.”


Los nuevos productos auto-reparables de IBM 

 IBM Tivoli Monitoring – Permite a las empresas manejar aplicaciones en línea, tales como e-mail o sistemas de pago de facturas, mediante la corrección anticipada de los problemas de servicios informáticos, tales como aplicaciones “colgadas”, y la resolución de los problemas en los servidores, sistemas operativos y bases de datos de una empresa antes de que impacten en los usuarios. El software detecta la necesidad de procedimientos específicos, tales como agregar servidores adicionales cuando se acerca la sobrecarga de capacidad, automatizando la forma en que se corrigen los problemas comunes. Además, el software proporciona encriptado de seguridad para servicios en toda la empresa, lo cual asegura que los datos que pasan por la tecnología de monitoreo, tales como contraseñas y claves, estén protegidos. Este software que se auto-repara fue probado durante los últimos siete meses por casi 100 organizaciones, con lo cual se convirtió en el programa beta más grande de la historia de Tivoli. Tivoli Monitoring de IBM ya está disponible.

 IBM Tivoli Composite Application Manager – acelera el acceso a la información en Internet (desde reservar un paquete para vacaciones a realizar investigación antes de comprar un auto) al predecir y arreglar cuellos de botella que surgen a medida que docenas de sistemas diferentes se conectan bajo una Arquitectura Orientada a Servicios (SOA). El software auto-reparable puede ubicar dónde están los problemas, identificar la causa específica y tomar medidas para resolverlos, todo antes de que los clientes se vean afectados. Los productos IBM Tivoli Composite Application Manager for SOA, IBM Tivoli Composite Application Manager for WebSphere y IBM Tivoli Composite Application Manager for Response Time Tracking ya están disponibles.

• Tivoli System Automation for Multiplatforms – puede señalar el estado de aplicaciones complejas que se ejecutan en múltiples plataformas y sistemas operativos, y usar instrucciones predefinidas, o políticas, para que las aplicaciones vuelvan a estar en línea en forma automática si el sistema falla por un corte de energía o por otra causa. Por ejemplo, una aplicación compleja de un banco para transferir fondos entre cuentas puede ejecutarse en un sistema Linux y estar conectada a una base de datos en un sistema mainframe. El software auto-reparable de IBM devuelve todo el entorno complejo de aplicación y base de datos en línea si se produce un corte de energía, evitándole a la empresa perder datos de negocio y de clientes. Anteriormente, el personal de TI debía encontrar dónde se había producido el corte y reiniciar manualmente la aplicación o la base de datos para reanudar las operaciones. Tivoli System Automation ya está disponible.

     El nuevo software  se enmarca en la iniciativa IT Service Management de IBM, dedicada a automatizar e integrar procesos de tecnología informática en toda la empresa. El software podrá adquirirse directamente en IBM y a través de sus asociados de negocio.
·          


Libros Relacionados
books.google.co.ve/books?isbn=8481025577
books.google.co.ve/books?isbn=8479782730


No hay comentarios:

Publicar un comentario