Protocolos para la gestión de redes (tercera parte)  

Posted by Danny in

La mayor parte de los sistemas operativos de red ponen los protocolos adecuados para realizar una gestión de red. Son escasos los sistemas que proporcionan una consola de análisis de lo que está ocurriendo en la red; normalmente, este software suele ser suministrado por terceras compañías (véase Figura 7.26). Empieza a ser habitual que la gestión de dispositivos de red se realice a través del navegador de Internet. Bastantes dispositivos que se conectan a la red incorporan, además de su funcionalidad propia, un pequeño servidor web que sirve para configurarlo y administrarlo. En la actualidad, los protocolos de gestión de red se encuentran en plena evolución. Los estándares de facto en evolución más importantes son los siguientes:

- SNMPv2 (versión 2 del SNMP).
- RMON.
- DMI (Desktop Management Interface, interfaz de gestión de escritorio), propuesto por el DMTF (Desktop Management Task Force, grupo de trabajo de gestión de escritorio).
- CMIP, que es la solución OSI.



Figura 7.26. Ejemplo de aplicación que gestiona tanto SNMP como RMON

Protocolos para la gestión de redes (segunda parte)  

Posted by Danny in

La ISO ha sugerido cinco áreas de control para las aplicaciones de gestión de redes, aunque después los productos comerciales de los distintos fabricantes añaden otros parámetros. Los parámetros sugeridos por la ISO son los siguientes:

- Rendimiento de la red.
- Configuración de los dispositivos de red.
- Tarifa y contabilidad de los costes de comunicaciones en la red.
- Control de fallos.
- Seguridad de la red.

SNMP es un protocolo de gestión de redes que recoge y registra información desde los dispositivos de una red que siguen su estándar a través de un sistema de preguntas y respuestas. Esta información es almacenada en un gestor centralizado desde donde se procesará. Pero SNMP tiene algunos problemas.

En primer lugar no es demasiado escalable, es decir, el crecimiento de la red hace que se genere mucho tráfico si se quiere hacer una buena gestión.

En segundo lugar, no permite la monitorización de muchos segmentos, lo que lo hace inapropiado para grandes redes. RMON (Remote MONitoring, monitorización remota) es un sistema de gestión de red que viene a resolver en parte estos problemas del SNMP. RMON provee entre otras las siguientes informaciones en su MIB, llamado MIB2 y definido en la RFC 1213:

- Estadísticas. Tráfico de red y errores, así como estadísticas en el nivel de tramas MAC.
- Historia, recogida a intervalos periódicos para su posterior análisis.
- Alarmas y eventos. Definiendo un umbral por encima del cual se disparan.
- Conversaciones entre dos dispositivos cualesquiera.
- Filtrado de paquetes.

RMON sólo es capaz de monitorizar un segmento de red en el nivel de direcciones MAC, lo que frecuentemente es una limitación importante. Un progreso se produce en la iniciativa RMON2 de la IETF (RFC 2021), que da el salto hasta el nivel 3 de OSI, atacando la gestión de la red a través de direcciones IP. Sin embargo, la solución aún no es completa. La solución más avanzada es la utilización de SMON (Switched MONitoring, monitorización conmutada), definida en la RFC 2613, que con su nuevo MIB es capaz de gestionar los dispositivos de red y las redes privadas virtuales, no sólo los puertos de comunicaciones, como ocurría en el caso de RMON.

Protocolos para la gestión de redes (primera parte)  

Posted by Danny in

El crecimiento experimentado por las redes de área local y, sobre todo, la aparición de sistemas distribuidos, ha generado la aparición de técnicas y protocolos especializados en la gestión de redes. La idea de partida es conseguir que desde un único puesto de la red (el del administrador) denominado consola, se pueda monitorizar toda la red. Estas tecnologías recogen información de cada uno de los nodos, observando el tráfico en cada uno de los segmentos de la red, avisando en el caso de que se llegue a situaciones que el administrador de la red defina como alarmantes. En muchos sistemas también se permite la reconfiguración de la red y la simulación de situaciones comprometidas para la red.

Los dispositivos gestionados en una red disponen de un agente que envía alarmas si detecta problemas o situaciones anómalas en la red. Por otra parte, se instalan en la red otros programas denominados entidades de gestión, que recogen e interpretan estas alarmas disparando los mecanismos oportunos para informar al administrador de red o corregir los problemas. Además, las entidades de gestión interrogan periódicamente a los agentes de red sobre su estado.

De este modo, la entidad de gestión se hace una composición de lugar sobre el estado de la red en cada instante.Este sistema de pregunta/respuesta (polling) se realiza mediante protocolos especializados como SNMP (Simple Network Management Protocol, protocolo básico de gestión de red). La información recogida se almacena en una base de datos denominada MIB (Management Information Base, base de datos de información de gestión).

A partir de los MIB (Figura 7.25), las aplicaciones de gestión elaboran estadísticas y otros informes que permiten al administrador tomar decisiones estratégicas sobre la funcionalidad y la seguridad de la red en cada uno de sus puntos.



Figura 7.25. Arquitectura de la gestión de red con SNMP.

Tráfico de red  

Posted by Danny in

Tráfico de red

Como ya hemos estudiado, algunas redes como Token Ring gestionan perfectamente las situaciones de tráfico intenso en la red. Sin embargo, otras como Ethernet se comportan mal cuando están sobrecargadas. Esto hace importante la observación periódica del tráfico de red, así como de los parámetros por los que se regula; por ejemplo, en Ethernet, se podría medir el nivel de colisiones habidas frente al volumen de datos transferidos con éxito.

En el mercado existen aplicaciones que analizan el tráfico de red. A veces, incluso vienen incorporadas con el propio sistema operativo de red (Figura 7.24). Los parámetros que suelen analizar son muy variados y dependen del tipo de protocolo utilizado y del tipo de red, así como de la topología de la misma. Algunos analizadores de red tienen mecanismos que generan tráfico controlado para observar la respuesta de la red en situaciones concretas a través de un proceso de simulación de situaciones reales.

Posibles soluciones de mejora para estos problemas podrían ser la asignación de máscaras de red más ajustadas a las necesidades de la propia red, modificaciones en la topología de red, concentrar los nodos que generan mucho tráfico en segmentos de red rápidos, asegurarse de que se cumplen las especificaciones de los fabricantes en cuanto a longitudes de cables y parámetros eléctricos, etc. También es posible segmentar la red con la utilización de switches y encaminadores. Si el tráfico de red es muy intenso, no habrá más remedio que dar un salto tecnológico en la composición de la red. Por ejemplo, la evolución natural de una red Ethernet es pasar a Fast Ethernet y de ésta a Gigabit Ethernet. También se pueden construir segmentos de fibra óptica o configurar la red con ATM.

Monitorización de los protocolos de red

La mayor parte de los analizadores de red son capaces de elaborar estadísticas sobre el tipo de tráfico que observan en la red, determinando qué tramas han sido generadas por cada protocolo que convive en la red. Esto es especialmente importante cuando los paquetes generados por algunos protocolos deben ser transporta transportados a otra red a través de encaminadores, ya que estas máquinas trabajan con paquetes de protocolos previamente seleccionados.

Cuando se dan situaciones de este tipo, es necesario observar frecuentemente el estado de puentes, encaminadotes y pasarelas, puesto que un cuello de botella en alguno de estos elementos puede perjudicar la marcha global de la red, aunque en ella no haya un tráfico intenso.



Figura 7.24. Parametrización de un analizador de red básico incorporado en Windows y accesible desde el administrador de sistema

Paginación y niveles de transferencia de entrada y salida  

Posted by Danny in

Paginación


Cuando un servidor está escaso de memoria central genera un cuello de botella en el sistema de paginación. Los sistemas operativos utilizados en la actualidad necesitan una gran cantidad de recursos de memoria para ejecutar las aplicaciones.

Como la memoria central es un bien escaso en cualquier equipo informático, el sistema se las ingenia volcando a disco (memoria virtual paginada) los datos residentes en memoria que prevé no utilizar de momento. El proceso de intercambio de datos entre memoria y disco recibe el nombre de paginación.

El tiempo de acceso medio a memoria central es de unas decenas de nanosegundos, mientras que el de acceso a disco es de una decena de milisegundos. Por tanto, si un sistema pagina demasiado, se ralentizarán todas las operaciones. Si el nivel de paginación es elevado, interesa incorporar más memoria central al sistema. Es bastante común obtener fuertes incrementos en el rendimiento del sistema sin más que ampliar su memoria RAM, ya que decrecerá el nivel de paginación.

Niveles de transferencia de entrada y de salida

A veces, el cuello de botella se sitúa en los discos: demasiados usuarios realizando operaciones de entrada o salida de los discos, la paginación del sistema, el disparo de aplicaciones remotas desde el servidor, etcétera. Aunque el sistema disponga de una CPU muy rápida y de grandes cantidades de memoria, si hay demasiadas operaciones de entrada y salida de los discos, la CPU estará casi siempre en estado de espera y el rendimiento decaerá notablemente.

En estos casos se pueden tomar las siguientes medidas de mejora:

- Mejorar el rendimiento de los controladores de disco o del bus de comunicaciones. Por ejemplo, si tenemos un bus IDE, se podría incorporar un bus SCSI de alta velocidad o tecnologías de Fibre Channel.

Además los controladores disponen de varios modos de funcionamiento, de manera que podremos seleccionar aquél que más convenga al tipo de discos de que dispongamos.

- Incrementar el número de discos. Al tener un mayor número de discos, la carga de entrada y salida se repartirá entre todos ellos, mejorando el rendimiento global del sistema.

- Repartir los accesos a discos entre varios volúmenes, que pertenezcan a distintos discos o incluso a distintos sistemas.

Optmización de la red (segunda parte)  

Posted by Danny in

Optimización: Análisis de problemas y medidas correctoras

El bajo rendimiento se manifiesta notablemente cuando el servidor no es capaz de suministrar información a los dispositivos de impresión que tiene conectados en los puertos o si tiene que gestionar entradas/salidas en tiempo real.

Éste es el caso, por ejemplo, de la recepción o envío de datos a través del módem que tiene conectado por un puerto serie.

Las soluciones a este problema de escalabilidad se pueden enfocar desde distintos puntos de vista:

- Sustitución del procesador por otro más rápido. Esto no siempre es posible, puesto que los procesadores más modernos llevan diferentes encapsulados y patillajes de conexión a la placa madre.

- Además, no todas las placas son compatibles con todos los procesadores, aunque el zócalo del procesador sí sea compatible. Por ejemplo, no todas las placas soportan las mismas velocidades de reloj.

- Incorporar más procesadores al servidor. Si el hardware y el software lo permiten, esta solución mejora sensiblemente el problema, especialmente si los buses de comunicaciones de los procesadores con memoria son rápidos. En la actualidad, muchos servidores incorporan ya de serie más de un procesador.

- Incrementar el número de servidores. Esta solución fracciona la red de modo que se reparte la carga entre todos los servidores. En su aspecto más avanzado, se puede llegar a una configuración de proceso distribuido, transparente al usuario, con lo que se consiguen buenos equilibrios de carga.

Algunas de las soluciones comentadas requieren sistemas operativos escalables como UNIX, o sistemas Windows a partir de su versión 2000.

En general, interesa que las CPU de servidores sean procesadores aventajados de 32 o 64 bits, que incorporen características avanzadas con el fin de obtener altos rendimientos.

Además, conviene que estén construidas de acuerdo con arquitecturas escalares, es decir, que permitan el crecimiento de la tecnología en el sistema y que permitan que el mismo software pueda correr en procesadores de distintas prestaciones.

Optmización de la red (primera parte)  

Posted by Danny in

Optimización de la red


Una vez instalada la red, y en pleno funcionamiento, se debe pasar al periodo de observación y medida con el fin de asegurarnos que se obtiene el mayor rendimiento posible. Esta tarea se compone de una fase de análisis de la red con la elaboración de unas estadísticas sencillas que sirvan de apoyo para la proposición de medidas correctoras en los cuellos de botella que se produzcan o en la incorporación de mejoras. En el mercado, existen paquetes de software capaces de hacer estos análisis de red, aunque siempre exigen la decisión globalizadora del responsable de la red.

A. Análisis de problemas y medidas correctoras

Los parámetros en los que hay que detenerse a la hora de analizar una red varían de unas redes a otras; sin embargo aquí expondremos los más comunes. Una vez detectado el problema se propondrán diversos tipos de soluciones posibles.

Rendimiento de la CPU de los servidores

Los servidores de red son máquinas altamente consumidoras de recursos de procesamiento. Si el servidor tiene que brindar muchos servicios distintos o a muchos usuarios, es posible que el cuello de botella se sitúe en la velocidad de proceso de la CPU, ralentizando todo el trabajo de la red (Figura 7.23).

Figura 7.23. Ejemplos de monitorización de algunos parámetros en un servidor Windows.

Nota: Este curso forma parte del libro "CEO - Redes de área local" del autor A. Abad, publicado por la editorial McGraw-Hill (ISBN: 84-481-9974-X).

Protocolos seguros para correo y el acceso a redes  

Posted by Danny in

Protocolos seguros para correo y el acceso a redes

Además de SSL y SET existen otros protocolos que ayudan a mantener comunicaciones seguras. Las técnicas criptográficas no dejan de avanzar porque de las garantías de seguridad en las comunicaciones depende en gran medida el avance en el comercio electrónico, las oficinas electrónicas de la administración pública, etcétera.

Encriptación PGP

PGP son las siglas de Pretty Good Privacy. Se trata de un sistema de encriptación gratuito de cualquier tipo de información, aunque se ha extendido sobre todo por su capacidad de cifrar mensajes de correo electrónico basado en el modelo de firma digital, de modo que se garantiza la autenticación del remitente. Está ampliamente extendido en la comunidad Internet y se integra en la mayoría de los clientes de correo electrónico. También se puede encontrar como una suite de aplicaciones separadas.

Protocolo PPTP

PPTP son las siglas de Point to Point Tunneling Protocol o protocolo de túnel punto a punto. Es un protocolo definido en el RFC 2637 que pretende mantener un servicio punto a punto cifrado protegiendo la omunicación del exterior. Frecuentemente, PPTP se combina con otros protocolos como L2TP, que estudiaremos más adelante.

PPTP es bastante popular en redes privadas virtuales, ya que Microsoft incorporó un servidor y un cliente PPTP gratuitos a partir de Windows NT. En la Unidad 9 hablaremos más extensamente de VPN y PPTP.

Protocolo IPSec

Se trata de un conjunto de extensiones del TCP/IP que añade autenticación y encriptación en la transmisión de paquetes. IPSec consta de tres elementos diferenciados: cabeceras de autenticación, bloques de seguridad y un protocolo de negociación e intercambio de claves.

Con estos elementos se pueden producir fenómenos de transporte tradicionales o bien en forma de túneles, seguros en cualquiera de los casos. Microsoft incorpora IPSec a partir de Windows 2000. En la Unidad 9 también nos extenderemos en este protocolo.

Actividad

2. Siguiendo la información proporcionada por la web oficial de PGP, instala un sistema de encriptación PGP y prueba su funcionamiento. Prueba a enviar mensajes de correo electrónico cifrados con PGP de manera que los destinatarios de los mensajes, provistos también con esta tecnología, puedan descifrarlos.

SET (Transacción electrónica segura)  

Posted by Danny in

SET

Los problemas de SSL están solucionados en SET (Secure Electronic Transaction, Transacción electrónica segura). En 1995, Visa y MasterCard, ayudados por otras compañías como Microsoft, IBM, Netscape, RSA o VeriSign, desarrollaron SET ante el retraimiento tanto de las compañías comerciantes como de los posibles compradores hacia el comercio electrónico o financiero.

SET es muy complicado, así que resumiremos aquí brevemente su funcionamiento. Cuando A quiere efectuar una compra en B, genera un pedido para B y decide el medio de pago.

Entonces B genera un identificador de proceso para la compra y lo envía a A con su clave pública y la de una pasarela de pago C que se utilizará en la transacción.

El comprador envía a B dos informaciones: la primera es el pedido, que estará encriptado con la clave pública de B, de manera que sólo el vendedor pueda leer el pedido.

La segunda información es el modo de pago, que A encriptará con la clave pública de la pasarela de pagos D.

De este modo, aunque la información sea recibida inicialmente por B, sólo C podrá leer los datos bancarios.

El banco, sin embargo, no puede leer el pedido realizado, que sólo puede ser desencriptado por B, su destinatario; por tanto, el banco no puede realizar un estudio del perfil del comprador.

A partir de aquí, la pasarela de pagos C consultará con los bancos emisor y receptor de la transacción para que se autorice.

Si se cumplen todos los requisitos, se produce la transacción, informando al vendedor y comprador de que la operación de compra-venta ha sido realizada correctamente.

Actividad 1

Sobre un servidor Windows instala los servicios de certificación. Crea una oficina de certificación siguiendo la documentación que proporciona el fabricante con el sistema. Ahora ensaya distintas soluciones para generar certificados digitales. Genera un certificado para un servidor web concreto. Descarga el certificado e instálalo en el servidor web a través de la ficha correspondiente del IIS. Habilita la conexión al servidor web a través de SSL y prueba que puedes acceder a alguna página de ese servidor desde el explorador a través del protocolo HTTPS.

Protocolos seguros (segunda parte)  

Posted by Danny in

Veamos algo más detenidamente cómo funciona SSL desde un navegador de Internet a través de las fases que atraviesa:

a) En la primera fase, el navegador solicita una página a un servidor seguro. La petición queda identificada por el protocolo https en vez de http, utilizado en páginas no seguras. A continuación, navegador y servidor negocian las capacidades de seguridad que utilizarán a partir de ese momento.

b) Seguidamente, se ponen de acuerdo en los algoritmos que garanticen la confidencialidad, integridad y autenticidad.

c) En una tercera fase, el servidor envía al navegador su certificado de norma X.509 que contiene su clave pública y, si la aplicación lo requiere, solicita a su vez el certificado del cliente.

d) A continuación, el navegador envía al servidor una clave maestra a partir de la cual se generará la clave de sesión para cifrar los datos que se hayan de intercambiar como seguros. El envío de esta clave se hace cifrándola con la clave pública del servidor que extrajo previamente de su certificado.

e) Finalmente, se comprueba la autenticidad de las partes implicadas y, si el canal ha sido establecido con seguridad, comenzarán las transferencias de datos.

Los certificados X.509 se utilizan para garantizar que una clave pública pertenece realmente a quien se atribuye. Son documentos firmados digitalmente por una autoridad de certificación, que asegura que los datos son ciertos tras demostrárselo el solicitante del certificado documentalmente.

Contienen la clave pública los datos que identifican al propietario, los datos de la autoridad de certificación y la firma digital generada al encriptar con la clave privada de la autoridad de certificación. SSL aporta muchas ventajas a las comunicaciones seguras.

En primer lugar, goza de gran popularidad y se encuentra ampliamente extendido en Internet, además de estar soportado por la mayor parte de los navegadores actuales.

También asegura cualquier comunicación punto a punto, no necesariamente de transmisión de páginas web, aunque ésta es la aplicación de mayor uso.

Por último, el usuario no necesita realizar ninguna operación especial para activar el protocolo: basta con sustituir en el navegador la secuencia http por https.

Firma electrónica (primera parte)  

Posted by Danny in

E. Firma electrónica

La firma electrónica sirve para garantizar la integridad de un mensaje firmado, es decir, asegura que la información no fue manipulada por el camino. La firma normalmente es un resumen del propio mensaje firmado. Este resumen se obtiene mediante algoritmos de resumen y cifrado como SHA-1 o MD5, que comprimen el mensaje de forma que el receptor, aplicando el mismo algoritmo al mensaje recibido, debe obtener un resumen idéntico al que ha recibido adjuntado al mensaje por el emisor y que ha obtenido por el mismo procedimiento. Cualquier manipulación del mensaje generaría en el destino un resumen distinto del elaborado por el emisor, y se detectaría así la intrusión.

F. Protocolos seguros

Haremos aquí una descripción de los protocolos y tecnologías que se utilizan en la actualidad para dotar a los sistemas en red de mecanismos de comunicación seguros.

Protocolo SSL

Desde hace algunos años, el protocolo más utilizado para encriptar comunicaciones por Internet es SSL (Secure Sockets Layer), desarrollado por Netscape. Se trata de un protocolo que encripta una comunicación punto a punto seleccionando un método de encriptación y generando las claves necesarias para toda la sesión. En la arquitectura de red se sitúa inmediatamente por encima de la capa de transporte; por ejemplo, en una transmisión de páginas web seguras desde un servidor web hasta un navegador, SSL estaría entre la capa del protocolo http y la capa de transporte propia de TCP o UDP.

Aunque las claves generadas por SSL son débiles, es difícil romperlas en el tiempo que dura una transacción, por lo que, sin ser el mejor protocolo de seguridad, es muy válido. SSL es uno de los protocolos más utilizados en la creación de redes privadas virtuales (VPN, Virtual Private Networks).

SSL, sin embargo, no resuelve el problema de la autenticación. Además, el receptor de la información puede acceder a toda la información, lo que en el caso del comercio electrónico es un problema: el vendedor no sólo tendría acceso al pedido (datos a los que tiene derecho), sino también la información bancaria del comprador, datos que son propios de las entidades bancarias.

Cuando desde el navegador se pretende realizar una compra por Internet, SSL suele activarse en el momento de realizar el pago, de modo que la información de la tarjeta de crédito viaja encriptada. Esta activación se produce en la web del comerciante utilizando el protocolo https, una variante de http que incorpora las técnicas de encriptación.

Componentes de una PKI (tercera parte)  

Posted by Danny in

Mucho más seguros son los procedimientos de doble clave. Consisten en confeccionar un par de claves complementarias, una de las cuales será pública, y que por tanto puede transmitirse libremente, y otra privada que sólo debe estar en posesión del propietario del certificado y que no necesitará viajar.

El algoritmo hace que un mensaje cifrado con la clave pública sólo pueda descifrarse con la clave privada que le complementa y viceversa.

Cuando el emisor quiere enviar un mensaje a un receptor, cifra la información con su clave privada que sólo él posee.

El receptor, una vez que le haya llegado el mensaje cifrado, procederá a descifrarlo con la clave pública del emisor (Figura 7.22).




Figura 7.22. Cifrado y descifrado utilizando algoritmos de parejas de claves: pública y privada.

Componentes de una PKI (segunda parte)  

Posted by Danny in

Los sistemas operativos avanzados como Windows Server suelen incorporar software suficiente para construir una infraestructura de clave pública completa (Figura 7.21). En el cifrado de la información pueden emplearse muchos métodos, pero fundamentalmente se utilizan dos: sistemas de una sola clave y sistemas de dos claves, una privada y otra pública.



Figura 7.21. Consola de administración de una entidad emisora de certificados integrante de una PKI en Windows Server 2003.

En el caso de utilizar una única clave, tanto el emisor como el receptor deben compartir esa única clave, pues es necesaria para desencriptar la información. Hasta aquí no hay ningún problema; sin embargo, el procedimiento de envío de esta clave al receptor que debe descifrar el mensaje puede ser atacado permitiendo que un intruso se apodere de esa clave.

Componentes de una PKI (primera parte)  

Posted by Danny in

Cuando el usuario de una red se presenta en su sistema, lo que realmente está haciendo es informando a la red de quién es para que el sistema le proporcione los derechos, permisos y recursos que tenga asignados personalmente. ¿Cómo sabe la red que el usuario que se intenta presentar es quien dice ser? Éste es el problema que resuelven los sistemas de autenticación.

El certificado digital proporciona un mecanismo seguro para producir una correcta autenticación, ya que la Autoridad de Certificación asegura la veracidad de la información. En los sistemas de red, los certificados digitales residen en un servicio de directorio al que accede el sistema para contrastar la información procedente de la Autoridad de Certificación.

Windows Server y muchas versiones de UNIX son ejemplos típicos de este sistema de autenticación. El sistema operativo lleva incorporado un generador y servidor de certificados para ser utilizados internamente en la red si no se desean utilizar los servicios de una compañía certificadora externa a la red. Kerberos es la tecnología de autenticación mediante firma electrónica más extendida actualmente.

D. Componentes de una PKI

Una PKI (Public Key Infrastructure, infraestructura de clave pública) es un conjunto de elementos de infraestructura necesarios para la gestión de forma segura de todos los componentes de una o varias Autoridades de Certificación. Por tanto, una PKI incluye los elementos de red, servidores, aplicaciones, etc. Ahora vamos a identificar algunos de los componentes lógicos básicos de una infraestructura de clave pública.

- Autoridad de certificación CA. Una autoridad de certificación es el componente responsable de establecer las identidades y de crear los certificados que forman una asociación entre la identidad y una pareja de claves pública y privada.

- Autoridad de registro RA. Una autoridad de registro es la responsable del registro y la autenticación inicial de los usuarios a quienes se les expedirá un certificado posteriormente si cumplen todos los requisitos.

- Servidor de certificados. Es el componente encargado de expedir los certificados aprobados por la autoridad de registro. La clave pública generada para el usuario se combina con otros datos de identificación y todo ello se firma digitalmente con la clave privada de la autoridad de certificación.

- Repositorio de certificados. Es el componente encargado de hacer disponibles las claves públicas de las identidades registradas antes de que puedan utilizar sus certificados. Suelen ser repositorios X.500 o LDAP. Cuando el usuario necesita validar un certificado debe consultar el repositorio de certificados para verificar la firma del firmante del certificado, garantizar la vigencia del certificado comprobando su periodo de validez y que no ha sido revocado por la CA y que además cumple con los requisitos para los que se expidió el certificado; por ejemplo, que el certificado sirve para firmar correo electrónico.

Certificados digitales  

Posted by Danny in

El certificado digital es una credencial que proporciona una Autoridad de Certificación que confirma la identidad del poseedor del certificado, es decir, garantiza que es quien dice ser.

La Autoridad de Certificación actúa de modo semejante a un notario digital y es quien expide los certificados electrónicos que se guardan en los ordenadores de los usuarios, normalmente accesibles desde su navegador de Internet. El ámbito de utilización de las firmas electrónicas es muy amplio; aquí destacamos algunas aplicaciones más comunes:

- Justificación ante las administraciones. La firma electrónica sirve como documento de identidad electrónico y válido, por ejemplo, se pueden pagar los impuestos a través de Internet con seguridad.

- Comercio electrónico. Con la firma digital se puede evitar que los compradores repudien operaciones de compra realmente realizadas o bien asegurarse de que el web de comercio electrónico es auténtico: no es la suplantación de un tercero.

- Transacciones financieras. Un ejemplo claro es el de los monederos electrónicos seguros. La firma digital puede ir asociada al monedero garantizando la transacción.

- Software legal. Cualquier software instalado en un equipo debe ir correctamente firmado como garantía del fabricante.

- Correo electrónico. Con la firma digital se asegura la autenticación del remitente del mensaje.

Formalmente, un certificado digital es un documento electrónico emitido por una entidad de certificación autorizada para una persona física o jurídica, con el fin de almacenar la información y las claves necesarias para prevenir la suplantación de su identidad. Dependiendo de la política de certificación propuesta por la Autoridad de Certificación, cambiarán los requisitos para la obtención de un certificado, llegándose incluso al caso de tener que presentarse físicamente el interesado para acreditar su identidad.

Por ejemplo, la ACE (Agencia de Certificación Electrónica en España) emite tres tipos de certificados: el de clase 1 no exige contrastar ninguna información especial, basta con el nombre del usuario y una dirección de correo a donde se le enviará el certificado. Para la clase 2, el usuario debe presentar documentación que acredite su identidad, pero no requiere su presencia. Sin embargo, para los de clase 3 sí se requiere la presencia física del usuario que solicita el certificado.

Este certificado ACE de clase 3 es equivalente en cuanto a seguridad a los de clase 2 emitidos por la Fábrica Nacional de Moneda y Timbre en España para la Agencia Tributaria. El certificado está protegido por un identificador que sólo conoce el propietario del mismo, aunque es posible su almacenamiento en dispositivos más seguros como tarjetas inteligentes (smartcards) o llaves USB.

La criptografía  

Posted by Danny in

Se pueden utilizar muchos algoritmos para encriptar mensajes:

- DES, Data Encription Standard. Es el sistema de encriptación oficial americano. Emplea un algoritmo con clave secreta de 56 bits, lo que significa que oculta la clave entre más de 72 000 billones de posibles combinaciones.

Para hacernos una idea, un algoritmo de este tipo utilizado habitualmente en Internet utiliza una clave de 1 024 bits.

- RSA, Rivest, Shamir, Adleman. Este algoritmo lleva por nombre las iniciales de los apellidos de sus creadores, investigadores del MIT (Massachussets Instituteof Technology) y que crearon este algoritmo en 1997.

Se basa en dos claves, una pública y otra privada, que son complementarias entre sí, pero que no son deducibles una a partir de la otra.

El mensaje encriptado con una clave pública sólo puede ser desencriptado con la clave privada complementaria y viceversa. RSA es el pionero en la tecnología PKI (Public Key Infrastructure).

Por la importancia que reviste el algoritmo RSA, merece la pena dedicarle algo más de atención.

Veamos brevemente cómo funciona el algoritmo. Cuando un emisor quiere enviar un mensaje a un receptor, el emisor encripta el mensaje utilizando la clave pública (de todos conocida) del receptor.

El receptor es el único que conoce y posee su propia clave privada. El mensaje encriptado sólo puede ser desencriptado por quien conozca la clave privada del receptor, es decir, sólo podrá ser leído por el receptor a quien el emisor designó.

Por tanto, cualquier persona puede enviar mensajes encriptados a cualquier receptor, ya que las claves públicas son eso, públicas. Sin embargo, sólo un receptor, el que posea la clave privada del destinatario del mensaje, podrá leerlo.

No son estos los únicos sistemas de encriptación utilizados en Internet; basta con pasearse por las opciones o preferencias de cualquier navegador de Internet para observar la inclusión dentro del navegador de muchos otros algoritmos.

Autenticación y certificación  

Posted by Danny in

Autenticación y certificación

El avance de la etapa comercial en el desarrollo de Internet y la integración de la venta electrónica de productos o transacciones financieras electrónicas ha generado unas expectativas en el volumen de negocio en las que el principal problema reside en la seguridad.

Analizaremos en este epígrafe los conceptos básicos utilizados en Internet, y por extensión en el resto de las redes, sobre tecnologías y protocolos de seguridad.

A. La criptografía

Encriptar un mensaje no es más que codificarlo de nuevo de acuerdo con un código que sólo el destinatario de la información conoce, haciendo por tanto ilegible el mensaje al resto de los posibles receptores.

En Internet, es típico codificar la información económica sensible, como los datos de la tarjeta de crédito.

Entre las funciones básicas del cifrado podemos citar las siguientes:

- Confidencialidad. Los datos sólo deben ser legibles por los destinatarios autorizados.

- Integridad. Los datos deben ser genuinos. El sistema debe detectar si los datos originales han sido cambiados.

- Autenticación. Se trata de asegurarse de que la información fue originada por quien se dice en el mensaje. Más adelante estudiaremos este asunto con más profundidad.

El principal problema de la criptografía es cómo custodiar la información de codificación, ya que quien la posea será capaz de restituir el mensaje original, perdiéndose, por tanto, su privacidad.

Muchos algoritmos de encriptación utilizan una clave que modifica particularmente el comportamiento del algoritmo, de modo que sólo quien conozca esa clave podrá desencriptar el mensaje.

Iniciativa WfM de Intel  

Posted by Danny in

WfM (Wired for Management, conectado para la gestión) es una iniciativa de Intel para establecer un estándar con algunas de las propiedades de la gestión remota de las estaciones de red.

WfM se apoya sobre otros estándares ya establecidos, pero su gestión se centra en cuatro niveles:

- Gestión previa al inicio del sistema.
- Gestión del consumo energético.
- Gestión de la información.
- Agentes de soporte.

La gestión previa al inicio de WfM está enfocada a la gestión de estaciones de trabajo cuando éstas están apagadas. La tecnología PXE (Previous eXecution Environment, entorno de ejecución previo al inicio), especificación para la gestión en adaptadores de red, es obligatoria bajo WfM: tanto la BIOS del PC como la tarjeta de red deben soportarlo.

Con la tecnología PXE la tarjeta de red permanece siempre a la escucha de la red, aún con el PC apagado, de modo que a una orden concreta del servidor, la tarjeta ordena encenderse al PC arrancando el software de sistema: una tecnología denominada WOL (Wake On LAN).

Pero un PC que pueda despertarse también tiene que ser capaz de autoapagarse; por eso, WfM integra la tecnología ACPI (Advanced Configuration Power Interface, Interfaz de consumo energético y configuración avanzada) en las BIOS, que es capaz de realizar estas operaciones.

También se necesita un entorno de gestión de información. WfM se adapta a cualquier entorno de gestión que hayamos cargado con el software de red: agentes SNMP, DMI o CIM.

WOL despierta a un equipo cuando recibe por la tarjeta de red, que permanece siempre a la escucha aun con el equipo apagado (que no desconectado de la red eléctrica), una trama específica denominada trama mágica desde un gestor de arranque.

Como esta característica opera en el nivel de enlace (capa 2 de OSI), el encendido sólo funcionará dentro del mismo segmento de la red de área local. Si se quieren despertar máquinas remotas, hay que utilizar mecanismos de enrutamiento junto con WOL.

Actividad 5

Descarga de Internet la aplicación gratuita VNC. Esta aplicación consta de un cliente (visualizador) y un servidor, que se instala como un servicio automático del sistema operativo.Instálala en dos nodos de la red con el mismo sistema operativo y configúralos para que puedan hacerse conexiones cruzadas. Comprueba que puedes hacer conexiones remotas. Ahora instala VNC en otro nodo de la red con sistema operativo distinto, incluso Linux o MacOS X (existen versiones de VNC también para estos sistemas operativos). Prueba su funcionalidad.

Actividad 6

Instala un equipo Windows en red que tenga una tarjeta de red compatible con la tecnología PXE y con esta funcionalidad habilitada. Deja esta estación apagada pero conectada a la corriente eléctrica. La placa madre de este sistema tiene que contemplar también la posibilidad de arranque del sistema por red. Busca en Internet una aplicación Wake on LAN que sea capaz de despertar al equipo. Instala en el mismo segmento de red otra estación en la que se ejecutará la aplicación. Ejecútala pasándole como argumento la dirección física de la tarjeta PXE y comprueba que la estación se enciende automáticamente.


El gestor de consolas  

Posted by Danny in

Un gestor de consolas o simplemente gestor de control remoto es una aplicación que es capaz de visualizar sobre una consola local lo que está ocurriendo en una consola remota. Los más avanzados son capaces también de crear verdaderas sesiones remotas, no sólo simularlas.



Figura 7.20. Asistente de conexión y conexión realizada desde una estación Windows a un servidor Windows.

Además, los gestores más avanzados son capaces de ejecutar acciones en el sistema remoto comandados desde el sistema local.
Un gestor remoto ofrece grandes ayudas; sin embargo, las funciones más beneficiadas son las siguientes:

- Administración de red. Desde un único punto geográfico pueden controlar todos los servidores y estaciones de la red: crear, modificar o eliminar usuarios o grupos, instalar o configurar aplicaciones, reiniciar ordenadores, etcétera.
- Teletrabajadores. Cualquier persona desde el exterior de la red podrá conectarse y acceder a su información de red.
- Soporte, asistencia técnica y mantenimiento. Estas funciones constituyen uno de los mayores ámbitos comerciales para este tipo de aplicaciones, pues se pueden brindar todos estos servicios remotamente sin necesidad de costosos desplazamientos.
- Formación. La tecnología utilizada por un gestor de consolas es muy apropiada para su configuración en forma de aula virtual, en el seno de la cual se pueda impartir formación. Para ello, es necesario que el gestor permita que varias sesiones locales puedan conectarse a una única sesión remota.

El transporte de red necesitado por estos gestores para mover datos a través de la red utiliza los protocolos básicos que ya hemos estudiado: TCP/IP, IPX/SPX, etcétera. Destacamos la solución VNC por ser freeware y de amplio uso , además, por estar soportada por muchos UNIX, Linux, Windows en todas sus variantes, OS/2, BeOS, MacOS, PalmOS y muchos más sistemas operativos.

Microsoft con Windows NT propuso un modelo de creación de sesiones remotas desde estaciones de la red con su versión Terminal Edition. Windows 2000 ha recogido esta tecnología y permite que una estación de trabajo se conecte a un servidor Windows 2000 como si fuera un cliente ligero.

Se permiten hasta dos conexiones con objeto de hacer administración remota sin necesidad de licencia adicional. El cliente puede ser cualquiera de las versiones Windows de Microsoft, incluida Windows 3.11. En la Figura 7.20 se puede ver el asistente de conexión y la consola local una vez realizada la conexión remota. En Windows XP y Windows 2003 Server también se pueden crear conexiones remotas a través de la gestión remota del escritorio.

Control remoto en la red  

Posted by Danny in

Un gestor de instalaciones es un conjunto de herramientas integradas entre sí y con el sistema operativo sobre el que se instala que es capaz de llevar un control exhaustivo sobre el software de cada sistema, así como de su configuración y funcionamiento. En muchos casos, este software es capaz de controlar también los escritorios y accesos de los usuarios que se presentan en cada estación de la red.

Cada fabricante de software incorpora unas funciones a sus productos de gestión; sin embargo, las funciones básicas más comunes de un gestor de equipos son las siguientes:

- Despliegue de sistemas y de software. El gestor es capaz de instalar sistemas operativos y software adicional desde los servidores de gestión en los que se apoya de acuerdo con la parametrización que diseña el administrador de sistemas.

- Configuración de los equipos. Una vez instalados los equipos, el gestor es capaz de proporcionar las configuraciones básicas de cada equipo o de cada usuario; por ejemplo, el administrador del sistema podría definir las aplicaciones a las que se tienen acceso, los recursos que serán visibles para cada usuario, etcétera.

- Control de equipos y de la red. El gestor puede analizar cada una de las incidencias ocurridas en los equipos de la red y tomar las acciones previstas por el administrador de red en cada uno de los eventos.

Con Windows 2000 Server y versiones superiores, Microsoft ha dado un gran paso adelante, integrando en su sistema herramientas avanzadas de instalación, todo ello controlado a través de una política de directivas integradas en su Directorio Activo, aunque su herramienta de gestión por excelencia para grandes redes es SMS (Server Management System).



Figura 7.19. Conexión remota desde Windows 2000 con destino en otro sistema Windows con Remote Administrator, un gestor de conexiones comercial.

Seguridad en la red  

Posted by Danny in

Teniendo en cuenta que muchas redes se conectan a Internet a través de dispositivos que las ocultan, la cifra de ordenadores que pueden volcar datos a Internet es gigantesca.

Lo que a nosotros nos interesa ahora es que la inseguridad de nuestro sistema puede venir, entre otros factores, por cualquiera de esos nodos de la red.

Pretendemos aquí dar, a modo de ejemplo, unos cuantos consejos tomados de publicaciones del sector que se deben tener en cuenta cuando se planifica la seguridad de la red de una corporación:

- La seguridad y la complejidad suelen guardar una relación de proporcionalidad inversa, es decir, a mayor seguridad, se simplifican los procedimientos, ya que la seguridad es limitadora de las posibilidades.
- Además, la educación de los usuarios de la red debe ser lo más intensa posible.
- La seguridad y la facilidad de uso suelen guardar frecuentemente una relación de proporcionalidad inversa; por tanto, resulta conveniente concentrarse en reducir el riesgo, pero sin desperdiciar recursos intentando eliminarlo por completo, lo que es imposible.
- Un buen nivel de seguridad ahora es mejor que un nivel perfecto de seguridad nunca.
- Por ejemplo, se pueden detectar diez acciones por hacer; si de ellas lleva a cabo cuatro, el sistema será más seguro que si se espera a poder resolver las diez.
- Es mejor conocer los propios puntos débiles y evitar riesgos imposibles de cuantificar.
- La seguridad es tan potente como su punto más débil, por lo que interesa centrarse en estos últimos puntos.
- Lo mejor es concentrase en amenazas probables y conocidas.
- La seguridad no es un gasto para la empresa, sino que debe ser considerada como una inversión.

Al plantearse el diseño de la seguridad de la red a la luz de los consejos anteriores, hay que seguir una serie de pasos, entre los que destacan los siguientes:

- Evaluar los riesgos que corremos.
- Definir la política fundamental de seguridad de la red.
- Elegir el diseño de las tácticas de seguridad.
- Tener previstos unos procedimientos de incidenciasrespuesta, etcétera.

Dispositivos extraíbles en caliente  

Posted by Danny in

Llegar a estos niveles de disponibilidad en los sistemas no es nada sencillo; los ordenadores no son más que máquinas electrónicas y, por tanto, están expuestos a todo tipo de catástrofes. Algunas compañías han diseñado componentes de ordenadores que son intercambiables en caliente, es decir, sin apagar el ordenador.

Esta característica está muy extendida en los discos duros de un cierto nivel. De hecho, en general, los discos en configuración RAID suelen residir en torres de discos conectadas al procesador central o a la red a través de buses de comunicaciones muy rápidos, y suelen ser intercambiables en caliente.

Últimamente, en servidores muy especializados, están apareciendo tarjetas que también se pueden cambiar en caliente. El desarrollo de las técnicas Plug & Play en los sistemas operativos, por ejemplo en Windows, hace que el sistema reconozca inmediatamente la nueva tarjeta y prosiga su funcionamiento en pocos segundos.

Configuraciones en cluster

Para una instalación, disponer de un único servidor es un gran riesgo: el trabajo de una empresa se puede paralizar si su servidor corporativo falla. Los clusters de servidores vienen a solucionar, entre otros, este problema. Un cluster es una asociación de ordenadores que comparten periféricos de almacenamiento y entre los que se establecen unas fuertes relaciones de cooperación en el trabajo que realizan.

Así, si uno de los servidores del cluster deja de funcionar, otro miembro de ese cluster absorberá su trabajo. El rendimiento del sistema se resentirá de algún modo (se ha perdido un servidor), pero no se perderá la funcionalidad total del sistema.Entre los sistemas operativos de red capaces de organizarse en forma de clusters están algunas versiones de UNIX, Windows NT Advanced Sever, Windows 2000 Advanced Server y Datacenter Server, y las versiones superiores de Windows 2003 Server.

Plan de contingencias ante desastres

Aunque se pongan todas las medidas imaginables, siempre puede darse una situación no prevista en la que el sistema deje de funcionar. El tiempo de parada será menor si está previsto (e incluso probado) con antelación cómo hacer frente a cada avería concreta. El documento que recoge qué hacer en cada momento se denomina plan de contingencias. Es uno de los documentos más importantes que debe preparar el administrador de red. El plan de contingencias es la mayor garantía de que no se dejará llevar por la precipitación ante una situación de desastre.

Actividad 4

Sobre un servidor Windows (no funcionaría sobre una versión cliente), instala dos discos duros, en uno de los cuales instalarás el sistema operativo. Una vez instalado, comprueba que el sistema ve los dos discos físicos desde el administrador de discos de Windows. Ahora convierte en dinámicos los dos discos. Crea un espejo del disco de sistema en el segundo disco. Una vez terminada la operación, comprueba que puedes arrancar un sistema idéntico desde cualquiera de los dos discos.

Posteriormente, estando el sistema en funcionamiento con el espejo correctamente realizado, apaga abruptamente el equipo desconectando la alimentación. Vuelve a encender el equipo, preséntate en él y arranca el administrador de discos. Observarás que el espejo se está reconstruyendo para garantizar la integridad de la información en los dos discos: el apagón no permitió la sincronización de datos y ahora el sistema pone en marcha mecanismos de reparación.

Tecnologia RAID  

Posted by Danny in

La tecnología más extendida para la duplicación de discos es la RAID (Redundant Array of Inexpensive Disks, serie redundante de discos económicos), que ofrece una serie de niveles de seguridad o crecimiento de prestaciones catalogados de 0 a 5, aunque algunos no se utilizan:

- RAID de nivel 0. Los datos se reparten entre varios discos mejorando las prestaciones del acceso a disco, aunque no se ofrece ningún tipo de redundancia.

- RAID de nivel 1. La redundancia de datos se obtiene almacenando copias exactas cada dos discos, es decir, es el sistema de espejos al que nos hemos referido anteriormente.

- RAID de nivel 2. No ha sido implementado comercialmente, pero se basa en la redundancia conseguida con múltiples discos una vez que los datos se han dividido en el nivel de bit.

- RAID de nivel 3. Los datos se dividen en el nivel de byte. En una unidad separada se almacena la información de paridad.

- RAID de nivel 4. Es similar al nivel 3, pero dividiendo los datos en bloques.

- RAID de nivel 5. Los datos se dividen en bloques repartiéndose la información de paridad de modo rotativo entre todos los discos.

Por ejemplo, Windows NT, Windows 2000 y Windows 2003 soportan RAID 1 y RAID 5 en cualquiera de sus versiones servidoras. Microsoft denomina espejos o mirrors a RAID 1 y sistemas de bandas con paridad a RAID 5. En la Figura 7.18 hay un ejemplo de gestor de discos con RAID 1 en un sistema servidor Windows. Para establecer discos espejo (RAID 1) sólo son necesarios dos discos, mientras que para la utilización de las bandas con paridad, el mínimo de discos es de tres. Todas las operaciones de gestión de discos se realizan desde el administrador de discos que se halla integrado en la consola de administración local del equipo en el caso de Windows (Figura 7.18).



Figura 7.18. Gestor de discos en Windows Server con un volumen RAID 1.

Inscribete y recibe las noticias via e-mail

BlogESfera Directorio de Blogs Hispanos - Agrega tu Blog