miércoles, 30 de enero de 2008

Método de Acceso

La función de los métodos de acceso


Se denomina método de acceso al conjunto de reglas que definen la forma en que un equipo coloca los datos en la red y toma los datos del cable. Una vez que los datos se están moviendo en la red, los métodos de acceso ayudan a regular el flujo del tráfico de la red.

Principales Métodos de Acceso al Medio


Método de acceso mútiple de portadora por detección de colisiones (CSMA/CD)

Al utilizar el método conocido como acceso múltiple por detección de portadora por detección de colisiones (CSMA/CD), cada uno de los equipos de la red, incluyendo a los clientes y a los servidores, comprueban el cable para detectar el tráfico de la red.

Un equipo sólo puede enviar datos cuando «detecta» que el cable está libre y que no hay tráfico en el cable. Una vez que el equipo haya trasmitido los datos al cable, ningún equipo puede transmitir datos hasta que éstos hayan llegado a su destino y el cable vuelva a estar libre. Recuerde que si dos o más equipos tratan de enviar datos en el mismo instante de tiempo, habrá una colisión de datos. Cuando eso ocurre, los dos equipos implicados dejarán de transmitir datos durante un período de tiempo aleatorio y volverán a transmitir los datos. Cada equipo determina su propio período de espera, por lo que se reduce la posibilidad de que los dos equipos vuelvan a transmitir simultáneamente.

La posibilidad de detección de colisiones es el parámetro que impone una limitación en cuanto a distancia en CSMA/CD. Debido a la atenuación, el debilitamiento de una señal transmitida a medida que se aleja del origen, el mecanismo de detección de colisiones no es apropiado a partir de 2.500 metros (1.5 millas). Los segmentos no pueden detectar señales a partir de esa distancia y, por tanto, no se puede asegurar que un equipo del otro extremo esté transmitiendo. Si más de un equipo transmite datos en la red al mismo tiempo, se producirá una colisión de datos y los datos se estropearán.

Método de acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA)

El acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA) es el método de acceso menos popular. En CSMA/CA, cada equipo indica su intención de transmitir antes de transmitir los datos. De esta forma, los equipos detectan cuándo puede ocurrir una colisión; esto permite evitar transmitir colisiones. Al informar de la intención de transmitir datos aumenta el tráfico en el cable y ralentiza el rendimiento de la red.

Método de acceso paso por Testigo


En el método de acceso conocido como paso de testigo, circula por el cable del anillo equipo en equipo un paquete especial denominado testigo. Cuando un equipo del anillo necesita enviar datos a través de la red, tiene que esperar a un testigo libre. Cuando se detecta un testigo libre, el equipo se apodera de él si tiene datos que enviar.

Ahora el equipo puede enviar datos. Los datos se transmiten en tramas junto con información adicional como cabeceras y finales (trailers).

Mientras un equipo está utilizando el testigo, los otros equipos no pueden transmitir datos. Debido a que sólo puede haber un equipo utilizando el testigo, no se producen colisiones ni contención y no se pierde tiempo esperando a que los equipos vuelvan a enviar los testigos debido al tráfico de la red.

Método de acceso prioridad de demandas

La prioridad de demandas es un método de acceso relativamente nuevo y está diseñado para el estándar Ethernet 100 Mbps conocido como 100VG-AnyLAN. Ha sido estandarizado por el Instituto de ingenieros eléctricos y electrónicos (IEEE) como la especificación 802.12.

Este método de acceso está basado en el hecho de que los nodos repetidores y finales son los dos componentes que forman todas las redes 100VG-AnyLAN. Los repetidores gestionan el acceso a la red haciendo búsquedas round-robin de peticiones de envío de todos los nodos de red. El repetidor o hub es el responsable de conocer todas las direcciones, enlaces y nodos finales, y de comprobar que todos están funcionando. De acuerdo con la definición de 100VG-AnyLAN, un nodo final puede ser un equipo, un bridge, un router o un switch.

Contención de la prioridad de demandas

Al igual que en CSMA/CD, dos equipos que utilicen el método de acceso con prioridad de demandas pueden causar contención si transmiten exactamente en el mismo instante. Sin embargo, con prioridad de demandas, es posible implementar un esquema en que ciertos tipos de datos tengan prioridad si existe contención. Si el hub o repetidor recibe dos peticiones al mismo tiempo, primero se servirá la petición que tenga mayor prioridad. Si las dos peticiones tienen la misma prioridad, ambas peticiones se servirán alternando entre las dos.

En una red con prioridad de demandas, los equipos pueden recibir y transmitir al mismo tiempo debido al esquema de cableado definido por este método de acceso. En este método se utilizan cuatro pares de hilos, que permiten dividir por cuatro las transmisiones, transmitiendo cada uno de los hilos del cable señales a 25 MHz.

Consideraciones sobre la prioridad de demandas

En una red con prioridad de demandas, sólo hay comunicación entre el equipo que envía, el hub y el equipo que recibe. Esto es más eficiente que CSMA/CD, que transmite avisos a toda la red. En prioridad de demandas, cada hub conoce los nodos finales y los repetidores que están conectados a él directamente, mientras que en el entorno CSMA/CD, cada hub conoce la dirección de cada nodo de la red. La prioridad de demandas tiene varias ventajas respecto a CSMA/CD, entre las que se incluyen:

  • El uso de cuatro pares de hilos. Al utilizar cuatro pares de hilos, los equipos pueden enviar y recibir al mismo tiempo.

  • Las transmisiones se realizan a través del hub. Las transmisiones no se envían a todos los equipos de la red. Los equipos no compiten por acceder al cable, pero trabajan bajo el control centralizado del hub.
Características de los distintos métodos de acceso


Tipos de CSMA/CD
  • CSMA no-persistente: si el canal está ocupado espera un tiempo aleatorio y vuelve a escuchar. Si detecta libre el canal, emite inmediatamente.

  • CSMA 1-persistente: con el canal ocupado, la estación pasa a escuchar constantemente el canal, sin esperar tiempo alguno.

  • CSMA p-persistente: después de encontrar el canal ocupado, y quedarse escuchando hasta encontrarlo libre, la estación decide si emite.

Técnicas de Planificación para el control de Acceso al Medio

Sistemas Basados En Reserva: Las estaciones se turnan en la transmisión de un solo paquete a una velocidad total de R bps, se organizan las transmisiones de las estaciones y tramas que pueden variar en longitud.

Sistemas De Sondeo: Son aquellos en los cuales las estaciones acceden al medio por turnos. En un instante de tiempo dado, sólo una de las estaciones tiene permiso para transmitir a través del medio, y cuando la estación ha acabado de transmitir pasa el permiso de transmisión a otra estación mediante algún mecanismo.

Anillo Con Paso De Testigo: Las redes en anillo con paso de testigo pueden diferir entre si en el método empleado para reinsertar el testigo una vez completada la transmisión. Existen tres técnicas de reinserción; la principal deferencia entre ellas se produce cuando la latencia del anillo es mayor que la longitud del paquete.

Inicialmente, se puede pensar que los datos se envían desde un equipo a otro como una serie continua de unos y ceros. De hecho, los datos se dividen en paquetes pequeños y manejables, cada uno dividido con la información esencial para ir desde el origen hasta el destino. Los paquetes son bloques básicos que constituyen la comunicación de datos por la red.

La Función de los paquetes en las comunicaciones en red

Normalmente los datos existen como archivos de gran tamaño. En cambio, las redes no podrían funcionar si los equipos colocasen a la vez grandes cantidades de datos en la red. Un equipo que envíe grandes cantidades de datos hace que otros equipos tengan que esperar (incrementando la frustración de los otros usuarios) mientras se transmiten los datos. Esto no es lo que se llama «compartir»; esto es «monopolizar la red». Hay dos razones por las que la colocación de grandes bloques de datos en el cable ralentiza la red:

  • Las grandes cantidades de datos enviados como un único bloque colapsan la red y hacen imposible la interacción y comunicación apropiada debido a que un equipo está desbordando el cable con datos.

  • El impacto de la retransmisión de grandes bloques de datos multiplica el tráfico de la red.

Estos efectos se minimizan cuando estos grandes bloques de datos se dividen en paquetes más pequeños para una mejor gestión del control de errores en la transmisión. De esta forma, sólo se afecta a una pequeña cantidad de datos, y por tanto, sólo se tienen que volver a transmitir pequeñas cantidades de datos, facilitando la recuperación de un error.

Para que varios usuarios puedan transmitir a la vez datos por la red de forma rápida y sencilla, hay que dividir los datos en bloques pequeños y manejables. De esta forma, los usuarios pueden compartir su acceso a la red. Estos bloques se denominan paquetes, o tramas. Aunque los términos de «paquete» y «trama» se suelen utilizar indistintamente, hay algunas diferencias dependiendo del tipo de red.

Utilizaremos el término «paquete» para hacer referencia a «una unidad de información transmitida como una entidad desde un dispositivo a otro de la red». «Dispositivo» es un término genérico utilizado para un subsistema informático. Normalmente a las impresoras, puertos serie y unidades de disco se les conoce como dispositivos; tales subsistemas suelen necesitar su propio software controlador, denominado controladores del dispositivo. Los paquetes son las unidades básicas de la comunicación en la red. Cuando se dividen datos en paquetes, se aceleran las transmisiones individuales de forma que cada equipo de la red tenga más oportunidades de transmitir y recibir datos. En el equipo de destino (receptor), se reúnen los paquetes y se reorganizan en el orden de los datos originales.

Cuando el sistema operativo de la red del equipo de origen divide los datos en paquetes, añade a cada trama una información de control especial. Esto hace posible:

  • El envío de los datos originales en pequeños paquetes.
  • La reorganización de los datos en el orden apropiado cuando lleguen a su destino.
  • La comprobación de errores una vez que se hayan reorganizado los datos.
Estructura de un paquete

Los paquetes pueden contener datos de varios tipos incluyendo:

  • Información, como mensajes o archivos.
  • Ciertos tipos de datos de control y comandos, como peticiones de servicio.
  • Códigos de control de sesión, como la corrección de errores, que indica la necesidad de una retransmisión.

Componentes de un paquete

Todos los paquetes tienen varias propiedades en común. Entre ellas se incluyen:

  • Una dirección de origen que identifica al equipo que realiza el envío.
  • Los datos que se quieren transmitir.
  • Una dirección de destino que identifica al destinatario.
  • Instrucciones que indican a los componentes de la red cómo pasar los datos.
  • Información que indica al equipo de destino cómo conectar el paquete con el resto de los paquetes para reorganizar el bloque completo de datos.
  • Información de comprobación de errores que asegura que los datos lleguen intactos.
  • Los componentes de un paquete se agrupan en tres secciones: cabecera, datos y final.
Cabecera

La cabecera incluye: Una señal de alerta que indica que el paquete se está transmitiendo.

  • La dirección del origen.
  • La dirección del destino.
  • Información de reloj para sincronizar la transmisión.
Datos

Esta parte describe los datos que se están enviando actualmente. Dependiendo de la red, esta parte del paquete tiene un tamaño variable. La sección de datos en la mayoría de las redes varía entre 512 bytes o 0.5 kilobytes (KB) y 4 KB.
Debido a que la mayoría de los datos de origen suelen tener más de 4 KB, hay que dividir los datos en bloques más pequeños para que puedan ser colocados en paquetes. Para realizar la transmisión de un archivo grande, habrá que enviar muchos paquetes.

Final

El contenido exacto del final varía en función del método de comunicación o protocolo. Sin embargo, el final suele tener un componente de comprobación de errores denominado código de redundancia cíclica (CRC). El CRC es un número generado en el origen por un cálculo matemático sobre el paquete. Cuando el paquete llega al destino se vuelve a realizar el cálculo. Si el resultado de los dos cálculos coincide, indica que los datos del paquete se han mantenido estables. Si el cálculo del destino es distinto del cálculo del origen, significa que los datos han cambiado durante la transmisión. En dicho caso, la rutina de CRC indica al equipo origen que vuelva a transmitir los datos.

Un protocolo es un conjunto de reglas o estándares diseñado para permitir que los equipos puedan conectarse entre sí e intercambiar datos reduciendo los errores en la medida de lo posible.

Las redes tienen distintos formatos para los paquetes y permiten paquetes de distintos tamaños. El límite del tamaño del paquete determina cuántos paquetes puede crear el sistema operativo de red para un conjunto de datos de gran tamaño.

Ethernet

Con el paso del tiempo, Ethernet se ha convertido en el medio de acceso más conocido para equipos de sobremesa y se utiliza en entornos de red pequeños y grandes. Ethernet es un estándar que no pertenece a ninguna industria, y que ha tenido una gran aceptación por los fabricantes de hardware de red. Casi no existen problemas relacionados con la utilización de productos hardware para Ethernet de distintos fabricantes.

Orígenes de Ethernet

A finales de los sesenta la Universidad de Hawai desarrolló una WAN denominada ALOHA. (Una WAN extiende la tecnología de una LAN sobre un área geográfica más grande. La universidad ocupaba un área extensa y buscaba cómo conectar los equipos que estaban dispersos en el campus. Una de las características fundamentales de la red de la universidad era que utilizaba CSMA/CD como método de acceso.

Esta red fue la base para la arquitectura de red Ethernet actual. En 1972, Robert Metcalfe y David Boggs inventaron un esquema de cableado y comunicación en el Centro de Investigación de Xerox en Palo Alto (PARC) y en 1975 introdujeron el primer producto Ethernet. La versión original de Ethernet estaba diseñada como un sistema de 2.94 megabits por segundo (Mbps) para conectar unos 100 equipos sobre un cable de 1 kilómetro (0.62 millas).

La Ethernet de Xerox tuvo tanto éxito que Xerox, Intel Corporation y Digital Equipment Corporation diseñaron un estándar para Ethernet a 10 Mbps.

Especificaciones de Ethernet

Actualmente, Ethernet es la arquitectura de red más popular. Esta arquitectura de banda base utiliza una topología en bus, normalmente transmite a 10 Mbps y utiliza CSMA/CD para regular el segmento de cable principal.

El medio Ethernet es pasivo, lo que significa que no requiere una fuente de alimentación, por lo que no fallará a no ser que el medio esté cortado físicamente o no esté terminado correctamente.

El Formato de Ethernet

Ethernet divide los datos en paquetes en un formato que es diferente al de los paquetes de otras redes: Ethernet divide los datos en tramas. Se pueden utilizar los términos de «paquete» y «trama» de forma indistinta; en el contexto de Ethernet se utiliza el término de «trama». Una trama es un paquete de información transmitido como una unidad. Una trama Ethernet puede tener entre 64 y 1.518 bytes, pero la propia trama Ethernet necesita utilizar al menos 18 bytes; así pues, el tamaño de los datos de una trama Ethernet está entre 46 y 1.500 bytes. Cada trama contiene información de control y tiene la misma estructura básica.

Estándar 10BaseT

En 1990, el comité IEEE publicó la especificación 802.3 para Ethernet en par trenzado. El resultado, 10BaseT (10 Mbps, Banda base sobre par trenzado), es una red Ethernet que suele utilizar cable de par trenzado sin apantallar (UTP) para la conexión de equipos. Normalmente 10BaseT suele utilizar UTP, pero también se puede utilizar cable de par trenzado apantallado (STP) sin cambiar ninguno de los parámetros de 10BaseT.

La mayoría de las redes de este tipo están configuradas en forma de estrella, pero internamente utilizan un sistema de comunicación en bus como el de otras configuraciones Ethernet. Normalmente, el hub de una red 10BaseT sirve como un repetidor multipuerto y se suele situar en los armarios de conexiones del edificio. Cada equipo está colocado en el extremo de un cable que está conectado al hub. Cada equipo tiene dos pares de hilos; un par se utiliza para recibir datos y otro par se utiliza para transmitir datos.

La longitud máxima de un segmento 10BaseT es 100 metros (328 pies). Se pueden utilizar repetidores para aumentar esta limitación. La longitud mínima del cable entre equipos es de 2,5 metros (unos 8 pies). Una LAN 10BaseT puede gestionar 1.024 equipos.

El cable UTP permite la transmisión de datos a 10 Mbps. Es fácil realizar cambios cambiando un cable en el panel de conexiones. Un cambio en el panel de conexiones no afectará a otros dispositivos de la red; esto difiere de una red con bus Ethernet tradicional.Los hubs más recientes permiten la conexión a tipos de cable Ethernet fino y grueso. De esta forma, también es fácil convertir el cable Ethernet grueso a cable 10BaseT conectando un transceiver mini 10BaseT al puerto AUI de la tarjeta de red.