Método de Acceso
Principales Métodos de Acceso al Medio
Método de acceso mútiple de portadora por detección de colisiones (CSMA/CD)
Un equipo sólo puede enviar datos cuando «detecta» que el cable está libre y que no hay tráfico en el cable. Una vez que el equipo haya trasmitido los datos al cable, ningún equipo puede transmitir datos hasta que éstos hayan llegado a su destino y el cable vuelva a estar libre. Recuerde que si dos o más equipos tratan de enviar datos en el mismo instante de tiempo, habrá una colisión de datos. Cuando eso ocurre, los dos equipos implicados dejarán de transmitir datos durante un período de tiempo aleatorio y volverán a transmitir los datos. Cada equipo determina su propio período de espera, por lo que se reduce la posibilidad de que los dos equipos vuelvan a transmitir simultáneamente.
La posibilidad de detección de colisiones es el parámetro que impone una limitación en cuanto a distancia en CSMA/CD. Debido a la atenuación, el debilitamiento de una señal transmitida a medida que se aleja del origen, el mecanismo de detección de colisiones no es apropiado a partir de 2.500 metros (1.5 millas). Los segmentos no pueden detectar señales a partir de esa distancia y, por tanto, no se puede asegurar que un equipo del otro extremo esté transmitiendo. Si más de un equipo transmite datos en la red al mismo tiempo, se producirá una colisión de datos y los datos se estropearán.
Método de acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA)
El acceso múltiple por detección de portadora con anulación de colisiones (CSMA/CA) es el método de acceso menos popular. En CSMA/CA, cada equipo indica su intención de transmitir antes de transmitir los datos. De esta forma, los equipos detectan cuándo puede ocurrir una colisión; esto permite evitar transmitir colisiones. Al informar de la intención de transmitir datos aumenta el tráfico en el cable y ralentiza el rendimiento de la red.
Método de acceso paso por Testigo
En el método de acceso conocido como paso de testigo, circula por el cable del anillo equipo en equipo un paquete especial denominado testigo. Cuando un equipo del anillo necesita enviar datos a través de la red, tiene que esperar a un testigo libre. Cuando se detecta un testigo libre, el equipo se apodera de él si tiene datos que enviar.
Ahora el equipo puede enviar datos. Los datos se transmiten en tramas junto con información adicional como cabeceras y finales (trailers).
Mientras un equipo está utilizando el testigo, los otros equipos no pueden transmitir datos. Debido a que sólo puede haber un equipo utilizando el testigo, no se producen colisiones ni contención y no se pierde tiempo esperando a que los equipos vuelvan a enviar los testigos debido al tráfico de la red.
Método de acceso prioridad de demandas
La prioridad de demandas es un método de acceso relativamente nuevo y está diseñado para el estándar Ethernet 100 Mbps conocido como 100VG-AnyLAN. Ha sido estandarizado por el Instituto de ingenieros eléctricos y electrónicos (IEEE) como la especificación 802.12.
Este método de acceso está basado en el hecho de que los nodos repetidores y finales son los dos componentes que forman todas las redes 100VG-AnyLAN. Los repetidores gestionan el acceso a la red haciendo búsquedas round-robin de peticiones de envío de todos los nodos de red. El repetidor o hub es el responsable de conocer todas las direcciones, enlaces y nodos finales, y de comprobar que todos están funcionando. De acuerdo con la definición de 100VG-AnyLAN, un nodo final puede ser un equipo, un bridge, un router o un switch.
Contención de la prioridad de demandas
En una red con prioridad de demandas, los equipos pueden recibir y transmitir al mismo tiempo debido al esquema de cableado definido por este método de acceso. En este método se utilizan cuatro pares de hilos, que permiten dividir por cuatro las transmisiones, transmitiendo cada uno de los hilos del cable señales a 25 MHz.
Consideraciones sobre la prioridad de demandas
En una red con prioridad de demandas, sólo hay comunicación entre el equipo que envía, el hub y el equipo que recibe. Esto es más eficiente que CSMA/CD, que transmite avisos a toda la red. En prioridad de demandas, cada hub conoce los nodos finales y los repetidores que están conectados a él directamente, mientras que en el entorno CSMA/CD, cada hub conoce la dirección de cada nodo de la red. La prioridad de demandas tiene varias ventajas respecto a CSMA/CD, entre las que se incluyen:
- El uso de cuatro pares de hilos. Al utilizar cuatro pares de hilos, los equipos pueden enviar y recibir al mismo tiempo.
- Las transmisiones se realizan a través del hub. Las transmisiones no se envían a todos los equipos de la red. Los equipos no compiten por acceder al cable, pero trabajan bajo el control centralizado del hub.
Tipos de CSMA/CD
- CSMA no-persistente: si el canal está ocupado espera un tiempo aleatorio y vuelve a escuchar. Si detecta libre el canal, emite inmediatamente.
- CSMA 1-persistente: con el canal ocupado, la estación pasa a escuchar constantemente el canal, sin esperar tiempo alguno.
- CSMA p-persistente: después de encontrar el canal ocupado, y quedarse escuchando hasta encontrarlo libre, la estación decide si emite.
Técnicas de Planificación para el control de Acceso al Medio
Sistemas Basados En Reserva: Las estaciones se turnan en la transmisión de un solo paquete a una velocidad total de R bps, se organizan las transmisiones de las estaciones y tramas que pueden variar en longitud.
Sistemas De Sondeo: Son aquellos en los cuales las estaciones acceden al medio por turnos. En un instante de tiempo dado, sólo una de las estaciones tiene permiso para transmitir a través del medio, y cuando la estación ha acabado de transmitir pasa el permiso de transmisión a otra estación mediante algún mecanismo.
Anillo Con Paso De Testigo: Las redes en anillo con paso de testigo pueden diferir entre si en el método empleado para reinsertar el testigo una vez completada la transmisión. Existen tres técnicas de reinserción; la principal deferencia entre ellas se produce cuando la latencia del anillo es mayor que la longitud del paquete.
Inicialmente, se puede pensar que los datos se envían desde un equipo a otro como una serie continua de unos y ceros. De hecho, los datos se dividen en paquetes pequeños y manejables, cada uno dividido con la información esencial para ir desde el origen hasta el destino. Los paquetes son bloques básicos que constituyen la comunicación de datos por la red.
La Función de los paquetes en las comunicaciones en red
Normalmente los datos existen como archivos de gran tamaño. En cambio, las redes no podrían funcionar si los equipos colocasen a la vez grandes cantidades de datos en la red. Un equipo que envíe grandes cantidades de datos hace que otros equipos tengan que esperar (incrementando la frustración de los otros usuarios) mientras se transmiten los datos. Esto no es lo que se llama «compartir»; esto es «monopolizar la red». Hay dos razones por las que la colocación de grandes bloques de datos en el cable ralentiza la red:
- Las grandes cantidades de datos enviados como un único bloque colapsan la red y hacen imposible la interacción y comunicación apropiada debido a que un equipo está desbordando el cable con datos.
- El impacto de la retransmisión de grandes bloques de datos multiplica el tráfico de la red.
Estos efectos se minimizan cuando estos grandes bloques de datos se dividen en paquetes más pequeños para una mejor gestión del control de errores en la transmisión. De esta forma, sólo se afecta a una pequeña cantidad de datos, y por tanto, sólo se tienen que volver a transmitir pequeñas cantidades de datos, facilitando la recuperación de un error.
Para que varios usuarios puedan transmitir a la vez datos por la red de forma rápida y sencilla, hay que dividir los datos en bloques pequeños y manejables. De esta forma, los usuarios pueden compartir su acceso a la red. Estos bloques se denominan paquetes, o tramas. Aunque los términos de «paquete» y «trama» se suelen utilizar indistintamente, hay algunas diferencias dependiendo del tipo de red.
Utilizaremos el término «paquete» para hacer referencia a «una unidad de información transmitida como una entidad desde un dispositivo a otro de la red». «Dispositivo» es un término genérico utilizado para un subsistema informático. Normalmente a las impresoras, puertos serie y unidades de disco se les conoce como dispositivos; tales subsistemas suelen necesitar su propio software controlador, denominado controladores del dispositivo. Los paquetes son las unidades básicas de la comunicación en la red. Cuando se dividen datos en paquetes, se aceleran las transmisiones individuales de forma que cada equipo de la red tenga más oportunidades de transmitir y recibir datos. En el equipo de destino (receptor), se reúnen los paquetes y se reorganizan en el orden de los datos originales.
Cuando el sistema operativo de la red del equipo de origen divide los datos en paquetes, añade a cada trama una información de control especial. Esto hace posible:
- El envío de los datos originales en pequeños paquetes.
- La reorganización de los datos en el orden apropiado cuando lleguen a su destino.
- La comprobación de errores una vez que se hayan reorganizado los datos.
Los paquetes pueden contener datos de varios tipos incluyendo:
- Información, como mensajes o archivos.
- Ciertos tipos de datos de control y comandos, como peticiones de servicio.
- Códigos de control de sesión, como la corrección de errores, que indica la necesidad de una retransmisión.
Componentes de un paquete
Todos los paquetes tienen varias propiedades en común. Entre ellas se incluyen:
- Una dirección de origen que identifica al equipo que realiza el envío.
- Los datos que se quieren transmitir.
- Una dirección de destino que identifica al destinatario.
- Instrucciones que indican a los componentes de la red cómo pasar los datos.
- Información que indica al equipo de destino cómo conectar el paquete con el resto de los paquetes para reorganizar el bloque completo de datos.
- Información de comprobación de errores que asegura que los datos lleguen intactos.
- Los componentes de un paquete se agrupan en tres secciones: cabecera, datos y final.
La cabecera incluye: Una señal de alerta que indica que el paquete se está transmitiendo.
- La dirección del origen.
- La dirección del destino.
- Información de reloj para sincronizar la transmisión.
Final
El contenido exacto del final varía en función del método de comunicación o protocolo. Sin embargo, el final suele tener un componente de comprobación de errores denominado código de redundancia cíclica (CRC). El CRC es un número generado en el origen por un cálculo matemático sobre el paquete. Cuando el paquete llega al destino se vuelve a realizar el cálculo. Si el resultado de los dos cálculos coincide, indica que los datos del paquete se han mantenido estables. Si el cálculo del destino es distinto del cálculo del origen, significa que los datos han cambiado durante la transmisión. En dicho caso, la rutina de CRC indica al equipo origen que vuelva a transmitir los datos.
Las redes tienen distintos formatos para los paquetes y permiten paquetes de distintos tamaños. El límite del tamaño del paquete determina cuántos paquetes puede crear el sistema operativo de red para un conjunto de datos de gran tamaño.
Ethernet
Orígenes de Ethernet
A finales de los sesenta la Universidad de Hawai desarrolló una WAN denominada ALOHA. (Una WAN extiende la tecnología de una LAN sobre un área geográfica más grande. La universidad ocupaba un área extensa y buscaba cómo conectar los equipos que estaban dispersos en el campus. Una de las características fundamentales de la red de la universidad era que utilizaba CSMA/CD como método de acceso.
Especificaciones de Ethernet
Actualmente, Ethernet es la arquitectura de red más popular. Esta arquitectura de banda base utiliza una topología en bus, normalmente transmite a 10 Mbps y utiliza CSMA/CD para regular el segmento de cable principal.
El Formato de Ethernet
Estándar 10BaseT
La mayoría de las redes de este tipo están configuradas en forma de estrella, pero internamente utilizan un sistema de comunicación en bus como el de otras configuraciones Ethernet. Normalmente, el hub de una red 10BaseT sirve como un repetidor multipuerto y se suele situar en los armarios de conexiones del edificio. Cada equipo está colocado en el extremo de un cable que está conectado al hub. Cada equipo tiene dos pares de hilos; un par se utiliza para recibir datos y otro par se utiliza para transmitir datos.
No hay comentarios:
Publicar un comentario