Capítulos Del 1 Al 9 Tecnología de Redes
Capítulos Del 1 Al 9 Tecnología de Redes
Introducción a la RED
La comunicación.
La comunicación en nuestra vida cotidiana tiene diferentes formas y existe en muchos entornos.
Tenemos diferentes expectativas según si estamos conversando por Internet o participando de una
entrevista de trabajo. Cada situación tiene su comportamiento y estilo correspondiente.
Establecimiento de reglas
Antes de comenzar a comunicarnos, establecemos reglas o acuerdos que rigen la conversación. Estas
reglas o protocolos deben respetarse para que el mensaje se envíe y comprenda correctamente.
Algunos de los protocolos que rigen con éxito las comunicaciones humanas son:
Las reglas de comunicación pueden variar según el contexto. Si un mensaje transmite un hecho o
concepto importante, se necesita una confirmación de que el mensaje se recibió y comprendió
correctamente. Los mensajes menos importantes pueden no requerir acuse de recibo por parte del
receptor.
Las técnicas utilizadas en las comunicaciones de red comparten estos fundamentos con las
conversaciones humanas. Se presuponen algunas reglas debido a que muchos de los protocolos de
comunicación humana son implícitos y están arraigados en nuestra cultura. Al establecer las redes de
datos, es necesario ser mucho más explícito sobre la forma en que se realizan y juzgan con éxito las
comunicaciones.
La comunicación entre individuos está destinada a ser exitosa cuando el significado del mensaje
comprendido por el receptor coincide con el significado del emisor.
Para las redes de datos, utilizamos los mismos criterios básicos que para juzgar el éxito. Sin embargo,
debido a que un mensaje se traslada por la red, muchos factores pueden evitar que el mensaje llegue al
receptor o distorsionar el significado pretendido. Estos factores pueden ser externos o internos.
Factores externos
Los factores externos que afectan la comunicación están relacionados con la complejidad de la red y el
número de dispositivos que debe atravesar un mensaje para llegar al destino final.
Factores internos
Los factores internos que interfieren en la comunicación en redes están relacionados con la naturaleza
del mensaje.
Diferentes tipos de mensajes pueden variar en complejidad e importancia. Los mensajes claros y
concisos son generalmente más fáciles de entender que los mensajes complejos. Las comunicaciones
importantes requieren de más atención para asegurarse de que el receptor las comprenda
correctamente.
Los mensajes grandes pueden ser interrumpidos o demorados en diferentes puntos de la red. Un
mensaje con baja importancia o prioridad puede perderse si la red está sobrecargada.
Deben anticiparse y controlarse los factores externos e internos que afectan la recepción del mensaje
para así obtener una comunicación en red exitosa. Se implementan innovaciones en el hardware y en el
software de la red para garantizar la calidad y confiabilidad de las comunicaciones de red.
Cerramos esta sección con un ejemplo para ver cómo los elementos de redes, dispositivos, medios y
servicios, están conectados mediante reglas para enviar un mensaje. Las personas generalmente
imaginan las redes en el sentido abstracto. Creamos y enviamos un mensaje de texto y en forma casi
inmediata se muestra en el dispositivo de destino. Aunque sabemos que entre el dispositivo de emisión
y el dispositivo de recepción hay una red mediante la cual viajan nuestros mensajes, raramente
pensamos en todas las partes y piezas que forman esa infraestructura.
Mensajes
En la primera etapa del viaje desde la computadora al destino, el mensaje instantáneo se convierte en
un formato que puede transmitirse en la red. Todos los tipos de mensajes tienen que ser convertidos a
bits, señales digitales codificadas en binario, antes de ser enviados a sus destinos. Esto es así sin
importar el formato del mensaje original: texto, video, voz o datos informáticos. Una vez que el mensaje
instantáneo se convierte en bits, está listo para ser enviado a la red para su remisión.
Dispositivos
Para comenzar a entender la solidez y complejidad de las redes interconectadas que forman Internet, es
necesario empezar por lo más básico. Tomemos el ejemplo del envío de mensajes de texto con un
programa de mensajería instantánea en una computadora. Cuando pensamos en utilizar servicios de
red, generalmente pensamos en utilizar una computadora para acceder a ellos. Pero una computadora
es sólo un tipo de dispositivo que puede enviar y recibir mensajes por una red. Muchos otros tipos de
dispositivos pueden conectarse a la red para participar en servicios de red. Entre esos dispositivos se
encuentran teléfonos, cámaras, sistemas de música, impresoras y consolas de juegos.
Además de la computadora, hay muchos otros componentes que hacen posible que nuestros mensajes
instantáneos sean direccionados a través de kilómetros de cables, cables subterráneos, ondas aéreas y
estaciones de satélites que puedan existir entre los dispositivos de origen y de destino. Uno de los
componentes críticos en una red de cualquier tamaño es el router. Un router une dos o más redes,
como una red doméstica e Internet, y pasa información de una red a otra. Los routers en una red
funcionan para asegurar que el mensaje llegue al destino de la manera más rápida y eficaz.
Medio
Para enviar el mensaje instantáneo al destino, la computadora debe estar conectada a una red local
inalámbrica o con cables. Las redes locales pueden instalarse en casas o empresas, donde permiten a
computadoras y otros dispositivos compartir información y utilizar una conexión común a Internet.
Las redes inalámbricas permiten el uso de dispositivos con redes en cualquier parte, en una oficina, en
una casa e inclusive al aire libre. Fuera de la casa o la oficina, la red inalámbrica está disponible en zonas
activas públicas como cafés, empresas, habitaciones de hoteles y aeropuertos.
Muchas de las redes instaladas utilizan cables para proporcionar conectividad. Ethernet es la tecnología
de red con cable más común en la actualidad. Los hilos, llamados cables, conectan las computadoras a
otros dispositivos que forman las redes. Las redes con cables son mejores para transmitir grandes
cantidades de datos a alta velocidad y son necesarias para respaldar multimedia de calidad profesional.
Servicios
Los servicios de red son programas de computación que respaldan la red humana. Distribuidos en toda
la red, estos servicios facilitan las herramientas de comunicación en línea como e-mails, foros de
discusión/boletines, salas de chat y mensajería instantánea. Por ejemplo: en el caso un servicio de
mensajería instantánea proporcionado por dispositivos en la nube, debe ser accesible tanto para el
emisor como para el receptor.
Las Reglas
Aspectos importantes de las redes que no son dispositivos ni medios, son reglas o protocolos. Estas
reglas son las normas o protocolos que especifican la manera en que se envían los mensajes, cómo se
direccionan a través de la red y cómo se interpretan en los dispositivos de destino. Por ejemplo: en el
caso de la mensajería instantánea Jabber, los protocolos XMPP, TCP e IP son importantes conjuntos de
reglas que permiten que se realice la comunicación.
Protocolos
Los protocolos son las reglas que utilizan los dispositivos de red para comunicarse entre sí. Actuamente
el estándar de la industria en redes es un conjunto de protocolos denominado TCP/IP (Protocolo de
control de transmisión/Protocolo de Internet). TCP/IP se utiliza en redes comerciales y domésticas,
siendo también el protocolo primario de Internet. Son los protocolos TCP/IP los que especifican los
mecanismos de formateo, de direccionamiento y de enrutamiento que garantizan que nuestros
mensajes sean entregados a los destinatarios correctos.
Redes convergentes
Redes convergentes
Los avances de la tecnología nos permiten consolidar esas redes dispersas en una única plataforma: una
plataforma definida como una red convergente. El flujo de voz, vídeo y datos que viajan a través de la
misma red elimina la necesidad de crear y mantener redes separadas. En una red convergente todavía
hay muchos puntos de contacto y muchos dispositivos especializados (por ejemplo: computadoras
personales, teléfonos, televisores, asistentes personales y registradoras de puntos de venta minoristas)
pero una sola infraestructura de red común.
Las redes deben admitir una amplia variedad de aplicaciones y servicios, como así también funcionar
con diferentes tipos de infraestructuras físicas. El término arquitectura de red, en este contexto, se
refiere a las tecnologías que admiten la infraestructura y a los servicios y protocolos programados que
pueden trasladar los mensajes en toda esa infraestructura. Debido a que Internet evoluciona, al igual
que las redes en general, descubrimos que existen cuatro características básicas que la arquitectura
subyacente necesita para cumplir con las expectativas de los usuarios: tolerancia a fallas, escalabilidad,
calidad del servicio y seguridad.
Tolerancia a fallas
La expectativa de que Internet está siempre disponible para millones de usuarios que confían en ella
requiere de una arquitectura de red diseñada y creada con tolerancia a fallas. Una red tolerante a fallas
es la que limita el impacto de una falla del software o hardware y puede recuperarse rápidamente
cuando se produce dicha falla. Estas redes dependen de enlaces o rutas redundantes entre el origen y el
destino del mensaje. Si un enlace o ruta falla, los procesos garantizan que los mensajes pueden
enrutarse en forma instantánea en un enlace diferente transparente para los usuarios en cada extremo.
Tanto las infraestructuras físicas como los procesos lógicos que direccionan los mensajes a través de la
red están diseñados para adaptarse a esta redundancia. Ésta es la premisa básica de la arquitectura de
redes actuales.
Escalabilidad
Una red escalable puede expandirse rápidamente para admitir nuevos usuarios y aplicaciones sin afectar
el rendimiento del servicio enviado a los usuarios actuales. Miles de nuevos usuarios y proveedores de
servicio se conectan a Internet cada semana. La capacidad de la red de admitir estas nuevas
interconexiones depende de un diseño jerárquico en capas para la infraestructura física subyacente y la
arquitectura lógica. El funcionamiento de cada capa permite a los usuarios y proveedores de servicios
insertarse sin causar disrupción en toda la red. Los desarrollos tecnológicos aumentan constantemente
las capacidades de transmitir el mensaje y el rendimiento de los componentes de la estructura física en
cada capa. Estos desarrollos, junto con los nuevos métodos para identificar y localizar usuarios
individuales dentro de una internetwork, estan permitiendo a Internet mantenerse al ritmo de la
demanda de los usuarios.
Internet actualmente proporciona un nivel aceptable de tolerancia a fallas y escalabilidad para sus
usuarios. Pero las nuevas aplicaciones disponibles para los usuarios en internetworks crean expectativas
mayores para la calidad de los servicios enviados. Las transmisiones de voz y video en vivo requieren un
nivel de calidad consistente y un envío ininterrumpido que no era necesario para las aplicaciones
informáticas tradicionales. La calidad de estos servicios se mide con la calidad de experimentar la misma
presentación de audio y video en persona. Las redes de voz y video tradicionales están diseñadas para
admitir un único tipo de transmisión y, por lo tanto, pueden producir un nivel aceptable de calidad. Los
nuevos requerimientos para admitir esta calidad de servicio en una red convergente cambian la manera
en que se diseñan e implementan las arquitecturas de red.
Seguridad
Para comprender el desafío con el que se enfrentaron los investigadores del DoD, es necesario observar
cómo funcionaban los sistemas telefónicos. Cuando una persona realiza una llamada utilizando un
teléfono tradicional, la llamada primero pasa por un proceso de configuración en el cual se identifican
todas las conmutaciones telefónicas entre la persona y el teléfono al que está llamando. Se crea un ruta
temporal o circuito a través de las distintas ubicaciones de conmutación a utilizar durante la duración de
la llamada telefónica. Si falla algún enlace o dispositivo que participa en el circuito, la llamada se cae.
Para volver a conectarse, se debe realizar una nueva llamada y crear un nuevo circuito entre el teléfono
de origen y el de destino. Este tipo de red orientada a la conexión se llama red conmutada por circuito.
Las primeras redes conmutadas por circuito no recreaban en forma dinámica los circuitos descartados.
Para recuperarse de una falla, se deben iniciar nuevas llamadas y crear nuevos circuitos de extremo a
extremo.
Muchas redes conmutadas por circuitos otorgan prioridad al mantenimiento de conexiones de circuitos
existentes a expensas de nuevas solicitudes de circuitos. En este tipo de red orientada a la conexión, una
vez establecido el circuito, aunque no exista comunicación entre las personas en ningún extremo de la
llamada, el circuito permanece conectado y los recursos se reservan hasta que una de las partes
desconecta la llamada. Debido a que existe una determinada capacidad para crear nuevos circuitos, es
posible que a veces reciba un mensaje de que todos los circuitos están ocupados y no pueda realizar la
llamada. El costo que implica crear muchas rutas alternativas con capacidad suficiente para admitir un
gran número de circuitos simultáneos y las tecnologías necesarias para recrear en forma dinámica los
circuitos descartados en caso de falla, llevaron al DoD a considerar otros tipos de redes.
En la búsqueda de una red que pueda soportar la pérdida de una cantidad significativa de sus servicios
de transmisión y conmutación, los primeros diseñadores de Internet reevaluaron las investigaciones
iniciales acerca de las redes conmutadas por paquetes. La premisa para este tipo de redes es que un
simple mensaje puede dividirse en múltiples bloques de mensajes. Los bloques individuales que
contienen información de direccionamiento indican tanto su punto de origen como su destino final.
Utilizando esta información incorporada, se pueden enviar por la red a través de diversas rutas esos
bloques de mensajes, denominados paquetes, y se pueden rearmar como el mensaje original una vez
que llegan a destino.
Utilización de paquetes
Los dispositivos dentro de la misma red no tienen en cuenta el contenido de los paquetes individuales,
sólo es visible la dirección del destino final y del próximo dispositivo en la ruta hacia ese destino. No se
genera ningún circuito reservado entre emisor y receptor. Cada paquete se envía en forma
independiente desde una ubicación de conmutación a otra. En cada ubicación, se decide qué ruta
utilizar para enviar el paquete al destino final. Si una ruta utilizada anteriormente ya no está disponible,
la función de enrutamiento puede elegir en forma dinámica la próxima ruta disponible. Debido a que los
mensajes se envían por partes, en lugar de hacerlo como un mensaje completo y único, los pocos
paquetes que pueden perderse en caso de que se produzca una falla pueden volver a transmitirse a
destino por una ruta diferente. En muchos casos, el dispositivo de destino no tiene en cuenta que se ha
producido una falla o reenrutamiento.
Los investigadores del Departamento de Defensa (DoD) se dieron cuenta de que una red sin conexión
conmutada por paquetes tenía las características necesarias para admitir una arquitectura de red
resistente y tolerante a fallas. En una red conmutada por paquetes no existe la necesidad de un circuito
reservado y simple de extremo a extremo. Cualquier parte del mensaje puede enviarse a través de la red
utilizando una ruta disponible. Los paquetes que contienen las partes de los mensajes de diferentes
orígenes pueden viajar por la red al mismo tiempo. El problema de los circuitos inactivos o no utilizados
desaparece; todos los recursos disponibles pueden utilizarse en cualquier momento para enviar
paquetes al destino final. Al proporcionar un método para utilizar dinámicamente rutas redundantes sin
intervención del usuario, Internet se ha vuelto un método de comunicación tolerante a fallas y
escalable.
Aunque las redes sin conexión conmutadas por paquetes cubren las necesidades de los DoD y siguen
siendo la infraestructura primaria de la Internet actual, hay algunos beneficios en un sistema orientado a
la conexión como el sistema telefónico conmutado por circuito. Debido a que los recursos de las
diferentes ubicaciones de conmutación están destinados a proporcionar un número determinado de
circuitos, pueden garantizarse la calidad y consistencia de los mensajes transmitidos en una red
orientada a la conexión. Otro beneficio es que el proveedor del servicio puede cargar los usuarios de la
red durante el período de tiempo en que la conexión se encuentra activa. La capacidad de cargar los
usuarios para conexiones activas a través de la red es una premisa fundamental de la industria del
servicio de telecomunicaciones.
Clasificación
Lo ideal es asignar una prioridad exacta para cada tipo de comunicación. En la actualidad, esto no
resulta práctico y posible. Por lo tanto, clasificamos las aplicaciones en categorías según la calidad
específica de requisitos de servicios.
Para crear clasificaciones de datos QoS, utilizamos una combinación de características de comunicación
y la importancia relativa asignada a la aplicación. Luego incluimos todos los datos en la misma
clasificación en base a las mismas reglas. Por ejemplo, la comunicación sensible al tiempo o importante
debería clasificarse en forma diferente de la comunicación que puede esperar o es de menor
importancia.
Asignación de prioridades
Las características de la información que se comunica también afectan su administración. Por ejemplo,
el envío de una película utiliza una importante cantidad de recursos de red cuando se envía en forma
continua, sin interrupción. Otros tipos de servicios, los e-mails, por ejemplo, no resultan tan
demandantes en la red. En una empresa, el administrador puede decidir asignar la mayor parte de los
recursos de red a la película, considerando que ésta es la prioridad para los clientes. El administrador
puede decidir que el impacto será mínimo si los usuarios de e-mails tienen que esperar algunos
segundos más para que llegue. En otra empresa la calidad del stream de vídeo no es tan importante
como la información de control de procesos críticos que operan las máquinas de fabricación.
Provision de Seguridad
garantizar la confidencialidad,
garantizar la disponibilidad.
Garantizar la confidencialidad
La privacidad de los datos se logra permitiendo que lean los datos solamente los receptores autorizados
y designados (individuos, procesos o dispositivos).
El uso de firmas digitales, algoritmos de hash y mecanismos de checksum son formas de proporcionar
integridad de origen y de datos a través de la red para evitar la modificación no autorizada de
información
Garantizar disponibilidad
La garantía de confidencialidad e integridad son irrelevantes si los recursos de red están sobrecargados
o no disponibles. Disponibilidad significa tener la seguridad de acceder en forma confiable y oportuna a
los servicios de datos para usuarios autorizados. Los recursos pueden no estar disponibles durante un
ataque de Denegación de servicio (DoS) o por la propagación de un virus de computadora. Los
dispositivos firewall de red, junto con los software antivirus de los equipos de escritorio y de los
servidores pueden asegurar la confiabilidad y solidez del sistema para detectar, repeler y resolver esos
ataques. La creación de infraestructuras de red completamente redundantes, con pocos puntos de
error, puede reducir el impacto de esas amenazas.
El resultado de la implementación de medidas para mejorar tanto la calidad del servicio como la
seguridad de las comunicaciones de red es un aumento en la complejidad de la plataforma de red
subyacente. Debido a que Internet continúa expandiéndose para ofrecer más y nuevos servicios, su
futuro depende de las nuevas y más sólidas arquitecturas en desarrollo que incluyen estas cuatro
características: tolerancia a fallas, escalabilidad, calidad del servicio y seguridad.
La convergencia de los distintos medios de comunicación en una plataforma de red simple estimula el
crecimiento exponencial de las capacidades de red. Existen tres tendencias principales que contribuyen
a la futura estructura de las redes de información complejas:
Usuarios móviles
La computadora es sólo uno de los muchos dispositivos en las redes de información actuales. Tenemos
un crecimiento de nuevas y emocionantes tecnologías que aprovechan los servicios de red disponibles.
Las funciones realizadas por los teléfonos celulares, asistentes digitales personales (PDA), organizadores
y pagers convergen en sencillos dispositivos portátiles con conectividad continua a proveedores de
servicios y contenido. Estos dispositivos, alguna vez considerados "juguetes" o elementos de lujo, son
ahora una parte integral de la forma en que se comunican las personas. Además de los dispositivos
móviles, también tenemos dispositivos de voz sobre IP (VoIP), sistemas de juegos y una gran variedad de
dispositivos del hogar y de negocios que se pueden conectar y utilizar servicios de red.
Mayor disponibilidad de servicios
La amplia aceptación de la tecnología y el rápido ritmo de innovación en servicios a través de la red crea
una dependencia en espiral. Para cumplir con las demandas del usuario, se presentan nuevos servicios y
se mejoran los servicios más viejos. Como los usuarios confían en estos servicios ampliados, desean aún
más capacidades. Así, la red crece para respaldar este aumento en la demanda. Las personas dependen
de los servicios proporcionados en la red y, en consecuencia, dependen de la disponibilidad y
confiabilidad de la infraestructura de red subyacente.
El desafío de mantener el ritmo con una red de usuarios y servicios en continua expansión es
responsabilidad de los profesionales de TI y de red capacitados.
Este capítulo explicó la importancia de las redes de datos como plataforma para admitir la comunicación
comercial y las tares de la vida cotidiana.
Las redes de datos cumplen una función importante en facilitar la comunicación dentro de la red
humana global.
Las redes de datos admiten la forma en que vivimos, aprendemos trabajamos y jugamos. Proporcionan
la plataforma para los servicios que nos permiten conectarnos, en forma local y global, con nuestra
familia y amigos, como así también con nuestro trabajo e intereses. Esta plataforma respalda el uso de
textos, gráficos, videos y voz.
Las redes de datos y las redes humanas utilizan procedimientos similares para asegurar que la
comunicación llegue al destino en forma precisa y a tiempo. Los acuerdos sobre el idioma, el contenido,
la forma y el medio que los humanos generalmente usamos en forma implícita se reflejan en la red de
datos.
Los factores que aseguran el envío de los mensajes y la información en la red de datos son los medios de
networking que conectan los dispositivos de red y los acuerdos y estándares que rigen su
funcionamiento. A medida que crece la demanda para que más personas y dispositivos se comuniquen
en un mundo móvil, las tecnologías de red de datos tendrán que adaptarse y desarrollarse.
Las redes convergentes, que transmiten todos los tipos de comunicación (datos, voz y video) en una
infraestructura, proporcionan una oportunidad de reducir costos y ofrecer a los usuarios servicios y
contenido con muchas características. Sin embargo, el diseño y la administración de redes convergentes
requiere de conocimiento y habilidades de networking extensos si todos los servicios deben enviarse a
los usuarios según lo esperado.
Diferentes tipos de comunicaciones que fluyen en las redes de datos necesitan tener prioridad para que
los datos importantes y sensibles al tiempo tengan el primer uso limitado de recursos de redes.
Integrar la seguridad con las redes de datos es esencial si no queremos que las comunicaciones
comerciales, personales y privadas sean interceptadas, robadas o dañadas.
Comunicación A través de la Red
Las redes nos conectan cada vez más. Las personas se comunican en línea desde cualquier lugar. La
tecnología confiable y eficiente permite que las redes estén disponibles cuando y donde las
necesitemos. A medida que nuestra red humana continúa ampliándose, también debe crecer la
plataforma que la conecta y respalda.
En vez de desarrollar sistemas exclusivos e individuales para la entrega de cada nuevo servicio, la
industria de networking en su totalidad ha desarrollado los medios para analizar la plataforma existente
y mejorarla progresivamente. Esto asegura que se mantengan las comunicaciones existentes mientras
se presentan nuevos servicios económicos y seguros a nivel tecnológico.
El uso de modelos generalmente aceptados que describen funciones de la red es central para el estudio
de redes. Estos modelos proporcionan un marco para entender las redes actuales y para facilitar el
desarrollo de nuevas tecnologías para admitir futuras necesidades de comunicación.
En este curso, utilizamos estos modelos y las herramientas diseñadas para analizar y simular la
funcionalidad de la red. Dos de las herramientas que le permitirán crear e interactuar con redes
simuladas son el software Packet Tracer 4.1 y el analizador de protocolos de red Wireshark network.
Describir la estructura de una red, incluso los dispositivos y los medios necesarios para que las
comunicaciones sean exitosas.
Explicar las ventajas de utilizar un modelo en capas para describir la funcionalidad de la red.
Describir la función de cada capa en dos modelos de red reconocidos: El modelo TCP/IP y el modelo OSI.
La comunicación comienza con un mensaje o información que se debe enviar desde una persona o
dispositivo a otro. Las personas intercambian ideas mediante diversos métodos de comunicación. Todos
estos métodos tienen tres elementos en común. El primero de estos elementos es el origen del mensaje
o emisor. Los orígenes de los mensajes son las personas o los dispositivos electrónicos que deben enviar
un mensaje a otras personas o dispositivos. El segundo elemento de la comunicación es el destino o
receptor del mensaje. El destino recibe el mensaje y lo interpreta. Un tercer elemento, llamado canal,
está formado por los medios que proporcionan el camino por el que el mensaje viaja desde el origen
hasta el destino.
Considere, por ejemplo, que desea comunicar mediante palabras, ilustraciones y sonidos. Cada uno de
estos mensajes puede enviarse a través de una red de datos o de información convirtiéndolos primero
en dígitos binarios o bits. Luego, estos bits se codifican en una señal que se puede transmitir por el
medio apropiado. En las redes de computadoras, el medio generalmente es un tipo de cable o una
transmisión inalámbrica.
El término red en este curso se referirá a datos o redes de información capaces de transportar gran
cantidad de diferentes tipos de comunicaciones, que incluye datos informáticos, voz interactiva, video y
productos de entretenimiento.
Comunicación de Mensajes
En teoría, una comunicación simple, como un video musical o un e-mail puede enviarse a través de la
red desde un origen hacia un destino como un stream de bits masivo y continuo. Si en realidad los
mensajes se transmitieron de esta manera, significará que ningún otro dispositivo podrá enviar o recibir
mensajes en la misma red mientras esta transferencia de datos está en progreso. Estos grandes streams
de datos originarán retrasos importantes. Además, si falló un enlace en la infraestructura de red
interconectada durante la transmisión, se perderá todo el mensaje y tendrá que retransmitirse por
completo.
Un mejor enfoque para enviar datos a través de la red es dividir los datos en partes más pequeñas y más
manejables. La división del stream de datos en partes más pequeñas se denomina segmentación. La
segmentación de mensajes tiene dos beneficios principales.
Primero, al enviar partes individuales más pequeñas del origen al destino, se pueden entrelazar diversas
conversaciones en la red. El proceso que se utiliza para entrelazar las piezas de conversaciones
separadas en la red se denomina multiplexación.
Segundo, la segmentación puede aumentar la confiabilidad de las comunicaciones de red. No es
necesario que las partes separadas de cada mensaje sigan el mismo recorrido a través de la red desde el
origen hasta el destino. Si una ruta en particular se satura con el tráfico de datos o falla, las partes
individuales del mensaje aún pueden direccionarse hacia el destino mediante los recorridos alternativos.
Si parte del mensaje no logra llegar al destino, sólo se deben retransmitir las partes faltantes.
En las comunicaciones de red, cada segmento del mensaje debe seguir un proceso similar para asegurar
que llegue al destino correcto y que puede volverse a ensamblar en el contenido del mensaje original.
Varios tipos de dispositivos en toda la red participan para asegurar que las partes del mensaje lleguen a
los destinos de manera confiable.
Componentes de la RED
La ruta que toma un mensaje desde el origen hasta el destino puede ser tan sencilla como un solo cable
que conecta una computadora con otra o tan compleja como una red que literalmente abarca el mundo.
Esta infraestructura de red es la plataforma que respalda la red humana. Proporciona el canal estable y
confiable por el cual se producen las comunicaciones.
Los dispositivos y los medios son los elementos físicos o hardware de la red. El hardware es
generalmente el componente visible de la plataforma de red, como una computadora portátil o
personal, un switch, o el cableado que se usa para conectar estos dispositivos. A veces, puede que
algunos componentes no sean visibles. En el caso de los medios inalámbricos, los mensajes se
transmiten a través del aire utilizando radio frecuencia invisible u ondas infrarrojas.
Los servicios y procesos son los programas de comunicación, denominados software, que se ejecutan en
los dispositivos conectados a la red. Un servicio de red proporciona información en respuesta a una
solicitud. Los servicios incluyen una gran cantidad de aplicaciones de red comunes que utilizan las
personas a diario, como los servicios de e-mail hosting y los servicios de Web hosting. Los procesos
proporcionan la funcionalidad que direcciona y traslada mensajes a través de la red. Los procesos son
menos obvios para nosotros, pero son críticos para el funcionamiento de las redes.
Los dispositivos de red con los que la gente está más familiarizada se denominan dispositivos finales.
Estos dispositivos constituyen la interfaz entre la red humana y la red de comunicación subyacente.
Algunos ejemplos de dispositivos finales son:
Computadoras (estaciones de trabajo, computadoras portátiles, servidores de archivos, servidores Web)
Impresoras de red
Teléfonos VoIP
Cámaras de seguridad
Dispositivos móviles de mano (como escáneres de barras inalámbricos, asistentes digitales personales
(PDA))
En el contexto de una red, los dispositivos finales se denominan host. Un dispositivo host puede ser el
origen o el destino de un mensaje transmitido a través de la red. Para distinguir un host de otro, cada
host en la red se identifica por una dirección. Cuando un host inicia una comunicación, utiliza la
dirección del host de destino para especificar dónde debe ser enviado el mensaje.
En las redes modernas, un host puede funcionar como un cliente, como un servidor o como ambos. El
software instalado en el host determina qué rol representa en la red.
Los servidores son hosts que tienen software instalado que les permite proporcionar información y
servicios, como e-mail o páginas Web, a otros hosts en la red.
Los clientes son hosts que tienen software instalado que les permite solicitar y mostrar la información
obtenida del servidor.
Además de los dispositivos finales con los cuales la gente está familiarizada, las redes dependen de
dispositivos intermediarios para proporcionar conectividad y para trabajar detrás de escena y garantizar
que los datos fluyan a través de la red. Estos dispositivos conectan los hosts individuales a la red y
pueden conectar varias redes individuales para formar una internetwork. Los siguientes son ejemplos de
dispositivos de red intermediarios:
La administración de datos mientras fluyen a través de la red también es una función de los dispositivos
intermediarios. Estos dispositivos utilizan la dirección host de destino, conjuntamente con información
sobre las interconexiones de la red, para determinar la ruta que deben tomar los mensajes a través de la
red. Los procesos que se ejecutan en los dispositivos de red intermediarios realizan las siguientes
funciones:
Medios de Red
La comunicación a través de una red es transportada por un medio. El medio proporciona el canal por el
cual viaja el mensaje desde el origen hasta el destino.
Las redes modernas utilizan principalmente tres tipos de medios para interconectar los dispositivos y
proporcionar la ruta por la cual pueden transmitirse los datos. Estos medios son:
transmisión inalámbrica.
La codificación de señal que se debe realizar para que el mensaje sea transmitido es diferente para cada
tipo de medio. En los hilos metálicos, los datos se codifican dentro de impulsos eléctricos que coinciden
con patrones específicos. Las transmisiones por fibra óptica dependen de pulsos de luz, dentro de
intervalos de luz visible o infrarroja. En las transmisiones inalámbricas, los patrones de ondas
electromagnéticas muestran los distintos valores de bits.
Los diferentes tipos de medios de red tienen diferentes características y beneficios. No todos los medios
de red tienen las mismas características ni son adecuados para el mismo fin. Los criterios para elegir un
medio de red son:
Cuando una compañía o una organización tiene ubicaciones separadas por grandes distancias
geográficas, es posible que deba utilizar un proveedor de servicio de telecomunicaciones (TSP) para
interconectar las LAN en las distintas ubicaciones. Los proveedores de servicios de telecomunicaciones
operan grandes redes regionales que pueden abarcar largas distancias. Tradicionalmente, los TSP
transportaban las comunicaciones de voz y de datos en redes separadas. Cada vez más, estos
proveedores ofrecen a sus subscriptores servicios de red convergente de información.
Por lo general, las organizaciones individuales alquilan las conexiones a través de una red de
proveedores de servicios de telecomunicaciones. Estas redes que conectan las LAN en ubicaciones
separadas geográficamente se conocen como Redes de área amplia (WAN). Aunque la organización
mantiene todas las políticas y la administración de las LAN en ambos extremos de la conexión, las
políticas dentro de la red del proveedor del servicio de comunicaciones son controladas por el TSP.
Las WAN utilizan dispositivos de red diseñados específicamente para realizar las interconexiones entre
las LAN. Dada la importancia de estos dispositivos para la red, la configuración, instalación y
mantenimiento de éstos son aptitudes complementarias de la función de una red de la organización.
Las LAN y WAN son de mucha utilidad para las organizaciones individuales. Conectan a los usuarios
dentro de la organización. Permiten gran cantidad de formas de comunicación que incluyen intercambio
de e-mails, capacitación corporativa y acceso a recursos.
Aunque existen beneficios por el uso de una LAN o WAN, la mayoría de los usuarios necesitan
comunicarse con un recurso u otra red, fuera de la organización local.
Una malla global de redes interconectadas (internetworks) cubre estas necesidades de comunicación
humanas. Algunas de estas redes interconectadas pertenecen a grandes organizaciones públicas o
privadas, como agencias gubernamentales o empresas industriales, y están reservadas para su uso
exclusivo. La internetwork más conocida, ampliamente utilizada y a la que accede el público en general
es Internet.
Internet se crea por la interconexión de redes que pertenecen a los Proveedores de servicios de Internet
(ISP). Estas redes ISP se conectan entre sí para proporcionar acceso a millones de usuarios en todo el
mundo. Garantizar la comunicación efectiva a través de esta infraestructura diversa requiere la
aplicación de tecnologías y protocolos consistentes y reconocidos comúnmente, como también la
cooperación de muchas agencias de administración de redes.
Intranet
El término intranet se utiliza generalmente para referirse a una conexión privada de algunas LAN y WAN
que pertenecen a una organización y que está diseñada para que puedan acceder solamente los
miembros y empleados de la organización u otros que tengan autorización.
Nota: Es posible que los siguientes términos sean sinónimos: internetwork, red de datos y red. Una
conexión de dos o más redes de datos forma una internetwork: una red de redes. También es habitual
referirse a una internetwork como una red de datos o simplemente como una red, cuando se consideran
las comunicaciones a alto nivel. El uso de los términos depende del contexto y del momento, a veces los
términos pueden ser intercambiados.
Representaciones de RED
Tarjeta de interfaz de red (NIC): una NIC o adaptador LAN proporciona la conexión física con la red en la
computadora personal u otro dispositivo host. El medio que conecta la computadora personal con el
dispositivo de red se inserta directamente en la NIC.
Puerto físico: conector o toma en un dispositivo de red en el cual el medio se conecta con un host o con
otro dispositivo de red.
Interfaz: puertos especializados de un dispositivo de internetworking que se conecta con redes
individuales. Puesto que los routers se utilizan para interconectar redes, los puertos de un router se
conocen como interfaces de red.
Protocolos de Red
A nivel humano, algunas reglas de comunicación son formales y otras simplemente sobreentendidas o
implícitas, basadas en los usos y costumbres. Para que los dispositivos se puedan comunicar en forma
exitosa, una nueva suite de protocolos debe describir los requerimientos e interacciones precisos.
Los protocolos individuales de una suite de protocolos pueden ser específicos de un fabricante o de
propiedad exclusiva. Propietario, en este contexto, significa que una compañía o proveedor controla la
definición del protocolo y cómo funciona. Algunos protocolos propietarios pueden ser utilizados por
distintas organizaciones con permiso del propietario. Otros, sólo se pueden implementar en equipos
fabricados por el proveedor propietario.
Con frecuencia, muchos de los protocolos que comprenden una suite de protocolos aluden a otros
protocolos ampliamente utilizados o a estándares de la industria. Un estándar es un proceso o protocolo
que ha sido avalado por la industria de networking y ratificado por una organización de estándares,
como el Instituto de ingenieros eléctricos y electrónicos (IEEE, Institute of Electrical and Electronics
Engineers) o el Grupo de trabajo de ingeniería de Internet (IETF).
En las comunicaciones de datos, por ejemplo, si un extremo de una conversación utiliza un protocolo
para regir una comunicación unidireccional y el otro extremo adopta un protocolo que describe una
comunicación bidireccional, es muy probable que no pueda intercambiarse ninguna información.
Existen beneficios al utilizar un modelo en capas para describir los protocolos de red y el
funcionamiento. Uso de un modelo en capas:
Asiste en el diseño del protocolo, porque los protocolos que operan en una capa específica poseen
información definida que van a poner en práctica y una interfaz definida según las capas por encima y
por debajo.
Fomenta la competencia, ya que los productos de distintos proveedores pueden trabajar en conjunto.
Evita que los cambios en la tecnología o en las capacidades de una capa afecten otras capas superiores e
inferiores.
Existen dos tipos básicos de modelos de networking: modelos de protocolo y modelos de referencia.
Un modelo de protocolo proporciona un modelo que coincide fielmente con la estructura de una suite
de protocolo en particular. El conjunto jerárquico de protocolos relacionados en una suite representa
típicamente toda la funcionalidad requerida para interconectar la red humana con la red de datos. El
modelo TCP/IP es un modelo de protocolo porque describe las funciones que se producen en cada capa
de los protocolos dentro del conjunto TCP/IP.
Un modelo de referencia proporciona una referencia común para mantener consistencia en todos los
tipos de protocolos y servicios de red. Un modelo de referencia no está pensado para ser una
especificación de implementación ni para proporcionar un nivel de detalle suficiente para definir de
forma precisa los servicios de la arquitectura de red. El propósito principal de un modelo de referencia
es asistir en la comprensión más clara de las funciones y los procesos involucrados.
Aunque los modelos TCP/IP y OSI son los modelos principales que se utilizan cuando se analiza la
funcionalidad de red, los diseñadores de protocolos de red, servicios o dispositivos pueden crear sus
propios modelos para representar sus productos. Por último, se solicita a los diseñadores que se
comuniquen con la industria asociando sus productos o servicios con el modelo OSI, el modelo TCP/IP o
ambos.
Modelo TCP/IP
El primer modelo de protocolo en capas para comunicaciones de internetwork se creó a principios de la
década de los setenta y se conoce con el nombre de modelo de Internet. Define cuatro categorías de
funciones que deben tener lugar para que las comunicaciones sean exitosas. La arquitectura de la suite
de protocolos TCP/IP sigue la estructura de este modelo. Por esto, es común que al modelo de Internet
se lo conozca como modelo TCP/IP.
La mayoría de los modelos de protocolos describen un stack de protocolos específicos del proveedor.
Sin embargo, puesto que el modelo TCP/IP es un estándar abierto, una compañía no controla la
definición del modelo. Las definiciones del estándar y los protocolos TCP/IP se explican en un foro
público y se definen en un conjunto de documentos disponibles al público. Estos documentos se
denominan Solicitudes de comentarios (RFCS). Contienen las especificaciones formales de los protocolos
de comunicación de datos y los recursos que describen el uso de los protocolos.
Las RFC (Solicitudes de comentarios) también contienen documentos técnicos y organizacionales sobre
Internet, incluyendo las especificaciones técnicas y los documentos de las políticas producidos por el
Grupo de trabajo de ingeniería de Internet (IETF).
Mientras los datos de la aplicación bajan al stack del protocolo y se transmiten por los medios de la red,
varios protocolos le agregan información en cada nivel. Esto comúnmente se conoce como proceso de
encapsulación.
La forma que adopta una sección de datos en cualquier capa se denomina Unidad de datos del
protocolo (PDU). Durante la encapsulación, cada capa encapsula las PDU que recibe de la capa inferior
de acuerdo con el protocolo que se utiliza. En cada etapa del proceso, una PDU tiene un nombre distinto
para reflejar su nuevo aspecto. Aunque no existe una convención universal de nombres para las PDU, en
este curso se denominan de acuerdo con los protocolos de la suite TCP/IP.
Datos: el término general para las PDU que se utilizan en la capa de aplicación.
Bits: una PDU que se utiliza cuando se transmiten físicamente datos a través de un medio.
Modelo OSI
Inicialmente, el modelo OSI fue diseñado por la Organización Internacional para la Estandarización (ISO,
International Organization for Standardization) para proporcionar un marco sobre el cual crear una suite
de protocolos de sistemas abiertos. La visión era que este conjunto de protocolos se utilizara para
desarrollar una red internacional que no dependiera de sistemas propietarios.
Lamentablemente, la velocidad a la que fue adoptada la Internet basada en TCP/IP y la proporción en la
que se expandió ocasionaron que el desarrollo y la aceptación de la suite de protocolos OSI quedaran
atrás. Aunque pocos de los protocolos desarrollados mediante las especificaciones OSI son de uso
masivo en la actualidad, el modelo OSI de siete capas ha realizado aportes importantes para el
desarrollo de otros protocolos y productos para todos los tipos de nuevas redes.
Como modelo de referencia, el modelo OSI proporciona una amplia lista de funciones y servicios que
pueden producirse en cada capa. También describe la interacción de cada capa con las capas
directamente por encima y por debajo de él. Aunque el contenido de este curso se estructurará en torno
al modelo OSI, el eje del análisis serán los protocolos identificados en el stack de protocolos TCP/IP.
Tenga en cuenta que, mientras las capas del modelo TCP/IP se mencionan sólo por el nombre, las siete
capas del modelo OSI se mencionan con frecuencia por número y no por nombre.
Los protocolos que forman la suite de protocolos TCP/IP pueden describirse en términos del modelo de
referencia OSI. En el modelo OSI, la capa Acceso a la red y la capa Aplicación del modelo TCP/IP están
subdivididas para describir funciones discretas que deben producirse en estas capas.
En la capa Acceso a la red, la suite de protocolos TCP/IP no especifica cuáles protocolos utilizar cuando
se transmite por un medio físico; sólo describe la transferencia desde la capa de Internet a los
protocolos de red física. Las Capas OSI 1 y 2 analizan los procedimientos necesarios para tener acceso a
los medios y los medios físicos para enviar datos por una red.
Los paralelos clave entre dos modelos de red se producen en las Capas 3 y 4 del modelo OSI. La Capa 3
del modelo OSI, la capa Red, se utiliza casi universalmente para analizar y documentar el rango de los
procesos que se producen en todas las redes de datos para direccionar y enrutar mensajes a través de
una internetwork. El Protocolo de Internet (IP) es el protocolo de la suite TCP/IP que incluye la
funcionalidad descrita en la Capa 3.
La Capa 4, la capa Transporte del modelo OSI, con frecuencia se utiliza para describir servicios o
funciones generales que administran conversaciones individuales entre los hosts de origen y de destino.
Estas funciones incluyen acuse de recibo, recuperación de errores y secuenciamiento. En esta capa, los
protocolos TCP/IP, Protocolo de control de transmisión (TCP) y Protocolo de datagramas de usuario
(UDP) proporcionan la funcionalidad necesaria.
La capa de aplicación TCP/IP incluye una cantidad de protocolos que propocionan funcionalidad
específica para una variedad de aplicaciones de usuario final. Las Capas 5, 6 y 7 del modelo OSI se
utilizan como referencias para proveedores y programadores de software de aplicación para fabricar
productos que necesitan acceder a las redes para establecer comunicaciones.
Resumen
Las redes de datos son sistemas de dispositivos finales, de dispositivos intermediarios y de medios que
conectan los dispositivos, que proporcionan la plataforma para la red humana.
Estos dispositivos y los servicios que funcionan en ellos pueden interconectarse de manera global y
transparente para el usuario ya que cumplen con las reglas y los protocolos.
El uso de modelos en capas como abstracciones significa que las operaciones de los sistemas de red se
pueden analizar y desarrollar para abastecer las necesidades de los servicios de comunicación futuros.
Los modelos de networking más ampliamente utilizados son OSI y TCP/IP. Asociar los protocolos que
establecen las reglas de las comunicaciones de datos con las distintas capas es de gran utilidad para
determinar qué dispositivos y servicios se aplican en puntos específicos mientras los datos pasan a
través de las LAN y WAN.
A medida que bajan en el stack, los datos se segmentan en partes y se encapsulan con las direcciones y
demás rótulos. El proceso se invierte cuando las partes se desencapsulan y suben al stack del protocolo
de destino.
La aplicación de los modelos permite a las distintas personas, empresas y asociaciones comerciales
analizar las redes actuales y planificar las redes del futuro.
Capa Fisica
Explicar la función de los servicios y protocolos de capa física en la admisión de comunicaciones a través
de las redes de datos.
Describir el propósito de la codificación y señalización de la capa física, según estos métodos se utilizan
en las redes.
Describir la función de las señales que se utilizan para representar bits mientras se transporta una trama
a través de los medios locales.
Identificar las características básicas de los medios de cobre, de fibra y de red inalámbrica.
Describir los usos comunes de los medios de cobre, de fibra y de red inalámbrica.
Introduccion
Los protocolos de la capa superior de OSI preparan los datos desde la red humana para realizar la
transmisión hacia su destino. La capa física controla de qué manera se ubican los datos en los medios de
comunicación.
La función de la capa física de OSI es la de codificar en señales los dígitos binarios que representan las
tramas de la capa de Enlace de datos, además de transmitir y recibir estas señales a través de los medios
físicos (alambres de cobre, fibra óptica o medio inalámbrico) que conectan los dispositivos de la red.
Este capítulo presenta las funciones generales de la capa física al igual que los estándares y protocolos
que administran la transmisión de datos a través de medios locales.
La capa física de OSI proporciona los medios de transporte para los bits que conforman la trama de la
capa de Enlace de datos a través de los medios de red. Esta capa acepta una trama completa desde la
capa de Enlace de datos y lo codifica como una secuencia de señales que se transmiten en los medios
locales. Un dispositivo final o un dispositivo intermedio recibe los bits codificados que componen una
trama.
El envío de tramas a través de medios de transmisión requiere los siguientes elementos de la capa física:
Otra función de la capa física es la de recuperar estas señales individuales desde los medios, restaurarlas
para sus representaciones de bit y enviar los bits hacia la capa de Enlace de datos como una trama
completa.
Los medios no transportan la trama como una única entidad. Los medios transportan señales, una por
vez, para representar los bits que conforman la trama.
Existen tres tipos básicos de medios de red en los cuales se representan los datos:
Cable de cobre
Fibra
Inalámbrico
La presentación de los bits -es decir, el tipo de señal- depende del tipo de medio. Para los medios de
cable de cobre, las señales son patrones de pulsos eléctricos. Para los medios de fibra, las señales son
patrones de luz. Para los medios inalámbricos, las señales son patrones de transmisiones de radio.
Cuando la capa física codifica los bits en señales para un medio específico, también debe distinguir
dónde termina una trama y dónde se inicia la próxima. De lo contrario, los dispositivos de los medios no
reconocerían cuándo se ha recibido exitosamente una trama. En tal caso, el dispositivo de destino sólo
recibiría una secuencia de señales y no sería capaz de reconstruir la trama correctamente. Como se
describió en el capítulo anterior, indicar el comienzo de la trama es a menudo una función de la capa de
Enlace de datos. Sin embargo, en muchas tecnologías, la capa física puede agregar sus propias señales
para indicar el comienzo y el final de la trama.
Para habilitar un dispositivo receptor a fin de reconocer de manera clara el límite de una trama, el
dispositivo transmisor agrega señales para designar el comienzo y el final de una trama. Estas señales
representan patrones específicos de bits que sólo se utilizan para indicar el comienzo y el final de una
trama.
La capa física consiste en un hardware creado por ingenieros en forma de conectores, medios y circuitos
electrónicos. Por lo tanto, es necesario que las principales organizaciones especializadas en ingeniería
eléctrica y en comunicaciones definan los estándares que rigen este hardware.
Por el contrario, las operaciones y los protocolos de las capas superiores de OSI se llevan a cabo
mediante un software y están diseñados por especialistas informáticos e ingenieros de software. Como
vimos en el capítulo anterior, el grupo de trabajo de ingeniería de Internet (IETF) define los servicios y
protocolos del conjunto TCP/IP en las RFC.
Al igual que otras tecnologías asociadas con la capa de Enlace de datos, las tecnologías de la capa física
se definen por diferentes organizaciones, tales como:
Las tecnologías definidas por estas organizaciones incluyen cuatro áreas de estándares de la capa física:
Todos los componentes de hardware, como adaptadores de red (NIC, Tarjeta de interfaz de red),
interfaces y conectores, material y diseño de los cables, se especifican en los estándares asociados con
la capa física.
Señalización
Los elementos físicos son los dispositivos electrónicos de hardware, medios y conectores que transmiten
y transportan las señales para representar los bits.
Codificación
Además de crear códigos para los datos, los métodos de codificación en la capa física también pueden
proporcionar códigos para control, como la identificación del comienzo y el final de una trama. El host
que realiza la transmisión transmitirá el patrón específico de bits o un código para identificar el
comienzo y el final de la trama.
Señalización
La capa física debe generar las señales inalámbricas, ópticas o eléctricas que representan el "1" y el "0"
en los medios. El método de representación de bits se denomina método de señalización. Los
estándares de capa física deben definir qué tipo de señal representa un "1" y un "0". Esto puede ser tan
sencillo como un cambio en el nivel de una señal eléctrica, un impulso óptico o un método de
señalización más complejo.
Eventualmente, todas las comunicaciones desde la red humana se convierten en dígitos binarios que se
transportan individualmente a través de los medios físicos.
Si bien todos los bits que conforman una trama se presentan ante la capa física como una unidad, la
transmisión de la trama a través de los medios se realiza mediante un stream de bits enviados uno por
vez. La capa física representa cada uno de los bits de la trama como una señal. Cada señal ubicada en los
medios cuenta con un plazo específico de tiempo para ocupar los medios. Esto se denomina tiempo de
bit. Las señales se procesan mediante el dispositivo receptor y se vuelven a enviar para representarlas
como bits.
En la capa física del nodo receptor, las señales se vuelven a convertir en bits. Luego se examinan los bits
para los patrones de bits del comienzo y el final de la trama con el objetivo de determinar si se ha
recibido una trama completa. Luego la capa física envía todos los bits de una trama a la capa de Enlace
de datos.
El envío exitoso de bits requiere de algún método de sincronización entre el transmisor y el receptor. Se
deben examinar las señales que representan bits en momentos específicos durante el tiempo de bit,
para determinar correctamente si la señal representa un "1" o un "0". La sincronización se logra
mediante el uso de un reloj. En las LAN, cada extremo de la transmisión mantiene su propio reloj.
Muchos métodos de señalización utilizan transiciones predecibles en la señal para proporcionar
sincronización entre los relojes de los dispositivos receptores y transmisores.
Métodos de señalización
Los bits se representan en el medio al cambiar una o más de las siguientes características de una señal:
Amplitud
Frecuencia
Fase
La naturaleza de las señales reales que representan los bits en los medios dependerá del método de
señalización que se utilice. Algunos métodos pueden utilizar un atributo de señal para representar un
único 0 y utilizar otro atributo de señal para representar un único 1.
Por ejemplo, con el método sin retorno a cero (NRZ), un 0 puede representarse mediante un nivel de
voltaje en los medios durante el tiempo de bit y un 1 puede representarse mediante un voltaje diferente
en los medios durante el tiempo de bit.
También existen métodos de señalización que utilizan transiciones, o la ausencia de las mismas, para
indicar un nivel lógico. Por ejemplo, la codificación Manchester indica un 0 mediante una transición de
alto a bajo voltaje en el medio del tiempo de bit. Para un 1, existe una transición de bajo a alto voltaje
en el medio del tiempo de bit.
El método de señalización utilizado debe ser compatible con un estándar para que el receptor pueda
detectar las señales y decodificarlas. El estándar incluye un acuerdo entre el transmisor y el receptor
sobre cómo representar los 1 y los 0. Si no existe un acuerdo de señalización, es decir, si se utilizan
diferentes estándares en cada extremo de la transmisión, la comunicación a través del medio físico no
se podrá llevar a cabo.
Los métodos de señalización para representar bits en los medios pueden ser complejos. Observaremos
dos de las técnicas más simples para ejemplificar el concepto.
Senalizacion NRZ
Como primer ejemplo, examinaremos un método simple de señalización: sin retorno a cero (NRZ). En
NRZ, el stream de bits se transmite como una secuencia de valores de voltaje, tal como se muestra en la
figura.
Un valor de bajo voltaje representa un 0 lógico y un valor de alto voltaje representa un 1 lógico. El
intervalo de voltaje depende del estándar específico de capa física utilizado.
Este método simple de señalización sólo es adecuado para enlaces de datos de velocidad lenta. La
señalización NRZ no utiliza el ancho de banda de manera eficiente y es susceptible a la interferencia
electromagnética. Además, los límites entre bits individuales pueden perderse al transmitir en forma
consecutiva secuencias largas de 1 ó 0. En dicho caso, no se detectan transiciones de voltaje en los
medios. Por lo tanto, los nodos receptores no tienen una transición para utilizar al resincronizar tiempos
de bit con el nodo transmisor.
Codificación Manchester
En lugar de representar bits como impulsos de valores simples de voltaje, en el esquema de codificación
Manchester, los valores de bit se representan como transiciones de voltaje.
Por ejemplo, una transición desde un voltaje bajo a un voltaje alto representa un valor de bit de 1. Una
transición desde un voltaje alto a un voltaje bajo representa un valor de bit de 0.
Como se muestra en la figura, se debe realizar una transición de voltaje en el medio de cada tiempo de
bit. Esta transición puede utilizarse para asegurar que los tiempos de bit en los nodos receptores se
encuentren sincronizados con el nodo transmisor.
la transición a la mitad del tiempo de bit será en dirección ascendente o descendete para cada unidad
de tiempo en la cual se transmite un bit. Para los valores de bit consecutivos, una transición en el límite
del bit "configura" la transición adecuada de tiempo medio de bit que representa el valor del bit.
A medida que utilizamos mayores velocidades en los medios, existe la posibilidad de que se corrompan
los datos. Al utilizar los grupos de codificación, podemos detectar errores de manera más eficiente.
Además, a medida que aumenta la demanda de velocidades de datos, buscamos formas de representar
más datos a través de los medios mediante la transmisión de menos bits. Los grupos de codificación
proporcionan un método para realizar esta representación de datos.
La capa física del dispositivo de red debe ser capaz de detectar señales legítimas de datos e ignorar
señales aleatorias sin datos que también pueden encontrarse en el medio físico. El stream de señales
que se transmite necesita iniciarse de tal forma que el receptor reconozca el comienzo y el final de la
trama.
Patrones de señales
Una forma de detectar tramas es iniciar cada trama con un patrón de señales que represente los bits
que la capa física reconoce como indicador del comienzo de una trama. Otro patrón de bits señalizará el
final de la trama. Los bits de señales que no se entraman de esta manera son ignorados por la capa física
estándar que se utiliza.
Los bits de datos válidos deben agruparse en una trama. De lo contrario, los bits de datos se recibirán sin
ningún contexto para darle significado a las capas superiores del modelo de red. La capa de Enlace de
datos, la capa física o ambas pueden proporcionar este método de tramado.
La figura describe algunos de los objetivos de la señalización de patrones. Los patrones de señales
pueden indicar: el comienzo, el final o el contenido de una trama. Estos patrones de señales pueden
codificarse en bits. Los bits se interpretan como códigos. Los códigos indican la ubicación donde
comienzan y finalizan las tramas.
Ancho de banda
Rendimiento
Capacidad de transferencia útil
Ancho de banda
La capacidad que posee un medio de transportar datos se describe como el ancho de banda de los datos
sin procesar de los medios. El ancho de banda digital mide la cantidad de información que puede fluir
desde un lugar hacia otro en un período de tiempo determinado. El ancho de banda generalmente se
mide en kilobits por segundo (kbps) o megabits por segundo (Mbps).
El ancho de banda práctico de una red se determina mediante una combinación de factores: las
propiedades de las tecnologías y los medios físicos elegidos para señalizar y detectar señales de red.
Las propiedades de los medios físicos, las tecnologías actuales y las leyes de la física desempeñan una
función al momento de determinar el ancho de banda disponible.
Rendimiento
En una internetwork o una red con múltiples segmentos, el rendimiento no puede ser más rápido que el
enlace más lento de la ruta de origen a destino. Incluso si todos los segmentos o gran parte de ellos
tienen un ancho de banda elevado, sólo se necesita un segmento en la ruta con un rendimiento inferior
para crear un cuello de botella en el rendimiento de toda la red.
Se ha creado una tercera medida para evaluar la transferencia de datos utilizables. Dicha medición se
denomina capacidad de transferencia útil. La capacidad de transferencia útil es la medida de datos
utilizables transferidos durante un período de tiempo determinado. Por lo tanto, es la medida de mayor
interés para los usuarios de la red.
Como se muestra en la figura, la capacidad de transferencia útil mide la transferencia efectiva de los
datos del usuario entre las entidades de la capa de aplicación, por ejemplo entre el proceso de un
servidor Web de origen y un dispositivo con explorador Web de destino.
A diferencia del rendimiento, que mide la transferencia de bits y no la transferencia de datos utilizables,
la capacidad de transferencia útil considera los bits que generan la sobrecarga del protocolo. Esta
capacidad representa el rendimiento sin la sobrecarga de tráfico para establecer sesiones, acuses de
recibo y encapsulaciones.
Por ejemplo, considere dos hosts en una LAN que transfiere un archivo. El ancho de banda de la LAN es
de 100 Mbps. Debido al uso compartido y al encabezado de los medios, el rendimiento entre los equipos
es solamente de 60 mbps. Con una sobrecarga del proceso de encapsulación de stack TCP/IP, la
velocidad real de los datos recibidos por la computadora de destino, es decir la capacidad de
transferencia útil, es sólo de 40 Mbps.
La capa física se ocupa de la señalización y los medios de red. Esta capa produce la representación y
agrupación de bits en voltajes, radiofrecuencia e impulsos de luz. Muchas organizaciones que establecen
estándares han contribuido con la definición de las propiedades mecánicas, eléctricas y físicas de los
medios disponibles para diferentes comunicaciones de datos. Estas especificaciones garantizan que los
cables y conectores funcionen según lo previsto mediante diferentes implementaciones de la capa de
Enlace de datos.
Por ejemplo, los estándares para los medios de cobre se definen según lo siguiente:
Esta sección también describirá algunas de las características importantes de los medios inalámbricos,
ópticos y de cobre comúnmente utilizados.
Medios de Cobre
El medio más utilizado para las comunicaciones de datos es el cableado que utiliza alambres de cobre
para señalizar bits de control y datos entre los dispositivos de red. El cableado utilizado para las
comunicaciones de datos generalmente consiste en una secuencia de alambres individuales de cobre
que forman circuitos que cumplen objetivos específicos de señalización.
Otros tipos de cableado de cobre, conocidos como cables coaxiales, tienen un conductor simple que
circula por el centro del cable envuelto por el otro blindaje, pero está aislado de éste. El tipo de medio
de cobre elegido se especifica mediante el estándar de la capa física necesario para enlazar las capas de
Enlace de datos de dos o más dispositivos de red.
Estos cables pueden utilizarse para conectar los nodos de una LAN a los dispositivos intermedios, como
routers o switches. Los cables también se utilizan para conectar dispositivos WAN a un proveedor de
servicios de datos, como una compañía telefónica. Cada tipo de conexión y sus dispositivos
complementarios incluyen requisitos de cableado estipulados por los estándares de la capa física.
Los medios de red generalmente utilizan conectores y tomas. Estos elementos ofrecen conexión y
desconexión sencillas. Además, puede utilizarse un único tipo de conector físico para diferentes tipos de
conexiones. Por ejemplo, el conector RJ-45 se utiliza ampliamente en las LAN con un tipo de medio y en
algunas WAN con otro tipo.
Los valores de voltaje y sincronización en estas señales son susceptibles a la interferencia o "ruido"
generado fuera del sistema de comunicaciones. Estas señales no deseadas pueden distorsionar y
corromper las señales de datos que se transportan a través de los medios de cobre. Las ondas de radio y
los dispositivos electromagnéticos como luces fluorescentes, motores eléctricos y otros dispositivos
representan una posible fuente de ruido.
Los tipos de cable con blindaje o trenzado de pares de alambre están diseñados para minimizar la
degradación de señales debido al ruido electrónico.
La susceptibilidad de los cables de cobre al ruido electrónico también puede estar limitada por:
Selección del tipo o categoría de cable más adecuado para proteger las señales de datos en un
entorno de networking determinado
Diseño de una infraestructura de cables para evitar las fuentes de interferencia posibles y
conocidas en la estructura del edificio
Utilización de técnicas de cableado que incluyen el manejo y la terminación apropiados de los
cables
Cable UTP
El cableado de par trenzado no blindado (UTP), como se utiliza en las LAN Ethernet, consiste en cuatro
pares de alambres codificados por color que han sido trenzados y cubiertos por un revestimiento de
plástico flexible. Como se muestra en la figura, los códigos de color identifican los pares individuales con
sus alambres y sirven de ayuda para la terminación de cables.
El trenzado cancela las señales no deseadas. Cuando dos alambres de un circuito eléctrico se colocan
uno cerca del otro, los campos electromagnéticos externos crean la misma interferencia en cada
alambre. Los pares se trenzan para mantener los alambres lo más cerca posible. Cuando esta
interferencia común se encuentra en los alambres del par trenzado, el receptor los procesa de la misma
manera pero en forma opuesta. Como resultado, las señales provocadas por la interferencia
electromagnética desde fuentes externas se cancelan de manera efectiva.
Este efecto de cancelación ayuda además a evitar la interferencia proveniente de fuentes internas
denominada crosstalk. Crosstalk es la interferencia ocasionada por campos magnéticos alrededor de los
pares adyacentes de alambres en un cable. Cuando la corriente eléctrica fluye a través de un alambre, se
crea un campo magnético circular a su alrededor. Cuando la corriente fluye en direcciones opuestas en
los dos alambres de un par, los campos magnéticos, como fuerzas equivalentes pero opuestas, producen
un efecto de cancelación mutua. Además, los distintos pares de cables que se trenzan en el cable utilizan
una cantidad diferente de vueltas por metro para ayudar a proteger el cable de la crosstalk entre los
pares.
El cableado UTP que se encuentra comúnmente en el trabajo, las escuelas y los hogares cumple con los
estándares estipulados en conjunto por la Asociación de las Industrias de las Telecomunicaciones (TIA) y
la Asociación de Industrias Electrónicas (EIA). TIA/EIA-568A estipula los estándares comerciales de
cableado para las instalaciones LAN y es el estándar de mayor uso en entornos de cableado LAN.
Algunos de los elementos definidos son:
Tipos de cables
Conectores
El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) define las características eléctricas del cableado
de cobre. IEEE califica el cableado UTP según su rendimiento. Los cables se dividen en categorías según
su capacidad para transportar datos de ancho de banda a velocidades mayores. Por ejemplo, el cable de
Categoría 5 (Cat5) se utiliza comúnmente en las instalaciones de FastEthernet 100BASE-TX. Otras
categorías incluyen el cable de Categoría 5 mejorado (Cat5e) y el de Categoría 6 (Cat6).
Los cables de categorías superiores se diseñan y fabrican para admitir velocidades superiores de
transmisión de datos. A medida que se desarrollan y adoptan nuevas tecnologías Ethernet de
velocidades en gigabits, Cat5e es el tipo de cable mínimamente aceptable en la actualidad. Cat6 es el
tipo de cable recomendado para nuevas instalaciones edilicias.
Algunas personas conectan redes de datos utilizando los sistemas telefónicos existentes. Generalmente,
el cableado de estos sistemas es algún tipo de UTP de categoría inferior en comparación con los
estándares actuales de Cat5+.
La instalación de cableado menos costoso pero de calificación inferior resulta poco útil y limitada. Si se
decide adoptar posteriormente una tecnología LAN más rápida, es posible que se requiera el reemplazo
total de la infraestructura del cableado instalado.
El cableado UTP, con una terminación de conectores RJ-45, es un medio común basado en cobre para
interconectar dispositivos de red, como computadoras, y dispositivos intermedios, como routers y
switches de red.
Según las diferentes situaciones, es posible que los cables UTP necesiten armarse según las diferentes
convenciones para los cableados. Esto significa que los alambres individuales del cable deben conectarse
en diferentes órdenes para distintos grupos de pins en los conectores RJ-45. A continuación se
mencionan los principales tipos de cables que se obtienen al utilizar convenciones específicas de
cableado:
Cruzado de Ethernet
Consola
Es posible que la utilización de un cable de conexión cruzada o de conexión directa en forma incorrecta
entre los dispositivos no dañe los dispositivos pero no se producirá la conectividad y la comunicación
entre los dispositivos. Éste es un error común de laboratorio. Si no se logra la conectividad, la primera
medida para resolver este problema es verificar que las conexiones de los dispositivos sean correctas.
1. Coaxial
El cable coaxial consiste en un conductor de cobre rodeado de una capa de aislante flexible, como se
muestra en la figura.
Sobre este material aislante hay una malla de cobre tejida o una hoja metálica que actúa como segundo
alambre del circuito y como blindaje para el conductor interno. La segunda capa o blindaje reduce la
cantidad de interferencia electromagnética externa. La envoltura del cable recubre el blindaje.
Todos los elementos del cable coaxial rodean el conductor central. Esta construcción se denomina
coaxial (o coax como abreviatura) ya que todos comparten el mismo eje.
El diseño del cable coaxial ha sido adaptado para diferentes necesidades. El coaxial es un tipo de cable
importante que se utiliza en tecnologías de acceso inalámbrico o por cable. Estos cables se utilizan para
colocar antenas en los dispositivos inalámbricos. También transportan energía de radiofrecuencia (RF)
entre las antenas y el equipo de radio.
Es el medio de uso más frecuente para transportar señales elevadas de radiofrecuencia mediante
cableado, especialmente señales de televisión por cable. La televisión por cable tradicional, con
transmisión exclusiva en una dirección, estaba totalmente compuesta por cable coaxial.
Actualmente, los proveedores de servicio de cable están convirtiendo sistemas de una a dos vías para
suministrar conectividad de Internet a sus clientes. Para ofrecer estos servicios, las partes de cable
coaxial y los elementos de amplificación compatibles se reemplazan por cables de fibra óptica
multimodo. Sin embargo, la conexión final hacia la ubicación del cliente y el cableado dentro de sus
instalaciones aún sigue siendo de cable coaxial. Este uso combinado de fibra y coaxial se denomina fibra
coaxial híbrida (HFC).
En el pasado, el cable coaxial se utilizaba para las instalaciones Ethernet. Hoy en día, el UTP (Par
trenzado no blindado) ofrece costos más bajos y un ancho de banda mayor que el coaxial y lo ha
reemplazado como estándar para todas las instalaciones Ethernet.
Existen diferentes tipos de conectores con cable coaxial. La figura muestra algunos de estos tipos de
conectores.
Otro tipo de cableado utilizado en las redes es el par trenzado blindado (STP). Como se muestra en la
figura, STP utiliza dos pares de alambres que se envuelven en una malla de cobre tejida o una hoja
metálica.
El cable STP cubre todo el grupo de alambres dentro del cable al igual que los pares de alambres
individuales. STP ofrece una mejor protección contra el ruido que el cableado UTP pero a un precio
considerablemente superior.
Durante muchos años, STP fue la estructura de cableado de uso específico en instalaciones de red Token
Ring. Con la disminución en el uso de Token Ring, también se redujo la demanda de cableado de par
trenzado blindado. El nuevo estándar de 10 GB para Ethernet incluye una disposición para el uso del
cableado STP. Esta medida vuelve a generar interés en el cableado de par trenzado blindado.
Uno de los posibles problemas de los medios de cobre es que los alambres de cobre pueden conducir la
electricidad de manera no deseada. Debido a este problema, el personal y el equipo podrían estar
sujetos a diferentes peligros por electricidad.
Un dispositivo de red defectuoso podría conducir la corriente al chasis de otros dispositivos de red.
Además, el cableado de red podría representar niveles de voltaje no deseados cuando se utiliza para
conectar dispositivos que incluyen fuentes de energía con diferentes potenciales de conexión a tierra.
Estos casos son posibles cuando el cableado de cobre se utiliza para conectar redes en diferentes
edificios o pisos que utilizan distintas instalaciones de energía. Por último, el cableado de cobre puede
conducir voltajes provocados por descargas eléctricas a los dispositivos de red.
Como consecuencia, las corrientes y los voltajes no deseados pueden generar un daño a los dispositivos
de red y a las computadoras conectadas o bien provocar lesiones al personal. Para prevenir situaciones
potencialmente peligrosas y perjudiciales, es importante instalar correctamente el cableado de cobre
según las especificaciones relevantes y los códigos de edificación.
Peligros de incendio
El revestimiento y aislamiento de los cables pueden ser inflamables o producir emanaciones tóxicas
cuando se calientan o se queman. Las organizaciones o autoridades edilicias pueden estipular
estándares de seguridad relacionados para las instalaciones de hardware y cableado.
Medios de Fibra
Producción y detección de señales ópticas
Los láseres o diodos de emisión de luz (LED) generan impulsos de luz que se utilizan para representar los
datos transmitidos como bits en los medios. Los dispositivos electrónicos semiconductores,
denominados fotodiodos, detectan los impulsos de luz y los convierten en voltajes que pueden
reconstruirse en tramas de datos.
Nota: La luz del láser transmitida a través del cableado de fibra óptica puede dañar el ojo humano. Se
debe tener precaución y evitar mirar dentro del extremo de una fibra óptica activa.
En términos generales, los cables de fibra óptica pueden clasificarse en dos tipos: monomodo y
multimodo.
La fibra óptica monomodo transporta un sólo rayo de luz, generalmente emitido desde un láser. Este
tipo de fibra puede transmitir impulsos ópticos en distancias muy largas, ya que la luz del láser es
unidireccional y viaja a través del centro de la fibra.
La fibra óptica multimodo a menudo utiliza emisores LED que no generan una única ola de luz
coherente. En cambio, la luz de un LED ingresa a la fibra multimodo en diferentes ángulos. Los tendidos
extensos de fibra pueden generar impulsos poco claros al recibirlos en el extremo receptor ya que la luz
que ingresa a la fibra en diferentes ángulos requiere de distintos períodos de tiempo para viajar a través
de la fibra. Este efecto, denominado dispersión modal, limita la longitud de los segmentos de fibra
multimodo.
La fibra multimodo y la fuente de luz del LED que utiliza resultan más económicas que la fibra
monomodo y su tecnología del emisor basada en láser.
Medios Inalambricos
Las tecnologías inalámbricas de comunicación de datos funcionan bien en entornos abiertos. Sin
embargo, existen determinados materiales de construcción utilizados en edificios y estructuras, además
del terreno local, que limitan la cobertura efectiva. El medio inalámbrico también es susceptible a la
interferencia y puede distorsionarse por dispositivos comunes como teléfonos inalámbricos domésticos,
algunos tipos de luces fluorescentes, hornos microondas y otras comunicaciones inalámbricas.
Los dispositivos y usuarios que no están autorizados a ingresar a la red pueden obtener acceso a la
transmisión, ya que la cobertura de la comunicación inalámbrica no requiere el acceso a una conexión
física de los medios. Por lo tanto, la seguridad de la red es el componente principal de la administración
de redes inalámbricas.
IEEE estándar 802.11: Comúnmente denominada Wi-Fi, se trata de una tecnología LAN inalámbrica (Red
de área local inalámbrica, WLAN) que utiliza una contención o sistema no determinista con un proceso
de acceso a los medios de Acceso múltiple con detección de portadora/Prevención de colisiones
(CSMA/CA).
IEEE estándar 802.15: Red de área personal inalámbrica (WPAN) estándar, comúnmente denominada
"Bluetooth", utiliza un proceso de emparejamiento de dispositivos para comunicarse a través de una
distancia de 1 a 100 metros.
IEEE estándar 802.16: Comúnmente conocida como WiMAX (Interoperabilidad mundial para el acceso
por microondas), utiliza una topología punto a multipunto para proporcionar un acceso de ancho de
banda inalámbrico.
LAN inalámbrica
Una implementación común de transmisión inalámbrica de datos permite a los dispositivos conectarse
en forma inalámbrica a través de una LAN. En general, una LAN inalámbrica requiere los siguientes
dispositivos de red:
Punto de acceso inalámbrico (AP): Concentra las señales inalámbricas de los usuarios y se conecta,
generalmente a través de un cable de cobre, a la infraestructura de red existente basada en cobre, como
Ethernet.
A medida que la tecnología ha evolucionado, ha surgido una gran cantidad de estándares WLAN basados
en Ethernet. Se debe tener precaución al comprar dispositivos inalámbricos para garantizar
compatibilidad e interoperabilidad.
IEEE 802.11a: opera en una banda de frecuencia de 5 GHz y ofrece velocidades de hasta 54 Mbps. Posee
un área de cobertura menor y es menos efectivo al penetrar estructuras edilicias ya que opera en
frecuencias superiores. Los dispositivos que operan conforme a este estándar no son interoperables con
los estándares 802.11b y 802.11g descritos a continuación.
IEEE 802.11b: opera en una banda de frecuencia de 2.4 GHz y ofrece velocidades de hasta 11 Mbps. Los
dispositivos que implementan este estándar tienen un mayor alcance y pueden penetrar mejor las
estructuras edilicias que los dispositivos basados en 802.11a.
IEEE 802.11g: opera en una frecuencia de banda de 2.4 GHz y ofrece velocidades de hasta 54 Mbps. Por
lo tanto, los dispositivos que implementan este estándar operan en la misma radiofrecuencia y tienen
un alcance de hasta 802.11b pero con un ancho de banda de 802.11a.
IEEE 802.11n
Los beneficios de las tecnologías inalámbricas de comunicación de datos son evidentes, especialmente
en cuanto al ahorro en el cableado costoso de las instalaciones y en la conveniencia de la movilidad del
host. Sin embargo, los administradores de red necesitan desarrollar y aplicar procesos y políticas de
seguridad rigurosas para proteger las LAN inalámbricas del daño y el acceso no autorizado.
Estos estándares e implementaciones para las LAN inalámbricas se analizarán con más detalle en el
curso Redes inalámbricas y conmutación LAN.
Sistema global para comunicaciones móviles (GSM): Incluye las especificaciones de la capa física que
habilitan la implementación del protocolo Servicio general de radio por paquetes (GPRS) de capa 2 para
proporcionar la transferencia de datos a través de redes de telefonía celular móvil.
Otros tipos de tecnologías inalámbricas, como las comunicaciones satelitales, ofrecen una conectividad
de red de datos para ubicaciones sin contar con otros medios de conexión. Los protocolos, incluso GPRS,
permiten la transferencia de datos entre estaciones terrestres y enlaces satelitales.
En cada uno de los ejemplos anteriores, las especificaciones de la capa física se aplican a áreas que
incluyen: datos para la codificación de señales de radio, frecuencia y poder de transmisión, recepción de
señales y requisitos decodificación y diseño y construcción de la antena.
La Capa 1 del modelo OSI es responsable de la interconexión física de los dispositivos. Los estándares de
esta capa definen las características de la representación en frecuencias eléctricas, ópticas y
radiofrecuencias de los bits que componen las tramas de la capa de Enlace de datos que se transmiten.
Los valores de bit pueden representarse mediante impulsos electrónicos, impulsos de luz o cambios en
las ondas de radio. Los protocolos de la capa física codifican los bits para la transmisión y los decodifican
en el destino.
Los estándares de esta capa también son responsables de describir las características físicas, mecánicas
y eléctricas de los conectores y medios físicos que interconectan los dispositivos de red.
Los diversos protocolos de la capa física y los medios poseen distintas capacidades para transportar
datos. El ancho de banda de datos sin procesar es el límite máximo teórico de transmisión de bits. El
rendimiento y la capacidad de transferencia útil son diferentes medidas de una transferencia de datos
observada durante un período de tiempo determinado.
Capa de Enlace de datos
La capa de enlace de datos proporciona un medio para intercambiar datos a través de medios locales
comunes.
Permite a las capas superiores acceder a los medios usando técnicas, como tramas.
Controla cómo los datos se ubican en los medios y son recibidos desde los medios usando técnicas como
control de acceso a los medios y detección de errores.
Como con cada una de las capas OSI, existen términos específicos para esta capa:
Medios/medio (físico)*: los medios físicos para la transferencia de información entre dos nodos.
La capa de enlace de datos es responsable del intercambio de tramas entre nodos a través de los medios
de una red física.
*Es importante comprender el significado de las palabras medio y medios en el contexto de este
capítulo. Aquí, estas palabras se refieren al material que realmente transporta las señales que
representan los datos transmitidos. Los medios son el cable de cobre, la fibra óptica físicos o el entorno
a través de los cuales la señal viaja. En este capítulo, medios no se refiere a programación de contenido
tal como audio, animación, televisión y video, como se utiliza al referirse a contenidos digitales y
multimedia.
**Una red física es diferente de una red lógica. Las redes lógicas se definen en la capa de red mediante
la configuración del esquema de direccionamiento jerárquico. Las redes físicas representan la
interconexión de dispositivos de medios comunes. Algunas veces, una red física también es llamada
segmento de red.
Como hemos mencionado, un modelo de red permite que cada capa funcione con un mínimo interés
por los papeles de las otras capas. La capa de enlace de datos releva a las capas superiores de la
responsabilidad de colocar datos en la red y de recibir datos de la red. Esta capa proporciona servicios
para soportar los procesos de comunicación para cada medio por el cual se transmitirán los datos.
En cualquier intercambio de paquetes de capas de red, puede haber muchas transiciones de medios y
capa de enlace de datos. En cada salto a lo largo de la ruta, un dispositivo intermediario, generalmente
un router, acepta las tramas de un medio, desencapsula la trama y luego envía el paquete a una nueva
trama apropiada para los medios de tal segmento de la red física.
Imagine una conversación de datos entre dos hosts distantes, como una PC en París con un servidor de
Internet en Japón. Aunque los dos hosts puedan comunicarse con sus Protocolos de capa de red par (por
ejemplo, IP) es probable que numerosos Protocolos de capa de enlace de datos se estén usando para
transportar paquetes IP a través de varios tipos de LAN y WAN. Este intercambio de paquetes entre dos
hosts requiere una diversidad de protocolos que debe existir en la capa de enlace de datos. Cada
transición a un router puede requerir un protocolo de capa de enlace de datos diferente para el
transporte a un medio nuevo.
Observe en la figura que cada enlace entre dispositivos utiliza un medio diferente. Entre la PC y el router
puede haber un enlace Ethernet. Los routers están conectados a través de un enlace satelital y la
computadora portátil está conectada a través de un enlace inalámbrico al último router. En este
ejemplo, como un paquete IP viaja desde la PC hasta la computadora portátil, será encapsulado en la
trama Ethernet, desencapsulado, procesado y luego encapsulado en una nueva trama de enlace de
datos para cruzar el enlace satelital. Para el enlace final, el paquete utilizará una trama de enlace de
datos inalámbrica desde el router a la computadora portátil.
La capa de enlace de datos aísla de manera efectiva los procesos de comunicación en las capas
superiores desde las transiciones de medios que pueden producirse de extremo a extremo. Un paquete
se recibe de un protocolo de capa superior y se dirige a éste, en este caso IPv4 o IPv6, que no necesita
saber qué medio de comunicación utilizará.
Sin la capa de enlace de datos, un protocolo de capa de red, tal como IP, tendría que tomar medidas
para conectarse con todos los tipos de medios que pudieran existir a lo largo de la ruta de envío. Más
aún, IP debería adaptarse cada vez que se desarrolle una nueva tecnología de red o medio. Este proceso
dificultaría la innovación y desarrollo de protocolos y medios de red. Éste es un motivo clave para usar
un método en capas en interconexión de redes.
El rango de los servicios de la capa de enlace de datos tiene que incluir todos los tipos de medios
actualmente utilizados y los métodos para acceder a ellos. Debido a la cantidad de servicios de
comunicación provistos por la capa de enlace de datos, es difícil generalizar su papel y proporcionar
ejemplos de un conjunto de servicios genéricos. Por esa razón, note que cualquier protocolo dado
puede o no puede soportar todos estos Servicios de capa de enlace de datos.
Los protocolos de la Capa 2 especifican la encapsulación de un paquete en una trama y las técnicas para
colocar y sacar el paquete encapsulado de cada medio. La técnica utilizada para colocar y sacar la trama
de los medios se llama método de control de acceso al medio. Para que los datos se transfieran a lo
largo de una cantidad de medios diferentes, puede que se requieran diferentes métodos de control de
acceso al medio durante el curso de una única comunicación.
Cada entorno de red que los paquetes encuentran cuando viajan desde un host local hasta un host
remoto puede tener características diferentes. Por ejemplo: un entorno de red puede componerse de
muchos hosts disputando el acceso a un medio de red de forma ad hoc. Otro entorno puede
componerse de una conexión directa entre sólo dos dispositivos sobre los cuales fluyen los datos de
manera secuencial como bits de manera ordenada.
Los métodos de control de acceso al medio descritos en los protocolos de capa de enlace de datos
definen los procesos por los cuales los dispositivos de red pueden acceder a los medios de red y
transmitir marcos en diferentes entornos de red.
Un nodo que es un dispositivo final utiliza un adaptador para hacer la conexión a la red. Por ejemplo:
para conectarse a una LAN, el dispositivo usaría la tarjeta de interfaz de red (NIC) para conectarse a los
medios LAN. El adaptador administra la trama y el control de acceso a los medios.
En dispositivos intermediarios, tales como un router donde los tipos de medios pueden cambiar para
cada red conectada, se utilizan diferentes interfaces físicas en el router para encapsular el paquete en la
trama apropiada y se utiliza un método de control de acceso a los medios adecuado para acceder a cada
enlace. El router de la figura tiene una interfaz Ethernet para conectarse a la LAN y una interfaz serial
para conectarse a la WAN. A medida que el router procesa tramas, utilizará los servicios de la capa de
enlace de datos para recibir la trama desde un medio, desencapsularlo en la PDU de la Capa 3,
reencapsular la PDU en una trama nueva y colocar la trama en el medio del siguiente enlace de la red.
La descripción de una trama es un elemento clave de cada protocolo de capa de enlace de datos. Los
protocolos de capa de enlace de datos requieren información de control para permitir que los
protocolos funcionen. La información de control puede indicar:
La Capa de enlace de datos prepara un paquete para transportar a través de los medios locales
encapsulándolo con un encabezado y un tráiler para crear una trama.
A diferencia de otros PDU que han sido analizados en este curso, la trama de la capa de enlace de datos
incluye:
Encabezado: contiene información de control como direccionamiento y está ubicado al comienzo del
PDU
Cuando los datos viajan por los medios, se convierten en un stream de bits, o en 1 y 0. Si un nodo está
recibiendo streams de bits largos ¿cómo determina dónde comienza y termina la trama o qué bits
representan una dirección?
El tramado rompe el stream en agrupaciones descifrables, con la información de control insertada en el
encabezado y tráiler como valores en campos diferentes. Este formato brinda a las señales físicas una
estructura que puede ser recibida por los nodos y decodificada en paquetes en el destino.
Campos en el extremo final de la trama desde el tráiler. Estos campos se utilizan para la detección de
errores y marcan el final de la trama.
No todos los protocolos incluyen todos estos campos. Los estándares para un protocolo de enlace de
datos definen el formato real de la trama. Los ejemplos de formatos de tramas se analizarán al final de
este capítulo.
La capa de enlace de datos existe como una capa de conexión entre los procesos de software de las
capas por encima de ella y la capa física debajo de ella. Como tal, prepara los paquetes de capa de red
para la transmisión a través de alguna forma de medio, ya sea cobre, fibra o entornos o medios
inalámbricos.
En muchos casos, la Capa de enlace de datos está incorporada en una entidad física como tarjeta de
interfaz de red (NIC) de Ethernet, que se inserta dentro del bus del sistema de una computadora y hace
la conexión entre los procesos de software que se ejecutan en la computadora y los medios físicos. Sin
embargo, la NIC no es solamente una entidad física. El software asociado con la NIC permite que la NIC
realice sus funciones de intermediara preparando los datos para la transmisión y codificando los datos
como señales que deben enviarse sobre los medios asociados.
Para sostener una gran variedad de funciones de red, la capa de enlace de datos a menudo se divide en
dos subcapas: una subcapa superior y una subcapa inferior.
La subcapa superior define los procesos de software que proveen servicios a los Protocolos de capa de
red.
La subcapa inferior define los procesos de acceso a los medios realizados por el hardware.
Separar la Capa de enlace de datos en subcapas permite a un tipo de trama definida por la capa superior
acceder a diferentes tipos de medios definidos por la capa inferior. Tal es el caso en muchas tecnologías
LAN, incluida Ethernet.
Las dos subcapas comunes de LAN son:
El control de enlace lógico (LLC) coloca información en la trama que identifica qué protocolo de capa de
red está siendo utilizado por la trama. Esta información permite que varios protocolos de la Capa 3, tales
como IP e IPX, utilicen la misma interfaz de red y los mismos medios.
Los protocolos y servicios funcionales en la Capa de enlace de datos son descriptos por organizaciones
de ingeniería (como IEEE, ANSI y ITU) y compañías en comunicaciones. Las organizaciones de ingeniería
establecen estándares y protocolos públicos y abiertos. Las compañías de comunicaciones pueden
establecer y utilizar protocolos propios para aprovechar los nuevos avances en tecnología u
oportunidades de mercado.
La regulación de la colocación de tramas de datos en los medios es conocida como control de acceso al
medio. Entre las diferentes implementaciones de los protocolos de la capa de enlace de datos, hay
diferentes métodos de control de acceso a los medios. Estas técnicas de control de acceso al medio
definen si los nodos comparten los medios y de qué manera lo hacen.
El control de acceso al medio es el equivalente a las reglas de tráfico que regulan la entrada de vehículos
a una autopista. La ausencia de un control de acceso al medio sería el equivalente a vehículos ignorando
el resto del tráfico e ingresando al camino sin tener en cuenta a los otros vehículos.
Sin embargo, no todos los caminos y entradas son iguales. El tráfico puede ingresar a un camino
confluyendo, esperando su turno en una señal de parada o respetando el semáforo. Un conductor sigue
un conjunto de reglas diferente para cada tipo de entrada.
De la misma manera, hay diferentes formas de regular la colocación de tramas en los medios. Los
protocolos en la capa de enlace de datos definen las reglas de acceso a los diferentes medios. Algunos
métodos de control de acceso al medio utilizan procesos altamente controlados para asegurar que las
tramas se coloquen con seguridad en los medios. Estos métodos se definen mediante protocolos
sofisticados, que requieren mecanismos que introducen sobrecargas a la red.
Topología: cómo la conexión entre los nodos se muestra a la capa de enlace de datos.
Control de acceso al medio para medios compartidos
Algunas topologías de red comparten un medio común con varios nodos. En cualquier momento puede
haber una cantidad de dispositivos que intentan enviar y recibir datos utilizando los medios de red. Hay
reglas que rigen cómo esos dispositivos comparten los medios.
Hay dos métodos básicos de control de acceso al medio para medios compartidos:
Basado en la contención: Todos los nodos compiten por el uso del medio
Al utilizar el método de acceso controlado, los dispositivos de red toman turnos, en secuencia, para
acceder al medio. A este método se lo conoce como acceso programado o determinístico. Si un
dispositivo no necesita acceder al medio, la oportunidad de utilizar el medio pasa al siguiente dispositivo
en línea. Cuando un dispositivo coloca una trama en los medios, ningún otro dispositivo puede hacerlo
hasta que la trama haya llegado al destino y haya sido procesada por el destino.
Aunque el acceso controlado está bien ordenado y provee rendimiento predecible, los métodos
determinísticos pueden ser ineficientes porque un dispositivo tiene que esperar su turno antes de poder
utilizar el medio.
Estos métodos por contención, también llamados no deterministas, permiten que cualquier dispositivo
intente acceder al medio siempre que haya datos para enviar. Para evitar caos completo en los medios,
estos métodos usan un proceso de Acceso múltiple por detección de portadora (CSMA) para detectar
primero si los medios están transportando una señal. Si se detecta una señal portadora en el medio
desde otro nodo, quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está
intentando transmitir y nota que el medio está ocupado, esperará e intentará después de un período de
tiempo corto. Si no se detecta una señal portadora, el dispositivo transmite sus datos. Las redes
Ethernet e inalámbricas utilizan control de acceso al medio por contención.
Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo tiempo. A esto se lo
denomina colisión de datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y
deberán enviarse nuevamente.
Los métodos de control de acceso al medio por contención no tienen la sobrecarga de los métodos de
acceso controlado. No se requiere un mecanismo para analizar quién posee el turno para acceder al
medio. Sin embargo, los sistemas por contención no escalan bien bajo un uso intensivo de los medios. A
medida que el uso y el número de nodos aumenta, la probabilidad de acceder a los medios con éxito sin
una colisión disminuye. Además, los mecanismos de recuperación requeridos para corregir errores
debidos a esas colisiones disminuyen aún más el throughput.
CSMA es generalmente implementado junto con un método para resolver la contención del medio. Los
dos métodos comúnmente utilizados son:
CSMA/Detección de colisión
CSMA/Prevención de colisiones
En las topologías punto a punto, los medios interconectan sólo dos nodos. En esta configuración, los
nodos no necesitan compartir los medios con otros hosts ni determinar si una trama está destinada para
ese nodo. Por lo tanto, los protocolos de capa de enlace de datos hacen poco para controlar el acceso a
medios no compartidos.
En conexiones punto a punto, la Capa de enlace de datos tiene que considerar si la comunicación es
half-duplex o full-duplex.
Comunicación half-duplex quiere decir que los dispositivos pueden transmitir y recibir en los medios
pero no pueden hacerlo simultáneamente. Ethernet ha establecido reglas de arbitraje para resolver
conflictos que surgen de instancias donde más de una estación intenta transmitir al mismo tiempo.
En la comunicación full-duplex, los dos dispositivos pueden transmitir y recibir en los medios al mismo
tiempo. La capa de enlace de datos supone que los medios están disponibles para transmitir para ambos
nodos en cualquier momento. Por lo tanto, no hay necesidad de arbitraje de medios en la capa de
enlace de datos.
La topología de una red es la configuración o relación de los dispositivos de red y las interconexiones
entre ellos. Las topologías de red pueden verse en el nivel físico y el nivel lógico.
La topología física es una configuración de nodos y las conexiones físicas entre ellos. La representación
de cómo se usan los medios para interconectar los dispositivos es la topología física. Ésta se abarcará en
capítulos posteriores de este curso.
Una topología lógica es la forma en que una red transfiere tramas de un nodo al siguiente. Esta
configuración consiste en conexiones virtuales entre los nodos de una red independiente de su
distribución física. Los protocolos de capa de enlace de datos definen estas rutas de señales lógicas. La
capa de enlace de datos "ve" la topología lógica de una red al controlar el acceso de datos a los medios.
Es la topología lógica la que influye en el tipo de trama de red y control de acceso a medios utilizados.
La topología física o cableada de una red probablemente no sea la misma que la topología lógica.
La topología lógica de una red está estrechamente relacionada con el mecanismo utilizado para
administrar el acceso a la red. Los métodos de acceso proporcionan los procedimientos para administrar
el acceso a la red para que todas las estaciones tengan acceso. Cuando varias entidades comparten los
mismos medios, deben estar instalados algunos mecanismos para controlar el acceso. Los métodos de
acceso son aplicados a las redes para regular este acceso a los medios. Los métodos de acceso se
analizarán con más detalle más adelante.
Punto a Punto
Multi-Acceso
Anillo
Una topología punto a punto conecta dos nodos directamente entre sí, como se muestra en la figura. En
redes de datos con topologías punto a punto, el protocolo de control de acceso al medio puede ser muy
simple. Todas las tramas en los medios sólo pueden viajar a los dos nodos o desde éstos. El nodo en un
extremo coloca las tramas en los medios y el nodo en el otro extremo las saca de los medios del circuito
punto a punto.
En redes punto a punto, si los datos sólo pueden fluir en una dirección a la vez, está operando como un
enlace half-duplex. Si los datos pueden fluir con éxito a través del enlace desde cada nodo
simultáneamente, es un enlace duplex.
Los Protocolos de capa de enlace podrían proveer procesos más sofisticados de control de acceso a los
medios para las topologías lógicas punto a punto, pero esto agregaría un gasto innecesario al protocolo.
Los nodos de los extremos que se comunican en una red punto a punto pueden estar conectados
físicamente a través de una cantidad de dispositivos intermedios. Sin embargo, el uso de dispositivos
físicos en la red no afecta la topología lógica. Como se muestra en la figura, los nodos de origen y
destino pueden estar conectados indirectamente entre sí a través de una distancia geográfica. En
algunos casos, la conexión lógica entre nodos forma lo que se llama circuito virtual. Un circuito virtual es
una conexión lógica creada dentro de una red entre dos dispositivos de red. Los dos nodos en cada
extremo del circuito virtual intercambian las tramas entre sí. Esto ocurre incluso si las tramas están
dirigidas a través de dispositivos intermediarios. Los circuitos virtuales son construcciones de
comunicación lógicas utilizadas por algunas tecnologías de la Capa 2.
El método de acceso al medio utilizado por el protocolo de enlace de datos se determina por la
topología lógica punto a punto, no la topología física. Esto significa que la conexión lógica de punto a
punto entre dos nodos puede no ser necesariamente entre dos nodos físicos en cada extremo de un
enlace físico único.
Topologia Multiacceso
Una topología lógica multiacceso permite a una cantidad de nodos comunicarse utilizando los mismos
medios compartidos. Los datos desde un sólo nodo pueden colocarse en el medio en cualquier
momento. Todos los nodos ven todas las tramas que están en el medio, pero sólo el nodo al cual la
trama está direccionada procesa los contenidos de la trama.
Hacer que varios nodos compartan el acceso a un medio requiere un método de control de acceso al
medio de enlace de datos que regule la transmisión de datos y, por lo tanto, reduzca las colisiones entre
las diferentes señales.
Los métodos de control de acceso al medio utilizado por las topologías multiacceso son generalmente
CSMA/CD o CSMA/CA. Sin embargo, métodos de paso de token pueden también utilizarse.
Un número de técnicas de control de acceso a los medios está disponible para este tipo de topología
lógica. El protocolo de capa de enlace de datos especifica el método de control de acceso al medio que
proporcionará el balance apropiado entre el control de trama, la protección de trama y la sobrecarga de
red.
Topología Anillo
En una topología lógica de anillo, cada nodo recibe una trama por turno. Si la trama no está direccionada
al nodo, el nodo pasa la trama al nodo siguiente. Esto permite que un anillo utilice una técnica de
control de acceso al medio llamada paso de tokens.
Los nodos en una topología lógica de anillo retiran la trama del anillo, examinan la dirección y la envían
si no está dirigida para ese nodo. En un anillo, todos los nodos alrededor del anillo entre el nodo de
origen y de destino examinan la trama.
Existen múltiples técnicas de control de acceso a los medios que podrían usarse con un anillo lógico,
dependiendo del nivel de control requerido. Por ejemplo: sólo una trama a la vez es generalmente
transportada por el medio. Si no se están transmitiendo datos, se colocará una señal (conocida como
token) en el medio y un nodo sólo puede colocar una trama de datos en el medio cuando tiene el token.
Recuerde que la capa de enlace de datos "ve" una topología lógica de anillo. La topología del cableado
físico real puede ser otra topología.
Recuerde que a pesar de que hay muchos protocolos de capa de enlace de datos diferentes que
describen las tramas de la capa de enlace de datos, cada tipo de trama tiene tres partes básicas:
Encabezado,
datos, y
tráiler.
Todos los protocolos de capa de enlace de datos encapsulan la PDU de la capa 3 dentro del campo de
datos de la trama. Sin embargo, la estructura de la trama y los campos contenidos en el encabezado y
tráiler varían de acuerdo con el protocolo.
El protocolo de capa de enlace de datos describe las características requeridas para el transporte de
paquetes a través de diferentes medios. Estas características del protocolo están integradas en la
encapsulación de la trama. Cuando la trama llega a su destino y el protocolo de capa de enlace de datos
saca la trama del medio, la información de tramado es leída y descartada.
No hay una estructura de trama que cumpla con las necesidades de todos los transportes de datos a
través de todos los tipos de medios. Como se muestra en la figura, según el entorno, la cantidad de
información de control que se necesita en la trama varía para coincidir con los requisitos de control de
acceso al medio de los medios y de la topología lógica.
Ethernet es una familia de tecnologías de interconexión de redes que se define en los estándares 802.2 y
802.3. Los estándares de Ethernet definen los protocolos de la Capa 2 y las tecnologías de la Capa 1.
Ethernet es la tecnología LAN más ampliamente utilizada y soporta anchos de banda de datos de 10,
100, 1000, o 10 000 Mbps.
El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos
para todas las formas de Ethernet. Sin embargo, los métodos para detectar y colocar en los medios
varían con las diferentes implementaciones.
Ethernet proporciona servicio sin conexión y sin reconocimiento sobre un medio compartido utilizando
CSMA/CD como métodos de acceso al medio. El medio compartido requiere que el encabezado del
paquete de Ethernet utilice la dirección de la capa de enlace de datos para identificar los nodos de
origen y destino. Como con la mayoría de los protocolos LAN, esta dirección se llama dirección MAC del
nodo. Una dirección MAC de Ethernet es de 48 bits y generalmente se representa en formato
hexadecimal.
La trama de Ethernet tiene muchos campos, como se muestra en la figura. En la capa de enlace de
datos, la estructura de trama es casi idéntica para todas las velocidades de Ethernet. Sin embargo, en la
capa física, las diferentes versiones de Ethernet colocan los bits sobre el medio de forma diferente.
La capa de enlace de datos OSI prepara los paquetes de capa de red para ser colocados en el medio
físico que transporta los datos.
El acceso a los medios puede ser ordenado y controlado o puede ser por contención. La topología lógica
y el medio físico ayudan a determinar el método de acceso al medio.
La capa de enlace de datos prepara los datos para ser colocados en el medio encapsulando el paquete
de la Capa 3 en una trama.
Una trama tiene un encabezado y una información final que incluye las direcciones del enlace de datos
de origen y de destino, calidad de servicio, tipo de protocolo y valores de secuencia de verificación de
tramas.
Capa de Red
Hemos visto cómo los servicios y aplicaciones de red en un dispositivo final pueden comunicarse con
aplicaciones y servicios que se ejecutan en otro dispositivo final.
A continuación, según se muestra en la figura, consideraremos cómo se transportan estos datos a través
de la red: desde el dispositivo final de origen (o host) hasta el host de destino, de manera eficiente.
Los protocolos de la capa de Red del modelo OSI especifican el direccionamiento y los procesos que
permiten que los datos de la capa de Transporte sean empaquetados y transportados. La encapsulación
de la capa de Red permite que su contenido pase al destino dentro de una red o sobre otra red con una
carga mínima.
Este capítulo aborda la función de la capa de Red, analizando cómo esta capa divide las redes en grupos
de hosts para administrar el flujo de paquetes de datos dentro de una red. Además, consideraremos
cómo se facilita la comunicación entre redes. A esta comunicación entre redes se la denomina
enrutamiento.
Objetivos de aprendizaje
Identificar la función de la capa de Red, ya que describe la comunicación desde un dispositivo final a
otro dispositivo final.
Examinar el protocolo de Capa de red más común, Protocolo de Internet (IP) y sus características de
proveer servicio sin conexión y de máximo esfuerzo.
Comprender los principios utilizados para guiar la división o agrupamiento de dispositivos en redes.
Comprender los fundamentos de rutas, direcciones de próximo salto y envío de paquetes a una red
destino.
Introduccion
Hemos visto cómo los servicios y aplicaciones de red en un dispositivo final pueden comunicarse con
aplicaciones y servicios que se ejecutan en otro dispositivo final.
A continuación, según se muestra en la figura, consideraremos cómo se transportan estos datos a través
de la red: desde el dispositivo final de origen (o host) hasta el host de destino, de manera eficiente.
Los protocolos de la capa de Red del modelo OSI especifican el direccionamiento y los procesos que
permiten que los datos de la capa de Transporte sean empaquetados y transportados. La encapsulación
de la capa de Red permite que su contenido pase al destino dentro de una red o sobre otra red con una
carga mínima.
Este capítulo aborda la función de la capa de Red, analizando cómo esta capa divide las redes en grupos
de hosts para administrar el flujo de paquetes de datos dentro de una red. Además, consideraremos
cómo se facilita la comunicación entre redes. A esta comunicación entre redes se la denomina
enrutamiento.
La Capa de red o Capa 3 de OSI provee servicios para intercambiar secciones de datos individuales a
través de la red entre dispositivos finales identificados. Para realizar este transporte de extremo a
extremo la Capa 3 utiliza cuatro procesos básicos:
direccionamiento,
encapsulamiento,
enrutamiento , y
desencapsulamiento.
Direccionamiento
Primero, la Capa de red debe proveer un mecanismo para direccionar estos dispositivos finales. Si las
secciones individuales de datos deben dirigirse a un dispositivo final, este dispositivo debe tener una
dirección única. En una red IPv4, cuando se agrega esta dirección a un dispositivo, al dispositivo se lo
denomina host.
Encapsulación
Segundo, la capa de Red debe proveer encapsulación. Los dispositivos no deben ser identificados sólo
con una dirección; las secciones individuales, las PDU de la capa de Red, deben, además, contener estas
direcciones. Durante el proceso de encapsulación, la Capa 3 recibe la PDU de la Capa 4 y agrega un
encabezado o etiqueta de Capa 3 para crear la PDU de la Capa 3. Cuando nos referimos a la capa de Red,
denominamos paquete a esta PDU. Cuando se crea un paquete, el encabezado debe contener, entre
otra información, la dirección del host hacia el cual se lo está enviando. A esta dirección se la conoce
como dirección de destino. El encabezado de la Capa 3 también contiene la dirección del host de origen.
A esta dirección se la llama dirección de origen.
Después de que la Capa de red completa el proceso de encapsulación, el paquete es enviado a la capa
de enlace de datos que ha de prepararse para el transporte a través de los medios.
Enrutamiento
Luego, la capa de red debe proveer los servicios para dirigir estos paquetes a su host destino. Los host
de origen y destino no siempre están conectados a la misma red. En realidad, el paquete podría recorrer
muchas redes diferentes. A lo largo de la ruta, cada paquete debe ser guiado a través de la red para que
llegue a su destino final. Los dispositivos intermediarios que conectan las redes son los routers. La
función del router es seleccionar las rutas y dirigir paquetes hacia su destino. A este proceso se lo
conoce como enrutamiento.
Durante el enrutamiento a través de una internetwork, el paquete puede recorrer muchos dispositivos
intermediarios. A cada ruta que toma un paquete para llegar al próximo dispositivo se la llama salto. A
medida que el paquete es enviado, su contenido (la PDU de la Capa de transporte) permanece intacto
hasta que llega al host destino.
Desencapsulamiento
Finalmente, el paquete llega al host destino y es procesado en la Capa 3. El host examina la dirección de
destino para verificar que el paquete fue direccionado a ese dispositivo. Si la dirección es correcta, el
paquete es desencapsulado por la capa de Red y la PDU de la Capa 4 contenida en el paquete pasa hasta
el servicio adecuado en la capa de Transporte.
A diferencia de la capa de Transporte (Capa 4 de OSI), que administra el transporte de datos entre los
procesos que se ejecutan en cada host final, los protocolos especifican la estructura y el procesamiento
del paquete utilizados para llevar los datos desde un host hasta otro host. Operar ignorando los datos de
aplicación llevados en cada paquete permite a la capa de Red llevar paquetes para múltiples tipos de
comunicaciones entre hosts múltiples.
Los protocolos implementados en la capa de Red que llevan datos del usuario son:
AppleTalk, y
Como se muestra en la figura, los servicios de capa de Red implementados por el conjunto de protocolos
TCP/IP son el Protocolo de Internet (IP). La versión 4 de IP (IPv4) es la versión de IP más ampliamente
utilizada. Es el único protocolo de Capa 3 que se utiliza para llevar datos de usuario a través de Internet
y es el tema de CCNA. Por lo tanto, será el ejemplo que usamos para protocolos de capa de Red en este
curso.
La versión 6 de IP (IPv6) está desarrollada y se implementa en algunas áreas. IPv6 operará junto con el
IPv4 y puede reemplazarlo en el futuro. Los servicios provistos por IP, así como también la estructura y
el contenido del encabezado de los paquetes están especificados tanto por el protocolo IPv4 como por
el IPv6. Estos servicios y estructura de paquetes se usan para encapsular datagramas UDP o segmentos
TCP para su recorrido a través de una internetwork.
Las características de cada protocolo son diferentes. Comprender estas características le permitirá
comprender la operación de los servicios descritos por este protocolo.
El Protocolo de Internet fue diseñado como un protocolo con bajo costo. Provee sólo las funciones
necesarias para enviar un paquete desde un origen a un destino a través de un sistema interconectado
de redes. El protocolo no fue diseñado para rastrear ni administrar el flujo de paquetes. Estas funciones
son realizadas por otros protocolos en otras capas.
Máximo esfuerzo (no confiable): No se usan encabezados para garantizar la entrega de paquetes.
Medios independientes: Operan independientemente del medio que lleva los datos.
Un ejemplo de comunicación sin conexión es enviar una carta a alguien sin notificar al receptor con
anticipación. Como se muestra en la figura, el servicio postal aún lleva la carta y la entrega al receptor.
Las comunicaciones de datos sin conexión funcionan en base al mismo principio. Los paquetes IP se
envían sin notificar al host final que están llegando.
Los protocolos orientados a la conexión, como TCP, requieren el intercambio del control de datos para
establecer la conexión así como también los campos adicionales en el encabezado de la PDU. Como IP
trabaja sin conexión, no requiere un intercambio inicial de información de control para establecer una
conexión de extremo a extremo antes de que los paquetes sean enviados, ni requiere campos
adicionales en el encabezado de la PDU para mantener esta conexión. Este proceso reduce en gran
medida la sobrecarga del IP.
Sin embargo, la entrega del paquete sin conexión puede hacer que los paquetes lleguen a destino fuera
de secuencia. Si los paquetes que no funcionan o están perdidos crean problemas para la aplicación que
usa los datos, luego los servicios de las capas superiores tendrán que resolver estas cuestiones.
Como los protocolos en otras capas pueden administrar la confiabilidad, se le permite a IP funcionar con
mucha eficiencia en la capa de Red. Si incluimos la sobrecarga de confiabilidad en el protocolo de la
Capa 3, las comunicaciones que no requieren conexiones o confiabilidad se cargarían con el consumo de
ancho de banda y la demora producida por esta sobrecarga. En el conjunto TCP/IP, la capa de
Transporte puede elegir entre TCP o UDP, basándose en las necesidades de la comunicación. Como con
toda separación de capa provista por los modelos de redes, dejar la decisión de confiabilidad a la capa
de Transporte hace que IP sea más adaptable y se adecue según los diferentes tipos de comunicación.
El encabezado de un paquete IP no incluye los campos requeridos para la entrega confiable de datos. No
hay acuses de recibo de entrega de paquetes. No hay control de error para datos. Tampoco hay forma
de rastrear paquetes; por lo tanto, no existe la posibilidad de retransmitir paquetes.
La capa de Red tampoco está cargada con las características de los medios mediante los cuales se
transportarán los paquetes. IPv4 y IPv6 operan independientemente de los medios que llevan los datos
a capas inferiores del stack del protocolo. Como se muestra en la figura, cualquier paquete IP individual
puede ser comunicado eléctricamente por cable, como señales ópticas por fibra, o sin cables como las
señales de radio.
Enlaces
RFC-791 http://www.ietf.org/rfc/rfc0791.txt
IPv4 encapsula o empaqueta el datagrama o segmento de la capa de Transporte para que la red pueda
entregarlo a su host de destino. Haga clic en los pasos dentro de la figura para ver este proceso. La
encapsulación de IPv4 permanece en su lugar desde el momento en que el paquete deja la capa de Red
del host de origen hasta que llega a la capa de Red del host de destino.
El proceso de encapsular datos por capas permite que los servicios en las diferentes capas se desarrollen
y escalen sin afectar otras capas. Esto significa que los segmentos de la capa de Transporte pueden ser
empaquetados fácilmente por los protocolos de la capa de Red existentes, como IPv4 e IPv6, o por
cualquier protocolo nuevo que pueda desarrollarse en el futuro.
Los routers pueden implementar estos protocolos de la capa de Red para operar concurrentemente en
una red hacia y desde el mismo host u otro. El enrutamiento realizado por estos dispositivos
intermediarios sólo considera el contenido del encabezado de paquetes que encapsula el segmento.
En todos los casos, la porción de datos del paquete, es decir, el PDU de la Capa de transporte
encapsulada, permanece sin cambios durante los procesos de la capa de red.
Como se muestra en la figura, un protocolo IPv4 define muchos campos diferentes en el encabezado del
paquete. Estos campos contienen valores binarios que los servicios IPv4 toman como referencia a
medida que envían paquetes a través de la red.
dirección IP origen,
dirección IP destino,
protocolo, y
Dirección IP destino
El campo de Dirección IP destino contiene un valor binario de 32 bits que representa la dirección de host
de capa de red de destino del paquete.
Dirección IP origen
El campo de Dirección IP origen contiene un valor binario de 32 bits que representa la dirección de host
de capa de red de origen del paquete.
Tiempo de vida
El tiempo de vida (TTL) es un valor binario de 8 bits que indica el tiempo remanente de "vida" del
paquete. El valor TTL disminuye al menos en uno cada vez que el paquete es procesado por un router
(es decir, en cada salto). Cuando el valor se vuelve cero, el router descarta o elimina el paquete y es
eliminado del flujo de datos de la red. Este mecanismo evita que los paquetes que no pueden llegar a
destino sean enviados indefinidamente entre los routers en un routing loop. Si se permitiera que los
loops de enrutamiento continúen, la red se congestionaría con paquetes de datos que nunca llegarían a
destino. Disminuyendo el valor TTL en cada salto se asegura que eventualmente se vuelva cero y que se
descartará el paquete con el campo TTL vencido.
Protocolo
Este valor binario de 8 bits indica el tipo de relleno de carga que el paquete traslada. El campo de
protocolo permite a la Capa de red pasar los datos al protocolo apropiado de la capa superior.
01 ICMP,
06 TCP, y
17 UDP.
Tipo de servicio
El campo de tipo de servicio contiene un valor binario de 8 bits que se usa para determinar la prioridad
de cada paquete. Este valor permite aplicar un mecanismo de Calidad del Servicio (QoS) a paquetes de
alta prioridad, como aquellos que llevan datos de voz en telefonía. El router que procesa los paquetes
puede ser configurado para decidir qué paquete es enviado primero basado en el valor del Tipo de
servicio.
Desplazamiento de fragmentos
Como se mencionó antes, un router puede tener que fragmentar un paquete cuando lo envía desde un
medio a otro medio que tiene una MTU más pequeña. Cuando se produce una fragmentación, el
paquete IPv4 utiliza el campo Desplazamiento de fragmento y el señalizador MF en el encabezado IP
para reconstruir el paquete cuando llega al host destino. El campo de desplazamiento del fragmento
identifica el orden en el cual ubicar el fragmento del paquete en la reconstrucción.
Señalizador de No Fragmentar
El señalizador de No Fragmentar (DF) es un solo bit en el campo del señalizador que indica que no se
permite la fragmentación del paquete. Si se establece el bit del señalizador No Fragmentar, entonces la
fragmentación de este paquete NO está permitida. Si un router necesita fragmentar un paquete para
permitir el paso hacia abajo hasta la capa de Enlace de datos pero pero el bit DF se establece en 1,
entonces el router descartará este paquete.
Enlaces:
Para obtener una lista completa de valores del campo IP de número de protocolo
http://www.iana.org/assignments/protocol-numbers
Una de las principales funciones de la capa de Red es proveer un mecanismo para direccionar hosts. A
medida que crece el número de hosts de la red, se requiere más planificación para administrar y
direccionar la red.
División de redes
En lugar de tener todos los hosts conectados en cualquier parte a una vasta red global, es más práctico y
manejable agrupar los hosts en redes específicas. Históricamente, las redes basadas en IP tienen su raíz
como una red grande. Como esta red creció, también lo hicieron los temas relacionados con su
crecimiento. Para aliviar estos problemas, la red grande fue separada en redes más pequeñas que
fueron interconectadas. Estas redes más pequeñas generalmente se llaman subredes.
Red y subred son términos utilizados indistintamente para referirse a cualquier sistema de red hecho
posible por los protocolos de comunicación comunes compartidos del modelo TCP/IP.
De manera similar, a medida que nuestras redes crecen, pueden volverse demasiado grandes para
manejarlas como una única red. En ese punto, necesitamos dividir nuestra red. Cuando planeamos la
división de la red, necesitamos agrupar aquellos hosts con factores comunes en la misma red.
Como muestra la figura, las redes pueden agruparse basadas en factores que incluyen:
ubicación geográfica,
propósito, y
propiedad.
Los usuarios que tienen tareas similares usan generalmente software común, herramientas comunes y
tienen patrones de tráfico común. A menudo podemos reducir el tráfico requerido por el uso de
software y herramientas específicos, ubicando estos recursos de soporte en la red con los usuarios.
El volumen del tráfico de datos de la red generado por las diferentes aplicaciones puede variar
significativamente. Dividir redes basadas en el uso facilita la ubicación efectiva de los recursos de la red
así como también el acceso autorizado a esos recursos. Los profesionales en redes necesitan equilibrar
el número de hosts en una red con la cantidad de tráfico generado por los usuarios. Por ejemplo,
considere una empresa que emplea diseñadores gráficos que utilizan la red para compartir archivos
multimedia muy grandes. Estos archivos consumen la mayoría del ancho de banda disponible durante
gran parte del día laboral. La empresa también emplea vendedores que se conectan una vez al día para
registrar sus transacciones de ventas, lo que genera un tráfico mínimo de red. En este escenario, el
mejor uso de los recursos de la red sería crear varias redes pequeñas a las cuales unos pocos
diseñadores tengan acceso y una red más grande para que usen todos los vendedores.
Utilizar una base organizacional (compañía, departamento) para crear redes ayuda a controlar el acceso
a los dispositivos y datos como también a la administración de las redes. En una red grande, es mucho
más difícil definir y limitar la responsabilidad para el personal de la red. Dividir hosts en redes separadas
provee un límite de cumplimiento y administración de seguridad de cada red.
Enlaces:
Como se mencionó anteriormente, a medida que las redes crecen, presentan problemas que pueden
reducirse al menos parcialmente dividiendo la red en redes interconectadas más pequeñas.
Degradación de rendimiento
Temas de seguridad
Administración de direcciones
La división de grandes redes para que los host que necesitan comunicarse estén agrupados reduce el
tráfico a través de los internetworks.
Además de las comunicaciones de datos reales entre los hosts, la administración de la red y el tráfico de
control (sobrecarga) también aumentan con la cantidad de hosts. Los factores que contribuyen de
manera significativa con esta sobrecarga pueden ser los broadcasts de redes.
Un broadcast es un mensaje desde un host hacia todos los otros hosts en la red. Comúnmente, un host
inicia un broadcast cuando se requiere información sobre otro host desconocido. Los broadcasts son
una herramienta necesaria y útil utilizada por protocolos para permitir la comunicación de datos en
redes. Sin embargo, grandes cantidades de hosts generan grandes cantidades de broadcasts que
consumen el ancho de banda de la red. Y como los otros hosts tienen que procesar el paquete de
broadcast que reciben, las otras funciones productivas que un host realiza son también interrumpidas o
degradadas.
Los broadcasts están contenidos dentro de una red. En este contexto, a una red también se la conoce
como un dominio de broadcast. La administración del tamaño de los dominios broadcast dividiendo una
red en subredes asegura que el rendimiento de la red y de los host no se degraden hasta niveles
inaceptables.
Coloque el cursor sobre Optimizar agrupamiento en la figura para ver cómo aumenta el rendimiento.
El protocolo de capa de Red más significativo (Capa 3 de OSI) es el Protocolo de Internet (IP). La versión
4 (IPv4) de IP es el protocolo de capa de Red que se utilizará como ejemplo a lo largo de este curso.
El enrutamiento de IP de Capa 3 no garantiza una entrega confiable ni establece una conexión antes de
transmitir los datos. Esta comunicación no confiable sin conexión es rápida y flexible, pero las capas
superiores deben proveer mecanismos para garantizar la entrega de datos si se necesita.
La función de la capa de Red es llevar datos desde un host a otro sin tener en cuenta el tipo de datos.
Los datos están encapsulados en un paquete. El encabezado del paquete tiene campos que incluyen la
dirección de destino del paquete.
El direccionamiento jerárquico de la capa de Red con las porciones de red y host facilita la división de
redes en subredes y permite el uso de la dirección de red para enviar paquetes hacia el destino en lugar
de usar cada dirección de host individual.
Si la dirección de destino no está en la misma red como host de origen, el paquete pasa al gateway por
defecto para ser enviado a la red de destino. El gateway es una interfaz de un router que analiza la
dirección de destino. Si la red de destino tiene una entrada en su tabla de enrutamiento, el router envía
el paquete ya sea a una red conectada o al gateway del siguiente salto. Si no hay entrada de
enrutamiento, el router puede enviar el paquete a una ruta default o descartar el paquete.
Las entradas de la tabla de enrutamiento se pueden configurar manualmente en cada router para
proveer enrutamiento estático, o los routers pueden comunicar la información de la ruta de manera
dinámica entre ellos utilizando un protocolo de enrutamiento.
VLSM
Antes de 1981, las direcciones IP usaban sólo los primeros 8 bits para especificar la porción de red de la
dirección, lo que limitaba Internet, entonces conocida como ARPANET, a 256 redes. Pronto fue evidente
que este espacio de dirección no iba a ser suficiente.
En 1981, la RFC 791 modificó la dirección IPv4 de 32 bits para permitir tres clases o tamaños distintos de
redes: clase A, clase B y clase C. Las direcciones de clase A usaban 8 bits para la porción de red de la
dirección, las de clase B usaban 16 bits y las de clase C usaban 24 bits. Este formato se hizo conocido
como direccionamiento IP con clase.
El desarrollo inicial del direccionamiento con clase resolvió el problema de límite de 256 redes, por un
tiempo. Una década más tarde, fue evidente que el espacio de dirección IP se estaba reduciendo
rápidamente. En respuesta, el Grupo de trabajo de ingeniería de Internet (IETF) introdujo Classless Inter-
domain Routing (CIDR), que utilizaba una máscara de subred de longitud variable (VLSM) para ayudar a
conservar el espacio de dirección.
Con la introducción de CIDR y VLSM, los ISP ahora podían asignar una parte de una red con clase a un
cliente y otra parte diferente a otro cliente. Esta asignación no contigua de direcciones de los ISP era
análoga al desarrollo de los protocolos de enrutamiento sin clase. Para comparar: los protocolos de
enrutamiento con clase siempre resumen el borde con clase y no incluyen la máscara de subred en
actualizaciones de enrutamiento. Los protocolos de enrutamiento sin clase sí incluyen la máscara de
subred en las actualizaciones de enrutamiento y no deben realizar el resumen. Los protocolos de
enrutamiento sin clase que se discuten en este curso son los RIPv2, EIGRP y OSPF.
Con la introducción de VLSM y CIDR, los administradores de red tuvieron que usar habilidades
relacionadas con la división en subredes adicionales. VLSM simplemente subdivide una subred. Las
subredes, a su vez, se pueden dividir en subredes en varios niveles, como aprenderá en este capítulo.
Además de la división en subredes, se hizo posible resumir una gran colección de redes con clase en una
ruta agregada o superred. En este capítulo, también revisará las habilidades relacionadas con el
resumen de ruta.
Cuando en 1969 se puso en funcionamiento ARPANET, nadie imaginó que Internet superaría de tal
forma los humildes comienzos de este proyecto de investigación. En el año 1989, ARPANET se había
transformado en lo que hoy conocemos como Internet. En la siguiente década, la cantidad de hosts de
Internet creció de manera exponencial, de 159 000, en octubre de 1989, a más de 72 millones a fines del
milenio. A partir de enero de 2007, había más de 433 millones de hosts en Internet.
Sin la introducción de la notación CIDR y VLSM en 1993 (RFC 1519), la traducción de direcciones de
nombre (NAT) en 1994 (RFC 1631) y el direccionamiento privado en 1996 (RFC 1918), el espacio de
dirección IPv4 de 32 bits estaría agotado.
Las direcciones de clase A empiezan con un bit 0. Por lo tanto, todas las direcciones de 0.0.0.0 a
127.255.255.255 pertenecen a la clase A. La dirección 0.0.0.0 se reserva para el enrutamiento
predeterminado y la dirección 127.0.0.0 se reserva para la prueba de loopback.
Las direcciones de clase B empiezan con un bit 1 y un bit 0. Por lo tanto, todas las direcciones de
128.0.0.0 a 191.255.255.255 pertenecen a la clase B.
Las direcciones de clase C empiezan con dos bits 1 y un bit 0. Las direcciones de clase C comprenden de
192.0.0.0 a 223.255.255.255.
Las direcciones restantes se reservaron para multicasting y futuros usos. Las direcciones multicast
empiezan con tres bits 1 y un bit 0. Las direcciones multicast se usan para identificar un grupo de hosts
que son parte de un grupo multicast. Esto ayuda a reducir la cantidad de procesamientos de paquetes
que realizan los hosts, especialmente en los medios de broadcast. En este curso, verá que los protocolos
de enrutamiento RIPv2, EIGRP y OSPF usan direcciones multicast designadas.
Las direcciones IP que empiezan con cuatro bits 1 se han reservado para uso futuro.
Enlaces:
Las designaciones de los bits de red y de los bits de host se establecieron en la RFC 790 (publicada con la
RFC 791). Como se muestra en la figura, las redes de clase A usaban el primer octeto para la asignación
de red, que se traducía a una máscara de subred con clase 255.0.0.0. Debido a que sólo se dejaron 7 bits
en el primer octeto (recuerde que el primer bit es siempre 0), esto dio como resultado 2 a la 7ma
potencia o bien 128 redes.
Con 24 bits en la porción de host, cada dirección de clase A tenía capacidad para más de 16 millones de
direcciones host individuales. Antes de CIDR y VLSM, a las organizaciones se les asignaba una dirección
de red con clase completa. ¿Qué iba a hacer una organización con 16 millones de direcciones? Ahora
puede entender el enorme desperdicio de espacio de direcciones que se produjo durante los comienzos
de Internet, cuando las empresas recibían direcciones de clase A. Algunas empresas y organizaciones
gubernamentales aún tienen direcciones de clase A. Por ejemplo, General Electric posee 3.0.0.0/8,
Apple Computer posee 17.0.0.0/8 y el Servicio Postal de los Estados Unidos posee 56.0.0.0/8. (Consulte
el enlace "Internet Protocol v4 Address Space" [Espacio de dirección del Protocolo de Internet v4] que
figura a continuación para ver una lista de todas las asignaciones de IANA.)
La clase B no era mucho mejor. La RFC 790 especificaba los primeros dos octetos como red. Con los
primeros dos bits ya establecidos en 1 y 0, quedaban 14 bits en los primeros dos octetos para asignar
redes, lo que produjo 16 384 direcciones de red de clase B. Debido a que cada dirección de red de clase
B contenía 16 bits en la porción de host, controlaba 65 534 direcciones. (Recuerde que se reservaban 2
direcciones para las direcciones de red y de broadcast). Sólo las organizaciones más grandes y los
gobiernos podían llegar a usar alguna vez las 65 000 direcciones. Como en la clase A, el espacio de
dirección de clase B se desperdiciaba.
Para empeorar la situación, ¡las direcciones de clase C generalmente eran muy pequeñas! La RFC 790
especificaba los primeros tres octetos como red. Con los primeros tres bits establecidos en 1 y 1, y 0,
quedaban 21 bits para asignar redes para más de 2 millones de redes de clase C. Pero cada red de clase
C sólo tenía 8 bits en la porción de host o 254 direcciones host posibles.
Enlaces:
"A Brief History of the Internet" (Historia breve de Internet),
http://www.isoc.org/internet/history/brief.shtml
"Internet Protocol v4 Address Space" (Espacio de dirección del Protocolo de Internet v4),
http://www.iana.org/assignments/ipv4-address-space
En 1992, los miembros del IETF (Grupo de Trabajo de ingeniería de Internet) estaban muy preocupados
por el crecimiento exponencial de Internet y la escalabilidad limitada de las tablas de enrutamiento de
Internet. También estaban preocupados por el eventual agotamiento del espacio de dirección IPv4 de 32
bits. El agotamiento del espacio de dirección de clase B se estaba produciendo tan rápidamente que en
dos años no habría direcciones de clase B disponibles (RFC 1519). Este agotamiento se estaba
produciendo porque cada organización que solicitaba la aprobación de espacio de dirección IP y lo
obtenía, recibía una dirección de red con clase completa; ya fuera una clase B con 65 534 direcciones
host o una clase C con 254 direcciones host. Una de las causas fundamentales de este problema era la
falta de flexibilidad. No existía ninguna clase que sirviera a una organización de tamaño mediano que
necesitara miles de direcciones IP, pero no 65 000.
En 1993, el IETF introdujo el Classless Inter-Domain Routing o CIDR (RFC 1517). CIDR permitía:
Para los routers compatibles con CIDR, la clase de dirección no tiene sentido. A la porción de red de la
dirección la determina la máscara de subred de la red, también conocida como prefijo de red o duración
de prefijo (/8, /19, etc.). La clase de dirección ya no determina la dirección de red.
Los ISP ahora podían asignar espacio de dirección de manera más eficiente usando cualquier duración
de prefijo, comenzando con /8 y más grandes (/8, /9, /10, etc.). Los ISP ya no estaban limitados a una
máscara de subred de /8, /16 o /24 Los bloques de direcciones IP podían asignarse a una red basándose
en los requerimientos del cliente, que podían ir desde unos pocos hosts hasta cientos o miles de hosts.
Resumen
CIDR (Classless Inter-Domain Routing) se introdujo en 1993 y reemplazó la generación anterior de redes
con clase de sintaxis de dirección IP. CIDR permitía un uso más eficiente del espacio de dirección IPv4 y
la agregación de prefijo, conocida como resumen de ruta o creación de superredes.
Con CIDR, las clases de dirección (clase A, clase B, clase C) dejaron de tener sentido. El valor del primer
octeto ya no determinaba la dirección de red, sino que asignaba la duración de prefijo (máscara de
subred). Al espacio de dirección, la cantidad de hosts de una red, ahora podía asignarse un prefijo
específico dependiendo de la cantidad de hosts necesarios para esa red.
CIDR permite la creación de superredes. Una superred es un grupo de direcciones de red principal
resumidas en una única dirección de red con una máscara menor que la de la máscara con clase
predeterminada.
CIDR usa VLSM (Máscaras de subred de longitud variable) para asignar direcciones IP a las subredes
según la necesidad en lugar de la clase. VLSM permite subdividir o dividir aún más las subredes en
subredes aun más pequeñas. Para explicarlo de forma sencilla, VLSM simplemente subdivide una
subred.
Propagar las superredes CIDR o subredes VLSM requiere un protocolo de enrutamiento con clase. Un
protocolo de enrutamiento sin clase incluye la máscara de subred con la dirección de red en sus
actualizaciones de enrutamiento.
Determinar la ruta resumida y la máscara de subred para un grupo de redes puede realizarse en tres
pasos fáciles. El primer paso es enumerar las redes en formato binario. El segundo paso es contar la
cantidad de bits coincidentes que se encuentran más a la izquierda. Esto le dará la duración de prefijo o
la máscara de subred para la ruta resumida. El tercer paso es copiar los bits coincidentes y luego agregar
bits cero al resto de la dirección para determinar la dirección de red resumida. La dirección de red
resumida y la máscara de subred ahora pueden usarse como ruta resumida para este grupo de redes.
Las rutas resumidas pueden ser usadas por las rutas estáticas y los protocolos de enrutamiento sin clase.
Los protocolos de enrutamiento con clase sólo pueden resumir rutas a la máscara con clase
predeterminada.
Los protocolos de enrutamiento con clase y su capacidad para admitir superredes CIDR, VLSM y redes no
contiguas se describe en los siguientes capítulos.
Capa de Transporte
Las redes de datos e Internet brindan soporte a la red humana al proporcionar la comunicación continua
y confiable entre las personas, tanto de manera local como alrededor del mundo. En un único
dispositivo, las personas pueden utilizar varios servicios como e-mails, la Web y la mensajería
instantánea para enviar mensajes o recuperar información. Las aplicaciones como clientes de correo
electrnico, exploradores Web y clientes de mensajería instantánea permiten que las personas utilicen las
computadoras y las redes para enviar mensajes y buscar información.
Los datos de cada una de estas aplicaciones se empaquetan, transportan y entregan al daemon de
servidor o aplicación adecuados en el dispositivo de destino. Los procesos descritos en la capa de
Transporte del modelo OSI aceptan los datos de la capa de Aplicación y los preparan para el
direccionamiento en la capa de Red. La capa de Transporte es responsable de la transferencia de
extremo a extremo general de los datos de aplicación.
En este capítulo, se examina el rol de la capa de Transporte cuando se encapsulan los datos de
aplicación para usarse en la capa de Red. La capa de Transporte incluye también las siguientes
funciones:
permitir múltiples aplicaciones para comunicarse a través de la red al mismo tiempo en un solo
dispositivo,
asegurar que, si se requiere, todos los datos sean recibidos de manera confiable y en orden por la
aplicación correcta, y
Objetivos de aprendizaje
Describir las funciones de dos protocolos TCP/IP de la capa de transporte: TCP y UDP.
La capa de Transporte permite la segmentación de datos y brinda el control necesario para reensamblar
las partes dentro de los distintos streams de comunicación. Las responsabilidades principales que debe
cumplir son:
Cualquier host puede tener múltiples aplicaciones que se están comunicando a través de la red. Cada
una de estas aplicaciones se comunicará con una o más aplicaciones en hosts remotos. Es
responsabilidad de la capa de Transporte mantener los diversos streams de comunicación entre estas
aplicaciones.
Segmentación de datos
Debido a que cada aplicación genera un stream de datos para enviar a una aplicación remota, estos
datos deben prepararse para ser enviados por los medios en partes manejables. Los protocolos de la
capa de Transporte describen los servicios que segmentan estos datos de la capa de Aplicación. Esto
incluye la encapsulación necesaria en cada sección de datos. Cada sección de datos de aplicación
requiere que se agreguen encabezados en la capa de Transporte para indicar la comunicación a la cual
está asociada.
Reensamble de segmentos
En el host de recepción, cada sección de datos puede ser direccionada a la aplicación adecuada.
Además, estas secciones de datos individuales también deben reconstruirse para generar un stream
completo de datos que sea útil para la capa de Aplicación. Los protocolos de la capa de Transporte
describen cómo se utiliza la información de encabezado de dicha capa para reensamblar las secciones
de datos en streams y enviarlas a la capa de Aplicación.
Para poder transferir los streams de datos a las aplicaciones adecuadas, la capa de Transporte debe
identificar la aplicación de destino. Para lograr esto, la capa de Transporte asigna un identificador a la
aplicación. Los protocolos TCP/IP denominan a este identificador número de puerto. A todos los
procesos de software que requieran acceder a la red se les asigna un número de puerto exclusivo en ese
host. Este número de puerto se utiliza en el encabezado de la capa de Transporte para indicar con qué
aplicación está asociada esa sección de datos.
La capa de Transporte es el enlace entre la capa de Aplicación y las capas inferiores, que son
responsables de la transmisión en la red. Esta capa acepta datos de distintas conversaciones y los
transfiere a las capas inferiores como secciones manejables que puedan ser eventualmente
multiplexadas a través del medio.
Las aplicaciones no necesitan conocer los detalles de operación de la red en uso. Las aplicaciones
generan datos que se envían desde una aplicación a otra sin tener en cuenta el tipo de host destino, el
tipo de medios sobre los que los datos deben viajar, el paso tomado por los datos, la congestión en un
enlace o el tamaño de la red.
Además, las capas inferiores no tienen conocimiento de que existen varias aplicaciones que envían
datos en la red. Su responsabilidad es entregar los datos al dispositivo adecuado. Luego la capa de
Transporte ordena esta secciones antes de entregarlas a la aplicación adecuada.
Debido a que las distintas aplicaciones poseen distintos requerimientos, existen varios protocolos de la
capa de Transporte. Para algunas aplicaciones, los segmentos deben llegar en una secuencia específica
de manera que puedan ser procesados en forma exitosa. En algunos casos, todos los datos deben
recibirse para ser utilizados por cualquiera de las mismas. En otros casos, una aplicación puede tolerar
cierta pérdida de datos durante la transmisión a través de la red.
En las redes convergentes actuales, las aplicaciones con distintas necesidades de transporte pueden
comunicarse en la misma red. Los distintos protocolos de la capa de Transporte poseen distintas reglas
que permiten que los dispositivos gestionen los diversos requerimientos de datos.
Algunos protocolos proporcionan sólo las funciones básicas para la entrega eficiente de las secciones de
datos entre las aplicaciones adecuadas. Estos tipos de protocolos son útiles para aquellas aplicaciones
cuyos datos son sensibles a las demoras.
Otros protocolos de la capa de Transporte describen procesos que brindan funciones adicionales, como
asegurar la entrega confiable entre las aplicaciones. Si bien estas funciones adicionales proveen una
comunicación más sólida entre aplicaciones de la capa de Transporte, representan la necesidad de
utilizar recursos adicionales y generan un mayor número de demandas en la red.
Considere una computadora conectada a una red que recibe y envía e-mails y mensajes instantáneos,
explora sitios Web y realiza una llamada telefónica de VoIP de manera simultánea. Cada una de estas
aplicaciones envía y recibe datos en la red al mismo tiempo. Sin embargo, los datos de la llamada
telefónica no se direccionan al explorador Web y el texto de un mensaje instantáneo no aparece en el e-
mail.
Además, los usuarios precisan que un e-mail o una página Web sean recibidos y presentados de manera
completa para que la información sea considerada útil. Las demoras leves se consideran aceptables para
asegurar que se reciba y presente la información completa.
Por el contrario, la pérdida ocasional de pequeñas partes de una conversación telefónica puede
considerarse aceptable. Se puede inferir la parte de audio perdida del contexto de la conversación o se
puede solicitar a la otra persona que repita lo que dijo. Es preferible esto último a las demoras que se
producirían si se solicita a la red que gestione y vuelva a enviar los segmentos perdidos. En este ejemplo,
el usuario, no la red, gestiona el reenvío o reemplazo de información que falta.
Como se explicó en un capítulo anterior, el envío de algunos tipos de datos, un vídeo por ejemplo, a
través de la red como un stream de comunicación completa puede impedir que se produzcan otras
comunicaciones al mismo tiempo. También hace dificultosa la recuperación de errores y la
retransmisión de datos dañados.
La división de los datos en partes pequeñas y el envío de estas partes desde el origen hacia el destino
permiten que se puedan entrelazar (multiplexar) distintas comunicaciones en la misma red.
La segmentación de los datos, que cumple con los protocolos de la capa de Transporte, proporciona los
medios para enviar y recibir datos cuando se ejecutan varias aplicaciones de manera concurrente en una
computadora. Sin segmentación, sólo una aplicación, la corriente de vídeo por ejemplo, podría recibir
datos. No se podrían recibir correos electrónicos, chats ni mensajes instantáneos ni visualizar páginas
Web y ver un vídeo al mismo tiempo.
En la capa de Transporte, cada conjunto de secciones en particular que fluyen desde una aplicación de
origen a una de destino se conoce como conversación.
Para identificar todos los segmentos de datos, la capa de Transporte agrega un encabezado a la sección
que contiene datos binarios. Este encabezado contiene campos de bits. Son los valores de estos campos
los que permiten que los distintos protocolos de la capa de Transporte lleven a cabo las diversas
funciones.
Las funciones principales especificadas por todos los protocolos de la capa de Transporte incluyen:
Segmentación y reensamblaje: La mayoría de las redes poseen una limitación en cuanto a la cantidad de
datos que pueden incluirse en una única PDU (Unidad de datos del protocolo). La capa de Transporte
divide los datos de aplicación en bloques de datos de un tamaño adecuado. En el destino, la capa de
Transporte reensambla los datos antes de enviarlos a la aplicación o servicio de destino.
Además de utilizar la información contenida en los encabezados para las funciones básicas de
segmentación y reensamblaje de datos, algunos protocolos de la capa de Transporte proveen:
entrega confiable,
reconstrucción ordenada de datos, y
La capa de Transporte puede brindar esta orientación a la conexión creando una sesión entre las
aplicaciones. Estas conexiones preparan las aplicaciones para que se comuniquen entre sí antes de que
se transmitan los datos. Dentro de estas sesiones, se pueden gestionar de cerca los datos para la
comunicación entre dos aplicaciones.
Entrega confiable
Por varias razones, es posible que una sección de datos se corrompa o se pierda por completo a medida
que se transmite a través de la red. La capa de Transporte puede asegurar que todas las secciones
lleguen a destino al contar con el dispositivo de origen para volver a transmitir los datos que se hayan
perdido.
Ya que las redes proveen rutas múltiples que pueden poseer distintos tiempos de transmisión, los datos
pueden llegar en el orden incorrecto. Al numerar y secuenciar los segmentos, la capa de Transporte
puede asegurar que los mismos se reensamblen en el orden adecuado.
Los hosts de la red cuentan con recursos limitados, como memoria o ancho de banda. Cuando la capa de
Transporte advierte que estos recursos están sobrecargados, algunos protocolos pueden solicitar que la
aplicación que envía reduzca la velocidad del flujo de datos. Esto se lleva a cabo en la capa de
Transporte regulando la cantidad de datos que el origen transmite como grupo. El control del flujo
puede prevenir la pérdida de segmentos en la red y evitar la necesidad de retransmisión.
Estos servicios se describirán con más detalle a medida que se expliquen los protocolos en este capítulo.
Cabe recordar que la función principal de la capa de Transporte es administrar los datos de aplicación
para las conversaciones entre hosts. Sin embargo, las diferentes aplicaciones tienen diferentes
requerimientos para sus datos y, por lo tanto, se han desarrollado diferentes protocolos de Transporte
para satisfacer estos requerimientos.
Esto requiere que los procesos de la capa de Transporte de origen mantengan el seguimiento de todas
las porciones de datos de cada conversación y retransmitan cualquiera de los datos que no dieron acuse
de recibo por el destino. La capa de Transporte del host de recepción también debe rastrear los datos a
medida que se reciben y reconocer la recepción de los datos.
Estos procesos de confiabilidad generan un uso adicional de los recursos de la red debido al
reconocimiento, rastreo y retransmisión. Para admitir estas operaciones de confiabilidad se
intercambian más datos de control entre los hosts emisores y receptores. Esta información de control
está contenida en el encabezado de la Capa 4.
Esto genera un equilibrio ("trade-off") entre el valor de confiabilidad y la carga que representa para la
red. Los desarrolladores de aplicaciones deben elegir qué tipo de protocolo de transporte es adecuado
en base a los requerimientos de sus aplicaciones. En la capa de Transporte, existen protocolos que
especifican métodos para entrega confiable, garantizada o de máximo esfuerzo. En el contexto de las
redes, la entrega de máximo esfuerzo se considera no confiable, ya que no existe acuse de recibo de que
los datos hayan llegado al destino.
Las aplicaciones, como bases de datos, las páginas Web y los e-mails, requieren que todos los datos
enviados lleguen al destino en su condición original, de manera que los mismos sean útiles. Todos los
datos perdidos pueden corromper una comunicación y dejarla incompleta o ilegible. Por lo tanto, estas
aplicaciones se diseñan para utilizar un protocolo de capa de Transporte que implemente la
confiabilidad. El uso de recursos de red adicionales se considera necesario para estas aplicaciones.
Otras aplicaciones son más tolerantes en lo que se refiere a la pérdida de pequeñas cantidades de datos.
Por ejemplo, si uno o dos segmentos de un stream de vídeo no llegan al destino, sólo generará una
interrupción momentánea en el stream. Esto puede representar distorsión en la imagen pero quizás ni
sea advertido por el usuario.
Imponer el uso de recursos adicionales para asegurar la confiabilidad para esta aplicación puede reducir
la utilidad de la misma. La imagen en un streaming vídeo se degradaría en gran medida si el dispositivo
de destino tuvo que dar cuenta de los datos perdidos y demorar el stream mientras espera que lleguen.
Es conveniente proporcionar la mejor imagen posible al momento en que llegan los segmentos y
renunciar a la confiabilidad. Si por algún motivo se requiere confiabilidad, estas aplicaciones pueden
proveer verificación de errores y solicitudes de retransmisión.
TCP / UDP
Los dos protocolos más comunes de la capa de Transporte del conjunto de protocolos TCP/IP son el
Protocolo de control de transmisión (TCP) y el Protocolos de datagramas de usuario (UDP). Ambos
protocolos gestionan la comunicación de múltiples aplicaciones. Las diferencias entre ellos son las
funciones específicas que cada uno implementa.
UDP es un protocolo simple, sin conexión, descrito en la RFC 768. Cuenta con la ventaja de proveer la
entrega de datos sin utilizar muchos recursos. Las porciones de comunicación en UDP se llaman
datagramas. Este protocolo de la capa de Transporte envía estos datagramas como "mejor intento".
streaming de vídeo, y
Voz sobre IP (VoIP).
TCP es un protocolo orientado a la conexión, descrito en la RFC 793. TCP incurre en el uso adicional de
recursos para agregar funciones. Las funciones adicionales especificadas por TCP están en el mismo
orden de entrega, son de entrega confiable y de control de flujo. Cada segmento de TCP posee 20 bytes
de carga en el encabezado, que encapsulan los datos de la capa de Aplicación, mientras que cada
segmento UDP sólo posee 8 bytes de carga. Ver la figura para obtener una comparación.
exploradores Web,
e-mail, y
transferencia de archivos
Considere el ejemplo anterior de una computadora que recibe y envía e-mails, mensajes instantáneos,
páginas Web y llamadas telefónicas VoIP de manera simultánea.
Los servicios basados en TCP y UDP mantienen un seguimiento de las varias aplicaciones que se
comunican. Para diferenciar los segmentos y datagramas para cada aplicación, tanto TCP como UDP
cuentan con campos de encabezado que pueden identificar de manera exclusiva estas aplicaciones.
Estos identificadores únicos son los números de los puertos.
Cuando una aplicación de cliente envía una solicitud a una aplicación de servidor, el puerto de destino
contenido en el encabezado es el número de puerto que se asigna al daemon de servicio que se ejecuta
en el host remoto. El software del cliente debe conocer el número de puerto asociado con el proceso del
servidor en el host remoto. Este número de puerto de destino se puede configurar, ya sea de forma
predeterminada o manual. Por ejemplo, cuando una aplicación de explorador Web realiza una solicitud
a un servidor Web, el explorador utiliza TCP y el número de puerto 80 a menos que se especifique otro
valor. Esto sucede porque el puerto TCP 80 es el puerto predeterminado asignado a aplicaciones de
servidores Web. Muchas aplicaciones comunes tienen asignados puertos predeterminados.
Por ejemplo, una solicitud de página Web HTTP que se envía a un servidor Web (puerto 80) y que se
ejecuta en un host con una dirección IPv4 de Capa 3 192.168.1.20 será destinada al socket
192.168.1.20:80.
Si el explorador Web que solicita la página Web se ejecuta en el host 192.168.100.48 y el número de
puerto dinámico asignado al explorador Web es 49.152, el socket para la página Web será
192.168.100.48:49152.
La Autoridad de números asignados de Internet (IANA) asigna números de puerto. IANA es un organismo
de estándares responsable de la asignación de varias normas de direccionamiento.
Puertos bien conocidos (Números del 0 al 1 023): estos números se reservan para servicios y
aplicaciones. Por lo general, se utilizan para aplicaciones como HTTP (servidor Web), POP3/SMTP
(servidor de e-mail) y Telnet. Al definir estos puertos conocidos para las aplicaciones del servidor, las
aplicaciones del cliente pueden ser programadas para solicitar una conexión a un puerto específico y su
servicio asociado.
Puertos Registrados (Números 1024 al 49151): estos números de puertos están asignados a procesos o
aplicaciones del usuario. Estos procesos son principalmente aplicaciones individuales que el usuario
elige instalar en lugar de aplicaciones comunes que recibiría un puerto bien conocido. Cuando no se
utilizan para un recurso del servidor, estos puertos también pueden utilizarse si un usuario los
selecciona de manera dinámica como puerto de origen.
Puertos dinámicos o privados (Números del 49 152 al 65 535): también conocidos como puertos
efímeros, suelen asignarse de manera dinámica a aplicaciones de cliente cuando se inicia una conexión.
No es muy común que un cliente se conecte a un servicio utilizando un puerto dinámico o privado
(aunque algunos programas que comparten archivos punto a punto lo hacen).
Algunas aplicaciones pueden utilizar los dos protocolos: TCP y UDP. Por ejemplo, el bajo gasto de UDP
permite que DNS atienda rápidamente varias solicitudes de clientes. Sin embargo, a veces el envío de la
información solicitada puede requerir la confiabilidad de TCP. En este caso, el número 53 de puerto
conocido es utilizado por ambos protocolos con este servicio.
Enlaces
Las conexiones TCP no descritas pueden representar una importante amenaza a la seguridad. Esto se
debe a que pueden indicar que algo o alguien está conectado al host local. Además, las conexiones TCP
innecesarias pueden consumir recursos valiosos del sistema y por lo tanto disminuir el rendimiento del
host. Netstat debe utilizarse para determinar las conexiones abiertas de un host cuando el rendimiento
parece estar comprometido.
Cuando dos hosts se comunican utilizando TCP, se establece una conexión antes de que puedan
intercambiarse los datos. Luego de que se completa la comunicación, se cierran las sesiones y la
conexión finaliza. Los mecanismos de conexión y de sesión habilitan la función de confiabilidad de TCP.
Ver la figura para observar los pasos para establecer y finalizar una conexión TCP.
El host rastrea cada segmento de datos dentro de una sesión e intercambia información sobre los datos
recibidos por cada host a través de la información del encabezado TCP.
Cada conexión representa dos streams de comunicación de una vía o sesiones. Para establecer la
conexión los hosts realizan un intercambio de señales de tres vías. Los bits de control en el encabezado
TCP indican el progreso y estado de la conexión. Enlace de tres vías:
Verifica que el dispositivo de destino tenga un servicio activo y esté aceptando las peticiones en el
número de puerto de destino que el cliente que lo inicia intente usar para la sesión.
Informa al dispositivo de destino que el cliente de origen intenta establecer una sesión de comunicación
en ese número de puerto.
En conexiones TCP, el host que brinde el servicio como cliente inicia la sesión al servidor. Los tres pasos
para el establecimiento de una conexión TCP son:
1. El cliente que inicia la conexión envía un segmento que contiene un valor de secuencia inicial, que
actúa como solicitud para el servidor para comenzar una sesión de comunicación.
2. El servidor responde con un segmento que contiene un valor de reconocimiento igual al valor de
secuencia recibido más 1, además de su propio valor de secuencia de sincronización. El valor es uno
mayor que el número de secuencia porque el ACK es siempre el próximo Byte u Octeto esperado. Este
valor de reconocimiento permite al cliente unir la respuesta al segmento original que fue enviado al
servidor.
3. El cliente que inicia la conexión responde con un valor de reconocimiento igual al valor de secuencia
que recibió más uno. Esto completa el proceso de establecimiento de la conexión.
Para entender el proceso de enlace de tres vías, es importante observar los distintos valores que
intercambian los dos hosts. Dentro del encabezado del segmento TCP, existen seis campos de 1 bit que
contienen información de control utilizada para gestionar los procesos de TCP. Estos campos son los
siguientes:
A estos campos se los denomina señaladores porque el valor de uno de estos campos es sólo de 1 bit,
entonces tiene sólo dos valores: 1 ó 0. Si el valor del bit se establece en 1, indica la información de
control que contiene el segmento.
Si se utiliza un proceso de cuatro pasos, los señalizadores se intercambian para finalizar la conexión TCP.
Cuando los servicios envÃ-an datos utilizando TCP, los segmentos pueden llegar a destinos
desordenados. Para que el receptor comprenda el mensaje original, los datos en estos segmentos se
reensamblan en el orden original. Para lograr esto, se asignan números de secuencia en el encabezado
de cada paquete.
El proceso TCP receptor coloca los datos del segmento en un búfer de recepción. Los segmentos se
colocan en el orden de número de secuencia adecuado y se pasa a la capa de Aplicación cuando son
reensamblados. Todos los segmentos que llegan con números de secuencia no contiguos se mantienen
para su procesamiento posterior. Luego, se procesan los segmentos cuando llegan con los bytes
perdidos.
Una de las funciones de TCP es asegurar que cada segmento llegue a su destino. Los servicios TCP en el
host de destino envÃ-an a la aplicación de origen un acuse de recibo de los datos recibidos.
El número de secuencia y el número de acuse de recibo del encabezado del segmento se utilizan para
confirmar la recepción de los bytes de datos contenidos en los segmentos. El número de secuencia es
el número relativo de bytes que ha sido transmitido en esta sesión más 1 (que es el número del
primer byte de datos en el segmento actual). TCP utiliza el número de reconocimiento en segmentos
que se vuelven a enviar al origen para indicar el próximo byte de esta sesión que espera el receptor.
Esto se llama acuse de recibo de expectativa.
Se le informa al origen que el destino ha recibido todos los bytes de este stream de datos, pero sin
incluir, el byte especificado por el número de acuse de recibo. Se espera que el host emisor envÃ-e un
segmento que utiliza un número de secuencia igual al número de acuse de recibo.
Recuerde que cada conexión se representa en realidad por dos sesiones de una vÃ-a. Los números de
secuencia y de acuse de recibo se intercambian en ambas direcciones.
Cuando el host emisor de la izquierda recibe este acuse de recibo, puede enviar el próximo segmento
que contiene datos para esta sesión a partir del byte 11.
Observando este ejemplo, si el host emisor tuviera que esperar el acuse de recibo por la recepción de
cada uno de los 10 bytes, la red estarÃ-a demasiado sobrecargada. Para reducir la sobrecarga de estos
acuses de recibo, los segmentos de datos múltiples pueden enviarse previamente y ser reconocidos
con un mensaje TCP simple en la dirección opuesta. Este reconocimiento contiene un número de
acuse de recibo en base al número total de bytes recibidos en la sesión.
Por ejemplo, si se comienza con un número de secuencia 2000, si se reciben 10 segmentos de 1000
bytes cada uno, se devolverá al origen un número de reconocimiento igual a 12001.
La cantidad de datos que un origen puede transmitir antes de que un acuse de recibo deba ser recibido
se denomina tamaño de la ventana. El tamaño de la ventana es un campo en el encabezado TCP que
permite la administración de datos perdidos y el control del flujo.
Una de las funciones de TCP es asegurar que cada segmento llegue a su destino. Los servicios TCP en el
host de destino envían a la aplicación de origen un acuse de recibo de los datos recibidos.
El número de secuencia y el número de acuse de recibo del encabezado del segmento se utilizan para
confirmar la recepción de los bytes de datos contenidos en los segmentos. El número de secuencia es el
número relativo de bytes que ha sido transmitido en esta sesión más 1 (que es el número del primer
byte de datos en el segmento actual). TCP utiliza el número de reconocimiento en segmentos que se
vuelven a enviar al origen para indicar el próximo byte de esta sesión que espera el receptor. Esto se
llama acuse de recibo de expectativa.
Se le informa al origen que el destino ha recibido todos los bytes de este stream de datos, pero sin
incluir, el byte especificado por el número de acuse de recibo. Se espera que el host emisor envíe un
segmento que utiliza un número de secuencia igual al número de acuse de recibo.
Recuerde que cada conexión se representa en realidad por dos sesiones de una vía. Los números de
secuencia y de acuse de recibo se intercambian en ambas direcciones.
En el ejemplo de la figura, el host en la izquierda envía datos al host de la derecha. Envía un segmento
que contiene 10 bytes de datos para esta sesión y un número de secuencia igual a 1 en el encabezado.
El host receptor de la derecha recibe el segmento en la Capa 4 y determina que el número de secuencia
es 1 y que posee 10 bytes de datos. Luego el host envía un segmento de vuelta al host de la izquierda
para acusar recibo de estos datos. En este segmento, el host establece el número de acuse de recibo en
11 para indicar que el próximo byte de datos que espera recibir en esta sesión es el byte número 11.
Cuando el host emisor de la izquierda recibe este acuse de recibo, puede enviar el próximo segmento
que contiene datos para esta sesión a partir del byte 11.
Observando este ejemplo, si el host emisor tuviera que esperar el acuse de recibo por la recepción de
cada uno de los 10 bytes, la red estaría demasiado sobrecargada. Para reducir la sobrecarga de estos
acuses de recibo, los segmentos de datos múltiples pueden enviarse previamente y ser reconocidos con
un mensaje TCP simple en la dirección opuesta. Este reconocimiento contiene un número de acuse de
recibo en base al número total de bytes recibidos en la sesión.
Por ejemplo, si se comienza con un número de secuencia 2000, si se reciben 10 segmentos de 1000
bytes cada uno, se devolverá al origen un número de reconocimiento igual a 12001.
La cantidad de datos que un origen puede transmitir antes de que un acuse de recibo deba ser recibido
se denomina tamaño de la ventana. El tamaño de la ventana es un campo en el encabezado TCP que
permite la administración de datos perdidos y el control del flujo.
Por óptimo que sea el diseño de una red, siempre se producirán pérdidas ocasionales de datos. Por lo
tanto, TCP cuenta con métodos para gestionar dichas pérdidas de segmentos. Entre los mismos existe
un mecanismo para retransmitir segmentos con datos no reconocidos.
Un servicio de host de destino que utiliza TCP, por lo general sólo reconoce datos para secuencias de
bytes contiguas. Si uno o más segmentos se pierden, sólo se acusa recibo de los datos de los segmentos
que completan el stream.
Por ejemplo, si se reciben los segmentos con números de secuencia de 1500 a 3000 y de 3400 a 3500, el
número de acuse de recibo será 3001. Esto sucede porque existen segmentos con números de secuencia
de 3001 a 3399 que no se recibieron.
Cuando TCP en el host de origen no recibe un acuse de recibo pasado un tiempo predeterminado,
volverá al último número de acuse de recibo que recibió y retransmitirá los datos a partir de éste.
El proceso de retransmisión no es especificado por RFC, sino que depende de la implementación de TCP
en particular.
Para una implementación de TCP típica, un host puede transmitir un segmento, colocar una copia del
segmento en una cola de retransmisión e iniciar un temporizador. Cuando se recibe el acuse de recibo
de los datos, se elimina el segmento de la cola. Si no se recibe el acuse de recibo antes de que el
temporizador venza, el segmento es retransmitido.
Los hosts actuales también suelen emplear una función opcional llamada Acuses de recibo selectivos. Si
ambos hosts admiten el Acuse de recibo selectivo, es posible que el destino reconozca los bytes de
segmentos discontinuos y el host sólo necesitará retransmitir los datos perdidos.
TCP también provee mecanismos para el control del flujo. El control del flujo contribuye con la
confiabilidad de la transmisión TCP ajustando la tasa efectiva de flujo de datos entre los dos servicios de
la sesión. Cuando el origen advierte que se recibió la cantidad de datos especificados en los segmentos,
puede continuar enviando más datos para esta sesión.
El campo Tamaño de la ventana en el encabezado TCP especifica la cantidad de datos que puede
transmitirse antes de que se reciba el acuse de recibo. El tamaño de la ventana inicial se determina
durante el comienzo de la sesión a través del enlace de tres vías.
Ver la figura para obtener una representación simplificada del tamaño de la ventana y los acuses de
recibo. En este ejemplo, el tamaño de la ventana inicial para una sesión TCP representada se establece
en 3000 bytes. Cuando el emisor transmite 3000 bytes, espera por un acuse de recibo de los mismos
antes de transmitir más segmentos para esta sesión.
Una vez que el emisor ha recibido este acuse de recibo del receptor, ya puede transmitir 3000 bytes
adicionales.
Durante la demora en la recepción del acuse de recibo, el emisor no enviará ningún segmento adicional
para esta sesión. En los períodos en los que la red está congestionada o los recursos del host receptor
están exigidos, la demora puede aumentar. A medida que aumenta esta demora, disminuye la tasa de
transmisión efectiva de los datos para esta sesión. La disminución de la tasa de datos ayuda a reducir la
contención de recursos.
Otra forma de controlar el flujo de datos es utilizar tamaños dinámicos de ventana. Cuando los recursos
de la red son limitados, TCP puede reducir el tamaño de la ventana para lograr que los segmentos
recibidos sean reconocidos con mayor frecuencia. Esto disminuye de manera efectiva la tasa de
transmisión, ya que el origen espera que los datos sean recibidos con más frecuencia.
El host receptor TCP envía el valor del tamaño de la ventana al TCP emisor para indicar el número de
bytes que está preparado para recibir como parte de la sesión. Si el destino necesita disminuir la tasa de
comunicación debido a limitaciones de memoria del búfer, puede enviar un valor de tamaño de la
ventana menor al origen como parte de un acuse de recibo.
Como se muestra en la figura, si un host de recepción sufre una congestión, puede responder al host
emisor con un segmento con el tamaño de la ventana reducido. En este gráfico, se produjo la pérdida de
uno de los segmentos. El receptor cambió el campo ventana en el encabezado de los mensajes
devueltos en esta conversación de 3000 a 1500. Esto hizo que el emisor redujera el tamaño de la
ventana a 1500.
Después de períodos de transmisión sin pérdidas de datos o recursos limitados, el receptor comenzará a
aumentar el tamaño de la ventana. Esto reduce la sobrecarga de la red, ya que se requiere enviar menos
acuses de recibo. El tamaño de la ventana continuará aumentando hasta que haya pérdida de datos, lo
que producirá una disminución del tamaño de la ventana.
Estas disminuciones y aumentos dinámicos del tamaño de la ventana representan un proceso continuo
en TCP, que determina el tamaño de la ventana óptimo para cada sesión TCP. En redes altamente
eficientes, los tamaños de la ventana pueden ser muy grandes porque no se pierden datos. En redes
donde se está estresando la infraestructura subyacente, el tamaño de la ventana probablemente
permanecerá pequeño.
Enlaces
Detalles de las varias características de administración de la congestión de TCP se pueden encontrar en
RFC 2581.
http://www.ietf.org/rfc/rfc2581.txt
UDP es un protocolo simple que provee las funciones básicas de la capa de Transporte. Genera mucho
menos sobrecarga que TCP, ya que no es orientado a la conexión y no cuenta con los sofisticados
mecanismos de retransmisión, secuenciación y control del flujo.
Esto no significa que las aplicaciones que utilizan UDP no sean confiables. Sólo quiere decir que estas
funciones no son contempladas por el protocolo de la capa de Transporte y deben implementarse
aparte, si fuera necesario.
Pese a que es relativamente baja la cantidad total de tráfico UDP que puede encontrarse en una red
típica, entre los protocolos principales de la capa de Aplicación que utilizan UDP se incluyen:
juegos en línea.
Algunas aplicaciones como los juegos en línea o VoIP pueden tolerar algunas pérdida de datos. Si estas
aplicaciones utilizaran TCP, experimentarían largas demoras, ya que TCP detecta la pérdida de datos y
los retransmite. Estas demoras serían más perjudiciales para la aplicación que las pequeñas pérdidas de
datos. Algunas aplicaciones, como DNS, simplemente reintentan enviar la solicitud si no obtienen
respuesta y, por lo tanto, no necesitan TCP para garantizar la entrega del mensaje.
Reensamblaje UDP
Ya que UDP opera sin conexión, las sesiones no se establecen antes de que se lleve a cabo la
comunicación, como sucede con TCP. Se dice que UDP es basado en transacciones. En otras palabras,
cuando una aplicación posee datos para enviar, simplemente los envía.
Muchas aplicaciones que utilizan UDP envían pequeñas cantidades de datos que pueden ocupar un
segmento. Sin embargo, algunas aplicaciones enviarán cantidades mayores de datos que deben dividirse
en varios segmentos. La PDU de UDP se conoce como datagrama, pese a que los términos segmento y
datagrama a veces se utilizan de manera indistinta para describir una PDU de la capa de Transporte.
Cuando se envían múltiples datagramas a un destino, los mismos pueden tomar rutas distintas y llegar
en el orden incorrecto. UDP no mantiene un seguimiento de los números de secuencia de la manera en
que lo hace TCP. UDP no puede reordenar los datagramas en el orden de la transmisión. Ver la figura.
Por lo tanto, UDP simplemente reensambla los datos en el orden en que se recibieron y los envía a la
aplicación. Si la secuencia de los datos es importante para la aplicación, la misma deberá identificar la
secuencia adecuada de datos y determinar cómo procesarlos.
Al igual que las aplicaciones basadas en TCP, a las aplicaciones de servidor basadas en UDP se les asigna
números de puerto bien conocidos o registrados. Cuando se ejecutan estas aplicaciones o procesos,
aceptan los datos que coincidan con el número de puerto asignado. Cuando UDP recibe un datagrama
destinado a uno de esos puertos, envía los datos de aplicación a la aplicación adecuada en base a su
número de puerto.
Resumen
uso de la información del encabezado para recomponer los segmentos en datos de aplicación, y
TCP no envía datos a la red hasta que advierte que el destino está preparado para recibirlos. Luego TCP
administra el flujo de datos y reenvía todos los segmentos de datos de los que recibió acuse a medida
que se reciben en el destino. TCP utiliza mecanismos de enlace, temporizadores y acuses de recibo y uso
dinámico de ventanas para llevar a cabo estas funciones confiables. Sin embargo, esta confiabilidad
representa cierta sobrecarga en la red en términos de encabezados de segmentos más grandes y mayor
tráfico de red entre el origen y el destino que administra el transporte de datos.
Si los datos de aplicación necesitan ser entregados a la red de manera rápida o si el ancho de banda de
la red no admite la sobrecarga de mensajes de control que se intercambian entre los sistemas de origen
y destino, UDP será el protocolo de la capa de Transporte preferido por el desarrollador. Esto es así
porque UDP no rastrea ni reconoce la recepción de datagramas en el destino, sólo envía los datagramas
recibidos a la capa de Aplicación a medida que llegan, y no reenvía datagramas perdidos. Sin embargo,
esto no significa necesariamente que la comunicación no es confiable; puede haber mecanismos en los
protocolos y servicios de la capa de Aplicación que procesan datagramas perdidos o demorados si la
aplicación cuenta con esos requerimientos.
Codificación y conversión de datos de la capa de aplicación para garantizar que los datos del dispositivo
de origen puedan ser interpretados por la aplicación adecuada en el dispositivo de destino.
Compresión de los datos de forma que puedan ser descomprimidos por el dispositivo de destino.
Encriptación de los datos para transmisión y descifre de los datos cuando se reciben en el destino.
Dentro de los formatos de imagen gráfica más conocidos encontramos Formato de intercambio gráfico
(GIF), Grupo de expertos en fotografía (JPEG) y Formato de archivo de imagen etiquetada (TIFF). GIF y
JPEG son estándares de compresión y codificación para imágenes gráficas, y TIFF es una formato de
codificación estándar para imágenes gráficas.
--
El nivel de presentación o capa de presentación es el sexto nivel del Modelo OSI que se encarga de la
representación de la información, de manera que aunque distintos equipos puedan tener diferentes
representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-
endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que cómo se establece la
misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que
distintas computadoras pueden tener diferentes formas de manejarlas.
Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de
datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta
interpretación de los mismos.
Esta capa también permite cifrar los datos y comprimirlos. Actúa como traductor.
La Capa 6, o capa de presentación, cumple tres funciones principales. Estas funciones son las siguientes:
Formateo de datos
Cifrado de datos
Compresión de datos
Para comprender cómo funciona el formateo de datos, tenemos dos sistemas diferentes. El primer
sistema utiliza el Código ampliado de caracteres decimal codificados en binario (EBCDIC) para
representar los caracteres en la pantalla. El segundo sistema utiliza el Código americano normalizado
para el intercambio de la información (ASCII) para la misma función. La Capa 6 opera como traductor
entre estos dos tipos diferentes de códigos.
El cifrado de los datos protege la información durante la transmisión. Las transacciones financieras
utilizan el cifrado para proteger la información confidencial que se envía a través de Internet. Se utiliza
una clave de cifrado para cifrar los datos en el lugar origen y luego descifrarlos en el lugar destino.
La compresión funciona mediante el uso de algoritmos para reducir el tamaño de los archivos. El
algoritmo busca patrones de bits repetidos en el archivo y entonces los reemplaza con un token. Un
token es un patrón de bit mucho más corto que representa el patrón largo. Una analogía sencilla puede
ser el nombre Rafa (el apodo), el token, para referirse a alguien cuyo nombre completo sea Rafael.
Capa de Sesion
Como lo indica el nombre de la capa de Sesión, las funciones en esta capa crean y mantienen diálogos
entre las aplicaciones de origen y destino. La capa de sesión maneja el intercambio de información para
iniciar los diálogos y mantenerlos activos, y para reiniciar sesiones que se interrumpieron o desactivaron
durante un periodo de tiempo prolongado.
La mayoría de las aplicaciones, como los exploradores Web o los clientes de correo electrónico,
incorporan la funcionalidad de las capas 5, 6 y 7 del modelo OSI.
--
El nivel de sesión o capa de sesión es el quinto nivel del modelo OSI , que proporciona los mecanismos
para controlar el diálogo entre las aplicaciones de los sistemas finales. En muchos casos, los servicios de
la capa de sesión son parcialmente, o incluso, totalmente prescindibles. No obstante en algunas
aplicaciones su utilización es ineludible.
La capa de sesión proporciona los siguientes servicios:
Control del Diálogo: Éste puede ser simultáneo en los dos sentidos (full-duplex) o alternado en
ambos sentidos (half-duplex).
Agrupamiento: El flujo de datos se puede marcar para definir grupos de datos.
Recuperación: La capa de sesión puede proporcionar un procedimiento de puntos de
comprobación, de forma que si ocurre algún tipo de fallo entre puntos de comprobación, la entidad
de sesión puede retransmitir todos los datos desde el último punto de comprobación y no desde el
principio.
Todas estas capacidades se podrían incorporar en las aplicaciones de la capa 7. Sin embargo ya que
todas estas herramientas para el control del diálogo son ampliamente aplicables, parece lógico
organizarlas en una capa separada, denominada capa de sesión.1
La capa de sesión surge como una forma de organizar y sincronizar el diálogo y controlar el intercambio
de datos.
La capa de sesión permite a los usuarios de máquinas diferentes establecer sesiones entre ellos. Una
sesión permite el transporte ordinario de datos, como lo hace la capa de transporte, pero también
proporciona servicios mejorados que son útiles en algunas aplicaciones. Se podría usar una sesión para
que el usuario se conecte a un sistema remoto de tiempo compartido o para transferir un archivo entre
dos máquinas.
Protocolos de la capa de sesión
ASP (Protocolo de sesión APPLE TALK): Fue desarrollado por Apple Computers, ofrece
establecimiento de la sesión, mantenimiento y desmontaje, así como la secuencia petición. ASP es
un protocolo intermedio que se basa en la parte superior de AppleTalk Protocolo de transacciones
(ATP), que es el original fiable de nivel de sesión protocolo de AppleTalk. Proporciona servicios
básicos para solicitar respuestas a las arbitrarias órdenes y llevar a cabo fuera de la banda de
consultas de estado. También permite al servidor enviar mensajes asíncronos de atención al
cliente.
Capa de Aplicacion
Introduccion y Objetivos
La mayoría de nosotros experimentamos Internet a través de World Wide Web, servicios de e-mail y
programas para compartir archivos. Éstas y muchas otras aplicaciones proporcionan la interfaz humana
a la red subyacente, lo que nos permite enviar y recibir información con relativa facilidad.
Generalmente, las aplicaciones que utilizamos son intuitivas; es decir, podemos acceder a ellas y usarlas
sin saber cómo funcionan. Sin embargo, para los profesionales de redes es importante conocer cómo
una aplicación puede formatear, transmitir e interpretar mensajes que se envían y reciben a través de la
red.
La visualización de los mecanismos que permiten la comunicación a través de la red se hace más sencilla
si utilizamos el marco en capas del modelo Interconexión de sistema abierto (OSI). En este capítulo,
enfatizaremos el rol de una capa, la capa de Aplicación, y sus componentes: aplicaciones, servicios y
protocolos. Exploraremos cómo esos tres elementos hacen posible la comunicación sólida a través de la
red de información.
Describir cómo las funciones de las tres capas superiores del modelo OSI proporcionan servicios de red a
las aplicaciones de usuario final.
Describir cómo los protocolos de la capa de aplicación TCP/IP proporcionan los servicios especificados
por las capas superiores del modelo OSI.
Definir cómo la gente utiliza la capa de aplicación para comunicarse a través de la red de información.
Describir la función de las conocidas aplicaciones TCP/IP, como la World Wide Web y el correo
electrónico, y sus servicios relacionados (HTTP, DNS, SMB, DHCP, SMTP/POP y Telnet).
Describir los procesos para compartir archivos que utilizan las aplicaciones entre pares y el protocolo
Gnutella.
Explicar cómo los protocolos garantizan que los servicios que se ejecutan en una clase de dispositivo
puedan enviar y recibir datos desde y hacia muchos dispositivos de red diferentes.
Utilizar herramientas de análisis de red para examinar y explicar cómo funcionan las aplicaciones
comunes de usuarios.
En este modelo, la información se pasa de una capa a otra, comenzando en la capa de Aplicación en el
host de transmisión, siguiendo por la jerarquía hacia la capa Física, pasando por el canal de
comunicaciones al host de destino, donde la información vuelve a la jerarquía y termina en la capa de
Aplicación. La figura ilustra los pasos en este proceso.
La capa de Aplicación, Capa siete, es la capa superior de los modelos OSI y TCP/IP. Es la capa que
proporciona la interfaz entre las aplicaciones que utilizamos para comunicarnos y la red subyacente en
la cual se transmiten los mensajes. Los protocolos de capa de aplicación se utilizan para intercambiar los
datos entre los programas que se ejecutan en los hosts de origen y destino. Existen muchos protocolos
de capa de aplicación y siempre se desarrollan protocolos nuevos.
Aunque el grupo de protocolos TCP/IP se desarrolló antes de la definición del modelo OSI, la
funcionalidad de los protocolos de capa de aplicación de TCP/IP se adaptan aproximadamente a la
estructura de las tres capas superiores del modelo OSI: Capas de Aplicación, Presentación y Sesión.
Los protocolos de capa de aplicación de TCP/IP más conocidos son aquellos que proporcionan
intercambio de la información del usuario. Estos protocolos especifican la información de control y
formato necesaria para muchas de las funciones de comunicación de Internet más comunes. Algunos de
los protocolos TCP/IP son:
El protocolo Servicio de nombres de dominio (DNS, Domain Name Service) se utiliza para resolver
nombres de Internet en direcciones IP.
El protocolo de transferencia de hipertexto (HTTP, Hypertext Transfer Protocol) se utiliza para transferir
archivos que forman las páginas Web de la World Wide Web.
Telnet, un protocolo de emulación de terminal, se utiliza para proporcionar acceso remoto a servidores
y a dispositivos de red.
El Protocolo de transferencia de archivos (FTP, File Transfer Protocol) se utiliza para la tansferencia
interactiva de archivos entre sistemas.
Los protocolos de la suite TCP/IP generalmente son definidos por Solicitudes de comentarios (RFCS). El
Grupo de trabajo de ingeniería de Internet mantiene las RFCS como los estándares para el conjunto
TCP/IP.
Las funciones asociadas con los protocolos de capa de Aplicación permiten a la red humana comunicarse
con la red de datos subyacente. Cuando abrimos un explorador Web o una ventana de mensajería
instantánea, se inicia una aplicación, y el programa se coloca en la memoria del dispositivo donde se
ejecuta. Cada programa ejecutable cargado a un dispositivo se denomina proceso.
Dentro de la capa de Aplicación, existen dos formas de procesos o programas de software que
proporcionan acceso a la red: aplicaciones y servicios.
Aplicaciones son los programas de software que utiliza la gente para comunicarse a través de la red.
Algunas aplicaciones de usuario final son compatibles con la red, lo cual significa que implementan los
protocolos de la capa de aplicación y pueden comunicarse directamente con las capas inferiores del
stack de protocolos. Los clientes de correo electrónico y los exploradores Web son ejemplos de este tipo
de aplicaciones.
Otros programas pueden necesitar la ayuda de los servicios de la capa de Aplicación para utilizar los
recursos de la red, como transferencia de archivos o cola de impresión en red. Aunque son
transparentes para el usuario, estos servicios son los programas que se comunican con la red y preparan
los datos para la transferencia. Diferentes tipos de datos, ya sea texto, gráfico o vídeo, requieren de
diversos servicios de red para asegurarse de que estén bien preparados para procesar las funciones de
las capas inferiores del modelo OSI.
Cada servicio de red o aplicación utiliza protocolos que definen los estándares y formatos de datos a
utilizarse. Sin protocolos, la red de datos no tendría una manera común de formatear y direccionar los
datos. Para comprender la función de los distintos servicios de red, es necesario familiarizarse con los
protocolos subyacentes que rigen su operación.
Como se mencionó anteriormente, la capa de Aplicación utiliza los protocolos implementados dentro de
las aplicaciones y servicios. Mientras que las aplicaciones proporcionan a las personas una forma de
crear mensajes y los servicios de la capa de aplicación establecen una interfaz con la red, los protocolos
proporcionan las reglas y los formatos que regulan el tratamiento de los datos. Un único programa
ejecutable debe utilizar los tres componentes e inclusive el mismo nombre. Por ejemplo: cuando
analizamos "Telnet" nos podemos referir a la aplicación, el servicio o el protocolo.
En el modelo OSI, se considera que las aplicaciones que interactúan directamente con las personas se
encuentran en la parte superior del stack, al igual que las personas. Al igual que todas las personas
dentro del modelo OSI, la capa de Aplicación se basa en la funciones de las capas inferiores para
completar el proceso de comunicación. Dentro de la capa de aplicación, los protocolos especifican qué
mensajes se intercambian entre los host de origen y de destino, la sintaxis de los comandos de control,
el tipo y formato de los datos que se transmiten y los métodos adecuados para notificación y
recuperación de errores.
Los protocolos de la capa de aplicación son utilizados tanto por los dispositivos de origen como de
destino durante una sesión de comunicación. Para que las comunicaciones sean exitosas, deben
coincidir los protocolos de capa de aplicación implementados en el host de origen y destino.
Los protocolos establecen reglas consistentes para intercambiar datos entre las aplicaciones y los
servicios cargados en los dispositivos participantes. Los protocolos especifican cómo se estructuran los
datos dentro de los mensajes y los tipos de mensajes que se envían entre origen y destino. Estos
mensajes pueden ser solicitudes de servicios, acuses de recibo, mensajes de datos, mensajes de estado
o mensajes de error. Los protocolos también definen los diálogos de mensajes, asegurando que un
mensaje enviado encuentre la respuesta esperada y se invoquen los servicios correspondientes cuando
se realiza la transferencia de datos.
Muchos y diversos tipos de aplicaciones se comunican a través de las redes de datos. Por lo tanto, los
servicios de la capa de Aplicación deben implementar protocolos múltiples para proporcionar la
variedad deseada de experiencias de comunicación. Cada protocolo tiene un fin específico y contiene las
características requeridas para cumplir con dicho propósito. Deben seguirse los detalles del protocolo
correspondiente a cada capa, así las funciones en una capa se comunican correctamente con los
servicios en la capa inferior.
Las aplicaciones y los servicios también pueden utilizar protocolos múltiples durante el curso de una
comunicación simple. Un protocolo puede especificar cómo se establece la conexión de redes y otro
describir el proceso para la transferencia de datos cuando el mensaje se pasa a la siguiente capa inferior.
Cuando la gente intenta acceder a información en sus dispositivos, ya sean éstos una computadora
personal o portátil, un PDA, teléfono celular o cualquier otro dispositivo conectado a la red, los datos
pueden no estar físicamente almacenados en sus dispositivos. Si así fuere, se debe solicitar al dispositivo
que contiene los datos, permiso para acceder a esa información.
Modelo cliente-servidor
Un ejemplo de una red cliente/servidor es un entorno corporativo donde los empleados utilizan un
servidor de e-mail de la empresa para enviar, recibir y almacenar e-mails. El cliente de correo electrnico
en la computadora de un empleado emite una solicitud al servidor de e-mail para un mensaje no leído.
El servidor responde enviando el e-mail solicitado al cliente.
Aunque los datos generalmente se describen como un flujo del servidor al cliente, algunos datos
siempre fluyen del cliente al servidor. El flujo de datos puede ser el mismo en ambas direcciones o
inclusive ser mayor en la dirección que va del cliente al servidor. Por ejemplo, un cliente puede transferir
un archivo al servidor con fines de almacenamiento. La transferencia de datos de un cliente a un
servidor se conoce como subida y la de los datos de un servidor a un cliente, descarga.
Servidores
En un contexto general de redes, cualquier dispositivo que responde a una solicitud de aplicaciones de
cliente funciona como un servidor. Un servidor generalmente es una computadora que contiene
información para ser compartida con muchos sistemas de cliente. Por ejemplo, páginas Web,
documentos, bases de datos, imágenes, archivos de audio y vídeo pueden almacenarse en un servidor y
enviarse a los clientes que lo solicitan. En otros casos, como una impresora de red, el servidor de
impresión envía las solicitudes de impresión del cliente a la impresora específica.
Diferentes tipos de aplicaciones del servidor tienen diferentes requerimientos para el acceso de clientes.
Algunos servidores pueden requerir de autenticación de la información de cuenta del usuario para
verificar si el usuario tiene permiso para acceder a los datos solicitados o para utilizar una operación en
particular. Dichos servidores deben contar con una lista central de cuentas de usuarios y autorizaciones,
o permisos (para operaciones y acceso a datos) otorgados a cada usuario. Cuando se utiliza un cliente
FTP, por ejemplo, si usted solicita subir datos al servidor FTP, se le puede dar permiso para escribir su
carpeta personal pero no para leer otros archivos del sitio.
En una red cliente-servidor, el servidor ejecuta un servicio o proceso, a veces denominado daemon de
servidor. Al igual que la mayoría de los servicios, los daemons generalmente se ejecutan en segundo
plano y no se encuentran bajo control directo del usuario. Los daemons se describen como servidores
que "escuchan" una solicitud del cliente, porque están programados para responder cada vez que el
servidor recibe una solicitud para el servicio proporcionado por el daemon. Cuando un daemon
"escucha" una solicitud de un cliente, intercambia los mensajes adecuados con el cliente, según lo
requerido por su protocolo, y procede a enviar los datos solicitados al cliente en el formato
correspondiente.
Una única aplicación puede emplear diferentes servicios de la capa de Aplicación, así lo que aparece
para el usuario como una solicitud para una página Web puede, de hecho, ascender a docenas de
solicitudes individuales. Y, para cada solicitud, pueden ejecutarse múltiples procesos. Por ejemplo, un
cliente puede necesitar de diversos procesos individuales para formular sólo una solicitud al servidor.
Además, los servidores generalmente tienen múltiples clientes que solicitan información al mismo
tiempo. Por ejemplo, un servidor Telnet puede tener varios clientes que requieren conectarse a él. Estas
solicitudes individuales del cliente pueden manejarse en forma simultánea y separada para que la red
sea exitosa. Los servicios y procesos de capa de Aplicación dependen del soporte de las funciones de la
capa inferior para administrar en forma exitosa las múltiples conversaciones.
En una red entre pares, dos o más computadoras están conectadas a través de una red y pueden
compartir recursos (por ejemplo, impresora y archivos) sin tener un servidor dedicado. Cada dispositivo
final conectado (conocido como punto) puede funcionar como un servidor o como un cliente. Una
computadora puede asumir el rol de servidor para una transacción mientras funciona en forma
simultánea como cliente para otra transacción. Los roles del cliente y el servidor se configuran según las
solicitudes.
Un ejemplo de una red entre pares es una simple red doméstica con dos computadoras conectadas que
comparten una impresora. Cada persona puede configurar su computadora para compartir archivos,
habilitar juegos en red o compartir una conexión de Internet. Otro ejemplo sobre la funcionalidad de la
red punto a punto son dos computadoras conectadas a una gran red que utilizan aplicaciones de
software para compartir recursos entre ellas a través de la red.
A diferencia del modelo cliente/servidor, que utiliza servidores dedicados, las redes punto a punto
descentralizan los recursos en una red. En lugar de ubicar información para compartir en los servidores
dedicados, la información puede colocarse en cualquier parte de un dispositivo conectado. La mayoría
de los sistemas operativos actuales admiten compartir archivos e impresoras sin requerir software del
servidor adicional. Debido a que las redes punto a punto generalmente no utilizan cuentas de usuarios
centralizadas, permisos ni monitores, es difícil implementar las políticas de acceso y seguridad en las
redes que contienen mayor cantidad de computadoras. Se deben establecer cuentas de usuario y
derechos de acceso en forma individual para cada dispositivo.
Una aplicación punto a punto (P2P), a diferencia de una red punto a punto, permite a un dispositivo
actuar como cliente o como servidor dentro de la misma comunicación. En este modelo, cada cliente es
un servidor y cada servidor es un cliente. Ambos pueden iniciar una comunicación y se consideran
iguales en el proceso de comunicación. Sin embargo, las aplicaciones punto a punto requieren que cada
dispositivo final proporcione una interfaz de usuario y ejecute un servicio en segundo plano. Cuando
inicia una aplicación punto a punto específica, ésta invoca la interfaz de usuario requerida y los servicios
en segundo plano. Luego, los dispositivos pueden comunicarse directamente.
Algunas aplicaciones P2P utilizan un sistema híbrido donde se descentraliza el acceso a los recursos pero
los índices que apuntan a las ubicaciones de los recursos están almacenados en un directorio
centralizado. En un sistema híbrido, cada punto accede a un servidor de índice para alcanzar la ubicación
de un recurso almacenado en otro punto. El servidor de índice también puede ayudar a conectar dos
puntos, pero una vez conectados, la comunicación se lleva a cabo entre los dos puntos, sin
comunicación adicional al servidor de índice.
Las aplicaciones punto a punto pueden utilizarse en las redes punto a punto, en redes cliente/servidor y
en Internet.
Protocolos y puertos
Ahora que comprendemos mejor cómo las aplicaciones proporcionan una interfaz para el usuario y
acceso a la red, veremos algunos protocolos específicos que se utilizan comúnmente.
Como veremos más adelante, la capa de transporte utiliza un esquema de direccionamiento que se
llama número de puerto. Los números de puerto identifican las aplicaciones y los servicios de la capa de
Aplicación que son los datos de origen y destino. Los programas del servidor generalmente utilizan
números de puerto predefinidos comúnmente conocidos por los clientes. Mientras examinamos los
diferentes servicios y protocolos de la capa de Aplicación de TCP/IP, nos referiremos a los números de
puerto TCP y UDP normalmente asociados con estos servicios. Algunos de estos servicios son:
Protocolo de transferencia de hipertexto (HTTP, Hypertext Transfer Protocol): puerto TCP 80.
Protocolo simple de transferencia de correo (SMTP, Simple Mail Transfer Protocol): puerto TCP 25.
Protocolo de transferencia de archivos (FTP, File Transfer Protocol): puertos TCP 20 y 21.
DNS
En redes de datos, los dispositivos son rotulados con direcciones IP numéricas para que puedan
participar en el envío y recepción de mensajes a través de la red. Sin embargo, la mayoría de las
personas pasan mucho tiempo tratando de recordar estas direcciones numéricas. Por lo tanto, los
nombres de dominio fueron creados para convertir las direcciones numéricas en nombres simples y
reconocibles.
En Internet, esos nombres de dominio, como www.cisco.com, son mucho más sencillos de recordar que
198.133.219.25, que es la dirección numérica real para este servidor. Además, si Cisco decide cambiar la
dirección numérica, para el usuario es transparente ya que el nombre de dominio seguirá siendo
www.cisco.com. La nueva dirección simplemente estará enlazada con el nombre de dominio existente y
la conectividad se mantendrá. Cuando las redes eran pequeñas, resultaba fácil mantener la asignación
entre los nombres de dominios y las direcciones que representaban. Sin embargo, a medida que las
redes y el número de dispositivos comenzó a crecer, el sistema manual dejó de ser práctico.
El Sistema de nombres de dominio (DNS) se creó para que el nombre del dominio busque soluciones
para estas redes. DNS utiliza un conjunto distribuido de servidores para resolver los nombres asociados
con estas direcciones numéricas.
El protocolo DNS define un servicio automatizado que coincide con nombres de recursos que tienen la
dirección de red numérica solicitada. Incluye las consultas sobre formato, las respuestas y los formatos
de datos. Las comunicaciones del protocolo DNS utilizan un formato simple llamado mensaje. Este
formato de mensaje se utiliza para todos los tipos de solicitudes de clientes y respuestas del servidor,
mensajes de error y para la transferencia de información de registro de recursos entre servidores.
DNS es un servicio cliente/servidor; sin embargo, difiere de los otros servicios cliente/servidor que
estamos examinando. Mientras otros servicios utilizan un cliente que es una aplicación (como un
explorador Web o un cliente de correo electrnico), el cliente DNS ejecuta un servicio por sí mismo. El
cliente DNS, a veces denominado resolución DNS, admite resolución de nombre para otras aplicaciones
de red y servicios que lo necesiten.
Al configurar un dispositivo de red, generalmente proporcionamos una o más direcciones del servidor
DNS que el cliente DNS puede utilizar para la resolución de nombres. En general, el proveedor de
servicios de Internet provee las direcciones para utilizar con los servidores DNS. Cuando una aplicación
de usuario solicita conectarse con un dispositivo remoto por nombre, el cliente DNS solicitante envía
una petición a uno de esos servidores de nombre para resolver el nombre en una dirección numérica.
Los sistemas operativos informáticos también tienen una utilidad denominada nslookup que permite al
usuario consultar manualmente los servidores de nombre para resolver un determinado nombre de
host. Esta utilidad también puede utilizarse para resolver los problemas de resolución de nombres y
verificar el estado actual de los servidores de nombres.
En la figura, cuando se ejecuta nslookup, se muestra el servidor DNS por defecto configurado para su
host. En este ejemplo, el servidor DNS es dns-sjk.cisco.com que tiene una dirección de 171.68.226.120.
Luego podemos escribir el nombre de un host o dominio para el cual deseamos obtener la dirección. En
la primer consulta de la figura, se hace una consulta para www.cisco.com. El servidor de nombre que
responde proporciona la dirección 198.133.219.25.
Las consultas mostradas en la figura son sólo pruebas simples. La utilidad nslookup tiene muchas
opciones disponibles para lograr una extensa verificación y prueba del proceso DNS.
Cuando se escribe una dirección Web (o URL) en un explorador de Internet, el explorador establece una
conexión con el servicio Web del servidor que utiliza el proocolo HTTP. URL (o Localizador uniforme de
recursos) y URI (Identificador uniforme de recursos) son los nombres que la mayoría de las personas
asocian con las direcciones Web.
Los exploradores Web son las aplicaciones de cliente que utilizan nuestras computadoras para
conectarse con la World Wide Web y para acceder a los recursos almacenados en un servidor Web. Al
igual que con la mayoría de los procesos de servidores, el servidor Web funciona como un servicio
básico y genera diferentes tipos de archivos disponibles.
Para acceder al contenido, los clientes Web realizan conexiones al servidor y solicitan los recursos
deseados. El servidor responde con los recursos y, una vez recibidos, el explorador interpreta los datos y
los presenta al usuario.
Los exploradores pueden interpretar y presentar muchos tipos de datos, como texto sin formato o
Lenguaje de marcado de hipertexto (HTML, el lenguaje que se utiliza para construir una página Web).
Otros tipos de datos, sin embargo, requieren de otro servicio o programa. Generalmente se los conoce
como plug-ins o complementos. Para ayudar al explorador a determinar qué tipo de archivo está
recibiendo, el servidor especifica qué clase de datos contiene el archivo.
Para comprender mejor cómo interactúan el explorador Web con el cliente Web, podemos analizar
cómo se abre una página Web en un explorador. Para este ejemplo, utilizaremos la dirección URL:
http://www.cisco.com/web-server.htm.
El explorador luego verifica con un servidor de nombres para convertir a www.cisco.com en una
dirección numérica que utilizará para conectarse con el servidor. Al utilizar los requerimientos del
protocolo HTTP, el explorador envía una solicitud GET al servidor y pide el archivo web-server.htm. El
servidor, a su vez, envía al explorador el código HTML de esta página Web. Finalmente, el explorador
descifra el código HTML y da formato a la página para la ventana del explorador.
El protocolo de transferencia de hipertexto (HTTP), uno de los protocolos del grupo TCP/IP, se desarrolló
en sus comienzos para publicar y recuperar las páginas HTML, y en la actualidad se utiliza para sistemas
de información distribuidos y de colaboración. HTTP se utiliza a través de la World Wide Web para
transferencia de datos y es uno de los protocolos de aplicación más utilizados.
GET es una solicitud de datos del cliente. Un explorador Web envía el mensaje GET para solicitar las
páginas desde un servidor Web. Como se muestra en la figura, una vez que el servidor recibe la solicitud
GET , responde con una línea de estado, como HTTP/1.1 200 OK, y un mensaje solo, cuyo cuerpo puede
ser el archivo solicitado, un mensaje de error o alguna otra información.
POST y PUT se utilizan para enviar mensajes que cargan los datos al servidor Web. Por ejemplo, cuando
el usuario ingresa datos en un formulario incorporado en una página Web, POST incluye los datos en el
mensaje enviado al servidor.
FTP
Para transferir los archivos en forma exitosa, el FTP requiere de dos conexiones entre cliente y servidor:
una para comandos y respuestas, otra para la transferencia real de archivos.
El cliente establece la primera conexión con el servidor en TCP puerto 21. Esta conexión se utiliza para
controlar el tráfico, que consiste en comandos del cliente y respuestas del servidor.
El cliente establece la segunda conexión con el servidor en TCP puerto 20. Esta conexión es para la
transferencia real de archivos y se crea cada vez que se transfiere un archivo.
La transferencia de archivos puede producirse en ambas direcciones. El cliente puede descargar (bajar)
un archivo desde el servidor o el cliente puede cargar (subir) un archivo en el servidor.
DHCP
El servicio Protocolo de configuración dinámica de host (DHCP) permite a los dispositivos de una red
obtener direcciones IP y demás información de un servidor DHCP. Este servicio automatiza la asignación
de direcciones IP, máscaras de subred, gateways y otros parámetros de redes IP.
DHCP permite a un host obtener una dirección IP en forma dinámica cuando se conecta a la red. Se
realiza el contacto con el servidor de DHCP y se solicita una dirección. El servidor DHCP elije una
dirección de un rango configurado de direcciones denominado "pool" y se la asigna ("alquila") al host
por un período establecido.
En redes locales más grandes o donde cambia frecuentemente la población usuaria, es preferible el
DHCP. Los nuevos usuarios llegan con computadoras portátiles y necesitan una conexión. Otros tienen
nuevas estaciones de trabajo que necesitan conexión. En lugar de tener direcciones IP asignadas por el
administrador de red en cada estación de trabajo, resulta más eficiente tener direcciones IP asignadas
en forma automática utilizando un DHCP.
Las direcciones de DHCP distribuidas no se asignan a los hosts en forma permanente, sólo se alquilan
durante un período de tiempo. Si el host se apaga o se desconecta de la red, la dirección regresa al pool
para volver a utilizarse. Esto es muy útil para los usuarios móviles que entran y salen de la red. Los
usuarios pueden moverse libremente desde una ubicación a otra y volver a establecer las conexiones de
red. El host puede obtener una dirección IP una vez que se realice la conexión del hardware, ya sea
mediante una LAN inalámbrica o conectada por cable.
DHCP hace posible el acceso a Internet utilizando zonas activas inalámbricas en aeropuertos o cafés.
Una vez que ingresa al área, el cliente de DHCP de la computadora portátil contacta al servidor de DHCP
mediante una conexión inalámbrica. El servidor de DHCP asigna una dirección IP a la computadora
portátil.
Como muestra la figura, diferentes tipos de dispositivos pueden ser servidores de DHCP al ejecutar el
software de servicio de DHCP. El servidor de DHCP en la mayoría de las redes medianas y grandes está
generalmente ubicado en un servidor dedicado local basado en PC.
Con las redes domésticas, el servidor de DHCP se ubica en el ISP y un host de la red doméstica recibe la
configuración IP directamente desde el ISP.
DHCP puede representar un riesgo a la seguridad porque cualquier dispositivo conectado a la red puede
recibir una dirección. Este riesgo hace de la seguridad física un factor importante a la hora de
determinar si se utiliza direccionamiento manual o dinámico.
Los direccionamientos dinámico y estático tienen su lugar en los diseños de red. Muchas redes utilizan
tanto el direccionamiento estático como el DHCP. DHCP se utiliza para hosts de propósitos generales,
como los dispositivos de usuario final, y las direcciones fijas se utilizan para dispositivos de red como
gateways, switches, servidores e impresoras.
Resumen
La capa de Aplicación es responsable del acceso directo a los procesos subyacentes que administran y
envían la comunicación a la red humana. Esta capa sirve como origen y destino de las comunicaciones
en las redes de datos.
Las aplicaciones, los protocolos y servicios de la capa de Aplicación permiten a los usuarios interactuar
con la red de datos de manera significativa y efectiva.
Las aplicaciones son programas informáticos con los cuales el usuario interactúa e inicia el proceso de
transferencia de datos a pedido del usuario.
Los servicios son programas básicos que proporcionan la conexión entre la capa de Aplicación y las capas
inferiores del modelo de networking.
Los protocolos proporcionan una estructura de reglas y procesos acordados previamente que asegura
que los servicios que funcionan en un dispositivo en particular puedan enviar y recibir datos desde una
variedad de dispositivos de red diferentes.
El envío de datos en la red puede ser solicitado desde un servidor por un cliente o entre dispositivos que
funcionan en una conexión punto a punto, donde la relación cliente/servidor se establece según qué
dispositivo es el origen y cuál el destino en ese tiempo. Los mensajes se intercambian entre los servicios
de la capa de Aplicación en cada dispositivo final según las especificaciones del protocolo para
establecer y utilizar estas relaciones.
Los protocolos como HTTP, por ejemplo, admiten el envío de páginas Web a dispositivos finales. Los
protocolos SMTP/POP admiten el envío y la recepción de correos electrónicos. SMB permite a los
usuarios compartir archivos. DNS resuelve los nombres utilizados para referirse a los recursos de red en
direcciones numéricas utilizables por la red.