[go: up one dir, main page]

0% encontró este documento útil (0 votos)
145 vistas15 páginas

Modelo OSI: Capas y Funciones Detalladas

El modelo OSI divide el proceso de comunicación en redes en 7 capas, cada una con una función específica como el control de la comunicación o la traducción de paquetes a señales físicas. Esto permite el desarrollo independiente de estándares para cada capa y facilita la introducción de nuevas normas sin afectar a otras capas. Las capas superiores se enfocan en aplicaciones, mientras que las inferiores se centran en el transporte de datos a través del hardware.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
145 vistas15 páginas

Modelo OSI: Capas y Funciones Detalladas

El modelo OSI divide el proceso de comunicación en redes en 7 capas, cada una con una función específica como el control de la comunicación o la traducción de paquetes a señales físicas. Esto permite el desarrollo independiente de estándares para cada capa y facilita la introducción de nuevas normas sin afectar a otras capas. Las capas superiores se enfocan en aplicaciones, mientras que las inferiores se centran en el transporte de datos a través del hardware.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 15

El Open Systems Interconnection Model, conocido como modelo OSI por su abreviatura, fue creado

por la Organización Internacional para la Normalización (ISO) como modelo de referencia para el
establecimiento de una comunicación abierta en diferentes sistemas técnicos. Para entenderlo mejor,
es necesario transportarse a los comienzos de la era de Internet: a finales de los años 70, los
fabricantes más destacados en el ámbito de la tecnología de redes tuvieron que hacer frente al
problema de que sus dispositivos solo podían conectarse a través de una arquitectura de red privada.
Por aquel entonces, ningún fabricante pensó en crear componentes de software y hardware siguiendo
las especificaciones de otros fabricantes y un proyecto como Internet presupone, en cambio, ciertos
estándares que posibiliten la comunicación.
El protocolo OSI es el resultado de un intento de normalización y, como marco conceptual, ofrece los
fundamentos de diseño para normas de comunicación no privativas. Para ello, el modelo de ISO OSI
divide el complicado proceso de la comunicación en red en siete estadios denominados capas OSI.
En la comunicación entre dos sistemas, cada capa requiere que se lleven a cabo ciertas tareas
específicas. Entre ellas se encuentran, por ejemplo, el control de la comunicación, la direccionalidad
del sistema de destino o la traducción de paquetes de datos a señales físicas. Sin embargo, el
método solo funciona cuando todos los sistemas participantes en la comunicación cumplen las reglas.
Estas se establecen en los llamados protocolos, que se aplican a cada una de las capas o que se
utilizan en la totalidad de las mismas.
El modelo de referencia ISO no es propiamente un estándar de red concreto, sino que, en términos
abstractos, describe cuáles son los procesos que se han de llevar a cabo para que la comunicación
funcione a través de una red.

Las capas OSI


A los usuarios puede parecerles que la comunicación entre dos ordenadores es algo trivial. Y, sin
embargo, en lo que concierne a la transmisión de datos en una red, tienen que llevarse a cabo
numerosas tareas y cumplirse determinados requisitos en cuanto a fiabilidad, seguridad e integridad,
lo que ha puesto de manifiesto la necesidad de dividir la comunicación en red por capas. Cada una de
ellas está orientada a una tarea diferente, por lo que los estándares solo cubren una parte del modelo
de capas. Este tiene una estructura jerárquica, es decir, que cada capa tiene acceso a una inferior por
medio de una interfaz y la pone a disposición para las capas que están por encima de ella. Este
principio tiene dos ventajas esenciales:
• Las tareas y requisitos que han de realizarse y cumplirse están claramente definidos. Los
estándares para cada capa pueden desarrollarse de manera independiente.
• Debido a que cada una de las capas está delimitada con independencia de las otras, los
cambios realizados en las normas de una de ellas no influyen en los procesos que se están
desarrollando en las otras capas, lo que facilita la introducción de nuevas normas.
En función de sus tareas, las siete capas del modelo ISO pueden subdividirse en dos grupos: capas
orientadas a aplicaciones y capas orientadas al transporte. Los procesos que tienen lugar en cada
una de las capas pueden visualizarse en el ejemplo de la transmisión por correo electrónico desde un
terminal a un servidor de correo:
Capas orientadas a aplicaciones
Las capas superiores del protocolo OSI se denominan capas orientadas a aplicaciones. En este
sentido, se establece una diferenciación entre capa de aplicación, capa de presentación y capa de
sesión.
• Capa 7 – Capa de aplicación (application layer): este es el nivel del modelo OSI que está
en contacto directo con aplicaciones como programas de correo electrónico o navegadores
web y en ella se produce la entrada y salida de datos. Esta capa establece la conexión para
los otros niveles y prepara las funciones para las aplicaciones. Este proceso se puede explicar
mediante el ejemplo de la transmisión por correo electrónico: un usuario escribe un mensaje
en el programa de correo electrónico en su terminal y la capa de aplicación lo acepta en forma
de paquete de datos. A los datos del correo electrónico se le adjuntan datos adicionales en
forma de encabezado de la aplicación: a esto se le llama también “encapsulamiento”. Este
encabezado indica, entre otras cosas, que los datos proceden de un programa de correo
electrónico. Aquí también se define el protocolo que se usa en la transmisión del correo
electrónico en la capa de aplicación (normalmente el protocolo SMTP).
• Capa 6 – Capa de presentación (presentation layer): una de lastareas esenciales de la
comunicación en red es garantizar el envío de datos en formatos estándar. En la capa de
presentación, los datos se transportan localmente en formato estandarizados. En el caso de la
transmisión de un correo electrónico, en esta capa se define el modo en que se tiene que
presentar el mensaje. Para ello, el paquete de datos se completa para que se cree un
encabezado de presentación que contiene los datos acerca de cómo se ha codificado el
correo (en España se utiliza normalmente ISO 8859-1 (Latin1) o ISO 8859-15), en qué formato
se presentan los archivos adjuntos (p. ej., JPEG o MPEG4) o cómo se han comprimido o
cifrado los datos (p. ej., SSL/TLS). De esta manera se puede asegurar que el sistema de
destino también ha entendido el formato del correo electrónico y que el mensaje se va a
enviar.
• Capa 5 – Capa de sesión (session layer): esta capa tiene la misión de organizar la conexión
entre ambos sistemas finales, por lo que también recibe el nombre de capa de comunicación.
En ella se incluyen los mecanismos especiales de gestión y control que regulan el
establecimiento de la conexión, su mantenimiento y su interrupción. Para controlar la
comunicación se necesitan unos datos adicionales que se deben añadir a los datos del correo
electrónico transmitidos a través del encabezado de la sesión. La mayoría de protocolos de
aplicación actuales como SMTP o FTP se ocupan ellos mismos de las sesiones o, como
HTTP, son protocolos sin estado. El modelo TCP/IP, en calidad de competidor del modelo OSI,
agrupa las capas OSI 5, 6 o 7 en una capa de aplicación. NetBIOS, Socks y RPC son otras de
las especificaciones que recoge la capa 5.

Capas de transporte
A las tres capas del protocolo OSI para las aplicaciones se suman cuatro capas de transporte y en
ellas se puede distinguir entre la capa de transporte, la capa de red, la capa de vínculo de datos y la
capa física.
• Capa 4 – Capa de transporte (transport layer): la capa de transporte opera como vínculo
entre las capas de aplicaciones y las orientadas al transporte. En este nivel del modelo OSI se
lleva a cabo la conexión lógica de extremo a extremo (el canal de transmisión) entre los
sistemas en la comunicación. Para ello, también se tiene que añadir cierta información en los
datos del correo electrónico. El paquete de datos que ya se amplió para el encabezado de las
capas orientadas a las aplicaciones se complementa en la capa 4 con un encabezado de
transporte. En ello entran en juego protocolos de red estandarizados como TCP o UDP (User
Datagram Protocol). Además, en la capa de transporte también se definen los puertos a través
de los cuales las aplicaciones pueden dirigirse al sistema de destino. Asimismo, en la capa 4
también tiene lugar la asignación de un determinado paquete de datos a una aplicación.
• Capa 3 – Capa de red (network layer): con la capa de mediación la transferencia de datos
llega a Internet. Aquí se realiza el direccionamiento lógico del equipo terminal, al que se le
asigna una dirección IP. Al paquete de datos, como los datos del correo electrónico del
ejemplo, se le añadirá un encabezado de red en el estadio 3 del modelo OSI, que contiene
información sobre la asignación de rutas y el control del flujo de datos. Aquí, los sistemas
informáticos recurren a normas de Internet como IP, ICMP, X.25, RIP u OSPF. En lo relativo al
tráfico de correo electrónico, se suele utilizar más TCP que IP.
• Capa 2 – Capa de vínculo de datos (data link layer): en la capa de seguridad, las funciones
comoreconocimiento de errores, eliminación de errores y control del flujo de datos se
encargan de evitar que se produzcan errores de comunicación. El paquete de datos se sitúa,
junto a los encabezados de aplicación, presentación, sesión, transporte y red, en el marco del
encabezado de enlace de datos y de la trama de enlace de datos. Además, en la capa 2 tiene
lugar el direccionamiento de hardware y, asimismo, entran en acción las direcciones MAC. El
acceso al medio está regulado por protocolos como Ethernet o PPP.
• Capa 1 – Capa física(physical layer): en la capa física se efectúa la transformación de los
bits de un paquete de datos en una señal física adecuada para un medio de transmisión. Solo
esta puede transferirse a través de un medio como hilo de cobre, fibra de vidrio o aire. La
interfaz para el medio de transmisión se define por medio de protocolos o normas como DSL,
ISDN, Bluetooth, USB (capa física) o Ethernet (capa física).

Encapsulado y desencapsulado
Los paquetes de datos no solo recorren cada capa del modelo OSI, sino también el sistema del
remitente y el sistema de destino. Cualquier otro dispositivo por el que deba pasar un paquete de
datos forma parte de las capas 1 y 3. El correo electrónico del ejemplo pasa por el router como señal
física antes de avanzar por Internet. Esta se establece en la capa 3 del protocolo OSI y solo procesa
información de las tres primeras capas, sin tener en cuenta las capas que van desde la 4 a la 7. Para
poder acceder a datos importantes, el router tiene que descomprimir (“desencapsular”) el paquete de
datos encapsulado y, en este proceso, se recorren las diferentes capas OSI en orden inverso.
En primer lugar, se produce la decodificación de señales en la capa de transferencia de bits y, a
continuación, se leen las direcciones MAC de la capa 2 y las direcciones IP y los protocolos de
enrutamiento de la capa 3. Con estos datos, el router ya se encuentra en condiciones de tomar una
decisión en cuanto a su reenvío. El paquete de datos, encapsulado de nuevo y basándose en la
información obtenida, puede ser reenviado entonces a la próxima estación, en su camino hacia el
sistema de destino.
Por regla general, en la transmisión de datos participa más de un router y en ellos tiene lugar el
proceso de encapsulado y desencapsulado hasta que el paquete de datos llega a su destino (en este
ejemplo, un servidor de correo electrónico) en forma de una señal física. El paquete de datos también
pasa, aquí, por el proceso de desencapsulado, para lo que se recorrerán desde la primera hasta la
séptima capa del modelo OSI. El mensaje enviado a través del cliente de correo electrónico llegará,
por lo tanto, al servidor de correo electrónico, donde estará disponible para que otro cliente de correo
electrónico pueda acceder a él.

¿QUE SON LOS RFC?

Los Request for Comments, más conocidos por sus siglas RFC, son una serie de publicaciones del
grupo de trabajo de ingeniería de internet que describen diversos aspectos del funcionamiento de
Internet y otras redes de computadoras, como protocolos, procedimientos, etc. y comentarios e ideas
sobre estos. Cada RFC constituye un monográfico o memorando que ingenieros o expertos en la
materia han hecho llegar al IETF, el consorcio de colaboración técnica más importante en Internet,
para que este sea valorado por el resto de la comunidad. De hecho, la traducción literal de RFC al
español es "Petición de comentarios".
Estas publicaciones se remontan a 1969, cuando Steve Crocker inventó un sistema eficaz de hacer
llegar las propuestas técnicas al resto de grupos de trabajo que experimentaban con ARPANET, la
precursora de Internet.
Los protocolos más importantes de Internet están definidos por RFC, como el protocolo IP detallado
en el RFC 791, el FTP en el RFC 959, o el HTTP —escrito por Tim Berners-Lee et al.— en el RFC
2616 (entre otros).

Ietf
ieee
PROTOCOLOS DE LAS CAPAS DE APLICACIÓN (5 A 7)

TELNET
Telnet (Telecommunication Network) es el nombre de un protocolo de red que nos permite acceder a
otra máquina para manejarla remotamente como si estuviéramos sentados delante de ella. También
es el nombre del programa informático que implementa el cliente. Para que la conexión funcione,
como en todos los servicios de Internet, la máquina a la que se acceda debe tener un programa
especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es el 23.

SSH
SSH (o Secure SHell) es el nombre de un protocolo y del programa que lo implementa cuya principal
función es el acceso remoto a un servidor por medio de un canal seguro en el que toda la información
está cifrada. Además de la conexión a otros dispositivos, SSH permite copiar datos de forma segura
(tanto archivos sueltos como simular sesiones FTP cifradas), gestionar claves RSA para no escribir
contraseñas al conectar a los dispositivos y pasar los datos de cualquier otra aplicación por un canal
seguro tunelizado mediante SSH y también puede redirigir el tráfico del (Sistema de Ventanas X) para
poder ejecutar programas gráficos remotamente. El puerto TCP asignado es el 22.

HTTP
El Protocolo de transferencia de hipertexto (en inglés: Hypertext Transfer Protocol o HTTP) es el
protocolo de comunicación que permite las transferencias de información en la World Wide Web.
HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force,
colaboración que culminó en 1999 con la publicación de una serie de RFC, el más importante de ellos
es el RFC 2616 que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los
elementos de software de la arquitectura web (clientes, servidores, proxies) para comunicarse. HTTP
es un protocolo sin estado, es decir, no guarda ninguna información sobre conexiones anteriores. El
desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las
cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a
las aplicaciones web instituir la noción de sesión, y también permite rastrear usuarios ya que las
cookies pueden guardarse en el cliente por tiempo indeterminado.

HTTPS
El Protocolo seguro de transferencia de hipertexto (en inglés: Hypertext Transfer Protocol
Secure o HTTPS), es un protocolo de aplicación basado en el protocolo HTTP, destinado a la
transferencia segura de datos de Hipertexto, es decir, es la versión segura de HTTP.
El sistema HTTPS utiliza un cifrado basado en la seguridad de textos SSL/TLS para crear un canal
cifrado (cuyo nivel de cifrado depende del servidor remoto y del navegador utilizado por el cliente)
más apropiado para el tráfico de información sensible que el protocolo HTTP. De este modo se
consigue que la información sensible (usuario y claves de paso normalmente) no pueda ser usada por
un atacante que haya conseguido interceptar la transferencia de datos de la conexión, ya que lo único
que obtendrá será un flujo de datos cifrados que le resultará imposible de descifrar.
El puerto estándar para este protocolo es el 443. (También comúnmente usado el 4433)

DNS
El sistema de nombres de dominio (Domain Name System o DNS, por sus siglas en inglés) es un
sistema de nomenclatura jerárquico descentralizado para dispositivos conectados a redes IP como
Internet o una red privada. Este sistema asocia información variada con nombre de dominio asignado
a cada uno de los participantes. Su función más importante es "traducir" nombres inteligibles para las
personas en identificadores binarios asociados con los equipos conectados a la red, esto con el
propósito de poder localizar y direccionar estos equipos mundialmente.
El servidor DNS utiliza una base de datos distribuida y jerárquica que almacena información asociada
a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de
asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de
nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada
dominio.

DHCP
El protocolo de configuración dinámica de host (en inglés: Dynamic Host Configuration
Protocol, también conocido por sus siglas de DHCP) es un protocolo de red de tipo cliente/servidor
mediante el cual un servidor DHCP asigna dinámicamente una dirección IP y otros parámetros de
configuración de red a cada dispositivo en una red para que puedan comunicarse con otras redes IP.
Este servidor posee una lista de direcciones IP dinámicas y las va asignando a los clientes conforme
estas van quedando libres, sabiendo en todo momento quién ha estado en posesión de esa IP,
cuánto tiempo la ha tenido y a quién se la ha asignado después. Así los clientes de una red IP pueden
conseguir sus parámetros de configuración automáticamente. Este protocolo por primera vez se
publicó en octubre de 1993 y su implementación actual para IPv4 está en la RFC 2131 (marzo de
1997); para IPv6 está descrita en RFC 3315 (julio de 2003).

SMTP
El protocolo para transferencia simple de correo (en inglés Simple Mail Transfer Protocol o
SMTP) es un protocolo de red utilizado para el intercambio de mensajes de correo electrónico entre
computadoras u otros dispositivos (PDA, teléfonos móviles, impresoras, etc). Definido inicialmente en
agosto de 1982 por el RFC 821 (para la transferencia) y el RFC 822 (para el mensaje). Son
estándares oficiales de Internet que fueron reemplazados respectivamente por el RFC 2821 y el RFC
2822, que a su vez lo fueron por el RFC 5321 y el RFC 5322.
El funcionamiento de este protocolo se da en línea, de manera que opera en los servicios de correo
electrónico. Sin embargo, este protocolo posee algunas limitaciones en cuanto a la recepción de
mensajes en el servidor de destino (cola de mensajes recibidos). Como alternativa a esta limitación
se asocia normalmente a este protocolo con otros, como el POP o IMAP, otorgando a SMTP la tarea
específica de enviar correo, y recibirlos empleando los otros protocolos antes mencionados (POP O
IMAP).

POP
En informática se utiliza el Post Office Protocol (POP3, Protocolo de Oficina de Correo o "Protocolo
de Oficina Postal") en clientes locales de correo para obtener los mensajes de correo electrónico
almacenados en un servidor remoto, denominado Servidor POP. Es un protocolo de nivel de
aplicación en el Modelo OSI.
Las versiones del protocolo POP, informalmente conocido como POP1 (RFC 918) y POP2, (RFC 937)
se han quedado obsoletas debido a las últimas versiones de POP3. En general cuando se hace
referencia al término POP, se refiere a POP3 dentro del contexto de protocolos de correo electrónico.
Puertos 110 o 995 (Cifrado).
POP3 está diseñado para recibir correo, que en algunos casos no es para enviarlo; le permite a los
usuarios con conexiones intermitentes o muy lentas (tales como las conexiones por módem),
descargar su correo electrónico mientras tienen conexión y revisarlo posteriormente incluso estando
desconectados. Cabe mencionar que aunque algunos clientes de correo incluyen la opción de dejar
los mensajes en el servidor, el funcionamiento general es: un cliente que utilice POP3 se conecta,
obtiene todos los mensajes, los almacena en la computadora del usuario como mensajes nuevos, los
elimina del servidor y finalmente se desconecta. En contraste, el protocolo IMAP permite los modos
de operación conectado y desconectado.

IMAP
El protocolo de acceso a mensajes de Internet (en inglés Internet Message Access Protocol o IMAP),
es un protocolo de aplicación que permite el acceso a mensajes almacenados en un servidor de
Internet. Mediante IMAP se puede tener acceso al correo electrónico desde cualquier equipo que
tenga una conexión a Internet. IMAP tiene varias ventajas sobre POP (otro protocolo empleado para
obtener correos desde un servidor). Por ejemplo, es posible especificar en IMAP carpetas del lado del
servidor. Por otro lado, es más complejo que POP ya que permite visualizar los mensajes de manera
remota y no descargando los mensajes como lo hace POP.
IMAP y POP3 (Post Office Protocol versión 3) son los dos protocolos que prevalecen en la obtención
de correo electrónico. Todos los servidores y clientes de correo electrónico están virtualmente
soportados por ambos, aunque en algunos casos hay algunas interfaces específicas del fabricante
típicamente propietarias. Por ejemplo, los protocolos propietarios utilizados entre el cliente Microsoft
Outlook y su servidor Microsoft Exchange Server o el cliente Lotus Notes de IBM y el servidor
Domino. Sin embargo, estos productos también soportan interoperabilidad con IMAP y POP3 con
otros clientes y servidores. La versión actual de IMAP, IMAP versión 4 revisión 1 (IMAP4rev1), está
definida por el RFC 3501.
IMAP fue diseñado como una moderna alternativa a POP por Mark Crispin en el año 1986.
Fundamentalmente, los dos protocolos les permiten a los clientes de correo acceder a los mensajes
almacenados en un servidor de correo.
Ya sea empleando POP3 o IMAP4 para obtener los mensajes, los clientes utilizan SMTP para enviar
mensajes. Los clientes de correo electrónico son comúnmente denominados clientes POP o IMAP,
pero en ambos casos se utiliza SMTP.
Puertos: 143, 220, 993.

FTP
El Protocolo de transferencia de archivos (en inglés File Transfer Protocol o FTP) es un protocolo de
red para la transferencia de archivos entre sistemas conectados a una red TCP (Transmission Control
Protocol), basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede conectar a un
servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema
operativo utilizado en cada equipo.
El servicio FTP es ofrecido por la capa de aplicación del modelo de capas de red TCP/IP al usuario,
utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado
para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el
intercambio de información, desde el login y password del usuario en el servidor hasta la
transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un
posible atacante puede capturar este tráfico, acceder al servidor y/o apropiarse de los archivos
transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como SCP y SFTP, incluidas en el
paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

SNMP
El Protocolo simple de administración de red o SNMP (del inglés Simple Network Management
Protocol) es un protocolo de la capa de aplicación que facilita el intercambio de información de
administración entre dispositivos de red. Los dispositivos que normalmente soportan SNMP incluyen
routers, switches, servidores, estaciones de trabajo, impresoras, bastidores de módem y muchos
más. Permite a los administradores supervisar el funcionamiento de la red, buscar y resolver sus
problemas, y planear su crecimiento.
SNMP es un componente de la suite de protocolo de Internet como se define por el IETF. Se
compone de un conjunto de normas para la gestión de la red, incluyendo una capa de aplicación del
protocolo, una base de datos de esquema, y un conjunto de objetos de datos. Las versiones de
SNMP más utilizadas son SNMP versión 1 (SNMPv1) y SNMP versión 2 (SNMPv2).
SNMP en su última versión (SNMPv3) posee cambios significativos con relación a sus predecesores,
sobre todo en aspectos de seguridad; sin embargo no ha sido mayoritariamente aceptado en la
industria.
Puertos: 161/UDP y 162/UDP.
PROTOCOLOS DE LAS CAPAS DE TRANSPORTE (1 A 4)

TCP
TCP (que significa Protocolo de Control de Transmisión) es uno de los principales protocolos de la
capa de transporte del modelo TCP/IP y OSI. En el nivel de aplicación, posibilita la administración de
datos que vienen del nivel más bajo del modelo, o van hacia él, (es decir, el protocolo IP). Cuando se
proporcionan los datos al protocolo IP, los agrupa en datagramas IP, fijando el campo del protocolo en
6 (para que sepa con anticipación que el protocolo es TCP). TCP es un protocolo orientado a
conexión, es decir, que permite que dos máquinas que están comunicadas controlen el estado de la
transmisión. Funciona en la Capa 4 del Modelo OSI.
TCP permite a las aplicaciones comunicarse entre sí como si estuvieran conectadas físicamente. TCP
envía los datos en un formato que se transmite carácter por carácter, en lugar de transmitirse por
paquetes discretos. Esta transmisión consiste en lo siguiente:
• Punto de partida, que abre la conexión.
• Transmisión completa en orden de bytes.
• Punto de fin, que cierra la conexión.
TCP conecta un encabezado a los datos transmitidos. Este encabezado contiene múltiples
parámetros que ayudan a los procesos del sistema transmisor a conectarse a sus procesos
correspondientes en el sistema receptor.
TCP confirma que un paquete ha alcanzado su destino estableciendo una conexión de punto a punto
entre los hosts de envío y recepción. Por tanto, el protocolo TCP se considera un protocolo fiable
orientado a la conexión.

UDP
UDP (User Datagram Protocol) es un protocolo no orientado a conexión. Es decir, cuando una
máquina A envía paquetes a una máquina B, el flujo es unidireccional. La transferencia de datos se
realiza sin prevenir al destinatario (la máquina B), y el destinatario recibe los datos sin enviar una
confirmación al emisor (la máquina A).
Esto se debe a que los datos enviados por el protocolo UDP no permiten transmitir la información
relacionada al emisor. Por ello, el destinatario no conocerá al emisor de los datos, excepto su IP.
UDP proporciona un servicio de entrega de datagramas. UDP no verifica las conexiones entre los
hosts transmisores y receptores. Dado que el protocolo UDP elimina los procesos de establecimiento
y verificación de las conexiones, resulta ideal para las aplicaciones que envían pequeñas cantidades
de datos.

SCTP
Stream Control Transmission Protocol (SCTP) es un protocolo de comunicación de capa de
transporte que fue definido por el grupo SIGTRAN de IETF en el año 2000. El protocolo está
especificado en la RFC 2960, y la RFC 3286 brinda una introducción al mismo.
SCTP es una alternativa a los protocolos de transporte TCP y UDP pues provee confiabilidad, control
de flujo y secuenciación como TCP. Sin embargo, SCTP opcionalmente permite el envío de mensajes
fuera de orden y a diferencia de TCP, SCTP es un protocolo orientado al mensaje (similar al envío de
datagramas UDP).
Las ventajas de SCTP son:
• Capacidad de Multihoming, en la cual uno (o dos) de los extremos de una asociación
(conexión) pueden tener más de una dirección IP. Esto permite reaccionar en forma
transparente ante fallos en la red.
• Entrega de los datos en trozos que forman parte de flujos independientes y paralelos
eliminando así el problema de head of the line blocking que sufre TCP.
• Es capaz de seleccionar y monitorizar caminos, seleccionando un camino "primario" y
verificando constantemente la conectividad de cada uno de los caminos alternativos.
• Mecanismos de validación y asentimiento como protección ante ataques por inundación,
proveyendo notificación de trozos de datos duplicados o perdidos.
SCTP fue diseñado inicialmente por el grupo Sigtran para transportar señalización telefónica SS7
sobre IP. La intención fue la de proveer en IP de algunas de las características de confiabilidad de
SS7. Por su versatilidad luego se ha propuesto utilizarlo en otras áreas, como por ejemplo para
transportar mensajes de los protocolos DIAMETER o SIP. Al igual que TCP, SCTP tiene un
mecanismo de Fast Retransmit el cual consiste en optimizar el rendimiento ante pérdidas aisladas.
SCTP es un protocolo de capa de transporte fiable orientado a la conexión que ofrece los mismos
servicios a las aplicaciones que TCP. Además, SCTP admite conexiones entre sistema que tienen
más de una dirección, o de host múltiple. La conexión SCTP entre el sistema transmisor y receptor se
denomina asociación. Los datos de la asociación se organizan en bloques. Dado que el protocolo
SCTP admite varios hosts, determinadas aplicaciones, en especial las que se utilizan en el sector de
las telecomunicaciones, necesitan ejecutar SCTP en lugar de TCP.

OSPF
Open Shortest Path First (OSPF) es un protocolo de direccionamiento de tipo enlace-estado,
desarrollado para las redes IP y basado en el algoritmo de primera vía más corta (SPF). OSPF es un
protocolo de pasarela interior (IGP).
En una red OSPF, los direccionadores o sistemas de la misma área mantienen una base de datos de
enlace-estado idéntica que describe la topología del área. Cada direccionador o sistema del área
genera su propia base de datos de enlace-estado a partir de los anuncios de enlace-estado (LSA)
que recibe de los demás direccionadores o sistemas de la misma área y de los LSA que él mismo
genera. El LSA es un paquete que contiene información sobre los vecinos y los costes de cada vía.
Basándose en la base de datos de enlace-estado, cada direccionador o sistema calcula un árbol de
extensión de vía más corta, siendo él mismo la raíz, utilizando el algoritmo SPF.
Las ventajas principales de OSPF son las siguientes:
• En comparación con los protocolos de direccionamiento de distancia-vector como el protocolo
de información de direccionamiento (RIP), OSPF es más adecuado para servir entre redes
heterogéneas de gran tamaño. OSPF puede recalcular las rutas en muy poco tiempo cuando
cambia la topología de la red.
• Con OSPF, puede dividir un sistema autónomo (AS) en áreas y mantenerlas separadas para
disminuir el tráfico de direccionamiento de OSPF y el tamaño de la base de datos de enlace-
estado de cada área.
• OSPF proporciona un direccionamiento multivía de coste equivalente. Se pueden añadir rutas
duplicadas a la pila TCP utilizando saltos siguientes distintos.

MPLS
MPLS(siglas de Multiprotocol Label Switching). Es un mecanismo de transporte de datos estándar
creado por la IETF y definido en el RFC 3031. Opera entre la capa de enlace de datos y la capa de
red del modelo OSI. Representa un conjunto de especificaciones definidas por el IETF (Grupo de
Trabajo de Ingeniería de Internet) que le asigna a las tramas que circulan por la red una identificación
que le indique a los routers la ruta que deben seguir los datos.

BGP
En telecomunicaciones, el protocolo de puerta de enlace de frontera o BGP (del inglés Border
Gateway Protocol) es un protocolo mediante el cual se intercambia información de encaminamiento
entre sistemas autónomos. Por ejemplo, los proveedores de servicio registrados en Internet suelen
componerse de varios sistemas autónomos y para este caso es necesario un protocolo como BGP.
Entre los sistemas autónomos de los ISP se intercambian sus tablas de rutas a través del protocolo
BGP. Este intercambio de información de encaminamiento se hace entre los routers externos de cada
sistema autónomo, los cuales deben ser compatibles con BGP. Se trata del protocolo más utilizado
para redes con intención de configurar un protocolo de puerta de enlace exterior (Exterior Gateway
Protocol).
La forma de configurar y delimitar la información que contiene e intercambia el protocolo BGP es
creando lo que se conoce como sistema autónomo o AS. Cada uno tendrá conexiones o sesiones
internas (iBGP), así como sesiones externas (eBGP).
El protocolo de puerta de enlace de frontera (BGP) es un ejemplo de protocolo de puerta de enlace
exterior (EGP). BGP intercambia información de encaminamiento entre sistemas autónomos a la vez
que garantiza una elección de rutas libres de bucles. Es el protocolo principal de publicación de rutas
utilizado por las compañías más importantes de ISP en Internet. BGP4 es la primera versión que
admite encaminamiento entre dominios sin clase (CIDR) y agregado de rutas. A diferencia de los
protocolos de puerta de enlace internos (IGP), como RIP, OSPF y EIGRP, no usa métricas como
número de saltos, ancho de banda o retardo. En cambio, BGP toma decisiones de encaminamiento
basándose en políticas de la red, o reglas que utilizan varios atributos de ruta BGP.

IP
El protocolo IP y sus protocolos de enrutamiento asociados son posiblemente la parte más
significativa del conjunto TCP/IP. El protocolo IP se encarga de:
• Direcciones IP: Las convenciones de direcciones IP forman parte del protocolo IP.
• Comunicaciones de host a host: El protocolo IP determina la ruta que debe utilizar un
paquete, basándose en la dirección IP del sistema receptor.
• Formato de paquetes: el protocolo IP agrupa paquetes en unidades conocidas como
datagramas.
• Fragmentación: Si un paquete es demasiado grande para su transmisión a través del medio
de red, el protocolo IP del sistema de envío divide el paquete en fragmentos de menor
tamaño. A continuación, el protocolo IP del sistema receptor reconstruye los fragmentos y crea
el paquete original.

RIP
El Protocolo de Información de Encaminamiento, Routing Information Protocol (RIP), es un
protocolo de puerta de enlace interna o interior (Interior Gateway Protocol, IGP) utilizado por los
routers o encaminadores para intercambiar información acerca de redes del Internet Protocol (IP) a
las que se encuentran conectados. Su algoritmo de encaminamiento está basado en el vector de
distancia, ya que calcula la métrica o ruta más corta posible hasta el destino a partir del número de
"saltos" o equipos intermedios que los paquetes IP deben atravesar. El límite máximo de saltos en
RIP es de 15, de forma que al llegar a 16 se considera una ruta como inalcanzable o no deseable. A
diferencia de otros protocolos, RIP es un protocolo libre, es decir, que puede ser usado por diferentes
routers y no únicamente por un solo propietario con uno como es el caso de EIGRP que es de Cisco
Systems.

ARP
El protocolo ARP (Address Resolution Protocol) tiene un importante papel entre los protocolos de
comunicaciones relacionados con TCP/IP. Su principal objetivo es conocer la dirección física (MAC)
de una tarjeta de interfaz de red correspondiente a una dirección IP (Internet Protocol). De ahí viene
su nombre: Protocolo de Resulución de Dirección (Address Resolution Protocol).
Cada equipo conectado a una red tiene un número de 48 bits (6 bloques hexadecimales de 8 bits
cada uno) que le identifica. Esta dirección es única para cada dispositivo. Los 24 primeros bits
identifican al fabricante y los 24 últimos son los propios del equipo. Digo equipo porque puede ser un
ordenador, tablet, smartphone, Arduino, Raspberry Pi, etc. La comunicación por Internet no utiliza
directamente esta dirección (MAC), sino que utiliza direcciones IP, es decir, que tiene que haber
relación entre direcciones físicas (MAC) y lógicas.
Toda la documentación del protocolo ARP está en el RFC 826.
Utilizaremos el protocolo ARP en estos casos:
1. Existen 2 hosts en una misma red y uno quiere enviar un paquete a otro.
2. Existen 2 hosts en redes diferentes y deben usar un router para llegar al otro host.
3. Cuando un router necesita enviar un paquete a un host a través de otro router.
4. Cuando un router necesita enviar un paquete a un host de la misma red.

ICMP
El protocolo de mensajes de control de Internet (ICMP) detecta y registra las condiciones de error de
la red. ICMP registra:
• Paquetes soltados: Paquetes que llegan demasiado rápido para poder procesarse.
• Fallo de conectividad: No se puede alcanzar un sistema de destino.
• Redirección: Redirige un sistema de envío para utilizar otro enrutador.
Es un protocolo que permite administrar información relacionada con errores de los equipos en red. Si
se tienen en cuenta los escasos controles que lleva a cabo el protocolo IP, ICMP no permite corregir
los errores sino que los notifica a los protocolos de capas cercanas. Por lo tanto, el protocolo ICMP es
usado por todos los router para indicar un error (llamado un problema de entrega).

ETHERNET
Ethernet (también conocido como estándar IEEE 802.3) es un estándar de transmisión de datos para
redes de área local que se basa en el siguiente principio: todos los equipos en una red Ethernet están
conectados a la misma línea de comunicación compuesta por cables cilíndricos.
Se distinguen diversas variantes de tecnología Ethernet según el tipo y el diámetro de los cables
utilizados:

10Base2: el cable que se usa es un cable coaxial delgado, llamado thin Ethernet.

10Base5: el cable que se usa es un cable coaxial grueso, llamado thick Ethernet.

10Base-T: se utilizan dos cables trenzados (la T significa twisted pair) y alcanza una velocidad de 10
Mbps.

100Base-FX: permite alcanzar una velocidad de 100 Mbps al usar una fibra óptica multimodo (la F es
por Fiber).

100Base-TX: es similar al 10Base-T pero con una velocidad 10 veces mayor (100 Mbps).

1000Base-T: utiliza dos pares de cables trenzados de categoría 5 y permite una velocidad de 1
gigabite por segundo.

1000Base-SX: se basa en fibra óptica multimodo y utiliza una longitud de onda corta (la S es por
short) de 850 nanómetros (770 a 860 nm).

1000Base-LX: se basa en fibra óptica multimodo y utiliza una longitud de onda larga (la L es por long)
de 1350 nanómetros (1270 a 1355 nm).

Abreviatura Nombre Cable ConectorVelocidad Puertos


Ethernet delgado (ThinCable coaxial (50 Ohms) de
10Base2 BNC 10 Mb/s 185 m
Ethernet) diámetro delgado
Ethernet grueso (ThickCable coaxial de diámetro ancho
10Base5 BNC 10Mb/s 500 m
Ethernet) (10,16 mm)
10Base-T Ethernet estándar Par trenzado (categoría 3) RJ-45 10 Mb/s 100 m
Ethernet veloz (Fast
100Base-TX Doble par trenzado (categoría 5) RJ-45 100 Mb/s 100 m
Ethernet)
Ethernet veloz (FastFibra óptica multimodo (tipo
100Base-FX 100 Mb/s 2 km
Ethernet) 62,5/125)
1000Base-T Ethernet Gigabit Doble par trenzado (categoría 5) RJ-45 1000 Mb/s 100 m
Fibra óptica monomodo o
1000Base-LX Ethernet Gigabit 1000 Mb/s 550 m
multimodo
1000
1000Base-SX Ethernet Gigabit Fibra óptica multimodo 550 m
Mbit/s
10GBase-SR Ethernet de 10 Gigabits Fibra óptica multimodo 10 Gbit/s 500 m
10GBase-LX4 Ethernet de 10 Gigabits Fibra óptica multimodo 10 Gbit/s 500 m

Todos los equipos de una red Ethernet están conectados a la misma línea de transmisión y la
comunicación se lleva a cabo por medio de la utilización un protocolo denominado CSMA/CD (Carrier
Sense Multiple Access with Collision Detect, Protocolo de acceso múltiple que monitorea la portadora:
detección de portadora y detección de colisiones).

Con este protocolo cualquier equipo está autorizado a transmitir a través de la línea en cualquier
momento y sin ninguna prioridad entre ellos. Esta comunicación se realiza de manera simple. Cada
equipo verifica que no haya ninguna comunicación en la línea antes de transmitir. Si dos equipos
transmiten simultáneamente, entonces se produce una colisión (o sea, varias tramas de datos se
ubican en la línea al mismo tiempo). Los dos equipos interrumpen su comunicación y esperan un
período de tiempo aleatorio, luego una vez que el primero ha excedido el período de tiempo, puede
volver a transmitir.

Este principio se basa en varias limitaciones: los paquetes de datos deben tener un tamaño máximo y
debe existir un tiempo de espera entre dos transmisiones.

El tiempo de espera varía según la frecuencia de las colisiones. Tras la primera colisión, un equipo
espera una unidad de tiempo. Tras la segunda colisión, un equipo espera dos unidades de tiempo.
Tras la tercera colisión, un equipo espera cuatro unidades de tiempo con un tiempo adicional
aleatorio.
FDDI
La interfaz de datos distribuida por fibra (en inglés: Fiber Distributed Data Interface, también
conocido por sus siglas de FDDI), es un conjunto de estándares ISO y ANSI para la transmisión de
datos en redes de computadoras de área extendida (WAN) o de área local (LAN), mediante cables de
fibra óptica. Se basa en la arquitectura Token Ring y permite una comunicación tipo dúplex
(completo). Dado que puede abastecer a miles de usuarios, una LAN FDDI suele ser empleada como
backbone para una red de área amplia (WAN).
También existe una implementación de FDDI en cables de hilo de cobre, conocida como CDDI. La
tecnología de Ethernet a 100 Mbps (100BASE-FX y 100BASE-TX) está basada en FDDI.

TOKEN RING
Token Ring es una arquitectura de red desarrollada por IBM en los años 1970 con topología lógica
en anillo y técnica de acceso de paso de testigo, usando un frame de 3 bytes llamado token que viaja
alrededor del anillo. Token Ring se recoge en el estándar IEEE 802.5. En desuso por la
popularización de Ethernet; actualmente no es empleada en diseños de redes.

LLC (802.2)
Control de enlace lógico LLC ("Logical Link Control") define la forma en que los datos son
transferidos sobre el medio físico, proporcionando servicio a las capas superiores.
Es la más alta de las dos subcapas de enlace de datos definidas por el IEEE y la responsable del
control de enlace lógico. La subcapa LLC maneja el control de errores, control del flujo, entramado,
control de diálogo y del direccionamiento de la MAC. El protocolo LLC más generalizado es IEEE
802.2, que incluye variantes no orientadas a conexión y orientadas a conexión.

PPP
Protocolo punto a punto (PPP) (en inglés Point-to-Point Protocol), es un protocolo del nivel de
enlace de datos, utilizado para establecer una conexión directa entre dos nodos de una red. Conecta
dos enrutadores directamente sin ningún equipo u otro dispositivo de red entre medias de ambos.
Está estandarizado en el documento RFC 1661. Puede proporcionar autenticación, cifrado de la
transmisión y compresión.
PPP es usado en varios tipos de redes físicas, incluyendo: cable serial, línea telefónica, línea troncal,
telefonía celular, especializado en enlace de radio y enlace de fibra óptica como SONET
(Synchronous Optical Network). También es utilizado en las conexiones de acceso a Internet
(publicitado como banda ancha o broadband). Los proveedores de servicios de Internet (ISP) han
usado PPP para que accedan a Internet los usuarios de una línea de conmutación, ya que los
paquetes de IP no pueden ser transmitidos vía módem, sin tener un protocolo de enlace de datos.
Dos derivados del PPP son:
• Point-to-Point Protocol over Ethernet (PPPoE),
• Point-to-Point Protocol over ATM (PPPoA).
Son usados comúnmente por los ISP para establecer una línea de abonado digital (digital subscriber
line, DSL) de servicios de internet para clientes.
Por tanto, se trata de un protocolo asociado a la pila TCP/IP de uso en internet.

RS232
RS-232 (Recommended Standard 232, en español: "Estándar Recomendado 232"), también conocido
como EIA/TIA RS-232C, es una interfaz que designa una norma para el intercambio de datos binarios
serie entre un DTE (Data Terminal Equipment, "Equipo Terminal de Datos"), como por ejemplo una
computadora, y un DCE (Data Communication Equipment, "Equipo de Comunicación de Datos"), por
ejemplo un módem. Existen otros casos en los que también se utiliza la interfaz RS-232. Una
definición equivalente publicada por la UIT se denomina V.24.
En particular, existen ocasiones en que interesa conectar otro tipo de equipamientos, como pueden
ser computadoras. Evidentemente, en el caso de interconexión entre los mismos, se requerirá la
conexión de un DTE con otro DTE. Para ello se utiliza una conexión entre los dos DTE sin usar
módem, por ello se llama módem nulo (null modem).
El RS-232 consiste en un conector tipo DB-25 (de 25 pines), aunque es normal encontrar la versión
de 9 pines (DE-9, o popularmente mal denominados DB-9), más barato e incluso más extendido para
cierto tipo de periféricos (como el ratón serie de la PC).

RJ45
RJ45 es un conector estándar de red, que permite la interconexión de dispositivos de red entre sí
mediante un cable UTP de 4 pares (8 cables). Existen dos formas de unir estos conectores a los
cables:
• De forma manual mediante el crimpado con una tenaza.
• Mediante un proceso industrial de vacío que fija los contactos y el conector al cable.
Normalmente este conector se fabrica en plástico, y sus conexiones metálicas. Se usa plástico
trasparente para los conectores que se unen a los cables de forma manual, de esta forma, se puede
visualizar si los pares trenzados se conectan correctamente.
Es utilizada comúnmente con estándares como TIA/EIA-568-B, que define la disposición de los pines
(patillaje) o wiring pinout.

Estandar 802.11
La familia 802.11 consta de una serie de técnicas de modulación semidúplex (half duplex) por medio
del aire que utilizan el mismo protocolo básico. Al estándar 802.11-1997 le siguió el 802.11b, que fue
el primero aceptado ampliamente según wp. Posteriormente surgirían versiones mejoradas: 802.11a,
802.11g, 802.11n y 802.11ac. Otras normas de la familia (c-f, h, j) son las modificaciones de servicio
que se utilizan para extender el alcance actual de la norma existente, que también puede incluir
correcciones de una especificación anterior.
El estándar IEEE 802.11 define el uso de los dos niveles inferiores de la arquitectura o modelo OSI
(capa física y capa de enlace de datos), especificando las normas de funcionamiento de una red de
área local inalámbrica (WLAN). La primera versión de la norma se publicó en 1997 por el Instituto de
Ingenieros Eléctricos y Electrónicos, Institute of Electrical and Electronics Engineers o IEEE), el cual
actualmente se encarga de su mantenimiento. Las especificaciones de este estándar proporcionan la
base para los productos con redes inalámbricas que hacen uso de la marca Wi-Fi. Los protocolos de
la rama 802.x definen la tecnología de redes de área local, Local Area Network o LAN y redes de área
metropolitana, Metropolitan Area Network o MAN.

También podría gustarte