[go: up one dir, main page]

0% encontró este documento útil (0 votos)
106 vistas49 páginas

Tutorial VLSM

El subneteo con VLSM (Variable Length Subnet Mask), máscara variable ó máscara de subred de longitud variable, es uno de los métodos que se implementó para evitar el agotamiento de direcciones IPv4 permitiendo un mejor aprovechamiento y optimización del uso de direcciones.

Cargado por

ariel FLORES
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
106 vistas49 páginas

Tutorial VLSM

El subneteo con VLSM (Variable Length Subnet Mask), máscara variable ó máscara de subred de longitud variable, es uno de los métodos que se implementó para evitar el agotamiento de direcciones IPv4 permitiendo un mejor aprovechamiento y optimización del uso de direcciones.

Cargado por

ariel FLORES
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 49

Tutorial VLSM

El subneteo con VLSM (Variable Length Subnet Mask), máscara variable ó máscara
de subred de longitud variable, es uno de los métodos que se implementó para evitar el
agotamiento de direcciones IPv4 permitiendo un mejor aprovechamiento y optimización
del uso de direcciones.

VLSM: Es el resultado del proceso por el cual se divide una red o subred en subredes
más pequeñas cuyas máscaras son diferentes según se adaptan a las necesidades de
hosts por subred.

CIDR (Classless Inter-Domain Routing - Enrutamiento Inter-Dominios sin


Clases): El CIDR es la capacidad que tienen los protocolos de enrutamiento de enviar
actualizaciones a sus vecinos de redes con VLSM y de sumarizar esas direcciones en
una sola dirección.

Sumarización de Rutas: También llamado resumende ruta, supernetting o superredes,


es el proceso realizado por un router a través de un protocolo de enrutamiento por el
cual partiendo de conjunto de direcciones de red (bloque CIDR) se obtiene una única
dirección común que contiene a las demás para ser enviada en sus actualizaciones.

Subneteo con VLSM - Mascara de Longitud Variable

A diferencia del subneteo (subnetting) que genera una máscara común (fija) y cantidad
de hosts iguales a todas las subredes, el proceso de VLSM toma una dirección de red o
subred y la divide en subredes más pequeñas adaptando las máscaras según las
necesidades de hosts de cada subred, generando una máscara diferente para las distintas
subredes de una red. Esto permite no desaprovechar un gran número de direcciones,
sobre todo en los enlaces seriales.

Hay varios factores a tener en cuenta a la hora de subnetear y trabajar con VLSM:

 El uso de VLSM solo es aplicable con los protocolos de enrutamiento sin clase
(classless) RIPv2, OSPF, EIGRP, BGP4 e IS-IS.
 Al igual que en el subneteo, la cantidad de subredes y hosts está supeditada a la
dirección IP de red o subred que nos otorguen.
 Es imposible que comprendan el proceso de obtención de VLSM si no manejan
fluidamente el proceso de subneteo común.

Ejemplo VLSM

El problema
Dada la red 192.168.0.0/24, desarrolle un esquema de direccionamiento que cumpla con
los siguientes requerimientos. Use VLSM, es decir, optimice el espacio de
direccionamiento tanto como sea posible.

1. Una subred de 20 hosts para ser asignada a la VLAN de Profesores


2. Una subred de 80 hosts para ser asignada a la VLAN de Estudiantes
3. Una subred de 20 hosts para ser asignada a la VLAN de Invitados
4. Tres  subredes de 2 hosts para ser asignada a los enlaces entre enrutadores.

Solución

Ordeno las subredes en orden decreciente: 80, 20, 20, 2, 2, 2.

La dirección que nos dan es 192.168.0.0/24 que es una clase C, por lo que por
definición, el octeto disponible de hosts es el último y los 3 primeros octetos son las
porciones de red.

Para 80 hosts necesito 7 bits (2^7=128, menos red y broadcas 126 hosts máx.), por lo
tanto el prefijo de subred del primer bloque sería /25 (8-7=1; 24+1=25) Tomando la
subred cero, la primera dirección de subred sería 192.168.0.0/25, broadcast
192.168.0.127, por lo tanto el rango asignable sería .1 hasta .126.

Para 20 hosts necesito 5 bits (2^5=32, es decir 30 hosts máx.). Prefijo: /27 (8-5=3,
24+3=27); Dir. de red: 192.168.0.128/27, broadcast 192.168.0.159. Rango
asignable .129-.158.

La siguiente subred es del mismo tamaño y el prefijo es el mismo. Dir. de red:


192.168.0.160/27 , broadcast 192.168.0.191, rango .161-.190.

Los enlaces entre enrutadores sólo necesitan 2 bits (2^2=4, es decir 2 hosts máx) por lo
tanto el prefijo debe ser /30 (8-2=6, 24+6=30). Dir. de enlace 1: 192.168.0.192, dir. de
broadcast en enlace 1: 192.168.0.195, rango .193-.194.  Dir. enlace 2: 192.168.0.196/30,
broadcast en enlace 2: 192.168.0.199, rango .197-.198. Dir. enlace 3: 192.168.0.200/30,
broadcast enlace 3: 192.168.0.203, rango: .201-.202.

El esquema resultado es:

Red Dir Broadcast Rango Máscara


Estudiantes(80) 192.168.0.0/25 192.168.0.127 .1-.126 255.255.255.128
Profesores(20) 192.168.0.128/27 192.168.0.159 .129-158 255.255.255.224
Invitados(20) 192.168.0.160/27 192.168.0.191 .161-190 255.255.255.224
Enlace 1(2) 192.168.0.192/30 192.168.0.195 .193-194 255.255.255.252
Enlace 2(2) 192.168.0.196/30 192.168.0.199 .197-198 255.255.255.252
Enlace 3(2) 192.168.0.200/30 192.168.0.203 .201-202 255.255.255.252

Se puede observar que los rangos de direcciones asignados son contínuos y que queda
disponible para crecimiento futuro un rango de direcciones desde 204 en adelante.
Classless Inter-Domain Routing
Este artículo o sección necesita referencias que aparezcan en una publicación
acreditada, como revistas especializadas, monografías, prensa diaria o páginas
de Internet fidedignas. Este aviso fue puesto el 12 de junio de 2011.
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando:
{{subst:Aviso referencias|Classless Inter-Domain Routing}} ~~~~

Classless Inter-Domain Routing o CIDR (en español «enrutamiento entre dominios sin
clases») se introdujo en 1993 por IETF y representa la última mejora en el modo de
interpretar las direcciones IP. Su introducción permitió una mayor flexibilidad al dividir
rangos de direcciones IP en redes separadas. De esta manera permitió:

 Un uso más eficiente de las cada vez más escasas direcciones IPv4.
 Un mayor uso de la jerarquía de direcciones (agregación de prefijos de red),
disminuyendo la sobrecarga de los enrutadores principales de Internet para
realizar el encaminamiento.

Índice
 1 Introducción
 2 Bloques CIDR
 3 Asignación de bloques CIDR
 4 CIDR y máscaras de subred
 5 Agregación de prefijos
 6 Antecedentes históricos
 7 Véase también
 8 Enlaces externos

Introducción
CIDR reemplaza la sintaxis previa para nombrar direcciones IP, las clases de redes. En
vez de asignar bloques de direcciones en los límites de los octetos, que implicaban
prefijos «naturales» de 8, 16 y 24 bits, CIDR usa la técnica VLSM (variable length
subnet mask, en español «máscara de subred de longitud variable»), para hacer posible
la asignación de prefijos de longitud arbitraria.

CIDR engloba:

 La técnica VLSM para especificar prefijos de red de longitud variable. Una


dirección CIDR se escribe con un sufijo que indica el número de bits de longitud
de prefijo, p.ej. 192.168.0.0/16 que indica que la máscara de red tiene 16 bits (es
decir, los primeros 16 bits de la máscara son 1 y el resto 0). Esto permite un uso
más eficiente del cada vez más escaso espacio de direcciones IPv4
 La agregación de múltiples prefijos contiguos en superredes, reduciendo el
número de entradas en las tablas de ruta globales.

Bloques CIDR
CIDR es un estándar de red para la interpretación de direcciones IP. CIDR facilita el
encaminamiento al permitir agrupar bloques de direcciones en una sola entrada de la
tabla de rutas. Estos grupos, llamados comúnmente Bloques CIDR, comparten una
misma secuencia inicial de bits en la representación binaria de sus direcciones IP.

Los bloques CIDR IPv4 se identifican usando una sintaxis similar a la de las direcciones
IPv4: cuatro números decimales separados por puntos, seguidos de una barra de división
y un número de 0 a 32; A.B.C.D/N.

Los primeros cuatro números decimales se interpretan como una dirección IPv4, y el
número tras la barra es la longitud de prefijo, contando desde la izquierda, y representa
el número de bits comunes a todas las direcciones incluidas en el bloque CIDR.

Decimos que una dirección IP está incluida en un bloque CIDR, y que encaja con el
prefijo CIDR, si los N bits iniciales de la dirección y el prefijo son iguales. Por tanto,
para entender CIDR es necesario visualizar la dirección IP en binario. Dado que la
longitud de una dirección IPv4 es fija, de 32 bits, un prefijo CIDR de N-bits deja
bits sin encajar, y hay combinaciones posibles con los bits restantes.
Esto quiere decir que direcciones IPv4 encajan en un prefijo CIDR de N-bits.

Nótese que los prefijos CIDR cortos (números cercanos a 0) permiten encajar un mayor
número de direcciones IP, mientras que prefijos CIDR largos (números cercanos a 32)
permiten encajar menos direcciones IP.

Una dirección IP puede encajar en varios prefijos CIDR de longitudes diferentes.


CIDR también se usa con direcciones IPv6, en las que la longitud del prefijo varia desde
0 a 128, debido a la mayor longitud de bit en las direcciones, con respecto a IPv4. En el
caso de IPv6 se usa una sintaxis similar a la comentada: el prefijo se escribe como una
dirección IPv6, seguida de una barra y el número de bits significativos.

Asignación de bloques CIDR


 El bloque 208.128.0.0/11, un bloque CIDR largo que contenía más de dos
millones de direcciones, había sido asignado por ARIN, (el RIR
Norteamericano) a MCI.

 Automation Research Systems, una empresa intermediaria del estado de


Virginia, alquiló de MCI una conexión a Internet, y recibió el bloque
208.130.28.0/22, capaz de admitir 1024 direcciones IP ( ;
)

 ARS utilizó un bloque 208.130.29.0/24 para sus servidores públicos, uno de los
cuales era 208.130.29.33.

Todos estos prefijos CIDR se utilizaron en diferentes enrutadores para realizar el


encaminamiento. Fuera de la red de MCI, el prefijo 208.128.0.0/11 se usó para
encaminar hacia MCI el tráfico dirigido no solo a 208.130.29.33, sino también a
cualquiera de los cerca de dos millones de direcciones IP con el mismo prefijo CIDR
(los mismos 11 bits iniciales). En el interior de la red de MCI, 208.130.28.0/22 dirigiría
el tráfico a la línea alquilada por ARS. El prefijo 208.130.29.0/24 se usaría sólo dentro
de la red corporativa de ARS.

CIDR y máscaras de subred


Una máscara de subred es una máscara que codifica la longitud del prefijo de una forma
similar a una dirección IP - 32 bits, comenzando desde la izquierda, ponemos a 1 tantos
bits como marque la longitud del prefijo, y el resto de bits a cero, separando los 32 bits
en cuatro grupos de ocho bits.

CIDR usa máscaras de subred de longitud variable (VLSM) para asignar direcciones
IP a subredes de acuerdo a las necesidades de cada subred. De esta forma, la división
red/host puede ocurrir en cualquier bit de los 32 que componen la dirección IP. Este
proceso puede ser recursivo, dividiendo una parte del espacio de direcciones en
porciones cada vez menores, usando máscaras que cubren un mayor número de bits.

Las direcciones de red CIDR/VLSM se usan a lo largo y ancho de la Internet pública, y


en muchas grandes redes privadas. El usuario normal no ve este uso puesto en práctica,
al estar en una red en la que se usarán, por lo general, direcciones de red privadas
recogidas en el RFC 1918.

Agregación de prefijos
Otro beneficio de CIDR es la posibilidad de agregar prefijos de encaminamiento, un
proceso conocido como "supernetting". Por ejemplo, dieciséis redes /24 contiguas
pueden ser agregadas y publicadas en los enrutadores de Internet como una sola ruta /20
(si los primeros 20 bits de sus respectivas redes coinciden). Dos redes /20 contiguas
pueden ser agregadas en una /19, etc.

Esto permite una reducción significativa en el número de rutas que los enrutadores en
Internet tienen que conocer (y una reducción de memoria, recursos, etc.) y previene una
explosión de tablas de encaminamiento, que podría sobrecargar a los routers e impedir
la expansión de Internet en el futuro.

CIDR IPv4
CIDR No. de redes por clase Hosts* Máscara
/32 1/256 C 1 255.255.255.255
/31 1/128 C 2 255.255.255.254
/30 1/64 C 4 255.255.255.252
/29 1/32 C 8 255.255.255.248
/28 1/16 C 16 255.255.255.240
/27 1/8 C 32 255.255.255.224
/26 1/4 C 64 255.255.255.192
/25 1/2 C 128 255.255.255.128
/24 1C 256 255.255.255.0
/23 2C 512 255.255.254.0
/22 4C 1,024 255.255.252.0
/21 8C 2,048 255.255.248.0
/20 16 C 4,096 255.255.240.0
/19 32 C 8,192 255.255.224.0
/18 64 C 16,384 255.255.192.0
/17 128 C 32,768 255.255.128.0
/16 256 C, 1 B 65,536 255.255.0.0
/15 512 C, 2 B 131,072 255.254.0.0
/14 1,024 C, 4 B 262,144 255.252.0.0
/13 2,048 C, 8 B 524,288 255.248.0.0
/12 4,096 C, 16 B 1,048,576 255.240.0.0
/11 8,192 C, 32 B 2,097,152 255.224.0.0
/10 16,384 C, 64 B 4,194,304 255.192.0.0
/9 32,768 C, 128B 8,388,608 255.128.0.0
/8 65,536 C, 256B, 1 A 16,777,216 255.0.0.0
/7 131,072 C, 512B, 2 A 33,554,432 254.0.0.0
/6 262,144 C, 1,024 B, 4 A 67,108,864 252.0.0.0
/5 524,288 C, 2,048 B, 8 A 134,217,728 248.0.0.0
/4 1,048,576 C, 4,096 B, 16 A 268,435,456 240.0.0.0
/3 2,097,152 C, 8,192 B, 32 A 536,870,912 224.0.0.0
/2 4,194,304 C, 16,384 B, 64 A 1,073,741,824 192.0.0.0
/1 8,388,608 C, 32,768 B, 128 A 2,147,483,648 128.0.0.0
/0 16,777,216 C, 65,536 B, 256 A 4,294,967,296 0.0.0.0
(*) En la práctica hay que restar 2 a este número. La dirección menor (más baja - todos
los bits de host a 0) del bloque se usa para identificar a la propia red (toda la red), y la
dirección mayor (la más alta - todos los bits de host a 1) se usa como dirección de
broadcast. Por tanto, en un bloque CIDR /24 podríamos disponer de
direcciones IP para asignar a dispositivos.

Antecedentes históricos
Originalmente, las direcciones IP se separaban en dos partes: la dirección de red (que
identificaba una red o subred), y la dirección de host (que identificaba la conexión o
interfaz de una máquina específica de la red). Esta división se usaba para controlar la
forma en que se encaminaba el tráfico entre redes basadas en TCP/IP.

El espacio de direcciones IP se dividía en cinco clases principales de redes (A, B, C, D y


E), donde cada clase tenía asignado un tamaño fijo de dirección de red. La clase, y por
extensión la longitud de la dirección de red y de la dirección de host, se podían
determinar comprobando los bits más significativos (a la izquierda) de la dirección IP:

 0 para las redes de Clase A


 10 para las redes de Clase B
 110 para las redes de Clase C
 1110 para las redes de Clase D (usadas para transmisiones multicast)
 11110 para las redes de Clase E (usadas para investigación y experimentación)

Sin una forma de especificar la longitud de prefijo, o la máscara de red, los algoritmos
de encaminamiento en los enrutadores tenían que usar forzosamente la clase de la
dirección IP para determinar el tamaño de los prefijos que se usarían en las tablas de
rutas. Esto no representaba un gran problema en la Internet original, donde sólo había
unas decenas/cientos de ordenadores, y los routers podían almacenar en memoria todas
las rutas necesarias para alcanzarlos.

A medida que la red TCP/IP experimental se expandió en los años 80 para formar
Internet, el número de ordenadores con dirección IP pública creció exponencialmente,
forzando a los enrutadores a incrementar la memoria necesaria para almacenar las tablas
de rutas, y los recursos necesarios para mantener y actualizar esas tablas. La necesidad
de un esquema de direcciones más flexible se hacía cada vez más patente.

Esta situación condujo al desarrollo sucesivo de las subredes y CIDR. Dado que se
ignora la antigua distinción entre clases de direcciones, el nuevo sistema se denominó
encaminamiento sin clases (classless routing). Esta denominación conllevó que el
sistema original fuera denominado encaminamiento con clases (classfull routing).

VLSM parte del mismo concepto que CIDR. El término VLSM se usa generalmente
cuando se habla de redes privadas, mientras que CIDR se usa cuando se habla de
Internet (red pública).

Classless Inter-Domain Routing


Este artículo o sección necesita referencias que aparezcan en una publicación
acreditada, como revistas especializadas, monografías, prensa diaria o páginas
de Internet fidedignas. Este aviso fue puesto el 12 de junio de 2011.
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando:
{{subst:Aviso referencias|Classless Inter-Domain Routing}} ~~~~

Classless Inter-Domain Routing o CIDR (en español «enrutamiento entre dominios sin
clases») se introdujo en 1993 por IETF y representa la última mejora en el modo de
interpretar las direcciones IP. Su introducción permitió una mayor flexibilidad al dividir
rangos de direcciones IP en redes separadas. De esta manera permitió:

 Un uso más eficiente de las cada vez más escasas direcciones IPv4.
 Un mayor uso de la jerarquía de direcciones (agregación de prefijos de red),
disminuyendo la sobrecarga de los enrutadores principales de Internet para
realizar el encaminamiento.

Índice
 1 Introducción
 2 Bloques CIDR
 3 Asignación de bloques CIDR
 4 CIDR y máscaras de subred
 5 Agregación de prefijos
 6 Antecedentes históricos
 7 Véase también
 8 Enlaces externos

Introducción
CIDR reemplaza la sintaxis previa para nombrar direcciones IP, las clases de redes. En
vez de asignar bloques de direcciones en los límites de los octetos, que implicaban
prefijos «naturales» de 8, 16 y 24 bits, CIDR usa la técnica VLSM (variable length
subnet mask, en español «máscara de subred de longitud variable»), para hacer posible
la asignación de prefijos de longitud arbitraria.

CIDR engloba:

 La técnica VLSM para especificar prefijos de red de longitud variable. Una


dirección CIDR se escribe con un sufijo que indica el número de bits de longitud
de prefijo, p.ej. 192.168.0.0/16 que indica que la máscara de red tiene 16 bits (es
decir, los primeros 16 bits de la máscara son 1 y el resto 0). Esto permite un uso
más eficiente del cada vez más escaso espacio de direcciones IPv4
 La agregación de múltiples prefijos contiguos en superredes, reduciendo el
número de entradas en las tablas de ruta globales.

Bloques CIDR
CIDR es un estándar de red para la interpretación de direcciones IP. CIDR facilita el
encaminamiento al permitir agrupar bloques de direcciones en una sola entrada de la
tabla de rutas. Estos grupos, llamados comúnmente Bloques CIDR, comparten una
misma secuencia inicial de bits en la representación binaria de sus direcciones IP.

Los bloques CIDR IPv4 se identifican usando una sintaxis similar a la de las direcciones
IPv4: cuatro números decimales separados por puntos, seguidos de una barra de división
y un número de 0 a 32; A.B.C.D/N.

Los primeros cuatro números decimales se interpretan como una dirección IPv4, y el
número tras la barra es la longitud de prefijo, contando desde la izquierda, y representa
el número de bits comunes a todas las direcciones incluidas en el bloque CIDR.

Decimos que una dirección IP está incluida en un bloque CIDR, y que encaja con el
prefijo CIDR, si los N bits iniciales de la dirección y el prefijo son iguales. Por tanto,
para entender CIDR es necesario visualizar la dirección IP en binario. Dado que la
longitud de una dirección IPv4 es fija, de 32 bits, un prefijo CIDR de N-bits deja
bits sin encajar, y hay combinaciones posibles con los bits restantes.
Esto quiere decir que direcciones IPv4 encajan en un prefijo CIDR de N-bits.

Nótese que los prefijos CIDR cortos (números cercanos a 0) permiten encajar un mayor
número de direcciones IP, mientras que prefijos CIDR largos (números cercanos a 32)
permiten encajar menos direcciones IP.

Una dirección IP puede encajar en varios prefijos CIDR de longitudes diferentes.


CIDR también se usa con direcciones IPv6, en las que la longitud del prefijo varia desde
0 a 128, debido a la mayor longitud de bit en las direcciones, con respecto a IPv4. En el
caso de IPv6 se usa una sintaxis similar a la comentada: el prefijo se escribe como una
dirección IPv6, seguida de una barra y el número de bits significativos.

Asignación de bloques CIDR


 El bloque 208.128.0.0/11, un bloque CIDR largo que contenía más de dos
millones de direcciones, había sido asignado por ARIN, (el RIR
Norteamericano) a MCI.

 Automation Research Systems, una empresa intermediaria del estado de


Virginia, alquiló de MCI una conexión a Internet, y recibió el bloque
208.130.28.0/22, capaz de admitir 1024 direcciones IP ( ;
)

 ARS utilizó un bloque 208.130.29.0/24 para sus servidores públicos, uno de los
cuales era 208.130.29.33.

Todos estos prefijos CIDR se utilizaron en diferentes enrutadores para realizar el


encaminamiento. Fuera de la red de MCI, el prefijo 208.128.0.0/11 se usó para
encaminar hacia MCI el tráfico dirigido no solo a 208.130.29.33, sino también a
cualquiera de los cerca de dos millones de direcciones IP con el mismo prefijo CIDR
(los mismos 11 bits iniciales). En el interior de la red de MCI, 208.130.28.0/22 dirigiría
el tráfico a la línea alquilada por ARS. El prefijo 208.130.29.0/24 se usaría sólo dentro
de la red corporativa de ARS.

CIDR y máscaras de subred


Una máscara de subred es una máscara que codifica la longitud del prefijo de una forma
similar a una dirección IP - 32 bits, comenzando desde la izquierda, ponemos a 1 tantos
bits como marque la longitud del prefijo, y el resto de bits a cero, separando los 32 bits
en cuatro grupos de ocho bits.

CIDR usa máscaras de subred de longitud variable (VLSM) para asignar direcciones
IP a subredes de acuerdo a las necesidades de cada subred. De esta forma, la división
red/host puede ocurrir en cualquier bit de los 32 que componen la dirección IP. Este
proceso puede ser recursivo, dividiendo una parte del espacio de direcciones en
porciones cada vez menores, usando máscaras que cubren un mayor número de bits.

Las direcciones de red CIDR/VLSM se usan a lo largo y ancho de la Internet pública, y


en muchas grandes redes privadas. El usuario normal no ve este uso puesto en práctica,
al estar en una red en la que se usarán, por lo general, direcciones de red privadas
recogidas en el RFC 1918.

Agregación de prefijos
Otro beneficio de CIDR es la posibilidad de agregar prefijos de encaminamiento, un
proceso conocido como "supernetting". Por ejemplo, dieciséis redes /24 contiguas
pueden ser agregadas y publicadas en los enrutadores de Internet como una sola ruta /20
(si los primeros 20 bits de sus respectivas redes coinciden). Dos redes /20 contiguas
pueden ser agregadas en una /19, etc.

Esto permite una reducción significativa en el número de rutas que los enrutadores en
Internet tienen que conocer (y una reducción de memoria, recursos, etc.) y previene una
explosión de tablas de encaminamiento, que podría sobrecargar a los routers e impedir
la expansión de Internet en el futuro.

CIDR IPv4
CIDR No. de redes por clase Hosts* Máscara
/32 1/256 C 1 255.255.255.255
/31 1/128 C 2 255.255.255.254
/30 1/64 C 4 255.255.255.252
/29 1/32 C 8 255.255.255.248
/28 1/16 C 16 255.255.255.240
/27 1/8 C 32 255.255.255.224
/26 1/4 C 64 255.255.255.192
/25 1/2 C 128 255.255.255.128
/24 1C 256 255.255.255.0
/23 2C 512 255.255.254.0
/22 4C 1,024 255.255.252.0
/21 8C 2,048 255.255.248.0
/20 16 C 4,096 255.255.240.0
/19 32 C 8,192 255.255.224.0
/18 64 C 16,384 255.255.192.0
/17 128 C 32,768 255.255.128.0
/16 256 C, 1 B 65,536 255.255.0.0
/15 512 C, 2 B 131,072 255.254.0.0
/14 1,024 C, 4 B 262,144 255.252.0.0
/13 2,048 C, 8 B 524,288 255.248.0.0
/12 4,096 C, 16 B 1,048,576 255.240.0.0
/11 8,192 C, 32 B 2,097,152 255.224.0.0
/10 16,384 C, 64 B 4,194,304 255.192.0.0
/9 32,768 C, 128B 8,388,608 255.128.0.0
/8 65,536 C, 256B, 1 A 16,777,216 255.0.0.0
/7 131,072 C, 512B, 2 A 33,554,432 254.0.0.0
/6 262,144 C, 1,024 B, 4 A 67,108,864 252.0.0.0
/5 524,288 C, 2,048 B, 8 A 134,217,728 248.0.0.0
/4 1,048,576 C, 4,096 B, 16 A 268,435,456 240.0.0.0
/3 2,097,152 C, 8,192 B, 32 A 536,870,912 224.0.0.0
/2 4,194,304 C, 16,384 B, 64 A 1,073,741,824 192.0.0.0
/1 8,388,608 C, 32,768 B, 128 A 2,147,483,648 128.0.0.0
/0 16,777,216 C, 65,536 B, 256 A 4,294,967,296 0.0.0.0
(*) En la práctica hay que restar 2 a este número. La dirección menor (más baja - todos
los bits de host a 0) del bloque se usa para identificar a la propia red (toda la red), y la
dirección mayor (la más alta - todos los bits de host a 1) se usa como dirección de
broadcast. Por tanto, en un bloque CIDR /24 podríamos disponer de
direcciones IP para asignar a dispositivos.

Antecedentes históricos
Originalmente, las direcciones IP se separaban en dos partes: la dirección de red (que
identificaba una red o subred), y la dirección de host (que identificaba la conexión o
interfaz de una máquina específica de la red). Esta división se usaba para controlar la
forma en que se encaminaba el tráfico entre redes basadas en TCP/IP.

El espacio de direcciones IP se dividía en cinco clases principales de redes (A, B, C, D y


E), donde cada clase tenía asignado un tamaño fijo de dirección de red. La clase, y por
extensión la longitud de la dirección de red y de la dirección de host, se podían
determinar comprobando los bits más significativos (a la izquierda) de la dirección IP:

 0 para las redes de Clase A


 10 para las redes de Clase B
 110 para las redes de Clase C
 1110 para las redes de Clase D (usadas para transmisiones multicast)
 11110 para las redes de Clase E (usadas para investigación y experimentación)

Sin una forma de especificar la longitud de prefijo, o la máscara de red, los algoritmos
de encaminamiento en los enrutadores tenían que usar forzosamente la clase de la
dirección IP para determinar el tamaño de los prefijos que se usarían en las tablas de
rutas. Esto no representaba un gran problema en la Internet original, donde sólo había
unas decenas/cientos de ordenadores, y los routers podían almacenar en memoria todas
las rutas necesarias para alcanzarlos.

A medida que la red TCP/IP experimental se expandió en los años 80 para formar
Internet, el número de ordenadores con dirección IP pública creció exponencialmente,
forzando a los enrutadores a incrementar la memoria necesaria para almacenar las tablas
de rutas, y los recursos necesarios para mantener y actualizar esas tablas. La necesidad
de un esquema de direcciones más flexible se hacía cada vez más patente.

Esta situación condujo al desarrollo sucesivo de las subredes y CIDR. Dado que se
ignora la antigua distinción entre clases de direcciones, el nuevo sistema se denominó
encaminamiento sin clases (classless routing). Esta denominación conllevó que el
sistema original fuera denominado encaminamiento con clases (classfull routing).

VLSM parte del mismo concepto que CIDR. El término VLSM se usa generalmente
cuando se habla de redes privadas, mientras que CIDR se usa cuando se habla de
Internet (red pública).

Dynamic Host Configuration Protocol


Dynamic Host Configuration Protocol (DHCP)
Familia Familia de protocolos de Internet
Configuración automática de parámetros de
Función
red
67/UDP (servidor)
Puertos
68/UDP (cliente)
Ubicación en la pila de protocolos
Aplicación DHCP
Transporte UDP
Red IP
Estándares
RFC 2131 (1997)

DHCP (siglas en inglés de Dynamic Host Configuration Protocol, en español


«protocolo de configuración dinámica de host») es un protocolo de red que permite a los
clientes de una red IP obtener sus parámetros de configuración automáticamente. Se
trata de un protocolo de tipo cliente/servidor en el que generalmente un servidor posee
una lista de direcciones IP dinámicas y las va asignando a los clientes conforme éstas
van quedando libres, sabiendo en todo momento quién ha estado en posesión de esa IP,
cuánto tiempo la ha tenido y a quién se la ha asignado después.

Este protocolo se publicó en octubre de 1993, y su implementación actual está en la


RFC 2131. Para DHCPv6 se publica el RFC 3315.

Índice
 1 Historia
 2 Asignación de direcciones IP
 3 Parámetros configurables
 4 Implementaciones
 5 Anatomía del protocolo
o 5.1 DHCP Discovery
o 5.2 DHCP Offer
o 5.3 DHCP Request
o 5.4 DHCP Acknowledge
o 5.5 Confidencialidad
 6 Véase también
 7 Referencias
 8 Enlaces externos

Historia
DHCP se definió por primera vez como un protocolo de seguimiento de las normas en
el RFC 1531 en octubre de 1993, como una extensión del protocolo Bootstrap
(BOOTP). La motivación para extender BOOTP era porque BOOTP requería
intervención manual para completar la información de configuración en cada cliente, y
no proporciona un mecanismo para la recuperación de las direcciones IP en desuso.

Muchos trabajaron para mejorar el protocolo, ya que ganó popularidad y en 1997 se


publicó el RFC 2131, y al 2011 se mantiene como el estándar para redes IPv4. DHCPv6
está documentado en el RFC 3315. El RFC 3633 añadió un mecanismo de delegación
de prefijo para DHCPv6. DHCPv6 se amplió aun más para proporcionar información de
configuración a los clientes configurados con la configuración automática de
direcciones sin estado en el RFC 3736.

El protocolo BOOTP a su vez fue definido por primera vez en el RFC 951 como un
reemplazo para el protocolo RARP (del inglés "Reverse Address Resolution Protocol"),
o resolución de direcciones inversa. La principal motivación para la sustitución de
RARP con BOOTP fue que RARP era un protocolo de la capa de enlace de datos. Esto
hizo más difícil su aplicación en muchas plataformas de servidores, y requería un
servidor presente en cada enlace de red individual. BOOTP introdujo la innovación de
un agente de retransmisión, lo que permitió el envío de paquetes BOOTP fuera de la red
local utilizando enrutamiento IP estándar, por lo que un servidor central de BOOTP
podría servir de anfitriones en muchas subredes IP.1

Asignación de direcciones IP
Cada dirección IP debe configurarse manualmente en cada dispositivo y, si el
dispositivo se mueve a otra subred, se debe configurar otra dirección IP diferente. El
DHCP le permite al administrador supervisar y distribuir de forma centralizada las
direcciones IP necesarias y, automáticamente, asignar y enviar una nueva IP si fuera el
caso en el dispositivo es conectado en un lugar diferente de la red.

El protocolo DHCP incluye tres métodos de asignación de direcciones IP:

 Asignación manual o estática: Asigna una dirección IP a una máquina


determinada. Se suele utilizar cuando se quiere controlar la asignación de
dirección IP a cada cliente, y evitar, también, que se conecten clientes no
identificados.

 Asignación automática: Asigna una dirección IP a una máquina cliente la


primera vez que hace la solicitud al servidor DHCP y hasta que el cliente la
libera. Se suele utilizar cuando el número de clientes no varía demasiado.

 Asignación dinámica: el único método que permite la reutilización dinámica de


las direcciones IP. El administrador de la red determina un rango de direcciones
IP y cada dispositivo conectado a la red está configurado para solicitar su
dirección IP al servidor cuando la tarjeta de interfaz de red se inicializa. El
procedimiento usa un concepto muy simple en un intervalo de tiempo
controlable. Esto facilita la instalación de nuevas máquinas clientes.
Algunas implementaciones de DHCP pueden actualizar el DNS asociado con los
servidores para reflejar las nuevas direcciones IP mediante el protocolo de actualización
de DNS establecido en RFC 2136 (Inglés).

El DHCP es una alternativa a otros protocolos de gestión de direcciones IP de red, como


el BOOTP (Bootstrap Protocol). DHCP es un protocolo más avanzado, pero ambos son
los usados normalmente.

En Windows 98 y posteriores, cuando el DHCP es incapaz de asignar una dirección IP,


se utiliza un proceso llamado "Automatic Private Internet Protocol Addressing".

Parámetros configurables
Artículo principal: Parámetros DHCP

Un servidor DHCP puede proveer de una configuración opcional al dispositivo cliente.


Dichas opciones están definidas en RFC 2132 (Inglés) Lista de opciones configurables:

 Dirección del servidor DNS


 Nombre DNS
 Puerta de enlace de la dirección IP
 Dirección de Publicación Masiva (broadcast address)
 Máscara de subred
 Tiempo máximo de espera del ARP (Protocolo de Resolución de Direcciones
según siglas en inglés)
 MTU (Unidad de Transferencia Máxima según siglas en inglés) para la interfaz
 Servidores NIS (Servicio de Información de Red según siglas en inglés)
 Dominios NIS
 Servidores NTP (Protocolo de Tiempo de Red según siglas en inglés)
 Servidor SMTP
 Servidor TFTP
 Nombre del servidor WINS

Implementaciones
Microsoft introdujo el DHCP en sus Servidores NT con la versión 3.5 de Windows NT
a finales de 1994.

El Consorcio de Software de Internet (ISC: Internet Software Consortium) publicó


distribuciones de DHCP para Unix con la versión 1.0.0 del ISC DHCP Server el 6 de
diciembre de 1997 y una versión (2.0) que se adaptaba mejor al RFC el día 22 de junio
de 1999. Se puede encontrar el software en http://www.isc.org/sw/dhcp/

Otras implementaciones importantes incluyen:

 Cisco: un servidor DHCP habilitado en Cisco IOS 12.0 en el mes de febrero de


1999
 Sun: añadió el soporte para DHCP a su sistema operativo Solaris el 8 de julio de
2001.
Además, varios routers incluyen soporte DHCP para redes de hasta 255 dispositivos.

Anatomía del protocolo

Esquema de una sesión típica DHCP.

(Autoridad de Números Asignados en Internet según siglas en inglés) en BOOTP:


67/UDP para las computadoras servidor y 68/UDP para los clientes.

DHCP Discovery

Artículo principal: DHCP Discovery

DHCP Discovery es una solicitud DHCP realizada por un cliente de este protocolo para
que el servidor DHCP de dicha red de computadoras le asigne una dirección IP y otros
Parámetros DHCP como la máscara de red o el nombre DNS.2

DHCP Offer

Artículo principal: DHCP Offer

DHCP Offer es el paquete de respuesta del Servidor DHCP a un cliente DHCP ante su
petición de la asignación de los Parámetros DHCP. Para ello involucra su dirección
MAC (Media Access Control).

DHCP Request

Artículo principal: DHCP Request

El cliente selecciona la configuración de los paquetes recibidos de DHCP Offer. Una


vez más, el cliente solicita una dirección IP específica que indicó el servidor

DHCPREQUEST
UDP Src=0.0.0.0
sPort=68
Dest=255.255.255.255
dPort=67
OP HTYPE HLEN HOPS
0x01 0x01 0x06 0x00
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
CIADDR
0x00000000
YIADDR
0x00000000
SIADDR
0x00000000
GIADDR
0x00000000
CHADDR
0x00053C04
0x8D590000
0x00000000
0x00000000
192 octets of 0's. BOOTP legacy
Magic Cookie
0x63825363
DHCP Options
DHCP option 53: DHCP Request
DHCP option 50: 192.168.1.100 requested
DHCP option 54: 192.168.1.1 DHCP server.

DHCP Acknowledge

Artículo principal: DHCP Acknowledge

Cuando el servidor DHCP recibe el mensaje DHCPREQUEST del cliente, se inicia la


fase final del proceso de configuración. Esta fase implica el reconocimiento con el envío
de un paquete al cliente. Este paquete incluye la duración de la concesión y cualquier
otra información de configuración que el cliente pueda tener solicitada. En este punto, el
proceso de configuración TCP/IP se ha completado. El servidor reconoce la solicitud y
la envía acuse de recibo al cliente. El sistema en su conjunto espera que el cliente para
configurar su interfaz de red con las opciones suministradas. El servidor DHCP
responde a la DHCPREQUEST con un DHCPACK, completando así el ciclo de
iniciación. La dirección origen es la dirección IP del servidor de DHCP y la dirección de
destino es todavía 255.255.255.255. El campo YIADDR contiene la dirección del
cliente, y los campos CHADDR y DHCP: Client Identifier campos son la dirección
física de la tarjeta de red en el cliente. La sección de opciones del DHCP identifica el
paquete como un ACK.

DHCPACK
UDP Src=192.168.1.1
sPort=67 Dest=255.255.255.255 dPort=68
OP HTYPE HLEN HOPS
0x02 0x01 0x06 0x00
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
CIADDR (Client IP Address)
0x00000000
YIADDR (Your IP Address)
0xC0A80164
SIADDR (Server IP Address)
0x00000000
GIADDR (Gateway IP Address switched by relay)
0x00000000
CHADDR (Client Hardware Address)
0x00053C04
0x8D590000
0x00000000
0x00000000
192 octets of 0's. BOOTP legacy
Magic Cookie
0x63825363
DHCP Options
DHCP option 53: DHCP ACK
DHCP option 1: 255.255.255.0 subnet mask
DHCP option 3: 192.168.1.1 router
DHCP option 51: 1 day IP lease time
DHCP option 54: 192.168.1.1 DHCP server

Confidencialidad

En un contexto de proveedor de Internet, los registros DHCP de asignación de


direcciones o bien contienen o están vinculadas a información de identificación personal
confidencial, los datos de contacto del cliente. Estos son atractivos para los spammers, y
podrían ser buscados para "expediciones de pesca" por las agencias de policía o
litigantes. Por lo menos una aplicación[cita requerida] imita la política de Canadian Library
Association para la circulación del libro y no retiene información de identificación una
vez que el "préstamo" ha terminado.
Calidad de servicio
Este artículo o sección necesita referencias que aparezcan en una publicación
acreditada, como revistas especializadas, monografías, prensa diaria o páginas
de Internet fidedignas. Este aviso fue puesto el 3 de agosto de 2009.
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando:
{{subst:Aviso referencias|Calidad de servicio}} ~~~~

QoS o Calidad de Servicio (Quality of Service, en inglés) es el rendimiento promedio


de una red de telefonía o de computadoras, particularmente el rendimiento visto por los
usuarios de la red.1 Cuantitativamente medir la calidad de servicio son considerados
varios aspectos del servicio de red, tales como tasas de errores, ancho de banda,
rendimiento, retraso en la transmisión, disponibilidad, jitter, etc.

Calidad de servicio es particularmente importante para el transporte de tráfico con


requerimientos especiales. En particular, mucha tecnológica ha sido desarrollada para
permitir a las redes de computadoras ser tan útiles como las redes de teléfono para
conversaciones de audio, así como el soporte de nuevas aplicaciones con demanda de
servicios más estrictos.

Ejemplos de mecanismos de QoS son la priorización de tráfico y la garantía de un ancho


de banda mínimo.

La aplicación de QoS es un requisito básico para poder implantar servicios interactivos


(por ejemplo voip).

Índice
 1 Definiciones
 2 Problemas en redes de datos conmutados
 3 Aplicaciones
 4 Mecanismos
o 4.1 Esfuerzos de IP y Ethernet
o 4.2 Protocolos
 5 Calidad de servicio de extremo a extremo
 6 Elusión
 7 QoS en ATM
 8 QoS en escenarios inalámbricos
 9 Sobre-aprovisionamiento
 10 Soluciones para la calidad de servicio
 11 Calidad de servicio utilizando UPnP
 12 Soluciones para la calidad de servicio
 13 Referencias
 14 Enlaces externos

Definiciones
Calidad de servicios comprende requerimientos en todos los aspectos de una conexión,
tales como tiempo de respuesta de los servicios, pérdidas, ratio señal-a-ruido, diafonías,
eco, interrupciones, frecuencia de respuesta, niveles de sonido, entre otros. Una sub
categoría de calidad de servicios de telefonía son los requerimientos de nivel de
servicio, los cuales comprenden aspectos de una conexión relacionados con la capacidad
y cobertura de una red, por ejemplo garantizar la probabilidad máxima de bloqueo y la
probabilidad de interrupción.2

En el campo de las redes de computadoras y otras redes de telecomunicación en


paquetes, los términos de ingeniería del tráfico se refieren a mecanismos de control para
reservación de recursos en vez de la calidad de servicio lograda.

Calidad de servicio es la habilidad de proveer diferentes prioridades a diferentes


aplicaciones, usuarios, o flujos de datos, o de garantizar un cierto nivel de rendimiento
para un flujo de datos. Por ejemplo, una requerida tasa de bits, retraso, jitter,
probabilidad de eliminación de paquetes y/o tasa de bit de errores pueden ser
garantizados. Las garantías de la calidad de servicio son importantes si la capacidad de
la red es insuficiente, especialmente para aplicaciones de transmisión multimedia en
tiempo real tales como voz sobre IP, juegos en línea y IP-TV, ya que a menudo estos
requieren tasa de bit establecidas y son sensitivas al retraso, y en redes donde la
capacidad es un recurso limitado, por ejemplo en comunicación de data celular.

Una red o protocolo que soporta Calidad de servicios puede coincidir en un contrato de
tráfico con la aplicación y reservar capacidad en los nodos de la red, por ejemplo
durante una fase de establecimiento de sesión. Durante la sesión puede monitorear el
nivel de rendimiento alcanzado, por ejemplo la tasa de data y el retraso, y
dinámicamente controlar las prioridades entre los nodos de la red. Esta puede liberar la
capacidad reservada durante una fase posterior.

Una red o servicio de mejor-esfuerzo no soporta calidad de servicio. Una alternativa a


complejos mecanismos de control de calidad de servicios es proveer comunicación de
alta calidad sobre una red mejor-esfuerzo sobre provisionando la capacidad de tal
manera que sea suficiente para la carga de tráfico esperada. La resultante ausencia de
congestión en la red elimina la necesidad de mecanismos de calidad de servicios.

Calidad de servicios es algunas veces usada como medidor de calidad, con muchas
definiciones alternativas, en lugar de refiriéndose a la habilidad de reservar recursos.
Calidad de servicios algunas veces se refiere al nivel de calidad de servicios, i.e. La
garantizada calidad de servicio. Alta calidad de servicio a menudo es confundida con
alto nivel de rendimiento o la calidad de servicio alcanzada, por ejemplo altas tasas de
bit, baja latencia y baja probabilidad de error.

Problemas en redes de datos conmutados


Muchas cosas le ocurren a los paquetes desde su origen al destino, resultando los
siguientes problemas vistos desde el punto de vista del transmisor y receptor:

Bajo rendimiento
Debido a la carga variante de otros usuarios compartiendo los mismos recursos de red,
la tasa de bits (el máximo rendimiento) que puede ser provista para una cierta
transmisión de datos puede ser muy lenta para servicios en tiempo real si toda la
transmisión de datos obtiene el mismo nivel de prioridad.

Paquetes sueltos

Los ruteadores pueden fallar en liberar algunos paquetes si ellos llegan cuando los
buffers ya están llenos. Algunos, ninguno o todos los paquetes pueden quedar sueltos
dependiendo del estado de la red, y es imposible determinar que pasará de antemano. La
aplicación del receptor puede preguntar por la información que será retransmitida
posiblemente causando largos retardos a lo largo de la transmisión.

Retardos

Puede ocurrir que los paquetes tomen un largo período en alcanzar su destino, debido a
que pueden permanecer en largas colas o tomen una ruta menos directa para prevenir la
congestión de la red. En algunos casos, los retardos excesivos pueden inutilizar
aplicaciones tales como VoIP o juegos en línea.

Latencia

Puede tomar bastante tiempo para que cada paquete llegue a su destino, porque puede
quedar atascado en largas colas, o tomar una ruta menos directa para evitar la
congestión. Esto es diferente de rendimiento, ya que el retraso puede mejorar con el
tiempo, incluso si el rendimiento es casi normal. En algunos casos, latencia excesiva
puede convertir a una aplicación como VoIP juegos online inusable.

Jitter

Los paquetes del transmisor pueden llegar a su destino con diferentes retardos. Un
retardo de un paquete varía impredeciblemente con su posición en las colas de los
ruteadores a lo largo del camino entre el transmisor y el destino. Esta variación en
retardo se conoce como jitter y puede afectar seriamente la calidad del flujo de audio
y/o vídeo.

Entrega de paquetes fuera de orden

Cuando un conjunto de paquetes relacionados entre sí son encaminados a Internet, los


paquetes pueden tomar diferentes rutas, resultando en diferentes retardos. Esto ocasiona
que los paquetes lleguen en diferente orden de como fueron enviados. Este problema
requiere un protocolo que pueda arreglar los paquetes fuera de orden a un estado
isócrono una vez que ellos lleguen a su destino. Esto es especialmente importante para
flujos de datos de vídeo y VoIP donde la calidad es dramáticamente afectada tanto por
latencia y pérdida de sincronía.

Errores
A veces, los paquetes son mal dirigidos, combinados entre sí o corrompidos cuando se
encaminan. El receptor tiene que detectarlos y justo cuando el paquete es liberado,
pregunta al transmisor para repetirlo así mismo.

Aplicaciones
 Transmisión de medios
o Televisión de protocolo de Internet (IPTV)
o Audio sobre Ethernet
o Audio sobre IP
 Telefonía IP también conocida como Voz sobre IP (VoIP)
 Videoconferencia
 Telepresencia
 Aplicaciones de almacenamiento como iSCSI y FCoE
 Servicio de emulación de circuito
 Aplicaciones críticas de seguridad como cirugía remota donde los problemas de
disponibilidad pueden ser peligrosos
 Sistemas de soporte a las operaciones de redes ya sea para la misma red o para
las necesidades críticas del negocio de los clientes
 Juegos en línea donde el retraso en tiempo real puede ser un factor
 Protocolos de sistemas de control industrial como Ethernet/IP los cuales son
utilizados para el control en tiempo real de la maquinaria

Estos tipos de servicios son denominados no elásticos, que significa que requieren un
determinado nivel mínimo de ancho de banda y una determinada latencia máxima para
funcionar. En contraste, las aplicaciones elásticas pueden tomar ventaja de por mucho o
poco ancho de banda haya disponible. Las aplicaciones de transferencia de archivo
mayor que dependen de TCP son generalmente elásticas.

Mecanismos
Las redes de comunicación por circuitos, especialmente las que están destinadas para
transmisión de voz, tales como ATM (Asynchronous Transfer Mode) o GSM, Tiene
calidad de servicio en el núcleo del protocolo y no necesitan procedimientos adicionales
para alcanzarla. Unidades de datos más cortas es una de los puntos de venta únicos de
ATM para aplicaciones como video en demanda.

La cantidad de sobre-aprovisionamiento en enlaces interiores requerida para reemplazar


la QoS depende del número de usuarios y sus demandas de tráfico. Esto limita la
usabilidad del sobre-aprovisionamiento. Aplicaciones más nuevas con ancho de banda
intensivo y la adición de más usuarios resulta en la pérdida de redes de sobre-
aprovisionamiento. Esto requiere entonces una actualización física de los enlaces de red
relevantes lo cual es un proceso costoso. Por lo tanto el sobre-aprovisionamiento no
puede ser asumido a ciegas en Internet.

Esfuerzos de IP y Ethernet

A diferencia de redes de un solo dueño, el Internet es una serie de puntos de intercambio


interconectando redes privadas.3 Por consiguiente el núcleo de Internet pertenece y es
administrado por un número de diferentes proveedores de servicio de red y no una
entidad única. Su comportamiento es mucho más estocástico o impredecible. Por lo
tanto, continua la investigación sobre procedimientos de QoS que sean desplegables en
redes grandes y diversas.

Hay dos enfoques principales a QoS en las redes IP modernas de paquete-cambiado, un


sistema parametrizado basado en un intercambio de requerimientos de la aplicación con
la red, y un sistema priorizado donde cada paquete identifica un nivel de servicio
deseado a la red.

• Servicios integrados (“IntServ”) implementa el enfoque parametrizado. En este


modelo, las aplicaciones usan el protocolo de reservación de recurso para solicitar y
reservar recursos a lo largo de la red.

• Servicios diferenciados (“DiffServ”) implementa el modelo priorizado. DiffServ


marca paquetes de acuerdo al tipo de servicio que desean. En respuesta a estas marcas,
los enrutadores y switches usan varias estrategias de queueing (hacer cola) para adaptar
el rendimiento a las expectativas. Marcas de punto código de servicios diferenciados
(DSCP) usan los primeros 6 bits en el campo de tipo de servicio de la cabecera del
paquete IPv4.

Primeramente se usaban la filosofía de servicios integrados (IntServ) de reservar los


recursos de la red. En este modelo, las aplicaciones usaban el protocolo de reservación
de recurso para solicitar y reservar recursos a lo largo de una red. Aunque los
mecanismos de IntServ funcionan, se observó que una red de ancho de banda típica de
un proveedor mayor de servicio, se requería que los enrutadores núcleo aceptaran,
mantuvieran y quitaran miles o posiblemente decenas de miles de reservaciones. Se
creía que este enfoque no se acomodaría al crecimiento de Internet, y en cualquier
evento era antitética a la noción de diseñar redes de manera que los enrutadores núcleo
hagan más que sólo cambiar paquetes a las tasas más altas posibles.

En respuesta a estas marcas, los enrutadores y switches usan varias estrategias de


queueing para adaptar el rendimiento a los requerimientos. En la capa IP, marcas de
punto código de servicios diferenciados (DSCP) usan los 6 bits en la cabecera del
paquete IP. En la capa MAC, VLAN IEEE 802.1Q y IEEE 802.1p pueden ser usados
para llevar esencialmente la misma información.

Los enrutadores que soportan DiffServ configuran su programador de red para utilizar
múltiples colas para paquetes que esperan transmisión desde interfaces de ancho de
banda limitado. Los vendedores de enrutadores proveen diferentes capacidades para
configurar este comportamiento, para incluir el número de colas soportadas, las
prioridades relativas de las colas, y el ancho de banda reservado para cada cola.

En la práctica, cuando un paquete debe ser remitido desde una interface con queueing,
los paquetes que requieren jitter bajo (VoIP o videoconferencia, por ejemplo) reciben
prioridad sobre paquetes en otras colas. Típicamente, cierto ancho de banda es asignado
por defecto a los paquetes de control de red (tales como protocolo de mensaje de control
de Internet y protocolos de enrutamiento), mientras que al tráfico de mejor esfuerzo se
le puede asignar cualquier ancho de banda que sobre.
En la capa MAC, VLAN IEEE 802.1Q y IEEE 802.1p pueden ser usados para distinguir
entre cuadros Ethernet y clasificarlos. Modelos de teoría de queueing han sido
desarrollados en análisis de rendimiento y QoS para protocolos de la capa MAC.4 5

Cisco IOS NetFlow y la Base de información de administración de QoS basada en clase


de Cisco son comercializados por Cisco Systems.

Un ejemplo convincente de la necesidad de QoS en Internet se relaciona al colapso de


congestión. Internet depende de protocolos de prevención de congestión, como los
integrados en el protocolo de control de transmisión (TCP), para reducir el tráfico bajo
condiciones que de otra manera llevarían al “derrumbe”. Aplicaciones QoS tales como
VoIP y IPTV, porque requieren una tasa de bits constante una tasa de bits constante en
gran medida y la latencia baja no puede usar TCP and no puede reducir de otra manera
su tasa de tráfico para ayudar a prevenir la congestión. Los contratos QoS limitan el
tráfico que puede ser brindado a Internet y por ello fuerzan la formación de tráfico que
pueden prevenir que se sobrecargue, y por ende una parte indispensable de la capacidad
de Internet de manejar una mezcla de tráfico en tiempo real y tráfico que no es en
tiempo real sin “derrumbe”.

Protocolos

• El campo de tipo de servicio (ToS) en la cabecera de IPv4 (ahora sustituida por


DiffServ)

• Servicios diferenciados (DiffServ)

• Servicios integrados (IntServ)

• Protocolo de reservación de recurso (RSVP)

• Cambio de etiqueta de multiprotocolo (MPLS) provee ocho clases QoS.

• RSVP-te

• Frame Relay

• X.25

• Algunos módems ADSL

• Modo de transferencia asíncrona

• IEEE 802.1p

• IEEE 802.1Q

• IEEE 802.11e

• HomePNA – Creación de redes sobre cables coaxiales y de teléfono


• El estándar ITU-T G.hn provee QoS mediante oportunidades de transmisión de
contención libre (CFTXOPs) las cuales son asignadas a flujos que requieren QoS y las
cuales han negociado un “contrato” con el controlador de la red. G.hn también soporta
operación sin QoS mediante ranuras de tiempo basadas en contención.

• Audio Video Bridging

Calidad de servicio de extremo a extremo


La calidad de servicio de extremo a extremo puede requerir un método de coordinación
de asignación de recursos entre un sistema autónomo y otro. El grupo de trabajo de
ingeniería de Internet (GTII) definió el protocolo de reservación de recurso (RSVP) para
ancho de banda, como un estándar propuesto en 1997. RSVP es un protocolo de
reservación de ancho de banda de extremo a extremo. La versión de ingeniería de
tráfico, RSVP-TE, es usada en muchas redes para establecer rutas de etiqueta-cambiada
de multiprotocolo de tráfico dirigido. El GTII también definió el grupo de trabajo Next
Steps in Signaling (NSIS) con la señalización QoS como un objetivo. NSIS es un
desarrollo y simplificación de RSVP.

Consorcios de investigación tales como “soporte QoS de extremo a extremo sobre redes
heterogéneas” (EuQoS, desde 2004 hasta 2007) y foros como el foro IPsphere
desarrollaron más mecanismos para enlazar la invocación de QoS desde un dominio al
siguiente. IPsphere definió el bus de señanlización denominado estrato de estructuración
de servicio (EES) con el fin de establecer, invocar y (intentar) asegurar los servicios de
red. EuQoS condujo experimentos para integrar protocolo de inicio de sesión, NSIS y
EES con un costo estimado de 15.6 millones de euros y publicó un libro.

Un proyecto de investigación Multi Service Access Everywhere (MUSE) definió otro


concepto de QoS en una primera fase desde enero 2004 hasta febrero 2006, y una
segunda fase desde enero 2006 hasta 2007. Otro proyecto de investigación llamado
PlaNetS fue propuesto para el financiamiento europeo alrededor del año 2005. Un
proyecto europeo más amplio llamado “Arquitectura y diseño para el Internet futuro”
conocido como 4WARD tuvo un presupuesto estimado de 23.4 millones de euros y fue
financiado desde enero 2008 hasta junio 2010. Incluía un “tema de QoS” y publicó un
libro. Otro proyecto europeo, llamado SRID (Sistema de red inalámbrica desplegable)
propuso un enfoque de reservación de ancho de banda para redes móviles inalámbricas
adhoc de multitasas.

En el dominio de servicios, la QoS de extremo a extremo también ha sido discutida en


el caso de servicios compuestos (consistiendo de servicios atómicos) o aplicaciones
(consistiendo de componentes de aplicaciones). Además, en computación en la nube la
QoS de extremo a extremo ha sido el foco de varios esfuerzos de investigación con el
objetivo de la provisión que QoS garantiza a lo largo de los modelos de servicio de la
nube.

Elusión
Fuertes protocolos de criptografía de red tales como capa de conexión segura, I2P y
redes privadas virtuales oscurecen los datos que se transfieren cuando se usan. Como
todo el comercio electrónico en Internet requiere el uso de tales fuertes protocolos de
criptografía, degradando unilateralmente el rendimiento de tráfico encriptado crea un
peligro inaceptable para los clientes. A pesar de todo, el tráfico es incapaz de someterse
a una inspección profunda de paquetes para QoS.

QoS en ATM
Una de las grandes ventajas de ATM (Asynchronous Transfer Mode – Modo de
Transferencia Asíncrona) respecto de técnicas como el Frame Relay y Fast Ethernet es
que admite niveles de QoS. Esto permite que los proveedores de servicios ATM
garanticen a sus clientes que el retardo de extremo a extremo no excederá un nivel
específico de tiempo o que garantizarán un ancho de banda específico para un servicio.
Esto es posible marcando los paquetes que provengan de una dirección IP determinada
de los nodos conectados a un gateway (como por ejemplo la IP de un teléfono IP, según
la puerta del router, etc.). Además, en los servicios satelitales da una nueva perspectiva
en la utilización del ancho de banda, dando prioridades a las aplicaciones de extremo a
extremo con una serie de reglas.

Una red IP está basada en el envío de paquetes de datos. Estos paquetes de datos tienen
una cabecera que contiene información sobre el resto del paquete. Existe una parte del
paquete que se llama ToS (Type of Service), en realidad pensada para llevar banderas o
marcas. Lo que se puede hacer para darle prioridad a un paquete sobre el resto es marcar
una de esas banderas (flags, en inglés).

Para ello, el equipo que genera el paquete, por ejemplo una puerta de enlace (gateway,
en inglés) de voz sobre IP, coloca una de esas banderas en un estado determinado. Los
dispositivos por donde pasa ese paquete después de ser transmitido deben tener la
capacidad para poder discriminar los paquetes para darle prioridad sobre los que no
fueron marcados o los que se marcaron con una prioridad menor a los anteriores. De
esta manera podemos generar prioridades altas a paquetes que requieren una cierta
calidad de envío, como por ejemplo la voz o el vídeo en tiempo real, y menores al resto.

QoS en escenarios inalámbricos


El entorno inalámbrico es muy hostil para medidas de Calidad de Servicio debido a su
variabilidad con el tiempo, ya que puede mostrar una calidad nula en un cierto instante
de tiempo. Esto implica que satisfacer la QoS resulta imposible para el 100% de los
casos, lo que representa un serio desafío para la implementación de restricciones de
máximo retardo y máxima varianza en el retardo (jitter) en sistemas inalámbricos.

Los sistemas de comunicaciones ya estandarizados con restricciones QoS de retardo y


jitter en entornos inalámbricos (por ejemplo en GSM y UMTS) sólo pueden garantizar
los requisitos para un porcentaje (<100%) de los casos. Esto implica una caída del
servicio (Outage o downtime en inglés), generando los cortes de llamadas y/o los
mensajes de “red ocupada”. Por otro lado, algunas aplicaciones de datos (por ejemplo,
WiFi) no requieren de restricciones de máximo retardo y jitter, por lo que su
transmisión sólo necesita de la calidad media del canal, evitando la existencia de caídas
del servicio.
Sobre-aprovisionamiento
Un mecanismo de control de calidad de servicios alternativo más complejo es el proveer
comunicación de alta calidad al generosamente sobre-aprovisionar una red de tal forma
que la capacidad este basada en picos de trafico estimadas. Este enfoque es simple para
las redes con las cargas máximas previsibles. El rendimiento es razonable para muchas
aplicaciones. Esto podría incluir aplicaciones exigentes que pueden compensar las
variaciones en el ancho de banda y la demora con grandes buffers de entrada, que a
menudo es posible, por ejemplo, en la transmisión de vídeo. Sobre-aprovisionamiento
puede ser de uso limitado, sin embargo, en vista de protocolos de transporte (como
TCP) que con el tiempo aumentan exponencialmente la cantidad de datos que se
colocan en la red hasta que se consume todo el ancho de banda disponible. Tales
protocolos tienden a aumentar la latencia y pérdida de paquetes para todos los usuarios.

Los servicios de VoIP comerciales son a menudo competitivos con el servicio telefónico
tradicional en términos de calidad de la llamada a pesar de que los mecanismos de QoS
por lo general no están en uso en la conexión del usuario a su proveedor de Internet y la
conexión del proveedor de VoIP a un ISP diferente. Sin embargo bajo condiciones de
carga alta, VoIP puede degradarse a calidad de teléfono celular o peor. Las matemáticas
del tráfico de paquetes indican que las redes requieren 60% más capacidad bajo
asunciones conservadoras.6

Soluciones para la calidad de servicio


El concepto de QoS ha sido definido dentro del proyecto europeo Medea+PlaNetS,7
proporcionando un término común para la evaluación de las prestaciones de las
comunicaciones en red, donde coexisten aplicaciones sin requisitos de retardo con otras
aplicaciones con estrictas restricciones de máximo retardo y jitter. Dentro de PlaNetS,
cuatro diferentes clases de aplicaciones han sido definidas, donde cada clase se
distingue por sus propios valores de máximo retardo y jitter. La figura (1) muestra estas
clases:

1. Conversación: caracterizada por la más alta prioridad y los requerimientos de


menor retardo y jitter.
2. Streaming: flujo de vídeo o voz.
3. Servicios interactivos.
4. Aplicaciones secundarias: la más baja prioridad y mayor permisividad de retardo
y jitter.

Los beneficios de la solución PlaNetS se resumen en:

1. La posibilidad de pre-calcular el máximo retardo y jitter de la comunicación; y


para cada una de las clases de aplicaciones.
2. La solución propuesta es implementada con un simple scheduler que conoce la
longitud de las colas de paquetes.
3. La conformidad de los nodos de la comunicación es fácilmente comprobable.
4. Una mayor QoS, tanto para el sistema como para el usuario final.
5. La posibilidad de obtener esquemas prácticos de control de acceso (Connection
Admission Control,(CAC), en inglés).
Figura 1: Las cuatro diferentes clases de servicios en Medea+ PlaNetS

Calidad de servicio utilizando UPnP


UPnP es una tecnología desarrollada por el UPnP Forum que permite a los dispositivos
en una red formar comunidades y compartir servicios. Cada dispositivo se ve como
colección de uno o más dispositivos y servicios empotrados no necesitando establecer
ninguna conexión preliminar o persistente para comunicarse con otro dispositivo. Existe
un punto de control que descubre los dispositivos y sincroniza su interacción. Esta
tecnología se usa sobre todo en el entorno multimedia, pudiéndola utilizar en
dispositivos comerciales como la XBOX 360 (compartir archivos multimedia entre la
videoconsola y el ordenador), la generación de móviles N de Nokia, etc.

Dentro del UPnP Forum se trabaja en la especificación de arquitecturas de calidad de


servicio, y considerando la calidad de servicio local, es decir dentro de la red local. La
segunda versión de la especificación de la arquitectura de calidad de servicio UPnP se
ha publicado,8 donde la especificación no define ningún tipo de dispositivo, sino un
framework de UPnP QoS formado básicamente por tres distintos servicios. Estos
servicios, por lo tanto, van a ser ofrecidos por otros dispositivos UPnP. Los tres
servicios son:

1. QosDevice
2. QosPolicyHolder
3. QosManager

La relación entre estos servicios puede verse en la figura (2) en la que se muestra un
diagrama con la arquitectura UPnP QoS.
Figura 2: la arquitectura UPnP QoS.

En la figura se aprecia que un punto de control es el que inicia la comunicación (por


ejemplo, puede ser un punto de control multimedia). Este punto de control tiene
información del contenido a transmitir, origen y destino de la transmisión, así como de
la especificación del tráfico. Con esta información, accede al gestor de QoS
(QosManager), que a su vez actúa como punto de control para la arquitectura QoS. El
QosManager consulta al QosPolicyHolder para establecer las políticas para el tráfico
(básicamente para establecer la prioridad de ese flujo de tráfico).

El QosManager calcula además los puntos intermedios en la ruta desde el origen al


destino del flujo, y con la información de la política, configura los QosDevices que hay
en dicha ruta. En función de los dispositivos QosDevices, o bien ellos mismos o bien la
pasarela pueden realizar control de admisión de flujos. Estas interacciones entre los
distintos componentes de la arquitectura se reflejan en la figura (3).

Figura 3: las interacciones de la arquitectura.


Soluciones para la calidad de servicio
El proyecto PlaNetS amplía las arquitecturas de calidad de servicio actuales en redes
locales para proporcionar calidad de servicio extremo a extremo. Por lo tanto el objetivo
es que desde los propios dispositivos locales que tiene el usuario hasta la entrada/salida
del entorno residencial se guarda el esquema de QoS UPnP.

Los objetivos concretos son:

1. Diseño de un mecanismo de gestión de QoS extremo a extremo, potencialmente


desde un dispositivo multimedia en una red local a otro en otra red local,
incluyendo la configuración de la QoS en las pasarelas, red de acceso y núcleo
de la red.
2. Flexibilidad en el soporte de distintas tecnologías de red y dispositivos
periféricos.
3. Desarrollo de un modelo de datos flexible que permita la integración de la
gestión de la calidad de servicio en sistemas heterogéneos, y que tenga en cuenta
distintos aspectos que influyen en la calidad de un servicio.
4. Soporte a calidad de servicio con prioridades y parametrizada.
5. Basado, en la medida de lo posible, en soluciones estándares.
Voz sobre Protocolo de Internet
(Redirigido desde «VoIP»)

Este artículo o sección necesita referencias que aparezcan en una publicación


acreditada, como revistas especializadas, monografías, prensa diaria o páginas de
Internet fidedignas. Este aviso fue puesto el 23 de agosto de 2013.
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando:
{{subst:Aviso referencias|Voz sobre Protocolo de Internet}} ~~~~

Unas soluciones típicas basadas en VoIP.

Un adaptador para conectar un teléfono analógico común a una red VoIP.

Avaya 1140E VoIP Phone

Voz sobre Protocolo de Internet, también llamado Voz sobre IP, Voz IP, VozIP,
(VoIP por sus siglas en inglés, Voice over IP), es un grupo de recursos que hacen
posible que la señal de voz viaje a través de Internet empleando un protocolo IP
(Protocolo de Internet). Esto significa que se envía la señal de voz en forma digital, en
paquetes de datos, en lugar de enviarla en forma analógica a través de circuitos
utilizables sólo por telefonía convencional como las redes PSTN (sigla de Public
Switched Telephone Network, Red Telefónica Pública Conmutada).

Los Protocolos que se usan para enviar las señales de voz sobre la red IP se conocen
como protocolos de Voz sobre IP o protocolos IP. Estos pueden verse como
aplicaciones comerciales de la "Red experimental de Protocolo de Voz" (1973),
inventada por ARPANET.

El tráfico de Voz sobre IP puede circular por cualquier red IP, incluyendo aquellas
conectadas a Internet, como por ejemplo las redes de área local (LAN).

Es muy importante diferenciar entre Voz sobre IP (VoIP) y Telefonía sobre IP.

 VoIP es el conjunto de normas, dispositivos, protocolos, en definitiva la tecnología que


permite comunicar voz sobre el protocolo IP.
 Telefonía sobre IP es el servicio telefónico disponible al público, por tanto con
numeración E.164, realizado con tecnología de VoIP.nota 1

Índice
 1 Elementos
o 1.1 El cliente
o 1.2 Los servidores
o 1.3 Los gateways
 2 Funcionalidad
 3 Móvil
 4 Repercusión en el comercio
 5 Estándar VoIP (H.323)
o 5.1 Características principales
 6 Estándar VoIP (SIP)
o 6.1 VoIP no es un servicio, es una tecnología
o 6.2 Arquitectura de red
o 6.3 Parámetros de la VoIP
 6.3.1 Códecs
 6.3.2 Retardo o latencia
 6.3.3 Calidad del servicio
 7 Ventajas
 8 Desventajas
 9 Perspectivas de futuro
 10 Véase también
 11 Referencias y Notas
o 11.1 Notas
 12 Enlaces externos

Elementos
El cliente
El cliente establece y origina las llamadas voz, esta información se recibe a través del
micrófono del usuario (entrada de información) se codifica, se empaqueta y, de la
misma forma, esta información se decodifica y reproduce a través de los altavoces o
audífonos (salida de la información).

Un Cliente puede ser un usuario de Skype o un usuario de alguna empresa que venda
sus servicios de telefonía sobre IP a través de equipos como ATAs (Adaptadores de
teléfonos analógicos) o teléfonos IP o Softphones que es un software que permite
realizar llamadas a través de una computadora conectada a Internet.

Los servidores

Los servidores se encargan de manejar operaciones de base de datos, realizado en un


tiempo real como en uno fuera de él. Entre estas operaciones se tienen la contabilidad,
la recolección, el enrutamiento, la administración y control del servicio, el registro de
los usuarios.

Usualmente en los servidores se instala software denominados Switches o IP-PBX


(Conmutadores IP), ejemplos de switches pueden ser "Voipswitch", "Mera", "Nextone"
entre otros, un IP-PBX es Asterisk uno de los más usados y de código abierto.

Los gateways

Los gateways brindan un puente de comunicación entre todos los usuarios, su función
principal es la de proveer interfaces con la telefonía tradicional adecuada, la cual
funcionara como una plataforma para los usuarios (clientes) virtuales.

Los Gateways se utilizan para "Terminar" la llamada, es decir el cliente Origina la


llamada y el Gateway Termina la llamada, eso es cuando un cliente llama a un teléfono
fijo o celular, debe existir la parte que hace posible que esa llamada que viene por
Internet logre conectarse con un cliente de una empresa telefónica fija o celular.

Funcionalidad
VoIP puede facilitar tareas que serían más difíciles de realizar usando las redes
telefónicas comunes:

 Las llamadas telefónicas locales pueden ser automáticamente enrutadas a un teléfono


VoIP, sin importar dónde se esté conectado a la red. Uno podría llevar consigo un
teléfono VoIP en un viaje, y en cualquier sitio conectado a Internet, se podría recibir
llamadas.
 Números telefónicos gratuitos para usar con VoIP están disponibles en Estados Unidos
de América, Reino Unido y otros países con organizaciones de usuarios VoIP.
 Los agentes de call center usando teléfonos VoIP pueden trabajar en cualquier lugar
con conexión a Internet lo suficientemente rápida.
 Algunos paquetes de VoIP incluyen servicios extra por los que PSTN (Red Pública
Telefónica Conmutada) normalmente cobra un cargo extra, o que no se encuentran
disponibles en algunos países, como son las llamadas de 3 a la vez, retorno de llamada,
remarcación automática, o identificación de llamada.
Móvil
Los usuarios de VoIP pueden viajar a cualquier lugar en el mundo y seguir haciendo y
recibiendo llamadas de la siguiente forma:

 Los subscriptores de los servicios de las líneas telefónicas pueden hacer y recibir
llamadas locales fuera de su localidad. Por ejemplo, si un usuario tiene un número
telefónico en la ciudad de Nueva York y está viajando por Europa y alguien llama a su
número telefónico, esta se recibirá en Europa. Además, si una llamada es hecha de
Europa a Nueva York, esta será cobrada como llamada local, por supuesto el usuario
de viaje por Europa debe tener una conexión a Internet disponible.
 Los usuarios de Mensajería Instantánea basada en servicios de VoIP pueden también
viajar a cualquier lugar del mundo y hacer y recibir llamadas telefónicas.
 Los teléfonos VoIP pueden integrarse con otros servicios disponibles en Internet,
incluyendo videoconferencias, intercambio de datos y mensajes con otros servicios en
paralelo con la conversación, audio conferencias, administración de libros de
direcciones e intercambio de información con otros (amigos, compañeros, etc).

Repercusión en el comercio
La Voz sobre IP está abaratando las comunicaciones internacionales y mejorando por
tanto la comunicación entre proveedores y clientes, o entre delegaciones del mismo
grupo.

Así mismo, la voz sobre IP se está integrando, a través de aplicaciones específicas, en


portales web. De esta forma los usuarios pueden establecer que una empresa en concreto
les llame a una hora determinada, que se efectuará a través de un operador de Voz IP
normalmente.

Estándar VoIP (H.323)


Definido en 1996 por la UIT (Unión Internacional de Telecomunicaciones) proporciona
a los diversos fabricantes una serie de normas con el fin de que puedan evolucionar en
conjunto.

Características principales

Por su estructura el estándar proporciona las siguientes ventajas:

 Permite controlar el tráfico de la red, por lo que se disminuyen las posibilidades de que
se produzcan caídas importantes en el rendimiento. Las redes soportadas en IP
presentan las siguientes ventajas adicionales:
 Es independiente del tipo de red física que lo soporta. Permite la integración con las
grandes redes de IP actuales.
 Es independiente del hardware utilizado.
 Permite ser implementado tanto en software como en hardware, con la particularidad
de que el hardware supondría eliminar el impacto inicial para el usuario común.
 Permite la integración de Vídeo y TPV.
 Proporciona un enlace a la red de telefonía tradicional.
 Esta telefonía ha evolucionado tanto, que hasta los 800's que son números no
geográficos, pueden llamar a una línea IP.
 Lo que anteriormente era una central telefónica con mucha infraestructura, ahora se
resume en un software instalable en un pequeño servidor con las mismas
funcionalidades.

Estándar VoIP (SIP)


(Session Initiation Protocol) "Protocolo de Inicio de Sesión" por sus siglas en Inglés es
un protocolo reciente que es en la actualidad el mayormente utilizado.

VoIP no es un servicio, es una tecnología

En muchos países del mundo, IP ha generado múltiples discordias, entre lo territorial y


lo legal sobre esta tecnología, está claro y debe quedar en claro que la tecnología de
VoIP no es un servicio como tal, sino una tecnología que usa el Protocolo de Internet
(IP) a través de la cual se comprimen y descomprimen de manera altamente eficiente
paquetes de datos o datagramas, para permitir la comunicación de dos o más clientes a
través de una red como la red de Internet. Con esta tecnología pueden prestarse
servicios de Telefonía o Videoconferencia, entre otros.

Arquitectura de red

El propio Estándar define tres elementos fundamentales en su estructura:

 Terminales: son los sustitutos de los actuales teléfonos. Se pueden implementar tanto
en software como en hardware.

 Gatekeepers: son el centro de toda la organización VoIP, y son el sustituto para las
actuales centrales.

Normalmente implementan por software, en caso de existir, todas las comunicaciones


que pasen por él.

 Gateways: se trata del enlace con la red telefónica tradicional, actuando de forma
transparente para el usuario.

Con estos tres elementos, la estructura de la red VoIP podría ser la conexión de dos
delegaciones de una misma empresa. La ventaja es inmediata: todas las comunicaciones
entre las delegaciones son completamente gratuitas. Este mismo esquema se podría
aplicar para proveedores, con el consiguiente ahorro que esto conlleva.

 Protocolos de VoIP: son los lenguajes que utilizarán los distintos dispositivos VoIP para
su conexión. Esta parte es importante ya que de ella dependerá la eficacia y la
complejidad de la comunicación.
o Por orden de antigüedad (de más antiguo a más nuevo):
 H.323 - Protocolo definido por la ITU-T;
 SIP - Protocolo definido por la IETF;
 Megaco (También conocido como H.248) y MGCP - Protocolos de
control;
 UNIStim - Protocolo propiedad de Nortel(Avaya);
 Skinny Client Control Protocol - Protocolo propiedad de Cisco;
 MiNet - Protocolo propiedad de Mitel;
 CorNet-IP - Protocolo propiedad de Siemens;
 IAX - Protocolo original para la comunicación entre PBXs Asterisk (Es
un estándar para los demás sistemas de comunicaciones de datos,
[cita requerida]
actualmente está en su versión 2, IAX2);
 Skype - Protocolo propietario peer-to-peer utilizado en la aplicación
Skype;
 IAX2 - Protocolo para la comunicación entre PBXs Asterisk en
reemplazo de IAX;
 Jingle - Protocolo abierto utilizado en tecnología XMPP;
 MGCP- Protocolo propietario de Cisco;
 weSIP- Protocolo licencia gratuita de VozTelecom.

Como hemos visto VoIP presenta una gran cantidad de ventajas, tanto para las empresas
como para los usuarios comunes. La pregunta sería ¿por qué no se ha implantado aún
esta tecnología?. A continuación analizaremos los aparentes motivos, por los que VoIP
aún no se ha impuesto a las telefonías convencionales.

Parámetros de la VoIP

Este es el principal problema que presenta hoy en día la penetración tanto de VoIP
como de todas las aplicaciones de IP. Garantizar la calidad de servicio sobre Internet,
que solo soporta "mejor esfuerzo" (best effort) y puede tener limitaciones de ancho de
banda en la ruta, actualmente no es posible; por eso, se presentan diversos problemas en
cuanto a garantizar la calidad del servicio.

Códecs

La voz ha de codificarse para poder ser transmitida por la red IP. Para ello se hace uso
de códecs que garanticen la codificación y compresión del audio o del video para su
posterior decodificación y descompresión antes de poder generar un sonido o imagen
utilizable. Según el Códec utilizado en la transmisión, se utilizará más o menos ancho
de banda. La cantidad de ancho de banda utilizada suele ser directamente proporcional a
la calidad de los datos transmitidos.

Entre los codecs más utilizados en VoIP están G.711, G.723.1 y el G.729 (especificados
por la ITU-T).

Estos Codecs tienen los siguientes anchos de banda de codificación:

 G.711: bit-rate de 56 o 64 Kbps.


 G.722: bit-rate de 48, 56 o 64 Kbps.
 G.723: bit-rate de 5,3 o 6,4 Kbps.
 G.728: bit-rate de 16 Kbps.
 G.729: bit-rate de 8 o 13 Kbps.

Esto no quiere decir que es el ancho de banda utilizado, ya que hay que sumar el tráfico
de por ejemplo el Codec G729 utiliza 31.5 Kbps de ancho de banda en su transmisión.
Retardo o latencia

Una vez establecidos los retardos de tránsito y el retardo de procesado la conversación


se considera aceptable por debajo de los 150 ms, que viene a ser 1,5 décimas de
segundo y ya produciría retardos importantes.

Pérdida de tramas (Frames Lost):

Durante su recorrido por la red IP las tramas se pueden perder como resultado de una
congestión de red o corrupción de datos. Además, para tráfico de tiempo real como la
voz, la retransmisión de tramas perdidas en la capa de transporte no es práctico por
ocasionar retardos adicionales. Por consiguiente, los terminales de voz tienen que
retransmitir con muestras de voz perdidas, también llamadas Frame Erasures. El efecto
de las tramas perdidas en la calidad de voz depende de como los terminales gestionen
las Frame Erasures.

En el caso más simple si se pierde una muestra de voz el terminal dejará un intervalo en
el flujo de voz. Si muchas tramas se pierden, sonará grietoso con sílabas o palabras
perdidas. Una posible estrategia de recuperación es reproducir las muestras de voz
previas. Esto funciona bien si sólo unas cuantas muestras son perdidas. Para combatir
mejor las ráfagas de errores usualmente se emplean sistemas de interpolación.
Basándose en muestras de voz previas, el decodificador predecirá las tramas perdidas.
Esta técnica es conocida como Packet Loss Concealment (PLC).

La ITU-T G.113 apéndice I provee algunas líneas de guía de planificación provisional


en el efecto de pérdida de tramas sobre la calidad de voz. El impacto es medido en
términos de Ie, el factor de deterioro. Este es un número en el cual 0 significa no
deterioro. El valor más grande de Ie significa deterioro más severo. La siguiente tabla
está derivada de la G.113 apéndice I y muestra el impacto de las tramas perdidas en el
factor Ie.

Calidad del servicio

Para mejorar el nivel de servicio, se ha apuntado a disminuir los anchos de banda


utilizados, para ello se ha trabajado bajo las siguientes iniciativas:

 La supresión de silencios, otorga más eficiencia a la hora de realizar una transmisión de


voz, ya que se aprovecha mejor el ancho de banda al transmitir menos información.
 Compresión de cabeceras aplicando los estándares RTP/RTCP.

Para la medición de la calidad de servicio QoS, existen cuatro parámetros como el


ancho de banda, retraso temporal (delay), variación de retraso (jitter) y pérdida de
paquetes.

Para solucionar este tipo de inconvenientes, en una red se puede implementar tres tipos
básicos de QoS:

 Best effort: (en inglés, mejor esfuerzo) Este método simplemente envía paquetes a
medida que los va recibiendo, sin aplicar ninguna tarea específica real. Es decir, no
tiene ninguna prioridad para ningún servicio, solo trata de enviar los paquetes de la
mejor manera.
 Servicios Integrados: Este sistema tiene como principal función pre-acordar un camino
para los datos que necesitan prioridad, además esta arquitectura no es escalable,
debido a la cantidad de recursos que necesita para estar reservando los anchos de
banda de cada aplicación. RSVP (Resource Reservation Protocol) fue desarrollado
como el mecanismo para programar y reservar el ancho de banda requerido para cada
una de las aplicaciones que son transportados por la red.
 Servicios Diferenciados: Este sistema permite que cada dispositivo de red tenga la
posibilidad de manejar los paquetes individualmente, además cada router y switch
puede configurar sus propias políticas de QoS, para tomar sus propias decisiones
acerca de la entrega de los paquetes. Los servicios diferenciados utilizan 6 bits en la
cabecera IP (DSCP Differentiated Services Code Point). Los servicios para cada DSCP
son los siguientes:

Servicio Característica

Best Effort No ofrece garantías

Asegura un trato preferente, si los valores de DSCP son más altos, tendrá
Assured
mayor prioridad el tráfico y disminuye la posibilidad de ser eliminado por
Forwarding (AF)
congestión.

Expedited Utilizada para dar el mayor servicio, por ende, es la que brinda más garantías
Forwarding (EF) (utilizada para tráfico de voz o video)

 La priorización de los paquetes que requieran menor latencia. Las tendencias actuales
son:
 PQ (Priority Queueing): Este mecanismo de priorización se caracteriza por definir 4
colas con prioridad Alta, media, normal y baja, Además, es necesario determinar
cuales son los paquetes que van a estar en cada una de dichas colas, sin embargo, si
estas no son configuradas, serán asignadas por defecto a la prioridad normal. Por otra
parte, mientras que existan paquetes en la cola alta, no se atenderá ningún paquete
con prioridad media hasta que la cola alta se encuentre vacía, así para los demás tipos
de cola.
 WFQ (Weighted fair queuing): Este método divide el tráfico en flujos, proporciona una
cantidad de ancho de banda justo a los flujos activos en la red, los flujos que son con
poco volumen de tráfico serán enviados más rápido. Es decir, WFQ prioriza aquellas
aplicaciones de menor volumen, estas son asociadas como más sensibles al delay
(retardo) como VoIP. Por otra parte, penaliza aquellas que no asocia como aplicaciones
en tiempo real como FTP.
 CQ (Custom Queueing): Este mecanismo asigna un porcentaje de ancho de banda
disponible para cada tipo de tráfico (voz, video y/o datos), además especifica el
numero de paquetes por cola. Las colas son atendidas según Round Robin (RR).

El método RR asigna el ancho de banda a cada uno de los diferentes tipos de tráfico
existentes en la red. Con este método no es posible priorizar tráfico ya que todas las
colas son tratadas de igual manera.
 La implantación de IPv6, que proporciona mayor espacio de direccionamiento y la
posibilidad de tunneling.

Ventajas
La principal ventaja de este tipo de servicios es que evita los cargos altos de telefonía
(principalmente de larga distancia) que son usuales de las compañías de la Red Pública
Telefónica Conmutada (PSTN).

El desarrollo de codecs para VoIP (aLaw, G.729, G.723, etc.) ha permitido que la voz se
codifique en paquetes de datos cada vez más pequeños. Esto deriva en que las
comunicaciones de voz sobre IP requieran anchos de banda muy reducidos. Junto con el
avance permanente de las conexiones ADSL en el mercado residencial, éste tipo de
comunicaciones están siendo muy populares para llamadas internacionales.

Hay dos tipos de servicio de PSTN a VoIP: "Discado Entrante Directo" (Direct Inward
Dialling: DID) y "Números de acceso". DID conecta a quien hace la llamada
directamente con el usuario VoIP, mientras que los Números de acceso requieren que
este introduzca el número de extensión del usuario de VoIP. Los Números de acceso
son usualmente cobrados como una llamada local para quien hizo la llamada desde la
PSTN y gratis para el usuario de VoIP.

Desventajas
 Calidad de la llamada. Es un poco inferior a la telefónica, ya que los datos viajan en
forma de paquetes, es por eso que se pueden tener algunas pérdidas de información y
demora en la transmisión. El problema en si de la VoIP no es el protocolo sino la red IP,
ya que esta no fue pensada para dar ese tipo de garantías. Otra desventaja es la
latencia, ya que cuando el usuario está hablando y otro usuario está escuchando, no es
adecuado tener 200ms (milisegundos) de pausa en la transmisión. Cuando se va a
utilizar VoIP, se debe controlar el uso de la red para garantizar una transmisión de
calidad.
 Robos de Datos. Un cracker puede tener acceso al servidor de VoIP y a los datos de voz
almacenados y al propio servicio telefónico para escuchar conversaciones o hacer
llamadas gratuitas a cargo de los usuarios.
 Virus en el sistema. En el caso en que un virus infecta algún equipo de un servidor
VoIP, el servicio telefónico puede quedar interrumpido. También pueden verse
afectados otros equipos que estén conectados al sistema. Suplantaciones de ID y
engaños especializados. Si uno no está bien protegido pueden sufrir fraudes por medio
de suplantación de identidad.

Perspectivas de futuro
El ancho de banda creciente a nivel mundial, y la optimización de los equipos de capa 2
y 3 para garantizar el QoS (Quality of Service) de los servicios de voz en tiempo real
hace que el futuro de la Voz sobre IP sea muy prometedor.

En Estados Unidos los proveedores de voz sobre IP como Vonage consiguieron una
importante cuota de mercado. En España, gracias a las tarifas planas de voz, los
operadores convencionales consiguieron evitar el desembarco masivo de estos
operadores. Sin embargo la expansión de esta tecnología está viniendo de mano de los
desarrolladores de sistemas como Cisco y Avaya que integran en sus plataformas redes
de datos y voz. Otros fabricantes de centrales como innovaphone, ShoreTel, Panasonic,
Alcatel-Lucent, Nortel Networks, Matra, Samsung y LG también desarrollan soluciones
corporativas de voz sobre IP en sus equipos de telecomunicaciones privados.

Para las corporaciones internacionales que pueden contar con sistemas punteros y
anchos de banda óptimos, las centrales que manejan VoIP (IPPBX) se han convertido en
un equipo muy conveniente. Pero las pequeñas y medianas empresas deben de evaluar
ciertos temas: Esta tecnología opera con sistemas operativos (Windows/Linux) que
presentan ciertos problemas de estabilidad. Además la red IP no fue diseñada para dar
garantías. Además algunos proveedores para abaratar costos ofrecen centrales
ensambladas en un ordenador o una PC, los cuales enfrentan otro tipo de problemas,
como las fallas en sus componentes (Discos Duros, Ventiladores y Fuentes de
Alimentación), se debe de prever también el cambio de los aparatos telefónicos
tradicionales, ya que esta tecnología trabaja con teléfonos especiales (IP o SIP) a menos
que se incorporen equipos especiales.

La buena noticia es que todas las funciones extra que pueden brindarle las centrales IP
pueden obtenerse con sus centrales tradicionales, solo se deben conectar ciertos
módulos que incorporan la tecnología VoIP a sus necesidades. Todos sabemos que la
calidad de transmisión de las centrales tradicionales todavía es superior. En realidad es
que ya nos acostumbramos a la confiabilidad y a la fácil configuración de los equipos
tradicionales, los cuales manejan lenguajes de programación muy sencillos.
Domain Name System
(Redirigido desde «Dns»)
Domain Name System
(DNS)
Familia Familia de protocolos de Internet
Función Resolución de nombres de dominio
Puertos 53/UDP, 53/TCP
Ubicación en la pila de protocolos
Aplicación DNS
Transporte TCP o UDP
Red IP (IPv4, IPv6)
Estándares
RFC 1034 (1987)

RFC 1035 (1987)

Domain Name System o DNS (en español: sistema de nombres de dominio) es un


sistema de nomenclatura jerárquica para computadoras, servicios o cualquier recurso
conectado a Internet o a una red privada. Este sistema asocia información variada con
nombres de dominios asignado a cada uno de los participantes. Su función más
importante, es traducir (resolver) nombres inteligibles para las personas en
identificadores binarios asociados con los equipos conectados a la red, esto con el
propósito de poder localizar y direccionar estos equipos mundialmente.

El servidor DNS utiliza una base de datos distribuida y jerárquica que almacena
información asociada a nombres de dominio en redes como Internet. Aunque como base
de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los
usos más comunes son la asignación de nombres de dominio a direcciones IP y la
localización de los servidores de correo electrónico de cada dominio.

La asignación de nombres a direcciones IP es ciertamente la función más conocida de


los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.mx es
200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no
la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La
dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el
nombre.

Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos


los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba
un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos. El
crecimiento explosivo de la red causó que el sistema de nombres centralizado en el
archivo hosts no resultara práctico y en 1983, Paul V. Mockapetris publicó los RFC 882
y RFC 883 definiendo lo que hoy en día ha evolucionado hacia el DNS moderno. (Estos
RFCs han quedado obsoletos por la publicación en 1987 de los RFCs 1034 y RFC
1035).

Índice
 1 Componentes
 2 Entendiendo las partes de un nombre de dominio
 3 DNS en el mundo real
 4 Jerarquía DNS
o 4.1 Tipos de servidores DNS
 5 Tipos de resolución de nombres de dominio
o 5.1 Resolución iterativa
o 5.2 Resolución recursiva
 6 Tipos de registros DNS
 7 Véase también
 8 Referencias
 9 Enlaces externos

Componentes
Para la operación práctica del sistema DNS se utilizan tres componentes principales:

 Los Clientes fase 1: Un programa cliente DNS que se ejecuta en la computadora


del usuario y que genera peticiones DNS de resolución de nombres a un servidor
DNS (Por ejemplo: ¿Qué dirección IP corresponde a nombre.dominio?);
 Los Servidores DNS: Que contestan las peticiones de los clientes. Los
servidores recursivos tienen la capacidad de reenviar la petición a otro servidor
si no disponen de la dirección solicitada.
 Y las Zonas de autoridad, porciones del espacio de nombres raros de dominio
que almacenan los datos. Cada zona de autoridad abarca al menos un dominio y
posiblemente sus subdominios, si estos últimos no son delegados a otras zonas
de autoridad.

Entendiendo las partes de un nombre de dominio


Un nombre de dominio usualmente consiste en dos o más partes (técnicamente
etiquetas), separadas por puntos cuando se las escribe en forma de texto. Por ejemplo,
www.example.com o es.wikipedia.org

 A la etiqueta ubicada más a la derecha se le llama dominio de nivel superior


(en inglés top level domain). Como com en www.ejemplo.com o org en
es.wikipedia.org
 Cada etiqueta a la izquierda especifica una subdivisión o subdominio. Nótese
que "subdominio" expresa dependencia relativa, no dependencia absoluta. En
teoría, esta subdivisión puede tener hasta 127 niveles, y cada etiqueta puede
contener hasta 63 caracteres, pero restringidos a que la longitud total del nombre
del dominio no exceda los 255 caracteres, aunque en la práctica los dominios
son casi siempre mucho más cortos.
 Finalmente, la parte más a la izquierda del dominio suele expresar el nombre de
la máquina (en inglés hostname). El resto del nombre de dominio simplemente
especifica la manera de crear una ruta lógica a la información requerida. Por
ejemplo, el dominio es.wikipedia.org tendría el nombre de la máquina "es",
aunque en este caso no se refiere a una máquina física en particular.

El DNS consiste en un conjunto jerárquico de servidores DNS. Cada dominio o


subdominio tiene una o más zonas de autoridad que publican la información acerca del
dominio y los nombres de servicios de cualquier dominio incluido. La jerarquía de las
zonas de autoridad coincide con la jerarquía de los dominios. Al inicio de esa jerarquía
se encuentra los servidores raíz: los servidores que responden cuando se busca resolver
un dominio de primer y segundo nivel.

DNS en el mundo real


Los usuarios generalmente no se comunican directamente con el servidor DNS: la
resolución de nombres se hace de forma transparente por las aplicaciones del cliente
(por ejemplo, navegadores, clientes de correo y otras aplicaciones que usan Internet). Al
realizar una petición que requiere una búsqueda de DNS, la petición se envía al servidor
DNS local del sistema operativo. El sistema operativo, antes de establecer alguna
comunicación, comprueba si la respuesta se encuentra en la memoria caché. En el caso
de que no se encuentre, la petición se enviará a uno o más servidores DNS.

La mayoría de usuarios domésticos utilizan como servidor DNS el proporcionado por el


proveedor de servicios de Internet. La dirección de estos servidores puede ser
configurada de forma manual o automática mediante DHCP. En otros casos, los
administradores de red tienen configurados sus propios servidores DNS.

En cualquier caso, los servidores DNS que reciben la petición, buscan en primer lugar si
disponen de la respuesta en la memoria caché. Si es así, sirven la respuesta; en caso
contrario, iniciarían la búsqueda de manera recursiva. Una vez encontrada la respuesta,
el servidor DNS guardará el resultado en su memoria caché para futuros usos y
devuelve el resultado.
Es importante añadir que el protocolo DNS generalmente transporta las peticiones y
respuestas por puerto UDP, puesto que al ser un protocolo que por su estructura y al
tener menos niveles de seguridad es mucho más rápido. Los motivos por el cual en
ocasiones se usa el puerto TCP son cuando se necesitan transportar respuestas mayores
de 512 bytes de longitud y cuando por razones de fiabilidad se necesitan conectar un
servidor DNS secundario al primario para recoger una nueva base de datos con
authoritative.

Jerarquía DNS

El espacio de nombres de dominio tiene una estructura arborescente. Las hojas y los
nodos del árbol se utilizan como etiquetas de los medios. Un nombre de dominio
completo de un objeto consiste en la concatenación de todas las etiquetas de un camino.
Las etiquetas son cadenas alfanuméricas (con '-' como único símbolo permitido), deben
contar con al menos un carácter y un máximo de 63 caracteres de longitud, y deberá
comenzar con una letra (y no con '-') (ver la RFC 1035, sección "2.3.1. Preferencia
nombre de la sintaxis "). Las etiquetas individuales están separadas por puntos. Un
nombre de dominio termina con un punto (aunque este último punto generalmente se
omite, ya que es puramente formal). Un FQDN correcto (también llamado Fully
Qualified Domain Name), es por ejemplo este: www.example.com. (Incluyendo el
punto al final).

Un nombre de dominio debe incluir todos los puntos y tiene una longitud máxima de
255 caracteres.

Un nombre de dominio se escribe siempre de derecha a izquierda. El punto en el


extremo derecho de un nombre de dominio separa la etiqueta de la raíz de la jerarquía
(en inglés, root). Este primer nivel es también conocido como dominio de nivel superior
(TLD - Top Level Domain).

Los objetos de un dominio DNS (por ejemplo, el nombre del equipo) se registran en un
archivo de zona, ubicado en uno o más servidores de nombres.

Tipos de servidores DNS


 Primarios o maestros: Guardan los datos de un espacio de nombres en sus
ficheros
 Secundarios o esclavos: Obtienen los datos de los servidores primarios a través
de una transferencia de zona.
 Locales o caché: Funcionan con el mismo software, pero no contienen la base
de datos para la resolución de nombres. Cuando se les realiza una consulta, estos
a su vez consultan a los servidores DNS correspondientes, almacenando la
respuesta en su base de datos para agilizar la repetición de estas peticiones en el
futuro continuo o libre.

Tipos de resolución de nombres de dominio


Existen dos tipos de consultas que un cliente puede hacer a un servidor DNS, la iterativa
y la recursiva.

Resolución iterativa

Las resoluciones iterativas consisten en la respuesta completa que el servidor de


nombres pueda dar. El servidor de nombres consulta sus datos locales (incluyendo su
caché) buscando los datos solicitados. El servidor encargado de hacer la resolución
realiza iterativamente preguntas a los diferentes DNS de la jerarquía asociada al nombre
que se desea resolver, hasta descender en ella hasta la máquina que contiene la zona
autoritativa para el nombre que se desea resolver.

Resolución recursiva

En las resoluciones recursivas, el servidor no tiene la información en sus datos locales,


por lo que busca y se pone en contacto con un servidor DNS raíz, y en caso de ser
necesario repite el mismo proceso básico (consultar a un servidor remoto y seguir a la
siguiente referencia) hasta que obtiene la mejor respuesta a la pregunta.

Cuando existe más de un servidor autoritario para una zona, Bind utiliza el menor valor
en la métrica RTT (round-trip time) para seleccionar el servidor. El RTT es una medida
para determinar cuánto tarda un servidor en responder una consulta.

El proceso de resolución normal se da de la siguiente manera:

1. El servidor A recibe una consulta recursiva desde el cliente DNS.


2. El servidor A envía una consulta recursiva a B.
3. El servidor B refiere a A otro servidor de nombres, incluyendo a C.
4. El servidor A envía una consulta recursiva a C.
5. El servidor C refiere a A otro servidor de nombres, incluyendo a D.
6. El servidor A envía una consulta recursiva a D.
7. El servidor D responde.
8. El servidor A regresa la respuesta al resolver.
9. El resolver entrega la resolución al programa que solicitó la información.

Tipos de registros DNS


 A = Address – (Dirección) Este registro se usa para traducir nombres de
servidores de alojamiento a direcciones IPv4.
 AAAA = Address – (Dirección) Este registro se usa en IPv6 para traducir
nombres de hosts a direcciones IPv6.
 CNAME = Canonical Name – (Nombre Canónico) Se usa para crear nombres
de servidores de alojamiento adicionales, o alias, para los servidores de
alojamiento de un dominio. Es usado cuando se están corriendo múltiples
servicios (como FTP y servidor web) en un servidor con una sola dirección IP.
Cada servicio tiene su propia entrada de DNS (como ftp.ejemplo.com. y
www.ejemplo.com.). Esto también es usado cuando corres múltiples servidores
HTTP, con diferentes nombres, sobre el mismo host. Se escribe primero el alias
y luego el nombre real. Ej. Ejemplo1 IN CNAME ejemplo2
 NS = Name Server – (Servidor de Nombres) Define la asociación que existe
entre un nombre de dominio y los servidores de nombres que almacenan la
información de dicho dominio. Cada dominio se puede asociar a una cantidad
cualquiera de servidores de nombres.
 MX = Mail Exchange – (Registro de Intercambio de Correo) Asocia un nombre
de dominio a una lista de servidores de intercambio de correo para ese dominio.
Tiene un balanceo de carga y prioridad para el uso de uno o más servicios de
correo.
 PTR = Pointer – (Indicador) También conocido como 'registro inverso',
funciona a la inversa del registro A, traduciendo IPs en nombres de dominio. Se
usa en el archivo de configuración del DNS reversiva.
 SOA = Start of authority – (Autoridad de la zona) Proporciona información
sobre el servidor DNS primario de la zona.
 HINFO = Host INFOrmation – (Información del sistema informático)
Descripción del host, permite que la gente conozca el tipo de máquina y sistema
operativo al que corresponde un dominio.
 TXT = TeXT - (Información textual) Permite a los dominios identificarse de
modos arbitrarios.
 LOC = LOCalización - Permite indicar las coordenadas del dominio.
 WKS - Generalización del registro MX para indicar los servicios que ofrece el
dominio. Obsoleto en favor de SRV.
 SRV = SeRVicios - Permite indicar los servicios que ofrece el dominio. RFC
2782. Excepto MX y NS. Hay que incorporar el nombre del servicio, protocolo,
dominio completo, prioridad del servicio, peso, puerto y el equipo completo.
Esta es la sintaxis correspondiente: Servicio.Protocolo.Dominio-completo
IN SRV Prioridad.Peso.Puerto.Equipo-Completo
 SPF = Sender Policy Framework - Ayuda a combatir el spam. En este registro se
especifica cual o cuales hosts están autorizados a enviar correo desde el dominio
dado. El servidor que recibe, consulta el SPF para comparar la IP desde la cual
le llega con los datos de este registro.
 ANY = Toda la información de todos los tipos que exista.
IPv4 vs IPv6 - ¿Cuál es la diferencia?
Información General de Direcciones IP

Una dirección IP es como un número telefónico o una dirección de una calle. Cuando te
conectas a Internet, tu dispositivo (computadora, teléfono celular, tableta) es asignado
con una dirección IP, así como también cada sitio que visites tiene una dirección IP. El
sistema de direccionamiento que hemos usado desde que nació Internet es llamado
IPv4, y el nuevo sistema de direccionamiento es llamado IPv6. La razón por la cual
tenemos que reemplazar el sistema IPv4 (y en última instancia opacarlo) con el IPv6 es
porque Internet se está quedando sin espacio de direcciones IPv4, e IPv6 provee una
exponencialmente larga cantidad de direcciones IP... Veamos los números:

 Total de espacio IPv4: 4,294,967,296 direcciones.


 Total de espacio IPv6: 340,282,366,920,938,463,463,374,607,431,768,211,456
direcciones.

Incluso diciendo que IPv6 es "exponencialemente largo" realmente no se compara en


diferencia de tamaños.

Direcciones IPv4

Para entender el por que el espacio de direcciones IPv4 es limitado a 4.3 mil millones de
direcciones, podemos descomponer una dirección IPv4. Una dirección IPv4 es un
número de 32 bits formado por cuatro octetos (números de 8 bits) en una notación
decimal, separados por puntos. Un bit puede ser tanto un 1 como un 0 (2 posibilidades),
por lo tanto la notación decimal de un octeto tendría 2 elevado a la 8va potencia de
distintas posibilidades (256 de ellas para ser exactos). Ya que nosotros empezamos a
contar desde el 0, los posibles valores de un octeto en una dirección IP van de 0 a 255.

Ejemplos de direcciones IPv4: 192.168.0.1, 66.228.118.51, 173.194.33.16

Si una dirección IPv4 está hecha de cuatro secciones con 256 posibilidades en
cada sección, para encontrar el número de total de direcciones IPv4, solo debes de
multiplicar 256*256*256*256 para encontrar como resultado 4,294,967,296
direcciones. Para ponerlo de otra forma, tenemos 32 bits entonces, 2 elevado a la 32va
potencia te dará el mismo número obtenido.

Direcciones IPv6
Las direcciones IPv6 están basadas en 128 bits. Usando la misma matemática anterior,
nosotros tenemos 2 elevado a la 128va potencia para encontrar el total de direcciones
IPv6 totales, mismo que se mencionó anteriormente. Ya que el espacio en IPv6 es
mucho mas extenso que el IPv4 sería muy difícil definir el espacio con notación
decimal... se tendría 2 elevado a la 32va potencia en cada sección.

Para permitir el uso de esa gran cantidad de direcciones IPv6 más fácilmente, IPv6 está
compuesto por ocho secciones de 16 bits, separadas por dos puntos (:). Ya que cada
sección es de 16 bits, tenemos 2 elevado a la 16 de variaciones (las cuales son 65,536
distintas posibilidades). Usando números decimales de 0 a 65,535, tendríamos
representada una dirección bastante larga, y para facilitarlo es que las direcciones IPv6
están expresadas con notación hexadecimal (16 diferentes caracteres: 0-9 y a-f).

Ejemplo de una dirección IPv6: 2607 : f0d0 : 4545 : 3 : 200 : f8ff : fe21 : 67cf

que sigue siendo una expresión muy larga pero es mas manejable que hacerlo con
alternativas decimales.

Notación CIDR "Diagonal", "Slash" (/)

Cuando la gente habla de bloques de direcciones IP, generalmente usan la notación


CIDR (Classless Inter Domain Routing) Diagonal-Slash (/) donde cada bloque aparece
de forma similar a 192.0.2.0/24. Cuando te fijas en éste número, tal vez asumas "okey,
entonces tenemos un rango entre 192.0.2.0 a 192.0.2.24", pero la notación CIDR no te
muestra el rango de direcciones, te dice el tamaño de la parte de "red" asignada.

Las direcciones IP están hechas de dos partes - las redes y los host. La parte de "redes"
de las direcciones nos dice el número de bits que permanecen iguales al inicio del
bloque de las direcciones IP, mientras que la parte de "host" de las direcciones son los
bits que definen las diferentes posibilidades de direcciones IP en el bloque. En la
notación CIDR, un /24 nos está diciendo los primeros 24 bits de la dirección están
definidos por la red, por lo tanto tenemos 8 bits (32 bits totales menos 24 bits de red) en
los host, que serían 2 elevado a la 8 potencia, lo cual son 256 direcciones distintas.
Dicho de otra forma, en nuestro ejemplo, la parte de red deja fijos los valores "192.0.2"
del bloque de direcciones, y el único variable es el último número. El bloque de
direcciones IPv4 192.0.2.0/24 incluye de 192.0.2.0 a 192.0.2.255.

Los bloques de direcciones IPv4 pueden ser tan grandes como /8 (asignados a registros
regionales como ARIN, APNIC y LACNIC), y bueden ser tan pequeños como /32 (que
indica una única dirección IP).

¿Por qué tener tantas Direcciones IPv6?

IPv6 fué pensado para permitir el crecimiento de Internet en las generaciones futuras.
Como ya mencionamos antes, cada dispositivo que se conecta a Internet utiliza una
dirección IP que requiere ser única. Otras soluciones existentes o en desarrollo
consideran el "compartir" una misma dirección IP entre distintos dispositivos, lo que
lleva a redes complicadas que se vuelven frágiles y al mismo tiempo son difíciles de
analizar para corregir problemas.

La unidad mínima de asignación en IPv6 es, utilizando la notacion CIDR, un /64. Esto
implica que cada dispositivo conectado a Internet utilizando IPv6 tiene a su disposición
2 a la 64va potencia (18,446,744,073,709,551,616) direcciones IP.

El bloque mínimo asignado a los ISPs por los RIRs (Registros Regionales de Internet) o
NIRs (Registros Nacionales de Internet) es de un /32, que implica que, en el caso en que
hiciera asignaciones de tamaño /64 a cada uno de sus clientes, tendría disponibles 2 a la
32 bloques disponibles para asignación, o lo que es lo mismo, puede hacer tantas
asignaciones de bloques /64 como direcciones tiene IPv4.

Hasta el momento no hay un uso específico para las direcciones IPv6 asignadas a un
host, pero se espera que conforme crezca el despliegue del protocolo se genere
innovación y se encuentren usos y se desarrolle tecnología que haga uso de las mismas.

Entonces, ¿ahora que?

El espacio de IPv4 se está acabando rápidamente, si tu sitio aún no tiene una


configuración de IPv6 es posible que no esté disponible para el grupo creciente de
usuarios quienes acceden a Internet usando el protocolo IPv6, el cual no es compatible
con IPv4. Por el otro lado, si tu proveedor de servicios de Internet (ISP por sus siglas en
inglés) aún no soporta el protocolo IPv6, no te será posible accesar a sitios web que se
publiquen en Internet utilizando únicamente direcciones IPv6.

El porcentaje de estos casos actualmente es relativamente pequeño, pero pronto se hará


mas grande... Sólo es necesario un cliente perdido para arrepentirse de no haber seguido
los pasos de incorporación de IPv6 en tu infraestructura.

También podría gustarte