[go: up one dir, main page]

0% encontró este documento útil (0 votos)
1K vistas117 páginas

Formación de La Imagen Radiológica

Este documento describe los procesos involucrados en la formación de imágenes radiológicas, incluyendo la interacción de los rayos X con los tejidos, la formación de la imagen latente en la película y su revelado para producir la imagen visible. También cubre conceptos como la atenuación de los rayos X y las densidades radiológicas de los tejidos humanos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
1K vistas117 páginas

Formación de La Imagen Radiológica

Este documento describe los procesos involucrados en la formación de imágenes radiológicas, incluyendo la interacción de los rayos X con los tejidos, la formación de la imagen latente en la película y su revelado para producir la imagen visible. También cubre conceptos como la atenuación de los rayos X y las densidades radiológicas de los tejidos humanos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 117

_____________________________________________________________________________________

Unidad 2.- Formación de la imagen radiológica.


Cuando hacemos incidir un haz de rayos X sobre un paciente, se producen diferentes atenuaciones en
función del espesor y de la densidad electrónica de los distintos tejidos de dicho paciente. La radiación
remanente que sale del paciente y llega a la película radiográfica, deposita energía en la emulsión por
interacción fotoeléctrica con los átomos de los cristales de halogenuros de plata. Esa energía se deposita
en un patrón representativo de la parte del cuerpo que se está radiografiando

El esquema demuestra que cuando el haz de rayos X incide sobre el paciente cada órgano absorbe una
cantidad diferente de radiación. Los órganos más densos como el hueso dan una imagen más blanca
porque atenúan más cantidad de rayos X. Los órganos que menos radiación absorben (pulmones) dan
una imagen más oscura.

La imagen latente es el cambio invisible que se ha inducido en los cristales de los halogenuros de plata.
Posteriormente, ésta imagen latente se convertirá en imagen visible mediante procesos químicos
(revelado).

En la formación de un cristal de halogenuro de plata, cada átomo de plata expulsa un electrón de su capa
externa que se liga a un átomo de halogenuro (Bromo o yodo). Quedando la plata como ión positivo y el
bromo y yodo como iones negativos. Así, la plata, el yodo y el bromo se fijan a la red cristalina en forma
iónica.

La forma y estructura de la red de cristales de halogenuros de plata no es perfecta y algunas de esas


imperfecciones son las que dan a los cristales las propiedades de retención de imagen. El tipo de
imperfección que se considera responsable de esto es un contaminante químico, por lo general sulfuro
de plata (SAg), que se introduce en la red cristalina, permaneciendo en su superficie. Este contaminante
se denomina partícula sensitiva.

Cuando la radiación incide sobre la película, casi toda la energía de los fotones se transfiere a la gelatina.
La interacción de los rayos X con los átomos de plata y los halogenuros (Ag, Br, I) crea la imagen latente.

Si se absorben completamente los rayos X, la interacción es fotoeléctrica. Si la absorción es parcial, se la


conoce como interacción Compton. En ambos casos se libera un electrón secundario (fotoelectrón o
electrón Compton). Este electrón atraviesa el cristal y puede arrancar electrones adicionales de la red
cristalina.

Lo mismo ocurre con la interacción entre la luz visible de una pantalla intensificadora y la película. Estos
fotones de luz tienen menos energía, se necesitan más fotones para producir el mismo número de
electrones secundarios migratorios. Algunos de estos electrones pasan cerca de las partículas sensitivas
donde son atrapados por los iones positivos de plata.

La mayor parte de estos electrones vienen de los iones de Bry Iya que estos tienen un electrón más.

Los iones negativos se transforman en átomos neutros y ésta pérdida de carga eléctrica hace que la red
cristalina se altere.

Los átomos de Br y I han quedado libres para emigrar, ya que no están unidos por fuerzas iónicas.
Emigran fuera del cristal y pasan a la gelatina. El deterioro de la estructura cristalina, hace que los
restantes iones de plata emigren fácilmente.
La concentración de electrones en las proximidades de una partícula sensitiva, crea una zona de carga
negativa. Conforme los átomos de halogenuros de plata desaparecen del cristal, los iones positivos de
plata son atraídos electrostáticamente por las partículas sensitivas.

Cuando llegan a una partícula sensitiva, los iones de plata se neutralizan, combinándose con los
electrones, y se obtiene plata atómica.

De esta forma se depositan en cada cristal menos de 10 átomos de plata. Este conjunto de átomos se
llama centro de la imagen latente.

En estos centros se acumulan cantidades visibles de plata durante el revelado, que serán las que formen
la imagen radiográfica. Los cristales con plata depositada en las partículas sensitivas, adquieren una
coloración negra durante el revelado. Los cristales que no han sido irradiados continuarán transparentes
e inactivos.

La información invisible contenida en los cristales de halogenuros de plata activados por la radiación
constituye la imagen latente.

2.2. Atenuación de los rayos X por la materia viva.

Los fotones de rayos X se pueden considerar como energía pura transportada. Estos fotones pueden
excitar los electrones de los átomos, haciéndoles saltar a órbitas superiores o arrancarlos dejando así el
átomo ionizado.

De esta forma, al atravesar un medio los fotones pueden continuar su camino sin colisionar con ningún
átomo, llegando entonces al detector. Pueden ceder toda su energía a algún componente del átomo,
desapareciendo, decimos entonces que han sido absorbidos. O pueden ceder parte de su energía
saliendo “rebotados” en una dirección distinta, hablamos en este caso de dispersión.

A la disminución del número de fotones que llegan a un detector después de atravesar un medio, lo
llamamos atenuación. Sería la suma de los dos efectos, absorción y dispersión de fotones incidentes. La
atenuación de un haz de rayos X al atravesar un medio depende del número de interacciones que sufra,
por tanto, básicamente dependerá del número de electrones que se interpongan en su trayectoria
(efecto fotoeléctrico: absorción y efecto Compton: dispersión), es decir, de la densidad electrónica.

Como hemos visto, un haz de radiación electromagnética que interacciona con un material de un
espesor determinado, resulta atenuado. De forma que si colocamos un detector de radiaciones
ionizantes detrás del material irradiado, registrará menos fotones que los que tenía el haz primario.
Entonces tenemos que el proceso de atenuación se puede medir. La ley que somete a estudio este
proceso se llama Ley exponencial del Proceso de Atenuación.

Ejemplo Tenemos un espesor de material homogéneo (4 cm) que es interaccionado por un haz de
radiación de 1000 fotones, de una misma energía. El material lo descomponemos en láminas de 1
centímetro cada una. Entonces tenemos que para “ese” espesor de 1 cm y para “esa” energía
determinada, “ese” material determinado atenúa el 20% de los fotones incidentes. Al atravesar el primer
cm de espesor quedarán 800 fotones, que cuando atravieses el segundo espesor de un cm se atenuarán
otro 20% y así sucesivamente. El número de fotones atenuados es proporcional al número de fotones del
haz incidente.
Se define el coeficiente de atenuación lineal (µ) como la magnitud que nos indica la fracción de fotones
del haz incidente que interacciona con el material absorbente por unidad de espesor. El valor de µ
depende de la energía de radiación incidente y del material absorbente. Su unidad es 1/cm. Por tanto,
cuanto menor sea el valor de µ, más penetrante será la radiación y más transparente el medio.

2.3. Densidades radiológicas en el cuerpo humano.

Cuando un mismo haz de radiación atraviesa dos tejidos distintos, la atenuación que sufre será distinta,
ya que cada uno de ellos tendrá un espesor determinado y una densidad electrónica diferente. Así, al
atravesar un tejido con una densidad parecida al aire (pulmones), se atenuará mucho menos que al
atravesar un tejido de alta densidad (hueso). Por ello, los tejidos de baja densidad, tendrán una imagen
en un tono más oscuro que los tejidos de alta densidad.

Por tanto, el contraste entre dos tejidos para un mismo haz monoenergético depende básicamente de la
diferencia relativa de densidades.

Los tubos de rayos X proporcionan un haz polienergético, por lo que se utiliza un coeficiente de
atenuación equivalente que promedia la atenuación para todas las energías del espectro. El coeficiente
de atenuación lineal aumenta con la densidad del tejido. El contraste será mayor cuanto mayor sea la
diferencia de densidades entre los diferentes tejidos. Así el contraste disminuye cuando aumentamos la
tensión (kilovoltaje). Si el tejido que se desea observar es hueso, con una alta densidad y gran diferencia
con el resto de los tejidos, se puede utilizar un kilovoltaje alto, si bien cuando se desea diferenciar grasa
o músculo (tejidos blandos, mamografía) deben utilizarse tensiones (kilovoltaje) bajas.

Para determinar el kilovoltaje que debemos utilizar influirán por tanto las diferencias de las densidades
relativas y el espesor de la zona del paciente a explorar, ya que además de conseguir un contraste
suficiente, se debe obtener una imagen con buena definición, es decir, que el haz que atraviese al
paciente contenga un número suficiente de fotones. También debemos tener en cuenta, que al
absorberse en mayor medida la radiación de baja energía, el paciente recibirá más dosis si se utiliza un
kilovoltaje bajo en lugar de alto. Así, el kilovoltaje óptimo deberá ser lo suficientemente bajo para
ofrecer un buen contraste y lo bastante alto como para que la dosis al paciente y el tiempo de exposición
sean bajos.

Los distintos tejidos del organismo humano, en función de su densidad y número atómico medio, se
clasifican desde el punto de vista de la radiología en los siguientes grupos o densidades radiológicas: aire,
grasa, agua y calcio. La densidad de un tejido se mide en gramos por cc. Así tendremos:
En una radiografía de tórax podemos identificar diferentes densidades radiológicas: agua (corazón), aire
(pulmones), calcio (huesos), grasa (tejido subcutáneo).

_____________________________________________________________________________________

Unidad 3.- El equipo de radiología médica.


Equipos de radiología convencional. En el mercado nos encontramos distintas casas comerciales, cada
una de ellas con diversos modelos de aparatos de radiología convencional.

Como norma general, un equipo convencional consta básicamente de un al vacío envuelto por una
cubierta metálica con toma a tierra, una sección de baja tensión donde se encuentran los controles y la
entrada de la red eléctrica, otra sección de alta tensión donde se realiza la transformación de los 220 V
de la red en una tensión del orden de los 50-150 KV y un rectificador que transforma la corriente alterna
en corriente continua.

El tubo de rayos X se encuentra montado en una columna o en un dispositivo telescópico (suspensión de


techo sobre raíles). Será necesaria una mesa radiológica (fija, flotante, inclinable...) o un pedestal vertical
(Bucky mural) donde poder posicionar al paciente para la exploración radiológica, tras los que se
encuentra el portachasis para alojar la película radiográfica.

Como dispositivos asociados al tubo de rayos X tenemos los filtros (que veremos más adelante),
limitadores del haz (diafragmas, conos y cilindros, etc...) y rejillas antidifusoras que se utilizan para
eliminar (del 80 al 90%) la radiación dispersa antes de que llegue a la película. Están formadas por una
serie de láminas absorbentes, de plomo o wolframio, entre las que hay un material poco absorbente,
fibra de carbono o aluminio. Además, están diseñadas y focalizadas de forma que sólo permitan el paso
de los rayos X alineados con el foco, eliminando el resto.

Unidades de radiología fijas (multifuncionales).

Unidades de sólo radiografía. Dentro de las unidades de sólo grafía con equipos fijos, podemos encontrar
gran diversidad de marcas y modelos, cada una con diferentes prestaciones, pero como norma general
tendremos equipos con tableros no inclinables: pedestales verticales (tablero de pared vertical con rejilla
antidifusora fija y tablero de pared bucky) y pedestales horizontales (mesa de tablero fijo o flotante).

Unidades de grafía y escopia. Son equipos con tableros inclinables: equipos con el tubo fijo a la mesa,
equipos con el tubo unido a una columna, equipos con dos tubos, unidades suspendidas del techo y
unidades con mando a distancia, telemando. También podemos encontrar pedestales especiales:
equipos tomográficos, equipos para exámenes neurológicos, equipos especiales para estudios
gastrointestinales (telemando), equipos especiales para urología, equipos especiales de
angiocardiografía. Es un equipo de radiología especializado, con sistema de visión directa en las
exploraciones con contraste, fundamentalmente del aparato digestivo, urológicas, ginecológicas y ósteo-
articulares.

Unidades de radiología móvil y portátil.

Equipos móviles. Nos referiremos en este apartado al intensificador de imágenes móvil. Este equipo
consta de una base sobre ruedas donde se encuentran el panel de control y la unidad de alimentación
para el intensificador de imagen. Unido a esta base tenemos el brazo en C con el tubo de rayos X en un
extremo y el intensificador de imagen con la cámara de TV en el otro. Por otro lado está el soporte móvil
sobre el que se encuentran el monitor y los controles de televisión.

El brazo en C se coloca rodeando al paciente que se encuentra sobre una camilla o una mesa de
operaciones (radiotransparente), suficientemente alta como para alojarlo. Tiene una gran movilidad, así,
puede realizar desplazamientos a lo largo, puede elevarse y bajar y girar en diferentes direcciones.

El aparato de rayos X portátil se usa cuando se realizan exploraciones que necesitan un control
radiológico, por ejemplo la dilatación de una estenosis de esófago, la reducción de fracturas, la
colocación del electrodo de un marcapaso provisional, etc.

El papel del técnico en este tipo de exploraciones consiste en controlar todos los factores de exposición,
para lo que manipulará los mandos existentes en el panel de control del aparato. Mediante un pulsador
de pie, dará escopia intermitente y controlará el tiempo de exposición total durante una determinada
exploración, mediante la visualización del contador de tiempo de que disponen estos aparatos. Y
además, manejará los controles de imagen de la televisión (ajuste de brillo, contraste...).

Equipos portátiles.

Los equipos portátiles son aparatos algo pesados que se transportan empujándolos o por medios
mecánicos (motor). Básicamente, constan de una base sobre ruedas en la que se encuentra el pupitre de
control donde se seleccionan los parámetros de la exposición, una columna y un brazo deslizante cuyo
extremo va unido al tubo de rayos X, pudiendo adoptar éste cualquier posición para adaptarse a las
necesidades del paciente y al tipo de exploración. En estos aparatos podemos elegir entre una gama
limitada de kilovoltios (por lo general hasta 90 o 100 KV).

La protección radiológica es un aspecto muy importante en la exploración radiográfica con equipos


portátiles (y móviles), ya que estos aparatos se manejan fuera del departamento de rayos X y además de
que el operador accione los controles en la misma habitación, se corre el riesgo de exponer a la radiación
no solo al paciente sino también al personal de la sala y a los pacientes cercanos, por lo cual, se deben
observar estrictamente las normas de protección radiológica establecidas, en concreto, se debe evitar el
haz primario, hay que mantener las distancias (se recomienda estar a 2 m del haz de radiación) y es
necesario usar equipos de protección individual, como delantales protectores adecuados.

Los estudios realizados con el equipo portátil de rayos X, deben restringirse a los pacientes que por su
estado de salud, no puedan ser trasladados al Servicio de Diagnóstico por la Imagen sin que se alteren de
forma importante los cuidados y tratamiento que reciben. Por este motivo, estas exploraciones se
realizarán fundamentalmente en la Unidad de Cuidados Intensivos (UCI), quirófano, reanimación y
urgencias (sala de observación).

También debemos tener en cuenta multitud de factores que van a dificultar en gran medida la
realización del estudio, como pueden ser el grado de consciencia y cooperación del paciente, el tamaño
generalmente reducido del lugar donde se realiza el examen o los múltiples dispositivos, goteros,
electrodos, drenajes, sondas, etc., que tiene conectados el paciente.

Anotar los factores de exposición usados al realizar la radiografía a un determinado paciente puede ser
de gran utilidad para conseguir resultados posteriores igual de satisfactorios, ya que, por lo general a
estos pacientes se les repetirá el estudio durante el tiempo de hospitalización.

Aunque se pueden realizar la mayoría de las exploraciones radiológicas convencionales, la radiología con
portátil se dedica fundamentalmente a la radiografía AP de tórax para: estudios postoperatorios, valorar
la evolución del paciente, control de marcapaso provisional, control de catéter de presión venosa
central, etc. Además del tórax AP son usuales exámenes de abdomen, controles de fracturas de fémur
reducidas y vértebras cervicales en proyección lateral. En quirófano también es frecuente usar el equipo
portátil, por lo general existe una unidad portátil para uso exclusivamente quirúrgico.

El tubo de rayos X consiste en una ampolla de vidrio (Pyrex) en la que se ha hecho un alto vacío, que
contiene en su interior un filamento con potencial negativo (cátodo) y un blanco con potencial positivo
(ánodo). Las partes principales de un tubo de rayos X son (desde el exterior hacia el interior): cubierta
metálica, blindaje de plomo, espacio para el aceite, ampolla de vidrio, taza de focalización, fuente de
electrones (cátodo), ánodo y filtros.
1. La cubierta metálica se encuentra conectada eléctricamente a tierra, para conseguir un buen
aislamiento eléctrico y evitar un posible accidente en caso de una fuga de alta tensión, recordemos
que la diferencia de potencial entre ánodo y cátodo es muy elevada (50-150 Kv). Dispone de una
ventana de un material de número atómico bajo para permitir la salida del haz de radiación directa e
impedir irradiar en direcciones no deseadas. El blindaje de plomo es útil para absorber la radiación
no coincidente con el haz de rayos X que se va a utilizar.
2. El calor que se genera en el ánodo se disipa a través del aceite que rodea la ampolla, realizando un
aislamiento tanto eléctrico como térmico. La refrigeración del ánodo es muy importante, ya que
salvo la energía emitida en forma de radiación electromagnética (EM), el resto de la energía de los
electrones que atraviesan el tubo es absorbida en el ánodo y transformada básicamente en calor.
3. Los electrones se emiten desde el cátodo que se encuentra en el interior de la taza de focalización o
copa de enfoque, cuya misión es concentrar el haz de electrones en el punto focal del ánodo . El
filamento de un tubo de rayos X suele ser de wolframio o tungsteno (W), elemento con número
atómico igual a 74 y punto de fusión muy elevado (3410ºC). Para calentar el cátodo se hace pasar
una corriente entre sus extremos (diferencia de potencial de 6 a 10 V), emitiendo de esta forma
electrones por efecto termoiónico. Si se modifica esta tensión, se variará la corriente que atraviesa el
filamento y se aumentará el número de electrones emitidos por efecto termoiónico.

El ánodo está formado generalmente por un metal con número atómico muy elevado (Wolframio),
incrustado en una barra de cobre (elevado punto de fusión, 1083ºC) refrigerada por aceite. Al tener
un número atómico alto, conseguimos que el frenado de los electrones sea muy elevado y se
generen gran cantidad de fotones de bremsstrahlung, que poseen un espectro continuo. Cuando los
electrones que provienen del cátodo colisionan con los electrones ligados a algún átomo del ánodo,
se pueden producir colisiones que consigan hacer saltar los electrones corticales de un orbital a otro
de mayor energía, con lo que se emitirá radiación EM con un espectro discreto (rayos
característicos), cuando dichos electrones vuelven a caer a sus orbitales originales.

El ánodo puede ser estacionario (siempre en la misma posición). En este caso, la zona de impacto de
los electrones se recubre por una capa de cobre y otra de tungsteno, para que los electrones
secundarios generados en el blanco sean frenados en la capa de cobre, y los fotones de frenado de
baja energía producidos en la capa de cobre, se absorban en la capa de tungsteno. La zona de
impacto de los electrones se llama foco térmico, debido a que es donde se disipa la mayor cantidad
de energía por unidad de superficie (en milímetros de superficie se alcanzan temperaturas de unos
2000ºC).

Posteriormente se diseñaron los ánodos rotatorios, que se utilizan cuando la carga del tubo es
elevada y se requieren grandes corrientes en un breve intervalo de tiempo. El ánodo tiene un
dispositivo (rotor) que lo hace girar mientras sobre él incide el haz de electrones, aumentando así la
superficie de impacto (foco térmico) y evitando el sobrecalentamiento del mismo. Son los más
habituales en radiodiagnóstico. Pueden ser de wolframio o de una mezcla de 90% de wolframio y
10% de renio.

La mayoría de los fotones de rayos X dentro del intervalo de energías propias de radiodiagnóstico se
emiten con un ángulo de unos 45º respecto de la dirección de incidencia del haz de electrones. Para
aumentar el tamaño del foco térmico sin aumentar el tamaño del foco óptico, se utiliza un ánodo
inclinado unos pocos grados respecto del ángulo de salida del haz de rayos X.

Los filtros se utilizan para eliminar los rayos X de mayor longitud de onda (blandos), que lo único que
producen es el aumento de la dosis en superficie del paciente. A este efecto, en la ampolla de vidrio
se encuentra una pequeña superficie circular donde el vidrio es más delgado que se denomina
ventana de salida del haz.
El flujo de fotones que emerge del ánodo no es estrictamente homogéneo, ya que no todos los
fotones se producen en el mismo punto y además se producen tras atravesar los electrones
diferentes espesores de material. Este fenómeno se denomina efecto anódico o talón, que aumenta
con el envejecimiento del tubo conforme la superficie anódica se va deteriorando con los cambios de
temperatura.

Además de los tubos para diagnóstico médico (ánodo estacionario y rotatorio) que hemos visto,
existe otro tipo de tubos de rayos X, los de terapia (radioterapia). Estos trabajan con intensidades
relativamente bajas, oscilando entre 3-5 y 20-30 mA. Es importante señalar que el tamaño del foco
no es tan decisivo como en los tubos de diagnóstico, ya que en radioterapia no hace falta un haz
perfectamente enfocado. Sí debemos tener en cuenta unas severas exigencias de enfriamiento,
debido a la necesidad de una continua disipación del calor.

3.3. Producción de rayos X.

 El haz de rayos X generado en el ánodo contiene rayos X de frenado producidos al interaccionar los
electrones con los núcleos del ánodo y rayos X característicos originados por el llenado de los
orbitales vacantes provocados por los choques con los electrones corticales del ánodo.
La energía máxima de los electrones y en consecuencia el máximo del espectro dependen
directamente de la diferencia de potencial aplicada entre ánodo y cátodo.
 Al espectro continuo se superpone un espectro discreto que corresponde a la desexcitación de los
átomos del ánodo y dependerá del número atómico del material del ánodo. Para evitar que nuestro
haz se contamine con radiación de muy baja energía, no es conveniente utilizar materiales anódicos
de bajo Z, ya que contribuyen al aumento de la dosis en piel del paciente, pero no son capaces de
aprovecharse para la obtención de la imagen al no atravesar al paciente. Si la tensión utilizada es
muy baja (15-40 KV), puede interesar aprovechar directamente los rayos X característicos, como es el
caso de los equipos de mamografía que tienen un ánodo de molibdeno, cuyo espectro característico
está comprendido entre 25-35 KeV.
Si el espectro está compuesto básicamente por radiación de frenado (lo más habitual), la energía
media del haz de rayos X es aproximadamente 1/3 de la energía máxima.

La calidad de un haz de rayos X se define como la habilidad de penetración de la radiación. Como


esta definición es difícilmente mensurable, se recurre a la capa hemirreductora (CHR) para
cuantificar la calidad de un haz de rayos X. La capa hemirreductora es el espesor de un filtro de una
composición determinada necesario para atenuar la intensidad del haz a la mitad. Cuando mayor sea
la CHR, mayor será la energía de nuestro haz y mayor la penetración de la radiación. Si el haz es
monoenergético, la capa hemirreductora tiene una definición única, pero si el haz no lo es, sino que
presenta un espectro complejo (lo cual ocurre casi siempre), el valor de la CHR varía tras atravesar
un determinado espesor de material, ya que se frenarán más los fotones de bajas energías, por lo
que tras atravesar un filtro se dice que el haz se endurece, es decir, aumenta la proporción relativa
de fotones de alta energía. Así se define el coeficiente de homogeneidad como el cociente en la
primera CHR y la segunda CHR, entendiendo la segunda CHR como el espesor necesario para volver a
reducir a la mitad la intensidad de un haz de rayos X tras haber atravesado la primera CHR.

El espectro anteriormente descrito corresponde al espectro a la salida del ánodo, si bien entre éste y
el paciente existen una serie de materiales que interactúan con el haz. Como la radiación de baja
energía no contribuye a la imagen, pero sí a la dosis al paciente, constituye un elemento indeseable
del espectro de rayos X. Por ello, a la salida del haz se interponen una serie de filtros que disminuyan
la proporción de rayos X de baja energía. La mayoría de los filtros utilizados en radiodiagnóstico son
de aluminio. Para energías mayores puede ser conveniente utilizar filtros compuestos por varios
materiales, en estos casos, deberá estar el elemento de mayor número atómico más cerca del
ánodo.

Independientemente de los filtros que se utilicen para nuestro equipo, existe una filtración inherente
al haz que se debe a la filtración que sufre el haz en el propio ánodo y la debida a la ventana de
salida del tubo, normalmente el valor de esta filtración inherente es de unos 0.5 mm de Al. En
nuestro país la filtración total (inherente y añadida) debe ser equivalente a 2.5 mm de Al.
La intensidad del haz de rayos X depende del número de electrones emitidos desde el filamento y se
controla a través de la tensión entre los extremos del cátodo.
Además de atenuarse la radiación por el filtrado de los materiales interpuestos entre el paciente y el
tubo de rayos X, la intensidad de la radiación se atenúa con el cuadrado de la distancia desde la
fuente.

Dentro de la radiación generada por un tubo de rayos X suelen definirse los siguientes conceptos:
Radiación directa o primaria
Se denomina radiación directa o primaria a la radiación que emerge del tubo de rayos X en la
dirección de utilización. Hasta ahora, sólo se habían hecho referencias a esta radiación. La radiación
directa suele ser unas 3003000 veces mayor que la radiación secundaria.
Radiación secundaria
Denominamos radiación secundaria a la radiación de fuga más la radiación dispersa.
Radiación residual
La radiación residual es la radiación directa tras atravesar al paciente. Entendemos por radiación
dispersa aquella que se genera como consecuencia de dispersiones Compton entre el haz directo y
los absorbentes interpuestos en su trayectoria, tales como el paciente, los accesorios o el aire.
Radiación de fuga sería la radiación que escapa al blindaje (es necesario blindar todo el tubo salvo la
ventana de salida).

3.4. Generador.
El tubo de rayos X está conectado a la red eléctrica que funciona a 220 Veff, en corriente alterna
(AC). El tubo de rayos X funciona a unos 50-150 KV, en corriente continua (DC). La diferencia de
potencial entre los extremos del cátodo es de unos 6 V, pudiendo trabajar indistintamente en AC y
en DC, ya que esta corriente sólo tiene la finalidad de calentar el cátodo, por tanto el circuito
asociado al cátodo para generar esta corriente será sólo un transformador de 220 V a 6 V. Así el
circuito puede separarse en dos partes:
1. Una de alta tensión que alimenta al tubo y trabaja en DC.
2. Otra que alimenta la corriente del cátodo de baja tensión y de AC.
Un pequeño cambio en la corriente del cátodo, puede generar un gran cambio en la corriente del
tubo y por tanto en la dosis al paciente, por lo que el transformador ha de ser lo suficientemente
estable como para eliminar las variaciones de la red. La parte de alta tensión trabajará a 50-150 KV
en DC a partir de los 220 V de AC.

En primer lugar, dentro de la etapa de baja tensión, se contará con un autotransformador que
permitirá un ajuste discreto de la diferencia de potencial y un reóstato que permitirá el ajuste fino de
la tensión del tubo, para evitar un sobrecalentamiento de esta etapa.

Tras el autotransformador, se conectará un transformador que proporcionará los 50-150 KV, ya en la


etapa de alta tensión.

Como la tensión de salida del transformador es continua, será necesario disponer de un sistema
rectificador que no permita la inversión de la polaridad. El rectificador más habitual es un puente de
diodos, pero en la práctica se utiliza un rectificador trifásico con tres puentes de diodos, que genera
una señal casi continua.

En realidad podría utilizarse una tensión sin rectificar (AC), equipos autorrectificados, pero en los
períodos negativos de la tensión sería el ánodo el que se convertiría en cátodo y viceversa, por lo
que el cátodo recibiría impactos de los electrones sin disponer de un sistema adecuado de
refrigeración, con los problemas asociados, además de contaminar el haz emergente con fotones de
baja energía correspondientes a los fotones generados por los electrones acelerados en las rampas
de bajada y subida de la tensión.

Todos los elementos de control se encuentran en la etapa de baja tensión. En el caso del
kilovoltímetro, se sitúa entre las espiras del autotransformador en la parte de baja tensión y se
gradúa para alta tensión. El miliamperímetro mide la corriente que atraviesa el tubo de rayos X, pero
se sitúa en la mitad de las espiras del secundario, con lo que en realidad se encuentra conectado a
tierra. Para conseguir un mejor aislamiento, el bloque de alta tensión y los cables de alimentación
del tubo están aislados y rodeados de una vaina metálica conectada a tierra.

3.5. Otros componentes del equipo.

Este epígrafe contiene los siguientes puntos:

 Colimadores.  Rejillas.  Mesa de control.

a. Colimadores:
Un colimador está formado por un par de mandíbulas móviles dos a dos que impiden el paso de la
radiación, permitiendo una gran variedad de campos cuadrados y rectangulares. Los colimadores
limitan el paso del haz de radiación, restringiéndolo al tamaño que se desee.
Los colimadores no sólo limitan el haz de radiación sino que también hacen lo mismo con el campo
luminoso. Éste, se utiliza para observar sobre el paciente lo que será el campo de radiación cuando
se inicie la irradiación. Con el sistema de colimación diseñado en esta forma se consiguen dos
objetivos:
1. La protección del paciente, pues seleccionando el campo más pequeño posible se consigue
minimizar el volumen irradiado.
2. Disminuir la radiación dispersa que alcanza la película radiográfica y por tanto se mejora el
contraste de la imagen.

b. Rejillas:
El objetivo de una placa radiográfica es obtener una imagen que permita el diagnóstico del paciente,
por lo que obtener una imagen nítida tiene una gran importancia. Cuando se quiere obtener una
imagen anatómica de una parte de mayor espesor, la radiación dispersada por el paciente aumenta,
por lo que la imagen que se forma no se debe únicamente a la transmisión del haz incidente, sino
que también aparece el haz dispersado por el paciente que no se corresponde con la imagen que se
desea. Para evitar el efecto de la radiación dispersa, se interpone entre la placa radiográfica y el
paciente una rejilla antidifusora. Fue inventada en 1913 por el Dr. Gustave Bucky y también se
conoce por el apellido de su autor.

La rejilla antidifusora consiste en una serie de láminas de plomo sobre un material transparente a la
radiación X y que sirve para mantener la estructura de plomo. El material transparente suele ser
aluminio o un material orgánico, si bien, la rigidez estructural del aluminio es mejor para este
propósito. No obstante, el aluminio absorbe más radiación directa que los materiales plásticos, por
lo que la dosis al paciente es mayor, aunque el contraste de la imagen es mejor.

Algunos parámetros que caracterizan una rejilla son:


1. Relación de la rejilla:
Se define como R=h/d, donde h es el espesor de la rejilla y d la distancia entre las láminas que
forman la rejilla. Conforme el valor de R aumenta, más radiación dispersa se elimina, aunque se
necesitan dosis más altas para compensar la absorción de la rejilla y obtener las mismas
imágenes que sin rejilla.
2. Frecuencia de la rejilla:
Se define como el número de rejillas por centímetro, de esta manera F=10000/(t+d), y donde t es
el ancho de una rejilla y F se mide en micras. Al igual que antes a mayor frecuencia mayor
absorción, aunque por el contrario se necesita mayor dosis de radiación para obtener la misma
imagen.

c. Mesa de control:
Desde la mesa de control se tiene acceso a la mayoría de los elementos que hasta ahora se ha
explicado, así, desde ésta se pueden modificar, a conveniencia del operador de la sala, los elementos
que interese para obtener una buena radiografía. La mesa de control suele estar ubicada detrás del
blindaje y desde ella el operador realiza la placa visualizado tanto al paciente como a la máquina. En
muchos casos el acceso a los colimadores, a la luz de campo y al movimiento de la mesa y del tubo
no es posible desde la mesa de control y hay que hacerlo desde el mismo aparato de rayos dentro de
la sala.
Se define régimen de una radiografía como el conjunto de valores de kilovoltaje entre ánodo y
cátodo, intensidad de corriente que atraviesa el tubo y tiempo de exposición a la radiación, que se
utilizan mientras se hace la placa.

Generalmente desde la mesa de control podemos modificar y fijar el régimen de la radiografía de


dos formas diferentes:

Modificando los valores de kilovoltaje, intensidad y tiempo separadamente.


Modificando los valores de kilovoltaje y del producto de intensidad por tiempo. Esta segunda opción
está justificada porque el número de fotones y por tanto la dosis que recibe el paciente están
vinculados a la intensidad de corriente (número de fotones generado) y al tiempo, (ya que a más
tiempo mayor cantidad de fotones recibe el paciente). Así, el producto de intensidad por tiempo es
un valor que nos da una idea directa de la dosis que recibe el paciente.
_____________________________________________________________________________________
UNIDAD 4.- LA PELICULA RADIOGRAFICA Y LA FLUOROSCOPIA

La imagen de rayos X se capta en una película radiográfica que proporciona un sistema de estudio
estable, que se puede archivar. Nos da información que puede ser utilizada y comparada con estudios
posteriores para valorar la evolución de un determinado paciente.
La película radiográfica es el receptor final de la información radiográfica y el soporte de imagen más
utilizado en radiología. Existen diversos tipos de película radiográfica que veremos más adelante, pero la
mayor parte de las películas usadas en diagnóstico médico tienen emulsión por las 2 caras, se las
denomina películas de doble emulsión.

4.1.2. Estructura.
Las partes fundamentales de la película radiográfica son la base y la emulsión. Entre ambas hay una fina
capa de un material adhesivo, llamada capa adhesiva o substrato que sirve para conseguir la adherencia
uniforme de la emulsión a la base.

BASE:
La finalidad de la base es proporcionar una estructura rígida sobre la que se pueda depositar la capa de
emulsión. Es flexible para poder manejarla fácilmente, pero también es lo suficientemente rígida como
para mantenerse en un negatoscopio. En la película de doble emulsión, la base tiene un espesor
aproximado de 150 a 175 µm.
Además tiene la propiedad de ser estable dimensionalmente, con lo que mantiene su forma y tamaño
durante su uso y procesado para que la imagen no se distorsione. La base de película radiográfica tiene
que tener las siguientes características:

 Flexibilidad: debe permitir su curvatura a través de la procesadora.


 Rigidez: si no lo es no se puede ver con el negatoscopio.
 Irrompible: no se puede partir con facilidad.
 Estabilidad dimensional: debe mantener su forma y tamaño.
 Licencia uniforme: debe ser casi transparente a la luz para que no aparezcan sombras.

Durante su fabricación se añade colorante que la tiñe ligeramente de azul, así se consigue paliar en gran
medida la fatiga visual causada por el estudio de imágenes radiográficas en sesiones continuadas.
La base original era una placa de cristal de alta calidad, que se usó hasta los años 20, a continuación se
introdujo el nitrato de celulosa, material muy inflamable, lo que hizo que se sustituyera posteriormente
por triacetato de celulosa, similar al anterior pero con la ventaja de no ser inflamable. A comienzo de los
años 60 se comenzó a usar el poliéster (película de seguridad) que era más resistente, tenía mayor
estabilidad dimensional y no presentaba problemas durante el proceso de revelado en las máquinas
automáticas.

EMULSION: Es el material con el que interaccionan los rayos X o mediante el que los fotones de luz de las
pantallas transfieren la información.

 Está formada por una mezcla homogénea de gelatina y cristales de halogenuros de plata. La gelatina
es transparente (transmite la luz) y porosa (deja que los compuestos químicos penetren durante el
revelado hasta alcanzar los cristales de halogenuros de plata). Ofrece un soporte físico para el
depósito uniforme de los cristales de halogenuros de plata. Estos cristales en una emulsión corriente
son en un 95% de bromuro de plata y en un 5% de yoduro de plata.
 La interacción de los rayos X y los fotones de luz con estos átomos de número atómico elevado, es lo
que produce la imagen radiográfica.
 La concentración de cristales de halogenuros de plata el principal determinante de la rapidez de la
película. La película de exposición directa tiene una capa de emulsión mucho más gruesa y con más
cristales de halogenuros de plata que la película de pantalla.
 La emulsión está protegida en su cara exterior por una capa de gelatina, llamada superrecubrimiento
o superestrato que la protege de arañazos, presión y contaminación durante su uso y revelado.
 El grosor de la película de doble emulsión suele ser de entre 200 a 250 µm (0,2 a 0,25 mm).

Tipos.

Películas de pantalla. Son las películas más utilizadas en radiología.

Existen en distintos tamaños, los más usuales en diagnóstico médico son: 13x18, 18x24, 24x30, 30x40,
35x35, 35x43 y 30x90.

Al elegir una película debemos tener en cuenta características como el contraste, la rapidez y la
absorción espectral

Contraste En el mercado se encuentran películas de pantalla con diferentes niveles de contraste (medio,
alto y superior). La diferencia está en tamaño y distribución de los cristales de halogenuros de plata. Así
una emulsión de alto contraste, tiene los granos más pequeños y de tamaño relativamente uniforme y
en una emulsión de bajo contraste el grano será mayor y de diferentes tamaños.

Rapidez Al igual que ocurre con el contraste, existen películas de diferente rapidez, como consecuencia
del tipo de emulsión usada. Las emulsiones de grano grueso son más sensibles que las emulsiones de
grano fino. Además, cuanto más gruesa es la emulsión, más sensible es la película y por tanto más
rápida. Las películas de pantalla siempre suelen ser de doble emulsión, esto nos da una rapidez doble a la
obtenida con películas de emulsión sencilla.

Absorción espectral Ésta es quizá la característica más importante. Desde la aparición de las pantallas de
tierras raras, se debe tener cuidado para utilizar una película cuya sensibilidad a los varios colores de la
luz (respuesta espectral), esté correctamente emparejada con el espectro de luz que emite la pantalla.
Así una pantalla de tungstenato de calcio que emite luz azul-violeta, se utilizará con una película
estándar de halogenuros de plata (película sensible al azul) y una pantalla de tierras raras que emite luz
azul-verde, se emparejará con una película ortocromática (película sensible al verde). Si no se usa la
película correspondiente a cada pantalla, la rapidez del receptor de la imagen se verá muy reducida,
debiendo aumentar la dosis. Respecto a las luces de seguridad del cuarto oscuro, debemos tener en
cuenta que las películas sensibles al azul se deben manipular bajo una luz con filtro ámbar (velará el
verde) y las películas sensibles al verde se manipularán con un filtro rojo (no velará el azul).

Películas de exposición directa. La emulsión es mucho más gruesa que la película de pantalla y además
tiene una concentración de cristales mucho más elevada, con objeto de mejorar la interacción directa de
los rayos X, ya que en este caso no se utilizan pantallas de refuerzo y por tanto no tenemos fotones
lumínicos para que interaccionen con los cristales de halogenuro de plata. Se presentan en envoltorios
individuales de papel.
Películas para mamografía Inicialmente eran películas de exposición directa y doble emulsión,
consecuentemente la dosis de radiación que recibía la paciente era muy elevada. Hoy día son películas
de grano fino y monoemulsión para ser usadas con pantalla intensificadora sencilla.

Películas de video Este tipo de película se usa en TAC, radiografía digital, ecografía y RM. En el caso de las
técnicas que implican el uso de radiaciones ionizantes (TAC y radiología digital), la imagen se forma
mediante análisis electrónico (asistido por ordenador) de la radiación detectada por medio de una serie
de detectores colocados al efecto. La imagen se muestra después en un monitor de TV. Posteriormente,
para obtener una imagen permanente, se hace un negativo fotográfico de la imagen de vídeo, también
denominada imagen CRT. El tubo que se utiliza en la televisión es un tubo de rayos catódicos (CRT). Las
imágenes se obtienen con lo que se conoce como fósforo CRT de punto azul o de punto verde. Estas
imágenes se deben registrar en la película sensible al azul o al verde respectivamente, aunque en la
práctica se utilizan de forma general películas ortocromáticas. La película para imagen de vídeo tiene
solo una fina capa de emulsión. Su exposición se realiza a través de una cámara multiformato o una
cámara láser. Se pueden grabar entre 1 y 16 imágenes en una misma lámina de película.

Películas de duplicación Este tipo de películas tiene una sola capa de emulsión y deben ser expuestas a la
luz ultravioleta. Se presentan en los mismos tamaños que las películas de pantalla. Existen aparatos
especialmente diseñados para colocar en ellos la película de duplicación sobre la película original y hacer
pasar la luz ultravioleta a través de ambas para obtener la copia.

película de sustracción A veces se usan en angiografía. Son películas de alto contraste y monoemulsión.
Existen 2 tipos: el primero se utiliza para preparar la máscara de sustracción y el segundo para recoger la
imagen superpuesta de la radiografía original y la máscara de sustracción.

Peliculas de cine La cinefluorografía es un tipo especial de examen reservado casi exclusivamente al


laboratorio de cateterismo cardíaco. Estas películas se comercializan en carretes en 2 tamaños
diferentes, 16 y 35 mm. Se deben visualizar mediante un proyector.

películas de Seriografia Son rollos de película de 70 o 105 mm de ancho. Se emplean en seriografos y


pueden visualizarse directamente en un negatoscopio. El revelado es importante para una imagen de
calidad, los carretes de seriografía se revelan en reveladoras automáticas, en cambio la película de cine
se revela con un equipo especial.

Pelicula para radiografia dental La película de exposición intraoral tiene unas dimensiones de 32x41 mm,
es doble emulsión, sin pantallas y se presenta en envoltorio individual con lámina de plomo en la parte
posterior. Las de exposición panorámica tienen un tamaño de 12.5x30 cm o 12.5x35 cm, son
monoemulsión, de pantalla y van montadas en chasis flexible o en chasis curvo rígido, según el modelo
de ortopantomógrafo.

4.1.4. Almacenamiento y cuidados de la película radiográfica.

 La película radiográfica se debe manipular con las manos limpias (sin cremas), para evitar la
aparición de artefactos (huellas, uñas, etc.). Además debemos procurar no doblar la película al
manipularla, ya que, el doblez se traduciría tras el revelado en otro artefacto (raya negra).
 Nunca se deben almacenar a temperaturas superiores a 20ºC, ya que se reduce el contraste y se
aumenta el velo. La humedad elevada (más del 60%) también reduce el contraste y aumenta el
oscurecimiento. La humedad por debajo del 40% produce artefactos por electricidad estática. En
definitiva se deben almacenar en un lugar fresco y seco.
 Tanto su manipulación como su almacenamiento se debe realizar en la oscuridad, por tanto, el
cuarto oscuro y el armario donde se guardan las películas sin exponer, deben ser totalmente
estancos a la luz. Las radiaciones ionizantes que no sean las del haz útil aumentan el velo. Por
este motivo, el cuarto oscuro debe estar protegido contra las radiaciones (tabiques plomados). El
nivel de radiación que vela una película sin revelar es de 0,2 mR.
 La fecha de caducidad suele ser aproximadamente de 1 año después de la fabricación, si la placa
se usa después de esta fecha, se perderá velocidad y contraste y se aumentará el velo.
 Por último, recordar que las cajas de películas se deben almacenar en posición vertical, y con la
fecha de caducidad visible, ya que si las colocamos apiladas en posición horizontal, se corre el
riesgo de que se puedan arquear y pegar por el peso de unas cajas sobre otras.
 Actualmente, debido al avance de los sistemas de radiografía, todas las películas tienen un
soporte digital, por lo que no es necesario revelarlas y se almacenan por tiempo indefinido en el
historial de los pacientes, eliminando todos los riesgos antes mencionados

4.1.5. Chasis.

 El chasis es la armadura sólida que contiene la pantalla de refuerzo y la película. Debe asegurar
un perfecto contacto entre película y pantallas, debe proporcionar una perfecta protección de la
película (estanqueidad a la luz), y además debe ofrecer un sistema de identificación del paciente.
 La superficie delantera (cara orientada al tubo) debe estar fabricada de un material con un
número atómico bajo (plástico, cartón), será lo más fina posible, pero a la vez resistente.
 Entre cada pantalla de refuerzo y la carcasa del chasis, encontramos un elemento de compresión
(goma, fieltro), para asegurar el buen contacto película pantalla con el chasis cerrado.
 La tapa posterior debe ser de un material pesado para absorber los rayos X que han atravesado
el conjunto. Si se usa un material cuyo número atómico es pequeño, los rayos X podrían
atravesar el chasis y rebotar en algún elemento cercano, pudiendo llegar otra vez a la película.
Esto se conoce como radiación retrodispersa y reduce el contraste de la película.
 Los chasis se fabrican en tamaño estándar para cada tamaño de película. En la actualidad se
utiliza para su fabricación fibra de carbono que es un material muy resistente y pesa un 25%
menos que el aluminio, además reduce la dosis que recibe el paciente. Un chasis con una tapa
superior de fibra de carbono absorbe la mitad de radiación que otro que sea de aluminio o
cartón.

4.1.6. Pantallas de refuerzo.

Introducción. En la mayoría de las radiografías que se realizan en la actualidad, se utilizan las pantallas de
refuerzo junto con la película radiográfica, con lo que se reduce considerablemente la dosis que recibe el
paciente.

La pantalla de refuerzo convierte el haz de rayos X en luz visible, que será la que forme la imagen latente
sobre la película (tan solo el 1% del haz de rayos X que llega a la película, interacciona con ella para
formar la imagen latente).

Las pantallas son unas láminas de plástico flexibles, que se comercializan en los mismos tamaños que las
películas y de forma que sean compatibles entre sí. Se deben usar los tipos de película para los que está
diseñada una determinada pantalla. Como norma general, se usan 2 pantallas de refuerzo, entre las
cuales se encuentra la película de doble emulsión, así cada pantalla expone la emulsión con la que está
en contacto.
Estructura. En las pantallas de refuerzo se pueden distinguir 4 partes: la capa protectora, el elemento
fosforescente, la capa reflectante y la base.

 Capa protectora Es la parte más próxima a la película, es transparente, su grosor es de 15-25 µm,
protege la pantalla de una manipulación inadecuada, ayuda a eliminar electricidad estática y nos
proporciona una superficie para poder limpiar la pantalla sin dañarla.
 Elemento fosforescente El elemento fosforescente es la parte de la pantalla de refuerzo que
emite luz al ser estimulado por los rayos X, su grosor oscila de 150250 µm, dependiendo del tipo
de pantalla. La finalidad del elemento fosforescente es transformar la energía del haz de rayos X
en luz visible.
 Capa reflectante Cuando la radiación X interactúa con el elemento fosforescente, se emite luz
con la misma intensidad en todas direcciones, en realidad, en dirección a la película, se emite
menos de la mitad de la luz. La capa reflectante aumenta la eficiencia de la pantalla de refuerzo,
duplicando el número de fotones que alcanzan la película, ya que la luz que llega a dicha capa, es
reflejada de nuevo hacia la película. Se encuentra entre el elemento fosforescente y la base,
tiene un grosor aproximado de 25µm y es de óxido de magnesio o de dióxido de titanio.
 Base Es la capa más alejada de la película, con un grosor de 1 mm., es el soporte para el
elemento fosforescente.

Luminiscencia. Cuando un material emite luz como respuesta a una estimulación exterior, se
denomina material luminiscente o elemento fosforescente, y la luz emitida se llama luminiscencia. Es
un proceso análogo a la emisión característica de rayos X, afecta a los electrones de la capa externa
del átomo, de forma que cuando se estimula un material luminiscente, los electrones de la capa
externa pasan a niveles de energía excitados dejando un hueco en dicha capa electrónica. El átomo
vuelve a ser neutro cuando los electrones vuelven a sus niveles energéticos normales, emitiendo
energía electromagnética en forma de un fotón de luz visible.

Encontramos dos tipos de luminiscencia:

Fluorescencia: Cuando sólo se emite luz visible durante la estimulación del elemento fosforescente.
Las pantallas de refuerzo son fluorescentes. En las pantallas, la fosforescencia se denomina efecto
retardado o resplandor

Fosforescencia: Si el elemento fosforescente continúa emitiendo luz después de recibir el estímulo.

Características de las pantallas. Hay 2 características importantes en las pantallas de refuerzo: el


factor de intensificación y la resolución.

Mide la velocidad o rapidez de la pantalla. La velocidad de la pantalla es un número que se utiliza


para conocer la eficiencia de la pantalla para convertir rayos X en luz visible.

Las pantallas de alto contraste y las de velocidad nivelada tienen como elemento fosforescente
tungstenato de calcio, las primeras poseen una velocidad aproximada de 50 y a las segundas se les
asigna el valor 100. El factor de intensificación en las de alto contraste es de 20 a 35, siendo de 30 a
60 en las de velocidad nivelada. Por último las de alto contraste tienen una resolución de 15 pl/mm,
frente a 10 pl/mm en las de velocidad nivelada.

Las pantallas de alta velocidad tienen como elemento fosforescente tungstenato de calcio o sulfato
de bario y plomo, su velocidad es de entre 200 y 300, el factor de intensificación varia de 80 a 100 y
la resolución es de 7 pl/mm. Las pantallas de tierras raras tienen como elemento fosforescente
oxisulfuro y oxibromuro de itrio, lantano y gadolinio. Su velocidad oscila entre 200 y 1200, el factor
de intensificación es de 80 a 400 y la resolución de 7 a 15 pl/mm. Las siguientes propiedades afectan
al factor de intensificación y no pueden ser controladas por el técnico. En orden de importancia son:

1. Composición del elemento fosforescente. Tungstenato de calcio: gran eficacia para


transformar rayos X en luz visible. Tierras raras: eficacia aun mayor.
2. Grosor del elemento fosforescente: Cuanto más gruesa sea la capa de elemento
fosforescente, mayor será el número relativo de rayos X que se transforma en luz visible.
3. Pantallas alta velocidad: capas gruesas.
4. Pantallas alto detalle: capas finas.
5. Capa reflectante: Aumenta la velocidad y disminuye la resolución.
6. Tinción: A algunos elementos fosforescentes se les añaden colorantes que controlan la
dispersión de la luz. Estos colorantes aumentan la resolución y reducen la velocidad
7. Tamaño de los cristales: Cuanto mayor sea el tamaño de los cristales, mayor es la emisión de
luz por rayo X.
8. Concentración de cristales del elemento fosforescente: Cuanto mayor sea la concentración
de cristales, mayor será la velocidad de la pantalla.

Los factores que afectan a la velocidad de la pantalla y que están bajo el control del técnico son:

- Calidad de la radiografía: Cuanto mayor sea el potencial del tubo, mayor será el factor de
intensificación.
- Temperatura: Las pantallas de refuerzo emiten más luz por cada rayo X recibido a baja
temperatura que por cada uno recibido a alta temperatura. El factor de intensificación disminuye
con la temperatura.
- Revelado de la película: En las películas de pantallas si aumentamos el tiempo de revelado,
disminuye el factor de intensificación.

Resolución es la capacidad de una pantalla para reproducir un objeto de forma clara y nítida. La
resolución se mide por la distancia mínima entre 2 líneas que es capaz de detectar y registrar, se expresa
en pares de líneas por mm (pl/mm), de forma que cuanto mayor es el número de pares de líneas por mm
registrado, mayor es la resolución y mayor fiabilidad tenemos para reproducir objetos de menor tamaño.

Las condiciones que aumentan el factor de intensificación reducen la resolución. Así, las pantallas de alta
velocidad tienen baja resolución y por ende, las de alta resolución son de baja velocidad.

La resolución aumenta cuando disminuimos el tamaño de los cristales y disminuimos el grosor de la capa
de elemento fosforescente.

Pantallas de tierras raras. El elemento fosforescente más utilizado en la fabricación de pantallas


intensificadoras para diagnóstico médico hasta 1970, era el tungstenato de calcio. En la actualidad se han
introducido nuevos elementos fosforescentes para las pantallas intensificadoras, todos son tierras raras
excepto en las pantallas de fluorocloruro de bario. Los elementos usados en las pantallas más modernas
son: oxisulfuro de gadolinio, oxisulfuro de lantano, oxisulfuro de itrio y oxibromuro de lantano.

Las pantallas de tierras raras son el doble de rápidas que las de tungstenato de calcio, sin perder
resolución. Al ser más rápidas, se emplean técnicas radiográficas menores con lo que se reduce la dosis
de radiación que recibe el paciente y se prolonga la vida del tubo.
Las pantallas de tierras raras obtienen su mayor sensibilidad gracias a una mayor absorción de rayos X y
a una conversión más eficaz de los rayos X en luz visible.

La luz que emiten es distinta a la que emiten las de tungstenato de calcio, por este motivo, debemos
utilizar una película radiográfica adecuada a dicha luz.

Cuidado de la pantalla de refuerzo. Las pantallas deben estar bien cuidadas para obtener radiografías de
calidad, cualquier arañazo puede producir artefactos en la imagen final, con lo que tendremos una
disminución en la calidad de la radiografía. De hecho, solo deben tocarse cuando se instalan en los chasis
o para limpiarlas.

La frecuencia en la limpieza de las pantallas depende de cuánto se usan y del grado de limpieza del aire
donde se utilizan. Como norma general, se limpiarán una vez al mes, utilizando los líquidos que se
comercializan al efecto (compuestos antiestáticos), o bien usando agua y jabón suave (enjuagándolas y
secándolas después con cuidado).

La interacción de los rayos X con el elemento fosforescente no las desgasta, solo hay que cambiarlas por
manejo o mantenimiento inadecuado.

4.2. Imagen fluoroscópica/radioscópica.

Introducción Su principal utilidad es la realización de exámenes dinámicos, es decir, la fluoroscopia se


utiliza para visualizar el movimiento de estructuras y líquidos internos.

La radioscopia es el examen de un determinado órgano por medio de la imagen que se proyecta en una
pantalla fluorescente a tiempo real, también se denomina fluoroscopia. El fluoroscopio fue inventado
por Thomas Edison en 1896 y su uso está muy extendido en la actualidad.

- Si el técnico en radiología observa algo durante el estudio que considera debe grabar para un
estudio posterior más minucioso, se puede realizar una radiografía con interrupción mínima de
la fluoroscopia, es lo que se conoce por seriorradiografía.
- La fluoroscopia es en la actualidad una exploración rutinaria, excepto cuando se utiliza para
visualizar los vasos sanguíneos, lo que recibe el nombre de angiografía. Las dos principales
aplicaciones de la angiografía corresponden a la neurorradiología y la radiología vascular,
también pudiéndose obtener seriorradiografías.
- En los equipos de fluoroscopia el tubo de rayos X suele estar debajo de la camilla del paciente.
Sobre la camilla se encuentra el intensificador de imágenes y otros dispositivos de detección de
imagen. Algunos equipos de fluoroscopia tienen el tubo de rayos X colocado sobre la camilla, con
el intensificador de imagen bajo la misma. Otros equipos de fluoroscopia se controlan a distancia
desde el exterior de la sala de exploración
- Durante la fluoroscopia con intensificador de imagen, la imagen se recibe en un monitor de TV o
de ordenador. Los valores normales de corriente son de 2 a 4 mA, por lo tanto la dosis que recibe
el paciente durante el examen continúa siendo elevada, mucho más que un examen radiográfico.
- En un examen radiográfico se utiliza una corriente del tubo de rayos X de cientos de mA. En
fluoroscopia, la corriente del tubo es inferior a 5 mA.
- La tensión de pico depende exclusivamente de la parte del cuerpo que se debe examinar. Los
modernos equipos de fluoroscopia permiten al técnico seleccionar un nivel de brillo, variando
automáticamente la tensión de pico, la corriente o ambas, en caso necesario. Un equipo de
fluoroscopia con esas características se dice que tiene: control automático de brillo (ABC),
estabilización automática del brillo (ABS), control automático de exposición (AEC) o control
automático de ganancia (AGC)

Consideraciones visuales. Dado que la fluoroscopia es un proceso dinámico, el técnico deberá


acostumbrarse a las imágenes en movimiento, requiriendo ciertos conocimientos sobre iluminación de
imágenes y fisiología visual.

Iluminación

- La principal ventaja que tiene el equipo de fluoroscopia con intensificador es el mayor brillo de la
imagen. Del mismo modo que es más difícil leer un libro bajo luz débil que luz brillante, también
es mucho más fácil interpretar una imagen fluoroscópica brillante que una débil. El nivel de
iluminación se mide en lamberts (L) y mililamberts (mL) (1 L = 1000 mL).
- No es necesario que conozcamos la definición del lambert, su importancia radica en mostrar la
amplia gama de iluminaciones a la que es sensible el ojo humano.
- Las radiografías se visualizan bajo niveles de iluminación de 10 a 1000 mL, los equipos de
fluoroscopia con intensificador de imagen tienen niveles de iluminación similares.

Visión humana

- Las estructuras oculares responsables de la visión son los conos y los bastones.

1. La luz que llega al ojo debe pasar primero a través de la córnea y después a través del cristalino, donde
se enfoca la luz sobre la retina. Entre la córnea y el cristalino se encuentra el iris, que se comporta como
el diafragma de una cámara fotográfica controlando la cantidad de luz que penetra en el ojo.

2. Si la luz exterior es muy brillante, el iris se cierra, dejando pasar sólo una pequeña cantidad. En la
oscuridad, el iris se dilata, es decir, se abre para que penetre más luz. En fluoroscopia digital hay un iris
que funciona de forma similar, ubicado entre el tubo intensificador de imagen y el tubo de la cámara de
televisión.

3. Cuando la luz alcanza la retina es detectada por los conos y los bastones.

- Los conos se concentran en el centro de la retina, en una zona denominada fóvea central. Los
bastones son mucho más numerosos que los conos en la periferia de la retina y no hay ninguno
en la fóvea central.
- Los bastones son muy sensibles a la luz y se utilizan en caso de escasa iluminación. Los conos son
menos sensibles, pero son capaces de responder a niveles intensos de luz, cosa que no pueden
hacer los bastones. En consecuencia, los conos se utilizan para visión diurna, llamada visión
fotópica, y los bastones para la visión nocturna o visión escotópica. La capacidad de los bastones
para visualizar objetos pequeños es mucho menor que la de los conos, esta capacidad se llama
agudeza visual.
- Los conos también son más capaces que los bastones para detectar diferencias de brillo, esta
propiedad se conoce por percepción de contraste, además son también más

Técnicas de fluoroscopia práctica


- En fluoroscopia es necesario obtener el máximo detalle posible y, para conseguirlo, el nivel de
brillo debe ser elevado. Esta es la principal razón para el empleo del intensificador de imagen, ya
que estos dispositivos van a elevar los niveles de iluminación.
- Antes de que se empleara la fluoroscopia con intensificador de imagen, los ojos de los
profesionales de la radiología debían acostumbrarse a la luz débil al menos durante 15 minutos
antes de la exploración.
- El brillo de imagen en fluoroscopia depende de la estructura anatómica del paciente que se esté
explorando, de la tensión de pico y de la corriente instantánea. La anatomía no puede ser
controlada por el técnico pero sí la tensión y la corriente. Por lo general, es preferible utilizar
tensiones de pico elevadas y miliamperajes bajos. La técnica adecuada en cada caso la decidirán
la experiencia y el entrenamiento del radiólogo y el técnico en radiología.

4.2.2. Intensificador de imágenes.

Tubo intensificador de imagen. Es un dispositivo que consigue amplificar electrónicamente la


luminosidad de la imagen remanente. Es un tubo electrónico de vidrio en el que se ha hecho el vacío, al
instalarlo se monta dentro de un armazón metálico para protegerlo del trato brusco y evitar su rotura.

Los que salen del paciente e inciden sobre el tubo intensificador de imagen se transmiten a través de la
envoltura de vidrio e interaccionan con el elemento fosforescente de entrada, que es yoduro de cesio
(ICs). Entonces los rayos X se transforman en fotones de luz visible como sucedía con las pantallas
intensificadoras en radiografía.

El siguiente elemento activo del tubo intensificador de imagen es el fotocátodo, que está unido al
elemento fosforescente de entrada mediante una fina y transparente capa adhesiva. El fotocátodo es
una fina capa de metal compuesta por cesio y antimonio, que responde a la estimulación de luz,
emitiendo electrones.

Este proceso se denomina fotoemisión. El número de electrones emitidos por el fotocátodo es


directamente proporcional a la cantidad de luz que incide en el mismo, por lo tanto el número de
electrones es proporcional a la cantidad de rayos X incidentes.

El tubo intensificador de imagen mide unos 50 cm de largo. Entre el fotocátodo y el ánodo se mantiene
una ddp de 25.000 V para que los electrones emitidos por el fotocátodo se aceleren hacia el ánodo.
Cerca del ánodo se encuentra el elemento fosforescente de salida, donde los electrones al chocar
producen una ráfaga de luz. El elemento fosforescente de salida está formado por cristales de sulfuro de
cinc (SZn) y cadmio (Cd). Cada electrón que llega al elemento fosforescente de salida produce al chocar
con él de 50 a 75 veces más fotones de luz de los que fueron necesarios para crearlo.

Se denomina ganancia de flujo al cociente entre el número de fotones de luz que se producen en el
elemento fosforescente de salida dividido entre el número de fotoelectrones de luz que se producen en
el elemento fosforescente de entrada.

El aumento de iluminación se debe a:

1. Al aumento de fotones de luz producidos en el elemento fosforescente de salida comparándolo


con el número de fotoelectrones del elemento fosforescente de entrada.
2. A la disminución de la imagen que se produce entre el elemento fosforescente de entrada y el de
salida, este fenómeno se conoce por ganancia de reducción: es el cociente entre el cuadrado del
diámetro del elemento fosforescente de entrada dividido entre el cuadrado del diámetro del
elemento fosforescente de salida.

La ganancia de brillo es la capacidad del tubo intensificador para aumentar el brillo, y es el producto de
la ganancia de reducción por la ganancia de flujo.

La ganancia de brillo de los intensificadores de imagen es de 5.000 a 20.000 y disminuye con la utilización
y con la edad del tubo.

El tamaño del diámetro del elemento fosforescente de salida es bastante estándar entre 2,5 y 5 cm. El
tamaño del elemento fosforescente de entrada oscila entre 10 y 35 cm de diámetro, este último es el
que se utiliza para identificar los tubos intensificadores de imagen.

La imagen fluoroscópica obtenida necesita de un sistema para poder visualizarla, ya que esta imagen es
de menor tamaño, más brillante e invertida: Sistema óptico de espejos para visualización directa,
monitor de TV, cámara de cine (cinerradiografía) y cámara de seriografía. Estos sistemas se describirán
más adelante.

Intensificador de imagen multicampo También se denomina tubo de doble foco o trifoco. Proporciona
bastante más flexibilidad en los exámenes fluoroscópicos y son estándar en fluoroscopia digital. Los más
usados son: Doble foco 25 cm-17 cm (25/17) y los tubos trifoco 25/17/12 o 23/15/10. Estos números se
refieren al diámetro del elemento fosforescente de entrada del tubo intensificador de imagen.

En modo 25 cm, todos los fotoelectrones que se producen en el fotocátodo chocan con el elemento
fosforescente de salida.

Si se cambia a 17 cm aumenta el potencial de las lentes electrostáticas lo que hace que el punto focal de
los electrones se separe del elemento fosforescente de salida y solo los fotoelectrones centrales chocan
contra el elemento fosforescente de salida. Las consecuencias de este cambio de punto focal son la
disminución del campo y el aumento de la imagen.

El factor de aumento está directamente relacionado con el cociente del diámetro de los tubos. En un
tubo de 25/17, si utilizamos el modo 17 la imagen que se obtiene aumenta 1,5 veces más sobre la que se
obtiene con 25.

Los inconvenientes de utilizar el modo 17 son:

1. Al ser la ganancia en reducción más pequeña, el brillo total es menor, con lo cual la imagen es
más tenue, menos luminosa.
2. Para mantener el nivel de contraste (de luminosidad) se aumenta automáticamente la corriente
con lo que aumentamos la dosis de radiación que recibe el paciente.
3. Otro inconveniente es que la parte periférica de la imagen queda desenfocada y sufre
degeneración en los bordes

La principal ventaja sería la ampliación de la imagen.

4.2.3. Receptores de la imagen. Monitorización de la imagen fluoroscópica.

Monitorización óptica.

Es un sistema óptico de lentes y espejos que aumentan la imagen del elemento fosforescente de salida y
la muestra en una pantalla de cristal. También recibe el nombre de sistema de espejos ópticos.
Las principales desventajas de este sistema son que el campo de visión es muy pequeño y sólo lo puede
utilizar una persona cada vez.; y también que se pierde mucha luz, por lo cual no se aprovechan las
características del tubo intensificador. Monitor de televisión.

El monitor de TV es el sistema utilizado más frecuente, aunque es más costoso. El elemento


fosforescente de salida del tubo intensificador de imagen se conecta directamente al tubo de una
cámara de televisión, el más utilizado es el Vidicón o Plumbicón. Este tubo convierte la imagen luminosa
en una señal eléctrica que se envía al monitor donde se reconstruye la imagen en la pantalla.

La cámara de televisión está formada por una carcasa cilíndrica de 15 cm de diámetro y 25 de largo.
Tiene una envoltura de vidrio que mantiene el vacío, un cátodo con un cañón de electrones que es un
filamento caliente que suministra una corriente de electrones por emisión termoiónica.

Además tiene un conjunto de rejillas y de lentes electrostáticas que aceleran los electrones, en dirección
del ánodo. Ese ánodo o blanco está formado por 3 capas:

1. La mas externa se llama ventana y es de vidrio


2. La del medio se llama placa de señal y es de metal o grafito, es fina para poder transmitir la luz y
suficientemente gruesa como para actuar de conductor eléctrico. De ésta placa sale o se
conduce la señal de vídeo fuera del tubo.
3. La capa más interna del ánodo es una capa fotoconductiva, es decir deja pasar los electrones
cuando esta iluminada y sino funciona como aislante, es de trisulfuro de antimonio.

El acoplamiento de la cámara de televisión al intensificador de imagen se puede realizar de 2 formas:


mediante un haz de fibras ópticas o mediante lentes.

Haz de fibras ópticas: es un método sencillo y compacto que facilita la manipulación del tubo del
intensificador y ofrece un acoplamiento fuerte. Aunque no permite añadir dispositivos adicionales como
sería la cámara de cine o la de seriografía.

Lentes: El acoplamiento mediante lentes permite acoplar la cámara de cine y de seriografía a la vez,
además, ofrece la posibilidad de ver la imagen mientras se graba. Es más voluminoso que el anterior y
debe ser tratado con cuidado. Las lentes y los espejos deben estar ajustados con total precisión porque si
se mueven la imagen aparece borrosa.

1. La señal de vídeo se amplifica y se transmite por cable hasta el monitor de televisión donde se
transforma de nuevo en imagen visible. En el monitor de televisión solo existen dos controles: el brillo y
el contraste.

2. El corazón del monitor es un tubo de imagen, es decir, tubo de rayos catódicos (C.R.T.) con un cañón
de electrones, bovinas de enfoque y dirección y un ánodo que es: una pantalla fosforescente. El tubo
recibe la imagen de vídeo modulada cuya magnitud es directamente proporcional a la intensidad de luz
que recibió del intensificador, la rejilla de control y las bobinas enfocan el haz hacia la pantalla
fosforescente. Está compuesta de cristales lineales perpendiculares y una envoltura de cristal, los
electrones al chocar contra esa capa producen luz, el movimiento del haz de electrones produce en la
pantalla una retícula (red).

3. Comienzan en el extremo superior izquierdo de la pantalla y van hacia el derecho creando una línea de
luz con intensidad variable que se denomina trazo activo, se desconecta y vuelve horizontalmente hacia
la parte izquierda (se llama retrazo horizontal) así hasta que llega al borde inferior derecho, entonces se
desconecta y vuelve de nuevo hacia arriba, a esto se le llama “campo de televisión”.

4. Cuando ha terminado un campo y vuelve de nuevo arriba se denomina “retrazo vertical” y describe
otro trazo activo entre dos trazos activos del campo anterior, cuando termina tenemos 2 campos
entrelazados que es un cuadro.

5. Con la corriente alterna de 50 Hz, se realizan 50 campos/segundo o 25 cuadros/segundo.

6. El ojo humano no aprecia el parpadeo o la velocidad por encima de 20 cuadros/seg. Los equipos
pueden tener pantallas de 875 y de 1000 líneas. Cuantas más líneas poseen, mejor es la imagen obtenida

Cinefluorografía

- Aquí se sustituye el tubo de la cámara de TV por una cámara de cine, grabando la imagen en
película para poder visualizarla posteriormente.
- La cinefluorografía tiene su aplicación principal en técnicas angiográficas, sobre todo en el
cateterismo cardíaco.
- La dosis que recibe el paciente es mucho mayor que la administrada cuando se graba la imagen
en cinta magnética o disco, pero la calidad también es mayor.
- En cinefluorografía se utilizan cámaras de 16 a 35 mm, con ésta última la exposición que recibe el
paciente es mayor que la recibida con cámaras de 16 mm, pero la calidad es mayor.
- Las cámaras de cine están controladas mediante motores sincronizados, alimentados a la tensión
de línea que es de 60 Hz, por tanto las frecuencias de cuadro son: 7,5, 15, 30 y 60 cuadros por
segundo. Cuanto mayor sea la frecuencia mayor dosis recibirá el paciente.
- Los estudios cardíacos requieren las frecuencias más altas sin embargo en estudios intestinales
solo de 7,5 cuadros por segundo.
- Todos los sistemas actuales de cinefluorografía son sincronizados, es decir, que el tubo de rayos
X sólo actúa en el tiempo en que la película está en posición para ser expuesta.

Seriografía

- Se utiliza en fluoroscopia con intensificador de imagen. La película de seriografía se coloca entre


el paciente y el intensificador de imagen.
- Cuando se desea una seriografía con película en casete, se debe cambiar el funcionamiento del
tubo de corriente de fluoroscopia baja a corriente radiográfica alta, con lo que aumenta la dosis
que recibe el paciente. Sin embargo las casetes grabadas con película de seriografía
proporcionan al radiólogo un formato familiar y un buen nivel de calidad de imagen.
- El uso de casete seriográfica está desapareciendo por el empleo de cámaras de seriografía de
gran formato, pues tienen las siguientes ventajas:
1. Reciben la imagen del elemento fosforescente de salida del tubo intensificador de
imagen, y por tanto, la dosis que recibe el paciente es menor a la que producen las
casetes de película de seriografía.
2. No obligan a interrumpir durante mucho tiempo el examen fluoroscópico.
3. No se produce sobrecalentamiento del cabezal del tubo de rayos X.
- Las actuales cámaras de seriografía utilizan películas de 70, 90 y 105 mm, como regla general si
se aumenta el tamaño de la película, aumenta la calidad de la imagen y la dosis que recibe el
paciente. Sin embargo con las películas de seriografía incluso siendo de 105 mm, el paciente
recibe menos dosis de radiación que las producidas con los casetes. Actualmente estas películas
están siendo sustituidas por dispositivos de almacenamiento digitales por ordenador.

_____________________________________________________________________________________

UNIDAD 5.- LA IMAGEN DIGITAL:


. Introducción. En los últimos años estamos siendo testigos de la explosión de dispositivos y redes de
imágenes digitales en Hospitales. La utilización de las tecnologías basadas en PC necesita de
conocimientos y entrenamiento para ello. La especialización de los nuevos profesionales se debe realizar
sobre sistemas digitales. Así, estos profesionales que manejan aparatos computados tales como TC, RM,
ASD, sistemas CR, o equipos relacionados con la radiología digital, obtendrán los conocimientos
necesarios para una mejor utilización de los mismos. Todas las técnicas de formación de la imagen
médica, ya sea radiografía convencional o un sofisticado sistema de imagen digital, utilizan
procedimientos similares para las fases básicas del ciclo de formación de la imagen:

Producir la imagen de radiación: Todas las técnicas deben optimizar las diferencias en la absorción de
rayos X entre las estructuras de interés y los tejidos del entorno. Es decir, deben producir una imagen de
radiación con las mejores características para cubrir las necesidades de un diagnóstico específico.

Captar y visualizar la imagen de radiación: La imagen de radiación, al no poder ser vista por el
observador, debe modificarse hasta permitir ser visualizada e interpretada para su información. El uso de
fósforos para convertir la energía de los rayos X de la imagen de radiación en una forma más
conveniente, es común para toda la radiografía médica, excepto en la técnica de exposición directa. Las
características de la imagen deben ser igualmente mejoradas al máximo para cubrir las necesidades
clínicas específicas.

Registrar y archivar la imagen digital: La imagen debe ser registrada de forma que permita una fácil
visualización, sencillez para comparar con los resultados de otras modalidades de formación de
imágenes y fácil de trasladar a otros lugares (próximos o lejanos), y por último, posibilidad de archivo
para posteriores consultas.

Las modalidades de la imagen digital, tales como la Tomografía Computada (TC), el Ultrasonido (US) y la
Medicina Nuclear, ganaron gran aceptación en la década de los años 70. En los 80 apareció la Resonancia
Magnética (RM) y la Angiografía por Sustracción Digital (DSA), aumentando la tendencia hacia la imagen
digital. De todas formas, la radiología convencional con película ocupaba aproximadamente el 70% de
todos los exámenes de diagnóstico que se realizaban.

En la década de los años 90, se integra la radiología convencional en un contexto digital. Un primer paso
fue la utilización de los sistemas de digitalización de películas mediante escáneres, el segundo con la
aparición de los primeros sistemas de películas de fósforo y, finalmente, los sistemas de captura directa.

Sólo recientemente, es técnicamente posible utilizar tecnologías electrónicas para reemplazar la película
radiográfica en parte de sus funciones: visualización, almacenamiento y comunicación. El despliegue de
monitores de alta resolución con elevada luminancia, las altas prestaciones de los ordenadores actuales
representados por las estaciones de trabajo, la posibilidad de tener imágenes digitales activas en
dispositivos de almacenamiento que pueden recuperar grandes cantidades de datos e imágenes y las
redes modernas que son capaces de transmitir imágenes archivadas a gran velocidad, donde y cuando se
requieran, ha permitido definitivamente implantar la imagen digital.
5.2. Diferencia entre imagen analógica e imagen digital. En los sistemas convencionales, el operador
selecciona los factores técnicos que mejoran al máximo el contraste, la borrosidad y el ruido de la
imagen de radiación. La segunda y tercera fase del ciclo de formación de imágenes utilizan una
combinación de película-pantalla. Las pantallas de refuerzo convierten la energía de los rayos X de la
imagen de radiación en energía luminosa, la cual expone la película radiográfica y se forma la imagen
latente. El brillo de la luz emitida por la pantalla varía de forma continua y proporcional, con más luz
emitida en las regiones de la pantalla que han sido expuestas a flujos de rayos X mayores. La
proporcionalidad de la luz emitida es transferida a la película radiográfica produciendo un mayor
oscurecimiento con el aumento de la exposición. Este sistema es un sistema analógico, ya que las fases
de capturar y registrar la imagen hacen uso de señales continuamente variables.

En la fase de capturar la imagen, la señal se refiere a la intensidad lumínica de la pantalla, la cual es


continuamente variable (rayos luminosos) y proporcional al flujo de fotones de rayos X de la imagen de
radiación. En la fase final, la luz de las pantallas fluorescentes se registra en la película de halogenuro de
plata como una escala continua de grises.

Las características de visualización de la imagen se controlan seleccionando un receptor con


características de contraste de la película, borrosidad y ruido que cubran los requisitos específicos
necesarios. El procesado de la película convierte estas características específicas de forma que la imagen
pueda ser visualizada en la radiografía final. Se produce un registro transportable y de archivo que posee
la información contenida en la imagen de radiación y reproduce la imagen junto con las características
de contraste radiográfico, borrosidad y ruido del sistema película/pantalla.

Los sistemas de formación de imágenes electrónicas difieren de las técnicas película-pantalla en que la
conversión de la energía de rayos X de la imagen de radiación se lleva a cabo utilizando otro medio,
diferente a una pantalla de refuerzo. Las imágenes electrónicas se visualizan utilizando tubos de rayos
catódicos (CRT), que pueden mostrar tanto imágenes de vídeo analógicas como imágenes digitales. En
fluoroscopia analógica, la cámara de video (tubo) proporciona una señal electrónica de voltajes que
varían continuamente, lo que se utiliza para estimular el brillo del fósforo del CRT.

Un píxel (picture element: elemento de imagen) se refiere a la unidad más pequeña de la matriz de la
imagen, un punto con una coordenada específica (posición de líneas y columnas) que corresponde a una
posición en el paciente. La posición en el paciente que corresponde a un píxel se denomina voxel
(volume element: elemento de volumen)

Las imágenes digitales son imágenes compuestas por pixels. El valor de cada píxel es la representación
digital de la característica (parámetro) medida por cada modalidad (TC, RM) para formar una imagen.
Así, en fluoroscopia digital, el parámetro de la imagen representado por el píxel es el flujo de rayos X de
la imagen de radiación. Un píxel de una imagen de ultrasonidos representa la intensidad del eco de la
onda sonora detectado por el transductor. La intensidad de la señal de radiofrecuencia (RF) es el
parámetro de la imagen, detectado por las bobinas en un sistema de formación de imágenes por
resonancia magnética.

 Estos sistemas son digitales porque la información de la imagen se transporta en forma de


dígitos binarios (binary digits o bits). Un bit puede tener un valor de 0 o 1, representando las
señales eléctricas que sólo tienen dos estados “encendido” o “apagado”. Los términos binario y
digital se usan indistintamente. Como las señales digitales son binarias (valores distintos o
discretos de energía), se dice que son “no continuas”, al contrario de las señales analógicas
(continuas).
 En algunos casos, los datos de la imagen electrónica pueden ser temporal o permanentemente
almacenados utilizando la tecnología de los discos ópticos o magnéticos. Todos los sistemas de
formación de imágenes electrónicas pueden utilizar las ventajas de la película de halogenuro de
plata para archivo y transporte de imágenes.
 Las imágenes electrónicas se transfieren a la película mediante el uso de un dispositivo láser para
la formación de imágenes.

5.3. Mamografía digital. Razones que impulsaron su desarrollo

1. En la mamografía convencional la imagen se obtiene usando detectores pantalla-película, que


graban los fotones de radiación que pasan a través de la mama. Uno de los protagonistas, en
esta imagen analógica son los detectores pantalla-película, que en la práctica determinan en alto
grado entre otras cosas, la resolución espacial.
2. Algunas pantallas con más actividad que otras, tendrán más material fosforescente que al
interactuar con los fotones de radiación permitirán una exposición más corta disminuyendo la
posibilidad de borrosidad por movimiento y además reducirán la dosis glandular, sin embargo, la
calidad se verá afectada por el aumento de la borrosidad resultante de la producción e
interacción de una mayor cantidad de luz.
3. Un problema importante del sistema detector pantalla-película es
el hecho que las películas no tienen capacidad de respuesta
inmediata a los fotones que la inciden, es así como obtenemos en
las áreas de mayor densidad, mayor absorción de radiación, que
en la imagen aparecen más blancas, quedando un rango muy
pequeño para que la atenuación de la radiación en los tejidos se
exprese en términos de contraste. Este hecho debe tomarse en
cuenta sobre todo cuando constatamos que aunque con la
película se obtenga una alta resolución, al no acompañarse de un adecuado contraste,
determinara que algunas lesiones sean subdiagnosticadas.

Se ha logrado dos tipos de obtención de imágenes conocidas como digitales. Ambos van asociadas al
desarrollo de otros factores, diferentes de la producción de la imagen propiamente tal, como lo son la
tecnología de monitores, vías de transmisión, software de procesamiento de las imágenes, etc.
La mamografía digital primaria o digital propiamente tal mide directamente los fotones de radiación que
pasan por la mama. La importancia de esto es que el equipo tiene la capacidad de leer los primeros
fotones lo cual no es obtenido con el sistema pantallapelícula y además lee un gran flujo de ellos,
permitiendo la obtención de información de una enorme cantidad de puntos de la mama, practicándose
un mapeo más exacto de las variaciones de atenuación de los tejidos mamarios.

Este sistema se utiliza en mamógrafos digitales directos y mamógrafos digitales indirectos.

Directos: Los mamógrafos digitales directos tienen detectores de radiación que convierten directamente
la información en carga eléctrica. Habitualmente utilizan selenio como fotodetectores por su afinidad
con los rayos X.

Indirectos: Los indirectos ocupan dos pasos en el proceso de digitalización: la radiación convertida en luz
es recibida por fotodiodos y transformada en carga eléctrica.

Por último en el sistema pantalla-película la imagen una vez obtenida no puede modificarse, puede
perderse y en ocasiones su transmisión y almacenamiento crea verdaderos problemas. Sin embargo,
debemos tener en consideración que este sistema, es económico y eficaz en la producción de imágenes
cuando se usa una adecuada combinación pantalla-película. La película usada normalmente tiene una
resolución teórica de 17 a 20 pares de líneas por mm.

Ambos sistemas pertenecen al grupo conocido en la literatura como radiología digital directa (DR).

El segundo sistema es la conocida como sistemas de radiología computada (CR) dado que utiliza
procesos computacionales y digitaliza posteriormente la imagen ocupada con un lector láser.

Los digitalizadores trabajan al pasar la luz a través de la radiografía, grabando la intensidad de la luz
transmitida en cada punto de la imagen, consignándole un número a esta intensidad lumínica. Luego se
copia de manera digital, permitiendo manipulación posterior de la imagen. La crítica a este sistema tiene
que ver con que sería una copia de la imagen latente que potencialmente pierde información y aumenta
el ruido en la imagen.

5.4. Fluoroscopia: La fluoroscopia o radioscopia es una técnica que utiliza un tubo intensificador de
imagen que convierte la energía de los rayos X de la imagen de radiación, en una imagen de luz visible
reducida. En fluoroscopia convencional, un tubo de video convierte la imagen de luz visible en una señal
de video analógico que puede ser visualizada en un monitor de TV y almacenada en una cinta o disco de
video. Los sistemas fluoroscópicos ofrecen la posibilidad de formar imágenes en tiempo real, creando
una imagen móvil de la función dinámica del paciente. Los sistemas fluoroscópicos digitales convierten la
señal analógica de video en datos digitales. El resultado es una matriz de datos digitales para cada
fotograma de video, que corresponde al brillo de la luz visible de la imagen. La imagen digital esta
formada por líneas y columnas de datos y llamamos píxel a cada
punto individual.

Este tipo de tecnología tiene muy diversas aplicaciones clínicas,


una de las más importantes es la radiología vascular.

5.4.1. Radiología vascular. Hace poco más de 50 años la única


opción posible para realizar una angiografía era introducir una
aguja rígida de gran calibre a través de la espalda del paciente,
puncionar directamente la arteria aorta e inyectar contraste en
ella. En 1953, el radiólogo sueco I. Seldinger, ideó un sistema mucho menos traumático, consistente en
introducir un catéter a través de la arteria femoral y controlar sus movimientos en una pantalla de rayos
X.

Han pasado poco más de 30 años desde las primeras angioplastias con balón, pero en este corto periodo
de tiempo los progresos han sido enormes. En la actualidad los radiólogos pueden acceder mediante una
aguja, una guía y un catéter a los lugares más recónditos del mapa vascular del organismo, e incluso a los
territorios no vasculares, como son las vías biliares o urinarias, el tubo digestivo, el aparato reproductor
femenino o el aparato lagrimal. Todo ello ha contribuido a que la radiología vascular intervenionista
constituya actualmente uno de los principales avances de la Medicina de los últimos tiempos, al permitir
tratar con métodos mínimamente invasivos enfermedades cuya única alternativa terapéutica hasta hace
pocos años era la cirugía abierta.

5.4.2. Estudio esófagogatroduodenal. La radiografía del tracto gastrointestinal superior es un examen de


rayos X de la faringe, el esófago, el estómago y la primera parte del intestino delgado (duodeno) que
utiliza una forma especial de rayos X llamada fluoroscopia y un medio de contraste llamado bario.
También se denomina EGD (esofagogastroduodenal).

 La fluoroscopia posibilita ver los órganos internos en movimiento. Cuando el tracto


gastrointestinal se cubre con bario, el radiólogo puede ver y evaluar la anatomía y función de la
faringe, el esófago, el estómago y el duodeno.
 Además de la ingesta de bario, algunos pacientes también reciben cristales de bicarbonato de
soda para mejorar aún más las imágenes. Este procedimiento se denomina estudio de doble
contraste o contraste de aire.
 Un EGD ayuda a evaluar la función digestiva y a detectar:
1. Fibrosis.
2. Cicatrización.
3. Obstrucciones.
4. Anormalidades de la pared muscular de los tejidos gastrointestinales.
5. Úlceras.
6. Tumores.
7. Hernias de hiato.
8. Inflamación del esófago, el estómago y el duodeno.
 Las mujeres siempre deben informar a su médico o al tecnólogo de rayos X si existe la posibilidad
de embarazo. Muchos exámenes por imágenes no se realizan durante el embarazo ya que la
radiación puede ser peligrosa para el feto. En caso de que sea necesario el examen de rayos X, se
tomarán precauciones para minimizar la exposición del bebé a la radiación.
1. Para garantizar la mejor calidad de imagen posible, el estómago debe encontrarse libre de
alimentos.
a. El equipo generalmente utilizado para este examen consiste en una mesa radiográfica,
un tubo de rayos X y un monitor similar a un televisor ubicado en la sala de exámenes o
en un cuarto cercano. Al usarse para ver imágenes en tiempo real, el intensificador de
imágenes (que convierte los rayos X en imágenes de video) se encuentra suspendido por
encima de una mesa sobre la que se recuesta el paciente. Al usarse para tomar cuadros
estáticos, la imagen se captura ya sea electrónicamente o en película.
2. La fluoroscopia utiliza un haz continuo de rayos X para crear una secuencia de imágenes que se
proyectan en una pantalla fluorescente o en un monitor similar a un televisor. Al utilizarse con
un medio de contraste, que define claramente el área a examinar haciéndola aparecer en blanco
brillante, esta técnica especial de rayos X posibilita al médico ver los órganos internos en
movimiento. Las imágenes sin movimiento también son capturadas y almacenadas en película o
electrónicamente en una computadora.
a. Hasta hace poco las imágenes de rayos X se mantenían como una copia impresa en
película (muy similar a un negativo fotográfico). Actualmente, la mayoría de las imágenes
son archivos digitales que se almacenan electrónicamente. Estas imágenes almacenadas
son de fácil acceso y a veces se comparan con las imágenes actuales de rayos X para el
diagnóstico y la administración de enfermedades.
3. Este examen por lo general se realiza en pacientes ambulatorios y se programa frecuentemente
por la mañana para reducir el tiempo de ayuno del paciente.
4. Mientras el paciente bebe el bario líquido, que se asemeja a un batido de color claro, el
radiólogo verá cómo el bario pasa por el tracto digestivo del paciente en un fluoroscopio, un
dispositivo que proyecta imágenes radiográficas en una secuencia similar a las películas en un
monitor. La mesa de examen se posicionará en diferentes ángulos y el abdomen del paciente
puede ser comprimido para ayudar a dispersar el bario. Una vez que el tracto gastrointestinal
superior se encuentra adecuadamente cubierto con bario, se tomarán imágenes de rayos X sin
movimiento y se guardarán para mayor revisión.
5. Para estudios EGD con imágenes de doble contraste, el paciente ingerirá cristales de bicarbonato
sódico que generan gas en el estómago mientras se toman imágenes adicionales de rayos X.
Beneficios:
 La radiografía del tracto gastrointestinal superior es un procedimiento extremadamente seguro y
no invasivo.
 Los resultados de la serie de radiografías EGD por lo general llevan a un análisis exacto del
esófago, el estómago y el duodeno.
 Teniendo en cuenta que el bario no es absorbido en sangre, las reacciones alérgicas son poco
comunes.
 No queda radiación en el cuerpo de un paciente luego de realizar el examen de rayos X.
 Los rayos X por lo general no tienen efectos secundarios en el rango diagnóstico.
Riesgos:
 Siempre existe una leve probabilidad de tener cáncer como consecuencia de la exposición a la
radiación. Sin embargo, el beneficio de un diagnóstico exacto es ampliamente mayor que el
riesgo.
 La dosis efectiva de radiación del procedimiento es de alrededor de 6 mSv, que es
aproximadamente la misma que una persona promedio recibe de radiación de fondo en dos
años.
 Ver la página de Seguridad para obtener mayor información sobre la dosis de radiación. Algunos
pacientes pueden ser alérgicos al saborizante agregado a algunos tipos de bario.
 Si ha experimentado reacciones alérgicas después de comer chocolate, ciertas bayas o cítricos,
asegúrese de informarle a su médico o tecnólogo antes del procedimiento.
 Existe una leve posibilidad de retener un poco de bario que puede derivar en una obstrucción del
sistema digestivo.
 En consecuencia, los pacientes que tienen una obstrucción en el tracto gastrointestinal no deben
realizarse este examen.
 Las mujeres siempre deberán informar a su médico o al tecnólogo de rayos X si existe la
posibilidad de embarazo.

Se debe tener especial cuidado durante los exámenes de rayos X en utilizar la mínima dosis posible de
radiación y a la vez generar las mejores imágenes para la evaluación.

5.4.3. Enema opaco. Es un estudio del colon realizado con fluoroscopia.

1. Antes de tomar las radiografías, se introduce un líquido llamado sulfato de bario, en el recto. Este
líquido es un tipo de medio de contraste, visible cuando realizamos la radiografía, de tal manera que
rellenamos la luz del colon y se pone de manifiesto patología a este nivel. El bario finalmente sale del
cuerpo con las heces.

2. El examen se puede realizar en un consultorio o en la sala de radiología de un hospital. El paciente se


sitúa en decúbito supino en la mesa de rayos X y se le toma una radiografía preliminar. Luego, se le
solicita que se acueste de lado y el médico le inserta suavemente una sonda bien lubricada dentro del
recto. La sonda va conectada a una bolsa que contiene bario, el cual fluye dentro del colon.

3. Se puede inflar un pequeño globo ubicado en la punta de la sonda del enema para ayudar a que el
bario permanezca en el interior del colon, evitando que salga por incontinencia de los esfínteres. El
médico vigila el flujo del bario en una pantalla fluoroscópica para rayos X.

Existen dos tipos de enemas de bario o enemas opacos:

1- Enema opaco simple que utiliza bario para resaltar el intestino grueso.
2- Enema opaco de doble contraste que utiliza el bario, pero que también introduce aire dentro del
colon para expandirlo, lo cual permite imágenes incluso mejores.

1. Se le pide a la persona que adopte diferentes posiciones y la mesa se inclina un poco para obtener
diferentes ángulos. En ciertos momentos en los que se están tomando las radiografías, el paciente debe
contener la respiración y permanecer quieto durante unos cuantos segundos para que las radiografías no
salgan movidas.

2. Una vez que se han tomado las radiografías, se retira la sonda de enema y a la persona se le entrega
un orinal o se le ayuda a llegar hasta el baño para que evacue y elimine del intestino la mayor cantidad
posible de bario. Después de salir del baño, se pueden tomar 1 ó 2 radiografías más.

 Para que se pueda rellenar adecuadamente el colon y no confundir heces con patología, es
necesario que el paciente realice una preparación para el examen, que consiste en vaciar
completamente sus intestinos antes del examen, lo cual puede hacerse utilizando un enema o
laxantes combinados con una dieta líquida estricta. El médico le dará a la persona instrucciones
específicas con respecto a esto. Para lograr imágenes nítidas,
es necesario hacer una limpieza completa del intestino
grueso.
 El enema opaco o enema de bario se emplea para detectar
cáncer de colon. Se puede usar también para diagnosticar y
evaluar la magnitud de una enfermedad intestinal
inflamatoria.
Enema opaco en el que se observa un cáncer a nivel de colon sigmoide

5.4.4. Histerosalpingografía. La histerosalpingografía (HSG) se usa para diagnosticar problemas del útero
y las trompas de Falopio. Se usa con más frecuencia para determinar si las trompas de una mujer están
parcial o totalmente obstruidas. Puede también revelar si el tamaño y la forma interna del útero son
normales.

La HSG es un procedimiento en el que se emplean radiografías para ver el interior del útero y las trompas
de Falopio. Este procedimiento revela la presencia de tejido cicatrizante o anomalías con respecto al
tamaño y la forma, los cuales pueden producir infertilidad y problemas durante el embarazo. La HSG
también se usa unos meses después de algunos procedimientos de esterilización para garantizar que las
trompas de Falopio se hayan obstruido totalmente.

La HSG se hace en un hospital, una clínica o en el consultorio de un proveedor de atención médica. Es


mejor hacer este procedimiento durante la primera mitad (los días 1 a 14) del ciclo menstrual. Este
período reduce la posibilidad de que pueda estar embarazada.

 La HSG no se realiza si la mujer está embarazada, tiene una infección pélvica o presenta
sangrado uterino intenso en la fecha del procedimiento.

Durante una HSG, se aplica un medio de contraste en el útero y las trompas de Falopio. Éste es un líquido
que contiene un tinte. El tinte aparece en contraste con las estructuras del cuerpo en la pantalla de una
radiografía. Al hacerlo, delinea las orillas y permite ver el tamaño y la forma de los órganos internos.
También es posible ver cómo el tinte se desplaza por las estructuras del cuerpo.

Procedimiento:

a. La paciente se coloca en posición ginecológica. A continuación, se introduce por la vagina un


instrumento que se denomina espéculo. Este instrumento mantiene abiertas las paredes de la
vagina y permite ver el cuello uterino. El cuello uterino se limpia con antiséptico.
b. El contraste se introduce mediante uno de dos métodos. En un método, se sostiene el cuello
uterino con un instrumento para mantenerlo fijo. Se introduce entonces otro instrumento que se
llama cánula en el cuello uterino. En el otro método, se pasa un tubo de plástico delgado por la
abertura del cuello uterino. Al final de este tubo hay un pequeño balón que se infla. El balón
mantiene fijo el tubo en el útero.
c. El espéculo entonces se extrae y se le coloca a la paciente
bajo el tubo de rayos.
d. Se introduce lentamente el contraste por la cánula o el
tubo en el útero y las trompas de Falopio. Este líquido
puede causar cólicos al pasar a la cavidad peritoneal.
e. El control radiológico del estudio se realiza mediante
fluoroscopia, y se toman radiografías a medida que el
medio de contraste llena el útero y las trompas. Si no hay
ninguna obstrucción, el líquido se dispersa lentamente
fuera del extremo de los tubos.
f. Durante la histerosalpingografía, se inyecta un tinte
dentro del útero a través de un tubo de plástico o una
cánula. Se toman imágenes radiográficas a medida que el tinte se desplaza por el útero y entra
en las trompas de Falopio.

5.5. Ecografía (ultrasonidos). La ecografía es una moderna técnica de diagnóstico por imagen que utiliza
la propiedad de los ultrasonidos de producir ecos cuando encuentra un tejido distinto a su paso por el
organismo.

En los últimos años las técnicas de ultrasonidos han evolucionado de forma espectacular gracias a los
progresos combinados obtenidos con los captadores, el comando electrónico y el tratamiento de la
señal. Los últimos adelantos están ligados a la aparición de aparatos en tiempo real, a la focalización
electrónica y al empleo de memorias de imagen de gran dinámica. Estas mejoras han transformado los
primeros ecógrafos en útiles de trabajo prácticos, muy efectivos, en los cuales la formación de imágenes
depende de cada vez menos del manipulador.

El desarrollo paralelo de la técnica doppler permitió a partir de entonces explorar la gran mayoría de
órganos y estructuras con la exploración funcional cardiovascular. Se ha mostrado inocuidad total de los
ultrasonidos, a las potencias acústicas utilizadas para el diagnóstico, y que la relación información-coste
de los aparatos de ecografía y doppler es la más ventajosa entre los aparatos por la imagen empleados
en medicina.

La ecografía se desarrolló primero en el terreno donde la exploración tradicional utilizaba técnicas


traumáticas o de irradiación. Este fue el caso de la ecografía obstetricia y abdominal, así como el de
ecocardiografía. La puesta a punto de los captadores de alta frecuencia ha permitido rápidamente aplicar
los ultrasonidos en pediatría y para la exploración de órganos superficiales como la mama, el tiroides, los
testículos o los músculos, la última evolución ha consistido en el desarrollo de los captadores para la
endosonografía (esófago, recto, vagina) y para su utilización preoperatoria.

En la actualidad, pocas estructuras u órganos escapan a la exploración por ultrasonidos. No obstante,


hay que recordar que el aire y el calcio óseo constituyen barreras para la impedancia acústica, que
reflejan casi totalmente la energía ultrasonora incidente y, por tanto no permiten el estudio de las
estructuras que están por detrás de ellas (sombra acústica). Sólo utilizando ventanas acústicas
favorables, el ecografista asegura un examen completo y de calidad.

La ecografía del sistema musculotendinoso se ha beneficiado de los recientes procesos de la técnica


ultrasonora y, en particular, del desarrollo de captadores de focalización electrónica de alta frecuencia.

Las indicaciones de esta técnica son múltiples y siguen creciendo día a día. Se considera un método en
expansión inocuo, atraumático y sin radiaciones ionizantes, cuyo uso generalizado la hace
absolutamente imprescindible de la medicina actual.

La ecografía abdominal es una técnica que se ha desarrollado mucho en los últimos años, siendo una
técnica de diagnóstico por imagen inocua, fácil de realizar, repetitiva, barata y que permite el estudio de
los órganos abdominales de una manera rápida y precisa.

5.5.1. Historia de los ultrasonidos. En el año 1870, Galton investigó los límites de la audición humana,
fijando la frecuencia máxima a la que podía oír una persona. Llegó a la conclusión de que los sonidos con
frecuencias inaudibles por el ser humano, presentaban fenómenos de propagación similares al resto de
las ondas sonoras, aunque con una absorción mucho mayor por parte del aire. A partir de entonces, se
empezó a investigar en temas relacionados con la generación de los ultrasonidos.
Las primeras fuentes artificiales de ultrasonidos aparecieron en la década de 1880. Los hermanos
Jacques y Pierre Curie fueron los primeros en descubrir el efecto piezoeléctrico, o cambio de la
distribución de las cargas eléctricas de ciertos materiales cristalinos tras un impacto mecánico. En esta
misma década; Lippmann y Voigt experimentaron con el llamado efecto piezoeléctrico inverso, aplicable
realmente a la generación de los ultrasonidos. Otro pionero fue Roentgen que participó en los primeros
experimentos con ultrasonidos y publicó varios trabajos en los que describía sus experiencias con
sonidos de alta frecuencia.

A lo largo del siglo XX, se han producido grandes avances en el estudio de los ultrasonidos,
especialmente en lo relacionado con las aplicaciones: acústicas, subacuáticas, medicina, industria, etc.
Concretamente, Langevin lo empleó durante la primera Guerra Mundial para sondeos subacuáticos,
realizando un sencillo procesado de las ondas y sus ecos. Richardson y Fessenden, en la década de los
años 10 idearon un método para localizar icebergs, con un procedimiento similar al utilizado hoy en día
(método de impulsos). Mulhauser y Firestones entre 1933 y 1942 aplicaron los ultrasonidos a la industria
y a la inspección de materiales.

5.5.2. Concepto de ultrasonidos Es cualquier sonido por encima de lo audible por el ser humano.

Los sonidos se clasifican en función del oído humano en Infrasonido, Sonido Audible y Ultrasonido. De
esta manera tenemos:

Infrasonidos: Todo sonido por debajo de lo audible por el oído humano, es decir, por debajo de los 20
hertzios (Hz).

Sonido Audible: Todo sonido audible que se encuentra dentro de lo audible por el oído humano, es decir,
entre 20 y 20000 Hz

Ultrasonidos: Todo sonido que se encuentra por encima de lo audible por el oído humano, es decir, por
encima de los 20000 Hz.

No obstante, en la naturaleza existen muchos ejemplos de especies que se pueden transcribir (transmitir
y recibir) por ultrasonidos. Los murciélagos y algunos insectos tienen órganos sensoriales ultrasónicos
muy desarrollados que funcionan aproximadamente a 120 Khz. Sin embargo, no existen fuentes de
ultrasonidos naturales conocidas con el rango de frecuencia empleado en la ecografía diagnóstica
médica o con fines terapéuticos, que es de 1 a 15 Mhz.

Así sabemos que existen dos utilidades sanitarias para los ultrasonidos que son:

Ultrasonoterapias: terapia por ultrasonidos

Ultrasonodiagnostico: diagnostico por ultrasonido, el ultrasonido.

5.5.3. Física de los ultrasonidos. Todas las aplicaciones diagnósticas de los ultrasonidos están basadas en
la detección y representación de la energía acústica reflejada por interfases en el interior del organismo.
Estas interacciones proporcionan la información necesaria para generar imágenes del organismo de alta
resolución en escala de grises, así como para representar información relacionada con el flujo sanguíneo.
Las propiedades peculiares de imagen de los ultrasonidos los han convertido en un método de obtención
de imágenes relevante y versátil. Por desgracia, el uso de material de ecografía moderno y caro no
garantiza la obtención de estudios de alta calidad con valor diagnóstico. La obtención del beneficio
máximo de esta compleja tecnología requiere una combinación de habilidad, con conocimiento de los
principios físicos que dotan a los ultrasonidos de sus propiedades diagnósticas peculiares. El usuario
debe conocer los fundamentos de las interacciones de la energía acústica con los tejidos, así como los
métodos y el instrumental empleados para producir y optimizar la representación de los ultrasonidos.
Con este conocimiento el usuario puede recopilar la máxima información en cada exploración y evitar
problemas y errores diagnósticos provocados por la omisión de información o por la interpretación
equivocada de los artefactos.

La ecografía convencional y la ecografía doppler están basadas en la dispersión de la energía sónica por
interfases formadas por materiales de propiedades diferentes mediante interacciones gobernadas por la
física acústica. Para generar imágenes con ultrasonidos se emplea la amplitud de la energía reflejada y
las desviaciones de la frecuencia en los ultrasonidos de retrodispersion proporciona información sobre
objetivos en movimiento como la sangre. Para producir, detectar y procesar los datos de ecografía hay
que controlar numerosas variables, muchas de ellas bajo control directo del operador. Para ello, el
operador debe conocer los métodos empleados para generar datos de ecografía y la teoría y manejo del
instrumental que detecta, representa y almacena la información acústica generada durante las
exploraciones clínicas.

Acústica básica: Longitud de onda y Frecuencia

El sonido es el resultado de la mecánica que viaja a través de la materia en forma de onda produciendo
compresión y rarefacción alternas. Las ondas de presión se propagan por desplazamiento físico limitado
del material a través del que se trasmite el sonido. Los cambios de presión en el tiempo definen las
unidades básicas para medir el sonido:

1- La distancia entre puntos correspondientes en la misma fase en la curva tiempo-presión se


define como longitud de onda.
2- El tiempo para completar un ciclo se denomina período, el número de ciclos completos por
unidad de tiempo es la frecuencia de sonido.
3- La frecuencia y el período mantienen una relación inversa.

En la naturaleza las frecuencias acústicas se encuentran en un rango entre menos de 1 Hz y más de


100.000 Hz (100kHz). La audición humana se limita a la parte inferior de este rango, entre 20Hz y
20.000Hz. El ultrasonido se diferencia del sonido audible solo por su frecuencia y es entre 500 y 1000
veces mayor que es sonido que podemos oír en condiciones normales. La frecuencia de los sonidos
empleados en aplicaciones diagnósticas oscilan entre 2 y 15 MHz, aunque están investigándose
frecuencias hasta de 50 y 60 MHz para ciertas aplicaciones de imagen especializadas. Por lo general, las
frecuencias utilizadas para la imagen por ultrasonidos son mayores que las empleadas para el doppler.
Con independencia de la frecuencia, se aplican los mismos principios de la acústica.

Propagación del sonido: La mayoría de las aplicaciones clínicas de los ultrasonidos emplean descargas
breves o pulsos de energía que se trasmiten al cuerpo, donde se propaga a través del tejido. Las ondas
de presión acústica pueden viajar en una dirección perpendicular a la dirección de las partículas
desplazadas (ondas trasversales), pero en el tejido y en los fluidos, la propagación del sonido se realiza
en dirección del movimiento de las partículas (ondas longitudinales). La velocidad a la que se desplaza la
onda de presión a través del tejido es muy variable y está influenciada por las propiedades físicas del
tejido. La velocidad de propagación está determinada de forma relevante por la resistencia del medio a
la compresión. Esta viene determinada por la densidad del medio y por su rigidez o elasticidad. La
velocidad de propagación aumenta al aumentar la rigidez y disminuye al aumentar la densidad. La
velocidad de propagación en el organismo puede considerarse constante para un tejido determinado y
no se modifica por la frecuencia o la longitud de onda del sonido. En el cuadro de velocidades de
propagación típicas de diferentes materiales. Se supone que la velocidad de propagación del sonido en el
organismo es de 1540 m/s. esta cifra es el promedio de las determinaciones obtenidas en tejidos
normales. Aunque se trata de un valor representativo de la mayoría de los tejidos blandos, algunos
tejidos, como el pulmón con aire y la grasa, tienen una velocidad de propagación sustancialmente
menor, y otros, como el hueso, una velocidad superior. Debido a que algunos tejidos normales tienen
velocidad de propagación bastante diferente del valor promedio, la representación de estos tejidos
puede estar sujeta a errores o artefactos de medición.

Medición de la distancia: La velocidad de propagación es un valor particularmente importante en


ecografía clínica y resulta crítico para determinar la distancia entre una interfase reflectante y el
transductor. Gran parte de la información utilizada para generar una imagen ecográfica esta basada en
una medición exacta del tiempo. Si se trasmite un pulso de ultrasonidos al organismo y se mide el
tiempo. Si se trasmite un pulso de ultrasonidos al organismo y se mide el tiempo hasta que la vuelve el
eco, resulta sencillo calcular la profundidad de la interfase que genera el eco, siempre que conozcamos la
velocidad de propagación del sonido en ese tejido. Por ejemplo, si el intervalo de tiempo para la
trasmisión de un pulso hasta que vuelve el eco es de 0,145ms y la velocidad del sonido es de 1540m/s, la
distancia que ha recorrido el sonido debe ser de 22,33cm âžž (1540m/s x 100cm/m x 0,000145s =
22,33cm). Dado que el tiempo medido comprende el tiempo que tarda el sonido en llegar a la interfase y
en volver por el mismo camino hasta el transductor, la distancia desde el transductor hasta la interfase
reflectante es 22,33cm/2 = 11,165cm. Por este motivo, la precisión de esta medición esta influida por el
grado de correlación entre la velocidad del sonido supuesta y la real en dicho tejido.

Impedancia acústica: Los ecógrafos diagnósticos modernos se basan en la detección y representación del
sonido reflejado o ecos. También es posible obtener imágenes basadas en la transmisión de los
ultrasonidos, pero no se emplea en la clínica por el momento. Para producir un eco debe existir una
interfase reflectante. El sonido que atraviesa un medio completamente homogéneo no encuentra
interfases que reflejen el sonido, por lo que el medio será anecoico o quístito. En la unión entre tejidos o
materiales con diferentes propiedades físicas existen interfases acústicas. Estas interfases son
responsables de la reflexión de una proporción variable de la energía sónica incidente. Así, cuando los
ultrasonidos atraviesan de un tejido a otro o encuentran la pared de un vaso o células sanguíneas
circulantes, se refleja parte de la energía acústica incidente.

El grado de reflexión o retrodispersión (dispersión de retorno) está determinado por la diferencia en las
impedancias acústicas de los materiales que forman la interfase. La impedancia acústica Z, viene
determinada por el producto de la densidad, del medio que propaga el sonido por la velocidad de
propagación del sonido en dicho medio. Las interfases con gran diferencia de impedancia acústica, como
la del tejido con el aire y el hueso, reflejan casi toda la energía incidente, mientras que las interfases
entre tejidos con menor diferencia de impedancia acústica, como la interfase entre el músculo y la grasa,
reflejan sólo una parte de la energía incidente, permitiendo el paso del resto. Igual que sucede con la
velocidad de propagación, la impedancia acústica está determinada por las propiedades de los tejidos
implicados y es independiente de la frecuencia.

Refracción: Otro fenómeno que puede suceder cuando el sonido pasa de un tejido con una velocidad de
propagación acústica determinada a otro con una velocidad mayor o menor es un cambio en la dirección
de la onda de sonido. Este cambio en la dirección de propagación se denomina refracción.
La refracción es importante porque es una de las causas de registro erróneo de una estructura de
imagen ecográfica. Cuando un aparato de ultrasonidos detecta un eco asume que el origen del eco está
en línea directa con el traductor. Si el sonido ha sufrido refracción, el eco detectado y representado en la
imagen podría proceder de una profundidad o localización diferente de la que se muestra en la pantalla.
Si se sospecha este fenómeno, el aumento del ángulo barrido para que sea perpendicular a la interfase
reduce al mínimo el artefacto.

Atenuación: Conforme la energía acústica atraviesa un medio uniforme se produce trabajo y finalmente
se transfiere energía al medio trasmisor en forma de calor. La capacidad para realizar trabajo esta
determinada por la magnitud de la energía acústica producida. La potencia acústica, expresada en
Vatios, describe la magnitud de la energía acústica producida por unidad de tiempo. Aunque la medición
de la potencia nos da una idea de la energía relacionada con el tiempo, no tiene en cuenta la distribución
espacial de la energía. Para describir la distribución espacial de la potencia se emplea la intensidad, la
cual se calcula dividiendo la potencia por el área en la que se distribuye la potencia.

La atenuación de la energía sónica conforme atraviesa el tejido tiene gran importancia clínica porque
influye en la profundidad del tejido a la que puede obtenerse información útil. Esto afecta a la selección
del traductor y a varios ajustes del instrumental controlados por el operador, como la compensación de
la ganancia de tiempo (o profundidad), atenuaron de la potencia de salida y niveles de ganancia del
sistema.

La atenuación se mide en unidades relativas. Por lo general se usan los decibelios para comprobar
niveles diferentes de potencia o intensidad de los ultrasonidos.

El sonido pierde energía conforme atraviesa el tejido y las ondas de presión pierden amplitud conforme
se alejan de su fuente. La transferencia de energía al tejido debida al calor (absorción) y la perdida de
energía por reflexión y dispersión contribuyen a la atenuación del sonido. Por tanto, la atenuación es el
resultado de los efectos combinados de absorción, dispersión y reflexión. La atenuación depende de la
frecuencia de insolación así como de la naturaleza del medio de atenuación. Las frecuencias altas se
atenúan más rápidamente que las frecuencias bajas y la frecuencia del transductor es el determinante
principal de la profundidad útil a la que puede obtenerse información con los ultrasonidos. La atenuación
determina la eficiencia con la que los ultrasonidos penetran en un tejido específico y varía
considerablemente en los tejidos normales.

5.5.4. Ecografía 2-D y 3-D

La ecografía bidimensional (eco 2-D) es una técnica de imagen en tiempo real ampliamente usada en
todas las áreas de la Medicina. Su valor diagnóstico está bien establecido. Un examinador experto puede
reconstruir una imagen tridimensional en su mente a partir de una secuencia de múltiples imágenes
bidimensionales. Sin embargo, la posibilidad de obtener imágenes de ciertos planos del espacio
mediante eco 2-D es muy limitada, siendo imposible en algunos casos. Además, el hecho de la “creación”
de una imagen en la mente del examinador confiere a esta técnica un alto grado de subjetividad, lo que
en algunos aspectos hace que la técnica tenga limitaciones importantes en cuanto a su reproducibilidad.

En los últimos 10 años la ecografía tridimensional (eco 3-D) se ha introducido, poco a poco, en la práctica
clínica. Con esta tecnología podemos obtener una imagen en cualquier plano del espacio de un órgano o
región de interés (RDI). Con la eco 3-D podemos obtener y almacenar un volumen de imágenes. Este
volumen puede ser evaluado posteriormente cuantas veces se quiera, permitiendo realizar
“navegaciones” virtuales sobre la RDI, reconstrucciones de superficies y cálculos de volúmenes. Con el
power-Doppler además se estima la vascularización de órganos tejidos o lesiones.

Las imágenes de eco 3-D pueden obtenerse mediante dos métodos:

1- Manual: Con el método manual se emplean unos sensores que se acoplan al transductor
ultrasónico y a la paciente de modo que las imágenes bidimensionales obtenidas por el
transductor ultrasónico se orientan en el espacio. El examinador desplaza la sonda mediante
movimientos de traslación o rotación obteniendo una secuencia de imágenes 2-D que son
almacenadas en un ordenador acoplado al ecógrafo donde son posteriormente procesados
mediante un programa informático.
2- Automático: El método automático emplea transductores ultrasónicos “dedicados”, es decir,
especialmente diseñados para obtener imágenes tridimensionales. En este caso es el transductor
el que realiza el barrido sobre la RDI seleccionada por el examinador sin que este tenga que
realizar ningún tipo de desplazamiento. La velocidad y ángulo de barrido pueden ser ajustados
por el examinador. A menor velocidad y menor ángulo de barrido mayor será la resolución
obtenida. El tiempo promedio de barrido, entre 3-10 segundos, depende de la velocidad y ángulo
establecidos. El conjunto de imágenes obtenidas es lo que se denomina “volumen 3-D” y se
compone de “voxels”. Cada “voxel” tiene un valor en escala de gris.

 En general la calidad de las imágenes obtenidas mediante el método automático es mejor que
las del método manual.
 El volumen obtenido puede ser almacenado y analizado posteriormente sin necesidad de que la
paciente esté presente.
 Las imágenes 3-D pueden presentarse en la pantalla en varios formatos, superficie, modo
multiplanar o modo “nicho”.
o El modo superficie permite obtener una reconstrucción de una superficie concreta como
puede ser una cara fetal. El modo multiplanar visualiza simultáneamente en los 3 planos
del espacio la RDI y “navega” virtualmente a través de ellos, mientras que el modo
“nicho” presenta una reconstrucción de una RDI determinada y su interrelación en los 3
planos del espacio.

Asimismo, la eco 3-D permite realizar cálculos volumétricos en la RDI. Estos pueden realizarse de
diversos modos:

1- Midiendo tres distancias


2- Midiendo una distancia y una elipse
3- Midiendo áreas consecutivas e integrándolas
4- Mediante el uso de un método rotacional denominado VOCAL (Virtual Organ Computer-Aided
anaLysis).

Este último método se basa en el uso de trazados de la RDI sobre un plano mediante sucesivas
rotaciones. Este método permite obtener una reconstrucción 3D de la RDI y estimar la vascularización de
la RDI mediante el uso de powerDoppler y su función denominada “histograma”. Usando este método
pueden calcularse tres índices vasculares dentro de la RDI. El índice de vascularización (VI), se expresa en
porcentaje, mide la relación entre voxels en color, que representan vasos, y voxels en escala de grises,
que representan tejido, indicando el no de vasos dentro de la RDI. El índice de flujo (FI), es el valor
promedio de la intensidad de la señal color en los “voxels” color, en una escala de 0 a 100. A más
intensidad color, más FI y representa el flujo sanguíneo dentro de los vasos. Finalmente, el índice de
vascularización-flujo (VFI), es una mezcla de los dos anteriores, que se expresa también en una escala
numérica de 0 a 100 y muestra la perfusión tisular.

Con la eco 3-D pueden presentarse artefactos, algunos son inherentes a la eco 2-D como son las sombras
acústicas, los fenómenos de reverberación o los artefactos por movimiento y otros propios de la eco 3-D
derivardos de la adquisición de volumen, de su presentación o del procesado. El cálculo de volúmenes y
de la vascularización mediante eco 3-D ha sido validado en diferentes estudios.

5.6. Tomografía Axial Computarizada. Otra técnica fundamental es la tomografía axial computarizada
(TC), que ya desde sus comienzos ha revolucionado el diagnóstico por imagen. En la TC se obtienen
secciones o cortes del paciente. Posteriormente ha aparecido la tecnología helicoidal en 1990, la cual se
vio superada en 1998 por la TC multidetectora (TCMD).

El TC se basa en la producción de imágenes mediante los rayos X (igual que las radiografías y la
fluoroscopia), pero realizando imágenes de todo un volumen.

La TCMD ha sido el último avance tecnológico aplicado universalmente con impacto significativo en
todas las áreas de la radiología.

La TCMD es el último desarrollo en la generación de tomógrafos y derivan o, más bien, corresponden a


versiones más desarrolladas de los tomógrafos helicoidales. Este desarrollo devuelve a la TC a un sitial de
privilegio en las técnicas de diagnóstico por imagen, dado que abre un gran abanico de aplicaciones de
insospechada utilidad en la práctica clínica. A diferencia de los tomógrafos convencionales que realizan
cortes transversales de un espesor determinado obteniendo sólo imágenes axiales, la TCM consiste
básicamente en una adquisición volumétrica a través de un rastreo continuo con un amplio haz de rayos
X con una fila de detectores.

Desde su aparición ha existido un aumento constante del número de detectores, pasando por 4, 8, 16,
40, 64; y recientemente incluso aparatos de 128, y 320 filas de detectores. Este incremento en el número
de detectores ha ido dirigido a obtener una mayor resolución espacial y temporal, haciendo posible la
imagen cardiaca. En sus inicios este aumento de detectores iba acompañado de un aumento importante
de la radiación; actualmente, los fabricantes han mejorado y optimizado los equipos.

La aparición del TCMD implica numerosas ventajas entre las cuales destacan las siguientes:

1- Aumento significativo en la rapidez de los exámenes: desde la base del cuello al piso del periné
en no más de 20 segundos. Fuerte impacto en su utilización en enfermos de urgencia como por
ejemplo los politraumatizados.
2- Colimación más fina con lo cual se obtienen cortes de mayor resolución, incrementándose por
tanto el poder de detección de lesiones más pequeñas. De gran importancia en la búsqueda de
metástasis o en precisar relaciones anatómicas importantes para la toma de decisiones
quirúrgicas.
3- Adicionalmente se obtienen muchísimas más imágenes (pueden superar las 1000), pero
obviamente, no se pueden imprimir todas. Las imágenes se examinan en estaciones de trabajo.
4- Posibilidad de realizar reconstrucciones multiplanares y volumétricas, lo cual facilita la
comprensión espacial de la patología, ayuda a la planificación terapéutica y permite controlar
procedimientos especiales. Existen varios métodos de hacer reconstrucciones, por ejemplo el
MIP o proyecciones de máxima y mínima intensidad, representación de volumen (”volume
rendering”) y representación de superficie (“surface rendering”).
5- Mediante el uso de softwares, se realiza la reconstrucción de imágenes a partir de los datos
brutos, de diversos sistemas: por ejemplo a partir de los datos obtenidos de un rastreo
abdominal se pueden obtener imágenes de la aorta, ramas principales y menores o podemos
adquirir de una sola vez el cráneo y de allí obtener imágenes de cerebro, estudios de oídos, ojos
e incluso una angiografía cerebral.
6- Lo anterior, unido a la mayor precisión de las imágenes derivado del espesor submilimétrico de
los cortes abre un campo de aplicación importante en la patología vascular de grandes y
pequeños vasos, entre las cuales probablemente las más espectaculares sean aquéllas
relacionadas con la patología de las coronarias. Los cortes muy finos permiten también eliminar
el artefacto habitual que provocan los metales.

Los equipos de TCMD tienen una importante aplicación en el diagnóstico de las enfermedades,
permitiendo reconstrucciones vasculares, de la vía aérea, el tubo digestivo y el sistema
musculoesqueletico de gran calidad, sin artefactos de volumen parcial o movimiento. El gran volumen de
imágenes que obtienen estos equipos ha cambiado la forma como un radiólogo se enfrenta a una
exploración, pasando de la placa impresa y el negatoscopio a la consola de trabajo y los sistemas de
archivo digital.

La TCMD permite obtener estudios de broncoscopia y colonoscopia virtual con imágenes similares a la
broncoscopia y colonoscopia óptica. Asimismo, consigue unos estudios vasculares de altísima calidad con
imágenes similares a la angiografía.

5.6.1.
Aplicaciones clínicas del TCMD.

Tórax: Rastreo completo del tórax con una sola inspiración en algunos segundos y obtención de
imágenes con ventana pulmonar y mediastínica, además de reconstrucciones en planos coronal y
oblicuos, elemento de gran utilidad para la evaluación de la patología tumoral y parenquimatosa.

Por otra parte, ha posibilitado un diagnóstico de alta precisión en el tromboembolismo pulmonar. Esta
indicación ha provocado un gran impacto asistencial que ha llegado a saturar los servicios de radiología,
por lo que es necesario adecuar las indicaciones de las pruebas.

Estudios coronarios: Siendo la enfermedad coronaria una patología de alta prevalencia y una de las
causas principales de muerte en la población adulta y, considerando que al momento de hacerse
sintomática las consecuencias son significativas, es que se hace necesario realizar los mayores esfuerzos
para diagnosticarla en etapa subclínica. La TCMD es una herramienta muy útil en ese sentido y, gracias a
la posibilidad de representar el árbol coronario sin necesidad de utilizar procedimientos invasivos, puede
convertirse en una importante herramienta de “screening” en población sana de riesgo.

Abdomen.

Hígado En el hígado, la rapidez de los equipos de TCMD permite la realización de exámenes dinámicos
con imágenes en la fase arterial precoz, tardía o también llamada fase portal y una fase parenquimatosa.
La fase arterial precoz es útil para estudios de transplante, quimioembolización o estudios angiográficos.

1- La fase arterial precoz será de utilidad para detectar anomalías vasculares, como por
ejemplo las fístulas arterioportales.
2- La fase arterial tardía permite diagnosticar hepatomas hipervasculares y las reconstrucciones
multiplanares facilitan su comprensión espacial.
3- La fase parenquimatosa muestra mucha utilidad para la detección de metástasis
hipovasculares.

Páncreas: La detección y la estadificación adecuada del cáncer de páncreas es hasta el día de hoy un
desafío mayor. Tal como sucede en los estudios hepáticos, la combinación de cortes finos, estudios en
fases arteriales y venosas y reconstrucciones multiplanares con estudios angiográficos para planificar
resecabilidad quirúrgica, abren alentadoras perspectivas al respecto.

Trauma abdominal: La rapidez de la TCMD permite la evaluación integral por imágenes de estos
pacientes críticos en un tiempo muy corto, lo cual ayudará a descartar rápidamente cualquier lesión de
víscera sólida o hueca, compromiso vascular con sangrado activo, trauma diafragmático e incluso del
esqueleto dorsolumbar y pelviano.

Enteroclisis por Tomografia computada: La enteroclisis por tomografía computada (E-TC) es una técnica
relativamente reciente, hecha posible por la introducción de la tomografía computada multidetector
(TCMD) en la pasada década. Consiste en la realización de una TC de abdomen y pelvis con contraste
endovenoso en fase arterial y portovenosa, en equipos con detectores múltiples que pueden ser de 4, 8,
o idealmente más, posterior a la administración de agua a temperatura ambiente a través de una sonda
nasoenteral con su extremo en o cercano al ángulo de Treitz (porción inicial del yeyuno), la que es
colocada previamente bajo fluoroscopia.

De esta forma se logra una adecuada distensión y visualización de asas de intestino delgado, quedando
la luz de las asas hipodensas por el agua, y la pared hiperdensa por el contraste endovenoso; lo cual no
se logra o es muy difícil en TC convencional. Esto permite con un alto rendimiento y rapidez descartar o
caracterizar lesiones inflamatorias, tumorales, vasculares y obstructivas del intestino delgado, con el
agregado de la visualización del resto de las estructuras sólidas abdominopelvianas, lo que, en caso de
estudios negativos para alteraciones de intestino delgado, hace posible buscar diagnósticos alternativos
o si es positivo, para patología neoplásica intestinal, permite su estadificación en el mismo examen.

Por años el método de elección para la evaluación del intestino delgado ha sido el tránsito inestinal, con
observación fluoroscópica y obtención de varias radiografías del abdomen a medida que el contraste
baritado ingerido por el paciente avanza por éste. Sin embargo, el método presenta fallos importantes
que incluyen un bajo valor predictivo negativo, dado que hay superposición de asas que a veces no
pueden ser desproyectadas o bien no detectar lesiones muy pequeñas. Es operador dependiente, no
visualiza directamente la pared intestinal y mesenterio, por lo que no evalúa el compromiso
extraintestinal, por ejemplo abscesos en enfermedad de Crohn. Usa radiación ionizante y en algunos
casos puede prolongarse por varias horas.

El advenimiento de la TC con múltiples detectores permitió imágenes tomográficas de abdomen y pelvis


en segundos con resolución isométrica (igual en todos los ejes), con los datos brutos reconstruibles a
aproximadamente 1 mm y gran calidad de reconstrucciones multiplanares. De esta forma la E-TC logra
un alto rendimiento, con valores reportados de sensibilidad, especificidad, valor predictivo negativo y
positivo de 100, 95, 100 y 94% respectivamente. Sus desventajas incluyen una mayor dosis de radiación
ionizante, el uso de contraste endovenoso, la instalación de una sonda nasoenteral, la necesidad de un
fluoroscopio y tomógrafo computado y el mayor costo. Estas desventajas se reducen en la práctica si se
considera la posibilidad de evaluar los restantes órganos abdominales.

 Las contraindicaciones para la realización de este examen son el embarazo, insuficiencia renal o
creatinina mayor a 2 mg/dl, reacciones adversas al medio de contraste yodado y sospecha de
obstrucción intestinal completa. La sospecha de obstrucción incompleta es sin embargo una
buena indicación de E-TC.

Las indicaciones básicas de la E-TC son:

1- Sospecha de enfermedad inflamatoria intestinal, particularmente enfermedad de Crohn, donde


buscamos engrosamiento y dilatación de asas de intestino delgado con estratificación de la pared,
obstrucción, fístulas y abscesos del mesenterio.
2- Sospecha de neoplasia intestinal, donde la distensión adecuada y el contraste entre el lumen y la
pared permiten una adecuada caracterización de lesiones de este tipo, o bien descartarlas.
3- Hemorragia digestiva con estudio endoscópico alto y bajo negativos.
4- Sospecha de obstrucción intestinal incompleta.
5- Otras indicaciones de E-TC son la enfermedad celíaca, diarrea y dolor abdominal de causa no
precisada, y anemia ferropénica.

Otras modalidades de estudio del intestino delgado incluyen la cápsula endoscópica, que tiene la ventaja
de visualizar en forma directa la mucosa intestinal, siendo más sensible en la detección de enfermedad
de Crohn en etapa inicial, donde sólo existen pequeñas úlceras. Sus desventajas son su significativo
mayor costo, la falta de visualización de compromiso extraintestinal y, en ocasiones, la difícil localización
intraabdominal de una alteración descrita.

La enteroscopia, si bien permite visualizar en forma directa el intestino, e incluso tomar biopsias, tiene la
limitación de no poder cubrir la extensión completa del intestino delgado, y ser invasivo.

Avances múltiples se han realizado en resonancia magnética, donde se logra una alta resolución de
contraste. Sin embargo, su alto costo, tiempo invertido y la menor resolución espacial en comparación a
la E-TC, la hacen menos atractiva en la evaluación de primera línea del intestino delgado.

El paciente es estudiado en forma ambulatoria u hospitalizado. En una sala de fluoroscopia se le


introduce una sonda nasoenteral, idealmente hasta el ángulo de Treitz.

Posteriormente, el paciente se traslada a la sala de TC, donde manualmente se le administran por la


sonda 2 litros de agua en 10-15 minutos, según tolerancia. Finalizado este proceso, se inyectan
endovenosamente 10 mg de buscapina® y se realiza una TC de abdomen y pelvis posterior a la
administración de 100-120 cc de contraste endovenoso no iónico a una tasa de infusión de 3-4 cc/seg,
con adquisición en fase arterial, 25-30 segundos post-contraste y una segunda adquisición portovenosa
70 segundos post-contraste, en tomógrafos de 8, 16 o 64 detectores. Luego, el dato crudo es
reconstruido a 1,2 mm y enviado a una estación de trabajo que permite realizar recons-trucciones
multiplanares o 3D.

La tomografía por emisión de positrones (PET) y especialmente los equipos híbridos (TC-PET) han
supuesto un avance extraordinario en la estadificación de tumores. Hemos abandonado los criterios
clásicos de la TC basados únicamente en el tamaño y morfología, para pasar a una valoración de la
actividad metabólica de las lesiones, obteniendo con una mayor sensibilidad y especificidad. La TC-PET
nos ofrece la información metabólica de la PET unida a la resolucion anatómica del TC, obteniendo
mejores valores de sensibilidad y especificidad que la PET o la TC por separado, siendo probablemente la
técnica de imagen futura en el manejo diagnóstico de estos pacientes.

5.7. Tomografía por emisión de positrones (PET/TC).

La Tomografía por emisión de Positrones (PET en inglés) es una técnica de diagnóstico no invasiva que
permite realizar imágenes que muestran el metabolismo y el funcionamiento de tejidos y órganos. Se
basa en detectar y analizar la distribución que adopta en el interior del cuerpo un radioisótopo
administrado a través de una inyección.

Lo característico de esta técnica es el empleo de isótopos emisores de positrones, esto es, de electrones
positivos.

 En núcleos con mayor número de protones que de neutrones, se produce la conversión de un


protón en un neutrón, y se emite un positrón que sale del núcleo. Al salir del núcleo los
positrones interaccionan con los electrones de la corteza del átomo, produciéndose el fenómeno
de aniquilación, es decir la desaparición del positrón y el electrón y la emisión simultanea de dos
fotones gamma de 511 Kev con un ángulo de 180º.
 La interacción de los positrones con un electrón presente en el medio, da lugar a dos radiaciones
gamma.
 La detección sincrónica desde el exterior de dos fotones con esta angulación mediante
detectores colocados en coincidencia, es decir, uno frente a otro, permite localizar y cuantificar
su emisión en la zona estudiada.
 Los emisores de positrones tienen una vida media muy corta, por lo que las exploraciones deben
de hacerse en la cercanía de un ciclotrón.

La duración total de la prueba, que varía según el tipo de estudio, oscila entre dos y tres horas, pero el
tiempo de permanencia en el tomógrafo es de 30 a 90 minutos. El radionúclido más importante en el
diagnóstico PET es el F-18, que tiene una vida media de 109 minutos es decir, que en este tiempo su
actividad se ha reducido a la mitad. También se utilizan como radionúclidos producidos por el ciclotrón el
Carbono-11 (vida media, 20,4 minutos), el Oxígeno-15 (vida media, 2,1 minutos) y el Nitrógeno-13 (vida
media, 10,0 minutos), con los que se producen otros radiofármacos usados en diagnóstico o en
investigación.

5.7.1. Radiofármacos más utilizados para estudios PET. En clínica se utilizan fundamentalmente los
radiofármacos con F18, por la posibilidad de realizar estudios a cierta distancia del ciclotrón. Entre ellos,
el más utilizado es la fluoro-deoxiglucosa (FDG), por sus extraordinarias propiedades relacionadas con el
metabolismo de la glucosa.
A título indicativo, algunos de los trazadores más utilizados en clínica y en investigación son:

 Utilización metabólica de la glucosa 18 FDG


 Transporte de aminoácidos 11C-Metionina.
 Síntesis de ADN 11C-Timidina.
 Perfusión miocárdica 15 OH2O; 82-Rb-cloruro.
 Retención de agentes quimioterápicos 5-18F-fluorouracilo, 13N-cisplatino.

5.7.2. Tomógrafo PET. Los estudios PET se realizan mediante el tomógrafo PET, que consta básicamente
de un gantry que contiene varios anillos de fotodetectores, en cuyo interior se introduce la camilla del
enfermo que avanza progresivamente para realizar el estudio de una zona determinada o de todo el
organismo.

Dentro del gantry existe una fuente de radiación gamma (generalmente de germanio) para poder
realizar un estudio de atenuación, que aumenta significativamente la calidad de la imagen obtenida.

Mediante potentes ordenadores se identifica la localización y el número de emisiones gamma de los


positrones, que se muestran en una imagen según las proyecciones deseadas (coronal, sagital, axial).

 La característica fundamental de los radiofármacos emisores de positrones es su corta vida


media; por ello la cantidad de radiación emitida y recibida por el enfermo es
extraordinariamente baja, similar a la recibida durante la realización de un escáner abdómino-
pelvico.

Por otra parte, y en cuanto a la molécula farmacológica empleada (independiente de su vida media), es
tan escasa la cantidad inyectada, que no hay peligro de reacciones de ningún tipo.

Las únicas contraindicaciones para la realización de la prueba, son en el caso de una mujer que se
encuentre embarazada, o personas con obesidad extrema ya que podrían tener dificultades para acceder
al tomógrafo.

La posibilidad de poder identificar, localizar y cuantificar el consumo de glucosa por las diferentes células
del organismo, ofrece un arma de capital importancia al diagnostico médico, puesto que muestra qué
áreas del cuerpo tienen un metabolismo glucídico elevado. Un elevado consumo de glucosa es,
precisamente, la característica primordial de los tejidos neoplásicos.

El PET, por tanto, permite localizar los focos de crecimiento celular anormal en todo el organismo, en un
solo estudio e independientemente de la localización anatómica donde asiente la neoplasia (primaria o
metastásica), ya que no evalúa la morfología de los tejidos, sino su metabolismo.

Además de la oncología, donde el PET se ha implantado con mucha fuerza como técnica diagnóstica,
otras áreas que se benefician de este tipo de exploraciones son la cardiología, la neurología y la
psicobiología, dada la
posibilidad de cuantificar el
metabolismo tanto cardiaco
como en el sistema nervioso
central.

Por supuesto, y en muchos


aspectos. La PET permite
diagnosticar muchos tumores muy precozmente, ayudando a restablecer el tratamiento adecuado, que
siempre es de mayor eficacia que para los estadios más avanzados.

La PET permite, en una sola exploración, mostrar el tumor primario, la afectación ganglionar y las
metástasis, lo que normalmente requiere el empleo de diversas pruebas diagnósticas, que en conjunto
supone un coste superior y, por supuesto, numerosas molestias para el enfermo.

La PET permite, al detectar muy inicialmente las metástasis, obviar la aplicación de ciertos tratamientos
quirúrgicos o de gran agresividad, ahorrando costos de hospitalización, y de técnicas que de entrada se
confirman que no conducirían a resultados positivos.

La PET permite en muchos tumores valorar la eficacia o ineficacia de tratamientos de quimio o


radioterapia, evaluando objetivamente la necesidad de su continuación o su supresión si no se observan
cambios metabólicos en el tumor, lo que indicaría la ineficacia del tratamiento.

Durante décadas la TC ha sido la prueba de elección en el paciente oncológico, proporcionando


información morfológica de las alteraciones que conlleva la enfermedad tumoral. Sin embargo, la
aparición de la tomografía por emisión de positrones (PET) en los años noventa supuso un cambio
fundamental en el manejo de estos pacientes al aportar una valiosísima información acerca del
metabolismo de la enfermedad. A pesar de ello, uno de los principales inconvenientes de la PET ha sido
su falta de resolución anatómica, que impedía en muchas ocasiones localizar adecuadamente las
lesiones que detectaba de forma precoz en comparación con el resto de pruebas de imagen.
Recientemente se desarrollaron potentes sistemas de “fusión por software “ que permitían integrar en
una sola estación de trabajo la información aportada de forma independiente por un equipo de TC y otro
de PET.

5.8. Resonancia Magnética. La resonancia magnética (RM) es una técnica no invasiva que utiliza el
fenómeno de la resonancia magnética para obtener información sobre la estructura y composición del
cuerpo a analizar. Esta información es procesada por ordenadores y transformada en imágenes
anatómicas.

La resonancia magnética ha cambiado de forma radical el diagnóstico de muchas enfermedades, y


actualmente se utiliza de forma habitual en la práctica clínica. Es la técnica de elección en muchas
patologías, sobre todo del sistema nervioso central y del aparato musculoesquelético. Para la obtención
de imágenes con RM se emplean campos electromagnéticos muy intensos. Se emplean imanes de 0,1 a 7
Teslas, es decir, de 2000 140000 veces el campo magnético terrestre.

La RM no debe ser confundida con la espectroscopia de resonancia magnética, una técnica usada en
química que utiliza el mismo principio de la resonancia magnética para obtener información sobre la
composición de los materiales.

A diferencia de la TC, no usa radiación ionizante (no utiliza rayos X), sino campos magnéticos para alinear
la magnetización nuclear de átomos de hidrógeno del agua en el cuerpo. Los campos de radiofrecuencia
(RF) se usan para sistemáticamente alterar el alineamiento de esa magnetización, causando que los
núcleos de hidrógeno produzcan un campo magnético rotacional detectable por el escanner. Esa señal
puede ser manipulada con adicionales campos magnéticos y así construir con más información imágenes
del cuerpo.
Los equipos de RM son máquinas con muchos componentes que se integran con gran precisión para
obtener información sobre la distribución de los átomos en el cuerpo humano utilizando el fenómeno de
RM. El elemento principal del equipo es un imán capaz de generar un campo magnético constante de
gran intensidad. Actualmente se utilizan imanes con intensidades de campo de entre 0.15 y 7 teslas. El
campo magnético constante se encarga de alinear los momentos magnéticos de los núcleos atómicos
básicamente en dos direcciones, paralela (los vectores apuntan en la misma dirección) y antiparalela
(apuntan en direcciones opuestas). La intensidad del campo y el momento magnético del núcleo
determinan la frecuencia de resonancia de los núcleos, así como la proporción de núcleos que se
encuentran cada uno de los dos estados.

Esta proporción está gobernada por las leyes de la estadística de Maxwell-Boltzmann que, para un átomo
de hidrógeno y un campo magnético de 1.5 teslas a temperatura ambiente, dicen que apenas un núcleo
por cada millón se orientará paralelamente, mientras que el resto se repartirán equitativamente entre
ambos estados, ya que la energía térmica de cada núcleo es mucho mayor que la diferencia de energía
entre ambos estados. La enorme cantidad de núcleos presente en un pequeño volumen hace que esta
pequeña diferencia estadística sea suficiente como para ser detectada.

El siguiente paso consiste en emitir la radiación electromagnética a una determinada frecuencia de


resonancia. Debido al estado de los núcleos, algunos de los que se encuentran en el estado paralelo o de
baja energía cambiarán al estado perpendicular o de alta energía y, al cabo de un corto periodo de
tiempo, reemitirán la energía, que podrá ser detectada usando el instrumental adecuado (antenas).
Como el rango de frecuencias es el de las radiofrecuencias para los imanes citados, el instrumental suele
consistir en una bobina que hace las veces de antena, receptora y transmisora, un amplificador y un
sintetizador de RF.

Debido a que el imán principal genera un campo constante, todos los núcleos que posean el mismo
momento magnético (por ejemplo, todos los núcleos de hidrógeno) tendrán la misma frecuencia de
resonancia. Esto significa que una señal que ocasione una RM en estas condiciones podrá ser detectada,
pero con el mismo valor desde todas las partes del cuerpo, de manera que no existe información espacial
o información de dónde se produce la resonancia.

Para resolver este problema se añaden bobinas, llamadas bobinas de gradiente. Cada una de las bobinas
genera un campo magnético de una cierta intensidad con una frecuencia controlada. Estos campos
magnéticos alteran el campo magnético ya presente y, por tanto, la frecuencia de resonancia de los
núcleos. Utilizando tres bobinas ortogonales es posible asignarle a cada región del espacio una
frecuencia de resonancia diferente, de manera que cuando se produzca una resonancia a una frecuencia
determinada será posible determinar la región del espacio de la que proviene.

Existen una serie de riesgos con el uso de la resonancia magnética:

- Riesgos inmediatos
- Riesgos inmediatos inevitables
- Riesgos de una exposición prolongada a campos electromagnéticos

Riesgos inmediatos. Son riesgos derivados la introducción de un objeto o material en la sala donde se
encuentra el equipo que interaccione de alguna manera con éste. Estos riesgos son evitables en la
mayor, si no en la totalidad, de los casos, si el personal que maneja el equipo tiene una formación
apropiada y la información sobre el paciente es completa
La mayor parte de efectos negativos que puede tener sobre la salud un examen de RM provienen de los
efectos directos que el campo electromagnético puede ejercer sobre materiales conductores de la
electricidad o ferromagnéticos o sobre dispositivos electrónicos. Debido al potente campo magnético
que rodea al equipo de RM permanentemente, cualquier material ferromagnético, como el hierro, se
verá atraído con mucha fuerza hacia la pared interior del hueco donde se sitúa el paciente, a menudo
“volando” a través del espacio que lo separa de este lugar. Una vez pegado a la pared, extraerlo puede
requerir mucha fuerza, si no se desea apagar el imán primario. En el caso de que algún otro objeto se
interponga entre el imán y el material ferromagnético, se pueden producir graves daños, tanto al equipo
de RM como a los pacientes y personal presentes en la sala o en el interior equipo.

Los materiales conductores también representan un cierto peligro. Aunque estos materiales no se verán
atraídos por el campo magnético permanente del imán primario, reaccionarán a cualquier cambio en el
campo magnético estático oponiéndose a este cambio, según la ley de Lenz. Un cambio en el campo
magnético se produce, por ejemplo, cuando se encienden las bobinas de gradiente y estas empiezan a
emitir campos magnéticos con diversas frecuencias. La consecuencia de esto es la aparición de una
corriente eléctrica que, gracias a la resistencia del material, producirá un calentamiento, pudiendo llegar
a causar quemaduras a cualquier objeto en contacto con él.

El tercer tipo de peligro directo para la salud provocado por un examen de RM es para los dispositivos
electrónicos o mecánicos que puedan ser introducidos en la sala donde se encuentra el equipo de
diagnóstico. Debido tanto al campo magnético permanente como a las ondas de radio y a los gradientes
normales durante un examen de RM, cualquier dispositivo mecánico con alguna parte metálica podría no
funcionar bien en el interior de la sala. Este es el caso de algunas válvulas cardiacas. Un equipo
electrónico mal blindado de las radiaciones electromagnéticas podría dejar de funcionar o hacerlo
incorrectamente durante o después de un examen de RM. El marcapasos es el ejemplo típico de
problemas derivados de este efecto.

Riesgos inmediatos inevitables Los campos EM también interaccionan con los seres humanos, ya que
interaccionan con cualquier partícula cargada, y esto puede derivar, principalmente, en corrientes en el
interior de los tejidos y en calentamiento del cuerpo. Estos efectos presentan un riesgo bajo y
controlado.

En medicina se suele utilizar un análisis de riesgo-beneficio para valorar si un paciente debe someterse o
no a un examen de RM. En el caso de que el riesgo inevitable sea mayor que el normal, el examen solo se
realizará si es absolutamente necesario. Este es el caso de mujeres embarazadas, por ejemplo.

Riesgos de una exposición prolongada a campos electromagnéticos. Durante los últimos años se ha
iniciado un debate en los foros públicos y científicos sobre los posibles efectos adversos para la salud de
la exposición prolongada a campos electromagnéticos. Este tipo de riesgo afecta principalmente al
personal sanitario que trabaja en las instalaciones de RM, al personal de mantenimiento que debe
realizar reparaciones o trabajo directamente sobre el equipo y a cualquier otra persona que deba
encontrarse a menudo en las proximidades de un equipo de RM.

Los efectos de exposiciones prolongadas podrían derivar de los efectos conocidos mencionados en la
sección anterior (calentamiento del cuerpo y corrientes en el interior de los tejidos) o podrían derivar de
efectos no conocidos que, a largo plazo, causaran enfermedades mortales tales como cáncer. A día de
hoy no existe ninguna evidencia que sostenga esta última afirmación y la mayoría de los estudios que la
apoyan no presentan una correlación estadísticamente significativa entre campos EM y cáncer.
La directiva europea 2004/40/CE Al respecto de los efectos conocidos y sus posibles consecuencias a
causa de exposiciones prolongadas, la Comisión Europea aprobó en abril de 2004 la directiva
2004/40/CE, sobre las disposiciones mínimas de seguridad y de salud relativas a la exposición de los
trabajadores a los riesgos derivados de los agentes físicos (campos electromagnéticos) que establece
límites de exposición para las densidades de corriente y los coeficientes de absorción específica en el
interior del personal que trabaja en una instalación que emite campos EM (incluyendo equipos de RM).
Estos límites siguen las recomendaciones de la Comisión Internacional sobre Protección Frente a
Radiaciones No Ionizantes (ICNIRP por sus siglas en inglés) en su guía 7/99.

Medir estas magnitudes en el interior de una persona no es posible. Como mucho puede utilizarse un
maniquí en el interior del cual sea posible introducir las sondas para medir la corriente y la absorción
específica o crear un modelo matemático del equipo de RM y de la persona para obtener valores
numéricos.

- Para facilitar la tarea, la directiva europea y la guía de la ICNIRP (comisión internacional de protección
radiológica para radiaciones no ionizantes) establece también lo que se denominan valores de actuación
para los valores del campo eléctrico, campo magnético, flujo magnético, potencia, corriente de contacto
y corriente en tejido. Estas magnitudes pueden ser medidas fácilmente, utilizando sondas
extracorporales, y tratan de extrapolar los valores establecidos por los límites de exposición, de manera
que si los valores de actuación nunca son superados, los límites de exposición tampoco lo sean. En el
caso de que los valores de actuación sean superados, es necesario realizar un estudio detallado para
determinar si los límites de exposición están siendo rebasados y, en caso afirmativo, corregir la situación

La forma en la que la ICNIRP ha realizado la extrapolación no está exenta de polémica. En lo relativo a la


RM, diversos estudios indican que los campos EM presentes en un equipo de RM pueden superar tanto
los valores de actuación como los límites de exposición para el personal sanitario de manera que algunas
prácticas en el interior de la sala de RM pasarían a ser constitutivas de crimen por parte del empleador
de ser llevadas a cabo.

A día de hoy las agencias gubernamentales y la Comisión europea han formado un grupo de trabajo para
examinar las implicaciones de la directiva para la RM y para tratar el problema de las exposiciones
individuales a los campos EM de RM.

Resonancia magnética y embarazo Las trabajadoras de RM embarazadas, independientemente del mes


de gestación, pueden continuar trabajando en el ambiente de RM durante todo el embarazo.

Pueden entrar a la sala de RM, posicionar pacientes, inyectar contraste, etc, pero no deben permanecer
en la sala durante la adquisición de la imagen.

Esta política no está basada en la constatación de efectos adversos sino que está dada desde un punto
de vista puramente conservativo por insuficiencia de datos al respecto.

No existen diferencias estadísticamente significativas entre la población de mujeres embarazadas


trabajadoras en RM y el resto en cuanto a porcentaje de abortos, infertilidad, embarazos a término, bajo
peso al nacer o número de fetos por embarazo.

5.9. Espectroscopia por resonancia magnética La espectroscopia por resonancia magnética (ERM) es una
técnica no invasiva basada en el fenómeno de resonancia magnética nuclear (RM), que valora las
características bioquímicas de los tejidos. De esta manera, proporciona información metabólica,
complementaria a la información anatómica obtenida con los estudios convencionales, y ofrece al
radiólogo la posibilidad de trabajar con un tipo de información de la que no disponía anteriormente.

- La oportunidad de obtener espectros con suficiente resolución y sensibilidad, mediante imanes de 1.5
Tesla (T), junto con la posibilidad de estudiar en forma directa algunos procesos metabólicos sin
interferir en ellos ni utilizar para ello técnicas agresivas, hace de la EMR una herramienta de trabajo con
grandes posibilidades en el diagnóstico médico. Ello conlleva ventajas y desventajas:

Ventajas: La principal ventaja es que disponer de información adicional puede ayudar, en determinadas
circunstancias, a acotar el diagnóstico, máxime teniendo en cuenta que aborda el problema desde un
punto de vista totalmente diferente (metabólico frente a morfológico).

Desventajas: La principal desventaja es que se trata de un tipo de información con la que los radiólogos
no están habituados a trabajar, por lo que se necesita la colaboración de bioquímicos.

En la actualidad, se pueden realizar estudios ERM con una duración aceptable en la mayoría de máquinas
de RM de 1,5 T. Esto da al radiólogo la oportunidad de realizar los estudios de imagen por resonancia
magnética (RM) y ERM en una única sesión, evaluando en el mismo procedimiento la información que
suministran ambas técnicas.

La EMR se basa en la propiedad que presentan ciertos núcleos atómicos de absorber selectivamente
energía de radiofrecuencia cuando se colocan bajo un campo magnético. Este exceso energético es
liberado por los núcleos mediante un proceso de relajación nuclear. Las frecuencias de las radioondas en
los procesos tanto de absorción como de relajación es directamente proporcional al valor del campo
magnético que percibe el núcleo. Si el entorno electrónico del núcleo varia la frecuencia de relajación
variara también, entonces el núcleo emitirá frecuencias distintas según los radicales de los que forme
parte.

5.9.1. Obtención del espectro. El proceso para obtener un espectro “in vivo” se puede dividir en tres
fases:

Fase 1: Posicionamiento de la bobina en la región en la cual se quieren obtener los espectros.


Fase 2: homogenización del campo magnético en la zona de interés
Fase 3: obtención del espectro.

5.9.2. Posicionamiento de la bobina. En que consiste?: Consiste en asegurar que la zona a estudiar está
situada correctamente dentro del volumen de observación de la bobina mediante la obtención de una
serie de imágenes rápidas, las cuales servirán posteriormente para la localización del voxel de interés.

5.9.3. Homogenización del campo magnético. Los tejidos y los órganos de diferentes personas
presentan diferente susceptibilidad magnética que causa cambios en la intensidad del campo magnético.
Cuando estos cambios se producen dentro del volumen a estudiar, un núcleo en una determinada célula
presenta gran variación en sus frecuencias de resonancia, como resultado es el origen de un espectro de
con unos picos muy anchos y de menor intensidad. Este problema se soluciona colocando la bobina en el
centro del imán o muy cerca de el, para así obtener la mayor homogeneidad del campo magnético.

Para eliminar este problema los equipos ya vienen equipados con un conjunto de bobinas que generan
gradientes de campo magnético, la corriente que circula por estas bobinas se varía de manera que se
compensen estas in homogeneidades del campo principal.
- Este proceso se realiza siempre con el núcleo de hidrógeno ya que la gran intensidad de la señal
del agua permite ser observada en menor tiempo. Conseguir una buena homogeneidad del
campo magnético es un paso clave para obtener un espectro del que se pueda obtener la
información deseada.
5.9.4. Aplicaciones clínicas de la ERM.
Sistema nervioso central: En el cerebro se ha utilizado ampliamente en el estudio de las diferentes
patologías y desórdenes neurodegenerativos, principalmente tumores, esclerosis múltiple y demencias.
Uno de los campos en que la información aportada por la ERM puede ser de mayor impacto es en el
diagnóstico de los tumores cerebrales.
- Para un tratamiento óptimo de los pacientes con tumor cerebral, es necesario disponer de un
diagnóstico lo más exacto posible. La imagen por RM puede proporcionar un diagnóstico inicial
de las masas cerebrales con una exactitud diagnóstica bastante alta dependiendo del tipo de
tumor. La anatomía patológica (AP) sigue siendo considerada el “gold Standard” para determinar
el diagnóstico definitivo, por lo que sigue siendo necesaria la biopsia del tumor. No obstante, la
mortalidad descrita en la realización de biopsias es del 1,7%. Un método no invasivo, como la
ERM, que permita predecir con mayor exactitud el tipo de lesiones, podría evitar biopsias en
procesos no tumorales o tumores poco accesibles que serían tributarios de radioquimioterapia
más que de resección quirúrgica.
Hay patrones de espectroscopia que se han demostrado característicos de determinados tipos
tumorales.
- Los tumores presentan patrones radiológicos propios que los caracterizan bioquímicamente. A
grandes rasgos, y como datos claramente establecidos, se puede decir que los tumores de más
alto grado (glioblastoma y metástasis) se caracterizan por la presencia de lípidos, que el
meningioma presenta valores de alanina superiores al resto de tumores, y que los valores de
colina son superiores en astrocitomas anaplásicos que en astrocitomas de bajo grado, y en
meningiomas que en los otros grupos. De todos modos, hay que destacar que existe una
significativa superposición de patrones entre grupos, máxime cuando se trata de tumores poco
comunes. Ello hace que, para obtener resultados mejorados, haya que recurrir a una
cuantificación precisa y métodos más o menos sofisticados de reconocimiento de patrones.
Próstata: La espectroscopia por RM endorrectal es una técnica no invasiva que complementa el
diagnóstico del carcinoma de próstata mediante la detección de metabolitos intracelulares a nivel de la
próstata, tales como la colina y el citrato. El cáncer de próstata es la segunda causa más frecuente de
muerte por cáncer entre los hombres.
- El diagnóstico de carcinoma de próstata se hace con biopsia endorrectal, a menudo después de
resultados altos en los niveles de antígeno prostático específico (PSA) o hallazgos patológicos en
el tacto rectal durante un chequeo rutinario. Una vez que se ha hecho el diagnóstico, el principal
reto es valorar el riesgo de recurrencia o fallo en el tratamiento y determinar cuál es el
tratamiento óptimo. Esta valoración inicial se basa en una combinación de niveles de PSA, tacto
rectal, y resultados de biopsia (niveles de Gleason).
Aun así, la sensibilidad de esta información clínica en la estadificación del carcinoma prostático es
subóptima. La RM se ha hecho muy importante en la estadificación inicial, aunque su eficacia en la
detección del tumor es sólo moderada. La ERM de la próstata se usa para medir metabolitos prostáticos
como la colina, creatina y citrato, y en combinación con la RM ha demostrado mejorar significativamente
la detección de tumores en la zona periférica, mejorando la especificidad. También se ha encontrado una
mejoría en la detección de los tumores de la zona de transición y es más eficaz que la biopsia endorrectal
en la punta de la próstata.

5.10. Medicina Nuclear. La medicina nuclear es una especialidad médica que utiliza cantidades muy
pequeñas de sustancias radioactivas, o radiofármacos, para examinar la función y estructura de un
órgano. La generación de imágenes en la medicina nuclear es una combinación de muchas disciplinas
diferentes, entre ellas la química, la física, las matemáticas, la tecnología informática y la medicina. Esta
rama de la medicina se utiliza a menudo para el diagnóstico de diversas enfermedades y para la
estadificación tumoral.
El método de imágenes nucleares permite la visualización de la estructura y la función órganos y tejidos.
El grado de absorción o “captación” del radiofármaco por un órgano o tejido específico puede indicar el
nivel de funcionalidad del órgano o tejido en estudio. Por lo tanto, los rayos X de diagnóstico se usan
principalmente para estudiar la anatomía, mientras que las imágenes nucleares se utilizan para estudiar
la función de órganos y tejidos.
1- Durante el procedimiento se utiliza una pequeña cantidad de sustancia radioactiva que facilita el
examen. Los compuestos marcados radiactivamente (radiofármacos) se inyectan o ingieren por
el paciente. Estos radiofármacos son absorbidos preferentemente por los órganos diana, dando
como resultado una radiactividad incrementada que corresponde a la función del órgano de
interés. El tejido del cuerpo absorbe la sustancia radioactiva, llamada radionúclido (radiofármaco
o trazador radioactivo). Están disponibles varios tipos diferentes de radionúclidos, incluidas
ciertas formas de los elementos tecnecio, talio, galio, iodo y xenón. El tipo de radionúclido a
utilizarse dependerá del tipo de estudio y de la parte del cuerpo que se examina.
2- Una vez que el paciente ha tomado el radionúclido y que éste se concentra en el tejido del
cuerpo que se está estudiando, se emitirá la radiación, la cual será captada por un detector de
radiación. El tipo de detector más común es la gammacámara. Cuando la cámara gama detecta la
radiación, se emiten señales digitales que se almacenan en una computadora.
3- Al evaluar el comportamiento del radionúclido en el cuerpo durante una gamagrafía, el médico
puede evaluar y diagnosticar diversas enfermedades. Las áreas en las que el radionúclido se
concentra en mayor cantidad se denominan “zonas calientes”. Las áreas que no absorben el
radionúclido y que aparecen con menor brillo en la imagen se denominan “zonas frías”.

En las imágenes planas, la cámara gama permanece estática. Se obtienen imágenes bidimensionales (2D)
de la parte del órgano estudiado. La tomografía computarizada por emisión de fotón único, o SPECT,
produce imágenes tridimensionales (3D) ya que la cámara gama gira alrededor del paciente.
Estos estudios se utilizan para diagnosticar muchas condiciones médicas y enfermedades. Algunos de los
exámenes más comunes incluyen las siguientes:
1- Gamagrafía renal: se utiliza para examinar los riñones y detectar cualquier anomalía, como
tumores u obstrucción del flujo sanguíneo renal.
2- Estudio de tiroides: se utiliza para evaluar la función tiroidea.
3- Gammagrafía ósea: se utiliza para evaluar cualquier cambio degenerativo o artrítico de las
articulaciones, o ambos, para detectar enfermedades y tumores de los huesos, o para
determinar la causa del dolor o la inflamación de los huesos.
4- Gamagrafía con galio: se utiliza para diagnosticar enfermedades inflamatorias o infecciosas
activas, tumores y abscesos.
Cada tipo de estudio emplea determinada tecnología, radionúclidos y procedimientos. Un escáner de
medicina nuclear consiste en tres fases:
1. Administración del trazador (radionúclido).
2. Toma de imágenes.
3. Interpretación de las imágenes.
La cantidad de tiempo que pasa entre la administración del trazador y la toma de las imágenes puede
variar desde unos cuantos minutos a unos cuantos días, dependiendo del tejido del cuerpo que va a
examinarse y del trazador que va a utilizarse. El tiempo requerido para obtener las imágenes puede
también variar desde minutos a horas.
_____________________________________________________________________________________
UNIDAD 6. – ADQUISICION DE IMÁGENES DIGITALES

6.1. Sistemas de adquisición aplicables a radiología convencional. Para conseguir el paso de imagen
analógica a digital existen varios sistemas de adquisición aplicables a la radiología convencional.
La radiología digital indirecta IR: CR y digitalización de la imagen analógica.
Y la radiología digital directa: sistemas basados en sensores CCD y detectores de panel plano FP o FPD.
 Radiografía computarizada (CR).
 Digitalización de la película radiográfica.
 Fluoroscopia digital (Sensores CCD).
 Radiografía digital mediante detectores FP (flan panel o panel plano).
6.1.1. Radiografía computarizada (CR). Es el sistema que utiliza un soporte primario de imagen
radiosensible, fotoestimulable y luminiscente (fósforo), que es leído y procesado por un ordenador
obteniendo una imagen radiológica digital. Es interesante destacar que este sistema permite la
utilización de los equipos radiológicos convencionales existentes en la actualidad. La actual película y
chasis es sustituida por un receptor alojado en un chasis especial, aunque externamente tiene muy pocas
diferencias, que al exponerse a la radiación adquiere una información en forma de niveles de energía.

Este soporte es leído por un rayo láser fino y de alta potencia que provoca luminiscencia, que es recogida
y transformada en señal eléctrica. Posteriormente esta señal a través de un digitalizador se transforma
en dígitos que al procesarse nos dan la imagen digital.

6.1.2. Digitalización de la película radiográfica. Las radiografías analógicas obtenidas por medios
convencionales pueden ser escaneadas mediante un digitalizador de película, que convierte las
densidades ópticas analógicas de la radiografía en una serie de valores digitales de pixels en una matriz
de imagen.
Cuando la imagen está en forma de matriz digital, la información que contiene puede ser manipulada
como en otros sistemas digitales. La calidad de la imagen obtenida dependerá de la calidad radiográfica
que se procese, admitiendo poco rango de variabilidad en su calidad.

6.1.3. Fluoroscopia digital (Sensores CCD). Parte de la señal analógica de la cámara de televisión que se
digitaliza para su posterior proceso. Sobre el intensificador de imagen convencional ya existente se
incluye:
1. UN TUBO DE CAMARA
2. UN CONVERTIDOR ANALOGICO-DIGITAL
3. LA CADENA DE TELEVISION
Este sistema en la actualidad se aplica en los telemandos y en los radioquirúrgicos de la última
generación.

6.1.4. Radiografía digital mediante detectores FP (flan panel o panel plano). El sistema consiste en la
digitalización de la imagen modulando la atenuación producida en el haz de radiación al traspasar el
paciente. Al realizar el disparo radiográfico pasa al ordenador la secuencia de datos numéricos, que éste
transforma en imagen. Este sistema es actualmente utilizado en la obtención de la radiología torácica
por el alto desnivel que presentan sus estructuras en densidad. Este sistema incluye dos detectores de
imagen, uno entre el tubo de rayos X y el paciente y otro entre el paciente y la unidad que modula la
intensidad.

6.2. Procesamiento de imágenes digitales. En los equipos con los que se realizan reconstrucciones de
imágenes (TC, RM, Fluoroscopia digital, etc.) se utiliza un miniordenador. Cuando en TC se reconstruyen
imágenes transversas en un plano coronal o sagital, éstas se envían de forma secuencial desde la
memoria a la unidad aritmética lógica de la CPU, para su procesamiento. La imagen por RM utiliza el
ordenador de forma muy similar a la tomografía computerizada.

En el caso de la ecografía, donde se utiliza la imagen en tiempo real y es necesaria una manipulación
inmediata de los datos, se requiere hardware especial conectado al miniordenador.

En la actualidad, la fluoroscopia digital y la radiografía digital se utilizan en muchos centros sanitarios,


debido al gran avance de los equipos informáticos. En el ordenador las imágenes digitales se representan
como grupos de números, los cuales cambiarán mediante la aplicación de operaciones matemáticas, con
lo que la imagen resultará modificada.
6.2.1. Intensificación de contraste. Se obtiene mediante la selección de ventana, que consiste en escoger
un determinado rango de la escala de grises, para ser mostrado como una imagen. El resto de la escala
de grises situado fuera de la ventana es eliminado. El ancho de la ventana abarca el rango de densidades
dentro de una imagen. Una ventana estrecha se utiliza para distinguir mejor diferencias más sutiles en la
densidad del sujeto, aunque hay un aumento del ruido de la imagen y no se pueden apreciar las
densidades situadas fuera de esa ventana seleccionada.

6.2.2. Reconstrucción de la imagen. Filtrado digital. Un método de reconstrucción de la imagen se


obtiene mediante el uso de filtrado digital, que se define como la acentuación o atenuación de las
intensidades seleccionadas en la imagen.
Los métodos de filtrado digital son:
1- FILTRADO DE CONVOLUCION: Se obtiene automáticamente cuando el ordenador cuenta con
transformaciones de Fourier rápidas. Se coloca una máscara filtro sobre un área de la matriz de
imagen y se multiplica después el valor de cada elemento de la máscara filtro por el valor de la
imagen situada directamente debajo, se obtiene la suma de esos valores y se coloca dicha suma
dentro de la imagen de salida en la localización exacta que tenia en la imagen original.
2- FILTRADO DE PASO BAJO O SUAVIZACION: Suaviza o atenúa las súbitas diferencias de
intensidades o densidades entre las diversas estructuras que aparecen de la imagen. En este
caso, el valor de cada píxel se sustituye en la imagen de salida por la media simple de él y de los
8 píxeles vecinos.
3- FILTRADO DE PASO DE BANDA: Elimina o atenúa todas las intensidades dentro de la imagen,
excepto las comprendidas en un rango preseleccionado. Corresponde al proceso de selección de
ventana mencionado anteriormente.
4- FILTRADO DE PASO ALTO O FILTRADO DE BORDES O INTENSIFICACION DE BORDES: Se utiliza un
filtro de bordes especial con el que se produce un efecto de acentuación de los bordes.
Obtenemos una imagen con más contraste que es útil para demostrar estructuras pequeñas. En
angiografía con sustracción digital (ASD) se utiliza este tipo de filtración para acentuar los vasos
más pequeños llenos de contraste.
6.2.3. Técnicas de sustracción
 SUSTRACCION TEMPORAL: Podemos definir la técnica de sustracción temporal como un proceso
de radiología digital basado en intervalos de tiempo. Su aplicación más simple consiste en
obtener una máscara y sustraer los valores de los píxeles de la máscara, de los valores de los
píxeles de la imagen tras la inyección. Entre las dos imágenes (máscara e imagen con contraste)
no debe haber cambios (se debe evitar el movimiento del paciente entre las exposiciones),
excepto para los vasos llenos de contraste. Así, la imagen sustraída nos muestra los vasos
sanguíneos opacificados, libres de superposiciones.
 SUSTRACCION DE ENERGIA DOBLE: En este caso no se necesita tomar imágenes antes de inyectar
el agente de contraste. El proceso sería el siguiente: tras inyectar un medio de contraste yodado,
se realizan una serie de exposiciones rápidas con ajuste de kilovoltaje alto y otra serie con ajuste
de kilovoltaje bajo. Con el ajuste alto se disminuye el contraste óseo en la imagen, en cambio
con el ajuste bajo se intensifican las estructuras anatómicas menos densas, como los vasos
sanguíneos pequeños. Posteriormente se sustraen los dos juegos de imágenes y como resultado
obtenemos una imagen en la que se ha aumentado el contraste de los vasos opacificados.
 SUSTRACCION HIBRIDA: Es una combinación de las dos técnicas anteriores. Ahora obtenemos un
juego de máscaras para el ajuste de kilovoltaje alto y otro para el ajuste de kilovoltaje bajo. Por
tanto, tendremos dos juegos de máscaras y dos juegos de imágenes con contraste yodado. El
proceso de sustracción híbrida elimina el hueso de la imagen, dejando solo los vasos llenos de
contraste.

6.2.4. Ampliación. La ampliación es un proceso en el que se selecciona un área de interés y se copia cada
píxel dentro del área un número entero de veces. Posiblemente, cuando se realiza una ampliación
grande se visualiza con aspecto de estar construida por bloques. Para matizar las diferencias de
intensidad entre esos bloques, se realiza una operación de suavización o filtro de paso bajo.

6.2.5. Imagen tridimensional. En la actualidad, se obtienen imágenes tridimensionales bien enfocadas y


con sombras reales que demuestran los tejidos blandos, gracias al desarrollo de ordenadores con
tiempos de procesamiento cada vez más cortos, a los nuevos algoritmos para cálculos matemáticos y a la
utilización de transformaciones de Fourier rápidas. Se conoce como técnica de revoque volumétrico a la
tecnología que se utiliza para describir la capacidad de demostrar el tejido blando en imágenes
tridimensionales. Esta técnica es un programa de ordenador que permite definir el grosor del objeto y
visualizar mínimas diferencias de densidad.
_____________________________________________________________________________________
UNIDAD 7. – COMPONENTES DEL SISTEMA DE RADIOLOGIA DIGITAL
7.1. Radiología digital. Desde el surgimiento del registro de imágenes por fluoroscopia con exposiciones
únicas o secuenciales en tiempo real, que fueron llevadas a un ordenador para su ulterior análisis, se dio
paso a lo que hoy denominamos “Radiología Digital (RD)”.

El posterior e imparable avance de las tecnologías de la información, en especial la electrónica y la


informática, han dado lugar a que la RD conviva ya con el “Diagnóstico por la Imagen (DI)” como si de
placas se tratase. La introducción de modalidades radiológicas con adquisición digital: Tomografía
Computarizada (TC), Angiografía de Substracción Digital (DSA), Medicina Nuclear (MN), Imagen por
Resonancia Magnética (RM), Ultrasonidos (US), y finalmente, con la Radiografía Computada (RC), ha
facilitado la gestión directa de las imágenes en formato digital. La imagen médico-diagnóstica digital
constituye un ejemplo de requerimientos para cualquier sistema informático: Las imágenes radiológicas
presentan un volumen muy elevado de información, tanto por sus características de resolución espacial,
como por el volumen de datos o número de imágenes por exploración. Trasmitir, almacenar y visualizar
imágenes a ritmos acelerados se convirtió en todo un reto al que se ha logrado llegar. El adelanto de las
telecomunicaciones ha hecho posible la transmisión, después de adquiridas, de las imágenes desde los
departamentos de radiología, a diversas áreas de consulta. Esta “digitalización” de imágenes permite,
además, su transmisión a gran distancia. La digitalización de los servicios de radiología requiere
fundamentalmente una reconversión de la organización del departamento y de la cultura del centro. El
reto tecnológico está superado con los equipos existentes, pero ha de ser comprendido y aceptado por
quienes se encargan de manejar los aparatos. Este reto se puede definir en 5 puntos:
1- Integración de la imagen digital es factible y accequible
2- Cada hospital ha de seguir su propio camino, ya que no hay una solución única para todos
3- Internet y su protocolo (tcp/ip) son el camino a seguir en el proceso de cambio
4- La forma de implantación ha de ser siguiendo los estándares establecidos (DICOM para imágenes
y HL-7 para historias clínicas)
5- Requiere una adaptación de las personas y de la organización del servicio.

Este último punto es muy importante. La experiencia ha demostrado que existe cierta resistencia entre
los médicos a las radiografías digitales, puesto que la escala de gris es diferente y en algunas ocasiones,
como en el contraste de los huesos, el diagnóstico puede ser más cuidadoso.
La renovación tecnológica es un problema dada la rapidez con la que se producen los cambios. Un
equipo puede estar en condiciones excelentes, pero al cabo de varios años puede quedar obsoleto. Esto
implica un esfuerzo económico de adaptación continuo.
El análisis del riesgo subsiguiente para los requisitos cambiantes de todo el sistema de Funcionamientos
de radiología, y la futura obsolescencia técnica, como riesgos mayores se deben proyectar a largo plazo.
Para reducir los riesgos se deben adoptar los siguientes principios:

1- El sistema debe ser configurado sobre una plataforma abierta, de forma tal que se puedan
agregar y/o anular segmentos sin que ello altere su funcionalidad. Debe ser posible acrecentar su
funcionalidad.
2- La integración de todo el sistema debe estar basada en módulos que funcionen independientes,
pero cada uno como bloques compactos.
3- Adhesión a las normativas de la industria y estándares que anulen la dependencia de los
propietarios.
4- Una plataforma abierta asegura la interoperabilidad entre los diferentes componentes de los
fabricantes, y evita tener “cajas negras” cerradas con llaves de sistemas propietarios de los
diferentes vendedores. La modularidad permite la adaptación a los ambientes cambiantes y
disminuye el impacto por cambios en módulos locales.

7.2. Componentes del sistema. Es difícil hablar de la composición de la RD sin tener en cuenta todo lo
relacionado con un servicio de radiología. Dentro de la RD entran los equipos productores de imágenes
médicas (TC, RM, US, DSA, RC, MN, etc.), los sistemas de adquisición de imágenes, redes de
comunicación, sistemas de gestión de información y de pacientes, sistemas de archivo, estaciones de
diagnóstico primario locales o remotas, estaciones de visualización y revisión, y sistemas de gestión de
impresión de imágenes.
La gran mayoría de estos componentes, exceptuando los equipos productores de imágenes médicas, se
puede encontrar en Sistemas de Información Radiológica (RIS acrónimo en inglés de Radiology
Information System), Sistemas de Comunicación y Archivo de Imágenes (PACS acrónimo en inglés de
Picture Archiving and Communication System) y Sistemas de Integración de Imágenes e Información
Clínica de los Pacientes (IMACS acrónimo de Image Management and Communication System). Las
partes fundamentales:
1- Estaciones de trabajo Workstation La Estación de trabajo, comúnmente llamada “Workstation” ,
es básicamente un PC de mayor potencia, dado por mayor capacidad de memoria RAM, más
capacidad en sus discos rígidos, y la colocación de tarjetas para trabajar con monitores de alta
resolución o más de un monitor; incluso con salida/entrada de vídeo. La WS esta compuesta de
varias partes: La unidad central donde se encuentra la CPU (Unidad Central de Procesamiento),
la Memoria RAM y los Discos Rígidos. También puede tener un dispositivo de lectura y/o
grabación magneto-óptico. En esta unidad central se colocan además las tarjetas controladoras
de vídeo para monitores.
Monitores: periféricos, sistema operativo y software de visualización y gestión de imágenes e
informes del paciente.
Unidad Central El componente básico de la unidad central es la CPU. Sobre la placa base
(llamada también placa madre) existen unas ranuras (llamadas comúnmente slots) donde se
colocan las tarjetas que se requieren para darle la funcionalidad al PC. La memoria RAM
(Random Access Memory) es una de las partes fundamentales y es colocada en la placa base en
los slots correspondientes. Son pequeñas tarjetas que pueden tener hasta 512 Mbytes. Si se
colocan 4 tarjetas de RAM, tendremos 2 GB de memoria. Sobre la placa base se colocan también
las tarjetas de RED, las tarjetas de módem y las tarjetas de vídeo que van estrechamente
vinculadas al tipo de monitor o monitores a instalar.
Dentro de la unidad central y conectados a la placa base van los dispositivos de almacenamiento
de información que generalmente son Discos Rígidos, Dispositivos de lectura/escritura sobre
discos o cintas magneto-ópticas y, por último, tarjetas SCSI para discos rígidos más veloces. A
veces en una WS se colocan sistemas RAID para recambio de discos rígidos UltraWide SCSI en
caliente (o sea con el ordenador funcionando).
Monitores Las estaciones de visualización e informes para la representación de imágenes de matrices
pequeñas y grandes deben cumplir las siguientes características:
1- La luminosidad de los monitores no debe ser menor de 538 lumens/m2. La brillantez y el
contraste están estrechamente relacionados y suponen una gran diferencia en la percepción
de la calidad de las imágenes médicas. Los monitores en Grises (blanco y negro) son
generalmente más brillantes y tienen mejor contraste que los de color.
2- La colocación de los monitores deberá ser tal, que evite o elimine los reflejos de la luz
ambiente sobre la pantalla del monitor. Además, la luz ambiente debe ser tan baja como sea
posible.
3- Se recomienda utilizar monitores con resolución de 1280x1024 o superiores para matrices
pequeñas. La resolución aceptada por ACR es 1600x1200 (landscape) o 1200x1600 (portrait).
La resolución ideal que recomienda la ACR es de 2000x2500 (portrait) con 4096 niveles de
gris, que es un equipo muy costoso cuando se compara con una solución PC, pero debemos
recordar, que si desea realizar diagnóstico primario, deberá tener al menos monitores de
este tipo. El monitor deberá tener un “dot pitch” de 0,26 o menor. Para diagnóstico primario
de radiografías, es requerida la propiedad de “fine dot pitch”. La frecuencia de refresco del
monitor debe ser mayor a 60 Hz.
4- La distorsión es otro de los aspectos a considerar. Para monitores grandes de alta resolución,
la distorsión puede ser un problema. Los monitores grandes, con amplia curvatura en el
cristal CRT, tienen imágenes altamente distorsionadas. Por lo tanto, es recomendable utilizar
monitores con pantallas lo más planas posible o monitores que rectifiquen la distorsión con
el tamaño del píxel.
5- El “blooming” (dispersado de regiones claras en las regiones contiguas). Deben colocarse en
las estaciones de visualización monitores con ausencia de “blooming”. Esta propiedad en los
PC esta estrechamente vinculada a la tarjeta de vídeo utilizada y la frecuencia de refresco
(monitores que soporten frecuencias de refresco de 100 Hz).
6- Existen otras propiedades de los monitores, como su relación entre la luminancia (variable
física) y la brillantez (variable perceptual) que no es lineal. Por otra parte, el contraste en
niveles de gris y la variación de la intensidad en cada píxel, depende de la representación de
la imagen.

Desde el punto de vista del observador, existen tres atributos importantes: la fidelidad, la informatividad
y la apariencia atractiva de la imagen. La fidelidad de la imagen está expresada en términos de resolución
espacial, resolución de niveles de gris, linealidad de los niveles de gris y el ruido de la imagen. La
informatividad está expresada en términos de la visibilidad diagnóstica, los rasgos importantes y la
detección de las anormalidades en la imagen. La apariencia atractiva está expresada en las propiedades
estéticas de la pantalla y el despliegue de las imágenes.

Discos rígidos: El disco rígido es el encargado de guardar toda la información de la WS, las imágenes, los
documentos, el sistema operativo y todo aquello que es importante. En dicho disco duro se almacena
toda esa información en forma de archivos, que después pueden ser consultados.

Están medidos en Megabytes (MB), aunque en la actualidad son tan grandes que se miden en Gigabytes
(GB) o sea 1024 MB. En 1985, 20 o 40 MB era la capacidad de disco rígido, y se consideraba aceptable.
Pero hoy en día sólo el sistema operativo Windows ocupa más de 300 MB. En 1993, 200-300 MB era la
capacidad promedio de los discos rígidos.
En 1995, lo común eran discos rígidos de 3-4 GB. Hoy, son comunes los discos rígidos con capacidad de
40 – 80 GB prácticamente ilimitada.
Algunos discos rígidos son más veloces que otros. El tiempo que le lleva a su disco leer una imagen,
descomprimirla si está comprimida, y luego ubicarla en la pantalla, depende de la velocidad del disco. El
“tiempo de acceso a disco”, medido en milésimas de segundo, es importante para el rendimiento de la
WS, particularmente con grandes archivos de imágenes. Existen distintos tipos de controladores de disco
y juegan un papel importante al determinar cuán rápido es el tiempo de acceso. IDE (Dispositivo
Electrónico Integrado), EIDE (Interface Extendida para Equipos Electrónicos), UDMA (Ultra Acceso
Directo a Memoria) y SCSI (Interfaces de los Sistemas para Pequeñas Computadoras) y el superamplio
SCSI2. Las SCSI son las más veloces y las preferidas.

Además, para conservar espacio y reducir el tiempo de transmisión cuando se utilizan


telecomunicaciones, las imágenes en los discos rígidos son generalmente “comprimidas” por algoritmos
matemáticos, (JPEG, Wavelets y otros).

Módem. Un bit es la forma de dato más simple. Es 0 ó 1. Un Byte está compuesto por 8 de estos bits
juntos en una “palabra” parecida a 10101100. (Esto es un ejemplo de una palabra, pero algunas palabras
de computadoras miden 16 ó 32 bits o sea 2 ó 4 Bytes). Eso sí, los bytes no se pueden dividir y las
velocidades de los módems se miden en bits por segundos = baudios.
A través del módem los PC pueden conectar, establecer la comunicación (“handshake”) y comenzar a
transmitir información a través de las líneas telefónicas. Gran parte del sonido (chirrido) de estos
aparatos es el inicio de la comunicación y la Modulación-Demodulación. Eso es exactamente lo que
ocurre entre dos módems que están conectados. De aquí proviene la palabra módem
ModulaciónDemodulación.

Los primeros módems tenían ventosas donde descansaba el auricular del teléfono (con los extremos
redondos). Estos módems funcionaban a 150 o 300 baudios o bits por segundo (bps). Hoy en día, los
módems se conectan directamente a la línea telefónica. Estos a su vez pueden ser internos (colocados en
la placa base) o externos. Un módem externo se conecta al puerto serie del PC. El módem externo tiene
su suministro de energía por separado y un conjunto de luces que titilan cuando está en uso. Para
transmitir imágenes debemos saber que: el tiempo de transmisión de una imagen es directamente
proporcional al tamaño del archivo y la necesidad de rapidez de la respuesta.

2- Sistemas de archivo
7.2.2. Archivos de Imágenes. Las imágenes se guardan en archivos en una computadora al igual que los
documentos. Existen formatos de archivos estándar que son leídos por el software y luego visualizados.

Al principio se comenzaron a crear distintos formatos de archivo de imágenes estándar, que podían ser
utilizados en publicaciones de documentos y gráficos. Se crearon aplicaciones que podían trabajar con
formatos tales como TIFF, PCX, BMP y GIF. Además de la información sobre el pixel, el “encabezado” en
cada uno de estos tipos de archivo varia en formato y tamaño.

En NEMA (National Electrical Manufacturer Association) y ACR (American College of Radiology) crearon
su propio formato de archivo de imágenes, conocido como formato ACR/NEMA. Ahora se lo ha
renombrado en su tercera aparición como DICOM (Imágenes y Comunicaciones Digitales en Medicina)
versión 3.0. En DICOM, las imágenes en escala de gris tienen 16 bits por pixel (o 2 Bytes por pixel), y las
imágenes color tienen 24 bits por pixel más 8 bits por pixel de información de intensidad (o la
impresionante cantidad de 4 Bytes por pixel).

La resolución espacial, o tamaño de una imagen digital, está definida como una matriz con cierto número
de pixels (o puntos de información) a lo ancho y a lo largo de la imagen. Cuanto más pixels, mejor
resolución. Esta matriz también tiene “profundidad”. La profundidad, generalmente es medida en bits y
comúnmente es conocida como escala de gris: las imágenes de 6 bits tienen 64 niveles de gris, las
imágenes de 7 bits tienen 128 niveles de gris, las imágenes de 8 bits tienen 256 niveles de gris y las
imágenes de 12 bits tienen 4.096 niveles de gris.

El tamaño de archivo de una imagen particular está determinado por la multiplicación del número de
pixels horizontales “por” el número de pixels verticales y luego multiplicándolo por el número de bits de
profundidad de la escala de gris. Por ejemplo, una imagen puede tener una resolución de 640x480 y 256
niveles de gris, u 8 bits de profundidad en escala de gris. El número de bits en el conjunto de datos
puede calcularse multiplicando 640x480x8 = 2.457.600 bits. Puesto que hay 8 bits en un byte, la imagen
de 640 x 480 con 256 niveles de gris tiene 307.200 Bytes de información.

Ahora bien, no se pueden fraccionar los bytes. Si hay una imagen de 12 bits y hay 8 bits en un byte,
necesitará 2 bytes para expresar toda la información. Los últimos 4 bits (llamados “bits altos”) están en
cero. Es más, es necesario calcular el tamaño del archivo con 2 bytes por pixel al almacenar imágenes de
12 y 10 bits. (La radiografía computada utiliza, por lo general, imágenes de 10 y 12 bits).

Esto significa que una imagen de diagnóstico en película con certificación ACR tiene un mínimo de 2Kx2K,
es decir, 2.000 x 2.000 pixels para un total de 4 millones de pixels. Cada pixel tiene 2 bytes (o 16 bits) de
información, para un total de 8 millones de Bytes (8 Megabytes) por imagen. Así tenemos que una
imagen de tórax de 8 MB tardaría demasiado tiempo en ser transmitida. Por lo que es necesario
comprimir las imágenes.

Existen dos tipos posibles de compresión: la compresión exacta y la compresión irreversible.


Compresión exacta: Está compresión exacta, llamada compresión sin pérdida (“lossless”), esta
comprendida en tasas de 2:1 a 3:1 para no perder ninguna información en ellas. Y una vez que se pasa
esta tasa, se producirá pérdida, independientemente de la técnica utilizada. El Colegio Americano de
Radiólogos (ACR) recomienda para el diagnóstico primario algoritmos de compresión sin pérdida.
Cuando las imágenes son recibidas en la Estación receptora, estas son descomprimidas y colocadas en
sistemas de archivo donde pueden ser vistas con la aplicación existente en la Estación receptora, y así,
proceder al diagnóstico de los estudios recibidos.

Compresión irreversible: En el caso de la compresión irreversible, compresión con pérdidas (“lossy”), las
tasas de compresión son mucho más elevadas, pero las imágenes reconstruidas presentan pérdida de
información o diferencias, con respecto a las imágenes originales.

Hay distintos algoritmos de compresión. Los más populares son LCZ y JPEG. Los algoritmos más en boga y
más nuevos están basados en Wavelets. DICOM 3.0 sólo acepta JPEG. JPEG es bastante bueno,
razonablemente rápido para comprimir y descomprimir, y está ampliamente implantado. Algunas
versiones mejoradas de JPEG permiten una compresión visualmente aceptable con tasas de 40:1 a 60:1.
Ciertas imágenes soportan determinada compresión sin sufrir una diferencia notable al ojo humano; en
prácticamente todos los cortes de TC y RM se producen bordes negros alrededor de la imagen del
paciente. La pérdida de algunos pixels no afecta la calidad percibida de la imagen, ni tampoco cambia en
modo significativo la interpretación del lector.

El formato JPEG 10:1 “convencional” es adecuado para películas de Rayos X, TC, RM o Ultrasonido. El
formato JPEG mejorado (eJPEG) permite una compresión de 30 a 70:1 sin una pérdida de calidad en
términos de diagnóstico, y funciona mejor para Películas de Rayos X que para imágenes con formato de
archivo pequeño.

En la actualidad no existe un método de compresión que sea aceptado por completo por la comunidad
de radiólogos, y en algunos lugares como los Estados Unidos, la legislación impide que se empleen
algoritmos de compresión irreversible en imágenes médicas.

En la actualidad existen algoritmos que se adaptan al tipo de imagen en cuestión y que tienen tasas de
compresión variables, dependiendo del uso que se tendrá. En otros casos, se utiliza el análisis de estos
distintos tipos de compresión realizando un estudio comparativo, que se denomina estudios ROC, donde
se determina a través de un panel de expertos, sí las imágenes comprimidas tienen diferencias
perceptibles cuando se comparan con la imagen original. Los algoritmos más avanzados permiten
emplear tasas altas de compresión, mientras se mantiene una calidad de imagen alta con diferencias casi
imperceptibles. De todas formas, llegará el momento en que las WS contarán con un ancho de banda T1
(Línea de Comunicaciones Digital de Alta Velocidad de 1.5 Mbps) y no será necesario comprimir las
imágenes.

La gran cantidad de imágenes producidas para diagnóstico ha hecho complicado su manejo,


principalmente cuando deben imprimirse y archivarse. Una alternativa es el manejo de imágenes
digitales en forma eficiente, a través de dispositivos conectados en red, que en conjunto ofrecen una
serie de servicios que dan soporte a la operatividad del área de radiología. Sin embargo, para obtener
una buena aceptación en el medio clínico, se deben considerar la facilidad, rapidez, seguridad en el
acceso de imágenes y la calidad en su presentación. Además se pueden aprovechar las facilidades de la
tecnología actual para ofrecer funciones adicionales como: mostrar varias imágenes en una misma
pantalla, procesamiento de imágenes para corregirlas o mejorarlas, grabación de voz correspondiente al
diagnóstico y diagnóstico asistido por computadora, entre otras.

RAIDS. Los servicios de radiología pueden producir entre medio TB y 7 o 8 TB por año según su tamaño,
según si las películas de CR, DR (Radiología Digital) son digitales o no, y dependiendo de si se incluyen
estudios de la unidad de cateterismo. De todas formas, un pequeño centro asistencial de 100 camas sin
CR, DR o sala de hemodinámica producirá un par de TB durante el período legal de 5 años establecido
para la conservación de películas en un departamento radiológico.

Así, un promedio estándar de 1 TB por año: equivale a mil GB por año u 85 GB por mes. Se puede utilizar
cinta, MOD, DVD o CD, aunque la mayoría de los profesionales preferirán el acceso directo (“On-Line”) a
las imágenes durante un período de uno a dos meses de manera bastante rápida. El número de veces
que un estudio es recuperado de un archivo, es muy intenso durante las primeras semanas,
moderadamente intenso los primeros 6 meses, y luego cae estrepitosamente. Es por eso que la mayoría
de los sectores medianos a grandes, mantienen archivos de acceso inmediato (en el lugar) durante 3 a 6
meses y, por otro lado, mantienen un archivo “activo” de los pacientes que están siendo tratados.

Por acceso inmediato, nos referimos a que, una vez localizado el archivo, queremos ver la imagen en los
monitores de la WS en unos pocos segundos. Quizás este proceso lleve unos 5 a 15 segundos. Pero no es
un minuto ni dos, se trata de segundos. Por lo tanto, sistemas Jukebox de CDs (o Jukebox de DVDs)
quedan descartados como forma de acceso “on-line” inmediato.

La solución más aceptada y de forma escalonada es el empleo de sistemas de discos redundantes (RAID-
Redundant Array of Inexpensive Disks) para “acceso inmediato”, empleo de Robots para MOD, DAT, DLT,
CD o DVD, para almacenamiento “near-line”. El tamaño y tipo de almacenamiento no es demasiado
importante, si después podemos cambiar el tamaño y, fácilmente, migrar los datos en el futuro. Por ello,
es importantísimo que toda la tecnología que se use sea totalmente estandarizada.

Con un RAID veloz y fiable la demanda inmediata de imágenes podrá ser satisfecha con éxito, aún
cuando sean muchas las personas que compiten por el mismo recurso. Además, el nivel del RAID debe
ser lo suficientemente fiable como para permitir el “hot swap” (reemplazo de discos en funcionamiento).
3- Redes
La Radiología Digital ha de disponer de una infraestructura de comunicaciones capaz de transportar la
información de las imágenes rápidamente a través de toda la red y de adaptarse a las necesidades de
cambio. Por ello, deberán buscarse alternativas que ofrezcan alta calidad, una completa gama de
servicios y optimización de costes, tanto en aspectos relativos a interconexiones como en su
operatibilidad y mantenimiento.

La topología de la red condiciona su rendimiento y flexibilidad. Desde el punto de vista de la arquitectura


de una red de Radiología Digital habrá que incluir los siguientes aspectos:
a. Administración de los datos
b. Lógica de la aplicación
c. Lógica de la presentación
Arquitectura Centralizada En el modelo de arquitectura centralizada, los usuarios situados en terminales
no inteligentes, se comunican con computadoras anfitrionas (hosts). Todo el procesamiento tiene lugar
en el anfitrión, y los usuarios únicamente escriben órdenes que envían a dicho anfitrión y observa su
resultado en su monitor. La administración de los datos y la lógica de la aplicación, funcionan en el
ordenador anfitrión y la presentación se divide entre el anfitrión (parte dominante) y el usuario (donde
simplemente se muestra). Esta alternativa es extremadamente simple, porque generalmente no implica
programación alguna.
Ventajas:
 Buena integración y comunicación.
 Buen control sobre los datos.
Inconvenientes:
 Atado a un único proveedor.
 Largo de desarrollar.
 Altos costos iniciales en el desarrollo de la interfaz.
 Dificultad para instalación.
La arquitectura cliente-servidor define una relación entre el usuario de una estación de trabajo y un
servidor posterior de archivos, impresión, comunicaciones, u otro tipo de sistema proveedor de
servicios. El cliente debe ser un sistema inteligente con su propia capacidad de procesamiento para
descargar en parte al sistema posterior (ésta es la base del modelo cliente-servidor). Esta relación
consiste en una secuencia de llamadas seguidas de respuestas. Situar servicios de archivos (u otro tipo de
servicios) en sistemas posteriores dedicados tiene muchas ventajas. Es más sencillo realizar el
mantenimiento y la seguridad de servidores situados en un mismo lugar, y más simple el proceso de
realización de copias de seguridad, siempre que los datos se encuentren en una única ubicación y una
misma autoridad los gestione.

En una relación cliente-servidor el procesamiento se divide entre las dos partes. El sistema cliente
ejecuta una aplicación que muestra una interfaz de usuario, da formato a las peticiones de los servicios
de la red y muestra la información o los mensajes enviados por el servidor. El servidor realiza el
procesamiento posterior, como por ejemplo una clasificación de datos o la realización de un informe.
Debido a que los datos se encuentran perfectamente accesibles, el cliente realiza este proceso de forma
eficiente. Después de la clasificación, realización del informe o de cualquier otra tarea solicitada por el
usuario, el servidor envía los resultados al cliente. El tráfico en la red se reduce debido a que el cliente
únicamente obtiene la información que solicitó, no todo el conjunto de datos, como en el ejemplo
anterior

El sistema cliente servidor, además, mantiene una distribución cooperativa entre los clientes procesando
y transfiriendo las peticiones entre clientes. Los Sistemas PACS y RIS están basados principalmente en
una relación cliente-servidor. Existen múltiples configuraciones posibles cliente-servidor. La
configuración usual pequeña, es que varios clientes (o WS) se encuentren conectados a un mismo
servidor.

Ventajas:
 Adaptable a los usuarios.
 No atado a un único proveedor.
 Costos iniciales bajos.
 Rápido de desarrollar.
 Fácil de instalar.
 Fácil comunicación a través de las plataformas instaladas.
Inconvenientes:
 Puede existir redundancia en los datos
 Riesgo en la consistencia de los datos

Arquitectura Distribuida la sucesión de varias arquitecturas cliente/servidor, donde las aplicaciones y los
datos pueden estar distribuidos en más de un servidor y que a su vez permite el trabajo cooperativo de
toda la red. La división de los recursos en una arquitectura distribuida reduce el tráfico de la información
por la red.

Este tipo de arquitectura es muy utilizada en entornos médicos, principalmente en Telerradiología,


permite recibir las imágenes de forma rápida y manipular las imágenes que se encuentran en los
diferentes servidores. Un sistema de Telerradiología basado en arquitectura distribuida posee un
desarrollo evolutivo de los sistemas cliente-servidor de computadoras en red LAN. Las aplicaciones
Telemáticas en red distribuida son fundamentalmente aplicaciones cliente-servidor a gran escala. Los
datos no se sitúan en un único servidor, pero sí en muchos servidores que podían encontrarse en áreas
geográficamente dispersas, conectados por enlaces de redes de área extensa (WAN acrónimo en inglés
Wide Area Network). Tales sistemas permiten la autonomía a grupos de trabajo, departamentos, ramas y
divisiones de las organizaciones de salud.

Ventajas:
 Utilización de componentes estandarizados.
 La redundancia de los datos disminuye al ser almacenadas en diferentes puntos de la red.
 Los mensajes dentro de la red pueden ser codificados.
 Bajo coste de instalación.
 La instalación puede ser realizada por el usuario (sistemas plug and play).
Inconvenientes:
 Las interfaces no estandarizadas pueden tener problemas para comunicarse con la red.
 La administración de las bases de datos es más difícil.

De las tres arquitecturas mencionadas, las dos últimas son las más utilizadas para redes de Radiología
Digital y Telerradiología (muy útiles en zonas de población dispersa y en zonas rurales). Son arquitecturas
atractivas por su bajo coste de instalación y la posibilidad de utilizar además de las redes internas de los
servicios de radiología, líneas telefónicas, e Internet, permitiendo el intercambio entre radiólogos y otros
especialistas.
Las arquitecturas descentralizadas, permiten realizar el diagnóstico primario de calidad, rápido y con un
alto grado de eficiencia. La integración de los servicios de Telerradiología dentro de la mecánica del
funcionamiento clínico permite tomar decisiones rápidas y descartar estudios complementarios
innecesarios.

Los objetivos de las arquitecturas de red cliente-servidor descentralizadas en Radiología Digital son:
 Mayor disponibilidad de la red: Mejora la eficiencia operativa y los tiempos de respuesta.
Al mismo tiempo, se pueden atender los problemas en la red de forma rápida.
 Reducir el coste operativo de la red: La reducción de los costes es uno de los motivos
principales detrás de la gestión de red. Como la tecnología cambia tan rápidamente, con
frecuencia es necesario gestionar sistemas heterogéneos y múltiples protocolos.
 Reducir atascos en la red: La administración de la red se puede realizar desde un sitio
central y así controlar centralmente las tareas de la red. En otros casos, estas actividades
pueden estar distribuidas en diferentes sistemas de la red para evitar los atascos.
 Incrementar la integración y flexibilidad de operación: Las tecnologías de redes están
cambiando muy rápido para atender nuevas necesidades de los usuarios. Además de
salir nuevas aplicaciones, los protocolos utilizados en las redes están siendo más
eficientes. La red deberá permitir absorber nuevas tecnologías al menor costo posible y
contar con la posibilidad de agregar nuevos equipos y tecnología sin mucha dificultad.
Las aplicaciones de gestión de red no deben ser muy dependientes de la plataforma para
su funcionamiento.
 Mejorar la eficiencia: En ocasiones, los objetivos de la gestión de red se superponen. Si
reducimos el costo operativo de la red y mejoramos la disponibilidad de la red, la
eficiencia global aumentará. Se pueden considerar factores como: utilización, costo de
operación, costo de migración y flexibilidad.
 Facilidad de uso: La interfaz para el usuario final es crítica para el éxito de cualquier
producto. El uso de aplicaciones en red no debe implicar una curva de aprendizaje
mayor. Las interfaces de usuario basadas en los principios y tecnología orientada a
objetos son de mucha ayuda para las aplicaciones en red.

La Red de Radiología Digital se concibe como una extensión virtual de los departamentos de radiología y
los servicios que estos brindan, pudiéndose compartir los recursos humanos, los procedimientos
diagnósticos y la base de conocimientos entre diferentes especialistas. Atendiendo a los escenarios
donde se implante una Red Radiología Digital y de Telerradiología su localización geográfica se puede
clasificar en:

Servicio de área local: Generalmente se implanta en el mismo centro de salud o en edificios adyacentes.
El especialista revisa las imágenes que se generan en el departamento de radiología y reporta en tiempo
real a otros departamentos del centro. Además, puede ofrecer asistencia remota dentro del centro a los
servicios de cuidados intensivos, urgencia y sala de quirófanos. Generalmente es un servicio vinculado al
sistema de Red de Radiología Digital intrahospitalario.
Servicio de área metropolitana: En la misma ciudad. Los especialistas de un hospital de referencia
pueden ofrecer servicios de informes y consultas a otros hospitales y centros de salud dentro de la
misma área metropolitana.
Servicio de área extensa o globales: Son servicios que cubren toda una región geográfica o incluso
diferentes países. En este caso especialistas de centros de referencia realizan diagnóstico primario a
centros de salud rurales y se realizan consultas entre centros para la interpretación de imágenes de
diferentes zonas geográficas. Los especialistas de un hospital pueden informar imágenes para otros
colegas de otros hospitales ubicados en distintas ciudades.

Red de Área Local Las telecomunicaciones y las comunicaciones en red son el eje central de la Radiología
Digital, los PACS y la Telerradiología. Sin ellas, nada entra en la WS o sale de ella.

Ancho de banda: El ancho de banda es la cantidad de información que puede transmitirse por un canal,
medida en bits por segundo. Por ejemplo, Ethernet tiene un ancho de banda de 10 Mbps (esto significa
Megabits por segundo) y la Interface de Datos Distribuidos por Fibra (FDDI acrónimo en inglés de Fiber
Distributed Data Interface) tiene un ancho de banda de 155 Mbps.

LAN: Una LAN es un grupo de computadoras, cada una equipada con una tarjeta adaptadora de red y
software apropiados, que comparten las aplicaciones, la información y los periféricos. Como todas las
conexiones se realizan mediante cable o por medios inalámbricos, una LAN no utiliza el servicio
telefónico. Una LAN típicamente cubre un único edificio o área geográfica reducida y generalmente está
conectada a través de un “Hub” (concentrador) para que cualquier WS pueda conectarse con cualquier
otra WS o dispositivo ubicado en la red.

Hay distintas formas de interconectar (“cablear”) una LAN:


1- La más común es la que utiliza una topología en estrella, en la que cada punto de la red se une
con un tramo de cable conectado al “Hub”. En una red con topología en estrella, los nodos están
conectados a un dispositivo o punto central en forma de rayos. Si falla el Hub es capaz de poner
en compromiso todo el funcionamiento de la red.
2- Otro de los métodos es el “Token Ring”, que es una red de 4 Mbps o 16 Mbps que utiliza una
topología lógica en anillo pero una topología física en estrella. Utiliza la circulación de un
mensaje (token) para habilitar la transmisión en la red. Cada anillo puede incluir hasta 256
estaciones.

Además de la topología, existen los “medios”, los “protocolos” y los “sistemas operativos de red”. Los
medios son los cables. El cableado por lo general es a través de cables de cobre del tipo par trenzado sin
blindaje (UTP acrónimo en inglés de Unshielded Twisted Pair). Existen distintos tipos de cables según sus
medidas y características eléctricas. Se clasifican en 5 categorías: UTP 1, 2, 3, 4, y 5. Por lo general,
cuanto más grueso es el cable, mejor es la calidad.

UTP-Categoría 3 Los cables UTP-Categoría 3 son utilizados en tecnologías Ethernet hasta 10 Mbps de
velocidad.
UTP-Categoría 4 El cable UTP-Categoría 4 es el mínimo requisito para la instalación de redes Token Ring
de 16 Mbps.
UTP-Categoría 5 Por último, el cable UTP-Categoría 5 acepta hasta 100 Mbps de velocidad, aunque se
puede alcanzar una velocidad de 155 Mbps con la implementación de ATM en un entorno LAN.

Otros medios incluyen el cable coaxial (como el de TV) y la fibra óptica. La máxima velocidad la ofrece la
fibra óptica.

La FDDI constituye un estándar de red que transmite a velocidades de hasta 100 Mbps a través de un
doble anillo de fibra óptica. Una red FDDI puede incluir hasta 500 estaciones a lo largo de
aproximadamente 1,6 kilómetros de fibra. FDDII es sólo para la transmisión de datos. FDDIII permite la
transmisión tanto de la voz como de datos.

Todo este cableado termina en un conector que se asemeja al enchufe telefónico (comúnmente llamado
“jack”). Es un enchufe de teléfono, pero es más grande y se denomina “RJ-45” de 8 cables que puede
utilizarse con Ethernet o un PBX (“Private Branch Exchange” utilizados para conectar redes telefónicas).
Si lo utiliza para un teléfono, el cable será plano. Si es para ser utilizado en red, será redondo y trenzado.
Si utiliza el cable plano para la conexión en red, reducirá el rendimiento de su red de manera sustancial.

La LAN es más rápida comparada con otras formas de telecomunicaciones (por ejemplo las Redes de
Área Extendida, WAN acrónimo en inglés de “Wide Area Network”). Un punto fácil de referencia es que
una red LAN que utiliza la norma Ethernet debería tener una velocidad de señal de 10 Megabits por
segundo. Aún con una eficiencia del 35%, esto representa 3.5 Mbps. Un canal T1 posee una velocidad de
señal de 1.5 Mbps, sólo 1/3 de esa velocidad.

Redes de Área Extendida El Servicio Telefónico Liso y Llano (POTS acrónimo en inglés de Plain Old
Telephone Service) es la red telefónica analógica tradicional que permite un flujo máximo de 56.000 bits
(no Bytes) por segundo. En la mayoría de los casos, salvo circunstancias inusuales, POTS no acepta una
velocidad máxima mucho mayor que 19.200 o 22.600. Estas líneas son sumamente lentas para la
mayoría de los sistemas de Radiología Digital, PACS y aplicaciones de Telerradiología no comprimidas. Sin
embargo, han resultado eficaces para aplicaciones de telerradiología “on-call” comprimida, en
modalidades digitales como TC, US, RM y MN.

Las RDSI son líneas telefónicas digitales que alcanzan 128 kbits por segundo en una línea telefónica. Se
presentan en dos formas: la Interfase de Régimen Básico (BRI) es un servicio RDSI que ofrece dos canales
B (“bearer”) de 64 Kbps que pueden usarse para transferir voz, datos y vídeo, y además un canal D (“data
link”) de 16 Kbps para información de control y señalización. Y la Interfase de Régimen Primario (PRI).
Una Red está estratificada en siete capas (“layers”) o niveles, a menudo llamadas Modelo para la
Interconexión de Sistemas Abiertos (OSI acrónimo en inglés de Open System Interconnection). Las siete
capas son las siguientes:

 Física (por ejemplo, Ethernet 10BaseT o Token Ring).


 Enlace de datos (un controlador específico para tarjeta de redes).
 Red (por ejemplo, IP-Protocolo de Internet).
 Transporte (TCP o Protocolo de Control de Transmisión).
 Sesión (por ejemplo, Telnet, FTP, SNMP o SMTP).
 Presentación (por ejemplo, Sistema de Archivo Remoto).
 Aplicación (por ejemplo, NFS-Sistema de Archivo en Red)

Realizar una explicación detallada de estas siete capas sería algo confuso e inútil. En realidad, esta
estructura en capas de la red es una abstracción a la que se adapta la variable real.

Existen varios protocolos para intercambio de datos y acceso a redes:

NetBIOS Desarrollado por IBM y NetBEUI es la versión desarrollada por Microsoft. NetBEUI significa
Interfase de Usuario Extendida de NetBIOS. Estos protocolos no cuentan con algunas capas, en especial
la capa de red y no pueden ser encaminados en una red.

IPX/SPX IPX (Intercambio de Paquetes entre Redes) es un protocolo de comunicaciones para las capas
inferiores de la red implementado por Novell, complementado ampliamente por SPX. SPX significa
Intercambio Secuencial de Paquetes; se trata de un protocolo de transporte para el intercambio de datos
en red que utiliza el protocolo de capas de red IPX.

TCP/IP Protocolo de Control de Transmisiones/ Protocolo Internet es un protocolo muy utilizado en


Internet. Es el protocolo para la capa de transporte. Su uso se ha difundido de manera considerable en la
intercomunicación de redes en el ámbito de empresas debido a su diseño superior para las WAN. TCP
regula la secuenciación de los paquetes IP para su transmisión. IP dentro de TCP/IP es la capa de red
inferior. A menudo se emplea con el término “TCP/IP” para referirse genéricamente al conjunto de
protocolos relacionados. DICOM 3.0 utiliza TCP/IP como su protocolo de comunicación. DICOM es una
norma que constituye un referente para la comunicación de imágenes médicas. Se basa en el Modelo
para la Interconexión de Sistemas Abiertos (OSI), que define un protocolo de siete capas. Se trata de una
norma para la capa de aplicación, lo que significa que se encuentra dentro de la capa siete (la capa
superior). DICOM ofrece formatos de imágenes estandarizados, un modelo de información común,
definiciones de servicios de aplicación y protocolos de comunicación.
SLIP O Protocolo Internet en Serie, es utilizado para ejecutar TCP/IP (Protocolo Internet) en líneas serie,
como por ejemplo las líneas telefónicas. Por lo tanto, se puede obtener una cuenta “SLIP” de un servidor
de Internet local, contratar una cuenta a un ISP (Internet Service Provider) que dará una conexión SLIP a
través del proveedor.

PPP O Protocolo Punto a Punto, permite conexiones de router a router y del host (computadora central)
a la red de modo sincrónico y asincrónico. Se lo considera una versión avanzada del protocolo SLIP. Los
servidores de Internet ofrecen la opción de conexión PPP en vez de una SLIP ya que es más estable y
menos proclive a interrupciones y desconexiones. Los fax utilizan en la actualidad protocolos PPP
incorporados.

Para aplicaciones pequeñas y medias, todas las configuraciones de red han probado ser muy buenas, las
diferencias se dan cuando se necesitan altísimos regímenes transaccionales, y dependen de como se
incorporen nuevas características. Cada nueva versión puede modificar las anteriores.

4- Dispositivos de entrada salida

Spoolers: Con las nuevas tendencias en informática y las arquitecturas distribuidas, hoy se puede utilizar
un Spooler (Spooler significa Operaciones Periféricas Simultáneas en Línea) que acepta múltiples
entradas (por lo general múltiplo de 4) por tarjeta de “Frame Grabber” y acepta tantas imágenes de
tantos casos como sea necesario. La función del Spooler es agrupar las imágenes en casos (es decir,
carpetas) para la impresión en película o su almacenamiento posterior. También se puede editar las
imágenes o incluso agregar comentarios acerca de éstas en un caso antes de imprimirlas.

Con los protocolos de red TCP/IP como DICOM 3.0, se “interconectan por red” a través de la LAN los
dispositivos de captura y la impresora láser. Así que, para cualquier TC, RM, US, dispositivo de Angio e
inclusive una sala de Fluoroscopía Digital DICOM, se podrán conectar directamente por red a una
impresora o un Spooler de impresión, un sistema archivo y las estaciones de revisión, todos al mismo
tiempo.

De igual forma se puede acceder a estos dispositivos a través de la WAN e imprimir desde un sitio
remoto. Sólo que en lugar de un Hub, será necesario un Router (encaminador: dispositivo de red) y la
velocidad estará sujeta al ancho de banda de la red telefónica.

Frame grabbers Las imágenes No Digitales o la señal de vídeo pueden ser capturadas por sistemas
“frame grabber”, que básicamente consiste en digitalizar un cuadro congelado de una fuente de vídeo.

Puesto que lo visualizado está diseñado para ser percibido por la vista, y básicamente el ojo humano
puede distinguir 256 niveles de gris, “frame grabbing” (conversión de la señal de consola) es un proceso
de 8 bits, a diferencia de una imagen DICOM que tiene 16 bits por pixel.

Todos los dispositivos de US y algunos de MN tienen una salida de “vídeo estándar”, o la misma señal
sincronizada que proviene de detrás del monitor hacia la grabadora de vídeo. Se la llama RS-170 (o PAL
en Europa).
Todos los demás, TC, RM, Angio, Fluoro, etc, tienen una salida de señal de vídeo no estándar, propietaria
del fabricante. El número de líneas de barrido y la frecuencia varían enormemente por lo que sus tarjetas
de “frame grabber” estándar de PC sólo funcionarán en unos pocos dispositivos médicos. Estas
especificaciones no estándar requieren tarjetas que puedan ser ajustadas o adaptadas a la señal de vídeo
en particular desde la que se quiere capturar. La captura y entrega de las imágenes médicas desde la
consola se realiza con un avanzado sistema de alta definición y alta velocidad, que permiten obtener
imágenes de hasta 1280x1024 a 8 bits por pixel a 60 Hz.

Muchos dispositivos no son compatibles con las Clases de Servicios DICOM 3.0 requeridos, tales como
DICOM Print. Para obtener imágenes digitales con estos dispositivos o para transferirlas a una red
compatible con DICOM, será necesario uno de varios dispositivos de entrada secundarios o las llamadas
“cajas negras” de los propietarios de los equipos de radiología.

Digitalizadores: Láser y CCD Existen tres tipos de técnicas básicas de digitalización de radiografías:

Cámara en un soporte: Se envía una luz a través de la placa radiográfica, similar a un proyector de
transparencias y es capturado por una cámara. La calidad y el coste de este procedimiento son bajos y
prácticamente no se utiliza debido a que no son aceptados por las normativas internacionales para
efectuar el diagnóstico primario.

Sistema CCD: (Acrónico en inglés de Charged Coupled Device). Se utiliza una luz fluorescente especial
para iluminar la placa y el sistema CCD va recogiendo la información con detectores. Estos sistemas
tienen un inconveniente que es el “bleeding” por superposición de luz diseminada. Sin embargo, los
sistemas CCD tienen una longitud de onda dinámica por lo que las regiones oscuras quedan mejor
iluminadas.

Tecnología Láser: Utiliza luz láser para iluminar la placa y se recoge la información con
fotomultiplicadores. No tienen “bleeding” pero a diferencia de los sistemas CCD no tiene rango dinámico
de sensibilidad.

Los escáneres de Placas Radiográficas son utilizados para digitalizar películas, por ejemplo, convertir
información análoga almacenada en la placa radiográfica en un conjunto de datos digitales. Estos envían
la información digital al PC a través de uno de los puertos de entrada/salida de datos de la PC o con la
utilización de tarjetas SCSI montadas sobre la placa base de la unidad central.

La fuente de luz utilizada en los Escáneres de Películas Láser es un rayo infrarrojo cuidadosamente
focalizado, coherente y monocromático o un láser rojo visible. El rayo láser debe estar posicionado con
precisión y barrer toda la película bajo el control del PC, mientras que la luz transmitida a través de la
película es detectada de manera eficiente por dispositivos de alta ganancia y muy bajo ruido, los cuales
poseen amplificadores electrónicos de conversión análogo-digital para su entrada al PC. Esto hace que el
dispositivo sea sumamente preciso, costoso y que requiera ciertos componentes que de alguna manera
lo hacen más pesado que un Escáner del tipo CCD. Es necesario saber que hay consideraciones muy
técnicas e importantes que hacen que la densidad óptica del Escáner de Películas Láser sea más lineal y
restringida; el control de la luz láser sobre el área barrida brinda una resolución espacial precisa
independiente de la densidad de la película y, de este modo, digitaliza la información sobre la placa
radiográfica sin distorsión. En consecuencia, un Escáner Láser es más adecuado para aplicaciones de
imágenes médicas primarias, que los CCDs.

Los mejores Escáneres Láser ofrecen una densitometría de barrido donde la información digitalizada
derivada del Escáner representa con total precisión la verdadera información sobre la densidad de la
película en todos y cada uno de sus puntos. Este es un logro característico de una fuente de luz puntual y
de las técnicas especiales de procesamiento de la luz en un Escáner Láser que traspasa la película, a
diferencia de un Escáner CCD cuya fuente de luz es una línea de luz blanca derivada de un tubo
fluorescente.

Los Escáneres CCD son físicamente bastante similares a los Escáner de documentos. Un CCD es un
dispositivo (un conjunto de detectores de estado sólido) similar al que se encuentra en una cámara de
vídeo común o filmadora; es utilizado para capturar y digitalizar imágenes. Los datos digitales, por
ejemplo, pueden ser enviados al PC a través de un cable y una tarjeta SCSI. Los Escáneres CCD actuales
pueden brindar 12 bits de datos en escala de gris en un rango dinámico limitado (los últimos 4 bits de los
16 bits son por lo general 0) y barren con resolución de hasta 4096 x 5120 pixels.

Los dos sistemas Láser y CCD son aceptados por la ACR y la CEN como sistemas de digitalización de
radiografías para diagnóstico primario. El hecho de que la salida de archivos de estos dispositivos sea
compatible con DICOM depende del software empleado, no del fabricante del Escáner. Todo lo que el
Escáner hace es transiluminar la película y brindar un flujo de datos digitales de Unos y Ceros. Una vez
que los datos llegan a la PC, la adaptación de la imagen adquirida al formato DICOM depende del
fabricante del software.

Radiografía computarizada: Existe desde hace unos 20 años. La tecnología básicamente consiste en
sustituir una placa de fósforo de almacenamiento por una placa fosforescente emisora de luz dentro del
chasis radiográfico. La placa de fósforo captura la energía de los rayos x que atraviesan al paciente y al
ser expuesta a luz proveniente de un rayo láser que excita la energía atrapa y es emitida esta energía a
su vez en forma de luz visible. La tecnología está diseñada para obtener una imagen latente. Esta imagen
latente es “leída” posteriormente por una serie de dispositivos electrónicos y de amplificación, con lo
que se crea la imagen digital final.

Este dispositivo es el “lector”. Una vez que existe la imagen digital, ésta puede ser procesada, filtrada y
retocada matemáticamente para ser mejorada. Luego puede ser visualizada en un monitor, ser impresa
en una buena película o simplemente almacenada. Al principio, los beneficios de la Radiografía
Computarizada eran principalmente la reducción en las tasas de repetición y descarte para placas
radiográficas portables, esto brindaba densidades de película más consistentes y deseables, y la
posibilidad de someter a las imágenes a “unsharp masking” (el no resaltado de bordes con máscara) y a
otros algoritmos antes de imprimirlas en película.
 Las empresas que han llegado al mercado de los sistemas CR son: Fuji, Agfa, Kodak, Konica y
Philips.

El mundo DICOM. En las unidades de radiología de los hospitales, es muy común encontrarse con
equipos de varios fabricantes, para las diferentes modalidades de imágenes que se generan; el tratar de
integrar todos ellos en un sistema que los manipule es prácticamente imposible. Por lo que surgió la
necesidad de estandarizar el manejo y transmisión de imágenes médicas digitales.

En 1983, con la integración de un comité formado por el Colegio Americano de Radiología (ACR acrónimo
en inglés de “American College of Radiology”), representando a la comunidad de radiólogos y la
Asociación del Fabricante Eléctrico Nacional (NEMA acrónimo en inglés de “National Electrical
Manufacturer Association”), representando a la industria en el área de radiología, de acuerdo a los
procedimientos establecidos por NEMA. Los objetivos iniciales fueron trabajar con los diferentes
problemas de compatibilidad, con el fin de compatibilizar los ambientes propietarios de las diferentes
modalidades de imágenes. Específicamente:

1- Promover la comunicación entre imágenes digitales independientemente del fabricante que las
produjo.
2- Ofrecer mayor flexibilidad a los sistemas de almacenamiento y comunicación de imágenes.
3- Facilitar la creación y consulta a sistemas de diagnóstico por diferentes dispositivos y en diversos
lugares locales o remotos.

Los primeros resultados en los trabajos de estandarización fueron publicados en 1985, ACRNEMA
Versión 1.0, teniendo como base ideas obtenidas de formatos ya existentes. Por ejemplo, la definición de
elementos de datos de longitud variable identificados con etiquetas (formato de etiquetas), fue
adoptada de un estándar para grabar imágenes en cinta magnética, desarrollado por la Asociación
Americana de Físicos en Medicina (AAPM). Sin embargo, como todas las primeras versiones, se
detectaron varios errores y el comité encargado (ACR/NEMA) autorizó a los grupos de trabajo
involucrados, la realización de dos revisiones en Octubre de 1986 y en Enero de 1988, que produjeron
una segunda versión, ACR-NEMA Versión 2.0, en 1988.

En esta nueva versión se conservaron prácticamente las mismas especificaciones de interfaz con
hardware definidas en la versión 1.0, pero se agregaron nuevos elementos de datos y se corrigieron
varios errores e inconsistencias. En esta versión se especificó la comunicación punto a punto entre
dispositivos, un grupo de comandos por software y varios formatos de datos correspondientes a los
nuevos elementos.

En el tiempo que se dio a conocer la segunda versión, surgió la demanda de interfaz entre dispositivos
involucrados en la generación, manejo de imágenes y redes de cómputo, sin embargo, el estándar no
ofrecía ningún soporte de comunicación en red. La respuesta a estas demandas implicaba grandes
cambios a lo ya establecido, considerando como restricción principal el mantener la compatibilidad con
las versiones anteriores. De esta forma, a partir de 1988 se comenzó a trabajar en una tercera versión,
en donde el proceso de diseño sufrió un cambio radical adoptando modelos para simular el mundo real,
modelos de capas o pila para comunicación entre sistemas heterogéneos utilizando protocolos de
comunicación en red y el modelo de cómputo Cliente/Servidor para establecer asociaciones entre
dispositivos compatibles, a través de envío de mensajes.

Después de tres años, se dio a conocer la versión ACR/NEMA DICOM (acrónimo en inglés de Digital
Imaging and Communications in Medicine) llamada también DICOM 3.0, en la que participaron también
varias instituciones de la comunidad internacional como JIRA (acrónimo en inglés de Japanese Industry
Radiology Apparatus) y CEN (acrónimo en francés de Comité Européen de Normalisation / European
Committee for Standardization). Esta versión es considerada como un estándar completo, compatible
con las versiones anteriores. Las principales características de DICOM son:

1- Intercambio de objetos en redes de comunicación y en medios de almacenamiento a través de


protocolos y servicios, manteniendo sin embargo, independencia de la red y del almacenamiento
físico. Todo esto a través de comandos definidos por una sintaxis y una semántica, a los que se
les asocian datos. Las versiones anteriores sólo ofrecían comunicación punto a punto.
2- Especificación de diferentes niveles de compatibilidad. Explícitamente se describe como definir
un determinado nivel de compatibilidad, para escoger sólo opciones específicas de DICOM. En
las versiones anteriores se especifica un nivel mínimo únicamente.
3- Información explícita de Objetos a través de estructuras de datos, que facilitan su manipulación
como entidades autocontenidas. Los Objetos no son únicamente imágenes digitales y gráficas,
sino también estudios, reportes, etc
4- Identidad de objetos en forma única, como instancias con operaciones permitidas definidas a
través de clases.
5- Flexibilidad al definir nuevos servicios.
6- Opera entre servicios y aplicaciones a través de una configuración definida por el estándar,
manteniendo una comunicación eficiente entre el usuario de servicios y el proveedor de los
mismos.
7- Representación de aspectos del mundo real, utilizando objetos compuestos que describen un
contexto completo, y objetos normalizados como entidades del mundo real.
8- Sigue las directivas de ISO en la estructura de su documentación multipartes. De esta forma
facilita su evolución, simplificando la adición de nuevas partes.

Los beneficios obtenidos de estos servicios son el poder interrelacionar los diferentes sistemas de
información en un hospital, como los Sistemas PACS, Sistemas de información de radiología RIS
(acrónimo en inglés de Radiology Information Systems) y sistemas de información hospitalaria HIS
(acrónimo en inglés de Hospital Information Systems).

En los sistemas PACS es donde su aplicación tiene mayor relevancia, dado que los servicios ofrecidos por
DICOM pueden ser utilizados por los diferentes ambientes que generan y utilizan imágenes médicas de
diagnóstico, manteniendo la operatividad entre ellos.
1- DICOM agrega la posibilidad de conexión en red utilizando como base los protocolos TCP/IP y los
propuestos por ISO/OSI (acrónimo en inglés de International Standards Organization/Open
Systems Interconnection). De esta forma se aprovechan los protocolos definidos en las capas
inferiores tanto de TCP/IP como de ISO/OSI y define los protocolos necesarios en las capas
superiores para soportar la comunicación entre aplicaciones en forma eficiente.
2- El estándar DICOM 3.0 soporta el protocolo de comunicación TCP/IP, por el que se implementan
los soportes de comunicación a través de medios e infraestructura de redes variadas y
relativamente comunes (por ej. Ethernet, ATM, fibra, cableado UTP-5).
3- Un dispositivo DICOM puede ser cualquier cosa, desde una estación lectora, hasta una estación
de revisión preliminar, o un Tomógrafo Computado o Resonador Magnético, o un lector láser de
Radiografía Computada, un archivo en disco o un Gateway DICOM.
4- Un dispositivo DICOM “Proveedor de Almacenamiento” (SCP acrónimo en inglés de “Service
Class Provideer”), puede brindar imágenes en formato de archivo DICOM, a través de una red
que utiliza protocolos DICOM estandarizados (TCP/IP). Es decir, “empuja” a las imágenes a
equipos tales como una impresora láser compatibilizada con DICOM, la cual es un “usuario de
almacenamiento” (SCU acrónimo en inglés de “Service Class User”), un Spooler DICOM SCU, una
WS DICOM SCU o archivo DICOM SCU.
5- Un proveedor DICOM de Consulta/Recuperación (Query & Retrieve) es cualquier dispositivo
DICOM que puede consultar otros dispositivos DICOM de Consulta/Recuperación en la red para
encontrar casos e imágenes y, si se desea, recuperarlos: a su vez, puede brindar los resultados de
una consulta DICOM originada en otro dispositivo DICOM de Consulta/Recuperación y, si es
requerido por ese dispositivo, entregar los archivos de imágenes DICOM a través de la red.

Las WS DICOM, por supuesto, necesitan:


Proveedor Mostrar imágenes recibidas a través de dispositivos de adquisición.
Almacenamiento Almacenar imágenes recibidas para luego mostrarlas.
Consulta/recuperación: Ser capaces de encontrar y recuperar en la red imágenes de los dispositivos de
almacenamiento y adquisición.
Las impresoras son una parte importante en todo el sistema de Entrada/Salida de la red de imagen
digital. Es el lugar donde finalmente se realiza una copia en placa o papel del resultado de todo el
proceso de digitalización, si ello es necesario.

La más simple de las redes conecta dos ordenadores, permitiéndoles compartir archivos e impresión. En
un Hospital donde su departamento de radiología funciona sin placas, algunas veces se hace necesario la
impresión de placas. Funcionar sin placas no quiere decir necesariamente que no se impriman. A veces
ocurre que un paciente debe ser trasladado a otro centro asistencial con el cual no existe conectividad
para envió directo de radiografías, o simplemente se desean obtener placas radiográficas para secciones
científicas. Entonces, desde una WS debe ser posible ordenar la impresión de copias sobre película
cuando se precise o la obtención de copias permanentes sobre soporte sensible o papel, se dispone de
dos tipos de terminal básico. En la actualidad en el mercado de radiología digital existen varios tipos de
impresoras:
1- Las impresoras habituales que todos conocemos que utilizan sistemas muy sofisticados para
imprimir placas utilizando tanques adicionales donde se colocan los reactivos para el revelado de
placas.
2- El sistema de impresión térmica muy utilizado en redes digitales de Medicina Nuclear o
Ecografías.
3- El sistema de barrido por rayo láser de alta resolución denominados “Dry Printers” (impresoras
en seco).
4- Las impresoras en seco han venido a revolucionar las redes de radiología digital, ya que evitan la
utilización de reactivos para la obtención de radiografías.

En este tipo de tecnología se realiza un barrido por rayo láser sobre la superficie a registrar. Estos
equipos permiten la presentación en multiformato de imágenes procedentes de distintas fuentes
digitales (TAC, RMN, DIVAS, MN), y la presentación en formato real de gran tamaño (35 x 43 cm). La
resolución espacial de las copias así obtenidas es muy elevada, hasta 4000x5000 puntos, con una gama
de densidades o grises de 4096 niveles. La calidad de impresión de imagen parece adecuada en los
estudios practicados. En la conexión con las redes de imagen digital se puede optar por ceder las tareas
de configuración de las imágenes a la impresora o enviar a la impresora imágenes ya compuestas por la
WS. La impresora puede estar conectada a una estación concreta, al servidor de base de datos, o bien
tener un acceso directo a la red de datos. Esta última solución permite imprimir rápidamente desde
cualquier WS.
______________________________________________________________________________
UNIDAD 8. – EL SISTEMA PACS-RIS-HIS

Introducción. La evolución en los últimos años de la tecnología de la informática y de las redes de


comunicación ha conducido a la multiplicación de los PACS y han sido probados con efectividad en
muchos hospitales de casi todo el mundo. Un PACS es un sistema específico de almacenamiento digital,
transmisión, descarga y distribución de las imágenes radiológicas obtenidas a través de las diferentes
técnicas. Sin embargo, no se puede ver un PACS como una suma de aparatos interconectados, sino más
como un medio, un concepto de intercambio de información basado en imágenes, sonido y datos entre
médicos, servicios y hospitales. Es un concepto de integración de la información hospitalaria abierto al
mundo de la comunicación mundial. Es un nuevo concepto multimedia aplicado al ambiente hospitalario.
Actúa de manera conjunta con: los sistemas de información radiológica (RIS) y los sistemas de
información hospitalaria (HIS).

Esta unidad contiene los siguientes puntos:


Sistema.
Planificación para PACS.
Pasos de implantación de un PACS.
Radiaciones no ionizantes.

8.1Sistema. Como sabemos, los objetivos de un PACS son:


1. la captura de imágenes medicas
2. La gestión de imágenes medicas
3. La trasmisión de imágenes medicas
4. La exhibición de imágenes medicas
Sus componentes son:
1. Interfaces para equipamiento de imagen.
2. Redes de comunicación.
3. Sistemas de archivo.
4. Estaciones de trabajo para la exhibición de imágenes.
5. Software de gestión de base de datos.

Así, un PACS no es algo aislado en un campo de información, sino que comparte esa información con
otros sistemas como RIS, HIS y el sistema de desarrollo de información (DIS acrónimo en inglés de
Development Information System), generalmente encargado de toda la gestión económico-
administrativa del hospital.

En el RIS se almacenan los datos sobre los turnos, exámenes, lista de trabajo, datos útiles sobre los
pacientes a examinar; los cuales son de vital importancia para un PACS (que puede usar ese
conocimiento para hacer una búsqueda preliminar, desde un archivo de almacenaje a corto plazo en una
estación de trabajo, de los estudios previos de un paciente programado).

Parte de la información utilizada en radiología proviene de diferentes escenarios de un hospital, por


ejemplo, desde el laboratorio clínico. Por otro lado, el HIS comúnmente administra las operaciones del
hospital y los datos demográficos del paciente. Es, también, la fuente de entrada, de descarga e
información de traslado, útiles para búsquedas previas y movimiento de imágenes a sistemas de
almacenamiento a largo plazo, una vez que el paciente fue dado de baja. El HIS es el encargado por
definición de la distribución de información por el hospital, por eso debe haber una estrecha conexión
con el PACS, si en él es donde se realiza el informe radiológico, el cual debe ser enviado al HIS para su
distribución.

8.2. Planificación para PACS. Un PACS es un recurso de hospital. La aceptación del usuario es la clave del
éxito del PACS. Los radiólogos y los médicos de otras especialidades tienen criterios diferentes, porque
juzgan el valor de una red de imágenes en su totalidad, o por cada componente de esa red. La
arquitectura y el diseño de un PACS pueden verse desde dos puntos de vista diferentes:

- Primer punto de vista: Cima-Abajo (Hospital-Servicio Radiología).

El enfoque Cima-Abajo está simbolizado por todo el Hospital en conjunto hacia un departamento de
radiología sin película. Tiende a ser diseñado por un amplio sistema de respuestas a cuestiones tales
como:
- Altos costos en placas radiográficas
- Requerimiento de espacios para archivar películas o una tasa de perdida de película muy alta
- Inexistencia de base de datos
- Lentitud en la consulta de expedientes
- Repetición de exámenes

Las ventajas del enfoque Cima-Abajo son: La oportunidad de ganar economía de escala; la agrupación de
cambios en el entrenamiento y operacionales; la simplificación de la planificación e integración; y la
capacidad de tener un punto único de contacto para entrenamiento, mantenimiento y servicio.

Las desventajas de este enfoque son: Los costos deben afrontarse de un golpe; si el sistema fracasa, es
un gran fracaso; puede ser difícil aprovechar los adelantos tecnológicos, y esto puede ser difícil de evitar
sobre y bajo especificación para algunas partes del sistema. El enfoque Cima-Abajo cobra un sentido
particular cuando se planifica un nuevo edificio u hospital.

- Segundo punto de vista: Fondo-Arriba (Necesidad/Problema-Solución).


El enfoque Fondo-Arriba está simbolizado por la solución de un problema concreto: ejemplo sencillo sin
placas; que pueden afrontarse utilizando miniPACS, o PACS parciales. Un miniPACS tiene todos los
componentes de un PACS, pero es un sistema en pequeña escala. Un PACS parcial usa tecnología PACS,
pero no incluye todos sus componentes. El enfoque Fondo-Arriba tiende a ser usado para la solución a
un problema localizado. Por ejemplo, un miniPACS o PACS parcial puede implantarse para proveer una
rápida entrega de imágenes a áreas de cuidados intensivos o de urgencias.

Las ventajas de este enfoque incluyen, un costo inicial inferior y que los fracasos tienen consecuencias
locales. Puede ser más fácil aprovechar los adelantos tecnológicos, las especificaciones pueden
adaptarse al problema en particular o ser resueltos y son más simples para la modelación de los
sistemas.

Las desventajas del enfoque Fondo-Arriba incluyen la pérdida de economías de escala, la necesidad de
múltiple entrenamiento y tantas fases como cambios operacionales sean agregados, la adición de
dificultades de integración e interfaces si hay proyectos múltiples y la necesidad de contactos múltiples
para entrenamiento, mantenimiento y servicio.

8.3. Pasos de implantación de un PACS.

1. El análisis de necesidades reales y futuras es el paso preliminar en la implantación de un PACS en un


Servicio de Radiología. Cuando este paso se ha completado, se deberá determinar el grado en que el
PACS será útil para corregir y mejorar las operaciones. Si se necesita un PACS, lo próximo que deberá ser
establecido es el presupuesto y las limitaciones de tiempo del proyecto.
Se formará un equipo, donde se incluya personal del Hospital y Servicio de Radiología, que realizarán el
estudio. Se recomienda que dicho equipo esté compuesto por:
1- Un gerente, que asumirá la responsabilidad del proyecto
2- Un radiólogo, que ayudara a definir las necesidades
3- Un técnico en radiología, que representara a los usuarios operacionales del sistema
4- Un ingeniero, que conozca de comunicación y base de datos
5- Un experto financiero, que comprenda la planificación y estructura financiera del servicio
6- Un enlace con la institución familiarizado con la información de otra tecnología que puede ser
instalada.
7- Un proyectista, que comprenda de ordenadores y visualización

2. La planificación de la adquisición es el siguiente y no menos importante paso en la implantación de


PACS. Para los contratos grandes de PACS, la precaución de obtener declaraciones firmadas puede
ayudar a impedir, posteriormente, problemas jurídicos de vendedores desconsiderados o no elegidos.

3. Se deben describir concretamente, todos los requerimientos necesarios para las estaciones de trabajo
de diagnóstico primario, revisión y remota, archivos, sistemas de almacenamiento, base de datos,
adquisición de imágenes, digitalizadores de películas, sistema de radiografía computada, estandarización
y comunicación con sistemas HIS/RIS, impresoras de películas y acceso a Internet. El modelo funcional
debe transformarse en una especificación funcional. La especificación funcional, a su vez, puede usarse
para desarrollar los requerimientos de composición del sistema.
4. Las normas y especificaciones existentes deberán usarse, donde sea posible, con Imágenes Digitales y
Comunicaciones en la Medicina (DICOM) especificado como una interfaz para el PACS en sí mismo. Si se
mantiene la conformidad de DICOM, se deberá requerir a los vendedores que sometan sus declaraciones
de conformidad DICOM. El Nivel de Salud 7 (HL7) debería especificarse como una interfaz con el RIS o
HIS.

5. Durante la fase de instalación, la prueba de aceptación puede ser la clave al éxito.

En la prueba de aceptación, debe mantenerse en la mente que la fiabilidad es el criterio más importante
para el éxito de un sistema. Una base para evaluar los períodos de fallos es estableciendo jornadas de 24
ó 14 horas. Un requerimiento típico es uno de 98-99% de operación sin tiempo de avería, lo cual significa
que el sistema estaría averiado 1 o 2 horas cada 4 días.

Antes de implantar un PACS o sistema de Telerradiología, es necesario tener en cuenta varios de los
siguientes puntos

Normas de adherencia Estas normas están relacionadas con el estándar DICOM. La mayoría de los
principales fabricantes ha adoptado DICOM 3.0. En principio, todos los vendedores se encuentran
conformes la clase DICOM SCP, que les permite aceptar datos desde una modalidad DICOM en sus PACS,
y solicitar el soporte de DICOM. Lo qué es igualmente importante, dependiendo de sus necesidades, es la
adhesión a las otras secciones de la norma. Esto incluye: “pedido/recuperación” (query/retreive), que
permite que otros sistemas requieran y recobren imágenes almacenadas en el sistema del formato de
archivo del DICOM; impresión básica y avanzada, que permite imprimir imágenes monocromáticas y de
color; HIS/RIS, que permite eliminar la entrada de datos repetidos, y deja al usuario capturar imágenes e
informes de un archivo y distribuirlas en una estación de trabajo o servidor; y los archivos de seguridad,
que permiten archivar imágenes en un formato estandarizado.

Capacidad de Expansión Generalmente, está ligada con el soporte DICOM. El sistema necesita ser capaz
de crecer para garantizar la inversión hecha no sólo en hardware y software, sino también en
productividad global de los radiólogos, médicos, técnicos de radiología y personal de enfermería.

Utilidad del Sistema Una de las necesidades a evaluar es si las opciones de software ofrecidas por los
vendedores le resultarán herramientas clínicas valiosas, o simplemente, son adornos inútiles. El sistema
necesita ser tan fácil de usar como leer una placa sobre un negatoscopio. Las interfaces gráficas del
usuario intuitivamente diseñadas son la clave.

Diseño del sistema Son necesarios sistemas diseñados de forma que sus componentes provean el
suficiente poder como para tener el trabajo hecho de manera exacta, y permitan la expansión y
recambio a largo plazo. En redes puntoa-punto, como algunas aplicaciones simples de Telerradiología, el
diseño del sistema no es un factor determinante hasta que se desea la expansión de la red. En el PACS a
gran escala, es un componente importante. El uso inteligente de los componentes basados en Windows,
Windows NT y/o Unix debería incluirse en el diseño del sistema para permitir un balance de eficacia y
desempeño de los costos.
Funcionamiento Este se determina en su mayor parte por la aplicación. Las necesidades de los radiólogos
difieren drásticamente de las de los clínicos, y afectan el funcionamiento y costo del sistema. Es
importante considerar cuan buenas son las imágenes en comparación con la película.

Capacitación El entrenamiento adecuado debería incluirse en el precio de compra del PACS. La mayoría
de los vendedores eligen el enfoque de “entrenar al entrenador”, por medio del cual, varios
representantes del hospital entrenarán al personal de enfermería y clínico. Es positivo tener al vendedor
especialista en aplicaciones como conductor del entrenamiento de los radiólogos y técnicos de radiología
por una semana completa, asegurándose así que todos los turnos de trabajo estén cubiertos.

Tiempo de respuesta del servicio Cada vendedor ofrece un tiempo de respuesta de dos horas o menos
de ayuda telefónica. Lo importante es definir el tiempo de respuesta “en el sitio de instalación”. Los
vendedores que no tienen servicio local pueden tomarse 72 horas o más para proveer piezas de
recambio después de un fallo de cualquier componente. Para un componente importante, como puede
ser el servidor de archivos, la estación de diagnóstico primario, el digitalizador de películas o el sistema
de radiología computada, esto puede ser catastrófico. El tiempo típico de respuesta debería ser de
cuatro horas o menos, con el préstamo de los componentes disponibles si las reparaciones no pueden
hacerse dentro de un período predefinido (comúnmente de 48 horas).

LO QUE SE PUEDE HACER CON UN PACS


- Incrementa la productividad de los radiólogos y técnicos en radiología, permitiendo aumentar la
eficacia.

- Sirve como un catalizador para una evaluación técnica del proceso en sentido amplio, no sólo se
identifican las áreas dónde se colocará el PACS sino todo el proceso de cambio que sufrirán otras
áreas que utilizaran el soporte de la imagen digital.

- Aumenta el nivel de satisfacción del médico de atención primaria, ya que se nivela con los
servicios del hospital, pudiendo acceder desde cualquier área, cuando quiera, a las imágenes y
diagnóstico.

- Virtualmente elimina la utilización de las placas, exceptuando la mamografía y las áreas donde se
realice un pedido explícito.

- Elimina los problemas medioambientales relacionados con los productos químicos de las placas
radiográficas y la recuperación de plata.

- Reduce el tiempo de recuperación de imágenes anteriores de pacientes.

- Reduce la exposición, relacionada con segundas radiografías por errores y posicionamiento.

- Reduce los requisitos del almacenamiento en períodos mayores de 10 años.

- Reduce el porcentaje de “tiempo de ocupación equivalente (TOE)” en el presupuesto del


hospital.
- Disminuye el coste por admisión, cuyo impacto se observa en el tiempo de estancia de los
enfermos en admisión.

LO QUE NO SE PUEDE HACER CON UN PACS

- Tener un impacto dramático en el TOE. Los ahorros de la reducción del TOE y la disminución de
puestos de trabajo innecesarios son en parte compensados por el aumento en el coste de
administración del sistema.

- El impacto en el presupuesto de placas radiográficas que típicamente se obtiene se deberá poner


en función del mantenimiento y renovación del PACS.

- Aunque el espacio para almacenar radiografías disminuye considerablemente, esta reutilización


del espacio se realiza escalonadamente debido a que las radiografías existentes no pueden ser
eliminadas, a menos que se digitalicen, lo que supone coste adicional.

- No disminuye la estancia hospitalaria.

- Disminuir los costes de transcripción de informes.

- Aumentar el rédito a costa del aumento de las facilidades económicas en tiempo que ofrece un
sistema PACS.

- Intentar resolver problemas por otras vías, cuando la mejor sea la vía tecnológica.

_____________________________________________________________________________________
UNIDAD 9. – COMPONENTES DE UN PACS

Hoy día se ha demostrado que los PACS son sistemas de gran capacidad, veloces, que permiten un mejor
diagnóstico y una utilización más efectiva de la información hospitalaria. En el futuro próximo puede
preverse que los PACS se constituyan una pieza fundamental dentro del rompecabezas que componen
los diversos sistemas de información presentes en una institución de salud moderna. Entre los motivos
existentes para efectuar dicho pronóstico se pueden identificar:

1- Las organizaciones de salud actuales forman redes complejas de instituciones afiliadas que
brindan un servicio integrado. El intercambio eficiente de información, entre los distintos
sectores y áreas relacionadas con el paciente, necesita de un sistema de comunicación robusto
que incluya todos los datos clínicos del mismo, conformando lo que se conoce como Registro
Médico.
2- Computarizado. Las imágenes de diagnóstico son un eslabón fundamental del mismo.
3- La necesidad de competir bajando costos pero manteniendo o aumentando la eficiencia de los
servicios, e innovando en beneficio de la calidad de atención de los pacientes, seguros de salud y
médicos afiliados, conlleva a las organizaciones sanitarias a buscar en el uso de las tecnologías
informáticas, la generación de nuevas ideas y soluciones. Como consecuencia de esta situación,
la disponibilidad de un PACS es considerada como una ventaja competitiva y una inversión
estratégica para mejorar la productividad y la imagen de la organización en el medio.
4- La disminución de los costos y la maduración de las tecnologías asociadas a los distintos
componentes de un PACS.
5- El desarrollo y aceptación del estándar DICOM 3.0, que permite que los sistemas PACS sean más
fácilmente integrables dentro del marco de un sistema informático hospitalario, y que además
facilita el crecimiento escalonado y modular hacia una implantación de PACS que abarque toda
la organización.

9.2. Tecnología. Un PACS se considera un sistema de alta tecnología que se implanta con la tecnología
más reciente. Está compuesto por las siguientes partes esenciales:

Pero aquí no terminan los componentes de un PACS, quedan tres temas, que aunque no puedan
considerarse como parte tecnológica de un PACS, son vitales en la actualidad para su funcionamiento:

 Estandarización: Representada por el mundo DICOM y sus especificaciones para comunicación


en red. El Nivel de Salud 7 (HL7) se utiliza como interfase con el RIS o HIS.
 Codificación y compresión de imágenes: Dado por las técnicas de compresión de imágenes, las
normas para la compresión y la aceptación clínica.
 Interoperatividad y el trabajo cooperativo: Basado en la teleconsulta y la visualización de
imágenes a través de visores WEB.

9.3. La red digital de imágenes.

Finalidad esencial de los pacs: Es integrar las distintas exploraciones de un paciente en un sistema que
las haga disponibles. Los estudios de todas las técnicas, o como mínimo, los que generan mayor actividad
asistencial, deberían estar conectados al PACS para rentabilizar el sistema asistencialmente.
Cada método, por el que se obtiene una imagen diagnóstica del paciente, se denomina modalidad. Así
pues, son modalidades la ecografía, la radiografía computarizada, la tomografía computarizada, la
resonancia magnética, el digitalizador de película, la angiografía digital, la fluoroscopia digital, etc.

Cada modalidad presenta imágenes con características propias. Así, una imagen de tórax con calidad
equivalente a una placa radiográfica, posee una matriz de 4096 x 5120 píxeles con 12 bit en la escala de
gris, equivalente a 40 Megabytes de información, mientras que una imagen de ecografía con matriz de
256 x 256 píxeles y 8 bit en la escala de colores, tiene solamente 64 Kilobytes, o sea 640 veces más
pequeña que la imagen digital de tórax. Una mamografía digital puede llegar a tener 48 Megabytes.

9.3.1. Adquisición de imágenes. La adquisición de las imágenes tiene dos modalidades principales. La
primera modalidad es la directa, son imágenes que se obtienen directamente en formato digital. Estas
imágenes pueden provenir de sistemas como DR, TC, RM, US digitales, MN, ASD, etc. La segunda forma
es a través de capturas secundarias, mediante digitalización o conversión analógico-digital.

Modalidad directa Muchos aparatos modernos proporcionan imágenes en formato DICOM y pertenecen
a la clase DICOM SCP, en cuyo caso es posible leer las imágenes con sus datos y almacenarlos siguiendo
la misma norma DICOM.

Sin embargo, en otro grupo de equipos, el reto es encontrar la forma de obtener la información. En estos
equipos, es común, que las imágenes se proporcionen bajo un formato no estándar, que depende del
fabricante.

Las otras formas de modalidad directa son la utilización de los sistemas CR (acrónimo en inglés de
Computed Radiography) y DR (acrónimo en inglés de Digital Radiography) o DDR (acrónimo en inglés de
Direct Digital Radiography). El sistema CR consiste en uno o varios lectores de placas de fósforo,
borradores de placa, incorporados o no, una estación de adquisición y programas para su manejo. Estos
sistemas permiten crear, editar, asignar y enviar archivos de imágenes a estaciones de visualización
DICOM dentro de una red. Por lo general, las imágenes son adquiridas en menos de un minuto. La
tecnología DDR, utiliza un proceso de conversión directo, es simple e incluso elegante. La simplicidad del
procedimiento de captura directa consiste en la conversión de la energía de rayos X en señales digitales.
No hay materiales que emitan luz, pasos intermedios o procesos adicionales. Los fotones de rayos X
salen de la anatomía son capturados directamente como señales digitales a través de pequeños
detectores. En segundos, las señales digitales aparecen como una imagen en un monitor de alta
resolución y está disponible para su transmisión a una estación de trabajo o a una impresora para su
visualización.

La mayoría de los sistemas “flat panel” (DR) utilizan un proceso indirecto, normalmente es un material
brillante (una especie de yoduro de cesio) que es utilizado para la captura de energía rayos X y
convertirlo en luz. La energía de la luz, entonces, es convertida a señales electrónicas a través de
pequeños diodos (TFD), y capturada para su lectura utilizando transistores de placas (TFT).

Modalidad de captura secundaria Hay varias formas típicas de obtener la imagen digital, pero según las
normativas de estandarización de la ACR y la CEN, sólo dos métodos son aceptados.

1. Digitalizador de placas. Existen tres tecnologías básicas de digitalización de placas :


 Cámara en un soporte. Se envía una luz a través de la placa radiográfica, similar a un
proyector de transparencias, y es capturado por una cámara. La calidad y el coste de este
procedimiento son bajos. En la actualidad, este tipo de procedimiento no es considerado
útil para realizar el diagnóstico primario, pero puede ser empleado como sistema de
adquisición de imágenes con destino didáctico.
 Sistema CCD (acrónimo en inglés de Charged Coupled Device). Se utiliza una luz
fluorescente especial para iluminar la placa, y el sistema CCD va recogiendo la
información con detectores. Estos sistemas tienen un inconveniente, que es el
“bleeding”, por superposición de luz diseminada. Sin embargo, los sistemas CCD tienen
una longitud de onda dinámica en la que las regiones oscuras quedan mejor iluminadas.
 Tecnología Láser. Utiliza luz láser para iluminar la placa y se recoge la información con
fotomultiplicadores. No tienen “bleeding”, pero a diferencia de los sistemas CCD, no
tiene rango dinámico de sensibilidad. Los sistemas láser son más costosos que los CCD,
pero ambas tecnologías son comparables en cuanto a resolución. Los dos sistemas Láser
y CCD son aceptados por la ACR y la CEN como sistemas de digitalización de radiografías.
2. Convertidor de señal de consola (“frame grabbers”): Son sistemas para captura y entrega de
imágenes médicas desde una consola. Incorporan un avanzado sistema de alta definición y alta
velocidad, que permiten obtener imágenes de hasta 1280x1024 a 8 bits por pixel a 60 Hz.

9.3.2. Estandarización. La tecnología PACS se encuentra muy estandarizada en lo referente a los


sistemas operativos que utilizan, procesadores, monitores, estaciones del trabajo, y conexiones de
red de área local, que es la base tecnológica de los PACS.

La estandarización de la Tecnología PACS significa que los días en que se realizaban implantaciones
personalizadas para cada tipo de sistema de imagen digital, Universidad de California-Los Angeles
(UCLA), Hospital Hammersmith del Reino Unido, o el Hospital Universitario de Hokkaido, Japón, han
pasado a ser historia. Excepto por razones académicas o de investigación, la mayoría de los
hospitales implantan sistemas estándares, cuyo mayor beneficio es disminuir al máximo el costo de
implantación de un PACS. El estándar DICOM puede ser considerado como una evolución de los
PACS en su camino hacia la estandarización.

La disponibilidad de estándares de comunicaciones tiene un doble efecto:

 Por un lado, disminuir los costos asociados con la integración de sistemas evitando la
necesidad de desarrollar costosas interfaces “hechas a medida”.
 Por otra parte, permitir que el usuario seleccione los productos más adecuados a sus
preferencias y necesidades entre diferentes proveedores, y aún así, que los mismos trabajen
integralmente intercambiando información.

La implantación y difusión de los PACS, se vio durante mucho tiempo afectada por la carencia de una
norma internacionalmente aceptada que contemplara las diversas funciones y tipos de datos que
pueden encontrarse en la práctica clínica diaria, en el área de radiología. Los fabricantes desarrollaron e
integraron en su equipamiento soluciones propietarias que permiten la integración entre productos de la
misma marca, pero que impiden el intercambio de datos en un ambiente de sistemas heterogéneos.

El primer paso que se dio después de la primera conferencia internacional sobre PACS, en enero de 1982,
en Newport Beach, California, donde el American College of Radiology (ACR) y la National Electrical
Manufacturers Association (NEMA) deciden conformar un comité conjunto para desarrollar un estándar
que promoviera la comunicación de imágenes digitales, sin importar a que marca pertenecía el equipo, y
que facilitara el desarrollo y expansión de sistemas PACS.
Como resultado se publicaron un par de versiones del estándar denominado ACR/NEMA V1 (ACR/NEMA
Standards Publication 300¬1985) y V2 (ACR/NEMA Standards Publication 300-1988). Sin embargo, las
limitaciones intrínsecas de ambas especificaciones, la escasa adecuación a las necesidades concretas de
los usuarios y al rápido desarrollo tecnológico de las redes de ordenadores, sumado a la aparición de
soluciones propietarias, son algunos de los factores que explican la poca difusión y aceptación que
tuvieron estas primeras dos versiones del estándar. Posteriormente, se inició un proceso de rediseño
general del estándar, que entre otras cosas permite:

 Su utilización a través de redes de ordenadores, utilizando el conocido protocolo TCP/IP.


 Abarca la mayoría de las modalidades de diagnóstico en que intervienen imágenes.
 Es lo suficientemente flexible como para permitir su evolución y adaptación en el tiempo.
 Contempla el intercambio de información con otros sistemas de información hospitalarios.
 Define explícitamente los requerimientos de conformidad que deben cumplir todas aquellas
aplicaciones que sostengan ser compatibles con DICOM.

Estas mejoras han sido determinantes para que DICOM se convirtiese en el estándar predominante a
escala mundial, y el más ampliamente difundido entre los fabricantes de equipamiento médico por
imágenes, relegando a un segundo plano las soluciones propietarias y también a aquellas, que siendo
abiertas representaban soluciones parciales o restringidas a dominios particulares.

El estándar, en su mismo texto aclara que si bien DICOM tiene el potencial de facilitar la implantación de
soluciones PACS, la utilización por sí sola del estándar no garantiza la interoperabilidad entre sistemas en
un ambiente heterogéneo y tampoco asegura que todos los objetivos de funcionalidad de un PACS sean
alcanzados.

Se sabe que el estándar DICOM contempla una amplia variedad de servicios (almacenamiento,
impresión, consulta, recuperación, etc.), objetos de información (imágenes de distintas modalidades,
datos relacionados con el paciente, estudio, etc.), u otros parámetros y opciones relacionados; su
universo de elementos representa un nivel de funcionalidad tal que cualquier implantación práctica del
estándar deberá seleccionar necesariamente los servicios que ofrezca de un subconjunto del mismo.

El estándar establece que todas las implantaciones deben estar acompañadas por una declaración de
conformidad (“Conformance Statement”) adecuadamente estructurado. Ésta es una compilación formal
de las funciones, servicios y opciones DICOM que están incluidas en una implantación particular. Dicha
declaración debe indicar cómo la aplicación se adhiere a los requerimientos de conformidad descriptos
en las distintas secciones o partes del estándar.

Hoy día, muchos de los fabricantes que se reclaman poseedores de la validación del estándar DICOM, lo
son sólo de una parte de la totalidad de las “Clases de Servicios” lo que, en principio, no es poco, ya que
todo lo que se oferte deberá cumplir, como mínimo lo siguiente:

 Uno: Ser aplicable a un entorno de red utilizando protocolos normalizados tales como OSI
(Interconexión de Sistemas Abiertos) o el muy conocido TCP/IP.
 Dos: Deben “reaccionar” (léase interactuar) los dispositivos que declaran en su conformidad a
comandos y datos intercambiables.
 Tres: Debe identificar, en su caso, inequívocamente cualquier “Objeto de Información”. Pero hay
que tener en cuenta que no es lo mismo “Objeto de Información” que “Objeto Imagen”. El
estándar DICOM 3.0 especifica varias definiciones de “objetos de Información” que proporcionan
un modelo de datos aplicable a las comunicaciones, tanto de las imágenes sanitarias como de los
datos relativos al mundo real, al paciente, a la hora del estudio e incluso al equipo concreto con
el que se consigue la imagen.

DICOM representa un esfuerzo de estandarización magnífico cuyo alcance y aplicación ha sobrepasado


los límites de la radiología para convertirse en el estándar favorecido para otras disciplinas médicas que
también generan y manipulan imágenes tales como endoscopia, odontología y anatomía patológica. Su
relevancia, en el ámbito de la imagen médica, no tiene discusión. También, su contribución altamente
positiva a la difusión y aceptación de los sistemas PACS.

9.3.3. Transmisión de imágenes. Sabemos que el tiempo de transmisión de las imágenes es directamente
proporcional al tamaño del archivo de la imagen digital. Cuanto mayor es la cantidad de información
digital en una imagen (es decir, cuanto más grande es la matriz y mayor el número de bits por pixel), más
tiempo es necesario para transmitir la imagen de un lugar a otro.

Considerando la estructura del PACS en su forma más amplia, podemos decir que la transmisión de
imágenes por medio de las redes de comunicación, es un elemento fundamental de estos sistemas. Esta
red de comunicación puede ser simple, del tipo Ethernet. Sin embargo, la red cuenta con varios
elementos, con distintas velocidades de acceso, que dependen de las necesidades de velocidad de
transferencia de información.

Lo normal es contar con una red de alta velocidad dentro del departamento de imagen, que debería ser
FDI o Gbit Ethernet, una red de menor capacidad dentro del Hospital, como Ethernet convencional
10/100 Mbit, y un sistema de acceso exterior, utilizando la red de servicios integrados o canales de
mayor velocidad. Este esquema se basa en el hecho de que, la mayor parte del tráfico de información, se
encontrará dentro de la misma unidad de imagen, donde se hará la mayor parte del diagnóstico
radiológico y se generarán los informes por parte de los especialistas. Esta demanda justifica la
instalación de una red de alta velocidad.

Además, a medida que la red digital de imágenes crece (junto con el PACS), crece el tráfico de datos que
circula por la misma, llegando incluso a colapsar la red, si ésta no se ha planificado correctamente.

Ejemplo: En un hospital medio (que produce alrededor de 0.5 Tbytes al año), puede circular por la red de
radiología entre 6 y 12 Gbytes diarios, por el resto del hospital entre 1 y 6 Gbytes y en la red externa
entre 200 y 500 Mbytes. Esto hace un promedio de 13-25 Gbytes que debe soportar la red durante el
día.

La topología de la red condiciona su rendimiento o flexibilidad. Las redes, con arquitectura distribuida,
permiten el flujo de datos multidireccional, contando con varios servidores de apoyo y la fácil instalación
de nuevos equipos. A su vez, pueden conectarse distintas subredes, permitiendo la escalabilidad de la
misma, a medida que se incrementa la demanda de imágenes.

El protocolo de transmisión más utilizado en estas redes de transmisión de imágenes es el TCP/IP, que
además, es soportado por DICOM.

Para la planificación de una red se deben conocer las demandas, una vez instalada la red digital en todo
el entorno hospitalario, teniendo en cuenta que un estudio para diagnóstico primario, deberá estar en la
estación de trabajo diagnóstica en 2 segundos, en una estación de revisión intrahospitalaria en al menos
6-20 segundos, y en una estación remota en un tiempo no mayor a 10-15 minutos
9.4. Sistemas de gestión. El entorno de un servicio de radiología, como cualquier otro servicio asistencial
directo de un hospital, es crítico, y su correcto funcionamiento tiene que estar garantizado. Es por ello
que las herramientas que se utilicen en los sistemas de gestión y el software gestor de la base de datos
deben ser estables en su funcionamiento.

Sabemos que la red de transmisión es importante, pero no lo es menos el sistema de gestión que
sostiene al PACS, cuya funcionalidad reside, específicamente, en las posibilidades de su sistema gestor.
En ausencia de un RIS o HIS, toda la información de datos del paciente, datos administrativos, informes,
localización de imágenes, etc., es mantenida a través del sistema gestor de base de datos del PACS.
Seguridad, integridad de los datos y velocidad de acceso, son atributos claves para el buen
funcionamiento del PACS y que dependen, en gran medida, del sistema gestor y de la arquitectura
aplicada: Centralizada o Distribuida.

1- Ubicación física de las ares del hospital que requieren de los estudios, interpretación y
diagnóstico.
2- Manejo y archivo de la información requerida
3- Localización final de la información para ser utilizada. Organización de la información al ser
almacenada. Consultas posteriores a la información.
4- Intercambio de información con otros centros de salud

Para cubrir todas estas necesidades, se requiere de un conjunto de dispositivos, cuyas responsabilidades
son el ofrecer todos los elementos operativos demandados por el área de radiología y áreas
dependientes, dentro de un hospital. Estas demandas incluyen:

1- Adquisición de imágenes
2- Almacenamiento de la información
3- Distribución de imágenes
4- Visualización de imágenes (consulta, interpretación o diagnostico)
5- Registro de resultados
6- Interfaz con otros sistemas
7- Comunicación remota
8- Seguridad del sistema

En algunos hospitales, la información demográfica y programación de pacientes en el RIS quedan a


disposición del PACS, y es usada por éste durante la adquisición de imágenes. Los informes, nuevos
datos, o modificaciones se añaden a medida que se generan. La información se puede estructurar para
que su consulta sea muy flexible, permitiendo consultar todas las exploraciones de un paciente. El
sistema de gestión debe incluir algoritmos inteligentes que permitan adjudicar destinos a los exámenes,
para que estos viajen automáticamente a través de la red hacia aquellas estaciones de trabajo donde se
encuentre el Radiólogo, que se encarga de informar la modalidad practicada. Utilizando este mismo
mecanismo, es posible desarchivar exploraciones previas, cuando los pacientes acuden de nuevo al
centro.

El método mejor utilizado en la implantación efectiva de PACS en grandes departamentos, con


multimodalidad y subespecialidades, es la creación de listas de trabajo que permiten encaminar las
exploraciones al puesto de trabajo del radiólogo asignado al área o sección del departamento. La
información que define cada lista de trabajo, estará formada por un código que permite identificar las
imágenes que cada radiólogo solicita y que, a su vez, aparecerán en su estación de trabajo, permitiendo
realizar el informe con facilidad.

9.5. Central de archivo. Los sistemas de almacenamiento de imágenes deben seguir una estructura
jerárquica, que dependerá de la probabilidad de demanda de la imagen. En general, las imágenes más
recientes se consultan con mucha frecuencia posterior a su adquisición, y su frecuencia de consulta,
disminuye rápidamente con el tiempo.

Una estructura jerárquica, que divide el almacenamiento de imágenes, en almacenamiento a corto plazo
y a largo plazo, es la forma más conveniente de utilización que permite un alto rendimiento y velocidad
de acceso a la información requerida.

Esta estructura jerárquica, a su vez se divide en tres niveles: Imágenes de acceso directo, imágenes de
acceso indirecto (todas almacenadas en archivo a corto plazo) e imágenes de acceso más lento
(“offline”), almacenadas en sistemas a lago plazo, por lo general, en dispositivos magneto-ópticos.

 Nivel acceso inmediato: Exploraciones sometidas a visualización, informe diagnóstico o


procesamiento. Requieren de alta velocidad de transferencia y, por lo general, tiene baja
seguridad y elevado coste.
 Nivel acceso indirecto: Exploraciones activas de los últimos días (7-15 días), como archivo
inmediato y, por lo general, se revisan en estaciones de trabajo del hospital (estaciones de
trabajo de revisión y comparación). Es un archivo de acceso en varios segundos (6-20 segundos),
alta velocidad de transferencia y seguridad media.
 Nivel acceso a largo plazo: Es un archivo pasivo, de lento acceso, puede ser de varios minutos,
con alto volumen de almacenamiento y elevada seguridad, bajo coste y larga duración.

El almacenamiento a corto plazo (“on-line”) tiene las siguientes características:

 Varias decenas de Gbytes. El espacio suficiente para acceder a las imágenes en un período no
menor a 15 días.
 Capacidad de transferencia de más 30 estudios por minuto. Recuerde que un estudio pueden ser
dos radiografías digitales de tórax, un examen de TC con 25 imágenes o un examen de RM con
60 imágenes (alrededor de 30-40 Mbytes).

El almacenamiento a largo plazo (“off-line”) debe cumplir:

 Capacidad de varios Tbytes, incluso decenas de Tbytes. El volumen suficiente para que se puedan
almacenar las imágenes el tiempo requerido por las normativas ACR y CEN para las imágenes
almacenadas (5-7 años)
 Posibilidad del empleo de robots o “jukeboxes”, si el volumen de información almacenado así lo
requiere. No es lo mismo un hospital que produzca alrededor de 200 Gbytes/año, u otro hospital
que produzca un volumen de varios Tbytes/año.

La compresión de imágenes se puede emplear para multiplicar el espacio en el disco, y para reducir el
tiempo de transferencia. Se pueden emplear los siguientes criterios:

Compresión reversible: Sin pérdida, con tasas de 2 o 3:1, para imágenes de referencia o de
almacenamiento a corto plazo.
Compresión irreversible: Se puede utilizar con tasas mayores para almacenamiento a largo plazo. De
todas formas, sin no es necesaria la compresión irreversible, no es recomendable utilizarla.

Con esta estructura se obtendrán las siguientes ventajas:

1- Accesibilidad:
a) Adquisición y manejo estándar de las imágenes.
b) Estaciones de trabajo localizadas donde se necesitan.
c) Imágenes disponibles siempre.
2- Visualización múltiple:
a) Visualización de una misma imagen en distintos lugares al mismo tiempo (Radiología,
Urgencias, Quirófano, UCI).
b) Visualización en una misma estación de trabajo de más de un estudio de diferentes
modalidades.
c) Acceso a información adicional (Conexión con el RIS y HIS).
d) Disponibilidad con diferentes resoluciones según la necesidad.
e) Disminución del tiempo de espera (generalmente en un factor de 10).
3- Facilidad de almacenamiento:
a) Formatos estándar para todas las imágenes.
b) Agrupamiento de la manera más conveniente (Por patología, por órganos, por paciente,
etc.).
4- Seguridad:
 Reducción al mínimo del riesgo de pérdida de los archivos.
 Acceso restringido a la información, si se desea asegurar la privacidad de los datos.
 Disminución de la exposición del paciente a radiaciones ionizantes (evita estudios
duplicados, rescate de imágenes “malas” por medio del procesamiento digital de las
mismas)
5- Economía:
 Reducción de los costos (espacio físico, personal, productos químicos, placas, etc.).
 Incremento en la velocidad de obtención de datos relevantes.
 Aprovechamiento de la información disponible, pero nunca antes empleada.
 Mejoría de la atención médica sin incrementar costos.
 Empleo de Bases de Datos.
 Seguimiento de pacientes a largo plazo.
 Comparación entre poblaciones.
 Comparación entre procedimientos terapéuticos.
 Comparación con imágenes “típicas”.
 Enlace entre diferentes sistemas de información hospitalaria.

Ubicación de las imágenes

Memoria Primaria (Cache Primario) Es la memoria de trabajo en la que el sistema PACS ubica los
diferentes estudios que recibe o envía, y a los que puede acceder el Cliente Pacs en un tiempo muy corto
(concretamente de uno o varios segundos).

 La principal ventaja de este tipo de memoria es su velocidad de acceso, ya que se trata de una
ubicación de rápido acceso. Esta memoria la componen los discos duros de los servidores.
 El inconveniente de la memoria primaria es que dispone de un tamaño limitado. Por lo tanto, los
estudios solamente permanecerán en esta memoria de manera temporal. Este tiempo va a
depender de la cantidad de memoria disponible y de la cantidad de estudios que el centro
genera.

Memoria Secundaria (Archivo) Esta memoria se encarga del almacenamiento permanente de los
estudios recibidos en la Memoria Primaria y de la recuperación de estudios que, debido a su antigüedad,
ya no están en la Memoria Primaria.

Si se compara con la memoria primaria, esta ubicación es de acceso más lento. Está compuesta por
cintas DLT, discos ópticos MOD, CD o DVD, que se instalan normalmente en un armario con un brazo
robot para intercambiarlos. Los estudios recibidos por el PACS se almacenan en esta memoria como una
forma de asegurar su conservación.

 La principal ventaja de la memoria secundaria es su gran capacidad, ya que dispone de unidades


de almacenamiento intercambiables, de manera que se pueden sustituir las unidades usadas por
unidades nuevas. De esta forma, se puede asegurar un almacenamiento permanente.
 El inconveniente de este tipo de memoria es el tiempo de espera necesario para la recuperación
de los estudios. Normalmente, esta espera es mucho mayor que cuando se accede a la memoria
primaria. La diferencia puede estar entre medio minuto y varios minutos desde que se solicita el
estudio hasta que se recibe, en función del soporte utilizado.

Memoria Remota (Cliente PACS) Las estaciones clientes del PACS permiten una configuración con su
propia memoria de almacenamiento para que reciban copias de estudios sin necesidad de solicitarlos.

 La ventaja principal de este tipo de memoria es la posibilidad de disponer inmediatamente en


cualquier estación remota de estudios que, debido a la carga del PACS o el tráfico de red,
podrían tardar mucho tiempo en estar disponibles.
 El inconveniente de la memoria remota es que su capacidad se encuentra muy limitada al tipo de
estación, además de que se puede generar un tráfico de red que en la mayoría de los casos no es
necesario.

Visor Web Los visores Web son los encargados de la distribución de las imágenes no diagnósticas a los
demás especialistas del hospital. Normalmente se consideran parte del PACS, porque es la herramienta
que hace posible la visualización de las imágenes en cualquier ordenador del hospital que disponga de un
navegador.

A la vez, el visor Web puede distribuir el informe que está asociado al estudio, disminuyendo el tiempo
de recepción al destinatario y la supresión del papel.

A pesar de que el funcionamiento del visor está muy ligado al PACS, este también puede funcionar de
manera independiente recibiendo imágenes de forma directa de las modalidades y distribuyéndolas de
la misma manera. En este caso, los inconvenientes son el desaprovechamiento de la calidad DICOM
original y la imposibilidad de recepción del informe asociado, al no haber integración con el Sistema de
Información Radiológico (SIR).

El visor web recibirá la imagen en formato DICOM y la convertirá a un formato diferente de menos
tamaño, utilizando para ello una comprensión con pérdida, lo que conlleva una reducción de la calidad
por debajo de la que se considera diagnóstica. A diferencia de los clientes específicos del PACS, dispone
de menos herramientas de tratamiento de la imagen y de una imagen de calidad no diagnóstica.
Además, el tiempo de acceso es mayor, porque aunque el tamaño de imagen es menor, aumenta
considerablemente el número de clientes.

Por otro lado, los clientes específicos del PACS disponen normalmente de monitores con mayor
resolución que aprovechan la mayor calidad de imagen, en comparación con los monitores utilizados por
los clientes web.

9.6. Consulta de imágenes. Las estaciones de diagnóstico y visualización son elementos importantes en
un sistema PACS. Mediante estos elementos, la información llega a los radiólogos para su informe
diagnóstico, y después a todos aquellos especialistas que requieren de dichos informes e imágenes. Estas
estaciones de trabajo, reproducen, de alguna manera, el modelo de los negatoscopios, y su aceptación
depende sobre todo de la calidad visual que presentan, junto con la facilidad de uso. En una red de un
PACS, deberán existir diferentes tipos de estaciones de trabajo, cada una de las cuales, tiene sus
funciones:

- Estación Diagnóstica (DWS) La más importante y, por supuesto, la más cara de todas es la estación de
diagnóstico. Por lo general, son estaciones de trabajo que se encuentran dentro del servicio de
radiología, aunque pueden existir estaciones diagnósticas remotas, cuando se tienen servicios ubicados
física y geográficamente separados. Por ejemplo, una estación diagnóstica podrá estar ubicada en
Urgencias o en la UCI, incluso en otra institución conectada por vía telefónica al PACS (Telerradiología).
La característica principal de estas estaciones de trabajo es la calidad de los monitores y el número de
monitores utilizados. Como norma, están diseñadas con 2 o 4 monitores de alta resolución, pudiendo
tener monitores de 25”, monocromos, con resolución de 2560 x 3172 y 4096 niveles de gris. Sin
embargo, dentro de las estaciones de diagnóstico, podremos encontrar pequeñas diferencias. Existen
algunas estaciones de trabajo en las que solamente serán informados los estudios de matrices pequeñas,
como estudios de TC, US, MN, etc., sus monitores pueden ser de pantalla plana de 21” y con resolución
de hasta 2048 x 1860 pixels a 32 bits de color. De todas formas, en ambas situaciones, se deben
incorporar todas las funciones básicas de procesamiento de imágenes establecidas por los estándares
ACR, para poder realizar correctamente el informe diagnóstico. Es deseable, además, que dichas
estaciones incorporen la posibilidad de informes orales, traducción automática de audio, reporte escrito
y despliegue de otros tipos de información en tiempo real, todo bajo una interfase amable para el
usuario.

- Estaciones de revisión (RWS) Son estaciones de trabajo que están disponibles en los servicios de
radiología, generalmente en aquellos que poseen sistemas de Radiología Computada o Digitalización de
Radiografías (CR, DR, FD). La función principal de este tipo de estación de trabajo es la captura de las
imágenes digitales, su procesamiento primario, marcado y envío a los sistemas de archivo para que
puedan ser informadas. Por lo general, son de menor costo que las de Diagnóstico, y pueden tener uno o
dos monitores monocromos de alta resolución desde 1200 x 1600 (19” y 4096 niveles de gris), hasta
2048 x 2500 (21” y 4096 niveles de gris). Estas estaciones de trabajo, pueden servir en determinadas
circunstancias como estaciones diagnósticas, por lo que deben poseer las mismas características que las
anteriores. Un ejemplo típico es una estación de captura de un sistema CR con placas de fósforo. Las
funciones básicas deben estar disponibles en ambos tipos de estaciones, mientras que las funciones más
avanzadas de procesamiento de imagen, deben incluirse en las estaciones de diagnóstico. La diferencia
en la disponibilidad de estas funciones obedece al hecho de que, las estaciones de revisión no alteran las
características fundamentales de las imágenes y sirven para mejorar el despliegue (presentación) de las
mismas, mientras que las otras, las estaciones de diagnóstico, serán manejadas por expertos, que podrán
generar nuevas imágenes con realce que, a su vez, estarán disponibles en los archivos radiológicos y que
servirán para complementar la información previamente existente.

- Estaciones de transcripción de informes (TWS): Son pequeñas estaciones de trabajo, cuya finalidad
principal es la trascripción de los informes hablados por los radiólogos. En dicha estación de trabajo se
tendrá acceso al sistema de gestión que rige al PACS, y a su vez, se intercomunica con el sistema RIS para
el envío de informes a dicho sistema.

- Estaciones de consulta remota (WWS): Son estaciones de visualización de imágenes e informes


radiológicos. Estas se encuentran, por lo general, ubicadas fuera de los servicios de radiología. Son
estaciones de trabajo para ser utilizadas en servicios del hospital que requieran del despliegue de
imágenes médicas (UCI, Quirófanos, Traumatología, Radioterapia, Odontología, etc.).

Tienen las características de ser estaciones de trabajo que, por lo general, utilizan monitores a color de
alta resolución (uno o dos), y que pueden visualizar más de un estudio al mismo tiempo. También, sus
sistemas de tratamiento de imágenes suelen tener herramientas especializadas, según el tipo de usuario
y el lugar de ubicación. Un ejemplo típico puede ser una estación de consulta ubicada en quirófanos para
la planificación neuroquirúrgica. Estas estaciones de trabajo pueden estar ubicadas remotamente, y
conectadas al sistema PACS por medio de la red telefónica.

De todas formas, en las tres estaciones de trabajo (DWS, RWS y WWS), sus sistemas de tratamiento de
imágenes médicas, deben poseer las siguientes herramientas mínimas de trabajo:

 Acceso a las imágenes del paciente


 Acceso a la información del paciente, considerada relevante para el informe médico y la consulta
de imágenes (vía conexión con el RIS o el HIS del hospital, o algún otro sistema de base de datos
que contenga dicha información).
 Manejo de diferentes modalidades de imágenes medicas
 Posibilidad de mecanismos de interpretación y diagnóstico de los estudios realizados. En el caso
de las estaciones de consultas, solamente podrán agregar anotaciones al informe radiológico.
 Acceso a la organización de la información almacenada a corto y largo plazo.
 Intercambio de información entre dos estaciones de trabajo de la misma red

El software de visualización deberá permitir:

 Visualización médica multimodal y despliegue multimonitor (simulación de negatoscopios).


 Manipulación de ventanas y niveles de color.
 Manipulación 2D y 3D de las imágenes, rotación, espejo, etc. Operadores de Zoom. Operadores
de filtrado (disminución de ruido, suavizado, resaltado de bordes, etc).
 Estadísticas sobre las imágenes local y global en niveles de colores o paletas para definir
Regiones o Volúmenes de Interés (ROI, VOI).
 Anotaciones sobre las imágenes (Puntos, Líneas, Distancias, Ángulos, Textos).
 Presentación de series en el tiempo (si es requerido)
 Procesamiento avanzado de imágenes: Reconstrucciones multiplanares, navegación con
multicursores, representación tridimensional y planos múltiples con o sin renderización de
superficies.
9.7. Impresión. En el ideal de un sistema PACS bien planificado e implantado con toda su red de apoyo de
distribución de imágenes digitales, no se requiere impresión de radiografías. En la vida real se ha
demostrado que, incluso, en las mejores implantaciones de PACS, es necesario imprimir
aproximadamente el 15% de los estudios de radiología. Es por ello, que las estaciones de trabajo deben
poder ordenar la impresión de copias sobre película cuando sea necesario. Alguna de las causas son bien
conocidas: trasladado del paciente a otro centro, utilización en sesiones científicas (cada vez menos, con
la aparición de los Vídeo Proyectores Digitales de alta definición) y, por último, los médicos que siempre
desean disponer de copias en placa. Para la obtención de copias sobre soporte sensible (placas
radiográficas) o papel, será necesario disponer, al menos, de una terminal de impresión. Esta terminal de
impresión, permitirá realizar copias de radiografías y copias en papel. Lo normal, es tener impresoras
estándares para copia de informes en papel, y las impresoras especializadas (pueden ser Impresoras
Secas “DryPrinter” o impresoras térmicas).

9.8. Filosofía de DICOM 3.0. El DICOM 3.0 como estándar de comunicación de imágenes médicas,
predominantemente en radiología, utiliza un conjunto de normas encaminadas a establecer intercambio
de información; que se realiza a partir de un modelo de objetos que describen el mundo real (pacientes,
imagen, etc.) que forma el dato radiológico y la forma en que están interconectados. Por ello se plantea
que DICOM es un estándar “orientado a objetos”. Una entidad del mundo real como, un paciente, una
visita, una imagen, etc. es modelada como un objeto. Cada objeto tiene su serie de atributos, por
ejemplo, el objeto paciente contendrá los atributos de sus datos demográficos, fecha de hospitalización,
etc.

Estos equipos permiten la presentación en multiformato de imágenes procedentes de distintas fuentes


digitales (TC, RM, DIVAS, MN), y la presentación en formato real de gran tamaño (35x43 cm.). La
resolución espacial de las copias obtenidas es muy elevada (hasta 4000x5000 puntos), con 4096 niveles
de gris. En la conexión con los equipos PACS, se puede optar por ceder las tareas de formateo de las
imágenes a la impresora o, por el contrario, enviar las imágenes ya compuestas en la estación de trabajo
del PACS. Esta última opción puede abaratar el coste de las impresoras, y es factible con los equipos
informáticos actuales. Las impresoras pueden conectase a través de una estación de trabajo o del
servidor, pero también, pueden estar conectadas directamente a la red. Esta última solución permite
imprimir rápidamente desde cualquier estación del PACS.

_____________________________________________________________________________________

UNIDAD 10.- EL TRABAJO RADIOLOGICO EN RED


10.1. Objetivos, ventajas e inconvenientes de la telerradiología y trabajo radiológico en red.

Este epígrafe contiene los siguientes puntos:

 Telerradiología y PACS.
 Internet y telerradiología.

Telerradiología y PACS. Sistemas de información de salud. Las entidades HIS y RIS son sistemas de
información Hospitalario y Radiológico respectivamente.

 HIS: Entre sus eslabones, contempla el sistema de administración del hospital y el sistema de
información clínica.
 RIS: Por otra parte, el RIS apoya a la información radiológica en la interpretación, generación y
archivado de informes de los estudios realizados, la preparación de sistemas de agendas para
turnos y las listas de trabajo, sin embargo, el HIS se encarga de la facturación de los estudios
realizados. En el tercer extremo, el PACS se encarga de capturar, transmitir, visualizar y archivar
toda la información de imágenes generada, además de atender a la seguridad de la Intranet de
distribución.

Debe existir un flujo de trabajo coherente entre estas tres entidades, dentro del cual, entra la
Telerradiología, como una extensión de los sistemas PACS y RIS.

El trío RIS, PACS y Telerradiología, utiliza el estándar DICOM como agente que proporciona la
interconectividad entre sus diferentes componentes y como sistema abierto para aceptar cualquier tipo
de imagen digital generada.

El HIS, utiliza la norma HL7 (Nivel de Salud 7), que es un protocolo de comunicación estándar para datos
electrónicos y el intercambio de información entre diferentes sistemas de salud. Al igual que DICOM, el
HL7, se utiliza para transferir información entre dos entidades. Mientras que los componentes de la
norma HL7 definen quien es el paciente, su historia clínica, sus datos demográficos y administrativos,
etc., los componentes DICOM definen cuales son las imágenes digitales que están disponibles en el
sistema para ese paciente.

Evolución de las Estaciones de Trabajo. La Telerradiología y los PACS, han evolucionado muchísimo en los
últimos años, fruto de muchas coincidencias tecnológicas: Los PC son cada vez más rápidos, las
tecnologías de redes han demostrado ser efectivas, las telecomunicaciones han avanzado mucho en el
campo de la transmisión digital, el estándar DICOM parece que es aceptado por todos y por último el
imparable avance de Internet. Todos estos factores han llevado a dos ramas diferentes con un mismo
objetivo a confluir y hoy es casi imposible separar un sistema PACS de un sistema de Telerradiología. Esta
evolución se ha visto, también, en las estaciones de trabajo. Podemos decir que tenemos tres tipos de
estaciones de trabajo:

1- Las estaciones de trabajo para diagnóstico primario. Es una extensión del PACS, cuando se
encuentra en lugar remoto. Estas estaciones pueden leer y recibir imágenes del sistema PACS
instalado y a su vez pueden enviar informes a estos. La ventaja es que estas estaciones de
trabajo remotas, pueden tener en cuenta, el flujo de trabajo típico o característico de dicho
radiólogo y, como resultado, el flujo de información es más homogéneo, ágil y permite la
instalación de soluciones flexibles para que la lectura/escritura sea más rápida. En el otro
extremo, las estaciones de trabajo locales de los PACS pueden realizar consultas “on line” con las
estaciones remotas de Telerradiología y predeterminar los protocolos y configuraciones para
cada radiólogo, con la posibilidad de visualizar múltiples estudios simultáneamente de diferentes
modalidades y la manipulación de los mismos a nivel individual.
2- Las estaciones de trabajo para revisión secundaria, que fueron concebidas como puesto de
trabajo remoto para otros especialistas como por ejemplo: UCI, Traumatología, Quirófano, etc.,
se ha conectado de forma inseparable a los PACS. Si hasta hace poco, se consideraba una
estación remota como parte de un sistema de Telerradiología, hoy día es parte integrante de los
PACS. Muchas herramientas avanzadas, que típicamente eran reservadas para los radiólogos,
hoy día se encuentran en estas estaciones de trabajo, permitiendo a los médicos navegar a
través de los estudios e incluso procesar imágenes durante el acto quirúrgico. Estos puestos de
trabajo son rápidos, fáciles de utilizar y proporcionan un acceso fiable a los estudios radiológicos
e informes. En áreas críticas, estos puestos de trabajo, pueden reducir el tráfico de personal
dentro de la sección de radiología y en el hospital.
3- Las estaciones de trabajo terciarias de bajo costo (terciaria), es quizás, el eslabón perdido dentro
de la mayoría de las instalaciones de PACS y sistemas de Telerradiología. Estos puestos de
trabajo proporcionan la distribución económica de imágenes digitales e informes a cualquier
médico, dentro de la red hospitalaria o telefónica, si este tiene acceso a dicha red. Internet
facilita la distribución de estos datos, mientras que proporciona una infraestructura existente,
que reduce la inversión inicial requerida. Para la mayoría de los médicos es más importante, el
acceso rápido al informe, que visualizar la imagen en detalle. Los médicos en las estaciones de
trabajo primarias y secundarias, pueden hacer referencias y anotaciones en las imágenes, que
pueden ser recogidas, por estos puestos de trabajo económicos, en tiempo real. Casi cualquier
PC moderno puede condicionarse para funcionar como un puesto de trabajo terciario.

En ambas modalidades del tratamiento de imágenes radiológicas, estas estaciones de trabajo están
presentes. Los efectos de esta evolución se extienden más allá de la sección de radiología. Los médicos
de las UCI ya no tienen que desplazarse a los servicios de radiología, para revisar “in situ” las radiografías
recién reveladas, las pueden recibir en la estación de trabajo de la UCI, incluso, antes que el paciente
regrese del equipo de TC o RM. Los especialistas en urgencias, pueden acceder a los informes de
radiología al cabo de varios minutos y no esperar hasta una hora para que lleguen las radiografías a su
consulta. Un paciente, estudiado a distancia, puede ser transferido a un servicio quirúrgico de urgencia,
de una ciudad a otra, con todas las indicaciones previas realizadas. La actual generación de estaciones de
trabajo de los sistemas PACS y Telerradiología refuerzan la productividad, no solo de los radiólogos, sino
del médico que puede dedicar más tiempo al cuidado del paciente.

Internet y telerradiología. La Telerradiología es la modalidad más extendida de la Telemedicina. Hay un


gran volumen de transferencia de imágenes entre entidades y el avance de las posibilidades que brinda
Internet, se ha ido integrando, por un lado, el PACS a los protocolos TCP/IP para transmisión de
imágenes a través de Internet y, por otra parte, las estaciones remotas de Telerradiología se ha sumado
a esta red TCP/IP. Como resultado de estos cambios profundos, han terminado fundiéndose, las
estaciones de Telerradiología al entorno del PACS y la utilización de la red Internet para transmisión de
imágenes.

Así, es casi imposible separar una estación Remota de Telerradiología de un sistema PACS, más bien son
extensiones del propio PACS.

La modernización hospitalaria necesaria, para llevar adelante el conjunto PACS/Telerradiología, debe


asumir un reto: debe modificarse la organización de las actividades desde un esquema estructurado en
torno a los servicios médicos de especialidades, hacia un modelo que, apoyándose en lo más tradicional
(el conocimiento especializado médico), supiera combinar estos conocimientos diversos en una forma
interdisciplinar e interprofesional, configurando unidades organizativas nuevas basadas en los procesos
asistenciales.

Por lo general para que en un sistema PACS/Telerradiología apoyado en tecnología Internet, el flujo de
trabajo sea eficiente, el mismo debe parecerse al guión de un sistema de Telerradiología Perfecto:

1- El Técnico realiza en examen “in situ”, digitaliza y/o adquiere la imagen y la envía
2- En pantalla las imágenes digitalizadas se etiquetan y son enviadas al servidor.
3- Cuando se determine, las imágenes son encriptadas, comprimidas y enviadas al especialista
remoto. Esto se realiza con el simple clic del ratón en la estación de revisión del sistema PACS.
4- Los datos clínicos del paciente necesarios acompañan a la imagen en formato digital.
5- La transmisión real de imágenes, que no requieren reportes en “tiempo real”, se realiza de forma
automática, generalmente en horas de menor congestión de las líneas telefónicas.
6- En la unidad receptora, las imágenes se congregan automáticamente en carpetas por pacientes,
que podrían incluir otros estudios anteriores.
7- En el programa de la estación de diagnóstico los estudios se colocan en tablas de forma
automática, según preferencias del radiólogo: por casos, fecha, diagnóstico, etc.
8- Entonces y sólo entonces, el radiólogo es avisado mediante mensajes en pantalla o por medio
sonoro, que las imágenes han llegado y que están listas para la interpretación.
9- En dicha estación de diagnóstico, pueden estudiarse las imágenes al igual que se realiza en el
PACS.
10- Al terminar, el radiólogo dicta la interpretación, quizás a un sistema del reconocimiento de voz.
11- El informe dictado puede ser revisado o inspeccionado para valorar su exactitud, y entonces
puede enviarse automáticamente por la misma vía al médico u hospital emisor del estudio.
12- Para completar el ciclo, los estudios se almacenan en un sistema de almacenamiento de corto
plazo, para que después, puedan ser enviados a sistemas de almacenamiento de largo plazo
según los períodos de tiempo especificados.
13- Todo este proceso se puede realizar en formato DICOM 3.0, así el radiólogo podrá remitir una
imagen, a cualquier otro lugar del planeta para su discusión diagnóstica o recibir indicaciones y
anotaciones.

El intercambio eficiente de información entre los profesionales sanitarios puede ahorrar tiempo y dinero,
además de mejorar la efectividad clínica, la continuidad y calidad de la atención en todas las
especialidades; así como la gestión de servicios y, por lo tanto, la información se está convirtiendo en el
componente principal de cualquier entorno profesional que quiera seguir siendo competitivo.

La Radiología y el Diagnóstico por la imagen no se encuentran aislados en esta revolución de las


Tecnologías de la Información. La efectividad y la eficiencia que han demostrado los servicios
Telemáticos, permite justificar la utilización de estas tecnologías. La Telerradiología, como instancia
predominante de la Telemedicina, tiene particular importancia debido a la utilización de las imágenes
médicas por diferentes especialidades.

10.1.1. Telerradiología en telemedicina Se puede definir Telemedicina como el uso de las redes
electrónicas de comunicación para transmitir información y datos relacionados con el diagnóstico y
tratamiento de patología médica.

Desde el punto de vista técnico, el término Telemedicina es aplicado con dos significados diferentes. Uno
es el significado amplio de utilización de las telecomunicaciones en la Sanidad, relacionado con las
aplicaciones de base de datos de pacientes, utilización de redes intrahospitalarias para la transmisión de
datos (lo que se conoce como Sistemas de Información Hospitalaria (HIS) que facilitan el
almacenamiento, recuperación y distribución de la información entre distintos lugares, o en el mismo
lugar; incluyendo la Historia Clínica Informatizada, que permite integrar toda la información y datos
personales del paciente, dentro una base de datos única) y su conexión con otras instituciones.

El otro, es la utilización específica de las telecomunicaciones para asistir al conocimiento médico, la


educación y la consulta de datos entre lugares diferentes. Cuando hablamos de conocimiento médico en
este entorno, nos basamos en la información de referencia que tanto los profesionales sanitarios, como
los pacientes utilizan para la toma de decisiones en atención sanitaria.

Debido a la gran variedad de significados y aplicaciones de la Telemedicina en la era moderna, sus


aplicaciones se han agrupado de muy diversas formas. Una de ellas puede ser por ejemplo, en estas tres
categorías:

 Servicios de consultas clínicas (Teleconsulta): Las consultas telemédicas permiten, que los
profesionales sanitarios situados en un lugar distinto al del paciente, puedan participar
directamente en el proceso de atención sanitaria.
 Educación médica e información: Parte de la telemedicina consiste en educación médica a
distancia, y una función relacionada a esta, es la de proporcionar información médica en un
formato electrónico a los profesionales sanitarios, a los pacientes y que pueda ayudarles en la
toma de decisiones.
 Aplicaciones automáticas de registros: Son sistemas informatizados que permiten almacenar,
recuperar y analizar en un ordenador la información sobre la historia del paciente.

La Telerradiología abarca estos tres campos. La disponibilidad de transmisión de imágenes permite


realizar el informe a distancia (TeleConsulta), permite utilizar dichas radiografías para la consulta y
discusión entre varios médicos (TeleEducación), y por último, para que las dos acciones anteriores sean
posibles será necesario almacenar dicha información de imágenes y registros de informes y pacientes
(TeleRegistro).

La Telerradiología, como servicio Telemático, tiene valor añadido al estar configurada sobre la base de
una infraestructura de telecomunicaciones que soporta diferente información tecnológica y aplicaciones.
El objetivo principal de la Telerradiología es suministrar el diagnóstico de los procedimientos de imagen a
diferentes niveles de soporte técnico.

Desde este punto de vista, y según el Comité Europeo de Recomendaciones y Estándares, en los aspectos
Informáticos para el Diagnóstico por la Imagen, “la Telerradiología es más que el simple método de
comunicación para realizar el diagnóstico de las imágenes radiológicas, es el primer paso relevante para
mover la información médica entre las diferentes instancias de una red amplia de comunicación”. Más
que una nueva definición, este artículo considera que los avances tecnológicos implantados mediante la
Telerradiología, dan paso a la utilización de varios servicios Telemáticos que requieren de los mismos
soportes técnicos y de la infraestructura en telecomunicaciones. La Telerradiología es considerada, en el
contexto general, como la forma de integrar la red telemática de salud regionalmente, enfatizando en el
papel que juega esta interacción para la formación de otras redes telemáticas.

El sistema de información responsable de la adquisición, almacenamiento, comunicación, presentación y


manipulación de las imágenes médicas, y los datos relativos a los pacientes, constituyen un importante
componente de todo el sistema integrado de información hospitalaria. La Telerradiología, al extenderse
en forma de departamentos virtuales de diagnóstico por la imagen, permite también extender el resto
de los servicios Telemáticos a otras zonas o regiones, pudiendo ser el motor impulsor de los mecanismos
de integración de toda una red virtual de servicios Telemáticos. De esta forma, se puede crear, en interés
de lograr una buena relación costo-efectividad, una triple interconexión entre los sistemas HIS y RIS
instalados en muchos centros de salud con todas las aplicaciones Telemáticas.

Los servicios básicos que soportan a la Red Integral de Servicios Telerradiológicos (RIST) incluyen:
1- Telediagnostico
2- Teleconsulta
3- Telemonitorización
4- Telegestión

Otro de los servicios que provee la RIST, es el acceso a sistemas informáticos de alto rendimiento, con el
objetivo de dar facilidades al análisis intensivo de imágenes y a la utilización de sistemas de base de
datos asociados, que poseen material educacional de incalculable valor.

La justificación del desarrollo y el costo de la implantación de los servicios de Telerradiología en el


sistema de salud está dada por:

I. El diagnóstico médico es cada vez más dependiente de los resultados de imagen y de laboratorio,
que de los hallazgos clínicos. Así, aproximadamente el 75% de los pacientes admitidos en los
hospitales requieren del examen diagnóstico previo.
II. Las nuevas modalidades de diagnóstico por la imagen requieren de personal médico
especializado para guiar la adquisición y producir el informe diagnóstico primario. El progreso
científico y tecnológico incrementa la complejidad y el número de parámetros a partir de los
cuales se puede llegar al diagnóstico. La intercomunicación entre diferentes especialistas
permite llegar de forma rápida a un diagnóstico claro y preciso, e incluso ser aplicado a
modalidades terapéuticas. Por ello, la utilización de los medios de teleconferencia y teleconsulta
puede convertirse en una práctica cotidiana.
III. La tecnología se desarrolla rápidamente, reduciendo el capital y el costo operacional de los
equipos de diagnóstico requeridos en los sistemas médicos.
IV. El estilo de vida moderno requiere, de forma inmediata, el soporte médico para incrementar la
calidad en áreas donde la atención de salud es pobre, debido a la escasa existencia de población,
o en zonas en las que, en determinadas épocas del año, el turismo provoca un aumento de la
densidad de población, etc. La preocupación de proveer una atención sanitaria continuada a
poblaciones desplazadas o en aumento, se ha convertido en una necesidad no solo a nivel
regional, sino nacional e internacional.

Los servicios que ofrece la Telerradiología están soportados por una estructura en capas. Las tres capas
que componen estos servicios son:

 Infraestructura
 Aplicaciones
 Servicios

La capa superior corresponde a los servicios reales que proporciona la Telerradiología, tales como el
Telediagnóstico, la Telemonitorización, la Teleconsulta, la Teleadministración, y otros servicios de valor
añadido. La segunda capa consta de todas las aplicaciones sobre sistemas de cómputo, que proporcionan
las comunicaciones necesarias, y el medio para el funcionamiento cooperativo de los servicios de
Telerradiología. Tales aplicaciones incluyen sistemas de visualización multimedia (ejemplo:
Teleconferencia), análisis de la imagen interactivo y visualización 2D y 3D de las imágenes, herramientas
para manejo de base de datos de imágenes y pacientes, y otra variedad de aplicaciones que
proporcionan información a otras ramas del ámbito médico. La capa inferior corresponde al hardware e
infraestructura del software, que apoya las aplicaciones precedentes, y consiste en los equipos de
imagen médica, las telecomunicaciones para conectar una red de computadoras, herramientas para el
manejo de red y otros recursos. Los adelantos tecnológicos en Telerradiología están directamente
relacionados con las aplicaciones y capas de la infraestructura.

10.1.2. Objetivos. Según el Colegio de Radiólogos Americanos (ACR) y el Observatorio Europeo de la


Telemática para la Salud (EHTO), los objetivos de la Telerradiología son:

I. Proveer servicios radiológicos de consulta e interpretación, en áreas donde existe una probada
necesidad.
II. Disponer de los servicios de un radiólogo en aquellos centros médicos donde este especialista no
esté presente.
III. Disponer de los informes de las imágenes radiológicas en tiempos prudenciales para casos de
emergencia.
IV. Facilitar interpretaciones radiológicas en situaciones de guardia
V. Proporcionar el soporte radiológico necesario al especialista cuando este lo requiera.
VI. Promocionar las oportunidades de formación para los radiólogos en activo.
VII. Promover la eficiencia y la mejora de la calidad.
VIII. Enviar los estudios interpretados a los proveedores de las imágenes.
IX. Soportar Telemedicina.
X. Realizar supervisión directa en los sitios donde se realizan los estudios.
XI. La Telerradiología es una tecnología en desarrollo y por lo tanto aparecerán nuevos objetivos.

10.1.3. Ventajas: La Telerradiología es un ejemplo de aplicación Telemédica que se entiende clara y


ágilmente cuando está disponible. Sin embargo, la práctica de la radiología es diferente de una
comunidad a otra, incluso de un Hospital a otro aunque estos sean vecinos.

Los beneficios de la Telerradiología han sido demostrados a través de múltiples proyectos y estudios
realizados en Estados Unidos, Japón, Canadá, Alemania, Gran Bretaña, etc. Muchos de estos estudios
han sido publicados en Internet por Órganos Oficiales o en Páginas de Grupos Acreditados.

- El común denominador de los estudios realizados radica en que, la Telerradiología es la


aplicación telemática de mayor madurez y la que mayor aporte social y económico ofrece. Un
sistema de Telerradiología estructurado según los estándares actuales (ACR, CEN y JIRA) puede,
no sólo beneficiar al departamento de radiología, sino que, puede cubrir otras muchas
especialidades médicas como urgencias, traumatología, neurocirugía, etc.

Además, el soporte de comunicación y almacenamiento de imágenes e informes puede servir de base


para sistemas de teledermatología, teleoncología, teleestomatología, etc.

Lo que no ofrece ninguna duda es la importancia de las aplicaciones telemáticas de la Telerradiología y


sus derivados en “Consultas clínicas entre especialistas” para llevar los servicios especializados a otros
centros médicos.

La teleconferencia, la teleconmutación y la telemedicina son subconjuntos de las nuevas tecnologías de


la información y comunicación, y como tal, la Telerradiología y todas sus aplicaciones son un subconjunto
de la telemedicina. En el amplio sentido del concepto de Telerradiología“ transmisión de imágenes
radiológicas de un sitio a otro para informes médicos o interconsultas” se engloban muchas aplicaciones
de la actualidad.
En medicina, imagen es una matriz bidimensional, que presenta un paciente o una parte del paciente,
pudiendo ser también una foto o una imagen digital de TV. El objeto puede ser el resultado del cálculo
de la atenuación de los rayos X en los tejidos (TC), o el resultado de cálculos de dimensiones físicas
especializadas (SPECT, RM, etc.).

- En definitiva, la imagen médica es la imagen utilizada en medicina, que incluye, fotografías,


imágenes de TV o vídeo, o provenientes de equipamiento de diagnóstico especializado. La
imagen digital es la imagen almacenada en forma matricial, donde cada pixel de esa matriz tiene
un valor determinado, que puede ser representado con diferentes tonos de gris o brillantez, para
su representación en un monitor.

La mayoría de los estudios realizados coinciden en que la Telerradiología y todas sus aplicaciones,
favorecen de manera óptima la reutilización de los recursos hospitalarios, principalmente en áreas
rurales, donde la posibilidad de contratar un especialista es menor, y el coste más elevado.

Por otra parte, el contar con un servicio de Telerradiología de diagnóstico primario durante las 24 horas
que ofrezca servicios a zonas rurales, disminuye considerablemente los costes sanitarios, puesto que los
costes de ingreso en un hospital rural son menores que los costes en una institución hospitalaria de una
gran ciudad.

Otro de los beneficios de la Telerradiología, es la formación continuada a distancia. Especialistas en


Resonancia magnética, ecografía, TAC, y todo tipo de estudios especializados de radiología es más
frecuente encontrarlo en grandes instituciones. Por tanto, aquellos especialistas que se encuentren en
contacto directo, a través de Telerradiología, con dichos centros se pueden sostener de la experiencia de
los colectivos médicos de las grandes instituciones.

- En conclusión, el servicio de Telerradiología comunitario supone hoy día un incremento de la


calidad de servicio médico. A pesar de los costes iniciales en el montaje y puesta a punto de las
redes de Telerradiología, las aplicaciones derivadas de dicha implantación permiten rápidamente
recuperar la inversión y lograr ahorros.

Los sistemas de Telerradiología permiten:

- Interpretación primaria: Es la primera función de la Telerradiología. Un centro remoto de


Telerradiología con especialistas las 24 horas, puede cubrir gran número de centros periféricos
urbanos y grandes zonas rurales para realizar con efectividad el diagnóstico primario de
imágenes radiológicas.
- Telerradiologia interinstitucional: A nivel nacional, varios centros pueden centralizar los servicios
de Telerradiología con otras instituciones y realizar intercambios lógicos de teleinformes
primarios. Esta estrategia disminuye de forma razonable los costes de la implantación de la
Telerradiología. Además, permite una cobertura completa durante todo el año para todas las
instituciones con posibilidades de conectarse a la red.
- Consultas remotas a especialistas: La Telerradiología permite obtener una segunda opinión de
otros especialistas. Esta segunda opinión tiene un valor alto añadido en la valoración de los
controles de calidad de sistemas de Telerradiología.
- Formación y educación: La Telerradiología es utilizada también para la formación continuada. La
presentación de informes, la discusión de casos, la posibilidad de consultas a base de datos de
imágenes seleccionadas, la utilización de la teleconferencia para cursos de radiología a distancia
con efectividad y bajo coste.
- Otras posibilidades:
o Transmisión de audio, vídeo e imágenes fijas.
o Mejoras en la calidad de la atención sanitaria en zonas rurales y comunidades limítrofes,
ayudando a superar el aislamiento del médico rural al vincularlo a centros médicos
urbanos.
o Atención a domicilio.
o Supervisión de pacientes en la comunidad y continuidad de sus cuidados.
o Reducción de costes de contratación de radiólogos y otros médicos.
o Disminución de los traslados de las personas de áreas rurales para acceder a cuidados
especializados, con la consecuente reducción de costes.

10.1.4. Inconvenientes

I. Adaptación de los profesionales a las nuevas tecnologías.


II. Incertidumbre acerca de los resultados por parte de los responsables.
III. Requiere una inversión económica inicial elevada
IV. Exige cambios en la forma de trabajar, establecimiento de nuevos protocolos lo que enlentece
los procesos.

10.2. Componentes y estructura de la telerradiología y trabajo radiológico en red . Este epígrafe contiene
los siguientes puntos:

1- Introducción.
2- Componentes.
3- Usuarios.
4- Seguridad de los sistemas.
5- La seguridad física.

10.2.1. Introducción. Según diversos autores, los primeros intentos de Telerradiología se realizaron en el
año 1959 en Montreal (Canadá), con la transmisión de estudios de fluoroscopia.

A partir de entonces, varios proyectos de Telerradiología se llevaron adelante, pero no fue, hasta
mediados de los años 80, que comenzó un verdadero crecimiento en esta área.

- Como resultado de ello, en el año 1994, el Colegio Americano de Radiología (ACR), publicó las
primeras normativas sobre los sistemas de Telerradiología. Estas normativas que periódicamente
define y publica la ACR, permiten llevar adelante la práctica radiológica, ayudan al desarrollo
tecnológico de la radiología y, además, sirven para mejorar la calidad del servicio a los pacientes.
La norma en cuestión publicada bajo en título “ACR Standard for teleradiology” ha sido revisada
en el año 1996, y a final de 1998, quedando activa esta última revisión a partir de Enero de 1999.
Esta norma define las metas, la calificación de personal y pautas del equipamiento a utilizar; así
como el personal autorizado, sus obligaciones, normas de comunicación y de control de calidad.

10.2.2. Componentes. Toda la infraestructura necesaria para llevar a cabo un servicio de Telerradiología
deberá estar compuesta por los equipos de imagen médica, las estaciones de trabajo, la red de
telecomunicación, las herramientas para manejo de redes y otros recursos. En general, es aceptado que
la infraestructura de Telerradiología incluya sistemas responsables del almacenamiento temporal y el
manejo de datos multimedia.
Para empezar diremos que un sistema de Telerradiología está constituido por tres componentes
principales:

1- Sistemas de captura y envío de imágenes


2- Redes de transmisión
3- Sistemas de recepción e interpretación de la imágenes

Sistema de Telerradiología simplificado. Primero la imagen es convertida o capturada en un formato


digital, que puede ser DICOM 3.0 (Estándar Homologado por ACR, CEN 251¬EHTO y JIRA) o transferida a
dicho formato. Se transmite utilizando líneas regulares de teléfono, líneas digitales, ATM, T1, T3 o ADSL.

Generalmente, las imágenes son comprimidas antes de ser enviadas. Está compresión, llamada
compresión “lossless” (sin pérdida), debe tener tasas de compresión no mayor de 2 o 3:1 para no perder
nada de ellas. Sabemos, que una vez pasada esta tasa de compresión, se producen pérdidas de
información, independientemente de la técnica utilizada. El ACR, establece y recomienda como norma
que, el diagnóstico primario debe realizarse sobre imágenes no comprimida o que solamente se les haya
aplicado algoritmos de compresión sin pérdida.

Cuando las imágenes son recibidas en la estación receptora, estas son descomprimidas y colocadas en
sistemas de archivo, desde los cuales pueden ser visualizadas con la aplicación existente en la estación
receptora y así proceder al diagnóstico de los estudios recibidos.

La estación emisora deberá estar compuesta por:

- Sistema de Adquisición de imágenes.


- Dispositivo de conexión a la red de transmisión.

La estación receptora deberá estar compuesta por:

- Dispositivo de conexión a la red de transmisión.


- Sistema de almacenamiento.
- Sistema de visualización e informes.
- De forma opcional poseer un sistema de impresión.

10.2.3. Usuarios. Los usuarios potenciales de una Red de Telerradiología (RT) son:

- Radiólogos remotos: Las imágenes de un paciente pueden ser transmitidas desde el centro de
radiología hasta el radiólogo remoto (que pudiera estar incluso en su casa) para la realización de
un informe inmediato. La segunda opinión especializada de radiólogos remotos es también
utilizada con frecuencia en una red centralizada de Telerradiología.
- Médicos en el hospital: Las Unidades de Cuidados Intensivos (UCI) requieren de informes de
imágenes radiológicas urgentes en horas en que, por lo general, no se encuentra disponible el
colectivo de radiólogos. En este caso, la intercomunicación entre el radiólogo remoto y el
colectivo de la UCI proporciona los informes o las consultas necesarias de las imágenes de los
pacientes.
- Atención primaria y médicos rurales: Son los principales beneficiarios de la RT. El primer objetivo
de la Telerradiología es “ofrecer servicios de consulta e interpretación en áreas de mayor
necesidad”. La atención primaria en áreas rurales puede acceder al diagnóstico primario
radiológico, al conectarse a una RT. Las imágenes realizadas en los centros de atención primaria
pueden ser enviadas a radiólogos remotos y obtener de inmediato el informe médico de un
especialista.
- Otros médicos o radiólogos: Cuando requieren de una segunda opinión o de consultas
especializadas de radiología. En centros donde existen servicios de 24 horas con radiólogos
especializados pueden emitirse, mediante la RT, informes secundarios de radiología o realizar
interconsultas con aquellos especialistas médicos que lo requieran. En este caso, la opinión de
un experto puede agilizar el diagnóstico y el tratamiento de pacientes en situaciones extremas.

10.2.4. Seguridad de los sistemas. Los sistemas de Telerradiología, deben tener protocolos de seguridad,
tanto para las redes, como para la utilización de los sistemas (software), con la finalidad de proteger la
confidencialidad de los datos de los pacientes. Por otra parte, los sistemas deben estar provistos de
protocolos que resguarden la integridad de los datos y eviten la corrupción intencionada de los mismos.

La seguridad y privacidad de los sistemas informáticos está subdividida en: Seguridad física de la
información, control de accesos a la información, control de redes locales privadas, autentificación y
encriptación de los datos en firmas electrónicas.

- La seguridad física: Es la parte fundamental del programa de seguridad. Incluye dos aspectos, la
seguridad física propiamente dicha y la seguridad lógica. La seguridad lógica, se refiere a los
sistemas de software y controles automáticos. La seguridad física, se refiere a sistemas de
puertas, llaves, sensores y cercos eléctricos, que debe tener en cuenta, no solo a los intrusos,
sino extender la seguridad hacia otras causas medioambientales como fuego, agua, caída de
tensión eléctrica, calor y de ser posibles desastres naturales.
- Control de accesos: Después de cubrir los aspectos de seguridad física, se debe revisar el sistema
de control de acceso a la información almacenada y a los sistemas de transmisión. Se deberán
tener múltiples capas de control de acceso. Un Gerente, por ejemplo, podrá tener acceso a la
información financiera, pero no a la información médica confidencial. Otras personas, podrán
tener acceso a las cuestiones administrativas, agendas de turnos, etc., pero no podrán tener
acceso a los datos de pacientes. Los diferentes niveles de acceso, deberán estar bien definidos
por el centro y controlado por las autoridades locales o del país donde se implante el sistema.
Los accesos pueden estar controlados por identificadores y claves de acceso, controles de retina,
voz o firma digital. También, por sistemas electrónicos de control.
- Encriptación: La encriptación es una forma de encubrir los datos bajo algoritmos matemáticos
bien definidos. Independientemente de los identificadores y las claves de acceso, los sistemas
encriptación tienen la particularidad de que requieren de un software especializado para esa
función o de llaves de desencriptación, que pueden ser físicas (hardware). Dentro de una red de
Telerradiología, tanto el emisor, como el receptor, poseen los mismos códigos de
encriptación/desencriptación, agilizando la tarea de la comunicación de los datos, imágenes,
informes, etc.
- Autentificación y firmas electrónicas: El esquema de autentificación es una forma de verificar si
el mensaje o informe enviado no ha sido modificado durante y después de su transferencia. Sirve
para verificar, que dicho mensaje o informe, pertenece a determinado especialista. La firma
electrónica puede acabar con gran cantidad de falsificaciones y fraudes que ocurren dentro de
las redes, principalmente cuando se utiliza Internet. No se debe confundir la firma electrónica
con la encriptación de los contenidos. En estos momentos existe una fuerte tendencia a definir la
firma electrónica y los medios para que sea efectiva en sistemas telemédicos. Actualmente, es
posible integrar los sistemas telemédicos con sistemas de seguridad establecidos por comités de
estandarización.

UNIDAD 11.- CONTROL DE CALIDAD


Introducción.

La política y los procedimientos relacionados con el control de calidad en Telerradiología, han sido
desarrollados en primer lugar por la ACR y ampliados por la CEN/TC 251.

El Real Decreto 1976/1999, de 23 de diciembre establece los criterios de calidad en


radiodiagnóstico para asegurar la optimización en la obtención de las imágenes y la protección
radiológica del paciente en las unidades asistenciales de radiodiagnóstico y que las dosis
recibidas por los trabajadores expuestos y el público en general, tiendan a valores tan bajos
como pueda razonablemente conseguirse. A efectos de este Real Decreto la unidad asistencial
de radiodiagnóstico comprende la instalación o conjunto de instalaciones de rayos X utilizados
con fines de diagnóstico médico y radiología intervencionista y los recursos humanos adscritos a
las mismas.

Los sistemas de Telerradiología deben tener toda la documentación de los procedimientos de control de
calidad realizados a cada una de las partes que componen el sistema (los monitores, los sistemas de
adquisición, digitalización, compresión, transmisión y archivos). El programa de control de calidad está
designado para maximizar la calidad y el acceso a la información diagnóstica. El control de calidad en
Telerradiología está directamente relacionado con el ideal de la Telerradiología:

I. Alta resolución
II. No-compresión de imagenes
III. Altos niveles de transmisión con el adecuado ancho de banda. En la práctica, para poder
optimizar la transmisión, se requiere disminuir la resolución de las imágenes, mayores matrices
significan mayor tiempo de transmisión. Por otra parte, la compresión de imágenes con tasas
mayores de 3:1 provoca pérdidas en las imágenes. Imágenes con poca resolución espacial no
permite visualizar pequeños detalles o anormalidades. Consecuentemente, si la imagen
radiológica no tiene la suficiente calidad, incluso especialistas experimentados pueden no
realizar un diagnóstico correcto, empeorando la calidad de la Telerradiología.

Los sistemas que cumplen con los estándares ACR y que se acercan a la Telerradiología ideal, son por lo
general sistemas con un nivel de costo elevado. Dos de los aspectos que encarecen dichos sistemas son:

I. Líneas digitales de gran ancho de banda.


II. Monitores de alta resolución

Asegurar la calidad y la realización de dichos controles debería ser un proceso rutinario. La información
almacenada debe estar disponible para casos de emergencia. La calidad del servicio debe estar avalada
por un diagnóstico correcto y rápido de las imágenes radiológicas.

Esto adquiere su máxima importancia, en pacientes de áreas remotas, donde la Telerradiología es el


único soporte de interpretación de las imágenes. También, es importante que mediante la red de
Telerradiología, el hospital reciba un aviso inmediato sobre el posible tratamiento, incluso antes de que
el paciente llegue al centro asistencial. La utilización de la Telerradiología no reduce las
responsabilidades por el manejo y la vigilancia médica en radiología. Haciendo un control de calidad
correcto se logra más de un 95% de coincidencia diagnóstica entre imágenes radiológicas “in situ” y las
mismas imágenes digitalizadas y enviadas a distancia.

- En conclusión, el control de calidad, es buscar, cual es la forma viable de diagnóstico, según las
normativas establecidas por la ACR y la CEN, para que se cumplan los requisitos legales, éticos y
económicos de su implantación, partiendo de que la calidad de la imagen y el diagnóstico es lo
primero.

11.2. Calificación del personal

- Médico Especialista.
- Técnico.
- Físico-médico.
- Especialista en sistemas o redes.

11.2.1. Médico Especialista. El médico especialista debe estar familiarizado con la tecnología básica de
Telerradiología, sus ventajas y desventajas, y debe conocer la utilización del equipo de Telerradiología.

El examen radiológico, desde el centro emisor, debe ser ejecutado por personal calificado y entrenado
en los exámenes que realice. En la mayoría de los casos, esto significa, que ha de ser un médico,
debidamente autorizado, y/o un técnico del departamento de radiología, debidamente acreditado para
tal función. Este técnico debe encontrarse bajo la supervisión oficial de un médico.

La interpretación oficial de las imágenes debe realizarla un médico que cumpla los siguientes requisitos:

I. Poseer documentación sobre formación en diagnóstico radiológico y comprensión de la


tecnología de Telerradiología, el equipamiento necesario para obtener imágenes diagnósticas y
sobre el proceso de obtención de la imagen digital. El médico que realiza la interpretación, debe
conocer los principios de protección radiológica, los riesgos de exposición a la radiación, tanto
del paciente, como del personal de radiología y los requisitos de supervisión de pacientes y
personal.
II. Tener conocimiento de la utilidad de las técnicas de diagnóstico por imagen tales como
ecografía, tomografía computerizada, medicina nuclear, resonancia magnética, angiografía y
otros procedimientos especializados, para cumplir con el rol del consultante e interpretar las
imágenes de Telerradiología.
III. Ha de tener calificación apropiada demostrada antes de recibir una modalidad de imágenes
diagnósticas por Telerradiología.
IV. Ha de tener un entrenamiento y formación adecuada según las normativas del país o región en
cuestión.

11.2.2. Técnico. El técnico debe:

I. Estar especializado para operar y dirigir adecuadamente el sistema de Telerradiología.


II. Tener posibilidad de estar en contacto con los físicos médicos, los ingenieros y los especialistas
de sistema de comunicación, o especialistas de los sistemas de tratamiento de la imagen.

11.2.3. Físico-médico. Un Físico Médico Cualificado es competente para trabajar en una o más ramas de
la física médica. La ACR recomienda que los individuos estén acreditados por la rama apropiada de la
American Board of Radiology u Organismos Nacionales similares. Las ramas de la física médica son:
I. Física de la radiología terapéutica
II. Física del diagnóstico radiológico
III. Física de las técnicas de la medicina nuclear
IV. Física Radiológica.

Un físico médico certificado, debe haber recibido, según las normativas de la ACR, una formación
continuada en estas ramas.

11.2.4. Especialista en sistemas o redes. Para el mantenimiento de toda la red de Telerradiología, es


necesaria la presencia de un especialista en sistemas y/o redes, que esté familiarizado con el manejo de
imágenes médicas.

Este especialista deberá estar cualificado para manejar y evaluar los sistemas de Telerradiología.

11.3. Cuestiones médico-legales. En las aplicaciones telemáticas se plantean problemas tales como:

I. Intimidad y confidencialidad
II. Responsabilidad profesional
III. Estándares éticos
IV. Temas éticos

Los organismos internacionales y estatales trabajan para llegar a obtener un marco legal que se ajuste a
la realidad. Sin embargo, debe considerarse, que puede pasar cuando un informe “provisional” se envía
adjuntado a la imagen y resulta ser incorrecto. O que ocurre cuando la información que se recupera es
vulnerable a corrupción o contaminación por virus. Es importante que exista la máxima seguridad con
respecto a este tipo de información. Para evitar estos problemas y muchos otros, se desarrollan
protocolos y estándares que protegen la confidencialidad de cualquier información médica privada.

11.3.1. Seguridad de los datos informáticos. Este área se refiere a los datos soportados por el ordenador
de un hospital. Y se puede convertir en un área de preocupación, cuando estos datos se transmiten entre
hospitales o entre naciones.

11.3.2. Telerradiología en Internet. La utilización de información telerradiológica no debería necesitar de


legislación adicional, pero si deberían seguirse ciertas directrices.

En la práctica, un sistema de correo o un sistema de almacenamiento de radiografías puede ser


penetrado con más facilidad que un ordenador.

- Es más seguro, transmitir los datos vía Internet, siempre y cuando se garantice, que los datos de
identificación del paciente y datos demográficos han sido eliminados y que se ha desarrollado un
método alternativo de identificar los datos por imagen. Antes de utilizar ningún sistema, hay que
verificar que este sistema es seguro.

11.3.3. Telerradiología desde el extranjero. Si se reciben imágenes radiológicas desde el extranjero y se


precisa de un informe, es vital asegurarse una adecuada protección por ambas partes.

El radiólogo debe asegurarse de que su defensa está cubierta por la organización para la que trabaja y
que ésta acepta la responsabilidad de la gestión médica.

11.3.4. Retención de historias.


Los informes de radiología no digitales están siendo destruidos progresivamente según los informes
electrónicos van tomando terreno.

- En el futuro las radiografías solicitadas se iniciaran de forma electrónica.

Mientras tanto, es importante considerar si el papel solicitado debería guardarse o digitalizarse en


sistemas PACS, RIS o HIS.

- En el caso de tener que guardar los datos por un periodo largo de tiempo, la cuestión de la
lectura de historias o datos previos deberá considerarse si el sistema tiene que ser actualizado.

11.3.5. Acuerdos a nivel de servicios. Cuando un departamento u hospital entra en un acuerdo, para
proporcionar servicios de Telerradiología, es necesario generar guías estrictas: protocolos escritos para la
seguridad de su práctica y cubrir los siguientes temas:

I. Disponibilidad de radiólogo en la estación receptora, velocidad de entrega del informe y a quien


hay que enviarlo.
II. Precisión de los datos recibidos, incluyendo el grado de comprensión y/o resolución de datos
comparándolos con el original.
III. Velocidad de comunicación entre las estaciones emisora y receptora.
IV. Responsabilidad por la retención y el archivo de historias e informes, así como por la duración de
la retención de historias.
V. Consistencia y frecuencia del control de calidad. Auditoria del servicio de Telerradiología.
VI. Seguridad de la información de rastreo, conformidad con la legislación sobre seguridad y
confidencialidad.
VII. Presencia de un contrato de mantenimiento
VIII. Cambio de los planes de trabajo del radiólogo y de sus recursos, que refleje los niveles extras de
actividad secundarios a la Telerradiología.

11.3.6. Autorizaciones, credenciales y obligatoriedad.

Definición: Una interpretación o informe oficial de las imágenes teletransmitidas, es un reporte escrito o
hablado, que se adjunta a la historia clínica del paciente o a los registros de paciente, en caso de que la
historia clínica no exista en el lugar del informe.

Características: El especialista que realiza el informe, es el máximo responsable de la calidad de las


imágenes por él recibidas para la interpretación. De no ser así, deberá pedir nuevas imágenes o realizar
una consulta secundaria a otro médico autorizado. Sólo se comenzará con la realización de informes a
distancia, una vez comprobado que todo el sistema cumple los estándares de control de calidad
expuestos por la ACR y la CEN/TC 251, según la ISO 9001.

Las imágenes y el informe realizado por el especialista, no pueden ser borrados ni alterados de sistema
de almacenamiento. Estas imágenes y dicho informe y todas sus posteriores recomendaciones, no deben
ser borrados del sistema durante el tiempo establecido entre la unidad receptora y la unidad remota
emisora, o según normativas establecidas por las autoridades regionales, municipales o nacionales,
según cada caso.

UNIDAD 12.- PANTALLAS DE VISUALIZACION DE DATOS


12.1 INTRODUCCION La Ley 31/1995, de 8 de noviembre, de Prevención de Riesgos Laborales, determina
el cuerpo básico de garantías y responsabilidades preciso para establecer un adecuado nivel de
protección de la salud de los trabajadores frente a los riesgos derivados de las condiciones de trabajo, en
el marco de una política coherente, coordinada y eficaz. Según el artículo 6 de la misma serán las normas
reglamentarias las que irán fijando y concretando los aspectos más técnicos de las medidas preventivas.

Así, son las normas de desarrollo reglamentario las que deben fijar las medidas mínimas que deben
adoptarse para la adecuada protección de los trabajadores. Entre ellas se encuentran las destinadas a
garantizar que de la utilización de los equipos que incluyen pantallas de visualización por los
trabajadores no se deriven riesgos para la seguridad y salud de los mismos.

En el mismo sentido hay que tener en cuenta que en el ámbito de la Unión Europea se han fijado
mediante las correspondientes Directivas criterios de carácter general sobre las acciones en materia de
seguridad y salud en los centros de trabajo, así como criterios específicos referidos a medidas de
protección contra accidentes y situaciones de riesgo. Concretamente, la Directiva 90/270/CEE, de 29 de
mayo, establece las disposiciones mínimas de seguridad y de salud relativas al trabajo con equipos que
incluyan pantallas de visualización. Mediante el presente Real Decreto se procede a la transposición al
Derecho español del contenido de la Directiva 90/270/CEE, antes mencionada.

El Real Decreto 488/1997 establece las disposiciones mínimas de seguridad y de salud para la utilización
por los trabajadores de equipos que incluyan pantallas de visualización.

12.2. Definiciones:

PANTALLAS DE VISUALIZACION: Una pantalla alfanumérica o gráfica, independientemente del método de


representación visual utilizado.

PUESTOS DE TRABAJO: El constituido por un equipo con pantalla de visualización provisto, en su caso, de
un teclado o dispositivo de adquisición de datos, de un programa para la interconexión
persona/máquina, de accesorios ofimáticos y de un asiento y mesa o superficie de trabajo, así como el
entorno laboral inmediato.

TRABAJADOR: Cualquier trabajador que habitualmente y durante una parte relevante de su trabajo
normal utilice un equipo con pantalla de visualización.

12.3. Obligaciones generales del empresario. El empresario adoptará las medidas necesarias para que la
utilización por los trabajadores de equipos con pantallas de visualización no suponga riesgos para su
seguridad o salud o, si ello no fuera posible, para que tales riesgos se reduzcan al mínimo.

El empresario deberá evaluar los riesgos para la seguridad y salud de los trabajadores, teniendo en
cuenta en particular los posibles riesgos para la vista y los problemas físicos y de carga mental, así como
el posible efecto añadido o combinado de los mismos.

La evaluación se realizará tomando en consideración las características propias del puesto de trabajo y
las exigencias de la tarea y entre éstas, especialmente, las siguientes:

I. El tiempo promedio de utilización diaria del equipo.


II. El tiempo máximo de atención continua a la pantalla requerido por la tarea habitual.
III. El grado de atención que exija dicha tarea
Si la evaluación pone de manifiesto que la utilización por los trabajadores de equipos con pantallas de
visualización supone o puede suponer un riesgo para su seguridad o salud, el empresario adoptará las
medidas técnicas u organizativas necesarias para eliminar o reducir el riesgo al mínimo posible. En
particular, deberá reducir la duración máxima del trabajo continuado en pantalla, organizando la
actividad diaria de forma que esta tarea se alterne con otras o estableciendo las pausas necesarias
cuando la alternancia de tareas no sea posible o no baste para disminuir el riesgo suficientemente.

12.4. Vigilancia de la salud. El empresario garantizará el derecho de los trabajadores a una vigilancia
adecuada de su salud, teniendo en cuenta en particular los riesgos para la vista y los problemas físicos y
de carga mental, el posible efecto añadido o combinado de los mismos, y la eventual patología
acompañante. Tal vigilancia será realizada por personal sanitario competente y según determinen las
autoridades sanitarias en las pautas y protocolos que se elaboren, de conformidad con lo dispuesto en el
apartado 3 del artículo 37 del Real Decreto 39/1997, de 17 de enero, por el que se aprueba el
Reglamento de los servicios de prevención. Dicha vigilancia deberá ofrecerse a los trabajadores en las
siguientes ocasiones:

I. Antes de comenzar a trabajar con una pantalla de visualización.


II. Posteriormente, con una periodicidad ajustada al nivel de riesgo a juicio del médico responsable
III. Cuando aparezcan trastornos que pudieran deberse a este tipo de trabajo.
IV. Cuando los resultados de la vigilancia de la salud lo hiciesen necesario, los trabajadores tendrán
derecho a un reconocimiento oftalmológico.

El empresario proporcionará gratuitamente a los trabajadores dispositivos correctores especiales para la


protección de la vista adecuados al trabajo con el equipo de que se trate, si los resultados de la vigilancia
de la salud a que se refieren los apartados anteriores demuestran su necesidad y no pueden utilizarse
dispositivos correctores normales.

12.5. Obligaciones en materia de información y formación. De conformidad con los artículos 18 y 19 de la


Ley de Prevención de Riesgos Laborales:

1. El empresario deberá garantizar que los trabajadores y los representantes de los trabajadores reciban
una formación e información adecuadas sobre los riesgos derivados de la utilización de los equipos que
incluyan pantallas de visualización, así como sobre las medidas de prevención y protección que hayan de
adoptarse.

2. El empresario deberá informar a los trabajadores sobre todos los aspectos relacionados con la
seguridad y la salud en su puesto de trabajo y sobre las medidas llevadas a cabo.

3. El empresario deberá garantizar que cada trabajador reciba una formación adecuada sobre las
modalidades de uso de los equipos con pantallas de visualización, antes de comenzar este tipo de trabajo
y cada vez que la organización del puesto de trabajo se modifique de manera apreciable.

12.6. Disposiciones mínimas de seguridad en los puestos con equipos de PVD.

- Factores y elementos básicos que deben considerarse en el diseño.


- El equipo de trabajo.
- Equipo.
- Entorno.
- Interconexión ordenador/persona.
12.6.1. Factores y elementos básicos que deben considerarse en el diseño.

Son aquellos aspectos y elementos de trabajo que, si no reúnen las condiciones ergonómicas adecuadas,
son susceptibles de favorecer la aparición de alteraciones, principalmente osteomusculares, visuales o
relacionadas con la fatiga mental, en la salud de las personas que trabajan con PVD. Los aspectos que se
han de tener en consideración en los puestos equipados con pantallas de visualización son: el equipo
informático, el mobiliario del puesto, el medio ambiente físico y la interfaz persona/ordenador. Hay que
tener igualmente en cuenta la organización del trabajo.

Los elementos de los que se pueden derivar los riesgos están relacionados:

El equipo de trabajo: -Pantalla -Filtros -Soporte de monitor -Teclado y otros dispositivos de entrada de
datos -Reposamuñecas -Mesa o superficie de trabajo -Documentos -Portadocumentos o atril -Asiento
-Cableado -Equipos portátiles -Postura de trabajo

El entorno de trabajo: -Espacio -Iluminación -Reflejos y deslumbramientos -Ruido –Vibraciones


-Condiciones termohigrométricas -Emisiones electromagnéticas -Interconexión –ordenadorpersona

La organización de trabajo: -Elementos materiales -Consulta y participación de los trabajadores


-Formación e información de los trabajadores -Desarrollo del trabajo diario -Pausas y cambios de
actividad

El diseño ergonómico deberá conseguir que los distintos elementos del sistema formen un todo
coherente, considerando la interacción entre individuo y entorno en su totalidad. El objetivo es
proyectar un sistema que tenga en cuenta las capacidades y las limitaciones del ser humano, atendiendo
tanto a factores físicos (antropometría, biomecánica) como mentales (capacidad perceptiva, de
procesamiento de información, toma de decisiones...).

- La norma UNE 81-425-91: “Principios ergonómicos a considerar en el proyecto de los sistemas de


trabajo” (ISO 6385-1981) dice, en el apartado “campos de aplicación”, que: los principios
ergonómicos que se especifican en esta norma europea se aplican al proyecto de las condiciones
de trabajo óptimas en relación con el bienestar de la persona, su salud y a su seguridad,
teniendo en cuenta la eficiencia tecnológica y económica y, así mismo, define lo que es “sistema
de trabajo” como el sistema que comprende la combinación de personas y medios de trabajo,
actuando en conjunto sobre el proceso de trabajo, para llevar a cabo una actividad laboral, en un
espacio de trabajo, sometidos a un determinado ambiente de trabajo y bajo unas condiciones
impuestas por la tarea a desempeñar.

12.6.2. El equipo de trabajo. A la hora de diseñar el puesto de trabajo se debe considerar la variabilidad
de las dimensiones antropométricas de los posibles usuarios. Para el trabajo en posición sentado, debe
habilitarse el suficiente espacio para alojar los miembros inferiores y para permitir los cambios de
postura en el transcurso de la actividad. Las medidas del espacio para los miembros inferiores
(dependerá de las medidas antropométricas) serán de un mínimo de 60 cm de ancho por 65/70 de
profundidad. Hay que tener en cuenta también en cuanto al acceso y la ubicación del puesto, que debe
existir suficiente espacio para permitir al usuario el acceso al mismo sin dificultad, así como para que
pueda tomar asiento y levantarse con facilidad. En la disposición de los puestos se debe tener en cuenta
la organización de la actividad, la interacción de los grupos, las necesidades de comunicación y lo relativo
a los planes de emergencia.
Recomendaciones generales: Al estar ante un equipo de trabajo de PVD, a efectos preventivos y de
confort, es preciso tener en cuenta una serie de aspectos de carácter general:

I. Es necesario formar a los usuarios sobre el buen uso, desde el punto de vista ergonómico, del
equipo de trabajo.
II. Las condiciones que determinan una adecuada visión deben ser óptimas para el tipo de tarea
que se realiza, en materiales, disposición, cantidad y calidad. Así, las luminarias deben estar en
línea con el puesto de trabajo, las ventanas deben quedar fuera del campo visual, las luminarias
se recomiendan con fluorescentes y con rejilla, la pintura y decoración de la sala debe ser clara y
mate, etc
III. Es preciso situar el equipo en el centro de la zona de confort del campo visual, sin que esto
obstaculice el contacto visual con los clientes u otras personas necesarias en la relación de
trabajo.
IV. Debe distribuirse el puesto de una forma racional, con los cables del equipo ocultos bajo
regletas, con longitudes adecuadas, con suficientes tomas de luz, etc.
V. Si se utilizan diferentes equipos de trabajo, es recomendable situarlos a la misma distancia. No
obstante, se debe emplazar el equipo que más se utilice en la zona de confort de alcance. Esta
zona de confort se define como aquella área barrida por ambas manos sin cambiar de postura.
VI. Siempre hay que considerar la lateralidad del sujeto, si es zurdo o diestro, a efectos de diseño del
equipo y colocación de material de trabajo.
VII. La postura correcta debe ser compatible con la utilización de diferentes equipos de trabajo.
VIII. Es conveniente que los colores presentes en el equipo y entorno inmediato sean armónicos.
IX. La luminancia de los diferentes equipos de trabajo debe homogeneizarse, de forma que no
existan grandes diferencias.

12.6.3. Equipo. Observación general: La utilización en sí misma del equipo no debe ser una fuente de
riesgo para los trabajadores.

Pantalla. Resulta importante destacar que la pantalla se ha de colocar de forma que las áreas de trabajo
que hayan de ser visualizadas de manera continua tengan un “ángulo de la línea de visión” comprendido
entre la horizontal y 60° por debajo de la misma. No obstante, la zona preferida por los usuarios, según
diversos estudios, se sitúa entre la línea de visión horizontal (ángulo de 0°) y un ángulo de 30°. Además,
cualquier pantalla debe de ser legible desde cualquier ángulo de visión, al menos hasta 40° desde la
normal a la superficie de pantalla, medido en cualquier plano de la misma, siendo el óptimo 0°.

I. Los caracteres de la pantalla deberán estar bien definidos y configurados de forma clara, y tener
una dimensión suficiente, disponiendo de un espacio adecuado entre los caracteres y los
renglones.
II. La imagen de la pantalla deberá ser estable, sin fenómenos de destellos, centelleos u otras
formas de inestabilidad.
III. El usuario de terminales con pantalla deberá poder ajustar fácilmente la luminosidad y el
contraste entre los caracteres y el fondo de la pantalla, y adaptarlos fácilmente a las condiciones
del entorno.
IV. La pantalla deberá ser orientable e inclinable a voluntad, con facilidad para adaptarse a las
necesidades del usuario.
V. Podrá utilizarse un pedestal independiente o una mesa regulable para la pantalla.
VI. La pantalla no deberá tener reflejos ni reverberaciones que puedan molestar al usuario.

Teclado. Este elemento deberá permitir al trabajador localizar y usar las teclas con rapidez y precisión,
sin que le genere molestias o disconfort. Además, debe permitir la movilidad e independencia respecto
al resto del equipo, y es necesario posibilitar su reubicación conforme a los cambios de tarea o de
postura del usuario. Asimismo, algunas características del teclado, como su altura, grosor e inclinación
pueden influir en la adopción de posturas incorrectas y originar trastornos en los usuarios. Para prevenir
estos riesgos, el diseño del teclado debe cumplir una serie de requisitos, descritos en la normativa
técnica. La utilización continuada del teclado ha demostrado que puede ser causa de patología
osteomuscular, como por ejemplo la tendinitis, la tenosinovitis o el síndrome del túnel carpiano. El
correcto diseño y la colocación del teclado, conjuntamente con el establecimiento de pausas y la
reducción en los ritmos de trabajo, parecen reducir estas alteraciones.

Una variable que está en continua investigación es el papel que puede jugar el diseño del teclado.
Existen en el mercado algunos diseños novedosos que suelen perseguir la reducción en las alteraciones
músculo-esqueléticas debido a la postura forzada del segmento manomuñeca (tienen como objetivo
conseguir una postura natural) y al movimiento y la fuerza de los dedos y la prevención de alteraciones
consecuentes como síndrome de túnel carpiano, tendinitis u otras.

A pesar de que se presentan como alternativas ergonómicas y aunque existen algunos estudios, la falta
de evidencia hace que sea difícil todavía confirmar los beneficios de cada uno de los diseños propuestos.
Algunos teclados pueden ser adecuados para algunas personas, en algunos puestos, pero no puede
generalizarse que un diseño determinado sea más adecuado bajo cualquier circunstancia.

El más extendido es el teclado partido: En algún estudio sobre algunos nuevos diseños de teclados
alternativos se ha llegado a la conclusión de que, una vez superado el periodo de adaptación, la mayoría
de los usuarios prefiere este tipo de teclado a los tradicionales, alegando que permite una postura más
cómoda y que reduce las molestias. La mayor parte de los usuarios aprende con rapidez a utilizarlos; una
vez pasado un breve periodo en el que se reduce la rapidez y la precisión, en general, en muy pocos días
se recupera el rendimiento habitual. El aprendizaje, lógicamente, puede costar algo más en personas con
mayor experiencia cuyos movimientos se realizan de manera más automatizada.
Una utilidad de los teclados alternativos es la posibilidad de desarrollo de aplicaciones específicas que
ofrezcan a las personas con discapacidad la posibilidad de comunicación o de integración al mundo
laboral aumentando su participación en la sociedad y su grado de independencia. Actualmente existen
diseños alternativos como solución al problema de accesibilidad a los ordenadores. La selección del
dispositivo adecuado depende de las posibilidades de movimiento del usuario.

Existen en el mercado: teclados más amplios para personas con capacidad de precisión reducida o de
menor tamaño para personas con limitaciones en el movimiento; teclados para utilizar con una sola
mano; teclados visuales, utilización de punteros, etc.

Características del teclado:

I. El teclado deberá ser inclinable e independiente de la pantalla para permitir que el trabajador
adopte una postura cómoda que no provoque cansancio en los brazos o las manos.
II. Tendrá que haber espacio suficiente delante del teclado para que el usuario pueda apoyar los
brazos y las manos.
III. La superficie del teclado deberá ser mate para evitar los reflejos.
IV. La disposición del teclado y las características de las teclas deberán tender a facilitar su
utilización.
V. Los símbolos de las teclas deberán resaltar suficientemente y ser legibles desde la posición
normal de trabajo.

Mesa o superficie de trabajo. Una de las preguntas más frecuentes es cuál es la medida recomendada
para una mesa de ordenador. Se hace muy difícil establecer recomendaciones al respecto, ya que la
superficie de trabajo dependerá de las tareas que deban realizarse y, sobre todo, de los elementos que
sea necesario disponer en ella. Las medidas han de ser tales que permitan que el equipo de trabajo se
pueda colocar correctamente. Para tareas generales de oficina, las medidas aproximadas mínimas de la
superficie, pueden ser de 80 cm por 120 cm. Puede ser necesaria una anchura algo mayor a fin de
asegurar que entre el teclado y el borde libre de la mesa quede una distancia de 5 a 10 cm., actuando así
ese espacio de reposamanos.

Es importante tener en cuenta la altura de la mesa con relación a la altura de la silla y de las personas
usuarias: El conjunto ha de permitir la realización del trabajo facilitando el cambio postural, a partir de la
postura de referencia. Para ello es recomendable que la mesa tenga una altura ajustable. Si se dispone
de tableros ajustables en altura, el rango de regulación debe situarse entre el percentil 5 femenino y el
95 masculino de la población de posibles usuarios/as. Para aquellas personas que estén fuera de dichos
límites, puede ser necesario recurrir a la adaptación individualizada.

En el caso de usar una bandeja ajustable de teclado, ésta deberá cumplir los siguientes criterios:
posibilidad de ajuste y regulación a las medidas antropométricas de los usuarios, adaptación al cambio
de postura (de pie y sentado), adaptabilidad al mobiliario o equipo de trabajo y movilidad del usuario.
Esta bandeja, teniendo en cuenta criterios de diseño (Norma ISO 9241-5) como son el ajuste, el cambio
de postura, la adaptabilidad y la movilidad, permite:

I. Situar el teclado y el ratón a una altura y en una posición más adecuada a las características
antropométricas del trabajador; facilitando el apoyo de los pies sobre el suelo.
II. Trabajar de pie o sentado, fomentando así el confort de la espalda, reduciendo la carga muscular
y los problemas musculoesqueléticos.
III. Soportar correctamente el cuerpo y cambiar de posición, favoreciendo la circulación.
IV. Utilizar el equipo diversas personas con características físicas diferentes, permitiendo, debido a
la versatilidad en sus ajustes, cambios de postura y movimientos frecuentes. Además,
proporciona una correcta posición de las muñecas.

Características generales de la mesa de trabajo:

Primero La mesa o superficie de trabajo deberán ser poco reflectantes, tener dimensiones suficientes y
permitir una colocación flexible de la pantalla, del teclado, de los documentos y del material accesorio.

Segundo El soporte de los documentos deberá ser estable y regulable y estará colocado de tal modo que
se reduzcan al mínimo los movimientos incómodos de la cabeza y los ojos.

Tercero El espacio deberá ser suficiente para permitir a los trabajadores una posición cómoda

Asiento de trabajo. Hoy en día es habitual la utilización de asientos con apoyabrazos, ya que éstos
facilitan el cambio de postura y reducen la carga muscular de la zona cuello-hombro. Es recomendable
que sean ajustables en altura, especialmente en puestos que deban ser ocupados por más de una
persona (por rotación o por turnicidad), de manera que se asegure que cumplen su función y no obligan
a posturas forzadas de los brazos, por una altura excesiva o del cuerpo, por altura insuficiente. También
pueden ser de utilidad los reposabrazos abatibles en puestos en los que se alterne la tarea de ordenador
con otro tipo de tarea.

Características de los asientos:

- El asiento de trabajo deberá ser estable, proporcionando al usuario libertad de movimiento y


procurándole una postura confortable
- La altura del mismo deberá ser regulable.
- El respaldo deberá ser reclinable y su altura ajustable.
- Se pondrá un reposapiés a disposición de quienes lo deseen.

Otro aspecto que se ha de considerar es el recubrimiento del asiento. Este debería ser de un material
transpirable, sin embargo, debe tenerse en cuenta que en puestos en los que se esté expuesto a
ambientes de polvo o a la manipulación de productos químicos, deberá elegirse un tipo de material no
absorbente.

Una correcta relación mesa/silla debe permitir una postura adecuada. Cuando esto no ocurre puede
recurrirse a la utilización de reposapiés.

También sería conveniente disponer de freno o bloqueo de las ruedas, con el fin de que se pueda fijar
una posición estática óptima de trabajo, dado que algunos apoyos sobre el reposapiés o cualquier
movimiento de las piernas pueden desplazar el asiento hacia atrás cuando se pretende estar en posición
estática.

Cableado Se han de establecer rutinas de mantenimiento de las conexiones y del propio cableado, de
forma que la seguridad del trabajador quede garantizada, sin que este hecho interrumpa las actividades
del operador.

Se deberán tener en cuenta algunas consideraciones en este aspecto:

I. La disposición del cableado en el lugar de trabajo no ha de suponer en su trayecto un obstáculo


para las zonas de paso.
II. La longitud que se emplee debería ser suficientemente holgada como para introducir cualquier
modificación en el equipo (periféricos, cambio de ubicación de un elemento, etc.).
III. Se recomienda que los enchufes y las tomas de corriente tengan el menor recorrido posible.
IV. El acceso a las conexiones principales debe ser fácil
V. No se recomienda conectar más de tres enchufes por toma.
VI. Utilizar puestas a tierra y diferenciales de alta sensibilidad.
VII. El cableado de transmisión de datos ha de estar separado del cableado eléctrico.

12.6.4. Entorno. Está compuesto por los siguientes factores:

Espacio El puesto de trabajo deberá tener una dimensión suficiente y estar acondicionado de tal manera
que haya espacio suficiente para permitir los cambios de postura y movimientos de trabajo.

Iluminación La iluminación general y la iluminación especial (lámparas de trabajo), cuando sea necesaria,
deberán garantizar unos niveles adecuados de iluminación y unas relaciones adecuadas de luminancias
entre la pantalla y su entorno, habida cuenta del carácter del trabajo, de las necesidades visuales del
usuario y del tipo de pantalla utilizado.

El acondicionamiento del lugar de trabajo y del puesto de trabajo, así como la situación y las
características técnicas de las fuentes de luz artificial, deberán coordinarse de tal manera que se eviten
los deslumbramientos y los reflejos molestos en la pantalla u otras partes del equipo.

Reflejos y deslumbramientos Los puestos de trabajo deberán instalarse de tal forma que las fuentes de
luz, tales como ventanas y otras aberturas, los tabiques transparentes o translúcidos y los equipos o
tabiques de color claro no provoquen deslumbramiento directo ni produzcan reflejos molestos en la
pantalla.

Las ventanas deberán ir equipadas con un dispositivo de cobertura adecuado y regulable para atenuar la
luz del día que ilumine el puesto de trabajo.

Ruido El ruido producido por los equipos instalados en el puesto de trabajo deberá tenerse en cuenta al
diseñar el mismo, en especial para que no se perturbe la atención ni la palabra.

Calor Los equipos instalados en el puesto de trabajo no deberán producir un calor adicional que pueda
ocasionar molestias a los trabajadores.

Emisiones Toda radiación, excepción hecha de la parte visible del espectro electromagnético, deberá
reducirse a niveles insignificantes desde el punto de vista de la protección de la seguridad y de la salud
de los trabajadores.

Humedad Deberá crearse y mantenerse una humedad aceptable.

12.6.5. Interconexión ordenador/persona. Para la elaboración, la elección, la compra y la modificación de


programas, así como para la definición de las tareas que requieran pantallas de visualización, el
empresario tendrá en cuenta los siguientes factores:

I. El programa habrá de estar adaptado a la tarea que deba realizarse.


II. El programa habrá de ser fácil de utilizar y deberá, en su caso, poder adaptarse al nivel de
conocimientos y de experiencia del usuario; no deberá utilizarse ningún dispositivo cuantitativo
o cualitativo de control sin que los trabajadores hayan sido informados y previa consulta con sus
representantes.
III. Los sistemas deberán proporcionar a los trabajadores indicaciones sobre su desarrollo.
IV. Los sistemas deberán mostrar la información en un formato y a un ritmo adaptados a los
operadores.
V. Los principios de ergonomía deberán aplicarse en particular al tratamiento de la información por
parte de la persona.

UNIDAD 13.- LOS MEDIOS DE CONTRASTE RADIOLOGICOS


13.1. Antecedentes. Los medios de contraste radiológicos (MCR) son sustancias químicas de moléculas
complejas que, inyectadas dentro del torrente sanguíneo, aumentan la densidad de vasos y de tejidos,
permitiendo que contrasten de esta forma con las estructuras vecinas.

Muy temprano en la historia de la Radiología se administraron distintas sustancias para opacificar


diversas estructuras.

Se destacan las experiencias de Heuser en Argentina, inyectando yoduro de potasio para realizar las
primeras pielografías, en el año 1919. Pero todos los compuestos actuales, derivados del ácido benzoico
unido a distinto número de moléculas de yodo, son compuestos yodados hidrosolubles que se originan a
partir de los trabajos de Osborne, en 1923. Desde entonces, se han utilizado en numerosos estudios
radiológicos, tales como el urograma excretor y la tomografía axial computada.

La irrupción en la circulación por vía endovenosa de una sustancia extraña al cuerpo humano, no
siempre es totalmente inocua y puede producir reacciones no deseadas o inesperadas, cuyos
mecanismos no están lo suficientemente aclarados. Cuando estas reacciones generan manifestaciones
clínicas, se consideran como reacciones adversas. Desde el comienzo se han informado distintas y
variadas reacciones, algunas de las cuales conllevan expresiones similares a las de origen alérgico.

De cualquier manera, son tales los beneficios del uso de los MCR, permitiendo diagnósticos médicos
imposibles de obtener con otros métodos, que su utilización, lejos de disminuir, aumenta cada día.

Los requisitos que deben cumplir los medios de contraste para que puedan ser utilizados de manera
segura son los siguientes:

1. No pueden ser tóxicos.


2. No se deben degradar ni metabolizar en el organismo. Deben ser eliminados rápidamente del
organismo.
3. Se deben tolerar ópticamente, sin que produzcan irritación.
4. Deben permanecer el suficiente tiempo en los órganos que se van a explorar como para que
éstos puedan ser explorados.

Las dosis de los medios de contraste que se deben aplicar para la exploración dependen de varios
criterios:

1. La edad del paciente, su peso y su estado físico.


2. El tipo de estudio a realizar
3. La concentración del medio de contraste utilización y su composición
Clasificación de los medios de contraste. Los medios de contraste se pueden clasificar en función de sus
propiedades físico-químicas, es decir, según su capacidad para absorber los rayos X.

 Medios de contraste positivos


 Medios de contraste negativos

Medios de contraste positivos. Los medios de contraste positivos absorben los rayos X en mayor medida
que los tejidos adyacentes, aumentado el contraste proporcionado por el órgano que se va a explorar.

1. Bario: Se utiliza químicamente puro, para la exploración del tubo digestivo. Debe estar presente en
forma de un sulfato no soluble en agua, para que los iones de bario, que son tóxicos, no sean absorbidos
por la mucosa gastrointestinal.

2. Medios de contraste yodados, que pueden ser:

 Medios de contraste oleoso Cuando se añade yodo a los compuestos oleosos, sobre todo a los
aceites vegetales, se obtiene un medio de contraste muy eficaz para visualizar las articulaciones,
el útero, los vasos y los nódulos linfáticos, etc. Este tipo de medios de contraste cada vez se
utilizan con menos frecuencia por sus desventajas (viscosidad elevada, eliminación lenta, etc.), y
se han ido sustituyendo de manera progresiva por los medios de contraste hidrosolubles.
 Medios de contraste hidrosolubles Estos medios de contraste son muy importantes actualmente
para la visualización de diferentes órganos, vasos sanguíneos y cavidades, además de que
refuerzan las imágenes de la tomografía computarizada.
Es el único elemento químico que tiene las tres propiedades básicas de los medios de contraste:
o Densidad de contraste elevada.
o Comportamiento químico que hace posible la unión simétrica a la molécula de benceno.
o Toxicidad baja
 Medios de contraste iónicos no iónicos: En una solución acuosa, las sales de los medios de
contraste se disocian en iones, un anión con carga negativa (el que produce el contraste) y un
catión con carga positiva. Estos medios se llaman iónicos. Los medios de contraste iónicos se
caracterizan por tener una osmolaridad alta, lo que conlleva efectos indeseables, de manera que
se empezaron a reemplazar por otros medios de contraste denominados no iónicos.
Los medios de contraste no iónicos se obtienen mediante la combinación del ácido de un medio
de contraste con un azúcar o un alcohol polivalente, produciendo enlaces que no se desdoblan
aunque el compuesto entre en disolución, de forma que el medio de contraste se va a disolver
con una partícula única eléctricamente neutra. Estos medios de contraste tienen mayor
tolerancia que los no iónicos y menos efectos secundarios.

Medios de contraste negativos. Los medios de contraste negativos absorben los rayos X en menor
medida que los tejidos adyacentes. Normalmente se administran por vía oral o rectal.
Gases Los gases abserven los rayos x en menor medida que los absorben los órganos y los líquidos
corporales. Como elementos de absorción débil se utilizan gases indiferentes, que sean solubles en la
sangre y se eliminen con rapidez. El aire produce un contraste natural de los pulmones para realizar la
exploración del tórax y permite la representación del tracto gastrointestinal por medio del doble
contraste.
13.2. Reacciones adversas por inyección de MCR.

 Tipos de reacciones adversas.


 Severidad de las reacciones adversas.
 Frecuencia de las reacciones adversas.
 Precauciones previas.
 Conducta médico-legal frente al uso de los MCR.

13.2.1. Tipos de reacciones adversas. Las diversas consecuencias clínicas no deseadas consecutivas a la
administración de MCR pueden ser clasificadas según sus mecanismos en:

Tóxicas: Se producen por acción de la estructura química del compuesto sobre células de los vasos
sanguíneos, proteínas circulantes y sistemas enzimáticos, provocando cambios hemodinámicos en dichos
órganos y estructuras. Si bien pueden ocurrir en todas las personas, resultan más frecuentes cuando
existen enfermedades asociadas que puedan predisponer al daño renal o cardíaco.

Tales reacciones están en relación con la cantidad de contraste inyectado y suelen ser reversibles, salvo
por daño grave en enfermedad preexistente. Las enfermedades asociadas con potencial afectación
renovascular son:

1. Diabetes. 2. Hipertensión. 3. Colagenopatías. 4. Policitemia. 5. Mieloma múltiple.

Se añade la deshidratación como condición clínica que predispone a daño renal. Por eso se recomienda
siempre que los pacientes estén bien hidratados, como una manera sencilla de evitar daño renal o
clínico.

Pseudoalérgicas o anafilactoideas: Son reacciones que ocurren en algunas personas por acción directa de
los MCR sobre células del organismo que almacenan mediadores químicos que, al liberarse, pueden
provocar manifestaciones de tipo alérgicas como urticaria, edema, asma, rinitis y shock.

En las reacciones alérgicas verdaderas o anafilácticas, el anticuerpo responsable de la liberación de las


sustancias es la inmunoglobulina E (IgE). En las reacciones alérgicas provocadas por la penicilina,
sulfamidas y otros fármacos, este anticuerpo persiste en la sangre y se puede detectar mediante las
pruebas cutáneas adecuadas, y aun medir en el suero.

La ausencia de esta IgE en los eventos anafilactoideos que provocan los MCR, hace imposible su
detección previa o anticipada, e invalida toda prueba o test de alergia basados en dichas metodologías.

13.2.2. Severidad de las reacciones adversas. Las reacciones adversas, según la magnitud de su
repercusión clínica pueden ser divididas en:

Leves Son las más frecuentes, con el 99% del total de las reacciones. Incluyen síntomas tales como
náuseas, calor generalizado y enrojecimiento de la cara. No necesitan tratamiento y ceden
espontáneamente en pocos minutos.

Moderadas Significan el 1% del total de las reacciones adversas. Se presentan como urticaria difusa,
edema, broncoespasmo leve y vómitos. Requieren tratamiento en la Sala de Rayos. La flebitis química,
común a cualquier inyección endovenosa, se considera en este grupo, pero es de aparición tardía.

Graves Se trata de urticaria generalizada, edema de laringe, hipotensión, broncoespasmo grave o shock.
Pueden aparecer en aproximadamente el 0,1% del total de las reacciones y necesitan internación.
Eventualmente pueden llevar a la muerte por insuficiencia cardiorrespiratoria o daño neurológico
irreversible por hipotensión e hipoxia.

13.2.3. Frecuencia de las reacciones adversas. Existe una gran diversidad en las publicaciones sobre la
incidencia de reacciones adversas

Reacciones leves: Generalmente en ellas no se mencionan las reacciones leves, que son muy comunes y
consideradas como “reacciones no deseadas esperadas”. Debe advertirse a los pacientes, aclarando que
pasan rápidamente y no requieren tratamiento. Las cifras publicadas varían entre el 20 y el 60% del total
de los pacientes que reciben inyección endovenosa.

Reacciones moderadas: En cuanto a las reacciones moderadas, el índice varía entre el 0,2 y el 0,6%.

Reacciones graves: Los decesos relatados en las grandes series publicadas por autores tales como
Shehadi, Fisher y Katayama varían entre 1 en 100.000 y 1 en 1.000.000.

A partir de 1985 aparecen en el mercado productos de menor osmolaridad que los conocidos hasta
entonces, que tienen entre 1.500 a 2.000 mOsm/l. La mayoría de ellos no disocian en iones y fueron
llamados “no iónicos”, aunque no todos los son. Su osmolaridad varía entre 600 y 800 mOsm/l. Los
nuevos MCR presentan una tasa menor de reacciones adversas moderadas, hasta la quinta parte para
algunos autores, aunque no existe evidencia que reduzcan las reacciones graves y fatales.

13.2.4. Precauciones previas. Aunque no es posible descartar o asegurar la probabilidad de que ocurra
una reacción adversa y aún una fatalidad, se recomienda una serie de medidas para brindar mayor
seguridad a los pacientes. Éstas son:

Identificación de grupos de riesgo. La identificación de aquellas personas que tienen un riesgo mayor de
probabilidad de ocurrencia de una reacción adversa cuando son sometidas a un estudio con MCR deberá
realizarse mediante un adecuado interrogatorio de sus antecedentes, prestando especial atención a
reacciones previas a medicamentos, dejando constancia de su resultado. En todos los casos, el paciente
deberá dar su consentimiento informado. Los grupos con riesgo incrementado de sufrir una reacción
adversa son:

1. Pacientes que tienen una historia previa de reacción adversa moderada o grave por MCR.
2. Pacientes con hiperreactividad bronquial o asma activa.
3. Pacientes que sufren otras enfermedades asociadas tales como diabetes, enfermedad cardíaca,
renal y situaciones clínicas particulares, como la hipertensión arterial tratada con
betabloqueantes.
4. Pacientes con antecedentes de manifestaciones atópicas y reacciones alérgicas a medicamentos,
alimentos o sustancias de contacto.

De acuerdo con estas características, los pacientes pueden ser agrupados según su riesgo potencial en:

 Grupo de riesgo leve Sin antecedentes ni enfermedades concomitantes. Es equivalente al riesgo


habitual de cualquier persona, y se incluyen aquellos que hayan tenido reacciones leves o
dudosas a medios de contraste.
 Grupo de riesgo bajo Cuando existan dudas en el interrogatorio o alguna de las causas de riesgo
mencionadas.
 Grupo de riesgo moderado Cuando se reúnen más de una de las causales o enfermedad
concomitante, antecedentes claros de atopía o reacción adversa moderada previa.
 Grupo de riesgo alto Cuando existan múltiples causales de riesgo y/o enfermedades de base o
razones de edad, que hagan riesgosa cualquier intervención médica. Se incluyen los
antecedentes de reacción adversa grave.

13.2.5. Conducta médico-legal frente al uso de los MCR. Toda reacción adversa, a la vez que genera
angustia y preocupación tanto en quien lo sufre como en el que lo produce, conlleva la posibilidad de
una querella judicial (civil o penal). En ella, el profesional involucrado debe demostrar que en su accionar
no hubo error, desconocimiento o descuido; esto es, en lenguaje legal, que no hubo impericia,
imprudencia o negligencia. Esta demostración debe ser sencilla, si corresponde al accionar habitual del
médico, tanto en las etapas previas como posteriores al accidente, porque ha respetado el siguiente
decálogo:

1. Ha tomado conocimiento de los antecedentes del paciente.


2. Ha hecho conocer los eventuales riesgos y ofrecido un “consentimiento informado”.
3. Ha clasificado al paciente según el Grupo de riesgo que le corresponde.
4. Ha efectuado las consultas al especialista en los casos recomendados
5. Ha indicado una pre medicación, si correspondiese
6. Ha optado por un medio de contraste adecuado
7. Ha tratado al paciente en riesgo personalmente y en forma responsable
8. Ha contado con los medios de tratamiento adecuados
9. Ha dejado constancia de su accionar en una historia clínica de emergencia y transmitido lo
ocurrido al paciente o a sus familiares.
10. Ha procedido en todo momento como lo hace habitualmente

También podría gustarte