Formación de La Imagen Radiológica
Formación de La Imagen Radiológica
El esquema demuestra que cuando el haz de rayos X incide sobre el paciente cada órgano absorbe una
cantidad diferente de radiación. Los órganos más densos como el hueso dan una imagen más blanca
porque atenúan más cantidad de rayos X. Los órganos que menos radiación absorben (pulmones) dan
una imagen más oscura.
La imagen latente es el cambio invisible que se ha inducido en los cristales de los halogenuros de plata.
Posteriormente, ésta imagen latente se convertirá en imagen visible mediante procesos químicos
(revelado).
En la formación de un cristal de halogenuro de plata, cada átomo de plata expulsa un electrón de su capa
externa que se liga a un átomo de halogenuro (Bromo o yodo). Quedando la plata como ión positivo y el
bromo y yodo como iones negativos. Así, la plata, el yodo y el bromo se fijan a la red cristalina en forma
iónica.
Cuando la radiación incide sobre la película, casi toda la energía de los fotones se transfiere a la gelatina.
La interacción de los rayos X con los átomos de plata y los halogenuros (Ag, Br, I) crea la imagen latente.
Lo mismo ocurre con la interacción entre la luz visible de una pantalla intensificadora y la película. Estos
fotones de luz tienen menos energía, se necesitan más fotones para producir el mismo número de
electrones secundarios migratorios. Algunos de estos electrones pasan cerca de las partículas sensitivas
donde son atrapados por los iones positivos de plata.
La mayor parte de estos electrones vienen de los iones de Bry Iya que estos tienen un electrón más.
Los iones negativos se transforman en átomos neutros y ésta pérdida de carga eléctrica hace que la red
cristalina se altere.
Los átomos de Br y I han quedado libres para emigrar, ya que no están unidos por fuerzas iónicas.
Emigran fuera del cristal y pasan a la gelatina. El deterioro de la estructura cristalina, hace que los
restantes iones de plata emigren fácilmente.
La concentración de electrones en las proximidades de una partícula sensitiva, crea una zona de carga
negativa. Conforme los átomos de halogenuros de plata desaparecen del cristal, los iones positivos de
plata son atraídos electrostáticamente por las partículas sensitivas.
Cuando llegan a una partícula sensitiva, los iones de plata se neutralizan, combinándose con los
electrones, y se obtiene plata atómica.
De esta forma se depositan en cada cristal menos de 10 átomos de plata. Este conjunto de átomos se
llama centro de la imagen latente.
En estos centros se acumulan cantidades visibles de plata durante el revelado, que serán las que formen
la imagen radiográfica. Los cristales con plata depositada en las partículas sensitivas, adquieren una
coloración negra durante el revelado. Los cristales que no han sido irradiados continuarán transparentes
e inactivos.
La información invisible contenida en los cristales de halogenuros de plata activados por la radiación
constituye la imagen latente.
Los fotones de rayos X se pueden considerar como energía pura transportada. Estos fotones pueden
excitar los electrones de los átomos, haciéndoles saltar a órbitas superiores o arrancarlos dejando así el
átomo ionizado.
De esta forma, al atravesar un medio los fotones pueden continuar su camino sin colisionar con ningún
átomo, llegando entonces al detector. Pueden ceder toda su energía a algún componente del átomo,
desapareciendo, decimos entonces que han sido absorbidos. O pueden ceder parte de su energía
saliendo “rebotados” en una dirección distinta, hablamos en este caso de dispersión.
A la disminución del número de fotones que llegan a un detector después de atravesar un medio, lo
llamamos atenuación. Sería la suma de los dos efectos, absorción y dispersión de fotones incidentes. La
atenuación de un haz de rayos X al atravesar un medio depende del número de interacciones que sufra,
por tanto, básicamente dependerá del número de electrones que se interpongan en su trayectoria
(efecto fotoeléctrico: absorción y efecto Compton: dispersión), es decir, de la densidad electrónica.
Como hemos visto, un haz de radiación electromagnética que interacciona con un material de un
espesor determinado, resulta atenuado. De forma que si colocamos un detector de radiaciones
ionizantes detrás del material irradiado, registrará menos fotones que los que tenía el haz primario.
Entonces tenemos que el proceso de atenuación se puede medir. La ley que somete a estudio este
proceso se llama Ley exponencial del Proceso de Atenuación.
Ejemplo Tenemos un espesor de material homogéneo (4 cm) que es interaccionado por un haz de
radiación de 1000 fotones, de una misma energía. El material lo descomponemos en láminas de 1
centímetro cada una. Entonces tenemos que para “ese” espesor de 1 cm y para “esa” energía
determinada, “ese” material determinado atenúa el 20% de los fotones incidentes. Al atravesar el primer
cm de espesor quedarán 800 fotones, que cuando atravieses el segundo espesor de un cm se atenuarán
otro 20% y así sucesivamente. El número de fotones atenuados es proporcional al número de fotones del
haz incidente.
Se define el coeficiente de atenuación lineal (µ) como la magnitud que nos indica la fracción de fotones
del haz incidente que interacciona con el material absorbente por unidad de espesor. El valor de µ
depende de la energía de radiación incidente y del material absorbente. Su unidad es 1/cm. Por tanto,
cuanto menor sea el valor de µ, más penetrante será la radiación y más transparente el medio.
Cuando un mismo haz de radiación atraviesa dos tejidos distintos, la atenuación que sufre será distinta,
ya que cada uno de ellos tendrá un espesor determinado y una densidad electrónica diferente. Así, al
atravesar un tejido con una densidad parecida al aire (pulmones), se atenuará mucho menos que al
atravesar un tejido de alta densidad (hueso). Por ello, los tejidos de baja densidad, tendrán una imagen
en un tono más oscuro que los tejidos de alta densidad.
Por tanto, el contraste entre dos tejidos para un mismo haz monoenergético depende básicamente de la
diferencia relativa de densidades.
Los tubos de rayos X proporcionan un haz polienergético, por lo que se utiliza un coeficiente de
atenuación equivalente que promedia la atenuación para todas las energías del espectro. El coeficiente
de atenuación lineal aumenta con la densidad del tejido. El contraste será mayor cuanto mayor sea la
diferencia de densidades entre los diferentes tejidos. Así el contraste disminuye cuando aumentamos la
tensión (kilovoltaje). Si el tejido que se desea observar es hueso, con una alta densidad y gran diferencia
con el resto de los tejidos, se puede utilizar un kilovoltaje alto, si bien cuando se desea diferenciar grasa
o músculo (tejidos blandos, mamografía) deben utilizarse tensiones (kilovoltaje) bajas.
Para determinar el kilovoltaje que debemos utilizar influirán por tanto las diferencias de las densidades
relativas y el espesor de la zona del paciente a explorar, ya que además de conseguir un contraste
suficiente, se debe obtener una imagen con buena definición, es decir, que el haz que atraviese al
paciente contenga un número suficiente de fotones. También debemos tener en cuenta, que al
absorberse en mayor medida la radiación de baja energía, el paciente recibirá más dosis si se utiliza un
kilovoltaje bajo en lugar de alto. Así, el kilovoltaje óptimo deberá ser lo suficientemente bajo para
ofrecer un buen contraste y lo bastante alto como para que la dosis al paciente y el tiempo de exposición
sean bajos.
Los distintos tejidos del organismo humano, en función de su densidad y número atómico medio, se
clasifican desde el punto de vista de la radiología en los siguientes grupos o densidades radiológicas: aire,
grasa, agua y calcio. La densidad de un tejido se mide en gramos por cc. Así tendremos:
En una radiografía de tórax podemos identificar diferentes densidades radiológicas: agua (corazón), aire
(pulmones), calcio (huesos), grasa (tejido subcutáneo).
_____________________________________________________________________________________
Como norma general, un equipo convencional consta básicamente de un al vacío envuelto por una
cubierta metálica con toma a tierra, una sección de baja tensión donde se encuentran los controles y la
entrada de la red eléctrica, otra sección de alta tensión donde se realiza la transformación de los 220 V
de la red en una tensión del orden de los 50-150 KV y un rectificador que transforma la corriente alterna
en corriente continua.
Como dispositivos asociados al tubo de rayos X tenemos los filtros (que veremos más adelante),
limitadores del haz (diafragmas, conos y cilindros, etc...) y rejillas antidifusoras que se utilizan para
eliminar (del 80 al 90%) la radiación dispersa antes de que llegue a la película. Están formadas por una
serie de láminas absorbentes, de plomo o wolframio, entre las que hay un material poco absorbente,
fibra de carbono o aluminio. Además, están diseñadas y focalizadas de forma que sólo permitan el paso
de los rayos X alineados con el foco, eliminando el resto.
Unidades de sólo radiografía. Dentro de las unidades de sólo grafía con equipos fijos, podemos encontrar
gran diversidad de marcas y modelos, cada una con diferentes prestaciones, pero como norma general
tendremos equipos con tableros no inclinables: pedestales verticales (tablero de pared vertical con rejilla
antidifusora fija y tablero de pared bucky) y pedestales horizontales (mesa de tablero fijo o flotante).
Unidades de grafía y escopia. Son equipos con tableros inclinables: equipos con el tubo fijo a la mesa,
equipos con el tubo unido a una columna, equipos con dos tubos, unidades suspendidas del techo y
unidades con mando a distancia, telemando. También podemos encontrar pedestales especiales:
equipos tomográficos, equipos para exámenes neurológicos, equipos especiales para estudios
gastrointestinales (telemando), equipos especiales para urología, equipos especiales de
angiocardiografía. Es un equipo de radiología especializado, con sistema de visión directa en las
exploraciones con contraste, fundamentalmente del aparato digestivo, urológicas, ginecológicas y ósteo-
articulares.
Equipos móviles. Nos referiremos en este apartado al intensificador de imágenes móvil. Este equipo
consta de una base sobre ruedas donde se encuentran el panel de control y la unidad de alimentación
para el intensificador de imagen. Unido a esta base tenemos el brazo en C con el tubo de rayos X en un
extremo y el intensificador de imagen con la cámara de TV en el otro. Por otro lado está el soporte móvil
sobre el que se encuentran el monitor y los controles de televisión.
El brazo en C se coloca rodeando al paciente que se encuentra sobre una camilla o una mesa de
operaciones (radiotransparente), suficientemente alta como para alojarlo. Tiene una gran movilidad, así,
puede realizar desplazamientos a lo largo, puede elevarse y bajar y girar en diferentes direcciones.
El aparato de rayos X portátil se usa cuando se realizan exploraciones que necesitan un control
radiológico, por ejemplo la dilatación de una estenosis de esófago, la reducción de fracturas, la
colocación del electrodo de un marcapaso provisional, etc.
El papel del técnico en este tipo de exploraciones consiste en controlar todos los factores de exposición,
para lo que manipulará los mandos existentes en el panel de control del aparato. Mediante un pulsador
de pie, dará escopia intermitente y controlará el tiempo de exposición total durante una determinada
exploración, mediante la visualización del contador de tiempo de que disponen estos aparatos. Y
además, manejará los controles de imagen de la televisión (ajuste de brillo, contraste...).
Equipos portátiles.
Los equipos portátiles son aparatos algo pesados que se transportan empujándolos o por medios
mecánicos (motor). Básicamente, constan de una base sobre ruedas en la que se encuentra el pupitre de
control donde se seleccionan los parámetros de la exposición, una columna y un brazo deslizante cuyo
extremo va unido al tubo de rayos X, pudiendo adoptar éste cualquier posición para adaptarse a las
necesidades del paciente y al tipo de exploración. En estos aparatos podemos elegir entre una gama
limitada de kilovoltios (por lo general hasta 90 o 100 KV).
Los estudios realizados con el equipo portátil de rayos X, deben restringirse a los pacientes que por su
estado de salud, no puedan ser trasladados al Servicio de Diagnóstico por la Imagen sin que se alteren de
forma importante los cuidados y tratamiento que reciben. Por este motivo, estas exploraciones se
realizarán fundamentalmente en la Unidad de Cuidados Intensivos (UCI), quirófano, reanimación y
urgencias (sala de observación).
También debemos tener en cuenta multitud de factores que van a dificultar en gran medida la
realización del estudio, como pueden ser el grado de consciencia y cooperación del paciente, el tamaño
generalmente reducido del lugar donde se realiza el examen o los múltiples dispositivos, goteros,
electrodos, drenajes, sondas, etc., que tiene conectados el paciente.
Anotar los factores de exposición usados al realizar la radiografía a un determinado paciente puede ser
de gran utilidad para conseguir resultados posteriores igual de satisfactorios, ya que, por lo general a
estos pacientes se les repetirá el estudio durante el tiempo de hospitalización.
Aunque se pueden realizar la mayoría de las exploraciones radiológicas convencionales, la radiología con
portátil se dedica fundamentalmente a la radiografía AP de tórax para: estudios postoperatorios, valorar
la evolución del paciente, control de marcapaso provisional, control de catéter de presión venosa
central, etc. Además del tórax AP son usuales exámenes de abdomen, controles de fracturas de fémur
reducidas y vértebras cervicales en proyección lateral. En quirófano también es frecuente usar el equipo
portátil, por lo general existe una unidad portátil para uso exclusivamente quirúrgico.
El tubo de rayos X consiste en una ampolla de vidrio (Pyrex) en la que se ha hecho un alto vacío, que
contiene en su interior un filamento con potencial negativo (cátodo) y un blanco con potencial positivo
(ánodo). Las partes principales de un tubo de rayos X son (desde el exterior hacia el interior): cubierta
metálica, blindaje de plomo, espacio para el aceite, ampolla de vidrio, taza de focalización, fuente de
electrones (cátodo), ánodo y filtros.
1. La cubierta metálica se encuentra conectada eléctricamente a tierra, para conseguir un buen
aislamiento eléctrico y evitar un posible accidente en caso de una fuga de alta tensión, recordemos
que la diferencia de potencial entre ánodo y cátodo es muy elevada (50-150 Kv). Dispone de una
ventana de un material de número atómico bajo para permitir la salida del haz de radiación directa e
impedir irradiar en direcciones no deseadas. El blindaje de plomo es útil para absorber la radiación
no coincidente con el haz de rayos X que se va a utilizar.
2. El calor que se genera en el ánodo se disipa a través del aceite que rodea la ampolla, realizando un
aislamiento tanto eléctrico como térmico. La refrigeración del ánodo es muy importante, ya que
salvo la energía emitida en forma de radiación electromagnética (EM), el resto de la energía de los
electrones que atraviesan el tubo es absorbida en el ánodo y transformada básicamente en calor.
3. Los electrones se emiten desde el cátodo que se encuentra en el interior de la taza de focalización o
copa de enfoque, cuya misión es concentrar el haz de electrones en el punto focal del ánodo . El
filamento de un tubo de rayos X suele ser de wolframio o tungsteno (W), elemento con número
atómico igual a 74 y punto de fusión muy elevado (3410ºC). Para calentar el cátodo se hace pasar
una corriente entre sus extremos (diferencia de potencial de 6 a 10 V), emitiendo de esta forma
electrones por efecto termoiónico. Si se modifica esta tensión, se variará la corriente que atraviesa el
filamento y se aumentará el número de electrones emitidos por efecto termoiónico.
El ánodo está formado generalmente por un metal con número atómico muy elevado (Wolframio),
incrustado en una barra de cobre (elevado punto de fusión, 1083ºC) refrigerada por aceite. Al tener
un número atómico alto, conseguimos que el frenado de los electrones sea muy elevado y se
generen gran cantidad de fotones de bremsstrahlung, que poseen un espectro continuo. Cuando los
electrones que provienen del cátodo colisionan con los electrones ligados a algún átomo del ánodo,
se pueden producir colisiones que consigan hacer saltar los electrones corticales de un orbital a otro
de mayor energía, con lo que se emitirá radiación EM con un espectro discreto (rayos
característicos), cuando dichos electrones vuelven a caer a sus orbitales originales.
El ánodo puede ser estacionario (siempre en la misma posición). En este caso, la zona de impacto de
los electrones se recubre por una capa de cobre y otra de tungsteno, para que los electrones
secundarios generados en el blanco sean frenados en la capa de cobre, y los fotones de frenado de
baja energía producidos en la capa de cobre, se absorban en la capa de tungsteno. La zona de
impacto de los electrones se llama foco térmico, debido a que es donde se disipa la mayor cantidad
de energía por unidad de superficie (en milímetros de superficie se alcanzan temperaturas de unos
2000ºC).
Posteriormente se diseñaron los ánodos rotatorios, que se utilizan cuando la carga del tubo es
elevada y se requieren grandes corrientes en un breve intervalo de tiempo. El ánodo tiene un
dispositivo (rotor) que lo hace girar mientras sobre él incide el haz de electrones, aumentando así la
superficie de impacto (foco térmico) y evitando el sobrecalentamiento del mismo. Son los más
habituales en radiodiagnóstico. Pueden ser de wolframio o de una mezcla de 90% de wolframio y
10% de renio.
La mayoría de los fotones de rayos X dentro del intervalo de energías propias de radiodiagnóstico se
emiten con un ángulo de unos 45º respecto de la dirección de incidencia del haz de electrones. Para
aumentar el tamaño del foco térmico sin aumentar el tamaño del foco óptico, se utiliza un ánodo
inclinado unos pocos grados respecto del ángulo de salida del haz de rayos X.
Los filtros se utilizan para eliminar los rayos X de mayor longitud de onda (blandos), que lo único que
producen es el aumento de la dosis en superficie del paciente. A este efecto, en la ampolla de vidrio
se encuentra una pequeña superficie circular donde el vidrio es más delgado que se denomina
ventana de salida del haz.
El flujo de fotones que emerge del ánodo no es estrictamente homogéneo, ya que no todos los
fotones se producen en el mismo punto y además se producen tras atravesar los electrones
diferentes espesores de material. Este fenómeno se denomina efecto anódico o talón, que aumenta
con el envejecimiento del tubo conforme la superficie anódica se va deteriorando con los cambios de
temperatura.
Además de los tubos para diagnóstico médico (ánodo estacionario y rotatorio) que hemos visto,
existe otro tipo de tubos de rayos X, los de terapia (radioterapia). Estos trabajan con intensidades
relativamente bajas, oscilando entre 3-5 y 20-30 mA. Es importante señalar que el tamaño del foco
no es tan decisivo como en los tubos de diagnóstico, ya que en radioterapia no hace falta un haz
perfectamente enfocado. Sí debemos tener en cuenta unas severas exigencias de enfriamiento,
debido a la necesidad de una continua disipación del calor.
El haz de rayos X generado en el ánodo contiene rayos X de frenado producidos al interaccionar los
electrones con los núcleos del ánodo y rayos X característicos originados por el llenado de los
orbitales vacantes provocados por los choques con los electrones corticales del ánodo.
La energía máxima de los electrones y en consecuencia el máximo del espectro dependen
directamente de la diferencia de potencial aplicada entre ánodo y cátodo.
Al espectro continuo se superpone un espectro discreto que corresponde a la desexcitación de los
átomos del ánodo y dependerá del número atómico del material del ánodo. Para evitar que nuestro
haz se contamine con radiación de muy baja energía, no es conveniente utilizar materiales anódicos
de bajo Z, ya que contribuyen al aumento de la dosis en piel del paciente, pero no son capaces de
aprovecharse para la obtención de la imagen al no atravesar al paciente. Si la tensión utilizada es
muy baja (15-40 KV), puede interesar aprovechar directamente los rayos X característicos, como es el
caso de los equipos de mamografía que tienen un ánodo de molibdeno, cuyo espectro característico
está comprendido entre 25-35 KeV.
Si el espectro está compuesto básicamente por radiación de frenado (lo más habitual), la energía
media del haz de rayos X es aproximadamente 1/3 de la energía máxima.
El espectro anteriormente descrito corresponde al espectro a la salida del ánodo, si bien entre éste y
el paciente existen una serie de materiales que interactúan con el haz. Como la radiación de baja
energía no contribuye a la imagen, pero sí a la dosis al paciente, constituye un elemento indeseable
del espectro de rayos X. Por ello, a la salida del haz se interponen una serie de filtros que disminuyan
la proporción de rayos X de baja energía. La mayoría de los filtros utilizados en radiodiagnóstico son
de aluminio. Para energías mayores puede ser conveniente utilizar filtros compuestos por varios
materiales, en estos casos, deberá estar el elemento de mayor número atómico más cerca del
ánodo.
Independientemente de los filtros que se utilicen para nuestro equipo, existe una filtración inherente
al haz que se debe a la filtración que sufre el haz en el propio ánodo y la debida a la ventana de
salida del tubo, normalmente el valor de esta filtración inherente es de unos 0.5 mm de Al. En
nuestro país la filtración total (inherente y añadida) debe ser equivalente a 2.5 mm de Al.
La intensidad del haz de rayos X depende del número de electrones emitidos desde el filamento y se
controla a través de la tensión entre los extremos del cátodo.
Además de atenuarse la radiación por el filtrado de los materiales interpuestos entre el paciente y el
tubo de rayos X, la intensidad de la radiación se atenúa con el cuadrado de la distancia desde la
fuente.
Dentro de la radiación generada por un tubo de rayos X suelen definirse los siguientes conceptos:
Radiación directa o primaria
Se denomina radiación directa o primaria a la radiación que emerge del tubo de rayos X en la
dirección de utilización. Hasta ahora, sólo se habían hecho referencias a esta radiación. La radiación
directa suele ser unas 3003000 veces mayor que la radiación secundaria.
Radiación secundaria
Denominamos radiación secundaria a la radiación de fuga más la radiación dispersa.
Radiación residual
La radiación residual es la radiación directa tras atravesar al paciente. Entendemos por radiación
dispersa aquella que se genera como consecuencia de dispersiones Compton entre el haz directo y
los absorbentes interpuestos en su trayectoria, tales como el paciente, los accesorios o el aire.
Radiación de fuga sería la radiación que escapa al blindaje (es necesario blindar todo el tubo salvo la
ventana de salida).
3.4. Generador.
El tubo de rayos X está conectado a la red eléctrica que funciona a 220 Veff, en corriente alterna
(AC). El tubo de rayos X funciona a unos 50-150 KV, en corriente continua (DC). La diferencia de
potencial entre los extremos del cátodo es de unos 6 V, pudiendo trabajar indistintamente en AC y
en DC, ya que esta corriente sólo tiene la finalidad de calentar el cátodo, por tanto el circuito
asociado al cátodo para generar esta corriente será sólo un transformador de 220 V a 6 V. Así el
circuito puede separarse en dos partes:
1. Una de alta tensión que alimenta al tubo y trabaja en DC.
2. Otra que alimenta la corriente del cátodo de baja tensión y de AC.
Un pequeño cambio en la corriente del cátodo, puede generar un gran cambio en la corriente del
tubo y por tanto en la dosis al paciente, por lo que el transformador ha de ser lo suficientemente
estable como para eliminar las variaciones de la red. La parte de alta tensión trabajará a 50-150 KV
en DC a partir de los 220 V de AC.
En primer lugar, dentro de la etapa de baja tensión, se contará con un autotransformador que
permitirá un ajuste discreto de la diferencia de potencial y un reóstato que permitirá el ajuste fino de
la tensión del tubo, para evitar un sobrecalentamiento de esta etapa.
Como la tensión de salida del transformador es continua, será necesario disponer de un sistema
rectificador que no permita la inversión de la polaridad. El rectificador más habitual es un puente de
diodos, pero en la práctica se utiliza un rectificador trifásico con tres puentes de diodos, que genera
una señal casi continua.
En realidad podría utilizarse una tensión sin rectificar (AC), equipos autorrectificados, pero en los
períodos negativos de la tensión sería el ánodo el que se convertiría en cátodo y viceversa, por lo
que el cátodo recibiría impactos de los electrones sin disponer de un sistema adecuado de
refrigeración, con los problemas asociados, además de contaminar el haz emergente con fotones de
baja energía correspondientes a los fotones generados por los electrones acelerados en las rampas
de bajada y subida de la tensión.
Todos los elementos de control se encuentran en la etapa de baja tensión. En el caso del
kilovoltímetro, se sitúa entre las espiras del autotransformador en la parte de baja tensión y se
gradúa para alta tensión. El miliamperímetro mide la corriente que atraviesa el tubo de rayos X, pero
se sitúa en la mitad de las espiras del secundario, con lo que en realidad se encuentra conectado a
tierra. Para conseguir un mejor aislamiento, el bloque de alta tensión y los cables de alimentación
del tubo están aislados y rodeados de una vaina metálica conectada a tierra.
a. Colimadores:
Un colimador está formado por un par de mandíbulas móviles dos a dos que impiden el paso de la
radiación, permitiendo una gran variedad de campos cuadrados y rectangulares. Los colimadores
limitan el paso del haz de radiación, restringiéndolo al tamaño que se desee.
Los colimadores no sólo limitan el haz de radiación sino que también hacen lo mismo con el campo
luminoso. Éste, se utiliza para observar sobre el paciente lo que será el campo de radiación cuando
se inicie la irradiación. Con el sistema de colimación diseñado en esta forma se consiguen dos
objetivos:
1. La protección del paciente, pues seleccionando el campo más pequeño posible se consigue
minimizar el volumen irradiado.
2. Disminuir la radiación dispersa que alcanza la película radiográfica y por tanto se mejora el
contraste de la imagen.
b. Rejillas:
El objetivo de una placa radiográfica es obtener una imagen que permita el diagnóstico del paciente,
por lo que obtener una imagen nítida tiene una gran importancia. Cuando se quiere obtener una
imagen anatómica de una parte de mayor espesor, la radiación dispersada por el paciente aumenta,
por lo que la imagen que se forma no se debe únicamente a la transmisión del haz incidente, sino
que también aparece el haz dispersado por el paciente que no se corresponde con la imagen que se
desea. Para evitar el efecto de la radiación dispersa, se interpone entre la placa radiográfica y el
paciente una rejilla antidifusora. Fue inventada en 1913 por el Dr. Gustave Bucky y también se
conoce por el apellido de su autor.
La rejilla antidifusora consiste en una serie de láminas de plomo sobre un material transparente a la
radiación X y que sirve para mantener la estructura de plomo. El material transparente suele ser
aluminio o un material orgánico, si bien, la rigidez estructural del aluminio es mejor para este
propósito. No obstante, el aluminio absorbe más radiación directa que los materiales plásticos, por
lo que la dosis al paciente es mayor, aunque el contraste de la imagen es mejor.
c. Mesa de control:
Desde la mesa de control se tiene acceso a la mayoría de los elementos que hasta ahora se ha
explicado, así, desde ésta se pueden modificar, a conveniencia del operador de la sala, los elementos
que interese para obtener una buena radiografía. La mesa de control suele estar ubicada detrás del
blindaje y desde ella el operador realiza la placa visualizado tanto al paciente como a la máquina. En
muchos casos el acceso a los colimadores, a la luz de campo y al movimiento de la mesa y del tubo
no es posible desde la mesa de control y hay que hacerlo desde el mismo aparato de rayos dentro de
la sala.
Se define régimen de una radiografía como el conjunto de valores de kilovoltaje entre ánodo y
cátodo, intensidad de corriente que atraviesa el tubo y tiempo de exposición a la radiación, que se
utilizan mientras se hace la placa.
La imagen de rayos X se capta en una película radiográfica que proporciona un sistema de estudio
estable, que se puede archivar. Nos da información que puede ser utilizada y comparada con estudios
posteriores para valorar la evolución de un determinado paciente.
La película radiográfica es el receptor final de la información radiográfica y el soporte de imagen más
utilizado en radiología. Existen diversos tipos de película radiográfica que veremos más adelante, pero la
mayor parte de las películas usadas en diagnóstico médico tienen emulsión por las 2 caras, se las
denomina películas de doble emulsión.
4.1.2. Estructura.
Las partes fundamentales de la película radiográfica son la base y la emulsión. Entre ambas hay una fina
capa de un material adhesivo, llamada capa adhesiva o substrato que sirve para conseguir la adherencia
uniforme de la emulsión a la base.
BASE:
La finalidad de la base es proporcionar una estructura rígida sobre la que se pueda depositar la capa de
emulsión. Es flexible para poder manejarla fácilmente, pero también es lo suficientemente rígida como
para mantenerse en un negatoscopio. En la película de doble emulsión, la base tiene un espesor
aproximado de 150 a 175 µm.
Además tiene la propiedad de ser estable dimensionalmente, con lo que mantiene su forma y tamaño
durante su uso y procesado para que la imagen no se distorsione. La base de película radiográfica tiene
que tener las siguientes características:
Durante su fabricación se añade colorante que la tiñe ligeramente de azul, así se consigue paliar en gran
medida la fatiga visual causada por el estudio de imágenes radiográficas en sesiones continuadas.
La base original era una placa de cristal de alta calidad, que se usó hasta los años 20, a continuación se
introdujo el nitrato de celulosa, material muy inflamable, lo que hizo que se sustituyera posteriormente
por triacetato de celulosa, similar al anterior pero con la ventaja de no ser inflamable. A comienzo de los
años 60 se comenzó a usar el poliéster (película de seguridad) que era más resistente, tenía mayor
estabilidad dimensional y no presentaba problemas durante el proceso de revelado en las máquinas
automáticas.
EMULSION: Es el material con el que interaccionan los rayos X o mediante el que los fotones de luz de las
pantallas transfieren la información.
Está formada por una mezcla homogénea de gelatina y cristales de halogenuros de plata. La gelatina
es transparente (transmite la luz) y porosa (deja que los compuestos químicos penetren durante el
revelado hasta alcanzar los cristales de halogenuros de plata). Ofrece un soporte físico para el
depósito uniforme de los cristales de halogenuros de plata. Estos cristales en una emulsión corriente
son en un 95% de bromuro de plata y en un 5% de yoduro de plata.
La interacción de los rayos X y los fotones de luz con estos átomos de número atómico elevado, es lo
que produce la imagen radiográfica.
La concentración de cristales de halogenuros de plata el principal determinante de la rapidez de la
película. La película de exposición directa tiene una capa de emulsión mucho más gruesa y con más
cristales de halogenuros de plata que la película de pantalla.
La emulsión está protegida en su cara exterior por una capa de gelatina, llamada superrecubrimiento
o superestrato que la protege de arañazos, presión y contaminación durante su uso y revelado.
El grosor de la película de doble emulsión suele ser de entre 200 a 250 µm (0,2 a 0,25 mm).
Tipos.
Existen en distintos tamaños, los más usuales en diagnóstico médico son: 13x18, 18x24, 24x30, 30x40,
35x35, 35x43 y 30x90.
Al elegir una película debemos tener en cuenta características como el contraste, la rapidez y la
absorción espectral
Contraste En el mercado se encuentran películas de pantalla con diferentes niveles de contraste (medio,
alto y superior). La diferencia está en tamaño y distribución de los cristales de halogenuros de plata. Así
una emulsión de alto contraste, tiene los granos más pequeños y de tamaño relativamente uniforme y
en una emulsión de bajo contraste el grano será mayor y de diferentes tamaños.
Rapidez Al igual que ocurre con el contraste, existen películas de diferente rapidez, como consecuencia
del tipo de emulsión usada. Las emulsiones de grano grueso son más sensibles que las emulsiones de
grano fino. Además, cuanto más gruesa es la emulsión, más sensible es la película y por tanto más
rápida. Las películas de pantalla siempre suelen ser de doble emulsión, esto nos da una rapidez doble a la
obtenida con películas de emulsión sencilla.
Absorción espectral Ésta es quizá la característica más importante. Desde la aparición de las pantallas de
tierras raras, se debe tener cuidado para utilizar una película cuya sensibilidad a los varios colores de la
luz (respuesta espectral), esté correctamente emparejada con el espectro de luz que emite la pantalla.
Así una pantalla de tungstenato de calcio que emite luz azul-violeta, se utilizará con una película
estándar de halogenuros de plata (película sensible al azul) y una pantalla de tierras raras que emite luz
azul-verde, se emparejará con una película ortocromática (película sensible al verde). Si no se usa la
película correspondiente a cada pantalla, la rapidez del receptor de la imagen se verá muy reducida,
debiendo aumentar la dosis. Respecto a las luces de seguridad del cuarto oscuro, debemos tener en
cuenta que las películas sensibles al azul se deben manipular bajo una luz con filtro ámbar (velará el
verde) y las películas sensibles al verde se manipularán con un filtro rojo (no velará el azul).
Películas de exposición directa. La emulsión es mucho más gruesa que la película de pantalla y además
tiene una concentración de cristales mucho más elevada, con objeto de mejorar la interacción directa de
los rayos X, ya que en este caso no se utilizan pantallas de refuerzo y por tanto no tenemos fotones
lumínicos para que interaccionen con los cristales de halogenuro de plata. Se presentan en envoltorios
individuales de papel.
Películas para mamografía Inicialmente eran películas de exposición directa y doble emulsión,
consecuentemente la dosis de radiación que recibía la paciente era muy elevada. Hoy día son películas
de grano fino y monoemulsión para ser usadas con pantalla intensificadora sencilla.
Películas de video Este tipo de película se usa en TAC, radiografía digital, ecografía y RM. En el caso de las
técnicas que implican el uso de radiaciones ionizantes (TAC y radiología digital), la imagen se forma
mediante análisis electrónico (asistido por ordenador) de la radiación detectada por medio de una serie
de detectores colocados al efecto. La imagen se muestra después en un monitor de TV. Posteriormente,
para obtener una imagen permanente, se hace un negativo fotográfico de la imagen de vídeo, también
denominada imagen CRT. El tubo que se utiliza en la televisión es un tubo de rayos catódicos (CRT). Las
imágenes se obtienen con lo que se conoce como fósforo CRT de punto azul o de punto verde. Estas
imágenes se deben registrar en la película sensible al azul o al verde respectivamente, aunque en la
práctica se utilizan de forma general películas ortocromáticas. La película para imagen de vídeo tiene
solo una fina capa de emulsión. Su exposición se realiza a través de una cámara multiformato o una
cámara láser. Se pueden grabar entre 1 y 16 imágenes en una misma lámina de película.
Películas de duplicación Este tipo de películas tiene una sola capa de emulsión y deben ser expuestas a la
luz ultravioleta. Se presentan en los mismos tamaños que las películas de pantalla. Existen aparatos
especialmente diseñados para colocar en ellos la película de duplicación sobre la película original y hacer
pasar la luz ultravioleta a través de ambas para obtener la copia.
película de sustracción A veces se usan en angiografía. Son películas de alto contraste y monoemulsión.
Existen 2 tipos: el primero se utiliza para preparar la máscara de sustracción y el segundo para recoger la
imagen superpuesta de la radiografía original y la máscara de sustracción.
Pelicula para radiografia dental La película de exposición intraoral tiene unas dimensiones de 32x41 mm,
es doble emulsión, sin pantallas y se presenta en envoltorio individual con lámina de plomo en la parte
posterior. Las de exposición panorámica tienen un tamaño de 12.5x30 cm o 12.5x35 cm, son
monoemulsión, de pantalla y van montadas en chasis flexible o en chasis curvo rígido, según el modelo
de ortopantomógrafo.
La película radiográfica se debe manipular con las manos limpias (sin cremas), para evitar la
aparición de artefactos (huellas, uñas, etc.). Además debemos procurar no doblar la película al
manipularla, ya que, el doblez se traduciría tras el revelado en otro artefacto (raya negra).
Nunca se deben almacenar a temperaturas superiores a 20ºC, ya que se reduce el contraste y se
aumenta el velo. La humedad elevada (más del 60%) también reduce el contraste y aumenta el
oscurecimiento. La humedad por debajo del 40% produce artefactos por electricidad estática. En
definitiva se deben almacenar en un lugar fresco y seco.
Tanto su manipulación como su almacenamiento se debe realizar en la oscuridad, por tanto, el
cuarto oscuro y el armario donde se guardan las películas sin exponer, deben ser totalmente
estancos a la luz. Las radiaciones ionizantes que no sean las del haz útil aumentan el velo. Por
este motivo, el cuarto oscuro debe estar protegido contra las radiaciones (tabiques plomados). El
nivel de radiación que vela una película sin revelar es de 0,2 mR.
La fecha de caducidad suele ser aproximadamente de 1 año después de la fabricación, si la placa
se usa después de esta fecha, se perderá velocidad y contraste y se aumentará el velo.
Por último, recordar que las cajas de películas se deben almacenar en posición vertical, y con la
fecha de caducidad visible, ya que si las colocamos apiladas en posición horizontal, se corre el
riesgo de que se puedan arquear y pegar por el peso de unas cajas sobre otras.
Actualmente, debido al avance de los sistemas de radiografía, todas las películas tienen un
soporte digital, por lo que no es necesario revelarlas y se almacenan por tiempo indefinido en el
historial de los pacientes, eliminando todos los riesgos antes mencionados
4.1.5. Chasis.
El chasis es la armadura sólida que contiene la pantalla de refuerzo y la película. Debe asegurar
un perfecto contacto entre película y pantallas, debe proporcionar una perfecta protección de la
película (estanqueidad a la luz), y además debe ofrecer un sistema de identificación del paciente.
La superficie delantera (cara orientada al tubo) debe estar fabricada de un material con un
número atómico bajo (plástico, cartón), será lo más fina posible, pero a la vez resistente.
Entre cada pantalla de refuerzo y la carcasa del chasis, encontramos un elemento de compresión
(goma, fieltro), para asegurar el buen contacto película pantalla con el chasis cerrado.
La tapa posterior debe ser de un material pesado para absorber los rayos X que han atravesado
el conjunto. Si se usa un material cuyo número atómico es pequeño, los rayos X podrían
atravesar el chasis y rebotar en algún elemento cercano, pudiendo llegar otra vez a la película.
Esto se conoce como radiación retrodispersa y reduce el contraste de la película.
Los chasis se fabrican en tamaño estándar para cada tamaño de película. En la actualidad se
utiliza para su fabricación fibra de carbono que es un material muy resistente y pesa un 25%
menos que el aluminio, además reduce la dosis que recibe el paciente. Un chasis con una tapa
superior de fibra de carbono absorbe la mitad de radiación que otro que sea de aluminio o
cartón.
Introducción. En la mayoría de las radiografías que se realizan en la actualidad, se utilizan las pantallas de
refuerzo junto con la película radiográfica, con lo que se reduce considerablemente la dosis que recibe el
paciente.
La pantalla de refuerzo convierte el haz de rayos X en luz visible, que será la que forme la imagen latente
sobre la película (tan solo el 1% del haz de rayos X que llega a la película, interacciona con ella para
formar la imagen latente).
Las pantallas son unas láminas de plástico flexibles, que se comercializan en los mismos tamaños que las
películas y de forma que sean compatibles entre sí. Se deben usar los tipos de película para los que está
diseñada una determinada pantalla. Como norma general, se usan 2 pantallas de refuerzo, entre las
cuales se encuentra la película de doble emulsión, así cada pantalla expone la emulsión con la que está
en contacto.
Estructura. En las pantallas de refuerzo se pueden distinguir 4 partes: la capa protectora, el elemento
fosforescente, la capa reflectante y la base.
Capa protectora Es la parte más próxima a la película, es transparente, su grosor es de 15-25 µm,
protege la pantalla de una manipulación inadecuada, ayuda a eliminar electricidad estática y nos
proporciona una superficie para poder limpiar la pantalla sin dañarla.
Elemento fosforescente El elemento fosforescente es la parte de la pantalla de refuerzo que
emite luz al ser estimulado por los rayos X, su grosor oscila de 150250 µm, dependiendo del tipo
de pantalla. La finalidad del elemento fosforescente es transformar la energía del haz de rayos X
en luz visible.
Capa reflectante Cuando la radiación X interactúa con el elemento fosforescente, se emite luz
con la misma intensidad en todas direcciones, en realidad, en dirección a la película, se emite
menos de la mitad de la luz. La capa reflectante aumenta la eficiencia de la pantalla de refuerzo,
duplicando el número de fotones que alcanzan la película, ya que la luz que llega a dicha capa, es
reflejada de nuevo hacia la película. Se encuentra entre el elemento fosforescente y la base,
tiene un grosor aproximado de 25µm y es de óxido de magnesio o de dióxido de titanio.
Base Es la capa más alejada de la película, con un grosor de 1 mm., es el soporte para el
elemento fosforescente.
Luminiscencia. Cuando un material emite luz como respuesta a una estimulación exterior, se
denomina material luminiscente o elemento fosforescente, y la luz emitida se llama luminiscencia. Es
un proceso análogo a la emisión característica de rayos X, afecta a los electrones de la capa externa
del átomo, de forma que cuando se estimula un material luminiscente, los electrones de la capa
externa pasan a niveles de energía excitados dejando un hueco en dicha capa electrónica. El átomo
vuelve a ser neutro cuando los electrones vuelven a sus niveles energéticos normales, emitiendo
energía electromagnética en forma de un fotón de luz visible.
Fluorescencia: Cuando sólo se emite luz visible durante la estimulación del elemento fosforescente.
Las pantallas de refuerzo son fluorescentes. En las pantallas, la fosforescencia se denomina efecto
retardado o resplandor
Las pantallas de alto contraste y las de velocidad nivelada tienen como elemento fosforescente
tungstenato de calcio, las primeras poseen una velocidad aproximada de 50 y a las segundas se les
asigna el valor 100. El factor de intensificación en las de alto contraste es de 20 a 35, siendo de 30 a
60 en las de velocidad nivelada. Por último las de alto contraste tienen una resolución de 15 pl/mm,
frente a 10 pl/mm en las de velocidad nivelada.
Las pantallas de alta velocidad tienen como elemento fosforescente tungstenato de calcio o sulfato
de bario y plomo, su velocidad es de entre 200 y 300, el factor de intensificación varia de 80 a 100 y
la resolución es de 7 pl/mm. Las pantallas de tierras raras tienen como elemento fosforescente
oxisulfuro y oxibromuro de itrio, lantano y gadolinio. Su velocidad oscila entre 200 y 1200, el factor
de intensificación es de 80 a 400 y la resolución de 7 a 15 pl/mm. Las siguientes propiedades afectan
al factor de intensificación y no pueden ser controladas por el técnico. En orden de importancia son:
Los factores que afectan a la velocidad de la pantalla y que están bajo el control del técnico son:
- Calidad de la radiografía: Cuanto mayor sea el potencial del tubo, mayor será el factor de
intensificación.
- Temperatura: Las pantallas de refuerzo emiten más luz por cada rayo X recibido a baja
temperatura que por cada uno recibido a alta temperatura. El factor de intensificación disminuye
con la temperatura.
- Revelado de la película: En las películas de pantallas si aumentamos el tiempo de revelado,
disminuye el factor de intensificación.
Resolución es la capacidad de una pantalla para reproducir un objeto de forma clara y nítida. La
resolución se mide por la distancia mínima entre 2 líneas que es capaz de detectar y registrar, se expresa
en pares de líneas por mm (pl/mm), de forma que cuanto mayor es el número de pares de líneas por mm
registrado, mayor es la resolución y mayor fiabilidad tenemos para reproducir objetos de menor tamaño.
Las condiciones que aumentan el factor de intensificación reducen la resolución. Así, las pantallas de alta
velocidad tienen baja resolución y por ende, las de alta resolución son de baja velocidad.
La resolución aumenta cuando disminuimos el tamaño de los cristales y disminuimos el grosor de la capa
de elemento fosforescente.
Las pantallas de tierras raras son el doble de rápidas que las de tungstenato de calcio, sin perder
resolución. Al ser más rápidas, se emplean técnicas radiográficas menores con lo que se reduce la dosis
de radiación que recibe el paciente y se prolonga la vida del tubo.
Las pantallas de tierras raras obtienen su mayor sensibilidad gracias a una mayor absorción de rayos X y
a una conversión más eficaz de los rayos X en luz visible.
La luz que emiten es distinta a la que emiten las de tungstenato de calcio, por este motivo, debemos
utilizar una película radiográfica adecuada a dicha luz.
Cuidado de la pantalla de refuerzo. Las pantallas deben estar bien cuidadas para obtener radiografías de
calidad, cualquier arañazo puede producir artefactos en la imagen final, con lo que tendremos una
disminución en la calidad de la radiografía. De hecho, solo deben tocarse cuando se instalan en los chasis
o para limpiarlas.
La frecuencia en la limpieza de las pantallas depende de cuánto se usan y del grado de limpieza del aire
donde se utilizan. Como norma general, se limpiarán una vez al mes, utilizando los líquidos que se
comercializan al efecto (compuestos antiestáticos), o bien usando agua y jabón suave (enjuagándolas y
secándolas después con cuidado).
La interacción de los rayos X con el elemento fosforescente no las desgasta, solo hay que cambiarlas por
manejo o mantenimiento inadecuado.
La radioscopia es el examen de un determinado órgano por medio de la imagen que se proyecta en una
pantalla fluorescente a tiempo real, también se denomina fluoroscopia. El fluoroscopio fue inventado
por Thomas Edison en 1896 y su uso está muy extendido en la actualidad.
- Si el técnico en radiología observa algo durante el estudio que considera debe grabar para un
estudio posterior más minucioso, se puede realizar una radiografía con interrupción mínima de
la fluoroscopia, es lo que se conoce por seriorradiografía.
- La fluoroscopia es en la actualidad una exploración rutinaria, excepto cuando se utiliza para
visualizar los vasos sanguíneos, lo que recibe el nombre de angiografía. Las dos principales
aplicaciones de la angiografía corresponden a la neurorradiología y la radiología vascular,
también pudiéndose obtener seriorradiografías.
- En los equipos de fluoroscopia el tubo de rayos X suele estar debajo de la camilla del paciente.
Sobre la camilla se encuentra el intensificador de imágenes y otros dispositivos de detección de
imagen. Algunos equipos de fluoroscopia tienen el tubo de rayos X colocado sobre la camilla, con
el intensificador de imagen bajo la misma. Otros equipos de fluoroscopia se controlan a distancia
desde el exterior de la sala de exploración
- Durante la fluoroscopia con intensificador de imagen, la imagen se recibe en un monitor de TV o
de ordenador. Los valores normales de corriente son de 2 a 4 mA, por lo tanto la dosis que recibe
el paciente durante el examen continúa siendo elevada, mucho más que un examen radiográfico.
- En un examen radiográfico se utiliza una corriente del tubo de rayos X de cientos de mA. En
fluoroscopia, la corriente del tubo es inferior a 5 mA.
- La tensión de pico depende exclusivamente de la parte del cuerpo que se debe examinar. Los
modernos equipos de fluoroscopia permiten al técnico seleccionar un nivel de brillo, variando
automáticamente la tensión de pico, la corriente o ambas, en caso necesario. Un equipo de
fluoroscopia con esas características se dice que tiene: control automático de brillo (ABC),
estabilización automática del brillo (ABS), control automático de exposición (AEC) o control
automático de ganancia (AGC)
Iluminación
- La principal ventaja que tiene el equipo de fluoroscopia con intensificador es el mayor brillo de la
imagen. Del mismo modo que es más difícil leer un libro bajo luz débil que luz brillante, también
es mucho más fácil interpretar una imagen fluoroscópica brillante que una débil. El nivel de
iluminación se mide en lamberts (L) y mililamberts (mL) (1 L = 1000 mL).
- No es necesario que conozcamos la definición del lambert, su importancia radica en mostrar la
amplia gama de iluminaciones a la que es sensible el ojo humano.
- Las radiografías se visualizan bajo niveles de iluminación de 10 a 1000 mL, los equipos de
fluoroscopia con intensificador de imagen tienen niveles de iluminación similares.
Visión humana
- Las estructuras oculares responsables de la visión son los conos y los bastones.
1. La luz que llega al ojo debe pasar primero a través de la córnea y después a través del cristalino, donde
se enfoca la luz sobre la retina. Entre la córnea y el cristalino se encuentra el iris, que se comporta como
el diafragma de una cámara fotográfica controlando la cantidad de luz que penetra en el ojo.
2. Si la luz exterior es muy brillante, el iris se cierra, dejando pasar sólo una pequeña cantidad. En la
oscuridad, el iris se dilata, es decir, se abre para que penetre más luz. En fluoroscopia digital hay un iris
que funciona de forma similar, ubicado entre el tubo intensificador de imagen y el tubo de la cámara de
televisión.
3. Cuando la luz alcanza la retina es detectada por los conos y los bastones.
- Los conos se concentran en el centro de la retina, en una zona denominada fóvea central. Los
bastones son mucho más numerosos que los conos en la periferia de la retina y no hay ninguno
en la fóvea central.
- Los bastones son muy sensibles a la luz y se utilizan en caso de escasa iluminación. Los conos son
menos sensibles, pero son capaces de responder a niveles intensos de luz, cosa que no pueden
hacer los bastones. En consecuencia, los conos se utilizan para visión diurna, llamada visión
fotópica, y los bastones para la visión nocturna o visión escotópica. La capacidad de los bastones
para visualizar objetos pequeños es mucho menor que la de los conos, esta capacidad se llama
agudeza visual.
- Los conos también son más capaces que los bastones para detectar diferencias de brillo, esta
propiedad se conoce por percepción de contraste, además son también más
Los que salen del paciente e inciden sobre el tubo intensificador de imagen se transmiten a través de la
envoltura de vidrio e interaccionan con el elemento fosforescente de entrada, que es yoduro de cesio
(ICs). Entonces los rayos X se transforman en fotones de luz visible como sucedía con las pantallas
intensificadoras en radiografía.
El siguiente elemento activo del tubo intensificador de imagen es el fotocátodo, que está unido al
elemento fosforescente de entrada mediante una fina y transparente capa adhesiva. El fotocátodo es
una fina capa de metal compuesta por cesio y antimonio, que responde a la estimulación de luz,
emitiendo electrones.
El tubo intensificador de imagen mide unos 50 cm de largo. Entre el fotocátodo y el ánodo se mantiene
una ddp de 25.000 V para que los electrones emitidos por el fotocátodo se aceleren hacia el ánodo.
Cerca del ánodo se encuentra el elemento fosforescente de salida, donde los electrones al chocar
producen una ráfaga de luz. El elemento fosforescente de salida está formado por cristales de sulfuro de
cinc (SZn) y cadmio (Cd). Cada electrón que llega al elemento fosforescente de salida produce al chocar
con él de 50 a 75 veces más fotones de luz de los que fueron necesarios para crearlo.
Se denomina ganancia de flujo al cociente entre el número de fotones de luz que se producen en el
elemento fosforescente de salida dividido entre el número de fotoelectrones de luz que se producen en
el elemento fosforescente de entrada.
La ganancia de brillo es la capacidad del tubo intensificador para aumentar el brillo, y es el producto de
la ganancia de reducción por la ganancia de flujo.
La ganancia de brillo de los intensificadores de imagen es de 5.000 a 20.000 y disminuye con la utilización
y con la edad del tubo.
El tamaño del diámetro del elemento fosforescente de salida es bastante estándar entre 2,5 y 5 cm. El
tamaño del elemento fosforescente de entrada oscila entre 10 y 35 cm de diámetro, este último es el
que se utiliza para identificar los tubos intensificadores de imagen.
La imagen fluoroscópica obtenida necesita de un sistema para poder visualizarla, ya que esta imagen es
de menor tamaño, más brillante e invertida: Sistema óptico de espejos para visualización directa,
monitor de TV, cámara de cine (cinerradiografía) y cámara de seriografía. Estos sistemas se describirán
más adelante.
Intensificador de imagen multicampo También se denomina tubo de doble foco o trifoco. Proporciona
bastante más flexibilidad en los exámenes fluoroscópicos y son estándar en fluoroscopia digital. Los más
usados son: Doble foco 25 cm-17 cm (25/17) y los tubos trifoco 25/17/12 o 23/15/10. Estos números se
refieren al diámetro del elemento fosforescente de entrada del tubo intensificador de imagen.
En modo 25 cm, todos los fotoelectrones que se producen en el fotocátodo chocan con el elemento
fosforescente de salida.
Si se cambia a 17 cm aumenta el potencial de las lentes electrostáticas lo que hace que el punto focal de
los electrones se separe del elemento fosforescente de salida y solo los fotoelectrones centrales chocan
contra el elemento fosforescente de salida. Las consecuencias de este cambio de punto focal son la
disminución del campo y el aumento de la imagen.
El factor de aumento está directamente relacionado con el cociente del diámetro de los tubos. En un
tubo de 25/17, si utilizamos el modo 17 la imagen que se obtiene aumenta 1,5 veces más sobre la que se
obtiene con 25.
1. Al ser la ganancia en reducción más pequeña, el brillo total es menor, con lo cual la imagen es
más tenue, menos luminosa.
2. Para mantener el nivel de contraste (de luminosidad) se aumenta automáticamente la corriente
con lo que aumentamos la dosis de radiación que recibe el paciente.
3. Otro inconveniente es que la parte periférica de la imagen queda desenfocada y sufre
degeneración en los bordes
Monitorización óptica.
Es un sistema óptico de lentes y espejos que aumentan la imagen del elemento fosforescente de salida y
la muestra en una pantalla de cristal. También recibe el nombre de sistema de espejos ópticos.
Las principales desventajas de este sistema son que el campo de visión es muy pequeño y sólo lo puede
utilizar una persona cada vez.; y también que se pierde mucha luz, por lo cual no se aprovechan las
características del tubo intensificador. Monitor de televisión.
La cámara de televisión está formada por una carcasa cilíndrica de 15 cm de diámetro y 25 de largo.
Tiene una envoltura de vidrio que mantiene el vacío, un cátodo con un cañón de electrones que es un
filamento caliente que suministra una corriente de electrones por emisión termoiónica.
Además tiene un conjunto de rejillas y de lentes electrostáticas que aceleran los electrones, en dirección
del ánodo. Ese ánodo o blanco está formado por 3 capas:
Haz de fibras ópticas: es un método sencillo y compacto que facilita la manipulación del tubo del
intensificador y ofrece un acoplamiento fuerte. Aunque no permite añadir dispositivos adicionales como
sería la cámara de cine o la de seriografía.
Lentes: El acoplamiento mediante lentes permite acoplar la cámara de cine y de seriografía a la vez,
además, ofrece la posibilidad de ver la imagen mientras se graba. Es más voluminoso que el anterior y
debe ser tratado con cuidado. Las lentes y los espejos deben estar ajustados con total precisión porque si
se mueven la imagen aparece borrosa.
1. La señal de vídeo se amplifica y se transmite por cable hasta el monitor de televisión donde se
transforma de nuevo en imagen visible. En el monitor de televisión solo existen dos controles: el brillo y
el contraste.
2. El corazón del monitor es un tubo de imagen, es decir, tubo de rayos catódicos (C.R.T.) con un cañón
de electrones, bovinas de enfoque y dirección y un ánodo que es: una pantalla fosforescente. El tubo
recibe la imagen de vídeo modulada cuya magnitud es directamente proporcional a la intensidad de luz
que recibió del intensificador, la rejilla de control y las bobinas enfocan el haz hacia la pantalla
fosforescente. Está compuesta de cristales lineales perpendiculares y una envoltura de cristal, los
electrones al chocar contra esa capa producen luz, el movimiento del haz de electrones produce en la
pantalla una retícula (red).
3. Comienzan en el extremo superior izquierdo de la pantalla y van hacia el derecho creando una línea de
luz con intensidad variable que se denomina trazo activo, se desconecta y vuelve horizontalmente hacia
la parte izquierda (se llama retrazo horizontal) así hasta que llega al borde inferior derecho, entonces se
desconecta y vuelve de nuevo hacia arriba, a esto se le llama “campo de televisión”.
4. Cuando ha terminado un campo y vuelve de nuevo arriba se denomina “retrazo vertical” y describe
otro trazo activo entre dos trazos activos del campo anterior, cuando termina tenemos 2 campos
entrelazados que es un cuadro.
6. El ojo humano no aprecia el parpadeo o la velocidad por encima de 20 cuadros/seg. Los equipos
pueden tener pantallas de 875 y de 1000 líneas. Cuantas más líneas poseen, mejor es la imagen obtenida
Cinefluorografía
- Aquí se sustituye el tubo de la cámara de TV por una cámara de cine, grabando la imagen en
película para poder visualizarla posteriormente.
- La cinefluorografía tiene su aplicación principal en técnicas angiográficas, sobre todo en el
cateterismo cardíaco.
- La dosis que recibe el paciente es mucho mayor que la administrada cuando se graba la imagen
en cinta magnética o disco, pero la calidad también es mayor.
- En cinefluorografía se utilizan cámaras de 16 a 35 mm, con ésta última la exposición que recibe el
paciente es mayor que la recibida con cámaras de 16 mm, pero la calidad es mayor.
- Las cámaras de cine están controladas mediante motores sincronizados, alimentados a la tensión
de línea que es de 60 Hz, por tanto las frecuencias de cuadro son: 7,5, 15, 30 y 60 cuadros por
segundo. Cuanto mayor sea la frecuencia mayor dosis recibirá el paciente.
- Los estudios cardíacos requieren las frecuencias más altas sin embargo en estudios intestinales
solo de 7,5 cuadros por segundo.
- Todos los sistemas actuales de cinefluorografía son sincronizados, es decir, que el tubo de rayos
X sólo actúa en el tiempo en que la película está en posición para ser expuesta.
Seriografía
_____________________________________________________________________________________
Producir la imagen de radiación: Todas las técnicas deben optimizar las diferencias en la absorción de
rayos X entre las estructuras de interés y los tejidos del entorno. Es decir, deben producir una imagen de
radiación con las mejores características para cubrir las necesidades de un diagnóstico específico.
Captar y visualizar la imagen de radiación: La imagen de radiación, al no poder ser vista por el
observador, debe modificarse hasta permitir ser visualizada e interpretada para su información. El uso de
fósforos para convertir la energía de los rayos X de la imagen de radiación en una forma más
conveniente, es común para toda la radiografía médica, excepto en la técnica de exposición directa. Las
características de la imagen deben ser igualmente mejoradas al máximo para cubrir las necesidades
clínicas específicas.
Registrar y archivar la imagen digital: La imagen debe ser registrada de forma que permita una fácil
visualización, sencillez para comparar con los resultados de otras modalidades de formación de
imágenes y fácil de trasladar a otros lugares (próximos o lejanos), y por último, posibilidad de archivo
para posteriores consultas.
Las modalidades de la imagen digital, tales como la Tomografía Computada (TC), el Ultrasonido (US) y la
Medicina Nuclear, ganaron gran aceptación en la década de los años 70. En los 80 apareció la Resonancia
Magnética (RM) y la Angiografía por Sustracción Digital (DSA), aumentando la tendencia hacia la imagen
digital. De todas formas, la radiología convencional con película ocupaba aproximadamente el 70% de
todos los exámenes de diagnóstico que se realizaban.
En la década de los años 90, se integra la radiología convencional en un contexto digital. Un primer paso
fue la utilización de los sistemas de digitalización de películas mediante escáneres, el segundo con la
aparición de los primeros sistemas de películas de fósforo y, finalmente, los sistemas de captura directa.
Sólo recientemente, es técnicamente posible utilizar tecnologías electrónicas para reemplazar la película
radiográfica en parte de sus funciones: visualización, almacenamiento y comunicación. El despliegue de
monitores de alta resolución con elevada luminancia, las altas prestaciones de los ordenadores actuales
representados por las estaciones de trabajo, la posibilidad de tener imágenes digitales activas en
dispositivos de almacenamiento que pueden recuperar grandes cantidades de datos e imágenes y las
redes modernas que son capaces de transmitir imágenes archivadas a gran velocidad, donde y cuando se
requieran, ha permitido definitivamente implantar la imagen digital.
5.2. Diferencia entre imagen analógica e imagen digital. En los sistemas convencionales, el operador
selecciona los factores técnicos que mejoran al máximo el contraste, la borrosidad y el ruido de la
imagen de radiación. La segunda y tercera fase del ciclo de formación de imágenes utilizan una
combinación de película-pantalla. Las pantallas de refuerzo convierten la energía de los rayos X de la
imagen de radiación en energía luminosa, la cual expone la película radiográfica y se forma la imagen
latente. El brillo de la luz emitida por la pantalla varía de forma continua y proporcional, con más luz
emitida en las regiones de la pantalla que han sido expuestas a flujos de rayos X mayores. La
proporcionalidad de la luz emitida es transferida a la película radiográfica produciendo un mayor
oscurecimiento con el aumento de la exposición. Este sistema es un sistema analógico, ya que las fases
de capturar y registrar la imagen hacen uso de señales continuamente variables.
Los sistemas de formación de imágenes electrónicas difieren de las técnicas película-pantalla en que la
conversión de la energía de rayos X de la imagen de radiación se lleva a cabo utilizando otro medio,
diferente a una pantalla de refuerzo. Las imágenes electrónicas se visualizan utilizando tubos de rayos
catódicos (CRT), que pueden mostrar tanto imágenes de vídeo analógicas como imágenes digitales. En
fluoroscopia analógica, la cámara de video (tubo) proporciona una señal electrónica de voltajes que
varían continuamente, lo que se utiliza para estimular el brillo del fósforo del CRT.
Un píxel (picture element: elemento de imagen) se refiere a la unidad más pequeña de la matriz de la
imagen, un punto con una coordenada específica (posición de líneas y columnas) que corresponde a una
posición en el paciente. La posición en el paciente que corresponde a un píxel se denomina voxel
(volume element: elemento de volumen)
Las imágenes digitales son imágenes compuestas por pixels. El valor de cada píxel es la representación
digital de la característica (parámetro) medida por cada modalidad (TC, RM) para formar una imagen.
Así, en fluoroscopia digital, el parámetro de la imagen representado por el píxel es el flujo de rayos X de
la imagen de radiación. Un píxel de una imagen de ultrasonidos representa la intensidad del eco de la
onda sonora detectado por el transductor. La intensidad de la señal de radiofrecuencia (RF) es el
parámetro de la imagen, detectado por las bobinas en un sistema de formación de imágenes por
resonancia magnética.
Se ha logrado dos tipos de obtención de imágenes conocidas como digitales. Ambos van asociadas al
desarrollo de otros factores, diferentes de la producción de la imagen propiamente tal, como lo son la
tecnología de monitores, vías de transmisión, software de procesamiento de las imágenes, etc.
La mamografía digital primaria o digital propiamente tal mide directamente los fotones de radiación que
pasan por la mama. La importancia de esto es que el equipo tiene la capacidad de leer los primeros
fotones lo cual no es obtenido con el sistema pantallapelícula y además lee un gran flujo de ellos,
permitiendo la obtención de información de una enorme cantidad de puntos de la mama, practicándose
un mapeo más exacto de las variaciones de atenuación de los tejidos mamarios.
Directos: Los mamógrafos digitales directos tienen detectores de radiación que convierten directamente
la información en carga eléctrica. Habitualmente utilizan selenio como fotodetectores por su afinidad
con los rayos X.
Indirectos: Los indirectos ocupan dos pasos en el proceso de digitalización: la radiación convertida en luz
es recibida por fotodiodos y transformada en carga eléctrica.
Por último en el sistema pantalla-película la imagen una vez obtenida no puede modificarse, puede
perderse y en ocasiones su transmisión y almacenamiento crea verdaderos problemas. Sin embargo,
debemos tener en consideración que este sistema, es económico y eficaz en la producción de imágenes
cuando se usa una adecuada combinación pantalla-película. La película usada normalmente tiene una
resolución teórica de 17 a 20 pares de líneas por mm.
Ambos sistemas pertenecen al grupo conocido en la literatura como radiología digital directa (DR).
El segundo sistema es la conocida como sistemas de radiología computada (CR) dado que utiliza
procesos computacionales y digitaliza posteriormente la imagen ocupada con un lector láser.
Los digitalizadores trabajan al pasar la luz a través de la radiografía, grabando la intensidad de la luz
transmitida en cada punto de la imagen, consignándole un número a esta intensidad lumínica. Luego se
copia de manera digital, permitiendo manipulación posterior de la imagen. La crítica a este sistema tiene
que ver con que sería una copia de la imagen latente que potencialmente pierde información y aumenta
el ruido en la imagen.
5.4. Fluoroscopia: La fluoroscopia o radioscopia es una técnica que utiliza un tubo intensificador de
imagen que convierte la energía de los rayos X de la imagen de radiación, en una imagen de luz visible
reducida. En fluoroscopia convencional, un tubo de video convierte la imagen de luz visible en una señal
de video analógico que puede ser visualizada en un monitor de TV y almacenada en una cinta o disco de
video. Los sistemas fluoroscópicos ofrecen la posibilidad de formar imágenes en tiempo real, creando
una imagen móvil de la función dinámica del paciente. Los sistemas fluoroscópicos digitales convierten la
señal analógica de video en datos digitales. El resultado es una matriz de datos digitales para cada
fotograma de video, que corresponde al brillo de la luz visible de la imagen. La imagen digital esta
formada por líneas y columnas de datos y llamamos píxel a cada
punto individual.
Han pasado poco más de 30 años desde las primeras angioplastias con balón, pero en este corto periodo
de tiempo los progresos han sido enormes. En la actualidad los radiólogos pueden acceder mediante una
aguja, una guía y un catéter a los lugares más recónditos del mapa vascular del organismo, e incluso a los
territorios no vasculares, como son las vías biliares o urinarias, el tubo digestivo, el aparato reproductor
femenino o el aparato lagrimal. Todo ello ha contribuido a que la radiología vascular intervenionista
constituya actualmente uno de los principales avances de la Medicina de los últimos tiempos, al permitir
tratar con métodos mínimamente invasivos enfermedades cuya única alternativa terapéutica hasta hace
pocos años era la cirugía abierta.
Se debe tener especial cuidado durante los exámenes de rayos X en utilizar la mínima dosis posible de
radiación y a la vez generar las mejores imágenes para la evaluación.
1. Antes de tomar las radiografías, se introduce un líquido llamado sulfato de bario, en el recto. Este
líquido es un tipo de medio de contraste, visible cuando realizamos la radiografía, de tal manera que
rellenamos la luz del colon y se pone de manifiesto patología a este nivel. El bario finalmente sale del
cuerpo con las heces.
3. Se puede inflar un pequeño globo ubicado en la punta de la sonda del enema para ayudar a que el
bario permanezca en el interior del colon, evitando que salga por incontinencia de los esfínteres. El
médico vigila el flujo del bario en una pantalla fluoroscópica para rayos X.
1- Enema opaco simple que utiliza bario para resaltar el intestino grueso.
2- Enema opaco de doble contraste que utiliza el bario, pero que también introduce aire dentro del
colon para expandirlo, lo cual permite imágenes incluso mejores.
1. Se le pide a la persona que adopte diferentes posiciones y la mesa se inclina un poco para obtener
diferentes ángulos. En ciertos momentos en los que se están tomando las radiografías, el paciente debe
contener la respiración y permanecer quieto durante unos cuantos segundos para que las radiografías no
salgan movidas.
2. Una vez que se han tomado las radiografías, se retira la sonda de enema y a la persona se le entrega
un orinal o se le ayuda a llegar hasta el baño para que evacue y elimine del intestino la mayor cantidad
posible de bario. Después de salir del baño, se pueden tomar 1 ó 2 radiografías más.
Para que se pueda rellenar adecuadamente el colon y no confundir heces con patología, es
necesario que el paciente realice una preparación para el examen, que consiste en vaciar
completamente sus intestinos antes del examen, lo cual puede hacerse utilizando un enema o
laxantes combinados con una dieta líquida estricta. El médico le dará a la persona instrucciones
específicas con respecto a esto. Para lograr imágenes nítidas,
es necesario hacer una limpieza completa del intestino
grueso.
El enema opaco o enema de bario se emplea para detectar
cáncer de colon. Se puede usar también para diagnosticar y
evaluar la magnitud de una enfermedad intestinal
inflamatoria.
Enema opaco en el que se observa un cáncer a nivel de colon sigmoide
5.4.4. Histerosalpingografía. La histerosalpingografía (HSG) se usa para diagnosticar problemas del útero
y las trompas de Falopio. Se usa con más frecuencia para determinar si las trompas de una mujer están
parcial o totalmente obstruidas. Puede también revelar si el tamaño y la forma interna del útero son
normales.
La HSG es un procedimiento en el que se emplean radiografías para ver el interior del útero y las trompas
de Falopio. Este procedimiento revela la presencia de tejido cicatrizante o anomalías con respecto al
tamaño y la forma, los cuales pueden producir infertilidad y problemas durante el embarazo. La HSG
también se usa unos meses después de algunos procedimientos de esterilización para garantizar que las
trompas de Falopio se hayan obstruido totalmente.
La HSG no se realiza si la mujer está embarazada, tiene una infección pélvica o presenta
sangrado uterino intenso en la fecha del procedimiento.
Durante una HSG, se aplica un medio de contraste en el útero y las trompas de Falopio. Éste es un líquido
que contiene un tinte. El tinte aparece en contraste con las estructuras del cuerpo en la pantalla de una
radiografía. Al hacerlo, delinea las orillas y permite ver el tamaño y la forma de los órganos internos.
También es posible ver cómo el tinte se desplaza por las estructuras del cuerpo.
Procedimiento:
5.5. Ecografía (ultrasonidos). La ecografía es una moderna técnica de diagnóstico por imagen que utiliza
la propiedad de los ultrasonidos de producir ecos cuando encuentra un tejido distinto a su paso por el
organismo.
En los últimos años las técnicas de ultrasonidos han evolucionado de forma espectacular gracias a los
progresos combinados obtenidos con los captadores, el comando electrónico y el tratamiento de la
señal. Los últimos adelantos están ligados a la aparición de aparatos en tiempo real, a la focalización
electrónica y al empleo de memorias de imagen de gran dinámica. Estas mejoras han transformado los
primeros ecógrafos en útiles de trabajo prácticos, muy efectivos, en los cuales la formación de imágenes
depende de cada vez menos del manipulador.
El desarrollo paralelo de la técnica doppler permitió a partir de entonces explorar la gran mayoría de
órganos y estructuras con la exploración funcional cardiovascular. Se ha mostrado inocuidad total de los
ultrasonidos, a las potencias acústicas utilizadas para el diagnóstico, y que la relación información-coste
de los aparatos de ecografía y doppler es la más ventajosa entre los aparatos por la imagen empleados
en medicina.
Las indicaciones de esta técnica son múltiples y siguen creciendo día a día. Se considera un método en
expansión inocuo, atraumático y sin radiaciones ionizantes, cuyo uso generalizado la hace
absolutamente imprescindible de la medicina actual.
La ecografía abdominal es una técnica que se ha desarrollado mucho en los últimos años, siendo una
técnica de diagnóstico por imagen inocua, fácil de realizar, repetitiva, barata y que permite el estudio de
los órganos abdominales de una manera rápida y precisa.
5.5.1. Historia de los ultrasonidos. En el año 1870, Galton investigó los límites de la audición humana,
fijando la frecuencia máxima a la que podía oír una persona. Llegó a la conclusión de que los sonidos con
frecuencias inaudibles por el ser humano, presentaban fenómenos de propagación similares al resto de
las ondas sonoras, aunque con una absorción mucho mayor por parte del aire. A partir de entonces, se
empezó a investigar en temas relacionados con la generación de los ultrasonidos.
Las primeras fuentes artificiales de ultrasonidos aparecieron en la década de 1880. Los hermanos
Jacques y Pierre Curie fueron los primeros en descubrir el efecto piezoeléctrico, o cambio de la
distribución de las cargas eléctricas de ciertos materiales cristalinos tras un impacto mecánico. En esta
misma década; Lippmann y Voigt experimentaron con el llamado efecto piezoeléctrico inverso, aplicable
realmente a la generación de los ultrasonidos. Otro pionero fue Roentgen que participó en los primeros
experimentos con ultrasonidos y publicó varios trabajos en los que describía sus experiencias con
sonidos de alta frecuencia.
A lo largo del siglo XX, se han producido grandes avances en el estudio de los ultrasonidos,
especialmente en lo relacionado con las aplicaciones: acústicas, subacuáticas, medicina, industria, etc.
Concretamente, Langevin lo empleó durante la primera Guerra Mundial para sondeos subacuáticos,
realizando un sencillo procesado de las ondas y sus ecos. Richardson y Fessenden, en la década de los
años 10 idearon un método para localizar icebergs, con un procedimiento similar al utilizado hoy en día
(método de impulsos). Mulhauser y Firestones entre 1933 y 1942 aplicaron los ultrasonidos a la industria
y a la inspección de materiales.
5.5.2. Concepto de ultrasonidos Es cualquier sonido por encima de lo audible por el ser humano.
Los sonidos se clasifican en función del oído humano en Infrasonido, Sonido Audible y Ultrasonido. De
esta manera tenemos:
Infrasonidos: Todo sonido por debajo de lo audible por el oído humano, es decir, por debajo de los 20
hertzios (Hz).
Sonido Audible: Todo sonido audible que se encuentra dentro de lo audible por el oído humano, es decir,
entre 20 y 20000 Hz
Ultrasonidos: Todo sonido que se encuentra por encima de lo audible por el oído humano, es decir, por
encima de los 20000 Hz.
No obstante, en la naturaleza existen muchos ejemplos de especies que se pueden transcribir (transmitir
y recibir) por ultrasonidos. Los murciélagos y algunos insectos tienen órganos sensoriales ultrasónicos
muy desarrollados que funcionan aproximadamente a 120 Khz. Sin embargo, no existen fuentes de
ultrasonidos naturales conocidas con el rango de frecuencia empleado en la ecografía diagnóstica
médica o con fines terapéuticos, que es de 1 a 15 Mhz.
Así sabemos que existen dos utilidades sanitarias para los ultrasonidos que son:
5.5.3. Física de los ultrasonidos. Todas las aplicaciones diagnósticas de los ultrasonidos están basadas en
la detección y representación de la energía acústica reflejada por interfases en el interior del organismo.
Estas interacciones proporcionan la información necesaria para generar imágenes del organismo de alta
resolución en escala de grises, así como para representar información relacionada con el flujo sanguíneo.
Las propiedades peculiares de imagen de los ultrasonidos los han convertido en un método de obtención
de imágenes relevante y versátil. Por desgracia, el uso de material de ecografía moderno y caro no
garantiza la obtención de estudios de alta calidad con valor diagnóstico. La obtención del beneficio
máximo de esta compleja tecnología requiere una combinación de habilidad, con conocimiento de los
principios físicos que dotan a los ultrasonidos de sus propiedades diagnósticas peculiares. El usuario
debe conocer los fundamentos de las interacciones de la energía acústica con los tejidos, así como los
métodos y el instrumental empleados para producir y optimizar la representación de los ultrasonidos.
Con este conocimiento el usuario puede recopilar la máxima información en cada exploración y evitar
problemas y errores diagnósticos provocados por la omisión de información o por la interpretación
equivocada de los artefactos.
La ecografía convencional y la ecografía doppler están basadas en la dispersión de la energía sónica por
interfases formadas por materiales de propiedades diferentes mediante interacciones gobernadas por la
física acústica. Para generar imágenes con ultrasonidos se emplea la amplitud de la energía reflejada y
las desviaciones de la frecuencia en los ultrasonidos de retrodispersion proporciona información sobre
objetivos en movimiento como la sangre. Para producir, detectar y procesar los datos de ecografía hay
que controlar numerosas variables, muchas de ellas bajo control directo del operador. Para ello, el
operador debe conocer los métodos empleados para generar datos de ecografía y la teoría y manejo del
instrumental que detecta, representa y almacena la información acústica generada durante las
exploraciones clínicas.
El sonido es el resultado de la mecánica que viaja a través de la materia en forma de onda produciendo
compresión y rarefacción alternas. Las ondas de presión se propagan por desplazamiento físico limitado
del material a través del que se trasmite el sonido. Los cambios de presión en el tiempo definen las
unidades básicas para medir el sonido:
Propagación del sonido: La mayoría de las aplicaciones clínicas de los ultrasonidos emplean descargas
breves o pulsos de energía que se trasmiten al cuerpo, donde se propaga a través del tejido. Las ondas
de presión acústica pueden viajar en una dirección perpendicular a la dirección de las partículas
desplazadas (ondas trasversales), pero en el tejido y en los fluidos, la propagación del sonido se realiza
en dirección del movimiento de las partículas (ondas longitudinales). La velocidad a la que se desplaza la
onda de presión a través del tejido es muy variable y está influenciada por las propiedades físicas del
tejido. La velocidad de propagación está determinada de forma relevante por la resistencia del medio a
la compresión. Esta viene determinada por la densidad del medio y por su rigidez o elasticidad. La
velocidad de propagación aumenta al aumentar la rigidez y disminuye al aumentar la densidad. La
velocidad de propagación en el organismo puede considerarse constante para un tejido determinado y
no se modifica por la frecuencia o la longitud de onda del sonido. En el cuadro de velocidades de
propagación típicas de diferentes materiales. Se supone que la velocidad de propagación del sonido en el
organismo es de 1540 m/s. esta cifra es el promedio de las determinaciones obtenidas en tejidos
normales. Aunque se trata de un valor representativo de la mayoría de los tejidos blandos, algunos
tejidos, como el pulmón con aire y la grasa, tienen una velocidad de propagación sustancialmente
menor, y otros, como el hueso, una velocidad superior. Debido a que algunos tejidos normales tienen
velocidad de propagación bastante diferente del valor promedio, la representación de estos tejidos
puede estar sujeta a errores o artefactos de medición.
Impedancia acústica: Los ecógrafos diagnósticos modernos se basan en la detección y representación del
sonido reflejado o ecos. También es posible obtener imágenes basadas en la transmisión de los
ultrasonidos, pero no se emplea en la clínica por el momento. Para producir un eco debe existir una
interfase reflectante. El sonido que atraviesa un medio completamente homogéneo no encuentra
interfases que reflejen el sonido, por lo que el medio será anecoico o quístito. En la unión entre tejidos o
materiales con diferentes propiedades físicas existen interfases acústicas. Estas interfases son
responsables de la reflexión de una proporción variable de la energía sónica incidente. Así, cuando los
ultrasonidos atraviesan de un tejido a otro o encuentran la pared de un vaso o células sanguíneas
circulantes, se refleja parte de la energía acústica incidente.
El grado de reflexión o retrodispersión (dispersión de retorno) está determinado por la diferencia en las
impedancias acústicas de los materiales que forman la interfase. La impedancia acústica Z, viene
determinada por el producto de la densidad, del medio que propaga el sonido por la velocidad de
propagación del sonido en dicho medio. Las interfases con gran diferencia de impedancia acústica, como
la del tejido con el aire y el hueso, reflejan casi toda la energía incidente, mientras que las interfases
entre tejidos con menor diferencia de impedancia acústica, como la interfase entre el músculo y la grasa,
reflejan sólo una parte de la energía incidente, permitiendo el paso del resto. Igual que sucede con la
velocidad de propagación, la impedancia acústica está determinada por las propiedades de los tejidos
implicados y es independiente de la frecuencia.
Refracción: Otro fenómeno que puede suceder cuando el sonido pasa de un tejido con una velocidad de
propagación acústica determinada a otro con una velocidad mayor o menor es un cambio en la dirección
de la onda de sonido. Este cambio en la dirección de propagación se denomina refracción.
La refracción es importante porque es una de las causas de registro erróneo de una estructura de
imagen ecográfica. Cuando un aparato de ultrasonidos detecta un eco asume que el origen del eco está
en línea directa con el traductor. Si el sonido ha sufrido refracción, el eco detectado y representado en la
imagen podría proceder de una profundidad o localización diferente de la que se muestra en la pantalla.
Si se sospecha este fenómeno, el aumento del ángulo barrido para que sea perpendicular a la interfase
reduce al mínimo el artefacto.
Atenuación: Conforme la energía acústica atraviesa un medio uniforme se produce trabajo y finalmente
se transfiere energía al medio trasmisor en forma de calor. La capacidad para realizar trabajo esta
determinada por la magnitud de la energía acústica producida. La potencia acústica, expresada en
Vatios, describe la magnitud de la energía acústica producida por unidad de tiempo. Aunque la medición
de la potencia nos da una idea de la energía relacionada con el tiempo, no tiene en cuenta la distribución
espacial de la energía. Para describir la distribución espacial de la potencia se emplea la intensidad, la
cual se calcula dividiendo la potencia por el área en la que se distribuye la potencia.
La atenuación de la energía sónica conforme atraviesa el tejido tiene gran importancia clínica porque
influye en la profundidad del tejido a la que puede obtenerse información útil. Esto afecta a la selección
del traductor y a varios ajustes del instrumental controlados por el operador, como la compensación de
la ganancia de tiempo (o profundidad), atenuaron de la potencia de salida y niveles de ganancia del
sistema.
La atenuación se mide en unidades relativas. Por lo general se usan los decibelios para comprobar
niveles diferentes de potencia o intensidad de los ultrasonidos.
El sonido pierde energía conforme atraviesa el tejido y las ondas de presión pierden amplitud conforme
se alejan de su fuente. La transferencia de energía al tejido debida al calor (absorción) y la perdida de
energía por reflexión y dispersión contribuyen a la atenuación del sonido. Por tanto, la atenuación es el
resultado de los efectos combinados de absorción, dispersión y reflexión. La atenuación depende de la
frecuencia de insolación así como de la naturaleza del medio de atenuación. Las frecuencias altas se
atenúan más rápidamente que las frecuencias bajas y la frecuencia del transductor es el determinante
principal de la profundidad útil a la que puede obtenerse información con los ultrasonidos. La atenuación
determina la eficiencia con la que los ultrasonidos penetran en un tejido específico y varía
considerablemente en los tejidos normales.
La ecografía bidimensional (eco 2-D) es una técnica de imagen en tiempo real ampliamente usada en
todas las áreas de la Medicina. Su valor diagnóstico está bien establecido. Un examinador experto puede
reconstruir una imagen tridimensional en su mente a partir de una secuencia de múltiples imágenes
bidimensionales. Sin embargo, la posibilidad de obtener imágenes de ciertos planos del espacio
mediante eco 2-D es muy limitada, siendo imposible en algunos casos. Además, el hecho de la “creación”
de una imagen en la mente del examinador confiere a esta técnica un alto grado de subjetividad, lo que
en algunos aspectos hace que la técnica tenga limitaciones importantes en cuanto a su reproducibilidad.
En los últimos 10 años la ecografía tridimensional (eco 3-D) se ha introducido, poco a poco, en la práctica
clínica. Con esta tecnología podemos obtener una imagen en cualquier plano del espacio de un órgano o
región de interés (RDI). Con la eco 3-D podemos obtener y almacenar un volumen de imágenes. Este
volumen puede ser evaluado posteriormente cuantas veces se quiera, permitiendo realizar
“navegaciones” virtuales sobre la RDI, reconstrucciones de superficies y cálculos de volúmenes. Con el
power-Doppler además se estima la vascularización de órganos tejidos o lesiones.
1- Manual: Con el método manual se emplean unos sensores que se acoplan al transductor
ultrasónico y a la paciente de modo que las imágenes bidimensionales obtenidas por el
transductor ultrasónico se orientan en el espacio. El examinador desplaza la sonda mediante
movimientos de traslación o rotación obteniendo una secuencia de imágenes 2-D que son
almacenadas en un ordenador acoplado al ecógrafo donde son posteriormente procesados
mediante un programa informático.
2- Automático: El método automático emplea transductores ultrasónicos “dedicados”, es decir,
especialmente diseñados para obtener imágenes tridimensionales. En este caso es el transductor
el que realiza el barrido sobre la RDI seleccionada por el examinador sin que este tenga que
realizar ningún tipo de desplazamiento. La velocidad y ángulo de barrido pueden ser ajustados
por el examinador. A menor velocidad y menor ángulo de barrido mayor será la resolución
obtenida. El tiempo promedio de barrido, entre 3-10 segundos, depende de la velocidad y ángulo
establecidos. El conjunto de imágenes obtenidas es lo que se denomina “volumen 3-D” y se
compone de “voxels”. Cada “voxel” tiene un valor en escala de gris.
En general la calidad de las imágenes obtenidas mediante el método automático es mejor que
las del método manual.
El volumen obtenido puede ser almacenado y analizado posteriormente sin necesidad de que la
paciente esté presente.
Las imágenes 3-D pueden presentarse en la pantalla en varios formatos, superficie, modo
multiplanar o modo “nicho”.
o El modo superficie permite obtener una reconstrucción de una superficie concreta como
puede ser una cara fetal. El modo multiplanar visualiza simultáneamente en los 3 planos
del espacio la RDI y “navega” virtualmente a través de ellos, mientras que el modo
“nicho” presenta una reconstrucción de una RDI determinada y su interrelación en los 3
planos del espacio.
Asimismo, la eco 3-D permite realizar cálculos volumétricos en la RDI. Estos pueden realizarse de
diversos modos:
Este último método se basa en el uso de trazados de la RDI sobre un plano mediante sucesivas
rotaciones. Este método permite obtener una reconstrucción 3D de la RDI y estimar la vascularización de
la RDI mediante el uso de powerDoppler y su función denominada “histograma”. Usando este método
pueden calcularse tres índices vasculares dentro de la RDI. El índice de vascularización (VI), se expresa en
porcentaje, mide la relación entre voxels en color, que representan vasos, y voxels en escala de grises,
que representan tejido, indicando el no de vasos dentro de la RDI. El índice de flujo (FI), es el valor
promedio de la intensidad de la señal color en los “voxels” color, en una escala de 0 a 100. A más
intensidad color, más FI y representa el flujo sanguíneo dentro de los vasos. Finalmente, el índice de
vascularización-flujo (VFI), es una mezcla de los dos anteriores, que se expresa también en una escala
numérica de 0 a 100 y muestra la perfusión tisular.
Con la eco 3-D pueden presentarse artefactos, algunos son inherentes a la eco 2-D como son las sombras
acústicas, los fenómenos de reverberación o los artefactos por movimiento y otros propios de la eco 3-D
derivardos de la adquisición de volumen, de su presentación o del procesado. El cálculo de volúmenes y
de la vascularización mediante eco 3-D ha sido validado en diferentes estudios.
5.6. Tomografía Axial Computarizada. Otra técnica fundamental es la tomografía axial computarizada
(TC), que ya desde sus comienzos ha revolucionado el diagnóstico por imagen. En la TC se obtienen
secciones o cortes del paciente. Posteriormente ha aparecido la tecnología helicoidal en 1990, la cual se
vio superada en 1998 por la TC multidetectora (TCMD).
El TC se basa en la producción de imágenes mediante los rayos X (igual que las radiografías y la
fluoroscopia), pero realizando imágenes de todo un volumen.
La TCMD ha sido el último avance tecnológico aplicado universalmente con impacto significativo en
todas las áreas de la radiología.
Desde su aparición ha existido un aumento constante del número de detectores, pasando por 4, 8, 16,
40, 64; y recientemente incluso aparatos de 128, y 320 filas de detectores. Este incremento en el número
de detectores ha ido dirigido a obtener una mayor resolución espacial y temporal, haciendo posible la
imagen cardiaca. En sus inicios este aumento de detectores iba acompañado de un aumento importante
de la radiación; actualmente, los fabricantes han mejorado y optimizado los equipos.
La aparición del TCMD implica numerosas ventajas entre las cuales destacan las siguientes:
1- Aumento significativo en la rapidez de los exámenes: desde la base del cuello al piso del periné
en no más de 20 segundos. Fuerte impacto en su utilización en enfermos de urgencia como por
ejemplo los politraumatizados.
2- Colimación más fina con lo cual se obtienen cortes de mayor resolución, incrementándose por
tanto el poder de detección de lesiones más pequeñas. De gran importancia en la búsqueda de
metástasis o en precisar relaciones anatómicas importantes para la toma de decisiones
quirúrgicas.
3- Adicionalmente se obtienen muchísimas más imágenes (pueden superar las 1000), pero
obviamente, no se pueden imprimir todas. Las imágenes se examinan en estaciones de trabajo.
4- Posibilidad de realizar reconstrucciones multiplanares y volumétricas, lo cual facilita la
comprensión espacial de la patología, ayuda a la planificación terapéutica y permite controlar
procedimientos especiales. Existen varios métodos de hacer reconstrucciones, por ejemplo el
MIP o proyecciones de máxima y mínima intensidad, representación de volumen (”volume
rendering”) y representación de superficie (“surface rendering”).
5- Mediante el uso de softwares, se realiza la reconstrucción de imágenes a partir de los datos
brutos, de diversos sistemas: por ejemplo a partir de los datos obtenidos de un rastreo
abdominal se pueden obtener imágenes de la aorta, ramas principales y menores o podemos
adquirir de una sola vez el cráneo y de allí obtener imágenes de cerebro, estudios de oídos, ojos
e incluso una angiografía cerebral.
6- Lo anterior, unido a la mayor precisión de las imágenes derivado del espesor submilimétrico de
los cortes abre un campo de aplicación importante en la patología vascular de grandes y
pequeños vasos, entre las cuales probablemente las más espectaculares sean aquéllas
relacionadas con la patología de las coronarias. Los cortes muy finos permiten también eliminar
el artefacto habitual que provocan los metales.
Los equipos de TCMD tienen una importante aplicación en el diagnóstico de las enfermedades,
permitiendo reconstrucciones vasculares, de la vía aérea, el tubo digestivo y el sistema
musculoesqueletico de gran calidad, sin artefactos de volumen parcial o movimiento. El gran volumen de
imágenes que obtienen estos equipos ha cambiado la forma como un radiólogo se enfrenta a una
exploración, pasando de la placa impresa y el negatoscopio a la consola de trabajo y los sistemas de
archivo digital.
La TCMD permite obtener estudios de broncoscopia y colonoscopia virtual con imágenes similares a la
broncoscopia y colonoscopia óptica. Asimismo, consigue unos estudios vasculares de altísima calidad con
imágenes similares a la angiografía.
5.6.1.
Aplicaciones clínicas del TCMD.
Tórax: Rastreo completo del tórax con una sola inspiración en algunos segundos y obtención de
imágenes con ventana pulmonar y mediastínica, además de reconstrucciones en planos coronal y
oblicuos, elemento de gran utilidad para la evaluación de la patología tumoral y parenquimatosa.
Por otra parte, ha posibilitado un diagnóstico de alta precisión en el tromboembolismo pulmonar. Esta
indicación ha provocado un gran impacto asistencial que ha llegado a saturar los servicios de radiología,
por lo que es necesario adecuar las indicaciones de las pruebas.
Estudios coronarios: Siendo la enfermedad coronaria una patología de alta prevalencia y una de las
causas principales de muerte en la población adulta y, considerando que al momento de hacerse
sintomática las consecuencias son significativas, es que se hace necesario realizar los mayores esfuerzos
para diagnosticarla en etapa subclínica. La TCMD es una herramienta muy útil en ese sentido y, gracias a
la posibilidad de representar el árbol coronario sin necesidad de utilizar procedimientos invasivos, puede
convertirse en una importante herramienta de “screening” en población sana de riesgo.
Abdomen.
Hígado En el hígado, la rapidez de los equipos de TCMD permite la realización de exámenes dinámicos
con imágenes en la fase arterial precoz, tardía o también llamada fase portal y una fase parenquimatosa.
La fase arterial precoz es útil para estudios de transplante, quimioembolización o estudios angiográficos.
1- La fase arterial precoz será de utilidad para detectar anomalías vasculares, como por
ejemplo las fístulas arterioportales.
2- La fase arterial tardía permite diagnosticar hepatomas hipervasculares y las reconstrucciones
multiplanares facilitan su comprensión espacial.
3- La fase parenquimatosa muestra mucha utilidad para la detección de metástasis
hipovasculares.
Páncreas: La detección y la estadificación adecuada del cáncer de páncreas es hasta el día de hoy un
desafío mayor. Tal como sucede en los estudios hepáticos, la combinación de cortes finos, estudios en
fases arteriales y venosas y reconstrucciones multiplanares con estudios angiográficos para planificar
resecabilidad quirúrgica, abren alentadoras perspectivas al respecto.
Trauma abdominal: La rapidez de la TCMD permite la evaluación integral por imágenes de estos
pacientes críticos en un tiempo muy corto, lo cual ayudará a descartar rápidamente cualquier lesión de
víscera sólida o hueca, compromiso vascular con sangrado activo, trauma diafragmático e incluso del
esqueleto dorsolumbar y pelviano.
Enteroclisis por Tomografia computada: La enteroclisis por tomografía computada (E-TC) es una técnica
relativamente reciente, hecha posible por la introducción de la tomografía computada multidetector
(TCMD) en la pasada década. Consiste en la realización de una TC de abdomen y pelvis con contraste
endovenoso en fase arterial y portovenosa, en equipos con detectores múltiples que pueden ser de 4, 8,
o idealmente más, posterior a la administración de agua a temperatura ambiente a través de una sonda
nasoenteral con su extremo en o cercano al ángulo de Treitz (porción inicial del yeyuno), la que es
colocada previamente bajo fluoroscopia.
De esta forma se logra una adecuada distensión y visualización de asas de intestino delgado, quedando
la luz de las asas hipodensas por el agua, y la pared hiperdensa por el contraste endovenoso; lo cual no
se logra o es muy difícil en TC convencional. Esto permite con un alto rendimiento y rapidez descartar o
caracterizar lesiones inflamatorias, tumorales, vasculares y obstructivas del intestino delgado, con el
agregado de la visualización del resto de las estructuras sólidas abdominopelvianas, lo que, en caso de
estudios negativos para alteraciones de intestino delgado, hace posible buscar diagnósticos alternativos
o si es positivo, para patología neoplásica intestinal, permite su estadificación en el mismo examen.
Por años el método de elección para la evaluación del intestino delgado ha sido el tránsito inestinal, con
observación fluoroscópica y obtención de varias radiografías del abdomen a medida que el contraste
baritado ingerido por el paciente avanza por éste. Sin embargo, el método presenta fallos importantes
que incluyen un bajo valor predictivo negativo, dado que hay superposición de asas que a veces no
pueden ser desproyectadas o bien no detectar lesiones muy pequeñas. Es operador dependiente, no
visualiza directamente la pared intestinal y mesenterio, por lo que no evalúa el compromiso
extraintestinal, por ejemplo abscesos en enfermedad de Crohn. Usa radiación ionizante y en algunos
casos puede prolongarse por varias horas.
Las contraindicaciones para la realización de este examen son el embarazo, insuficiencia renal o
creatinina mayor a 2 mg/dl, reacciones adversas al medio de contraste yodado y sospecha de
obstrucción intestinal completa. La sospecha de obstrucción incompleta es sin embargo una
buena indicación de E-TC.
Otras modalidades de estudio del intestino delgado incluyen la cápsula endoscópica, que tiene la ventaja
de visualizar en forma directa la mucosa intestinal, siendo más sensible en la detección de enfermedad
de Crohn en etapa inicial, donde sólo existen pequeñas úlceras. Sus desventajas son su significativo
mayor costo, la falta de visualización de compromiso extraintestinal y, en ocasiones, la difícil localización
intraabdominal de una alteración descrita.
La enteroscopia, si bien permite visualizar en forma directa el intestino, e incluso tomar biopsias, tiene la
limitación de no poder cubrir la extensión completa del intestino delgado, y ser invasivo.
Avances múltiples se han realizado en resonancia magnética, donde se logra una alta resolución de
contraste. Sin embargo, su alto costo, tiempo invertido y la menor resolución espacial en comparación a
la E-TC, la hacen menos atractiva en la evaluación de primera línea del intestino delgado.
La tomografía por emisión de positrones (PET) y especialmente los equipos híbridos (TC-PET) han
supuesto un avance extraordinario en la estadificación de tumores. Hemos abandonado los criterios
clásicos de la TC basados únicamente en el tamaño y morfología, para pasar a una valoración de la
actividad metabólica de las lesiones, obteniendo con una mayor sensibilidad y especificidad. La TC-PET
nos ofrece la información metabólica de la PET unida a la resolucion anatómica del TC, obteniendo
mejores valores de sensibilidad y especificidad que la PET o la TC por separado, siendo probablemente la
técnica de imagen futura en el manejo diagnóstico de estos pacientes.
La Tomografía por emisión de Positrones (PET en inglés) es una técnica de diagnóstico no invasiva que
permite realizar imágenes que muestran el metabolismo y el funcionamiento de tejidos y órganos. Se
basa en detectar y analizar la distribución que adopta en el interior del cuerpo un radioisótopo
administrado a través de una inyección.
Lo característico de esta técnica es el empleo de isótopos emisores de positrones, esto es, de electrones
positivos.
La duración total de la prueba, que varía según el tipo de estudio, oscila entre dos y tres horas, pero el
tiempo de permanencia en el tomógrafo es de 30 a 90 minutos. El radionúclido más importante en el
diagnóstico PET es el F-18, que tiene una vida media de 109 minutos es decir, que en este tiempo su
actividad se ha reducido a la mitad. También se utilizan como radionúclidos producidos por el ciclotrón el
Carbono-11 (vida media, 20,4 minutos), el Oxígeno-15 (vida media, 2,1 minutos) y el Nitrógeno-13 (vida
media, 10,0 minutos), con los que se producen otros radiofármacos usados en diagnóstico o en
investigación.
5.7.1. Radiofármacos más utilizados para estudios PET. En clínica se utilizan fundamentalmente los
radiofármacos con F18, por la posibilidad de realizar estudios a cierta distancia del ciclotrón. Entre ellos,
el más utilizado es la fluoro-deoxiglucosa (FDG), por sus extraordinarias propiedades relacionadas con el
metabolismo de la glucosa.
A título indicativo, algunos de los trazadores más utilizados en clínica y en investigación son:
5.7.2. Tomógrafo PET. Los estudios PET se realizan mediante el tomógrafo PET, que consta básicamente
de un gantry que contiene varios anillos de fotodetectores, en cuyo interior se introduce la camilla del
enfermo que avanza progresivamente para realizar el estudio de una zona determinada o de todo el
organismo.
Dentro del gantry existe una fuente de radiación gamma (generalmente de germanio) para poder
realizar un estudio de atenuación, que aumenta significativamente la calidad de la imagen obtenida.
Por otra parte, y en cuanto a la molécula farmacológica empleada (independiente de su vida media), es
tan escasa la cantidad inyectada, que no hay peligro de reacciones de ningún tipo.
Las únicas contraindicaciones para la realización de la prueba, son en el caso de una mujer que se
encuentre embarazada, o personas con obesidad extrema ya que podrían tener dificultades para acceder
al tomógrafo.
La posibilidad de poder identificar, localizar y cuantificar el consumo de glucosa por las diferentes células
del organismo, ofrece un arma de capital importancia al diagnostico médico, puesto que muestra qué
áreas del cuerpo tienen un metabolismo glucídico elevado. Un elevado consumo de glucosa es,
precisamente, la característica primordial de los tejidos neoplásicos.
El PET, por tanto, permite localizar los focos de crecimiento celular anormal en todo el organismo, en un
solo estudio e independientemente de la localización anatómica donde asiente la neoplasia (primaria o
metastásica), ya que no evalúa la morfología de los tejidos, sino su metabolismo.
Además de la oncología, donde el PET se ha implantado con mucha fuerza como técnica diagnóstica,
otras áreas que se benefician de este tipo de exploraciones son la cardiología, la neurología y la
psicobiología, dada la
posibilidad de cuantificar el
metabolismo tanto cardiaco
como en el sistema nervioso
central.
La PET permite, en una sola exploración, mostrar el tumor primario, la afectación ganglionar y las
metástasis, lo que normalmente requiere el empleo de diversas pruebas diagnósticas, que en conjunto
supone un coste superior y, por supuesto, numerosas molestias para el enfermo.
La PET permite, al detectar muy inicialmente las metástasis, obviar la aplicación de ciertos tratamientos
quirúrgicos o de gran agresividad, ahorrando costos de hospitalización, y de técnicas que de entrada se
confirman que no conducirían a resultados positivos.
5.8. Resonancia Magnética. La resonancia magnética (RM) es una técnica no invasiva que utiliza el
fenómeno de la resonancia magnética para obtener información sobre la estructura y composición del
cuerpo a analizar. Esta información es procesada por ordenadores y transformada en imágenes
anatómicas.
La RM no debe ser confundida con la espectroscopia de resonancia magnética, una técnica usada en
química que utiliza el mismo principio de la resonancia magnética para obtener información sobre la
composición de los materiales.
A diferencia de la TC, no usa radiación ionizante (no utiliza rayos X), sino campos magnéticos para alinear
la magnetización nuclear de átomos de hidrógeno del agua en el cuerpo. Los campos de radiofrecuencia
(RF) se usan para sistemáticamente alterar el alineamiento de esa magnetización, causando que los
núcleos de hidrógeno produzcan un campo magnético rotacional detectable por el escanner. Esa señal
puede ser manipulada con adicionales campos magnéticos y así construir con más información imágenes
del cuerpo.
Los equipos de RM son máquinas con muchos componentes que se integran con gran precisión para
obtener información sobre la distribución de los átomos en el cuerpo humano utilizando el fenómeno de
RM. El elemento principal del equipo es un imán capaz de generar un campo magnético constante de
gran intensidad. Actualmente se utilizan imanes con intensidades de campo de entre 0.15 y 7 teslas. El
campo magnético constante se encarga de alinear los momentos magnéticos de los núcleos atómicos
básicamente en dos direcciones, paralela (los vectores apuntan en la misma dirección) y antiparalela
(apuntan en direcciones opuestas). La intensidad del campo y el momento magnético del núcleo
determinan la frecuencia de resonancia de los núcleos, así como la proporción de núcleos que se
encuentran cada uno de los dos estados.
Esta proporción está gobernada por las leyes de la estadística de Maxwell-Boltzmann que, para un átomo
de hidrógeno y un campo magnético de 1.5 teslas a temperatura ambiente, dicen que apenas un núcleo
por cada millón se orientará paralelamente, mientras que el resto se repartirán equitativamente entre
ambos estados, ya que la energía térmica de cada núcleo es mucho mayor que la diferencia de energía
entre ambos estados. La enorme cantidad de núcleos presente en un pequeño volumen hace que esta
pequeña diferencia estadística sea suficiente como para ser detectada.
Debido a que el imán principal genera un campo constante, todos los núcleos que posean el mismo
momento magnético (por ejemplo, todos los núcleos de hidrógeno) tendrán la misma frecuencia de
resonancia. Esto significa que una señal que ocasione una RM en estas condiciones podrá ser detectada,
pero con el mismo valor desde todas las partes del cuerpo, de manera que no existe información espacial
o información de dónde se produce la resonancia.
Para resolver este problema se añaden bobinas, llamadas bobinas de gradiente. Cada una de las bobinas
genera un campo magnético de una cierta intensidad con una frecuencia controlada. Estos campos
magnéticos alteran el campo magnético ya presente y, por tanto, la frecuencia de resonancia de los
núcleos. Utilizando tres bobinas ortogonales es posible asignarle a cada región del espacio una
frecuencia de resonancia diferente, de manera que cuando se produzca una resonancia a una frecuencia
determinada será posible determinar la región del espacio de la que proviene.
- Riesgos inmediatos
- Riesgos inmediatos inevitables
- Riesgos de una exposición prolongada a campos electromagnéticos
Riesgos inmediatos. Son riesgos derivados la introducción de un objeto o material en la sala donde se
encuentra el equipo que interaccione de alguna manera con éste. Estos riesgos son evitables en la
mayor, si no en la totalidad, de los casos, si el personal que maneja el equipo tiene una formación
apropiada y la información sobre el paciente es completa
La mayor parte de efectos negativos que puede tener sobre la salud un examen de RM provienen de los
efectos directos que el campo electromagnético puede ejercer sobre materiales conductores de la
electricidad o ferromagnéticos o sobre dispositivos electrónicos. Debido al potente campo magnético
que rodea al equipo de RM permanentemente, cualquier material ferromagnético, como el hierro, se
verá atraído con mucha fuerza hacia la pared interior del hueco donde se sitúa el paciente, a menudo
“volando” a través del espacio que lo separa de este lugar. Una vez pegado a la pared, extraerlo puede
requerir mucha fuerza, si no se desea apagar el imán primario. En el caso de que algún otro objeto se
interponga entre el imán y el material ferromagnético, se pueden producir graves daños, tanto al equipo
de RM como a los pacientes y personal presentes en la sala o en el interior equipo.
Los materiales conductores también representan un cierto peligro. Aunque estos materiales no se verán
atraídos por el campo magnético permanente del imán primario, reaccionarán a cualquier cambio en el
campo magnético estático oponiéndose a este cambio, según la ley de Lenz. Un cambio en el campo
magnético se produce, por ejemplo, cuando se encienden las bobinas de gradiente y estas empiezan a
emitir campos magnéticos con diversas frecuencias. La consecuencia de esto es la aparición de una
corriente eléctrica que, gracias a la resistencia del material, producirá un calentamiento, pudiendo llegar
a causar quemaduras a cualquier objeto en contacto con él.
El tercer tipo de peligro directo para la salud provocado por un examen de RM es para los dispositivos
electrónicos o mecánicos que puedan ser introducidos en la sala donde se encuentra el equipo de
diagnóstico. Debido tanto al campo magnético permanente como a las ondas de radio y a los gradientes
normales durante un examen de RM, cualquier dispositivo mecánico con alguna parte metálica podría no
funcionar bien en el interior de la sala. Este es el caso de algunas válvulas cardiacas. Un equipo
electrónico mal blindado de las radiaciones electromagnéticas podría dejar de funcionar o hacerlo
incorrectamente durante o después de un examen de RM. El marcapasos es el ejemplo típico de
problemas derivados de este efecto.
Riesgos inmediatos inevitables Los campos EM también interaccionan con los seres humanos, ya que
interaccionan con cualquier partícula cargada, y esto puede derivar, principalmente, en corrientes en el
interior de los tejidos y en calentamiento del cuerpo. Estos efectos presentan un riesgo bajo y
controlado.
En medicina se suele utilizar un análisis de riesgo-beneficio para valorar si un paciente debe someterse o
no a un examen de RM. En el caso de que el riesgo inevitable sea mayor que el normal, el examen solo se
realizará si es absolutamente necesario. Este es el caso de mujeres embarazadas, por ejemplo.
Riesgos de una exposición prolongada a campos electromagnéticos. Durante los últimos años se ha
iniciado un debate en los foros públicos y científicos sobre los posibles efectos adversos para la salud de
la exposición prolongada a campos electromagnéticos. Este tipo de riesgo afecta principalmente al
personal sanitario que trabaja en las instalaciones de RM, al personal de mantenimiento que debe
realizar reparaciones o trabajo directamente sobre el equipo y a cualquier otra persona que deba
encontrarse a menudo en las proximidades de un equipo de RM.
Los efectos de exposiciones prolongadas podrían derivar de los efectos conocidos mencionados en la
sección anterior (calentamiento del cuerpo y corrientes en el interior de los tejidos) o podrían derivar de
efectos no conocidos que, a largo plazo, causaran enfermedades mortales tales como cáncer. A día de
hoy no existe ninguna evidencia que sostenga esta última afirmación y la mayoría de los estudios que la
apoyan no presentan una correlación estadísticamente significativa entre campos EM y cáncer.
La directiva europea 2004/40/CE Al respecto de los efectos conocidos y sus posibles consecuencias a
causa de exposiciones prolongadas, la Comisión Europea aprobó en abril de 2004 la directiva
2004/40/CE, sobre las disposiciones mínimas de seguridad y de salud relativas a la exposición de los
trabajadores a los riesgos derivados de los agentes físicos (campos electromagnéticos) que establece
límites de exposición para las densidades de corriente y los coeficientes de absorción específica en el
interior del personal que trabaja en una instalación que emite campos EM (incluyendo equipos de RM).
Estos límites siguen las recomendaciones de la Comisión Internacional sobre Protección Frente a
Radiaciones No Ionizantes (ICNIRP por sus siglas en inglés) en su guía 7/99.
Medir estas magnitudes en el interior de una persona no es posible. Como mucho puede utilizarse un
maniquí en el interior del cual sea posible introducir las sondas para medir la corriente y la absorción
específica o crear un modelo matemático del equipo de RM y de la persona para obtener valores
numéricos.
- Para facilitar la tarea, la directiva europea y la guía de la ICNIRP (comisión internacional de protección
radiológica para radiaciones no ionizantes) establece también lo que se denominan valores de actuación
para los valores del campo eléctrico, campo magnético, flujo magnético, potencia, corriente de contacto
y corriente en tejido. Estas magnitudes pueden ser medidas fácilmente, utilizando sondas
extracorporales, y tratan de extrapolar los valores establecidos por los límites de exposición, de manera
que si los valores de actuación nunca son superados, los límites de exposición tampoco lo sean. En el
caso de que los valores de actuación sean superados, es necesario realizar un estudio detallado para
determinar si los límites de exposición están siendo rebasados y, en caso afirmativo, corregir la situación
A día de hoy las agencias gubernamentales y la Comisión europea han formado un grupo de trabajo para
examinar las implicaciones de la directiva para la RM y para tratar el problema de las exposiciones
individuales a los campos EM de RM.
Pueden entrar a la sala de RM, posicionar pacientes, inyectar contraste, etc, pero no deben permanecer
en la sala durante la adquisición de la imagen.
Esta política no está basada en la constatación de efectos adversos sino que está dada desde un punto
de vista puramente conservativo por insuficiencia de datos al respecto.
5.9. Espectroscopia por resonancia magnética La espectroscopia por resonancia magnética (ERM) es una
técnica no invasiva basada en el fenómeno de resonancia magnética nuclear (RM), que valora las
características bioquímicas de los tejidos. De esta manera, proporciona información metabólica,
complementaria a la información anatómica obtenida con los estudios convencionales, y ofrece al
radiólogo la posibilidad de trabajar con un tipo de información de la que no disponía anteriormente.
- La oportunidad de obtener espectros con suficiente resolución y sensibilidad, mediante imanes de 1.5
Tesla (T), junto con la posibilidad de estudiar en forma directa algunos procesos metabólicos sin
interferir en ellos ni utilizar para ello técnicas agresivas, hace de la EMR una herramienta de trabajo con
grandes posibilidades en el diagnóstico médico. Ello conlleva ventajas y desventajas:
Ventajas: La principal ventaja es que disponer de información adicional puede ayudar, en determinadas
circunstancias, a acotar el diagnóstico, máxime teniendo en cuenta que aborda el problema desde un
punto de vista totalmente diferente (metabólico frente a morfológico).
Desventajas: La principal desventaja es que se trata de un tipo de información con la que los radiólogos
no están habituados a trabajar, por lo que se necesita la colaboración de bioquímicos.
En la actualidad, se pueden realizar estudios ERM con una duración aceptable en la mayoría de máquinas
de RM de 1,5 T. Esto da al radiólogo la oportunidad de realizar los estudios de imagen por resonancia
magnética (RM) y ERM en una única sesión, evaluando en el mismo procedimiento la información que
suministran ambas técnicas.
La EMR se basa en la propiedad que presentan ciertos núcleos atómicos de absorber selectivamente
energía de radiofrecuencia cuando se colocan bajo un campo magnético. Este exceso energético es
liberado por los núcleos mediante un proceso de relajación nuclear. Las frecuencias de las radioondas en
los procesos tanto de absorción como de relajación es directamente proporcional al valor del campo
magnético que percibe el núcleo. Si el entorno electrónico del núcleo varia la frecuencia de relajación
variara también, entonces el núcleo emitirá frecuencias distintas según los radicales de los que forme
parte.
5.9.1. Obtención del espectro. El proceso para obtener un espectro “in vivo” se puede dividir en tres
fases:
5.9.2. Posicionamiento de la bobina. En que consiste?: Consiste en asegurar que la zona a estudiar está
situada correctamente dentro del volumen de observación de la bobina mediante la obtención de una
serie de imágenes rápidas, las cuales servirán posteriormente para la localización del voxel de interés.
5.9.3. Homogenización del campo magnético. Los tejidos y los órganos de diferentes personas
presentan diferente susceptibilidad magnética que causa cambios en la intensidad del campo magnético.
Cuando estos cambios se producen dentro del volumen a estudiar, un núcleo en una determinada célula
presenta gran variación en sus frecuencias de resonancia, como resultado es el origen de un espectro de
con unos picos muy anchos y de menor intensidad. Este problema se soluciona colocando la bobina en el
centro del imán o muy cerca de el, para así obtener la mayor homogeneidad del campo magnético.
Para eliminar este problema los equipos ya vienen equipados con un conjunto de bobinas que generan
gradientes de campo magnético, la corriente que circula por estas bobinas se varía de manera que se
compensen estas in homogeneidades del campo principal.
- Este proceso se realiza siempre con el núcleo de hidrógeno ya que la gran intensidad de la señal
del agua permite ser observada en menor tiempo. Conseguir una buena homogeneidad del
campo magnético es un paso clave para obtener un espectro del que se pueda obtener la
información deseada.
5.9.4. Aplicaciones clínicas de la ERM.
Sistema nervioso central: En el cerebro se ha utilizado ampliamente en el estudio de las diferentes
patologías y desórdenes neurodegenerativos, principalmente tumores, esclerosis múltiple y demencias.
Uno de los campos en que la información aportada por la ERM puede ser de mayor impacto es en el
diagnóstico de los tumores cerebrales.
- Para un tratamiento óptimo de los pacientes con tumor cerebral, es necesario disponer de un
diagnóstico lo más exacto posible. La imagen por RM puede proporcionar un diagnóstico inicial
de las masas cerebrales con una exactitud diagnóstica bastante alta dependiendo del tipo de
tumor. La anatomía patológica (AP) sigue siendo considerada el “gold Standard” para determinar
el diagnóstico definitivo, por lo que sigue siendo necesaria la biopsia del tumor. No obstante, la
mortalidad descrita en la realización de biopsias es del 1,7%. Un método no invasivo, como la
ERM, que permita predecir con mayor exactitud el tipo de lesiones, podría evitar biopsias en
procesos no tumorales o tumores poco accesibles que serían tributarios de radioquimioterapia
más que de resección quirúrgica.
Hay patrones de espectroscopia que se han demostrado característicos de determinados tipos
tumorales.
- Los tumores presentan patrones radiológicos propios que los caracterizan bioquímicamente. A
grandes rasgos, y como datos claramente establecidos, se puede decir que los tumores de más
alto grado (glioblastoma y metástasis) se caracterizan por la presencia de lípidos, que el
meningioma presenta valores de alanina superiores al resto de tumores, y que los valores de
colina son superiores en astrocitomas anaplásicos que en astrocitomas de bajo grado, y en
meningiomas que en los otros grupos. De todos modos, hay que destacar que existe una
significativa superposición de patrones entre grupos, máxime cuando se trata de tumores poco
comunes. Ello hace que, para obtener resultados mejorados, haya que recurrir a una
cuantificación precisa y métodos más o menos sofisticados de reconocimiento de patrones.
Próstata: La espectroscopia por RM endorrectal es una técnica no invasiva que complementa el
diagnóstico del carcinoma de próstata mediante la detección de metabolitos intracelulares a nivel de la
próstata, tales como la colina y el citrato. El cáncer de próstata es la segunda causa más frecuente de
muerte por cáncer entre los hombres.
- El diagnóstico de carcinoma de próstata se hace con biopsia endorrectal, a menudo después de
resultados altos en los niveles de antígeno prostático específico (PSA) o hallazgos patológicos en
el tacto rectal durante un chequeo rutinario. Una vez que se ha hecho el diagnóstico, el principal
reto es valorar el riesgo de recurrencia o fallo en el tratamiento y determinar cuál es el
tratamiento óptimo. Esta valoración inicial se basa en una combinación de niveles de PSA, tacto
rectal, y resultados de biopsia (niveles de Gleason).
Aun así, la sensibilidad de esta información clínica en la estadificación del carcinoma prostático es
subóptima. La RM se ha hecho muy importante en la estadificación inicial, aunque su eficacia en la
detección del tumor es sólo moderada. La ERM de la próstata se usa para medir metabolitos prostáticos
como la colina, creatina y citrato, y en combinación con la RM ha demostrado mejorar significativamente
la detección de tumores en la zona periférica, mejorando la especificidad. También se ha encontrado una
mejoría en la detección de los tumores de la zona de transición y es más eficaz que la biopsia endorrectal
en la punta de la próstata.
5.10. Medicina Nuclear. La medicina nuclear es una especialidad médica que utiliza cantidades muy
pequeñas de sustancias radioactivas, o radiofármacos, para examinar la función y estructura de un
órgano. La generación de imágenes en la medicina nuclear es una combinación de muchas disciplinas
diferentes, entre ellas la química, la física, las matemáticas, la tecnología informática y la medicina. Esta
rama de la medicina se utiliza a menudo para el diagnóstico de diversas enfermedades y para la
estadificación tumoral.
El método de imágenes nucleares permite la visualización de la estructura y la función órganos y tejidos.
El grado de absorción o “captación” del radiofármaco por un órgano o tejido específico puede indicar el
nivel de funcionalidad del órgano o tejido en estudio. Por lo tanto, los rayos X de diagnóstico se usan
principalmente para estudiar la anatomía, mientras que las imágenes nucleares se utilizan para estudiar
la función de órganos y tejidos.
1- Durante el procedimiento se utiliza una pequeña cantidad de sustancia radioactiva que facilita el
examen. Los compuestos marcados radiactivamente (radiofármacos) se inyectan o ingieren por
el paciente. Estos radiofármacos son absorbidos preferentemente por los órganos diana, dando
como resultado una radiactividad incrementada que corresponde a la función del órgano de
interés. El tejido del cuerpo absorbe la sustancia radioactiva, llamada radionúclido (radiofármaco
o trazador radioactivo). Están disponibles varios tipos diferentes de radionúclidos, incluidas
ciertas formas de los elementos tecnecio, talio, galio, iodo y xenón. El tipo de radionúclido a
utilizarse dependerá del tipo de estudio y de la parte del cuerpo que se examina.
2- Una vez que el paciente ha tomado el radionúclido y que éste se concentra en el tejido del
cuerpo que se está estudiando, se emitirá la radiación, la cual será captada por un detector de
radiación. El tipo de detector más común es la gammacámara. Cuando la cámara gama detecta la
radiación, se emiten señales digitales que se almacenan en una computadora.
3- Al evaluar el comportamiento del radionúclido en el cuerpo durante una gamagrafía, el médico
puede evaluar y diagnosticar diversas enfermedades. Las áreas en las que el radionúclido se
concentra en mayor cantidad se denominan “zonas calientes”. Las áreas que no absorben el
radionúclido y que aparecen con menor brillo en la imagen se denominan “zonas frías”.
En las imágenes planas, la cámara gama permanece estática. Se obtienen imágenes bidimensionales (2D)
de la parte del órgano estudiado. La tomografía computarizada por emisión de fotón único, o SPECT,
produce imágenes tridimensionales (3D) ya que la cámara gama gira alrededor del paciente.
Estos estudios se utilizan para diagnosticar muchas condiciones médicas y enfermedades. Algunos de los
exámenes más comunes incluyen las siguientes:
1- Gamagrafía renal: se utiliza para examinar los riñones y detectar cualquier anomalía, como
tumores u obstrucción del flujo sanguíneo renal.
2- Estudio de tiroides: se utiliza para evaluar la función tiroidea.
3- Gammagrafía ósea: se utiliza para evaluar cualquier cambio degenerativo o artrítico de las
articulaciones, o ambos, para detectar enfermedades y tumores de los huesos, o para
determinar la causa del dolor o la inflamación de los huesos.
4- Gamagrafía con galio: se utiliza para diagnosticar enfermedades inflamatorias o infecciosas
activas, tumores y abscesos.
Cada tipo de estudio emplea determinada tecnología, radionúclidos y procedimientos. Un escáner de
medicina nuclear consiste en tres fases:
1. Administración del trazador (radionúclido).
2. Toma de imágenes.
3. Interpretación de las imágenes.
La cantidad de tiempo que pasa entre la administración del trazador y la toma de las imágenes puede
variar desde unos cuantos minutos a unos cuantos días, dependiendo del tejido del cuerpo que va a
examinarse y del trazador que va a utilizarse. El tiempo requerido para obtener las imágenes puede
también variar desde minutos a horas.
_____________________________________________________________________________________
UNIDAD 6. – ADQUISICION DE IMÁGENES DIGITALES
6.1. Sistemas de adquisición aplicables a radiología convencional. Para conseguir el paso de imagen
analógica a digital existen varios sistemas de adquisición aplicables a la radiología convencional.
La radiología digital indirecta IR: CR y digitalización de la imagen analógica.
Y la radiología digital directa: sistemas basados en sensores CCD y detectores de panel plano FP o FPD.
Radiografía computarizada (CR).
Digitalización de la película radiográfica.
Fluoroscopia digital (Sensores CCD).
Radiografía digital mediante detectores FP (flan panel o panel plano).
6.1.1. Radiografía computarizada (CR). Es el sistema que utiliza un soporte primario de imagen
radiosensible, fotoestimulable y luminiscente (fósforo), que es leído y procesado por un ordenador
obteniendo una imagen radiológica digital. Es interesante destacar que este sistema permite la
utilización de los equipos radiológicos convencionales existentes en la actualidad. La actual película y
chasis es sustituida por un receptor alojado en un chasis especial, aunque externamente tiene muy pocas
diferencias, que al exponerse a la radiación adquiere una información en forma de niveles de energía.
Este soporte es leído por un rayo láser fino y de alta potencia que provoca luminiscencia, que es recogida
y transformada en señal eléctrica. Posteriormente esta señal a través de un digitalizador se transforma
en dígitos que al procesarse nos dan la imagen digital.
6.1.2. Digitalización de la película radiográfica. Las radiografías analógicas obtenidas por medios
convencionales pueden ser escaneadas mediante un digitalizador de película, que convierte las
densidades ópticas analógicas de la radiografía en una serie de valores digitales de pixels en una matriz
de imagen.
Cuando la imagen está en forma de matriz digital, la información que contiene puede ser manipulada
como en otros sistemas digitales. La calidad de la imagen obtenida dependerá de la calidad radiográfica
que se procese, admitiendo poco rango de variabilidad en su calidad.
6.1.3. Fluoroscopia digital (Sensores CCD). Parte de la señal analógica de la cámara de televisión que se
digitaliza para su posterior proceso. Sobre el intensificador de imagen convencional ya existente se
incluye:
1. UN TUBO DE CAMARA
2. UN CONVERTIDOR ANALOGICO-DIGITAL
3. LA CADENA DE TELEVISION
Este sistema en la actualidad se aplica en los telemandos y en los radioquirúrgicos de la última
generación.
6.1.4. Radiografía digital mediante detectores FP (flan panel o panel plano). El sistema consiste en la
digitalización de la imagen modulando la atenuación producida en el haz de radiación al traspasar el
paciente. Al realizar el disparo radiográfico pasa al ordenador la secuencia de datos numéricos, que éste
transforma en imagen. Este sistema es actualmente utilizado en la obtención de la radiología torácica
por el alto desnivel que presentan sus estructuras en densidad. Este sistema incluye dos detectores de
imagen, uno entre el tubo de rayos X y el paciente y otro entre el paciente y la unidad que modula la
intensidad.
6.2. Procesamiento de imágenes digitales. En los equipos con los que se realizan reconstrucciones de
imágenes (TC, RM, Fluoroscopia digital, etc.) se utiliza un miniordenador. Cuando en TC se reconstruyen
imágenes transversas en un plano coronal o sagital, éstas se envían de forma secuencial desde la
memoria a la unidad aritmética lógica de la CPU, para su procesamiento. La imagen por RM utiliza el
ordenador de forma muy similar a la tomografía computerizada.
En el caso de la ecografía, donde se utiliza la imagen en tiempo real y es necesaria una manipulación
inmediata de los datos, se requiere hardware especial conectado al miniordenador.
6.2.4. Ampliación. La ampliación es un proceso en el que se selecciona un área de interés y se copia cada
píxel dentro del área un número entero de veces. Posiblemente, cuando se realiza una ampliación
grande se visualiza con aspecto de estar construida por bloques. Para matizar las diferencias de
intensidad entre esos bloques, se realiza una operación de suavización o filtro de paso bajo.
Este último punto es muy importante. La experiencia ha demostrado que existe cierta resistencia entre
los médicos a las radiografías digitales, puesto que la escala de gris es diferente y en algunas ocasiones,
como en el contraste de los huesos, el diagnóstico puede ser más cuidadoso.
La renovación tecnológica es un problema dada la rapidez con la que se producen los cambios. Un
equipo puede estar en condiciones excelentes, pero al cabo de varios años puede quedar obsoleto. Esto
implica un esfuerzo económico de adaptación continuo.
El análisis del riesgo subsiguiente para los requisitos cambiantes de todo el sistema de Funcionamientos
de radiología, y la futura obsolescencia técnica, como riesgos mayores se deben proyectar a largo plazo.
Para reducir los riesgos se deben adoptar los siguientes principios:
1- El sistema debe ser configurado sobre una plataforma abierta, de forma tal que se puedan
agregar y/o anular segmentos sin que ello altere su funcionalidad. Debe ser posible acrecentar su
funcionalidad.
2- La integración de todo el sistema debe estar basada en módulos que funcionen independientes,
pero cada uno como bloques compactos.
3- Adhesión a las normativas de la industria y estándares que anulen la dependencia de los
propietarios.
4- Una plataforma abierta asegura la interoperabilidad entre los diferentes componentes de los
fabricantes, y evita tener “cajas negras” cerradas con llaves de sistemas propietarios de los
diferentes vendedores. La modularidad permite la adaptación a los ambientes cambiantes y
disminuye el impacto por cambios en módulos locales.
7.2. Componentes del sistema. Es difícil hablar de la composición de la RD sin tener en cuenta todo lo
relacionado con un servicio de radiología. Dentro de la RD entran los equipos productores de imágenes
médicas (TC, RM, US, DSA, RC, MN, etc.), los sistemas de adquisición de imágenes, redes de
comunicación, sistemas de gestión de información y de pacientes, sistemas de archivo, estaciones de
diagnóstico primario locales o remotas, estaciones de visualización y revisión, y sistemas de gestión de
impresión de imágenes.
La gran mayoría de estos componentes, exceptuando los equipos productores de imágenes médicas, se
puede encontrar en Sistemas de Información Radiológica (RIS acrónimo en inglés de Radiology
Information System), Sistemas de Comunicación y Archivo de Imágenes (PACS acrónimo en inglés de
Picture Archiving and Communication System) y Sistemas de Integración de Imágenes e Información
Clínica de los Pacientes (IMACS acrónimo de Image Management and Communication System). Las
partes fundamentales:
1- Estaciones de trabajo Workstation La Estación de trabajo, comúnmente llamada “Workstation” ,
es básicamente un PC de mayor potencia, dado por mayor capacidad de memoria RAM, más
capacidad en sus discos rígidos, y la colocación de tarjetas para trabajar con monitores de alta
resolución o más de un monitor; incluso con salida/entrada de vídeo. La WS esta compuesta de
varias partes: La unidad central donde se encuentra la CPU (Unidad Central de Procesamiento),
la Memoria RAM y los Discos Rígidos. También puede tener un dispositivo de lectura y/o
grabación magneto-óptico. En esta unidad central se colocan además las tarjetas controladoras
de vídeo para monitores.
Monitores: periféricos, sistema operativo y software de visualización y gestión de imágenes e
informes del paciente.
Unidad Central El componente básico de la unidad central es la CPU. Sobre la placa base
(llamada también placa madre) existen unas ranuras (llamadas comúnmente slots) donde se
colocan las tarjetas que se requieren para darle la funcionalidad al PC. La memoria RAM
(Random Access Memory) es una de las partes fundamentales y es colocada en la placa base en
los slots correspondientes. Son pequeñas tarjetas que pueden tener hasta 512 Mbytes. Si se
colocan 4 tarjetas de RAM, tendremos 2 GB de memoria. Sobre la placa base se colocan también
las tarjetas de RED, las tarjetas de módem y las tarjetas de vídeo que van estrechamente
vinculadas al tipo de monitor o monitores a instalar.
Dentro de la unidad central y conectados a la placa base van los dispositivos de almacenamiento
de información que generalmente son Discos Rígidos, Dispositivos de lectura/escritura sobre
discos o cintas magneto-ópticas y, por último, tarjetas SCSI para discos rígidos más veloces. A
veces en una WS se colocan sistemas RAID para recambio de discos rígidos UltraWide SCSI en
caliente (o sea con el ordenador funcionando).
Monitores Las estaciones de visualización e informes para la representación de imágenes de matrices
pequeñas y grandes deben cumplir las siguientes características:
1- La luminosidad de los monitores no debe ser menor de 538 lumens/m2. La brillantez y el
contraste están estrechamente relacionados y suponen una gran diferencia en la percepción
de la calidad de las imágenes médicas. Los monitores en Grises (blanco y negro) son
generalmente más brillantes y tienen mejor contraste que los de color.
2- La colocación de los monitores deberá ser tal, que evite o elimine los reflejos de la luz
ambiente sobre la pantalla del monitor. Además, la luz ambiente debe ser tan baja como sea
posible.
3- Se recomienda utilizar monitores con resolución de 1280x1024 o superiores para matrices
pequeñas. La resolución aceptada por ACR es 1600x1200 (landscape) o 1200x1600 (portrait).
La resolución ideal que recomienda la ACR es de 2000x2500 (portrait) con 4096 niveles de
gris, que es un equipo muy costoso cuando se compara con una solución PC, pero debemos
recordar, que si desea realizar diagnóstico primario, deberá tener al menos monitores de
este tipo. El monitor deberá tener un “dot pitch” de 0,26 o menor. Para diagnóstico primario
de radiografías, es requerida la propiedad de “fine dot pitch”. La frecuencia de refresco del
monitor debe ser mayor a 60 Hz.
4- La distorsión es otro de los aspectos a considerar. Para monitores grandes de alta resolución,
la distorsión puede ser un problema. Los monitores grandes, con amplia curvatura en el
cristal CRT, tienen imágenes altamente distorsionadas. Por lo tanto, es recomendable utilizar
monitores con pantallas lo más planas posible o monitores que rectifiquen la distorsión con
el tamaño del píxel.
5- El “blooming” (dispersado de regiones claras en las regiones contiguas). Deben colocarse en
las estaciones de visualización monitores con ausencia de “blooming”. Esta propiedad en los
PC esta estrechamente vinculada a la tarjeta de vídeo utilizada y la frecuencia de refresco
(monitores que soporten frecuencias de refresco de 100 Hz).
6- Existen otras propiedades de los monitores, como su relación entre la luminancia (variable
física) y la brillantez (variable perceptual) que no es lineal. Por otra parte, el contraste en
niveles de gris y la variación de la intensidad en cada píxel, depende de la representación de
la imagen.
Desde el punto de vista del observador, existen tres atributos importantes: la fidelidad, la informatividad
y la apariencia atractiva de la imagen. La fidelidad de la imagen está expresada en términos de resolución
espacial, resolución de niveles de gris, linealidad de los niveles de gris y el ruido de la imagen. La
informatividad está expresada en términos de la visibilidad diagnóstica, los rasgos importantes y la
detección de las anormalidades en la imagen. La apariencia atractiva está expresada en las propiedades
estéticas de la pantalla y el despliegue de las imágenes.
Discos rígidos: El disco rígido es el encargado de guardar toda la información de la WS, las imágenes, los
documentos, el sistema operativo y todo aquello que es importante. En dicho disco duro se almacena
toda esa información en forma de archivos, que después pueden ser consultados.
Están medidos en Megabytes (MB), aunque en la actualidad son tan grandes que se miden en Gigabytes
(GB) o sea 1024 MB. En 1985, 20 o 40 MB era la capacidad de disco rígido, y se consideraba aceptable.
Pero hoy en día sólo el sistema operativo Windows ocupa más de 300 MB. En 1993, 200-300 MB era la
capacidad promedio de los discos rígidos.
En 1995, lo común eran discos rígidos de 3-4 GB. Hoy, son comunes los discos rígidos con capacidad de
40 – 80 GB prácticamente ilimitada.
Algunos discos rígidos son más veloces que otros. El tiempo que le lleva a su disco leer una imagen,
descomprimirla si está comprimida, y luego ubicarla en la pantalla, depende de la velocidad del disco. El
“tiempo de acceso a disco”, medido en milésimas de segundo, es importante para el rendimiento de la
WS, particularmente con grandes archivos de imágenes. Existen distintos tipos de controladores de disco
y juegan un papel importante al determinar cuán rápido es el tiempo de acceso. IDE (Dispositivo
Electrónico Integrado), EIDE (Interface Extendida para Equipos Electrónicos), UDMA (Ultra Acceso
Directo a Memoria) y SCSI (Interfaces de los Sistemas para Pequeñas Computadoras) y el superamplio
SCSI2. Las SCSI son las más veloces y las preferidas.
Módem. Un bit es la forma de dato más simple. Es 0 ó 1. Un Byte está compuesto por 8 de estos bits
juntos en una “palabra” parecida a 10101100. (Esto es un ejemplo de una palabra, pero algunas palabras
de computadoras miden 16 ó 32 bits o sea 2 ó 4 Bytes). Eso sí, los bytes no se pueden dividir y las
velocidades de los módems se miden en bits por segundos = baudios.
A través del módem los PC pueden conectar, establecer la comunicación (“handshake”) y comenzar a
transmitir información a través de las líneas telefónicas. Gran parte del sonido (chirrido) de estos
aparatos es el inicio de la comunicación y la Modulación-Demodulación. Eso es exactamente lo que
ocurre entre dos módems que están conectados. De aquí proviene la palabra módem
ModulaciónDemodulación.
Los primeros módems tenían ventosas donde descansaba el auricular del teléfono (con los extremos
redondos). Estos módems funcionaban a 150 o 300 baudios o bits por segundo (bps). Hoy en día, los
módems se conectan directamente a la línea telefónica. Estos a su vez pueden ser internos (colocados en
la placa base) o externos. Un módem externo se conecta al puerto serie del PC. El módem externo tiene
su suministro de energía por separado y un conjunto de luces que titilan cuando está en uso. Para
transmitir imágenes debemos saber que: el tiempo de transmisión de una imagen es directamente
proporcional al tamaño del archivo y la necesidad de rapidez de la respuesta.
2- Sistemas de archivo
7.2.2. Archivos de Imágenes. Las imágenes se guardan en archivos en una computadora al igual que los
documentos. Existen formatos de archivos estándar que son leídos por el software y luego visualizados.
Al principio se comenzaron a crear distintos formatos de archivo de imágenes estándar, que podían ser
utilizados en publicaciones de documentos y gráficos. Se crearon aplicaciones que podían trabajar con
formatos tales como TIFF, PCX, BMP y GIF. Además de la información sobre el pixel, el “encabezado” en
cada uno de estos tipos de archivo varia en formato y tamaño.
En NEMA (National Electrical Manufacturer Association) y ACR (American College of Radiology) crearon
su propio formato de archivo de imágenes, conocido como formato ACR/NEMA. Ahora se lo ha
renombrado en su tercera aparición como DICOM (Imágenes y Comunicaciones Digitales en Medicina)
versión 3.0. En DICOM, las imágenes en escala de gris tienen 16 bits por pixel (o 2 Bytes por pixel), y las
imágenes color tienen 24 bits por pixel más 8 bits por pixel de información de intensidad (o la
impresionante cantidad de 4 Bytes por pixel).
La resolución espacial, o tamaño de una imagen digital, está definida como una matriz con cierto número
de pixels (o puntos de información) a lo ancho y a lo largo de la imagen. Cuanto más pixels, mejor
resolución. Esta matriz también tiene “profundidad”. La profundidad, generalmente es medida en bits y
comúnmente es conocida como escala de gris: las imágenes de 6 bits tienen 64 niveles de gris, las
imágenes de 7 bits tienen 128 niveles de gris, las imágenes de 8 bits tienen 256 niveles de gris y las
imágenes de 12 bits tienen 4.096 niveles de gris.
El tamaño de archivo de una imagen particular está determinado por la multiplicación del número de
pixels horizontales “por” el número de pixels verticales y luego multiplicándolo por el número de bits de
profundidad de la escala de gris. Por ejemplo, una imagen puede tener una resolución de 640x480 y 256
niveles de gris, u 8 bits de profundidad en escala de gris. El número de bits en el conjunto de datos
puede calcularse multiplicando 640x480x8 = 2.457.600 bits. Puesto que hay 8 bits en un byte, la imagen
de 640 x 480 con 256 niveles de gris tiene 307.200 Bytes de información.
Ahora bien, no se pueden fraccionar los bytes. Si hay una imagen de 12 bits y hay 8 bits en un byte,
necesitará 2 bytes para expresar toda la información. Los últimos 4 bits (llamados “bits altos”) están en
cero. Es más, es necesario calcular el tamaño del archivo con 2 bytes por pixel al almacenar imágenes de
12 y 10 bits. (La radiografía computada utiliza, por lo general, imágenes de 10 y 12 bits).
Esto significa que una imagen de diagnóstico en película con certificación ACR tiene un mínimo de 2Kx2K,
es decir, 2.000 x 2.000 pixels para un total de 4 millones de pixels. Cada pixel tiene 2 bytes (o 16 bits) de
información, para un total de 8 millones de Bytes (8 Megabytes) por imagen. Así tenemos que una
imagen de tórax de 8 MB tardaría demasiado tiempo en ser transmitida. Por lo que es necesario
comprimir las imágenes.
Compresión irreversible: En el caso de la compresión irreversible, compresión con pérdidas (“lossy”), las
tasas de compresión son mucho más elevadas, pero las imágenes reconstruidas presentan pérdida de
información o diferencias, con respecto a las imágenes originales.
Hay distintos algoritmos de compresión. Los más populares son LCZ y JPEG. Los algoritmos más en boga y
más nuevos están basados en Wavelets. DICOM 3.0 sólo acepta JPEG. JPEG es bastante bueno,
razonablemente rápido para comprimir y descomprimir, y está ampliamente implantado. Algunas
versiones mejoradas de JPEG permiten una compresión visualmente aceptable con tasas de 40:1 a 60:1.
Ciertas imágenes soportan determinada compresión sin sufrir una diferencia notable al ojo humano; en
prácticamente todos los cortes de TC y RM se producen bordes negros alrededor de la imagen del
paciente. La pérdida de algunos pixels no afecta la calidad percibida de la imagen, ni tampoco cambia en
modo significativo la interpretación del lector.
El formato JPEG 10:1 “convencional” es adecuado para películas de Rayos X, TC, RM o Ultrasonido. El
formato JPEG mejorado (eJPEG) permite una compresión de 30 a 70:1 sin una pérdida de calidad en
términos de diagnóstico, y funciona mejor para Películas de Rayos X que para imágenes con formato de
archivo pequeño.
En la actualidad no existe un método de compresión que sea aceptado por completo por la comunidad
de radiólogos, y en algunos lugares como los Estados Unidos, la legislación impide que se empleen
algoritmos de compresión irreversible en imágenes médicas.
En la actualidad existen algoritmos que se adaptan al tipo de imagen en cuestión y que tienen tasas de
compresión variables, dependiendo del uso que se tendrá. En otros casos, se utiliza el análisis de estos
distintos tipos de compresión realizando un estudio comparativo, que se denomina estudios ROC, donde
se determina a través de un panel de expertos, sí las imágenes comprimidas tienen diferencias
perceptibles cuando se comparan con la imagen original. Los algoritmos más avanzados permiten
emplear tasas altas de compresión, mientras se mantiene una calidad de imagen alta con diferencias casi
imperceptibles. De todas formas, llegará el momento en que las WS contarán con un ancho de banda T1
(Línea de Comunicaciones Digital de Alta Velocidad de 1.5 Mbps) y no será necesario comprimir las
imágenes.
RAIDS. Los servicios de radiología pueden producir entre medio TB y 7 o 8 TB por año según su tamaño,
según si las películas de CR, DR (Radiología Digital) son digitales o no, y dependiendo de si se incluyen
estudios de la unidad de cateterismo. De todas formas, un pequeño centro asistencial de 100 camas sin
CR, DR o sala de hemodinámica producirá un par de TB durante el período legal de 5 años establecido
para la conservación de películas en un departamento radiológico.
Así, un promedio estándar de 1 TB por año: equivale a mil GB por año u 85 GB por mes. Se puede utilizar
cinta, MOD, DVD o CD, aunque la mayoría de los profesionales preferirán el acceso directo (“On-Line”) a
las imágenes durante un período de uno a dos meses de manera bastante rápida. El número de veces
que un estudio es recuperado de un archivo, es muy intenso durante las primeras semanas,
moderadamente intenso los primeros 6 meses, y luego cae estrepitosamente. Es por eso que la mayoría
de los sectores medianos a grandes, mantienen archivos de acceso inmediato (en el lugar) durante 3 a 6
meses y, por otro lado, mantienen un archivo “activo” de los pacientes que están siendo tratados.
Por acceso inmediato, nos referimos a que, una vez localizado el archivo, queremos ver la imagen en los
monitores de la WS en unos pocos segundos. Quizás este proceso lleve unos 5 a 15 segundos. Pero no es
un minuto ni dos, se trata de segundos. Por lo tanto, sistemas Jukebox de CDs (o Jukebox de DVDs)
quedan descartados como forma de acceso “on-line” inmediato.
La solución más aceptada y de forma escalonada es el empleo de sistemas de discos redundantes (RAID-
Redundant Array of Inexpensive Disks) para “acceso inmediato”, empleo de Robots para MOD, DAT, DLT,
CD o DVD, para almacenamiento “near-line”. El tamaño y tipo de almacenamiento no es demasiado
importante, si después podemos cambiar el tamaño y, fácilmente, migrar los datos en el futuro. Por ello,
es importantísimo que toda la tecnología que se use sea totalmente estandarizada.
Con un RAID veloz y fiable la demanda inmediata de imágenes podrá ser satisfecha con éxito, aún
cuando sean muchas las personas que compiten por el mismo recurso. Además, el nivel del RAID debe
ser lo suficientemente fiable como para permitir el “hot swap” (reemplazo de discos en funcionamiento).
3- Redes
La Radiología Digital ha de disponer de una infraestructura de comunicaciones capaz de transportar la
información de las imágenes rápidamente a través de toda la red y de adaptarse a las necesidades de
cambio. Por ello, deberán buscarse alternativas que ofrezcan alta calidad, una completa gama de
servicios y optimización de costes, tanto en aspectos relativos a interconexiones como en su
operatibilidad y mantenimiento.
En una relación cliente-servidor el procesamiento se divide entre las dos partes. El sistema cliente
ejecuta una aplicación que muestra una interfaz de usuario, da formato a las peticiones de los servicios
de la red y muestra la información o los mensajes enviados por el servidor. El servidor realiza el
procesamiento posterior, como por ejemplo una clasificación de datos o la realización de un informe.
Debido a que los datos se encuentran perfectamente accesibles, el cliente realiza este proceso de forma
eficiente. Después de la clasificación, realización del informe o de cualquier otra tarea solicitada por el
usuario, el servidor envía los resultados al cliente. El tráfico en la red se reduce debido a que el cliente
únicamente obtiene la información que solicitó, no todo el conjunto de datos, como en el ejemplo
anterior
El sistema cliente servidor, además, mantiene una distribución cooperativa entre los clientes procesando
y transfiriendo las peticiones entre clientes. Los Sistemas PACS y RIS están basados principalmente en
una relación cliente-servidor. Existen múltiples configuraciones posibles cliente-servidor. La
configuración usual pequeña, es que varios clientes (o WS) se encuentren conectados a un mismo
servidor.
Ventajas:
Adaptable a los usuarios.
No atado a un único proveedor.
Costos iniciales bajos.
Rápido de desarrollar.
Fácil de instalar.
Fácil comunicación a través de las plataformas instaladas.
Inconvenientes:
Puede existir redundancia en los datos
Riesgo en la consistencia de los datos
Arquitectura Distribuida la sucesión de varias arquitecturas cliente/servidor, donde las aplicaciones y los
datos pueden estar distribuidos en más de un servidor y que a su vez permite el trabajo cooperativo de
toda la red. La división de los recursos en una arquitectura distribuida reduce el tráfico de la información
por la red.
Ventajas:
Utilización de componentes estandarizados.
La redundancia de los datos disminuye al ser almacenadas en diferentes puntos de la red.
Los mensajes dentro de la red pueden ser codificados.
Bajo coste de instalación.
La instalación puede ser realizada por el usuario (sistemas plug and play).
Inconvenientes:
Las interfaces no estandarizadas pueden tener problemas para comunicarse con la red.
La administración de las bases de datos es más difícil.
De las tres arquitecturas mencionadas, las dos últimas son las más utilizadas para redes de Radiología
Digital y Telerradiología (muy útiles en zonas de población dispersa y en zonas rurales). Son arquitecturas
atractivas por su bajo coste de instalación y la posibilidad de utilizar además de las redes internas de los
servicios de radiología, líneas telefónicas, e Internet, permitiendo el intercambio entre radiólogos y otros
especialistas.
Las arquitecturas descentralizadas, permiten realizar el diagnóstico primario de calidad, rápido y con un
alto grado de eficiencia. La integración de los servicios de Telerradiología dentro de la mecánica del
funcionamiento clínico permite tomar decisiones rápidas y descartar estudios complementarios
innecesarios.
Los objetivos de las arquitecturas de red cliente-servidor descentralizadas en Radiología Digital son:
Mayor disponibilidad de la red: Mejora la eficiencia operativa y los tiempos de respuesta.
Al mismo tiempo, se pueden atender los problemas en la red de forma rápida.
Reducir el coste operativo de la red: La reducción de los costes es uno de los motivos
principales detrás de la gestión de red. Como la tecnología cambia tan rápidamente, con
frecuencia es necesario gestionar sistemas heterogéneos y múltiples protocolos.
Reducir atascos en la red: La administración de la red se puede realizar desde un sitio
central y así controlar centralmente las tareas de la red. En otros casos, estas actividades
pueden estar distribuidas en diferentes sistemas de la red para evitar los atascos.
Incrementar la integración y flexibilidad de operación: Las tecnologías de redes están
cambiando muy rápido para atender nuevas necesidades de los usuarios. Además de
salir nuevas aplicaciones, los protocolos utilizados en las redes están siendo más
eficientes. La red deberá permitir absorber nuevas tecnologías al menor costo posible y
contar con la posibilidad de agregar nuevos equipos y tecnología sin mucha dificultad.
Las aplicaciones de gestión de red no deben ser muy dependientes de la plataforma para
su funcionamiento.
Mejorar la eficiencia: En ocasiones, los objetivos de la gestión de red se superponen. Si
reducimos el costo operativo de la red y mejoramos la disponibilidad de la red, la
eficiencia global aumentará. Se pueden considerar factores como: utilización, costo de
operación, costo de migración y flexibilidad.
Facilidad de uso: La interfaz para el usuario final es crítica para el éxito de cualquier
producto. El uso de aplicaciones en red no debe implicar una curva de aprendizaje
mayor. Las interfaces de usuario basadas en los principios y tecnología orientada a
objetos son de mucha ayuda para las aplicaciones en red.
La Red de Radiología Digital se concibe como una extensión virtual de los departamentos de radiología y
los servicios que estos brindan, pudiéndose compartir los recursos humanos, los procedimientos
diagnósticos y la base de conocimientos entre diferentes especialistas. Atendiendo a los escenarios
donde se implante una Red Radiología Digital y de Telerradiología su localización geográfica se puede
clasificar en:
Servicio de área local: Generalmente se implanta en el mismo centro de salud o en edificios adyacentes.
El especialista revisa las imágenes que se generan en el departamento de radiología y reporta en tiempo
real a otros departamentos del centro. Además, puede ofrecer asistencia remota dentro del centro a los
servicios de cuidados intensivos, urgencia y sala de quirófanos. Generalmente es un servicio vinculado al
sistema de Red de Radiología Digital intrahospitalario.
Servicio de área metropolitana: En la misma ciudad. Los especialistas de un hospital de referencia
pueden ofrecer servicios de informes y consultas a otros hospitales y centros de salud dentro de la
misma área metropolitana.
Servicio de área extensa o globales: Son servicios que cubren toda una región geográfica o incluso
diferentes países. En este caso especialistas de centros de referencia realizan diagnóstico primario a
centros de salud rurales y se realizan consultas entre centros para la interpretación de imágenes de
diferentes zonas geográficas. Los especialistas de un hospital pueden informar imágenes para otros
colegas de otros hospitales ubicados en distintas ciudades.
Red de Área Local Las telecomunicaciones y las comunicaciones en red son el eje central de la Radiología
Digital, los PACS y la Telerradiología. Sin ellas, nada entra en la WS o sale de ella.
Ancho de banda: El ancho de banda es la cantidad de información que puede transmitirse por un canal,
medida en bits por segundo. Por ejemplo, Ethernet tiene un ancho de banda de 10 Mbps (esto significa
Megabits por segundo) y la Interface de Datos Distribuidos por Fibra (FDDI acrónimo en inglés de Fiber
Distributed Data Interface) tiene un ancho de banda de 155 Mbps.
LAN: Una LAN es un grupo de computadoras, cada una equipada con una tarjeta adaptadora de red y
software apropiados, que comparten las aplicaciones, la información y los periféricos. Como todas las
conexiones se realizan mediante cable o por medios inalámbricos, una LAN no utiliza el servicio
telefónico. Una LAN típicamente cubre un único edificio o área geográfica reducida y generalmente está
conectada a través de un “Hub” (concentrador) para que cualquier WS pueda conectarse con cualquier
otra WS o dispositivo ubicado en la red.
Además de la topología, existen los “medios”, los “protocolos” y los “sistemas operativos de red”. Los
medios son los cables. El cableado por lo general es a través de cables de cobre del tipo par trenzado sin
blindaje (UTP acrónimo en inglés de Unshielded Twisted Pair). Existen distintos tipos de cables según sus
medidas y características eléctricas. Se clasifican en 5 categorías: UTP 1, 2, 3, 4, y 5. Por lo general,
cuanto más grueso es el cable, mejor es la calidad.
UTP-Categoría 3 Los cables UTP-Categoría 3 son utilizados en tecnologías Ethernet hasta 10 Mbps de
velocidad.
UTP-Categoría 4 El cable UTP-Categoría 4 es el mínimo requisito para la instalación de redes Token Ring
de 16 Mbps.
UTP-Categoría 5 Por último, el cable UTP-Categoría 5 acepta hasta 100 Mbps de velocidad, aunque se
puede alcanzar una velocidad de 155 Mbps con la implementación de ATM en un entorno LAN.
Otros medios incluyen el cable coaxial (como el de TV) y la fibra óptica. La máxima velocidad la ofrece la
fibra óptica.
La FDDI constituye un estándar de red que transmite a velocidades de hasta 100 Mbps a través de un
doble anillo de fibra óptica. Una red FDDI puede incluir hasta 500 estaciones a lo largo de
aproximadamente 1,6 kilómetros de fibra. FDDII es sólo para la transmisión de datos. FDDIII permite la
transmisión tanto de la voz como de datos.
Todo este cableado termina en un conector que se asemeja al enchufe telefónico (comúnmente llamado
“jack”). Es un enchufe de teléfono, pero es más grande y se denomina “RJ-45” de 8 cables que puede
utilizarse con Ethernet o un PBX (“Private Branch Exchange” utilizados para conectar redes telefónicas).
Si lo utiliza para un teléfono, el cable será plano. Si es para ser utilizado en red, será redondo y trenzado.
Si utiliza el cable plano para la conexión en red, reducirá el rendimiento de su red de manera sustancial.
La LAN es más rápida comparada con otras formas de telecomunicaciones (por ejemplo las Redes de
Área Extendida, WAN acrónimo en inglés de “Wide Area Network”). Un punto fácil de referencia es que
una red LAN que utiliza la norma Ethernet debería tener una velocidad de señal de 10 Megabits por
segundo. Aún con una eficiencia del 35%, esto representa 3.5 Mbps. Un canal T1 posee una velocidad de
señal de 1.5 Mbps, sólo 1/3 de esa velocidad.
Redes de Área Extendida El Servicio Telefónico Liso y Llano (POTS acrónimo en inglés de Plain Old
Telephone Service) es la red telefónica analógica tradicional que permite un flujo máximo de 56.000 bits
(no Bytes) por segundo. En la mayoría de los casos, salvo circunstancias inusuales, POTS no acepta una
velocidad máxima mucho mayor que 19.200 o 22.600. Estas líneas son sumamente lentas para la
mayoría de los sistemas de Radiología Digital, PACS y aplicaciones de Telerradiología no comprimidas. Sin
embargo, han resultado eficaces para aplicaciones de telerradiología “on-call” comprimida, en
modalidades digitales como TC, US, RM y MN.
Las RDSI son líneas telefónicas digitales que alcanzan 128 kbits por segundo en una línea telefónica. Se
presentan en dos formas: la Interfase de Régimen Básico (BRI) es un servicio RDSI que ofrece dos canales
B (“bearer”) de 64 Kbps que pueden usarse para transferir voz, datos y vídeo, y además un canal D (“data
link”) de 16 Kbps para información de control y señalización. Y la Interfase de Régimen Primario (PRI).
Una Red está estratificada en siete capas (“layers”) o niveles, a menudo llamadas Modelo para la
Interconexión de Sistemas Abiertos (OSI acrónimo en inglés de Open System Interconnection). Las siete
capas son las siguientes:
Realizar una explicación detallada de estas siete capas sería algo confuso e inútil. En realidad, esta
estructura en capas de la red es una abstracción a la que se adapta la variable real.
NetBIOS Desarrollado por IBM y NetBEUI es la versión desarrollada por Microsoft. NetBEUI significa
Interfase de Usuario Extendida de NetBIOS. Estos protocolos no cuentan con algunas capas, en especial
la capa de red y no pueden ser encaminados en una red.
IPX/SPX IPX (Intercambio de Paquetes entre Redes) es un protocolo de comunicaciones para las capas
inferiores de la red implementado por Novell, complementado ampliamente por SPX. SPX significa
Intercambio Secuencial de Paquetes; se trata de un protocolo de transporte para el intercambio de datos
en red que utiliza el protocolo de capas de red IPX.
PPP O Protocolo Punto a Punto, permite conexiones de router a router y del host (computadora central)
a la red de modo sincrónico y asincrónico. Se lo considera una versión avanzada del protocolo SLIP. Los
servidores de Internet ofrecen la opción de conexión PPP en vez de una SLIP ya que es más estable y
menos proclive a interrupciones y desconexiones. Los fax utilizan en la actualidad protocolos PPP
incorporados.
Para aplicaciones pequeñas y medias, todas las configuraciones de red han probado ser muy buenas, las
diferencias se dan cuando se necesitan altísimos regímenes transaccionales, y dependen de como se
incorporen nuevas características. Cada nueva versión puede modificar las anteriores.
Spoolers: Con las nuevas tendencias en informática y las arquitecturas distribuidas, hoy se puede utilizar
un Spooler (Spooler significa Operaciones Periféricas Simultáneas en Línea) que acepta múltiples
entradas (por lo general múltiplo de 4) por tarjeta de “Frame Grabber” y acepta tantas imágenes de
tantos casos como sea necesario. La función del Spooler es agrupar las imágenes en casos (es decir,
carpetas) para la impresión en película o su almacenamiento posterior. También se puede editar las
imágenes o incluso agregar comentarios acerca de éstas en un caso antes de imprimirlas.
Con los protocolos de red TCP/IP como DICOM 3.0, se “interconectan por red” a través de la LAN los
dispositivos de captura y la impresora láser. Así que, para cualquier TC, RM, US, dispositivo de Angio e
inclusive una sala de Fluoroscopía Digital DICOM, se podrán conectar directamente por red a una
impresora o un Spooler de impresión, un sistema archivo y las estaciones de revisión, todos al mismo
tiempo.
De igual forma se puede acceder a estos dispositivos a través de la WAN e imprimir desde un sitio
remoto. Sólo que en lugar de un Hub, será necesario un Router (encaminador: dispositivo de red) y la
velocidad estará sujeta al ancho de banda de la red telefónica.
Frame grabbers Las imágenes No Digitales o la señal de vídeo pueden ser capturadas por sistemas
“frame grabber”, que básicamente consiste en digitalizar un cuadro congelado de una fuente de vídeo.
Puesto que lo visualizado está diseñado para ser percibido por la vista, y básicamente el ojo humano
puede distinguir 256 niveles de gris, “frame grabbing” (conversión de la señal de consola) es un proceso
de 8 bits, a diferencia de una imagen DICOM que tiene 16 bits por pixel.
Todos los dispositivos de US y algunos de MN tienen una salida de “vídeo estándar”, o la misma señal
sincronizada que proviene de detrás del monitor hacia la grabadora de vídeo. Se la llama RS-170 (o PAL
en Europa).
Todos los demás, TC, RM, Angio, Fluoro, etc, tienen una salida de señal de vídeo no estándar, propietaria
del fabricante. El número de líneas de barrido y la frecuencia varían enormemente por lo que sus tarjetas
de “frame grabber” estándar de PC sólo funcionarán en unos pocos dispositivos médicos. Estas
especificaciones no estándar requieren tarjetas que puedan ser ajustadas o adaptadas a la señal de vídeo
en particular desde la que se quiere capturar. La captura y entrega de las imágenes médicas desde la
consola se realiza con un avanzado sistema de alta definición y alta velocidad, que permiten obtener
imágenes de hasta 1280x1024 a 8 bits por pixel a 60 Hz.
Muchos dispositivos no son compatibles con las Clases de Servicios DICOM 3.0 requeridos, tales como
DICOM Print. Para obtener imágenes digitales con estos dispositivos o para transferirlas a una red
compatible con DICOM, será necesario uno de varios dispositivos de entrada secundarios o las llamadas
“cajas negras” de los propietarios de los equipos de radiología.
Digitalizadores: Láser y CCD Existen tres tipos de técnicas básicas de digitalización de radiografías:
Cámara en un soporte: Se envía una luz a través de la placa radiográfica, similar a un proyector de
transparencias y es capturado por una cámara. La calidad y el coste de este procedimiento son bajos y
prácticamente no se utiliza debido a que no son aceptados por las normativas internacionales para
efectuar el diagnóstico primario.
Sistema CCD: (Acrónico en inglés de Charged Coupled Device). Se utiliza una luz fluorescente especial
para iluminar la placa y el sistema CCD va recogiendo la información con detectores. Estos sistemas
tienen un inconveniente que es el “bleeding” por superposición de luz diseminada. Sin embargo, los
sistemas CCD tienen una longitud de onda dinámica por lo que las regiones oscuras quedan mejor
iluminadas.
Tecnología Láser: Utiliza luz láser para iluminar la placa y se recoge la información con
fotomultiplicadores. No tienen “bleeding” pero a diferencia de los sistemas CCD no tiene rango dinámico
de sensibilidad.
Los escáneres de Placas Radiográficas son utilizados para digitalizar películas, por ejemplo, convertir
información análoga almacenada en la placa radiográfica en un conjunto de datos digitales. Estos envían
la información digital al PC a través de uno de los puertos de entrada/salida de datos de la PC o con la
utilización de tarjetas SCSI montadas sobre la placa base de la unidad central.
La fuente de luz utilizada en los Escáneres de Películas Láser es un rayo infrarrojo cuidadosamente
focalizado, coherente y monocromático o un láser rojo visible. El rayo láser debe estar posicionado con
precisión y barrer toda la película bajo el control del PC, mientras que la luz transmitida a través de la
película es detectada de manera eficiente por dispositivos de alta ganancia y muy bajo ruido, los cuales
poseen amplificadores electrónicos de conversión análogo-digital para su entrada al PC. Esto hace que el
dispositivo sea sumamente preciso, costoso y que requiera ciertos componentes que de alguna manera
lo hacen más pesado que un Escáner del tipo CCD. Es necesario saber que hay consideraciones muy
técnicas e importantes que hacen que la densidad óptica del Escáner de Películas Láser sea más lineal y
restringida; el control de la luz láser sobre el área barrida brinda una resolución espacial precisa
independiente de la densidad de la película y, de este modo, digitaliza la información sobre la placa
radiográfica sin distorsión. En consecuencia, un Escáner Láser es más adecuado para aplicaciones de
imágenes médicas primarias, que los CCDs.
Los mejores Escáneres Láser ofrecen una densitometría de barrido donde la información digitalizada
derivada del Escáner representa con total precisión la verdadera información sobre la densidad de la
película en todos y cada uno de sus puntos. Este es un logro característico de una fuente de luz puntual y
de las técnicas especiales de procesamiento de la luz en un Escáner Láser que traspasa la película, a
diferencia de un Escáner CCD cuya fuente de luz es una línea de luz blanca derivada de un tubo
fluorescente.
Los Escáneres CCD son físicamente bastante similares a los Escáner de documentos. Un CCD es un
dispositivo (un conjunto de detectores de estado sólido) similar al que se encuentra en una cámara de
vídeo común o filmadora; es utilizado para capturar y digitalizar imágenes. Los datos digitales, por
ejemplo, pueden ser enviados al PC a través de un cable y una tarjeta SCSI. Los Escáneres CCD actuales
pueden brindar 12 bits de datos en escala de gris en un rango dinámico limitado (los últimos 4 bits de los
16 bits son por lo general 0) y barren con resolución de hasta 4096 x 5120 pixels.
Los dos sistemas Láser y CCD son aceptados por la ACR y la CEN como sistemas de digitalización de
radiografías para diagnóstico primario. El hecho de que la salida de archivos de estos dispositivos sea
compatible con DICOM depende del software empleado, no del fabricante del Escáner. Todo lo que el
Escáner hace es transiluminar la película y brindar un flujo de datos digitales de Unos y Ceros. Una vez
que los datos llegan a la PC, la adaptación de la imagen adquirida al formato DICOM depende del
fabricante del software.
Radiografía computarizada: Existe desde hace unos 20 años. La tecnología básicamente consiste en
sustituir una placa de fósforo de almacenamiento por una placa fosforescente emisora de luz dentro del
chasis radiográfico. La placa de fósforo captura la energía de los rayos x que atraviesan al paciente y al
ser expuesta a luz proveniente de un rayo láser que excita la energía atrapa y es emitida esta energía a
su vez en forma de luz visible. La tecnología está diseñada para obtener una imagen latente. Esta imagen
latente es “leída” posteriormente por una serie de dispositivos electrónicos y de amplificación, con lo
que se crea la imagen digital final.
Este dispositivo es el “lector”. Una vez que existe la imagen digital, ésta puede ser procesada, filtrada y
retocada matemáticamente para ser mejorada. Luego puede ser visualizada en un monitor, ser impresa
en una buena película o simplemente almacenada. Al principio, los beneficios de la Radiografía
Computarizada eran principalmente la reducción en las tasas de repetición y descarte para placas
radiográficas portables, esto brindaba densidades de película más consistentes y deseables, y la
posibilidad de someter a las imágenes a “unsharp masking” (el no resaltado de bordes con máscara) y a
otros algoritmos antes de imprimirlas en película.
Las empresas que han llegado al mercado de los sistemas CR son: Fuji, Agfa, Kodak, Konica y
Philips.
El mundo DICOM. En las unidades de radiología de los hospitales, es muy común encontrarse con
equipos de varios fabricantes, para las diferentes modalidades de imágenes que se generan; el tratar de
integrar todos ellos en un sistema que los manipule es prácticamente imposible. Por lo que surgió la
necesidad de estandarizar el manejo y transmisión de imágenes médicas digitales.
En 1983, con la integración de un comité formado por el Colegio Americano de Radiología (ACR acrónimo
en inglés de “American College of Radiology”), representando a la comunidad de radiólogos y la
Asociación del Fabricante Eléctrico Nacional (NEMA acrónimo en inglés de “National Electrical
Manufacturer Association”), representando a la industria en el área de radiología, de acuerdo a los
procedimientos establecidos por NEMA. Los objetivos iniciales fueron trabajar con los diferentes
problemas de compatibilidad, con el fin de compatibilizar los ambientes propietarios de las diferentes
modalidades de imágenes. Específicamente:
1- Promover la comunicación entre imágenes digitales independientemente del fabricante que las
produjo.
2- Ofrecer mayor flexibilidad a los sistemas de almacenamiento y comunicación de imágenes.
3- Facilitar la creación y consulta a sistemas de diagnóstico por diferentes dispositivos y en diversos
lugares locales o remotos.
Los primeros resultados en los trabajos de estandarización fueron publicados en 1985, ACRNEMA
Versión 1.0, teniendo como base ideas obtenidas de formatos ya existentes. Por ejemplo, la definición de
elementos de datos de longitud variable identificados con etiquetas (formato de etiquetas), fue
adoptada de un estándar para grabar imágenes en cinta magnética, desarrollado por la Asociación
Americana de Físicos en Medicina (AAPM). Sin embargo, como todas las primeras versiones, se
detectaron varios errores y el comité encargado (ACR/NEMA) autorizó a los grupos de trabajo
involucrados, la realización de dos revisiones en Octubre de 1986 y en Enero de 1988, que produjeron
una segunda versión, ACR-NEMA Versión 2.0, en 1988.
En esta nueva versión se conservaron prácticamente las mismas especificaciones de interfaz con
hardware definidas en la versión 1.0, pero se agregaron nuevos elementos de datos y se corrigieron
varios errores e inconsistencias. En esta versión se especificó la comunicación punto a punto entre
dispositivos, un grupo de comandos por software y varios formatos de datos correspondientes a los
nuevos elementos.
En el tiempo que se dio a conocer la segunda versión, surgió la demanda de interfaz entre dispositivos
involucrados en la generación, manejo de imágenes y redes de cómputo, sin embargo, el estándar no
ofrecía ningún soporte de comunicación en red. La respuesta a estas demandas implicaba grandes
cambios a lo ya establecido, considerando como restricción principal el mantener la compatibilidad con
las versiones anteriores. De esta forma, a partir de 1988 se comenzó a trabajar en una tercera versión,
en donde el proceso de diseño sufrió un cambio radical adoptando modelos para simular el mundo real,
modelos de capas o pila para comunicación entre sistemas heterogéneos utilizando protocolos de
comunicación en red y el modelo de cómputo Cliente/Servidor para establecer asociaciones entre
dispositivos compatibles, a través de envío de mensajes.
Después de tres años, se dio a conocer la versión ACR/NEMA DICOM (acrónimo en inglés de Digital
Imaging and Communications in Medicine) llamada también DICOM 3.0, en la que participaron también
varias instituciones de la comunidad internacional como JIRA (acrónimo en inglés de Japanese Industry
Radiology Apparatus) y CEN (acrónimo en francés de Comité Européen de Normalisation / European
Committee for Standardization). Esta versión es considerada como un estándar completo, compatible
con las versiones anteriores. Las principales características de DICOM son:
Los beneficios obtenidos de estos servicios son el poder interrelacionar los diferentes sistemas de
información en un hospital, como los Sistemas PACS, Sistemas de información de radiología RIS
(acrónimo en inglés de Radiology Information Systems) y sistemas de información hospitalaria HIS
(acrónimo en inglés de Hospital Information Systems).
En los sistemas PACS es donde su aplicación tiene mayor relevancia, dado que los servicios ofrecidos por
DICOM pueden ser utilizados por los diferentes ambientes que generan y utilizan imágenes médicas de
diagnóstico, manteniendo la operatividad entre ellos.
1- DICOM agrega la posibilidad de conexión en red utilizando como base los protocolos TCP/IP y los
propuestos por ISO/OSI (acrónimo en inglés de International Standards Organization/Open
Systems Interconnection). De esta forma se aprovechan los protocolos definidos en las capas
inferiores tanto de TCP/IP como de ISO/OSI y define los protocolos necesarios en las capas
superiores para soportar la comunicación entre aplicaciones en forma eficiente.
2- El estándar DICOM 3.0 soporta el protocolo de comunicación TCP/IP, por el que se implementan
los soportes de comunicación a través de medios e infraestructura de redes variadas y
relativamente comunes (por ej. Ethernet, ATM, fibra, cableado UTP-5).
3- Un dispositivo DICOM puede ser cualquier cosa, desde una estación lectora, hasta una estación
de revisión preliminar, o un Tomógrafo Computado o Resonador Magnético, o un lector láser de
Radiografía Computada, un archivo en disco o un Gateway DICOM.
4- Un dispositivo DICOM “Proveedor de Almacenamiento” (SCP acrónimo en inglés de “Service
Class Provideer”), puede brindar imágenes en formato de archivo DICOM, a través de una red
que utiliza protocolos DICOM estandarizados (TCP/IP). Es decir, “empuja” a las imágenes a
equipos tales como una impresora láser compatibilizada con DICOM, la cual es un “usuario de
almacenamiento” (SCU acrónimo en inglés de “Service Class User”), un Spooler DICOM SCU, una
WS DICOM SCU o archivo DICOM SCU.
5- Un proveedor DICOM de Consulta/Recuperación (Query & Retrieve) es cualquier dispositivo
DICOM que puede consultar otros dispositivos DICOM de Consulta/Recuperación en la red para
encontrar casos e imágenes y, si se desea, recuperarlos: a su vez, puede brindar los resultados de
una consulta DICOM originada en otro dispositivo DICOM de Consulta/Recuperación y, si es
requerido por ese dispositivo, entregar los archivos de imágenes DICOM a través de la red.
La más simple de las redes conecta dos ordenadores, permitiéndoles compartir archivos e impresión. En
un Hospital donde su departamento de radiología funciona sin placas, algunas veces se hace necesario la
impresión de placas. Funcionar sin placas no quiere decir necesariamente que no se impriman. A veces
ocurre que un paciente debe ser trasladado a otro centro asistencial con el cual no existe conectividad
para envió directo de radiografías, o simplemente se desean obtener placas radiográficas para secciones
científicas. Entonces, desde una WS debe ser posible ordenar la impresión de copias sobre película
cuando se precise o la obtención de copias permanentes sobre soporte sensible o papel, se dispone de
dos tipos de terminal básico. En la actualidad en el mercado de radiología digital existen varios tipos de
impresoras:
1- Las impresoras habituales que todos conocemos que utilizan sistemas muy sofisticados para
imprimir placas utilizando tanques adicionales donde se colocan los reactivos para el revelado de
placas.
2- El sistema de impresión térmica muy utilizado en redes digitales de Medicina Nuclear o
Ecografías.
3- El sistema de barrido por rayo láser de alta resolución denominados “Dry Printers” (impresoras
en seco).
4- Las impresoras en seco han venido a revolucionar las redes de radiología digital, ya que evitan la
utilización de reactivos para la obtención de radiografías.
En este tipo de tecnología se realiza un barrido por rayo láser sobre la superficie a registrar. Estos
equipos permiten la presentación en multiformato de imágenes procedentes de distintas fuentes
digitales (TAC, RMN, DIVAS, MN), y la presentación en formato real de gran tamaño (35 x 43 cm). La
resolución espacial de las copias así obtenidas es muy elevada, hasta 4000x5000 puntos, con una gama
de densidades o grises de 4096 niveles. La calidad de impresión de imagen parece adecuada en los
estudios practicados. En la conexión con las redes de imagen digital se puede optar por ceder las tareas
de configuración de las imágenes a la impresora o enviar a la impresora imágenes ya compuestas por la
WS. La impresora puede estar conectada a una estación concreta, al servidor de base de datos, o bien
tener un acceso directo a la red de datos. Esta última solución permite imprimir rápidamente desde
cualquier WS.
______________________________________________________________________________
UNIDAD 8. – EL SISTEMA PACS-RIS-HIS
Así, un PACS no es algo aislado en un campo de información, sino que comparte esa información con
otros sistemas como RIS, HIS y el sistema de desarrollo de información (DIS acrónimo en inglés de
Development Information System), generalmente encargado de toda la gestión económico-
administrativa del hospital.
En el RIS se almacenan los datos sobre los turnos, exámenes, lista de trabajo, datos útiles sobre los
pacientes a examinar; los cuales son de vital importancia para un PACS (que puede usar ese
conocimiento para hacer una búsqueda preliminar, desde un archivo de almacenaje a corto plazo en una
estación de trabajo, de los estudios previos de un paciente programado).
8.2. Planificación para PACS. Un PACS es un recurso de hospital. La aceptación del usuario es la clave del
éxito del PACS. Los radiólogos y los médicos de otras especialidades tienen criterios diferentes, porque
juzgan el valor de una red de imágenes en su totalidad, o por cada componente de esa red. La
arquitectura y el diseño de un PACS pueden verse desde dos puntos de vista diferentes:
El enfoque Cima-Abajo está simbolizado por todo el Hospital en conjunto hacia un departamento de
radiología sin película. Tiende a ser diseñado por un amplio sistema de respuestas a cuestiones tales
como:
- Altos costos en placas radiográficas
- Requerimiento de espacios para archivar películas o una tasa de perdida de película muy alta
- Inexistencia de base de datos
- Lentitud en la consulta de expedientes
- Repetición de exámenes
Las ventajas del enfoque Cima-Abajo son: La oportunidad de ganar economía de escala; la agrupación de
cambios en el entrenamiento y operacionales; la simplificación de la planificación e integración; y la
capacidad de tener un punto único de contacto para entrenamiento, mantenimiento y servicio.
Las desventajas de este enfoque son: Los costos deben afrontarse de un golpe; si el sistema fracasa, es
un gran fracaso; puede ser difícil aprovechar los adelantos tecnológicos, y esto puede ser difícil de evitar
sobre y bajo especificación para algunas partes del sistema. El enfoque Cima-Abajo cobra un sentido
particular cuando se planifica un nuevo edificio u hospital.
Las ventajas de este enfoque incluyen, un costo inicial inferior y que los fracasos tienen consecuencias
locales. Puede ser más fácil aprovechar los adelantos tecnológicos, las especificaciones pueden
adaptarse al problema en particular o ser resueltos y son más simples para la modelación de los
sistemas.
Las desventajas del enfoque Fondo-Arriba incluyen la pérdida de economías de escala, la necesidad de
múltiple entrenamiento y tantas fases como cambios operacionales sean agregados, la adición de
dificultades de integración e interfaces si hay proyectos múltiples y la necesidad de contactos múltiples
para entrenamiento, mantenimiento y servicio.
3. Se deben describir concretamente, todos los requerimientos necesarios para las estaciones de trabajo
de diagnóstico primario, revisión y remota, archivos, sistemas de almacenamiento, base de datos,
adquisición de imágenes, digitalizadores de películas, sistema de radiografía computada, estandarización
y comunicación con sistemas HIS/RIS, impresoras de películas y acceso a Internet. El modelo funcional
debe transformarse en una especificación funcional. La especificación funcional, a su vez, puede usarse
para desarrollar los requerimientos de composición del sistema.
4. Las normas y especificaciones existentes deberán usarse, donde sea posible, con Imágenes Digitales y
Comunicaciones en la Medicina (DICOM) especificado como una interfaz para el PACS en sí mismo. Si se
mantiene la conformidad de DICOM, se deberá requerir a los vendedores que sometan sus declaraciones
de conformidad DICOM. El Nivel de Salud 7 (HL7) debería especificarse como una interfaz con el RIS o
HIS.
En la prueba de aceptación, debe mantenerse en la mente que la fiabilidad es el criterio más importante
para el éxito de un sistema. Una base para evaluar los períodos de fallos es estableciendo jornadas de 24
ó 14 horas. Un requerimiento típico es uno de 98-99% de operación sin tiempo de avería, lo cual significa
que el sistema estaría averiado 1 o 2 horas cada 4 días.
Antes de implantar un PACS o sistema de Telerradiología, es necesario tener en cuenta varios de los
siguientes puntos
Normas de adherencia Estas normas están relacionadas con el estándar DICOM. La mayoría de los
principales fabricantes ha adoptado DICOM 3.0. En principio, todos los vendedores se encuentran
conformes la clase DICOM SCP, que les permite aceptar datos desde una modalidad DICOM en sus PACS,
y solicitar el soporte de DICOM. Lo qué es igualmente importante, dependiendo de sus necesidades, es la
adhesión a las otras secciones de la norma. Esto incluye: “pedido/recuperación” (query/retreive), que
permite que otros sistemas requieran y recobren imágenes almacenadas en el sistema del formato de
archivo del DICOM; impresión básica y avanzada, que permite imprimir imágenes monocromáticas y de
color; HIS/RIS, que permite eliminar la entrada de datos repetidos, y deja al usuario capturar imágenes e
informes de un archivo y distribuirlas en una estación de trabajo o servidor; y los archivos de seguridad,
que permiten archivar imágenes en un formato estandarizado.
Capacidad de Expansión Generalmente, está ligada con el soporte DICOM. El sistema necesita ser capaz
de crecer para garantizar la inversión hecha no sólo en hardware y software, sino también en
productividad global de los radiólogos, médicos, técnicos de radiología y personal de enfermería.
Utilidad del Sistema Una de las necesidades a evaluar es si las opciones de software ofrecidas por los
vendedores le resultarán herramientas clínicas valiosas, o simplemente, son adornos inútiles. El sistema
necesita ser tan fácil de usar como leer una placa sobre un negatoscopio. Las interfaces gráficas del
usuario intuitivamente diseñadas son la clave.
Diseño del sistema Son necesarios sistemas diseñados de forma que sus componentes provean el
suficiente poder como para tener el trabajo hecho de manera exacta, y permitan la expansión y
recambio a largo plazo. En redes puntoa-punto, como algunas aplicaciones simples de Telerradiología, el
diseño del sistema no es un factor determinante hasta que se desea la expansión de la red. En el PACS a
gran escala, es un componente importante. El uso inteligente de los componentes basados en Windows,
Windows NT y/o Unix debería incluirse en el diseño del sistema para permitir un balance de eficacia y
desempeño de los costos.
Funcionamiento Este se determina en su mayor parte por la aplicación. Las necesidades de los radiólogos
difieren drásticamente de las de los clínicos, y afectan el funcionamiento y costo del sistema. Es
importante considerar cuan buenas son las imágenes en comparación con la película.
Capacitación El entrenamiento adecuado debería incluirse en el precio de compra del PACS. La mayoría
de los vendedores eligen el enfoque de “entrenar al entrenador”, por medio del cual, varios
representantes del hospital entrenarán al personal de enfermería y clínico. Es positivo tener al vendedor
especialista en aplicaciones como conductor del entrenamiento de los radiólogos y técnicos de radiología
por una semana completa, asegurándose así que todos los turnos de trabajo estén cubiertos.
Tiempo de respuesta del servicio Cada vendedor ofrece un tiempo de respuesta de dos horas o menos
de ayuda telefónica. Lo importante es definir el tiempo de respuesta “en el sitio de instalación”. Los
vendedores que no tienen servicio local pueden tomarse 72 horas o más para proveer piezas de
recambio después de un fallo de cualquier componente. Para un componente importante, como puede
ser el servidor de archivos, la estación de diagnóstico primario, el digitalizador de películas o el sistema
de radiología computada, esto puede ser catastrófico. El tiempo típico de respuesta debería ser de
cuatro horas o menos, con el préstamo de los componentes disponibles si las reparaciones no pueden
hacerse dentro de un período predefinido (comúnmente de 48 horas).
- Sirve como un catalizador para una evaluación técnica del proceso en sentido amplio, no sólo se
identifican las áreas dónde se colocará el PACS sino todo el proceso de cambio que sufrirán otras
áreas que utilizaran el soporte de la imagen digital.
- Aumenta el nivel de satisfacción del médico de atención primaria, ya que se nivela con los
servicios del hospital, pudiendo acceder desde cualquier área, cuando quiera, a las imágenes y
diagnóstico.
- Virtualmente elimina la utilización de las placas, exceptuando la mamografía y las áreas donde se
realice un pedido explícito.
- Elimina los problemas medioambientales relacionados con los productos químicos de las placas
radiográficas y la recuperación de plata.
- Tener un impacto dramático en el TOE. Los ahorros de la reducción del TOE y la disminución de
puestos de trabajo innecesarios son en parte compensados por el aumento en el coste de
administración del sistema.
- Aumentar el rédito a costa del aumento de las facilidades económicas en tiempo que ofrece un
sistema PACS.
- Intentar resolver problemas por otras vías, cuando la mejor sea la vía tecnológica.
_____________________________________________________________________________________
UNIDAD 9. – COMPONENTES DE UN PACS
Hoy día se ha demostrado que los PACS son sistemas de gran capacidad, veloces, que permiten un mejor
diagnóstico y una utilización más efectiva de la información hospitalaria. En el futuro próximo puede
preverse que los PACS se constituyan una pieza fundamental dentro del rompecabezas que componen
los diversos sistemas de información presentes en una institución de salud moderna. Entre los motivos
existentes para efectuar dicho pronóstico se pueden identificar:
1- Las organizaciones de salud actuales forman redes complejas de instituciones afiliadas que
brindan un servicio integrado. El intercambio eficiente de información, entre los distintos
sectores y áreas relacionadas con el paciente, necesita de un sistema de comunicación robusto
que incluya todos los datos clínicos del mismo, conformando lo que se conoce como Registro
Médico.
2- Computarizado. Las imágenes de diagnóstico son un eslabón fundamental del mismo.
3- La necesidad de competir bajando costos pero manteniendo o aumentando la eficiencia de los
servicios, e innovando en beneficio de la calidad de atención de los pacientes, seguros de salud y
médicos afiliados, conlleva a las organizaciones sanitarias a buscar en el uso de las tecnologías
informáticas, la generación de nuevas ideas y soluciones. Como consecuencia de esta situación,
la disponibilidad de un PACS es considerada como una ventaja competitiva y una inversión
estratégica para mejorar la productividad y la imagen de la organización en el medio.
4- La disminución de los costos y la maduración de las tecnologías asociadas a los distintos
componentes de un PACS.
5- El desarrollo y aceptación del estándar DICOM 3.0, que permite que los sistemas PACS sean más
fácilmente integrables dentro del marco de un sistema informático hospitalario, y que además
facilita el crecimiento escalonado y modular hacia una implantación de PACS que abarque toda
la organización.
9.2. Tecnología. Un PACS se considera un sistema de alta tecnología que se implanta con la tecnología
más reciente. Está compuesto por las siguientes partes esenciales:
Pero aquí no terminan los componentes de un PACS, quedan tres temas, que aunque no puedan
considerarse como parte tecnológica de un PACS, son vitales en la actualidad para su funcionamiento:
Finalidad esencial de los pacs: Es integrar las distintas exploraciones de un paciente en un sistema que
las haga disponibles. Los estudios de todas las técnicas, o como mínimo, los que generan mayor actividad
asistencial, deberían estar conectados al PACS para rentabilizar el sistema asistencialmente.
Cada método, por el que se obtiene una imagen diagnóstica del paciente, se denomina modalidad. Así
pues, son modalidades la ecografía, la radiografía computarizada, la tomografía computarizada, la
resonancia magnética, el digitalizador de película, la angiografía digital, la fluoroscopia digital, etc.
Cada modalidad presenta imágenes con características propias. Así, una imagen de tórax con calidad
equivalente a una placa radiográfica, posee una matriz de 4096 x 5120 píxeles con 12 bit en la escala de
gris, equivalente a 40 Megabytes de información, mientras que una imagen de ecografía con matriz de
256 x 256 píxeles y 8 bit en la escala de colores, tiene solamente 64 Kilobytes, o sea 640 veces más
pequeña que la imagen digital de tórax. Una mamografía digital puede llegar a tener 48 Megabytes.
9.3.1. Adquisición de imágenes. La adquisición de las imágenes tiene dos modalidades principales. La
primera modalidad es la directa, son imágenes que se obtienen directamente en formato digital. Estas
imágenes pueden provenir de sistemas como DR, TC, RM, US digitales, MN, ASD, etc. La segunda forma
es a través de capturas secundarias, mediante digitalización o conversión analógico-digital.
Modalidad directa Muchos aparatos modernos proporcionan imágenes en formato DICOM y pertenecen
a la clase DICOM SCP, en cuyo caso es posible leer las imágenes con sus datos y almacenarlos siguiendo
la misma norma DICOM.
Sin embargo, en otro grupo de equipos, el reto es encontrar la forma de obtener la información. En estos
equipos, es común, que las imágenes se proporcionen bajo un formato no estándar, que depende del
fabricante.
Las otras formas de modalidad directa son la utilización de los sistemas CR (acrónimo en inglés de
Computed Radiography) y DR (acrónimo en inglés de Digital Radiography) o DDR (acrónimo en inglés de
Direct Digital Radiography). El sistema CR consiste en uno o varios lectores de placas de fósforo,
borradores de placa, incorporados o no, una estación de adquisición y programas para su manejo. Estos
sistemas permiten crear, editar, asignar y enviar archivos de imágenes a estaciones de visualización
DICOM dentro de una red. Por lo general, las imágenes son adquiridas en menos de un minuto. La
tecnología DDR, utiliza un proceso de conversión directo, es simple e incluso elegante. La simplicidad del
procedimiento de captura directa consiste en la conversión de la energía de rayos X en señales digitales.
No hay materiales que emitan luz, pasos intermedios o procesos adicionales. Los fotones de rayos X
salen de la anatomía son capturados directamente como señales digitales a través de pequeños
detectores. En segundos, las señales digitales aparecen como una imagen en un monitor de alta
resolución y está disponible para su transmisión a una estación de trabajo o a una impresora para su
visualización.
La mayoría de los sistemas “flat panel” (DR) utilizan un proceso indirecto, normalmente es un material
brillante (una especie de yoduro de cesio) que es utilizado para la captura de energía rayos X y
convertirlo en luz. La energía de la luz, entonces, es convertida a señales electrónicas a través de
pequeños diodos (TFD), y capturada para su lectura utilizando transistores de placas (TFT).
Modalidad de captura secundaria Hay varias formas típicas de obtener la imagen digital, pero según las
normativas de estandarización de la ACR y la CEN, sólo dos métodos son aceptados.
La estandarización de la Tecnología PACS significa que los días en que se realizaban implantaciones
personalizadas para cada tipo de sistema de imagen digital, Universidad de California-Los Angeles
(UCLA), Hospital Hammersmith del Reino Unido, o el Hospital Universitario de Hokkaido, Japón, han
pasado a ser historia. Excepto por razones académicas o de investigación, la mayoría de los
hospitales implantan sistemas estándares, cuyo mayor beneficio es disminuir al máximo el costo de
implantación de un PACS. El estándar DICOM puede ser considerado como una evolución de los
PACS en su camino hacia la estandarización.
Por un lado, disminuir los costos asociados con la integración de sistemas evitando la
necesidad de desarrollar costosas interfaces “hechas a medida”.
Por otra parte, permitir que el usuario seleccione los productos más adecuados a sus
preferencias y necesidades entre diferentes proveedores, y aún así, que los mismos trabajen
integralmente intercambiando información.
La implantación y difusión de los PACS, se vio durante mucho tiempo afectada por la carencia de una
norma internacionalmente aceptada que contemplara las diversas funciones y tipos de datos que
pueden encontrarse en la práctica clínica diaria, en el área de radiología. Los fabricantes desarrollaron e
integraron en su equipamiento soluciones propietarias que permiten la integración entre productos de la
misma marca, pero que impiden el intercambio de datos en un ambiente de sistemas heterogéneos.
El primer paso que se dio después de la primera conferencia internacional sobre PACS, en enero de 1982,
en Newport Beach, California, donde el American College of Radiology (ACR) y la National Electrical
Manufacturers Association (NEMA) deciden conformar un comité conjunto para desarrollar un estándar
que promoviera la comunicación de imágenes digitales, sin importar a que marca pertenecía el equipo, y
que facilitara el desarrollo y expansión de sistemas PACS.
Como resultado se publicaron un par de versiones del estándar denominado ACR/NEMA V1 (ACR/NEMA
Standards Publication 300¬1985) y V2 (ACR/NEMA Standards Publication 300-1988). Sin embargo, las
limitaciones intrínsecas de ambas especificaciones, la escasa adecuación a las necesidades concretas de
los usuarios y al rápido desarrollo tecnológico de las redes de ordenadores, sumado a la aparición de
soluciones propietarias, son algunos de los factores que explican la poca difusión y aceptación que
tuvieron estas primeras dos versiones del estándar. Posteriormente, se inició un proceso de rediseño
general del estándar, que entre otras cosas permite:
Estas mejoras han sido determinantes para que DICOM se convirtiese en el estándar predominante a
escala mundial, y el más ampliamente difundido entre los fabricantes de equipamiento médico por
imágenes, relegando a un segundo plano las soluciones propietarias y también a aquellas, que siendo
abiertas representaban soluciones parciales o restringidas a dominios particulares.
El estándar, en su mismo texto aclara que si bien DICOM tiene el potencial de facilitar la implantación de
soluciones PACS, la utilización por sí sola del estándar no garantiza la interoperabilidad entre sistemas en
un ambiente heterogéneo y tampoco asegura que todos los objetivos de funcionalidad de un PACS sean
alcanzados.
Se sabe que el estándar DICOM contempla una amplia variedad de servicios (almacenamiento,
impresión, consulta, recuperación, etc.), objetos de información (imágenes de distintas modalidades,
datos relacionados con el paciente, estudio, etc.), u otros parámetros y opciones relacionados; su
universo de elementos representa un nivel de funcionalidad tal que cualquier implantación práctica del
estándar deberá seleccionar necesariamente los servicios que ofrezca de un subconjunto del mismo.
El estándar establece que todas las implantaciones deben estar acompañadas por una declaración de
conformidad (“Conformance Statement”) adecuadamente estructurado. Ésta es una compilación formal
de las funciones, servicios y opciones DICOM que están incluidas en una implantación particular. Dicha
declaración debe indicar cómo la aplicación se adhiere a los requerimientos de conformidad descriptos
en las distintas secciones o partes del estándar.
Hoy día, muchos de los fabricantes que se reclaman poseedores de la validación del estándar DICOM, lo
son sólo de una parte de la totalidad de las “Clases de Servicios” lo que, en principio, no es poco, ya que
todo lo que se oferte deberá cumplir, como mínimo lo siguiente:
Uno: Ser aplicable a un entorno de red utilizando protocolos normalizados tales como OSI
(Interconexión de Sistemas Abiertos) o el muy conocido TCP/IP.
Dos: Deben “reaccionar” (léase interactuar) los dispositivos que declaran en su conformidad a
comandos y datos intercambiables.
Tres: Debe identificar, en su caso, inequívocamente cualquier “Objeto de Información”. Pero hay
que tener en cuenta que no es lo mismo “Objeto de Información” que “Objeto Imagen”. El
estándar DICOM 3.0 especifica varias definiciones de “objetos de Información” que proporcionan
un modelo de datos aplicable a las comunicaciones, tanto de las imágenes sanitarias como de los
datos relativos al mundo real, al paciente, a la hora del estudio e incluso al equipo concreto con
el que se consigue la imagen.
9.3.3. Transmisión de imágenes. Sabemos que el tiempo de transmisión de las imágenes es directamente
proporcional al tamaño del archivo de la imagen digital. Cuanto mayor es la cantidad de información
digital en una imagen (es decir, cuanto más grande es la matriz y mayor el número de bits por pixel), más
tiempo es necesario para transmitir la imagen de un lugar a otro.
Considerando la estructura del PACS en su forma más amplia, podemos decir que la transmisión de
imágenes por medio de las redes de comunicación, es un elemento fundamental de estos sistemas. Esta
red de comunicación puede ser simple, del tipo Ethernet. Sin embargo, la red cuenta con varios
elementos, con distintas velocidades de acceso, que dependen de las necesidades de velocidad de
transferencia de información.
Lo normal es contar con una red de alta velocidad dentro del departamento de imagen, que debería ser
FDI o Gbit Ethernet, una red de menor capacidad dentro del Hospital, como Ethernet convencional
10/100 Mbit, y un sistema de acceso exterior, utilizando la red de servicios integrados o canales de
mayor velocidad. Este esquema se basa en el hecho de que, la mayor parte del tráfico de información, se
encontrará dentro de la misma unidad de imagen, donde se hará la mayor parte del diagnóstico
radiológico y se generarán los informes por parte de los especialistas. Esta demanda justifica la
instalación de una red de alta velocidad.
Además, a medida que la red digital de imágenes crece (junto con el PACS), crece el tráfico de datos que
circula por la misma, llegando incluso a colapsar la red, si ésta no se ha planificado correctamente.
Ejemplo: En un hospital medio (que produce alrededor de 0.5 Tbytes al año), puede circular por la red de
radiología entre 6 y 12 Gbytes diarios, por el resto del hospital entre 1 y 6 Gbytes y en la red externa
entre 200 y 500 Mbytes. Esto hace un promedio de 13-25 Gbytes que debe soportar la red durante el
día.
La topología de la red condiciona su rendimiento o flexibilidad. Las redes, con arquitectura distribuida,
permiten el flujo de datos multidireccional, contando con varios servidores de apoyo y la fácil instalación
de nuevos equipos. A su vez, pueden conectarse distintas subredes, permitiendo la escalabilidad de la
misma, a medida que se incrementa la demanda de imágenes.
El protocolo de transmisión más utilizado en estas redes de transmisión de imágenes es el TCP/IP, que
además, es soportado por DICOM.
Para la planificación de una red se deben conocer las demandas, una vez instalada la red digital en todo
el entorno hospitalario, teniendo en cuenta que un estudio para diagnóstico primario, deberá estar en la
estación de trabajo diagnóstica en 2 segundos, en una estación de revisión intrahospitalaria en al menos
6-20 segundos, y en una estación remota en un tiempo no mayor a 10-15 minutos
9.4. Sistemas de gestión. El entorno de un servicio de radiología, como cualquier otro servicio asistencial
directo de un hospital, es crítico, y su correcto funcionamiento tiene que estar garantizado. Es por ello
que las herramientas que se utilicen en los sistemas de gestión y el software gestor de la base de datos
deben ser estables en su funcionamiento.
Sabemos que la red de transmisión es importante, pero no lo es menos el sistema de gestión que
sostiene al PACS, cuya funcionalidad reside, específicamente, en las posibilidades de su sistema gestor.
En ausencia de un RIS o HIS, toda la información de datos del paciente, datos administrativos, informes,
localización de imágenes, etc., es mantenida a través del sistema gestor de base de datos del PACS.
Seguridad, integridad de los datos y velocidad de acceso, son atributos claves para el buen
funcionamiento del PACS y que dependen, en gran medida, del sistema gestor y de la arquitectura
aplicada: Centralizada o Distribuida.
1- Ubicación física de las ares del hospital que requieren de los estudios, interpretación y
diagnóstico.
2- Manejo y archivo de la información requerida
3- Localización final de la información para ser utilizada. Organización de la información al ser
almacenada. Consultas posteriores a la información.
4- Intercambio de información con otros centros de salud
Para cubrir todas estas necesidades, se requiere de un conjunto de dispositivos, cuyas responsabilidades
son el ofrecer todos los elementos operativos demandados por el área de radiología y áreas
dependientes, dentro de un hospital. Estas demandas incluyen:
1- Adquisición de imágenes
2- Almacenamiento de la información
3- Distribución de imágenes
4- Visualización de imágenes (consulta, interpretación o diagnostico)
5- Registro de resultados
6- Interfaz con otros sistemas
7- Comunicación remota
8- Seguridad del sistema
9.5. Central de archivo. Los sistemas de almacenamiento de imágenes deben seguir una estructura
jerárquica, que dependerá de la probabilidad de demanda de la imagen. En general, las imágenes más
recientes se consultan con mucha frecuencia posterior a su adquisición, y su frecuencia de consulta,
disminuye rápidamente con el tiempo.
Una estructura jerárquica, que divide el almacenamiento de imágenes, en almacenamiento a corto plazo
y a largo plazo, es la forma más conveniente de utilización que permite un alto rendimiento y velocidad
de acceso a la información requerida.
Esta estructura jerárquica, a su vez se divide en tres niveles: Imágenes de acceso directo, imágenes de
acceso indirecto (todas almacenadas en archivo a corto plazo) e imágenes de acceso más lento
(“offline”), almacenadas en sistemas a lago plazo, por lo general, en dispositivos magneto-ópticos.
Varias decenas de Gbytes. El espacio suficiente para acceder a las imágenes en un período no
menor a 15 días.
Capacidad de transferencia de más 30 estudios por minuto. Recuerde que un estudio pueden ser
dos radiografías digitales de tórax, un examen de TC con 25 imágenes o un examen de RM con
60 imágenes (alrededor de 30-40 Mbytes).
Capacidad de varios Tbytes, incluso decenas de Tbytes. El volumen suficiente para que se puedan
almacenar las imágenes el tiempo requerido por las normativas ACR y CEN para las imágenes
almacenadas (5-7 años)
Posibilidad del empleo de robots o “jukeboxes”, si el volumen de información almacenado así lo
requiere. No es lo mismo un hospital que produzca alrededor de 200 Gbytes/año, u otro hospital
que produzca un volumen de varios Tbytes/año.
La compresión de imágenes se puede emplear para multiplicar el espacio en el disco, y para reducir el
tiempo de transferencia. Se pueden emplear los siguientes criterios:
Compresión reversible: Sin pérdida, con tasas de 2 o 3:1, para imágenes de referencia o de
almacenamiento a corto plazo.
Compresión irreversible: Se puede utilizar con tasas mayores para almacenamiento a largo plazo. De
todas formas, sin no es necesaria la compresión irreversible, no es recomendable utilizarla.
1- Accesibilidad:
a) Adquisición y manejo estándar de las imágenes.
b) Estaciones de trabajo localizadas donde se necesitan.
c) Imágenes disponibles siempre.
2- Visualización múltiple:
a) Visualización de una misma imagen en distintos lugares al mismo tiempo (Radiología,
Urgencias, Quirófano, UCI).
b) Visualización en una misma estación de trabajo de más de un estudio de diferentes
modalidades.
c) Acceso a información adicional (Conexión con el RIS y HIS).
d) Disponibilidad con diferentes resoluciones según la necesidad.
e) Disminución del tiempo de espera (generalmente en un factor de 10).
3- Facilidad de almacenamiento:
a) Formatos estándar para todas las imágenes.
b) Agrupamiento de la manera más conveniente (Por patología, por órganos, por paciente,
etc.).
4- Seguridad:
Reducción al mínimo del riesgo de pérdida de los archivos.
Acceso restringido a la información, si se desea asegurar la privacidad de los datos.
Disminución de la exposición del paciente a radiaciones ionizantes (evita estudios
duplicados, rescate de imágenes “malas” por medio del procesamiento digital de las
mismas)
5- Economía:
Reducción de los costos (espacio físico, personal, productos químicos, placas, etc.).
Incremento en la velocidad de obtención de datos relevantes.
Aprovechamiento de la información disponible, pero nunca antes empleada.
Mejoría de la atención médica sin incrementar costos.
Empleo de Bases de Datos.
Seguimiento de pacientes a largo plazo.
Comparación entre poblaciones.
Comparación entre procedimientos terapéuticos.
Comparación con imágenes “típicas”.
Enlace entre diferentes sistemas de información hospitalaria.
Memoria Primaria (Cache Primario) Es la memoria de trabajo en la que el sistema PACS ubica los
diferentes estudios que recibe o envía, y a los que puede acceder el Cliente Pacs en un tiempo muy corto
(concretamente de uno o varios segundos).
La principal ventaja de este tipo de memoria es su velocidad de acceso, ya que se trata de una
ubicación de rápido acceso. Esta memoria la componen los discos duros de los servidores.
El inconveniente de la memoria primaria es que dispone de un tamaño limitado. Por lo tanto, los
estudios solamente permanecerán en esta memoria de manera temporal. Este tiempo va a
depender de la cantidad de memoria disponible y de la cantidad de estudios que el centro
genera.
Memoria Secundaria (Archivo) Esta memoria se encarga del almacenamiento permanente de los
estudios recibidos en la Memoria Primaria y de la recuperación de estudios que, debido a su antigüedad,
ya no están en la Memoria Primaria.
Si se compara con la memoria primaria, esta ubicación es de acceso más lento. Está compuesta por
cintas DLT, discos ópticos MOD, CD o DVD, que se instalan normalmente en un armario con un brazo
robot para intercambiarlos. Los estudios recibidos por el PACS se almacenan en esta memoria como una
forma de asegurar su conservación.
Memoria Remota (Cliente PACS) Las estaciones clientes del PACS permiten una configuración con su
propia memoria de almacenamiento para que reciban copias de estudios sin necesidad de solicitarlos.
Visor Web Los visores Web son los encargados de la distribución de las imágenes no diagnósticas a los
demás especialistas del hospital. Normalmente se consideran parte del PACS, porque es la herramienta
que hace posible la visualización de las imágenes en cualquier ordenador del hospital que disponga de un
navegador.
A la vez, el visor Web puede distribuir el informe que está asociado al estudio, disminuyendo el tiempo
de recepción al destinatario y la supresión del papel.
A pesar de que el funcionamiento del visor está muy ligado al PACS, este también puede funcionar de
manera independiente recibiendo imágenes de forma directa de las modalidades y distribuyéndolas de
la misma manera. En este caso, los inconvenientes son el desaprovechamiento de la calidad DICOM
original y la imposibilidad de recepción del informe asociado, al no haber integración con el Sistema de
Información Radiológico (SIR).
El visor web recibirá la imagen en formato DICOM y la convertirá a un formato diferente de menos
tamaño, utilizando para ello una comprensión con pérdida, lo que conlleva una reducción de la calidad
por debajo de la que se considera diagnóstica. A diferencia de los clientes específicos del PACS, dispone
de menos herramientas de tratamiento de la imagen y de una imagen de calidad no diagnóstica.
Además, el tiempo de acceso es mayor, porque aunque el tamaño de imagen es menor, aumenta
considerablemente el número de clientes.
Por otro lado, los clientes específicos del PACS disponen normalmente de monitores con mayor
resolución que aprovechan la mayor calidad de imagen, en comparación con los monitores utilizados por
los clientes web.
9.6. Consulta de imágenes. Las estaciones de diagnóstico y visualización son elementos importantes en
un sistema PACS. Mediante estos elementos, la información llega a los radiólogos para su informe
diagnóstico, y después a todos aquellos especialistas que requieren de dichos informes e imágenes. Estas
estaciones de trabajo, reproducen, de alguna manera, el modelo de los negatoscopios, y su aceptación
depende sobre todo de la calidad visual que presentan, junto con la facilidad de uso. En una red de un
PACS, deberán existir diferentes tipos de estaciones de trabajo, cada una de las cuales, tiene sus
funciones:
- Estación Diagnóstica (DWS) La más importante y, por supuesto, la más cara de todas es la estación de
diagnóstico. Por lo general, son estaciones de trabajo que se encuentran dentro del servicio de
radiología, aunque pueden existir estaciones diagnósticas remotas, cuando se tienen servicios ubicados
física y geográficamente separados. Por ejemplo, una estación diagnóstica podrá estar ubicada en
Urgencias o en la UCI, incluso en otra institución conectada por vía telefónica al PACS (Telerradiología).
La característica principal de estas estaciones de trabajo es la calidad de los monitores y el número de
monitores utilizados. Como norma, están diseñadas con 2 o 4 monitores de alta resolución, pudiendo
tener monitores de 25”, monocromos, con resolución de 2560 x 3172 y 4096 niveles de gris. Sin
embargo, dentro de las estaciones de diagnóstico, podremos encontrar pequeñas diferencias. Existen
algunas estaciones de trabajo en las que solamente serán informados los estudios de matrices pequeñas,
como estudios de TC, US, MN, etc., sus monitores pueden ser de pantalla plana de 21” y con resolución
de hasta 2048 x 1860 pixels a 32 bits de color. De todas formas, en ambas situaciones, se deben
incorporar todas las funciones básicas de procesamiento de imágenes establecidas por los estándares
ACR, para poder realizar correctamente el informe diagnóstico. Es deseable, además, que dichas
estaciones incorporen la posibilidad de informes orales, traducción automática de audio, reporte escrito
y despliegue de otros tipos de información en tiempo real, todo bajo una interfase amable para el
usuario.
- Estaciones de revisión (RWS) Son estaciones de trabajo que están disponibles en los servicios de
radiología, generalmente en aquellos que poseen sistemas de Radiología Computada o Digitalización de
Radiografías (CR, DR, FD). La función principal de este tipo de estación de trabajo es la captura de las
imágenes digitales, su procesamiento primario, marcado y envío a los sistemas de archivo para que
puedan ser informadas. Por lo general, son de menor costo que las de Diagnóstico, y pueden tener uno o
dos monitores monocromos de alta resolución desde 1200 x 1600 (19” y 4096 niveles de gris), hasta
2048 x 2500 (21” y 4096 niveles de gris). Estas estaciones de trabajo, pueden servir en determinadas
circunstancias como estaciones diagnósticas, por lo que deben poseer las mismas características que las
anteriores. Un ejemplo típico es una estación de captura de un sistema CR con placas de fósforo. Las
funciones básicas deben estar disponibles en ambos tipos de estaciones, mientras que las funciones más
avanzadas de procesamiento de imagen, deben incluirse en las estaciones de diagnóstico. La diferencia
en la disponibilidad de estas funciones obedece al hecho de que, las estaciones de revisión no alteran las
características fundamentales de las imágenes y sirven para mejorar el despliegue (presentación) de las
mismas, mientras que las otras, las estaciones de diagnóstico, serán manejadas por expertos, que podrán
generar nuevas imágenes con realce que, a su vez, estarán disponibles en los archivos radiológicos y que
servirán para complementar la información previamente existente.
- Estaciones de transcripción de informes (TWS): Son pequeñas estaciones de trabajo, cuya finalidad
principal es la trascripción de los informes hablados por los radiólogos. En dicha estación de trabajo se
tendrá acceso al sistema de gestión que rige al PACS, y a su vez, se intercomunica con el sistema RIS para
el envío de informes a dicho sistema.
Tienen las características de ser estaciones de trabajo que, por lo general, utilizan monitores a color de
alta resolución (uno o dos), y que pueden visualizar más de un estudio al mismo tiempo. También, sus
sistemas de tratamiento de imágenes suelen tener herramientas especializadas, según el tipo de usuario
y el lugar de ubicación. Un ejemplo típico puede ser una estación de consulta ubicada en quirófanos para
la planificación neuroquirúrgica. Estas estaciones de trabajo pueden estar ubicadas remotamente, y
conectadas al sistema PACS por medio de la red telefónica.
De todas formas, en las tres estaciones de trabajo (DWS, RWS y WWS), sus sistemas de tratamiento de
imágenes médicas, deben poseer las siguientes herramientas mínimas de trabajo:
9.8. Filosofía de DICOM 3.0. El DICOM 3.0 como estándar de comunicación de imágenes médicas,
predominantemente en radiología, utiliza un conjunto de normas encaminadas a establecer intercambio
de información; que se realiza a partir de un modelo de objetos que describen el mundo real (pacientes,
imagen, etc.) que forma el dato radiológico y la forma en que están interconectados. Por ello se plantea
que DICOM es un estándar “orientado a objetos”. Una entidad del mundo real como, un paciente, una
visita, una imagen, etc. es modelada como un objeto. Cada objeto tiene su serie de atributos, por
ejemplo, el objeto paciente contendrá los atributos de sus datos demográficos, fecha de hospitalización,
etc.
_____________________________________________________________________________________
Telerradiología y PACS.
Internet y telerradiología.
Telerradiología y PACS. Sistemas de información de salud. Las entidades HIS y RIS son sistemas de
información Hospitalario y Radiológico respectivamente.
HIS: Entre sus eslabones, contempla el sistema de administración del hospital y el sistema de
información clínica.
RIS: Por otra parte, el RIS apoya a la información radiológica en la interpretación, generación y
archivado de informes de los estudios realizados, la preparación de sistemas de agendas para
turnos y las listas de trabajo, sin embargo, el HIS se encarga de la facturación de los estudios
realizados. En el tercer extremo, el PACS se encarga de capturar, transmitir, visualizar y archivar
toda la información de imágenes generada, además de atender a la seguridad de la Intranet de
distribución.
Debe existir un flujo de trabajo coherente entre estas tres entidades, dentro del cual, entra la
Telerradiología, como una extensión de los sistemas PACS y RIS.
El trío RIS, PACS y Telerradiología, utiliza el estándar DICOM como agente que proporciona la
interconectividad entre sus diferentes componentes y como sistema abierto para aceptar cualquier tipo
de imagen digital generada.
El HIS, utiliza la norma HL7 (Nivel de Salud 7), que es un protocolo de comunicación estándar para datos
electrónicos y el intercambio de información entre diferentes sistemas de salud. Al igual que DICOM, el
HL7, se utiliza para transferir información entre dos entidades. Mientras que los componentes de la
norma HL7 definen quien es el paciente, su historia clínica, sus datos demográficos y administrativos,
etc., los componentes DICOM definen cuales son las imágenes digitales que están disponibles en el
sistema para ese paciente.
Evolución de las Estaciones de Trabajo. La Telerradiología y los PACS, han evolucionado muchísimo en los
últimos años, fruto de muchas coincidencias tecnológicas: Los PC son cada vez más rápidos, las
tecnologías de redes han demostrado ser efectivas, las telecomunicaciones han avanzado mucho en el
campo de la transmisión digital, el estándar DICOM parece que es aceptado por todos y por último el
imparable avance de Internet. Todos estos factores han llevado a dos ramas diferentes con un mismo
objetivo a confluir y hoy es casi imposible separar un sistema PACS de un sistema de Telerradiología. Esta
evolución se ha visto, también, en las estaciones de trabajo. Podemos decir que tenemos tres tipos de
estaciones de trabajo:
1- Las estaciones de trabajo para diagnóstico primario. Es una extensión del PACS, cuando se
encuentra en lugar remoto. Estas estaciones pueden leer y recibir imágenes del sistema PACS
instalado y a su vez pueden enviar informes a estos. La ventaja es que estas estaciones de
trabajo remotas, pueden tener en cuenta, el flujo de trabajo típico o característico de dicho
radiólogo y, como resultado, el flujo de información es más homogéneo, ágil y permite la
instalación de soluciones flexibles para que la lectura/escritura sea más rápida. En el otro
extremo, las estaciones de trabajo locales de los PACS pueden realizar consultas “on line” con las
estaciones remotas de Telerradiología y predeterminar los protocolos y configuraciones para
cada radiólogo, con la posibilidad de visualizar múltiples estudios simultáneamente de diferentes
modalidades y la manipulación de los mismos a nivel individual.
2- Las estaciones de trabajo para revisión secundaria, que fueron concebidas como puesto de
trabajo remoto para otros especialistas como por ejemplo: UCI, Traumatología, Quirófano, etc.,
se ha conectado de forma inseparable a los PACS. Si hasta hace poco, se consideraba una
estación remota como parte de un sistema de Telerradiología, hoy día es parte integrante de los
PACS. Muchas herramientas avanzadas, que típicamente eran reservadas para los radiólogos,
hoy día se encuentran en estas estaciones de trabajo, permitiendo a los médicos navegar a
través de los estudios e incluso procesar imágenes durante el acto quirúrgico. Estos puestos de
trabajo son rápidos, fáciles de utilizar y proporcionan un acceso fiable a los estudios radiológicos
e informes. En áreas críticas, estos puestos de trabajo, pueden reducir el tráfico de personal
dentro de la sección de radiología y en el hospital.
3- Las estaciones de trabajo terciarias de bajo costo (terciaria), es quizás, el eslabón perdido dentro
de la mayoría de las instalaciones de PACS y sistemas de Telerradiología. Estos puestos de
trabajo proporcionan la distribución económica de imágenes digitales e informes a cualquier
médico, dentro de la red hospitalaria o telefónica, si este tiene acceso a dicha red. Internet
facilita la distribución de estos datos, mientras que proporciona una infraestructura existente,
que reduce la inversión inicial requerida. Para la mayoría de los médicos es más importante, el
acceso rápido al informe, que visualizar la imagen en detalle. Los médicos en las estaciones de
trabajo primarias y secundarias, pueden hacer referencias y anotaciones en las imágenes, que
pueden ser recogidas, por estos puestos de trabajo económicos, en tiempo real. Casi cualquier
PC moderno puede condicionarse para funcionar como un puesto de trabajo terciario.
En ambas modalidades del tratamiento de imágenes radiológicas, estas estaciones de trabajo están
presentes. Los efectos de esta evolución se extienden más allá de la sección de radiología. Los médicos
de las UCI ya no tienen que desplazarse a los servicios de radiología, para revisar “in situ” las radiografías
recién reveladas, las pueden recibir en la estación de trabajo de la UCI, incluso, antes que el paciente
regrese del equipo de TC o RM. Los especialistas en urgencias, pueden acceder a los informes de
radiología al cabo de varios minutos y no esperar hasta una hora para que lleguen las radiografías a su
consulta. Un paciente, estudiado a distancia, puede ser transferido a un servicio quirúrgico de urgencia,
de una ciudad a otra, con todas las indicaciones previas realizadas. La actual generación de estaciones de
trabajo de los sistemas PACS y Telerradiología refuerzan la productividad, no solo de los radiólogos, sino
del médico que puede dedicar más tiempo al cuidado del paciente.
Así, es casi imposible separar una estación Remota de Telerradiología de un sistema PACS, más bien son
extensiones del propio PACS.
Por lo general para que en un sistema PACS/Telerradiología apoyado en tecnología Internet, el flujo de
trabajo sea eficiente, el mismo debe parecerse al guión de un sistema de Telerradiología Perfecto:
1- El Técnico realiza en examen “in situ”, digitaliza y/o adquiere la imagen y la envía
2- En pantalla las imágenes digitalizadas se etiquetan y son enviadas al servidor.
3- Cuando se determine, las imágenes son encriptadas, comprimidas y enviadas al especialista
remoto. Esto se realiza con el simple clic del ratón en la estación de revisión del sistema PACS.
4- Los datos clínicos del paciente necesarios acompañan a la imagen en formato digital.
5- La transmisión real de imágenes, que no requieren reportes en “tiempo real”, se realiza de forma
automática, generalmente en horas de menor congestión de las líneas telefónicas.
6- En la unidad receptora, las imágenes se congregan automáticamente en carpetas por pacientes,
que podrían incluir otros estudios anteriores.
7- En el programa de la estación de diagnóstico los estudios se colocan en tablas de forma
automática, según preferencias del radiólogo: por casos, fecha, diagnóstico, etc.
8- Entonces y sólo entonces, el radiólogo es avisado mediante mensajes en pantalla o por medio
sonoro, que las imágenes han llegado y que están listas para la interpretación.
9- En dicha estación de diagnóstico, pueden estudiarse las imágenes al igual que se realiza en el
PACS.
10- Al terminar, el radiólogo dicta la interpretación, quizás a un sistema del reconocimiento de voz.
11- El informe dictado puede ser revisado o inspeccionado para valorar su exactitud, y entonces
puede enviarse automáticamente por la misma vía al médico u hospital emisor del estudio.
12- Para completar el ciclo, los estudios se almacenan en un sistema de almacenamiento de corto
plazo, para que después, puedan ser enviados a sistemas de almacenamiento de largo plazo
según los períodos de tiempo especificados.
13- Todo este proceso se puede realizar en formato DICOM 3.0, así el radiólogo podrá remitir una
imagen, a cualquier otro lugar del planeta para su discusión diagnóstica o recibir indicaciones y
anotaciones.
El intercambio eficiente de información entre los profesionales sanitarios puede ahorrar tiempo y dinero,
además de mejorar la efectividad clínica, la continuidad y calidad de la atención en todas las
especialidades; así como la gestión de servicios y, por lo tanto, la información se está convirtiendo en el
componente principal de cualquier entorno profesional que quiera seguir siendo competitivo.
10.1.1. Telerradiología en telemedicina Se puede definir Telemedicina como el uso de las redes
electrónicas de comunicación para transmitir información y datos relacionados con el diagnóstico y
tratamiento de patología médica.
Desde el punto de vista técnico, el término Telemedicina es aplicado con dos significados diferentes. Uno
es el significado amplio de utilización de las telecomunicaciones en la Sanidad, relacionado con las
aplicaciones de base de datos de pacientes, utilización de redes intrahospitalarias para la transmisión de
datos (lo que se conoce como Sistemas de Información Hospitalaria (HIS) que facilitan el
almacenamiento, recuperación y distribución de la información entre distintos lugares, o en el mismo
lugar; incluyendo la Historia Clínica Informatizada, que permite integrar toda la información y datos
personales del paciente, dentro una base de datos única) y su conexión con otras instituciones.
Servicios de consultas clínicas (Teleconsulta): Las consultas telemédicas permiten, que los
profesionales sanitarios situados en un lugar distinto al del paciente, puedan participar
directamente en el proceso de atención sanitaria.
Educación médica e información: Parte de la telemedicina consiste en educación médica a
distancia, y una función relacionada a esta, es la de proporcionar información médica en un
formato electrónico a los profesionales sanitarios, a los pacientes y que pueda ayudarles en la
toma de decisiones.
Aplicaciones automáticas de registros: Son sistemas informatizados que permiten almacenar,
recuperar y analizar en un ordenador la información sobre la historia del paciente.
La Telerradiología, como servicio Telemático, tiene valor añadido al estar configurada sobre la base de
una infraestructura de telecomunicaciones que soporta diferente información tecnológica y aplicaciones.
El objetivo principal de la Telerradiología es suministrar el diagnóstico de los procedimientos de imagen a
diferentes niveles de soporte técnico.
Desde este punto de vista, y según el Comité Europeo de Recomendaciones y Estándares, en los aspectos
Informáticos para el Diagnóstico por la Imagen, “la Telerradiología es más que el simple método de
comunicación para realizar el diagnóstico de las imágenes radiológicas, es el primer paso relevante para
mover la información médica entre las diferentes instancias de una red amplia de comunicación”. Más
que una nueva definición, este artículo considera que los avances tecnológicos implantados mediante la
Telerradiología, dan paso a la utilización de varios servicios Telemáticos que requieren de los mismos
soportes técnicos y de la infraestructura en telecomunicaciones. La Telerradiología es considerada, en el
contexto general, como la forma de integrar la red telemática de salud regionalmente, enfatizando en el
papel que juega esta interacción para la formación de otras redes telemáticas.
Los servicios básicos que soportan a la Red Integral de Servicios Telerradiológicos (RIST) incluyen:
1- Telediagnostico
2- Teleconsulta
3- Telemonitorización
4- Telegestión
Otro de los servicios que provee la RIST, es el acceso a sistemas informáticos de alto rendimiento, con el
objetivo de dar facilidades al análisis intensivo de imágenes y a la utilización de sistemas de base de
datos asociados, que poseen material educacional de incalculable valor.
I. El diagnóstico médico es cada vez más dependiente de los resultados de imagen y de laboratorio,
que de los hallazgos clínicos. Así, aproximadamente el 75% de los pacientes admitidos en los
hospitales requieren del examen diagnóstico previo.
II. Las nuevas modalidades de diagnóstico por la imagen requieren de personal médico
especializado para guiar la adquisición y producir el informe diagnóstico primario. El progreso
científico y tecnológico incrementa la complejidad y el número de parámetros a partir de los
cuales se puede llegar al diagnóstico. La intercomunicación entre diferentes especialistas
permite llegar de forma rápida a un diagnóstico claro y preciso, e incluso ser aplicado a
modalidades terapéuticas. Por ello, la utilización de los medios de teleconferencia y teleconsulta
puede convertirse en una práctica cotidiana.
III. La tecnología se desarrolla rápidamente, reduciendo el capital y el costo operacional de los
equipos de diagnóstico requeridos en los sistemas médicos.
IV. El estilo de vida moderno requiere, de forma inmediata, el soporte médico para incrementar la
calidad en áreas donde la atención de salud es pobre, debido a la escasa existencia de población,
o en zonas en las que, en determinadas épocas del año, el turismo provoca un aumento de la
densidad de población, etc. La preocupación de proveer una atención sanitaria continuada a
poblaciones desplazadas o en aumento, se ha convertido en una necesidad no solo a nivel
regional, sino nacional e internacional.
Los servicios que ofrece la Telerradiología están soportados por una estructura en capas. Las tres capas
que componen estos servicios son:
Infraestructura
Aplicaciones
Servicios
La capa superior corresponde a los servicios reales que proporciona la Telerradiología, tales como el
Telediagnóstico, la Telemonitorización, la Teleconsulta, la Teleadministración, y otros servicios de valor
añadido. La segunda capa consta de todas las aplicaciones sobre sistemas de cómputo, que proporcionan
las comunicaciones necesarias, y el medio para el funcionamiento cooperativo de los servicios de
Telerradiología. Tales aplicaciones incluyen sistemas de visualización multimedia (ejemplo:
Teleconferencia), análisis de la imagen interactivo y visualización 2D y 3D de las imágenes, herramientas
para manejo de base de datos de imágenes y pacientes, y otra variedad de aplicaciones que
proporcionan información a otras ramas del ámbito médico. La capa inferior corresponde al hardware e
infraestructura del software, que apoya las aplicaciones precedentes, y consiste en los equipos de
imagen médica, las telecomunicaciones para conectar una red de computadoras, herramientas para el
manejo de red y otros recursos. Los adelantos tecnológicos en Telerradiología están directamente
relacionados con las aplicaciones y capas de la infraestructura.
I. Proveer servicios radiológicos de consulta e interpretación, en áreas donde existe una probada
necesidad.
II. Disponer de los servicios de un radiólogo en aquellos centros médicos donde este especialista no
esté presente.
III. Disponer de los informes de las imágenes radiológicas en tiempos prudenciales para casos de
emergencia.
IV. Facilitar interpretaciones radiológicas en situaciones de guardia
V. Proporcionar el soporte radiológico necesario al especialista cuando este lo requiera.
VI. Promocionar las oportunidades de formación para los radiólogos en activo.
VII. Promover la eficiencia y la mejora de la calidad.
VIII. Enviar los estudios interpretados a los proveedores de las imágenes.
IX. Soportar Telemedicina.
X. Realizar supervisión directa en los sitios donde se realizan los estudios.
XI. La Telerradiología es una tecnología en desarrollo y por lo tanto aparecerán nuevos objetivos.
Los beneficios de la Telerradiología han sido demostrados a través de múltiples proyectos y estudios
realizados en Estados Unidos, Japón, Canadá, Alemania, Gran Bretaña, etc. Muchos de estos estudios
han sido publicados en Internet por Órganos Oficiales o en Páginas de Grupos Acreditados.
La mayoría de los estudios realizados coinciden en que la Telerradiología y todas sus aplicaciones,
favorecen de manera óptima la reutilización de los recursos hospitalarios, principalmente en áreas
rurales, donde la posibilidad de contratar un especialista es menor, y el coste más elevado.
Por otra parte, el contar con un servicio de Telerradiología de diagnóstico primario durante las 24 horas
que ofrezca servicios a zonas rurales, disminuye considerablemente los costes sanitarios, puesto que los
costes de ingreso en un hospital rural son menores que los costes en una institución hospitalaria de una
gran ciudad.
10.1.4. Inconvenientes
10.2. Componentes y estructura de la telerradiología y trabajo radiológico en red . Este epígrafe contiene
los siguientes puntos:
1- Introducción.
2- Componentes.
3- Usuarios.
4- Seguridad de los sistemas.
5- La seguridad física.
10.2.1. Introducción. Según diversos autores, los primeros intentos de Telerradiología se realizaron en el
año 1959 en Montreal (Canadá), con la transmisión de estudios de fluoroscopia.
A partir de entonces, varios proyectos de Telerradiología se llevaron adelante, pero no fue, hasta
mediados de los años 80, que comenzó un verdadero crecimiento en esta área.
- Como resultado de ello, en el año 1994, el Colegio Americano de Radiología (ACR), publicó las
primeras normativas sobre los sistemas de Telerradiología. Estas normativas que periódicamente
define y publica la ACR, permiten llevar adelante la práctica radiológica, ayudan al desarrollo
tecnológico de la radiología y, además, sirven para mejorar la calidad del servicio a los pacientes.
La norma en cuestión publicada bajo en título “ACR Standard for teleradiology” ha sido revisada
en el año 1996, y a final de 1998, quedando activa esta última revisión a partir de Enero de 1999.
Esta norma define las metas, la calificación de personal y pautas del equipamiento a utilizar; así
como el personal autorizado, sus obligaciones, normas de comunicación y de control de calidad.
10.2.2. Componentes. Toda la infraestructura necesaria para llevar a cabo un servicio de Telerradiología
deberá estar compuesta por los equipos de imagen médica, las estaciones de trabajo, la red de
telecomunicación, las herramientas para manejo de redes y otros recursos. En general, es aceptado que
la infraestructura de Telerradiología incluya sistemas responsables del almacenamiento temporal y el
manejo de datos multimedia.
Para empezar diremos que un sistema de Telerradiología está constituido por tres componentes
principales:
Generalmente, las imágenes son comprimidas antes de ser enviadas. Está compresión, llamada
compresión “lossless” (sin pérdida), debe tener tasas de compresión no mayor de 2 o 3:1 para no perder
nada de ellas. Sabemos, que una vez pasada esta tasa de compresión, se producen pérdidas de
información, independientemente de la técnica utilizada. El ACR, establece y recomienda como norma
que, el diagnóstico primario debe realizarse sobre imágenes no comprimida o que solamente se les haya
aplicado algoritmos de compresión sin pérdida.
Cuando las imágenes son recibidas en la estación receptora, estas son descomprimidas y colocadas en
sistemas de archivo, desde los cuales pueden ser visualizadas con la aplicación existente en la estación
receptora y así proceder al diagnóstico de los estudios recibidos.
10.2.3. Usuarios. Los usuarios potenciales de una Red de Telerradiología (RT) son:
- Radiólogos remotos: Las imágenes de un paciente pueden ser transmitidas desde el centro de
radiología hasta el radiólogo remoto (que pudiera estar incluso en su casa) para la realización de
un informe inmediato. La segunda opinión especializada de radiólogos remotos es también
utilizada con frecuencia en una red centralizada de Telerradiología.
- Médicos en el hospital: Las Unidades de Cuidados Intensivos (UCI) requieren de informes de
imágenes radiológicas urgentes en horas en que, por lo general, no se encuentra disponible el
colectivo de radiólogos. En este caso, la intercomunicación entre el radiólogo remoto y el
colectivo de la UCI proporciona los informes o las consultas necesarias de las imágenes de los
pacientes.
- Atención primaria y médicos rurales: Son los principales beneficiarios de la RT. El primer objetivo
de la Telerradiología es “ofrecer servicios de consulta e interpretación en áreas de mayor
necesidad”. La atención primaria en áreas rurales puede acceder al diagnóstico primario
radiológico, al conectarse a una RT. Las imágenes realizadas en los centros de atención primaria
pueden ser enviadas a radiólogos remotos y obtener de inmediato el informe médico de un
especialista.
- Otros médicos o radiólogos: Cuando requieren de una segunda opinión o de consultas
especializadas de radiología. En centros donde existen servicios de 24 horas con radiólogos
especializados pueden emitirse, mediante la RT, informes secundarios de radiología o realizar
interconsultas con aquellos especialistas médicos que lo requieran. En este caso, la opinión de
un experto puede agilizar el diagnóstico y el tratamiento de pacientes en situaciones extremas.
10.2.4. Seguridad de los sistemas. Los sistemas de Telerradiología, deben tener protocolos de seguridad,
tanto para las redes, como para la utilización de los sistemas (software), con la finalidad de proteger la
confidencialidad de los datos de los pacientes. Por otra parte, los sistemas deben estar provistos de
protocolos que resguarden la integridad de los datos y eviten la corrupción intencionada de los mismos.
La seguridad y privacidad de los sistemas informáticos está subdividida en: Seguridad física de la
información, control de accesos a la información, control de redes locales privadas, autentificación y
encriptación de los datos en firmas electrónicas.
- La seguridad física: Es la parte fundamental del programa de seguridad. Incluye dos aspectos, la
seguridad física propiamente dicha y la seguridad lógica. La seguridad lógica, se refiere a los
sistemas de software y controles automáticos. La seguridad física, se refiere a sistemas de
puertas, llaves, sensores y cercos eléctricos, que debe tener en cuenta, no solo a los intrusos,
sino extender la seguridad hacia otras causas medioambientales como fuego, agua, caída de
tensión eléctrica, calor y de ser posibles desastres naturales.
- Control de accesos: Después de cubrir los aspectos de seguridad física, se debe revisar el sistema
de control de acceso a la información almacenada y a los sistemas de transmisión. Se deberán
tener múltiples capas de control de acceso. Un Gerente, por ejemplo, podrá tener acceso a la
información financiera, pero no a la información médica confidencial. Otras personas, podrán
tener acceso a las cuestiones administrativas, agendas de turnos, etc., pero no podrán tener
acceso a los datos de pacientes. Los diferentes niveles de acceso, deberán estar bien definidos
por el centro y controlado por las autoridades locales o del país donde se implante el sistema.
Los accesos pueden estar controlados por identificadores y claves de acceso, controles de retina,
voz o firma digital. También, por sistemas electrónicos de control.
- Encriptación: La encriptación es una forma de encubrir los datos bajo algoritmos matemáticos
bien definidos. Independientemente de los identificadores y las claves de acceso, los sistemas
encriptación tienen la particularidad de que requieren de un software especializado para esa
función o de llaves de desencriptación, que pueden ser físicas (hardware). Dentro de una red de
Telerradiología, tanto el emisor, como el receptor, poseen los mismos códigos de
encriptación/desencriptación, agilizando la tarea de la comunicación de los datos, imágenes,
informes, etc.
- Autentificación y firmas electrónicas: El esquema de autentificación es una forma de verificar si
el mensaje o informe enviado no ha sido modificado durante y después de su transferencia. Sirve
para verificar, que dicho mensaje o informe, pertenece a determinado especialista. La firma
electrónica puede acabar con gran cantidad de falsificaciones y fraudes que ocurren dentro de
las redes, principalmente cuando se utiliza Internet. No se debe confundir la firma electrónica
con la encriptación de los contenidos. En estos momentos existe una fuerte tendencia a definir la
firma electrónica y los medios para que sea efectiva en sistemas telemédicos. Actualmente, es
posible integrar los sistemas telemédicos con sistemas de seguridad establecidos por comités de
estandarización.
La política y los procedimientos relacionados con el control de calidad en Telerradiología, han sido
desarrollados en primer lugar por la ACR y ampliados por la CEN/TC 251.
Los sistemas de Telerradiología deben tener toda la documentación de los procedimientos de control de
calidad realizados a cada una de las partes que componen el sistema (los monitores, los sistemas de
adquisición, digitalización, compresión, transmisión y archivos). El programa de control de calidad está
designado para maximizar la calidad y el acceso a la información diagnóstica. El control de calidad en
Telerradiología está directamente relacionado con el ideal de la Telerradiología:
I. Alta resolución
II. No-compresión de imagenes
III. Altos niveles de transmisión con el adecuado ancho de banda. En la práctica, para poder
optimizar la transmisión, se requiere disminuir la resolución de las imágenes, mayores matrices
significan mayor tiempo de transmisión. Por otra parte, la compresión de imágenes con tasas
mayores de 3:1 provoca pérdidas en las imágenes. Imágenes con poca resolución espacial no
permite visualizar pequeños detalles o anormalidades. Consecuentemente, si la imagen
radiológica no tiene la suficiente calidad, incluso especialistas experimentados pueden no
realizar un diagnóstico correcto, empeorando la calidad de la Telerradiología.
Los sistemas que cumplen con los estándares ACR y que se acercan a la Telerradiología ideal, son por lo
general sistemas con un nivel de costo elevado. Dos de los aspectos que encarecen dichos sistemas son:
Asegurar la calidad y la realización de dichos controles debería ser un proceso rutinario. La información
almacenada debe estar disponible para casos de emergencia. La calidad del servicio debe estar avalada
por un diagnóstico correcto y rápido de las imágenes radiológicas.
- En conclusión, el control de calidad, es buscar, cual es la forma viable de diagnóstico, según las
normativas establecidas por la ACR y la CEN, para que se cumplan los requisitos legales, éticos y
económicos de su implantación, partiendo de que la calidad de la imagen y el diagnóstico es lo
primero.
- Médico Especialista.
- Técnico.
- Físico-médico.
- Especialista en sistemas o redes.
11.2.1. Médico Especialista. El médico especialista debe estar familiarizado con la tecnología básica de
Telerradiología, sus ventajas y desventajas, y debe conocer la utilización del equipo de Telerradiología.
El examen radiológico, desde el centro emisor, debe ser ejecutado por personal calificado y entrenado
en los exámenes que realice. En la mayoría de los casos, esto significa, que ha de ser un médico,
debidamente autorizado, y/o un técnico del departamento de radiología, debidamente acreditado para
tal función. Este técnico debe encontrarse bajo la supervisión oficial de un médico.
La interpretación oficial de las imágenes debe realizarla un médico que cumpla los siguientes requisitos:
11.2.3. Físico-médico. Un Físico Médico Cualificado es competente para trabajar en una o más ramas de
la física médica. La ACR recomienda que los individuos estén acreditados por la rama apropiada de la
American Board of Radiology u Organismos Nacionales similares. Las ramas de la física médica son:
I. Física de la radiología terapéutica
II. Física del diagnóstico radiológico
III. Física de las técnicas de la medicina nuclear
IV. Física Radiológica.
Un físico médico certificado, debe haber recibido, según las normativas de la ACR, una formación
continuada en estas ramas.
Este especialista deberá estar cualificado para manejar y evaluar los sistemas de Telerradiología.
11.3. Cuestiones médico-legales. En las aplicaciones telemáticas se plantean problemas tales como:
I. Intimidad y confidencialidad
II. Responsabilidad profesional
III. Estándares éticos
IV. Temas éticos
Los organismos internacionales y estatales trabajan para llegar a obtener un marco legal que se ajuste a
la realidad. Sin embargo, debe considerarse, que puede pasar cuando un informe “provisional” se envía
adjuntado a la imagen y resulta ser incorrecto. O que ocurre cuando la información que se recupera es
vulnerable a corrupción o contaminación por virus. Es importante que exista la máxima seguridad con
respecto a este tipo de información. Para evitar estos problemas y muchos otros, se desarrollan
protocolos y estándares que protegen la confidencialidad de cualquier información médica privada.
11.3.1. Seguridad de los datos informáticos. Este área se refiere a los datos soportados por el ordenador
de un hospital. Y se puede convertir en un área de preocupación, cuando estos datos se transmiten entre
hospitales o entre naciones.
- Es más seguro, transmitir los datos vía Internet, siempre y cuando se garantice, que los datos de
identificación del paciente y datos demográficos han sido eliminados y que se ha desarrollado un
método alternativo de identificar los datos por imagen. Antes de utilizar ningún sistema, hay que
verificar que este sistema es seguro.
El radiólogo debe asegurarse de que su defensa está cubierta por la organización para la que trabaja y
que ésta acepta la responsabilidad de la gestión médica.
- En el caso de tener que guardar los datos por un periodo largo de tiempo, la cuestión de la
lectura de historias o datos previos deberá considerarse si el sistema tiene que ser actualizado.
11.3.5. Acuerdos a nivel de servicios. Cuando un departamento u hospital entra en un acuerdo, para
proporcionar servicios de Telerradiología, es necesario generar guías estrictas: protocolos escritos para la
seguridad de su práctica y cubrir los siguientes temas:
Definición: Una interpretación o informe oficial de las imágenes teletransmitidas, es un reporte escrito o
hablado, que se adjunta a la historia clínica del paciente o a los registros de paciente, en caso de que la
historia clínica no exista en el lugar del informe.
Las imágenes y el informe realizado por el especialista, no pueden ser borrados ni alterados de sistema
de almacenamiento. Estas imágenes y dicho informe y todas sus posteriores recomendaciones, no deben
ser borrados del sistema durante el tiempo establecido entre la unidad receptora y la unidad remota
emisora, o según normativas establecidas por las autoridades regionales, municipales o nacionales,
según cada caso.
Así, son las normas de desarrollo reglamentario las que deben fijar las medidas mínimas que deben
adoptarse para la adecuada protección de los trabajadores. Entre ellas se encuentran las destinadas a
garantizar que de la utilización de los equipos que incluyen pantallas de visualización por los
trabajadores no se deriven riesgos para la seguridad y salud de los mismos.
En el mismo sentido hay que tener en cuenta que en el ámbito de la Unión Europea se han fijado
mediante las correspondientes Directivas criterios de carácter general sobre las acciones en materia de
seguridad y salud en los centros de trabajo, así como criterios específicos referidos a medidas de
protección contra accidentes y situaciones de riesgo. Concretamente, la Directiva 90/270/CEE, de 29 de
mayo, establece las disposiciones mínimas de seguridad y de salud relativas al trabajo con equipos que
incluyan pantallas de visualización. Mediante el presente Real Decreto se procede a la transposición al
Derecho español del contenido de la Directiva 90/270/CEE, antes mencionada.
El Real Decreto 488/1997 establece las disposiciones mínimas de seguridad y de salud para la utilización
por los trabajadores de equipos que incluyan pantallas de visualización.
12.2. Definiciones:
PUESTOS DE TRABAJO: El constituido por un equipo con pantalla de visualización provisto, en su caso, de
un teclado o dispositivo de adquisición de datos, de un programa para la interconexión
persona/máquina, de accesorios ofimáticos y de un asiento y mesa o superficie de trabajo, así como el
entorno laboral inmediato.
TRABAJADOR: Cualquier trabajador que habitualmente y durante una parte relevante de su trabajo
normal utilice un equipo con pantalla de visualización.
12.3. Obligaciones generales del empresario. El empresario adoptará las medidas necesarias para que la
utilización por los trabajadores de equipos con pantallas de visualización no suponga riesgos para su
seguridad o salud o, si ello no fuera posible, para que tales riesgos se reduzcan al mínimo.
El empresario deberá evaluar los riesgos para la seguridad y salud de los trabajadores, teniendo en
cuenta en particular los posibles riesgos para la vista y los problemas físicos y de carga mental, así como
el posible efecto añadido o combinado de los mismos.
La evaluación se realizará tomando en consideración las características propias del puesto de trabajo y
las exigencias de la tarea y entre éstas, especialmente, las siguientes:
12.4. Vigilancia de la salud. El empresario garantizará el derecho de los trabajadores a una vigilancia
adecuada de su salud, teniendo en cuenta en particular los riesgos para la vista y los problemas físicos y
de carga mental, el posible efecto añadido o combinado de los mismos, y la eventual patología
acompañante. Tal vigilancia será realizada por personal sanitario competente y según determinen las
autoridades sanitarias en las pautas y protocolos que se elaboren, de conformidad con lo dispuesto en el
apartado 3 del artículo 37 del Real Decreto 39/1997, de 17 de enero, por el que se aprueba el
Reglamento de los servicios de prevención. Dicha vigilancia deberá ofrecerse a los trabajadores en las
siguientes ocasiones:
1. El empresario deberá garantizar que los trabajadores y los representantes de los trabajadores reciban
una formación e información adecuadas sobre los riesgos derivados de la utilización de los equipos que
incluyan pantallas de visualización, así como sobre las medidas de prevención y protección que hayan de
adoptarse.
2. El empresario deberá informar a los trabajadores sobre todos los aspectos relacionados con la
seguridad y la salud en su puesto de trabajo y sobre las medidas llevadas a cabo.
3. El empresario deberá garantizar que cada trabajador reciba una formación adecuada sobre las
modalidades de uso de los equipos con pantallas de visualización, antes de comenzar este tipo de trabajo
y cada vez que la organización del puesto de trabajo se modifique de manera apreciable.
Son aquellos aspectos y elementos de trabajo que, si no reúnen las condiciones ergonómicas adecuadas,
son susceptibles de favorecer la aparición de alteraciones, principalmente osteomusculares, visuales o
relacionadas con la fatiga mental, en la salud de las personas que trabajan con PVD. Los aspectos que se
han de tener en consideración en los puestos equipados con pantallas de visualización son: el equipo
informático, el mobiliario del puesto, el medio ambiente físico y la interfaz persona/ordenador. Hay que
tener igualmente en cuenta la organización del trabajo.
Los elementos de los que se pueden derivar los riesgos están relacionados:
El equipo de trabajo: -Pantalla -Filtros -Soporte de monitor -Teclado y otros dispositivos de entrada de
datos -Reposamuñecas -Mesa o superficie de trabajo -Documentos -Portadocumentos o atril -Asiento
-Cableado -Equipos portátiles -Postura de trabajo
El diseño ergonómico deberá conseguir que los distintos elementos del sistema formen un todo
coherente, considerando la interacción entre individuo y entorno en su totalidad. El objetivo es
proyectar un sistema que tenga en cuenta las capacidades y las limitaciones del ser humano, atendiendo
tanto a factores físicos (antropometría, biomecánica) como mentales (capacidad perceptiva, de
procesamiento de información, toma de decisiones...).
12.6.2. El equipo de trabajo. A la hora de diseñar el puesto de trabajo se debe considerar la variabilidad
de las dimensiones antropométricas de los posibles usuarios. Para el trabajo en posición sentado, debe
habilitarse el suficiente espacio para alojar los miembros inferiores y para permitir los cambios de
postura en el transcurso de la actividad. Las medidas del espacio para los miembros inferiores
(dependerá de las medidas antropométricas) serán de un mínimo de 60 cm de ancho por 65/70 de
profundidad. Hay que tener en cuenta también en cuanto al acceso y la ubicación del puesto, que debe
existir suficiente espacio para permitir al usuario el acceso al mismo sin dificultad, así como para que
pueda tomar asiento y levantarse con facilidad. En la disposición de los puestos se debe tener en cuenta
la organización de la actividad, la interacción de los grupos, las necesidades de comunicación y lo relativo
a los planes de emergencia.
Recomendaciones generales: Al estar ante un equipo de trabajo de PVD, a efectos preventivos y de
confort, es preciso tener en cuenta una serie de aspectos de carácter general:
I. Es necesario formar a los usuarios sobre el buen uso, desde el punto de vista ergonómico, del
equipo de trabajo.
II. Las condiciones que determinan una adecuada visión deben ser óptimas para el tipo de tarea
que se realiza, en materiales, disposición, cantidad y calidad. Así, las luminarias deben estar en
línea con el puesto de trabajo, las ventanas deben quedar fuera del campo visual, las luminarias
se recomiendan con fluorescentes y con rejilla, la pintura y decoración de la sala debe ser clara y
mate, etc
III. Es preciso situar el equipo en el centro de la zona de confort del campo visual, sin que esto
obstaculice el contacto visual con los clientes u otras personas necesarias en la relación de
trabajo.
IV. Debe distribuirse el puesto de una forma racional, con los cables del equipo ocultos bajo
regletas, con longitudes adecuadas, con suficientes tomas de luz, etc.
V. Si se utilizan diferentes equipos de trabajo, es recomendable situarlos a la misma distancia. No
obstante, se debe emplazar el equipo que más se utilice en la zona de confort de alcance. Esta
zona de confort se define como aquella área barrida por ambas manos sin cambiar de postura.
VI. Siempre hay que considerar la lateralidad del sujeto, si es zurdo o diestro, a efectos de diseño del
equipo y colocación de material de trabajo.
VII. La postura correcta debe ser compatible con la utilización de diferentes equipos de trabajo.
VIII. Es conveniente que los colores presentes en el equipo y entorno inmediato sean armónicos.
IX. La luminancia de los diferentes equipos de trabajo debe homogeneizarse, de forma que no
existan grandes diferencias.
12.6.3. Equipo. Observación general: La utilización en sí misma del equipo no debe ser una fuente de
riesgo para los trabajadores.
Pantalla. Resulta importante destacar que la pantalla se ha de colocar de forma que las áreas de trabajo
que hayan de ser visualizadas de manera continua tengan un “ángulo de la línea de visión” comprendido
entre la horizontal y 60° por debajo de la misma. No obstante, la zona preferida por los usuarios, según
diversos estudios, se sitúa entre la línea de visión horizontal (ángulo de 0°) y un ángulo de 30°. Además,
cualquier pantalla debe de ser legible desde cualquier ángulo de visión, al menos hasta 40° desde la
normal a la superficie de pantalla, medido en cualquier plano de la misma, siendo el óptimo 0°.
I. Los caracteres de la pantalla deberán estar bien definidos y configurados de forma clara, y tener
una dimensión suficiente, disponiendo de un espacio adecuado entre los caracteres y los
renglones.
II. La imagen de la pantalla deberá ser estable, sin fenómenos de destellos, centelleos u otras
formas de inestabilidad.
III. El usuario de terminales con pantalla deberá poder ajustar fácilmente la luminosidad y el
contraste entre los caracteres y el fondo de la pantalla, y adaptarlos fácilmente a las condiciones
del entorno.
IV. La pantalla deberá ser orientable e inclinable a voluntad, con facilidad para adaptarse a las
necesidades del usuario.
V. Podrá utilizarse un pedestal independiente o una mesa regulable para la pantalla.
VI. La pantalla no deberá tener reflejos ni reverberaciones que puedan molestar al usuario.
Teclado. Este elemento deberá permitir al trabajador localizar y usar las teclas con rapidez y precisión,
sin que le genere molestias o disconfort. Además, debe permitir la movilidad e independencia respecto
al resto del equipo, y es necesario posibilitar su reubicación conforme a los cambios de tarea o de
postura del usuario. Asimismo, algunas características del teclado, como su altura, grosor e inclinación
pueden influir en la adopción de posturas incorrectas y originar trastornos en los usuarios. Para prevenir
estos riesgos, el diseño del teclado debe cumplir una serie de requisitos, descritos en la normativa
técnica. La utilización continuada del teclado ha demostrado que puede ser causa de patología
osteomuscular, como por ejemplo la tendinitis, la tenosinovitis o el síndrome del túnel carpiano. El
correcto diseño y la colocación del teclado, conjuntamente con el establecimiento de pausas y la
reducción en los ritmos de trabajo, parecen reducir estas alteraciones.
Una variable que está en continua investigación es el papel que puede jugar el diseño del teclado.
Existen en el mercado algunos diseños novedosos que suelen perseguir la reducción en las alteraciones
músculo-esqueléticas debido a la postura forzada del segmento manomuñeca (tienen como objetivo
conseguir una postura natural) y al movimiento y la fuerza de los dedos y la prevención de alteraciones
consecuentes como síndrome de túnel carpiano, tendinitis u otras.
A pesar de que se presentan como alternativas ergonómicas y aunque existen algunos estudios, la falta
de evidencia hace que sea difícil todavía confirmar los beneficios de cada uno de los diseños propuestos.
Algunos teclados pueden ser adecuados para algunas personas, en algunos puestos, pero no puede
generalizarse que un diseño determinado sea más adecuado bajo cualquier circunstancia.
El más extendido es el teclado partido: En algún estudio sobre algunos nuevos diseños de teclados
alternativos se ha llegado a la conclusión de que, una vez superado el periodo de adaptación, la mayoría
de los usuarios prefiere este tipo de teclado a los tradicionales, alegando que permite una postura más
cómoda y que reduce las molestias. La mayor parte de los usuarios aprende con rapidez a utilizarlos; una
vez pasado un breve periodo en el que se reduce la rapidez y la precisión, en general, en muy pocos días
se recupera el rendimiento habitual. El aprendizaje, lógicamente, puede costar algo más en personas con
mayor experiencia cuyos movimientos se realizan de manera más automatizada.
Una utilidad de los teclados alternativos es la posibilidad de desarrollo de aplicaciones específicas que
ofrezcan a las personas con discapacidad la posibilidad de comunicación o de integración al mundo
laboral aumentando su participación en la sociedad y su grado de independencia. Actualmente existen
diseños alternativos como solución al problema de accesibilidad a los ordenadores. La selección del
dispositivo adecuado depende de las posibilidades de movimiento del usuario.
Existen en el mercado: teclados más amplios para personas con capacidad de precisión reducida o de
menor tamaño para personas con limitaciones en el movimiento; teclados para utilizar con una sola
mano; teclados visuales, utilización de punteros, etc.
I. El teclado deberá ser inclinable e independiente de la pantalla para permitir que el trabajador
adopte una postura cómoda que no provoque cansancio en los brazos o las manos.
II. Tendrá que haber espacio suficiente delante del teclado para que el usuario pueda apoyar los
brazos y las manos.
III. La superficie del teclado deberá ser mate para evitar los reflejos.
IV. La disposición del teclado y las características de las teclas deberán tender a facilitar su
utilización.
V. Los símbolos de las teclas deberán resaltar suficientemente y ser legibles desde la posición
normal de trabajo.
Mesa o superficie de trabajo. Una de las preguntas más frecuentes es cuál es la medida recomendada
para una mesa de ordenador. Se hace muy difícil establecer recomendaciones al respecto, ya que la
superficie de trabajo dependerá de las tareas que deban realizarse y, sobre todo, de los elementos que
sea necesario disponer en ella. Las medidas han de ser tales que permitan que el equipo de trabajo se
pueda colocar correctamente. Para tareas generales de oficina, las medidas aproximadas mínimas de la
superficie, pueden ser de 80 cm por 120 cm. Puede ser necesaria una anchura algo mayor a fin de
asegurar que entre el teclado y el borde libre de la mesa quede una distancia de 5 a 10 cm., actuando así
ese espacio de reposamanos.
Es importante tener en cuenta la altura de la mesa con relación a la altura de la silla y de las personas
usuarias: El conjunto ha de permitir la realización del trabajo facilitando el cambio postural, a partir de la
postura de referencia. Para ello es recomendable que la mesa tenga una altura ajustable. Si se dispone
de tableros ajustables en altura, el rango de regulación debe situarse entre el percentil 5 femenino y el
95 masculino de la población de posibles usuarios/as. Para aquellas personas que estén fuera de dichos
límites, puede ser necesario recurrir a la adaptación individualizada.
En el caso de usar una bandeja ajustable de teclado, ésta deberá cumplir los siguientes criterios:
posibilidad de ajuste y regulación a las medidas antropométricas de los usuarios, adaptación al cambio
de postura (de pie y sentado), adaptabilidad al mobiliario o equipo de trabajo y movilidad del usuario.
Esta bandeja, teniendo en cuenta criterios de diseño (Norma ISO 9241-5) como son el ajuste, el cambio
de postura, la adaptabilidad y la movilidad, permite:
I. Situar el teclado y el ratón a una altura y en una posición más adecuada a las características
antropométricas del trabajador; facilitando el apoyo de los pies sobre el suelo.
II. Trabajar de pie o sentado, fomentando así el confort de la espalda, reduciendo la carga muscular
y los problemas musculoesqueléticos.
III. Soportar correctamente el cuerpo y cambiar de posición, favoreciendo la circulación.
IV. Utilizar el equipo diversas personas con características físicas diferentes, permitiendo, debido a
la versatilidad en sus ajustes, cambios de postura y movimientos frecuentes. Además,
proporciona una correcta posición de las muñecas.
Primero La mesa o superficie de trabajo deberán ser poco reflectantes, tener dimensiones suficientes y
permitir una colocación flexible de la pantalla, del teclado, de los documentos y del material accesorio.
Segundo El soporte de los documentos deberá ser estable y regulable y estará colocado de tal modo que
se reduzcan al mínimo los movimientos incómodos de la cabeza y los ojos.
Tercero El espacio deberá ser suficiente para permitir a los trabajadores una posición cómoda
Asiento de trabajo. Hoy en día es habitual la utilización de asientos con apoyabrazos, ya que éstos
facilitan el cambio de postura y reducen la carga muscular de la zona cuello-hombro. Es recomendable
que sean ajustables en altura, especialmente en puestos que deban ser ocupados por más de una
persona (por rotación o por turnicidad), de manera que se asegure que cumplen su función y no obligan
a posturas forzadas de los brazos, por una altura excesiva o del cuerpo, por altura insuficiente. También
pueden ser de utilidad los reposabrazos abatibles en puestos en los que se alterne la tarea de ordenador
con otro tipo de tarea.
Otro aspecto que se ha de considerar es el recubrimiento del asiento. Este debería ser de un material
transpirable, sin embargo, debe tenerse en cuenta que en puestos en los que se esté expuesto a
ambientes de polvo o a la manipulación de productos químicos, deberá elegirse un tipo de material no
absorbente.
Una correcta relación mesa/silla debe permitir una postura adecuada. Cuando esto no ocurre puede
recurrirse a la utilización de reposapiés.
También sería conveniente disponer de freno o bloqueo de las ruedas, con el fin de que se pueda fijar
una posición estática óptima de trabajo, dado que algunos apoyos sobre el reposapiés o cualquier
movimiento de las piernas pueden desplazar el asiento hacia atrás cuando se pretende estar en posición
estática.
Cableado Se han de establecer rutinas de mantenimiento de las conexiones y del propio cableado, de
forma que la seguridad del trabajador quede garantizada, sin que este hecho interrumpa las actividades
del operador.
Espacio El puesto de trabajo deberá tener una dimensión suficiente y estar acondicionado de tal manera
que haya espacio suficiente para permitir los cambios de postura y movimientos de trabajo.
Iluminación La iluminación general y la iluminación especial (lámparas de trabajo), cuando sea necesaria,
deberán garantizar unos niveles adecuados de iluminación y unas relaciones adecuadas de luminancias
entre la pantalla y su entorno, habida cuenta del carácter del trabajo, de las necesidades visuales del
usuario y del tipo de pantalla utilizado.
El acondicionamiento del lugar de trabajo y del puesto de trabajo, así como la situación y las
características técnicas de las fuentes de luz artificial, deberán coordinarse de tal manera que se eviten
los deslumbramientos y los reflejos molestos en la pantalla u otras partes del equipo.
Reflejos y deslumbramientos Los puestos de trabajo deberán instalarse de tal forma que las fuentes de
luz, tales como ventanas y otras aberturas, los tabiques transparentes o translúcidos y los equipos o
tabiques de color claro no provoquen deslumbramiento directo ni produzcan reflejos molestos en la
pantalla.
Las ventanas deberán ir equipadas con un dispositivo de cobertura adecuado y regulable para atenuar la
luz del día que ilumine el puesto de trabajo.
Ruido El ruido producido por los equipos instalados en el puesto de trabajo deberá tenerse en cuenta al
diseñar el mismo, en especial para que no se perturbe la atención ni la palabra.
Calor Los equipos instalados en el puesto de trabajo no deberán producir un calor adicional que pueda
ocasionar molestias a los trabajadores.
Emisiones Toda radiación, excepción hecha de la parte visible del espectro electromagnético, deberá
reducirse a niveles insignificantes desde el punto de vista de la protección de la seguridad y de la salud
de los trabajadores.
Se destacan las experiencias de Heuser en Argentina, inyectando yoduro de potasio para realizar las
primeras pielografías, en el año 1919. Pero todos los compuestos actuales, derivados del ácido benzoico
unido a distinto número de moléculas de yodo, son compuestos yodados hidrosolubles que se originan a
partir de los trabajos de Osborne, en 1923. Desde entonces, se han utilizado en numerosos estudios
radiológicos, tales como el urograma excretor y la tomografía axial computada.
La irrupción en la circulación por vía endovenosa de una sustancia extraña al cuerpo humano, no
siempre es totalmente inocua y puede producir reacciones no deseadas o inesperadas, cuyos
mecanismos no están lo suficientemente aclarados. Cuando estas reacciones generan manifestaciones
clínicas, se consideran como reacciones adversas. Desde el comienzo se han informado distintas y
variadas reacciones, algunas de las cuales conllevan expresiones similares a las de origen alérgico.
De cualquier manera, son tales los beneficios del uso de los MCR, permitiendo diagnósticos médicos
imposibles de obtener con otros métodos, que su utilización, lejos de disminuir, aumenta cada día.
Los requisitos que deben cumplir los medios de contraste para que puedan ser utilizados de manera
segura son los siguientes:
Las dosis de los medios de contraste que se deben aplicar para la exploración dependen de varios
criterios:
Medios de contraste positivos. Los medios de contraste positivos absorben los rayos X en mayor medida
que los tejidos adyacentes, aumentado el contraste proporcionado por el órgano que se va a explorar.
1. Bario: Se utiliza químicamente puro, para la exploración del tubo digestivo. Debe estar presente en
forma de un sulfato no soluble en agua, para que los iones de bario, que son tóxicos, no sean absorbidos
por la mucosa gastrointestinal.
Medios de contraste oleoso Cuando se añade yodo a los compuestos oleosos, sobre todo a los
aceites vegetales, se obtiene un medio de contraste muy eficaz para visualizar las articulaciones,
el útero, los vasos y los nódulos linfáticos, etc. Este tipo de medios de contraste cada vez se
utilizan con menos frecuencia por sus desventajas (viscosidad elevada, eliminación lenta, etc.), y
se han ido sustituyendo de manera progresiva por los medios de contraste hidrosolubles.
Medios de contraste hidrosolubles Estos medios de contraste son muy importantes actualmente
para la visualización de diferentes órganos, vasos sanguíneos y cavidades, además de que
refuerzan las imágenes de la tomografía computarizada.
Es el único elemento químico que tiene las tres propiedades básicas de los medios de contraste:
o Densidad de contraste elevada.
o Comportamiento químico que hace posible la unión simétrica a la molécula de benceno.
o Toxicidad baja
Medios de contraste iónicos no iónicos: En una solución acuosa, las sales de los medios de
contraste se disocian en iones, un anión con carga negativa (el que produce el contraste) y un
catión con carga positiva. Estos medios se llaman iónicos. Los medios de contraste iónicos se
caracterizan por tener una osmolaridad alta, lo que conlleva efectos indeseables, de manera que
se empezaron a reemplazar por otros medios de contraste denominados no iónicos.
Los medios de contraste no iónicos se obtienen mediante la combinación del ácido de un medio
de contraste con un azúcar o un alcohol polivalente, produciendo enlaces que no se desdoblan
aunque el compuesto entre en disolución, de forma que el medio de contraste se va a disolver
con una partícula única eléctricamente neutra. Estos medios de contraste tienen mayor
tolerancia que los no iónicos y menos efectos secundarios.
Medios de contraste negativos. Los medios de contraste negativos absorben los rayos X en menor
medida que los tejidos adyacentes. Normalmente se administran por vía oral o rectal.
Gases Los gases abserven los rayos x en menor medida que los absorben los órganos y los líquidos
corporales. Como elementos de absorción débil se utilizan gases indiferentes, que sean solubles en la
sangre y se eliminen con rapidez. El aire produce un contraste natural de los pulmones para realizar la
exploración del tórax y permite la representación del tracto gastrointestinal por medio del doble
contraste.
13.2. Reacciones adversas por inyección de MCR.
13.2.1. Tipos de reacciones adversas. Las diversas consecuencias clínicas no deseadas consecutivas a la
administración de MCR pueden ser clasificadas según sus mecanismos en:
Tóxicas: Se producen por acción de la estructura química del compuesto sobre células de los vasos
sanguíneos, proteínas circulantes y sistemas enzimáticos, provocando cambios hemodinámicos en dichos
órganos y estructuras. Si bien pueden ocurrir en todas las personas, resultan más frecuentes cuando
existen enfermedades asociadas que puedan predisponer al daño renal o cardíaco.
Tales reacciones están en relación con la cantidad de contraste inyectado y suelen ser reversibles, salvo
por daño grave en enfermedad preexistente. Las enfermedades asociadas con potencial afectación
renovascular son:
Se añade la deshidratación como condición clínica que predispone a daño renal. Por eso se recomienda
siempre que los pacientes estén bien hidratados, como una manera sencilla de evitar daño renal o
clínico.
Pseudoalérgicas o anafilactoideas: Son reacciones que ocurren en algunas personas por acción directa de
los MCR sobre células del organismo que almacenan mediadores químicos que, al liberarse, pueden
provocar manifestaciones de tipo alérgicas como urticaria, edema, asma, rinitis y shock.
La ausencia de esta IgE en los eventos anafilactoideos que provocan los MCR, hace imposible su
detección previa o anticipada, e invalida toda prueba o test de alergia basados en dichas metodologías.
13.2.2. Severidad de las reacciones adversas. Las reacciones adversas, según la magnitud de su
repercusión clínica pueden ser divididas en:
Leves Son las más frecuentes, con el 99% del total de las reacciones. Incluyen síntomas tales como
náuseas, calor generalizado y enrojecimiento de la cara. No necesitan tratamiento y ceden
espontáneamente en pocos minutos.
Moderadas Significan el 1% del total de las reacciones adversas. Se presentan como urticaria difusa,
edema, broncoespasmo leve y vómitos. Requieren tratamiento en la Sala de Rayos. La flebitis química,
común a cualquier inyección endovenosa, se considera en este grupo, pero es de aparición tardía.
Graves Se trata de urticaria generalizada, edema de laringe, hipotensión, broncoespasmo grave o shock.
Pueden aparecer en aproximadamente el 0,1% del total de las reacciones y necesitan internación.
Eventualmente pueden llevar a la muerte por insuficiencia cardiorrespiratoria o daño neurológico
irreversible por hipotensión e hipoxia.
13.2.3. Frecuencia de las reacciones adversas. Existe una gran diversidad en las publicaciones sobre la
incidencia de reacciones adversas
Reacciones leves: Generalmente en ellas no se mencionan las reacciones leves, que son muy comunes y
consideradas como “reacciones no deseadas esperadas”. Debe advertirse a los pacientes, aclarando que
pasan rápidamente y no requieren tratamiento. Las cifras publicadas varían entre el 20 y el 60% del total
de los pacientes que reciben inyección endovenosa.
Reacciones moderadas: En cuanto a las reacciones moderadas, el índice varía entre el 0,2 y el 0,6%.
Reacciones graves: Los decesos relatados en las grandes series publicadas por autores tales como
Shehadi, Fisher y Katayama varían entre 1 en 100.000 y 1 en 1.000.000.
A partir de 1985 aparecen en el mercado productos de menor osmolaridad que los conocidos hasta
entonces, que tienen entre 1.500 a 2.000 mOsm/l. La mayoría de ellos no disocian en iones y fueron
llamados “no iónicos”, aunque no todos los son. Su osmolaridad varía entre 600 y 800 mOsm/l. Los
nuevos MCR presentan una tasa menor de reacciones adversas moderadas, hasta la quinta parte para
algunos autores, aunque no existe evidencia que reduzcan las reacciones graves y fatales.
13.2.4. Precauciones previas. Aunque no es posible descartar o asegurar la probabilidad de que ocurra
una reacción adversa y aún una fatalidad, se recomienda una serie de medidas para brindar mayor
seguridad a los pacientes. Éstas son:
Identificación de grupos de riesgo. La identificación de aquellas personas que tienen un riesgo mayor de
probabilidad de ocurrencia de una reacción adversa cuando son sometidas a un estudio con MCR deberá
realizarse mediante un adecuado interrogatorio de sus antecedentes, prestando especial atención a
reacciones previas a medicamentos, dejando constancia de su resultado. En todos los casos, el paciente
deberá dar su consentimiento informado. Los grupos con riesgo incrementado de sufrir una reacción
adversa son:
1. Pacientes que tienen una historia previa de reacción adversa moderada o grave por MCR.
2. Pacientes con hiperreactividad bronquial o asma activa.
3. Pacientes que sufren otras enfermedades asociadas tales como diabetes, enfermedad cardíaca,
renal y situaciones clínicas particulares, como la hipertensión arterial tratada con
betabloqueantes.
4. Pacientes con antecedentes de manifestaciones atópicas y reacciones alérgicas a medicamentos,
alimentos o sustancias de contacto.
De acuerdo con estas características, los pacientes pueden ser agrupados según su riesgo potencial en:
13.2.5. Conducta médico-legal frente al uso de los MCR. Toda reacción adversa, a la vez que genera
angustia y preocupación tanto en quien lo sufre como en el que lo produce, conlleva la posibilidad de
una querella judicial (civil o penal). En ella, el profesional involucrado debe demostrar que en su accionar
no hubo error, desconocimiento o descuido; esto es, en lenguaje legal, que no hubo impericia,
imprudencia o negligencia. Esta demostración debe ser sencilla, si corresponde al accionar habitual del
médico, tanto en las etapas previas como posteriores al accidente, porque ha respetado el siguiente
decálogo: