Descripción: Proporciona al lector los conocimientos básicos sobre la recolección, medición, amplificación y filtrado de...
ALVARO TUCCI REALI
INSTRUMENTACIÓN BIOMÉDICA
Instrumentación Biomédica Alvaro Tucci Reali. ISBN: 978-1-4303-2625-0 Reservados todos los derechos. ©Álvaro Tucci Reali. 2007 Published by Lulu
A mi esposa. A mi hijo Ing. Paul E. Tucci K., M.Sc. por su valiosos aportes técnicos y por el esfuerzo que realizó para enseñarme los "trucos" de la PC. A mi hijo Dr. Kay A. Tucci K. por aportar acertadas sugerencias. A mi hija Dra. Sonia A. Tucci K. por su valiosa ayuda en aclarar algunos conceptos relacionados con la ciencia médica. A la Universidad de Los Andes. Alvaro Tucci
[email protected]
Instrumentación Biomédica
6
Alvaro Tucci Reali
Índice Pág.
Presentación Prefacio
13 15
Capítulo 1 INSTRUMENTACIÓN MÉDICA Desde el principio Los animales en la investigación médica Instrumentos médicos El tacto y la medida de temperatura El oído y el estetoscopio La vista, el microscopio, los rayos x y otros Las lupas y el microscopio Los rayos X Los Radioisótopos y la Medicina La fibra óptica Los ultrasonidos La tomografía axial computarizada La resonancia magnética nuclear El laboratorio clínico La instrumentación médica y la electrónica El electrocardiógrafo El electrobisturí La anestesia El láser El respirador artificial El desfibrilador El marcapasos El riñón artificial Otros desarrollos El computador
17 30 32 33 35 36 37 42 44 49 50 50 51 52 53 53 54 54 57 59 59 60 61 62 63
Capítulo 2 ORIGEN DE LOS BIOPOTENCIALES Introducción Naturaleza del impulso nervioso La membrana celular + + Efectos del transporte NA y K Movimiento de los iones Difusión por gradiente de concentración Interacción de las partículas cargadas Medida del potencial de membrana
67 69 74 76 77 77 80 83
7
Instrumentación Biomédica
Capítulo 3 SISTEMA NEUROMUSCULAR Introducción El sistema nervioso La neurona Las neuronas sensoriales Las neuronas motoras Las neuronas de asociación El sistema nervioso central El sistema periférico El sistema somático o voluntario El sistema autónomo o vegetativo La comunicación neuronal Los músculos La unión neuromuscular El movimiento de los vertebrados
85 87 91 93 94 95 95 97 100 100 102 104 105 107
Capítulo 4 SISTEMA CIRCULATORIO Introducción Las arterias Las venas Los capilares El corazón Las células marcapasos Actividad eléctrica del corazón El corazón como bomba Secuencia de la circulación
109 109 111 111 112 115 116 118 119
Capítulo 5 RECOLECCIÓN DE SEÑALES BIOELÉCTRICAS Las primeras mediciones Mediciones biológicas Los transductores Los electrodos El potencial medio de celda (EC) Polarización de los electrodos Electrodos no polarizables Artefactos Tipos de electrodos Electrodos superficiales Electrodos de aguja Microelectrodos
8
123 125 126 128 130 133 134 134 135 135 142 143
Alvaro Tucci Reali
Electrodos para electroestimulación Sugerencias en el manejo de electrodos
145 146
Capítulo 6 AMPLIFICADORES DE BIOPOTENCIALES Y FILTROS Amplificadores de biopotenciales Amplificadores de biopotenciales de alta impedancia de entrada y control de ganancia Amplificadores de potencia Amplificadores de potencia tipo push pull Características de los amplificadores Impedancia de entrada Ganancia de potencia Eficiencia Máxima transferencia de potencia Fuentes de interferencia Rechazo en modo común Localización de fallas Precauciones en el manejo de los amplificadores Filtros Clasificación de los filtros Respuesta a frecuencias Características de los filtros Filtros pasivos y activos Filtros LC Filtros activos Orden de los filtros Filtros rechaza banda
149 153 158 159 163 163 164 165 166 170 172 174 175 176 176 177 178 179 179 180 180 185
Capítulo 7 EL ELECTROCARDIOGRAMA Introducción Origen de el electrocardiograma Derivaciones electrocardiográficas Derivaciones estándar Derivaciones aumentadas Derivaciones precordiales Reducción de voltaje en modo común Algunas anomalías
189 190 194 194 197 199 201 201
Capítulo 8 EL ELECTROCARDIÓGRAFO El electrocardiógrafo Los electrodos
203 205
9
Instrumentación Biomédica
Circuito de protección El selector de derivaciones El calibrador El amplificador diferencial El control de ganancia El control de posición de la plumilla El amplificador de potencia La unidad de registro La fuente de poder aislada El marcador de eventos La fuente de poder Electrocardiógrafos especiales El ECG fetal El monitor cardíaco El ECG bajo esfuerzo El Holter Averías frecuentes Interferencia de la linea Ruido generado por el lazo de tierra
206 208 209 210 210 210 211 211 211 212 212 213 213 215 218 218 219 223 225
Capítulo 9 ULTRASONOGRAFÍA Los ultrasonidos Revisión histórica Propagación de las ondas sonoras Ondas longitudinales Ondas transversales Características físicas Ultrasonidos en los tejidos Velocidad de propagación Impedancia acústica Atenuación Espesor medio Efectos de los ultrasonidos Generación de ultrasonidos Clasificación de las técnicas de exploración Exploración en Modo A Instrumentos que operan en Modo A Exploración en Modo B Instrumentos que operan en Modo B Exploración en tiempo real Instrumentos que operan en modo real Resolución Presentación de la imagen Velocidad El Efecto Doppler Medida de la velocidad del flujo sanguíneo
10
229 230 234 235 236 237 243 243 244 245 246 247 248 250 251 252 255 258 260 262 265 266 267 268 271
Alvaro Tucci Reali Sistema de compensación tiempo-ganancia Convertidores de barrido y procesamiento de imágenes Convertidores de barrido digitales Conversión analógico/digital Pre-procesamiento Almacenamiento Post-procesamiento Conversión digital/analógica Conversión en tiempo real Controles de los convertidores Convertidores analógicos Aplicaciones clínicas / Ecoencefalografía Oftalmología Cefalometría / Ecocardiografía Onda de choque, litiasis y ESWT
274 275 276 279 280 280 281 283 283 283 284 285 286 287 289
Capítulo 10 UNIDADES ELECTROQUIRÚRGICAS Introducción La electrocirugía El electrobisturí básico Circuito equivalente El electrodo activo Monitoreo del electrodo activo El electrodo de retorno Monitoreo del electrodo de retorno Diagrama en bloques Diagrama de las unidades Spark gap La unidad de estado sólido El amplificador de potencia Consideraciones operacionales El medidor de potencia Voltaje de operación Frecuencia de operación / Forma de onda Electrocirugía monopolar y bipolar Efectos de la radio frecuencia
291 293 294 296 297 298 299 300 300 301 301 304 307 312 312 313 314 314 315
Capítulo 11 EQUIPOS DE CIRUGÍA LASER Dispositivos máser y láser Fuentes atómicas de luz Principio de funcionamiento del láser Emisión por estimulación Estructura del láser Propiedades de la luz láser
317 321 322 323 323 324
11
Instrumentación Biomédica
Dispositivos quirúrgicos láser El láser de co2 El láser de argón El láser de cristal de estado sólido Medidas de seguridad
326 327 328 329 330
Apéndice A SEGURIDAD ELÉCTRICA HOSPITALARIA Introducción Efectos de la corriente eléctrica Macroshock Microshock Bus de alimentación El sistema de tierra Tierra en áreas de cuidado crítico Corrientes de fuga Algunas normas de seguridad Técnicas de protección Interrupción de la energía eléctrica Doble aislamiento Interrupción por fallas en el sistema de tierra El transformador de aislamiento Aislamiento óptico Alimentación con pilas Medida de las corrientes de fuga Verificación del sistema eléctrico Los tomacorrientes Programa de seguridad
331 332 333 337 342 343 345 346 347 349 349 350 350 352 353 354 354 357 357 360
Apéndice B TÉRMINOS MÉDICOS Prefijos comunes Sufijos comunes Términos posicionales y direccionales División anatómica posterior Términos de anatomía general Cavidad abdominal Términos de uso general Términos del sistema circulatorio Teminos del sistema respiratorio Términos del sistema nervioso BIBLIOGRAFÍA
12
361 364 365 366 366 366 367 368 370 372 375
Alvaro Tucci Reali
PRESENTACIÓN Syed M. Wasim Ph D Profesor Titular de Física Fundador y Director del Centro deEstudiosde Semiconductores de la Universidad de Los Andes.
En el último siglo, especialmente en las últimas décadas, la ciencia médica se ha vuelto altamente sofisticada y fuertemente dependiente de los equipos electrónicos. Debido a ellos, la profesión médica ofrece un buen número de especialidades, que en su constitución, ha tenido influencia relevante o han sido consecuencia directa de desarrollos tecnológicos. Las técnicas exploratorias, por ejemplo, representadas por instrumentos que generan imagenes, han abierto comino a especialidades como la cardiología, la oftalmología o la medicina nuclear. El empleo de estos equipos requiere de ciertos conocimientos básicos, conceptos físicos y principios de funcionamiento, que el médico debería tener para operar eficientemente tan complejos instrumentos. En forma similar, los ingenieros cuya actividad está relacionada con la instrumentación biomédica deberían tener un conocimiento adecuado de las ciencias biológicas relacionadas con la anatomía humana y la fisiología. Les ayudaría en el diseño y especialmente en el mantenimiento de los costosos equipos médicos, tarea primordial en los países en desarrollo. Este libro titulado "Instrumentación Biomédica", cuyo autor es el Ing. Alvaro Tucci, llena las necesidades básicas, cubre y tiende puentes para que médicos e ingenieros puedan familiarizarse con la terminología y el funcionamiento de instrumentos electrónicos propios de la especialidad. Durante treinta años, como director del Laboratorio de Instrumentación Científica de la Facultad de Medicina de la Universidad 13
Instrumentación Biomédica
de Los Andes, diseñó varias decenas de instrumentos, reparó y dio mantenimiento a muchos centenares más. Tengo la certeza que estudiantes de ingeniería y medicina encontrarán en este libro las bases para iniciarse en la bioinstrumentación, materia que seguramente será incluida en los próximos años en el pensum regular, tal como la ciencia computacional lo hizo en todos los campos del saber.
14
Alvaro Tucci Reali
PREFACIO
El aumento de la población mundial y las crecientes necesidades sanitarias, en conjunto con los expectaculares avances de la moderna tecnología, han impulsado a la ciencia biológica y a la ingeniería a colaborar estrechamente a fin de producir nuevos y mejores instrumentos. La bioelectrónica, la bioinstrumentación o la biométrica son ramas de la ingeniería orientadas a los seres vivos. Son interdisciplinas que aplican los conocimientos propios de la ingeniería y de la biología en beneficio del hombre. En el punto de encuentro, ingenieros, unidos a médicos y biólogos desarrollaron o mejoraron los sistemas para permitir hacer tal o cual medición. Los médicos, en su contacto diario con los pacientes, plantean las necesidades instrumentales destinadas a mejorar el servicio sanitario y los ingenieros diseñan y construyen nuevos instrumentos. Este libro está dirigido a facilitar la convergencia entre ambas disciplinas. Al autor le hubiera gustado disponer de un texto semejante cuando, como ingeniero en electrónica, tuvo que "enfrentarse" con los instrumentos y la terminología médica. Esta obra consta de diez capítulos; en el primero se desarrolla una sucinta reseña histórica de algunos acontecimientos médico-científicos que nos llevaron al actual desarrollo, haciendo especial énfasis en la instrumentación y se resaltan algunos datos históricos importantes producidos en este interesante campo. Los cuatro capítulos siguientes tienden el puente. En ellos se repasan ciertos aspectos de la biología que ayudan al ingeniero a entender un poco más el vocabulario médico.
15
Instrumentación Biomédica
Los cinco capítulos restantes están dedicados a describir instrumentos específicos; se expone su funcionamiento de la forma más simple posible, sin recurrir a conceptos matemáticos avanzados o al análisis detallado de los circuitos electrónicos. Los instrumentos se describen por medio de bloques funcionales; excepcionalmente se analizan los circuitos y sistemas que componen los bloques, de manera que puedan ser interpretados según la disciplina a la cual pertenezca el lector. El libro incluye dos apéndices; uno relacionado con la seguridad eléctrica hospitalaria y en el otro, se recogen algunos términos médicos.
16
Alvaro Tucci R.
CAPÍTULO 1
Instrumentación
Médica
La fascinante historia de la medicina y el desarrollo de la instrumentación médica, relata el esfuerzo sostenido, durante milenios por muchas generaciones de investigadores y estudiosos de la ciencia y la técnica, para afortunadamente conducirnos a su estado actual. DESDE EL PRINCIPIO Hasta épocas muy recientes el hombre conocía muy poco de su organismo. Hace apenas 300 años aprendió algo acerca de la circulación de la sangre. Sólo a partir de la segunda mitad del siglo XX ha conseguido descubrir la función de muchos de sus órganos. El hombre prehistórico, al trocear los animales para comérselos, tuvo conocimiento de la existencia de ciertos órganos muy notorios, tales como el cerebro, el hígado, los pulmones, el corazón, los intestinos y los riñones. Papiros egipcios del 2000 a. de J.C., que tratan sobre las técnicas quirúrgicas, ya muestran alguna familiarización con las estructuras del organismo humano. Los embalsamadores conocían los órganos y sus funciones, los extraían del cuerpo para embalsamarlo y prepararlo para la vida futura.
17
Instrumentación Biomédica / Instrumentación Médica Los antiguos griegos, disecaban cadáveres humanos y de animales para aprender anatomía (Palabra de origen griego que significa seccionar). Se consiguieron escritos de Alcmaeón de Cretón, de unos 500 años a. de J.C. donde se trataban asuntos tan específicos como el nervio óptico y la trompa de Eustaquio. Dos siglos más tarde, en Alejandría, para entonces centro del mundo científico, se inició una escuela de anatomía conducida por Herófilo y su discípulo Erasístrato, donde se investigaron las partes del cerebro, distinguiéndose el cerebelo, los nervios y los vasos sanguíneos. A pesar de estos descubrimientos, cuando el hombre enfermaba decían que estaba poseído por espíritus malignos. La idea se reforzaba si el individuo decía cosas incoherentes o actuaba como nunca lo había hecho. Sanaba en el momento, que por sí solo o con la ayuda del brujo, lograba expulsar los malos espíritus. Esta creencia subsiste hasta nuestros días, y podemos observarla en gran parte de nuestras civilizaciones. Muchos hechizos y encantamientos están basados en una vigorosa fe de los poderes mágicos de la palabra. El brujo, actúa cuando emplea la palabra "abracadabra", que es un credo hebreo muy antiguo y arraigado. Los médicos del siglo II, ordenaban a sus pacientes que llevasen consigo una hoja escrita y doblada. La escritura formaba con sus letras un triángulo; tal práctica era usada como panacea contra todo tipo de enfermedad, y todavía en la Edad Media se usaba como protección contra la peste. Así mismo, en numerosos países africanos e islámicos, las personas llevan unas bolsitas de piel conteniendo versículos del Corán como amuleto protector. La cirugía se practicaba para el tratamiento de heridas y lesiones. En los casos de locura se hacía la trepanación con instrumentos de piedra o metálicos, para que los malos espíritus salieran por el agujero efectuado en el cráneo. Los escritos griegos, romanos y árabes, desde el 400 a. de J.C. hasta la edad media, contienen descripciones de una serie de trabajos clínicos, como la inserción de una sonda hasta la vejiga urinaria, tratamiento de hernias, cataratas, cirugía plástica y cálculos en la vejiga. Para tratar estas y otras afecciones se disponía de una gran variedad de instrumentos. El dios de la medicina griego se llamaba Ascelpio, y sus sacerdotes
18
Alvaro Tucci R. eran los médicos. El médico de más prestigio hacia el año 400 a. de J. C. era Hipócrates, quien residía en el templo de Cos, en una isla en el mar Egeo. Hipócrates, tenía una manera de ver las cosas un poco diferente a sus contemporáneos; creía que la enfermedad residía en el paciente, y en consecuencia había que tratarlo sin preocuparse por los malos espíritus que pudieran albergarse en él. Hipócrates, fundó su escuela que sobrevivió por siglos, y muchos de sus rasgos perduran todavía. En ella, los médicos tenían que utilizar los sentidos y desarrollar grandes dotes de observación; se atenían al sentido común para detener hemorragias, limpiaban y trataban heridas, reducir fracturas y sobre todo prescindían de ritos mágicos. Sostenían que cada enfermedad tiene su causa natural, siendo competencia del médico descubrirla, y una vez conocida podía hallarse el remedio. Aconsejaba a los cirujanos trabajar con buena iluminación, mantener a los pacientes en posturas cómodas durante las operaciones y que empleasen los instrumentos idóneos, para que la intervención se llevase a cabo de una manera elegante. Él y sus discípulos estaban convencidos de la importancia de la higiene del paciente y del propio médico; eran partidarios del aire puro y fresco, entorno agradable y dieta equilibrada, basada en alimentos simples. Los escritos de la escuela hipocrática están reunidos, sin distinción de autor, en el Corpus Hippocraticum. El más conocido de ellos es quizás el juramento que tenían que prestar los médicos de su escuela para ingresar a la profesión. Los principios hipocráticos se mantuvieron casi intactos hasta la caída del Imperio Romano, a finales del siglo IV dC. La anatomía alcanzó su nivel más alto con Claudio Galeno (131200), médico de origen griego nacido en Pérgamo, quien trabajaba en Roma. Produjo algunas teorías relacionadas con el funcionamiento del cuerpo humano, que le fueron transmitidas por los árabes y constituyeron la base de toda la medicina medieval. Esas teorías, fueron aceptadas sin ningún género de dudas durante los siguientes quince siglos. Como es de suponer, contenían curiosos errores que no pudieron ser subsanados, puesto que inhibiciones de diversa índole impedían la disección del cuerpo humano. Los primeros escritores cristianos acusaban a los griegos paganos por haber realizado estas prácticas.
19
Instrumentación Biomédica / Instrumentación Médica La desaprobación de la Iglesia puso virtualmente punto final a los estudios anatómicos humanos durante la Edad Media. En esa época, el cuerpo humano y sus funciones eran una incógnita; los cadáveres eran sagrados y su disección estaba prohibida. Durante el período de ignorancia que siguió a la caída del Imperio Romano hasta finales de la Edad Media, muchos de esos conocimientos médicos fueron olvidados y otros se perdieron. La higiene pública tan apreciada por los romanos fue descuidada, e incluso durante el Renacimiento la medicina progresó muy poco. La sociedad medieval calificaba a los locos de pecadores, brujos poseídos por los malos espíritus y merecedores de la hoguera. La principal preocupación filosófica en la Edad Media era la relación del ser humano con Dios, es decir, la teología. Sin embargo, a partir del siglo XIII se inició un movimiento humanista que acabó por llamarse Renacimiento, el renacimiento del humanismo griego, interrumpido por los siglos de la oscura Edad Media. El inicio del humanismo indujo a los eruditos a interesarse por las ciencias. En las escuelas de medicina de Italia se permitía diseccionar los cadáveres. El anatomista más reconocido de la época fue Mondino de Luzzi, quien enseñaba en la escuela de Bolonia. Mondino, fuertemente influenciado por anteriores autores árabes y griegos, a quienes no se atrevía a contradecir aun cuando la evidencia bajo sus ojos mostrara lo contrario, publicó en 1316 el primer libro dedicado a la anatomía. Dicho libro fue considerado un clásico durante los siguientes dos siglos y medio. Leonardo da Vinci, en el siglo XV efectuó algunas disecciones, donde reveló nuevos aspectos anatómicos magistralmente representados por el genio de este autor. Mostró la doble curvatura de la columna vertebral y los senos de los huesos de la cara y la frente. Leonardo, a pesar de su genialidad científica y artística, tuvo poca influencia sobre el pensamiento científico de la época. No publicó ninguno de sus trabajos, más bien los ocultó en libros escritos en clave. Fueron las generaciones posteriores quienes publicaron sus hallazgos donde se evidencian sus maravillosos logros científicos. Los primeros diseños anatómicos contentivos de cierta exactitud aparecieron publicados por el anatomista flamenco Andreas Vesalio (1514-1564), célebre profesor de anatomía de Padua. Siendo estudiante en París, para obtener sus datos hubo de robar cadáveres
20
Alvaro Tucci R. de criminales ajusticiados. Fue acusado de haber disecado el cuerpo de un hombre honrado todavía vivo, lo que le valió una condena de la Inquisición, consistente en la peregrinación expiatoria a Tierra Santa. A diferencia de otros colegas de ese periodo, Vesalio deseaba comprobar con sus propios ojos aquellas afirmaciones hechas por los griegos con las que no estaba de acuerdo. Reunió los resultados de sus investigaciones en un libro titulado De Corporis Humani Fabrica (De la estructura del cuerpo humano). En él, se corrigieron más de doscientos errores de Galeno. El libro, se valía además las nuevas técnicas de impresión para reproducir las cuidadosas ilustraciones anatómicas dibujadas por el famoso artista flamenco Jan Stephan van Calcar, quien había sido alumno de Tiziano. Los dibujos de anatomía humana de su obra, son tan maravillosos y exactos que todavía se publican y son considerados clásicos de la especialidad. La obra de Vesalio se publicó en 1543, el mismo año que Nicolás Copérnico formulara la Teoría heliocéntrica del Sistema Solar. Tal coincidencia, refuerza la idea de que esta fecha marca el comienzo de la revolución científica. Los descubrimientos de Vesalio llegaron a manos del experimentador inglés William Harvey (1578-1657), quien fue médico de Carlos I de Inglaterra. Harvey, aplicó el método experimental al estudio de los seres vivos y llegó a la conclusión de que en la naturaleza no existe la generación espontánea de la vida, enunciada en su aforismo Omne vivum ex ovo (Todo lo vivo procede de un huevo). Se interesó particularmente por el líquido orgánico fundamental; la sangre, y se preguntó qué hacía allí. Se sabía que existían dos clases de vasos sanguíneos: las venas y las arterias. Galeno, había demostrado que en vida estos vasos transportan sangre. Sabía, además, que el corazón impulsaba la sangre, ya que cuando se cortaba una arteria ésta brotaba a un ritmo sincronizado con sus latidos. Propuso que la sangre seguía el curso de ida y vuelta por los vasos. Esta teoría, lo obligó a explicar porqué los movimientos de ida y retorno de la sangre no eran bloqueados por la “pared” existente entre las dos mitades del corazón. Lo explicó afirmando que era porosa; poseía pequeños orificios invisibles que permitían el paso de la sangre.
21
Instrumentación Biomédica / Instrumentación Médica Harvey inició un estudio más detallado del corazón. Descubrió que cada mitad estaba dividida en dos cámaras separadas por una válvula unidireccional. La sangre que entraba en una aurícula podía ser bombeada a su ventrículo y desde allí a los vasos que partían de él, pero en ningún caso podía circular en sentido contrario. Otro dato que contribuía a confirmar la hipótesis, es que en las venas de mayor tamaño existen unas válvulas que permiten el paso de la sangre en un solo sentido. Este hecho era conocido por Harvey, pues había sido señalado por su maestro Hieronymus Fabrizzi, mejor conocido como Fabricius. Posteriormente, efectuó algunos experimentos sencillos y muy claros, que le permitieron determinar el sentido del flujo en los vasos. Ató la arteria de un animal vivo y observó que de un lado del bloqueo la presión ascendía dentro del vaso. Luego hizo lo mismo con las venas. Descubrió que las arterias siempre se hinchaban entre el corazón y la atadura, con lo cual concluyó que la sangre fluye del corazón hacia la periferia. Harvey, aplicó por primera vez las matemáticas a un problema fisiológico; efectuó mediciones cuantitativas del flujo sanguíneo que lo condujeron a resultados acertados. Sus mediciones, le demostraron que el corazón bombeaba la sangre con un caudal tal que, en 20 minutos, su volumen es igual al total de la sangre contenida en el organismo. No parecía razonable suponer que tal cantidad de sangre fuese fabricada y consumida en tan corto tiempo, por lo que concluyó, sin ningún género de duda, que debía circular en circuito cerrado. En 1628, publicó sus resultados en el libro titulado: De motus cardis (relativo al movimiento del corazón) y enunció sus leyes en la obra: Ejercitación anatómica sobre el movimiento del corazón y la sangre en los animales, desde entonces consideradas clásicas de la ciencia. A pesar de los grandes descubrimientos de la época, el progreso de la medicina fue muy lento. Hasta el siglo XIX no se pudieron hallar remedios adecuados para ciertas enfermedades, que durante milenios habían constituido un auténtico azote para la humanidad. La medicina tuvo que luchar duramente durante muchos siglos contra la creencia común del demonio, de los malos espíritus y contra el uso de ritos y conjuros mágicos. A pesar de que se ignoraba cómo se declaraba una enfermedad, exceptuado el castigo divino o la posesión demoníaca, se trataba de evitar a quienes estaban aquejados de determinadas dolencias,
22
Alvaro Tucci R. particularmente las “repulsivas” o fatales. Así, la lepra requería de aislamiento y los leprosos eran apartados de la sociedad. Cuando se declaró la Peste Negra, las personas se apartaban instintivamente de los afectados, los abandonaban y dejaban los muertos insepultos. En 1403, en la ciudad de Venecia, sus sabios gobernantes se dieron cuenta de que los brotes sucesivos de Peste Negra podían evitarse si no se permitía que los extranjeros entrasen a la ciudad, a menos que aguardasen cierto tiempo. Si durante la espera no desarrollaban la enfermedad, se les consideraba libres de ella y se autorizaba su entrada. El tiempo de espera fue de cuarenta días, de allí el nombre de cuarentena. En una sociedad que no conocía otro medio de combatir las enfermedades, la cuarentena era mejor que no hacer nada y seguramente de esta forma se salvaron muchas vidas. La cuarentena fue la primera medida de higiene pública, adoptada con el fin de luchar contra las enfermedades. Durante los dos milenios que siguieron a la escuela hipocrática, los médicos, a fin de obtener la información que les permitiera diagnosticar, utilizaban únicamente sus cinco sentidos. El verdadero progreso de la medicina se inició al principio de la Edad Contemporánea, a finales del siglo XVIII, con una serie espectacular de descubrimientos. Durante dicho siglo, una terrible epidemia de viruela abatía Europa, dejando desfigurados a quienes no morían. Se estima que entre los años 1694 y 1794 se produjo la muerte de 60 millones de personas, es decir, el 60% de la población europea. Desde siglos, se sabía que era posible adquirir la inmunidad a una enfermedad, contrayéndola. En el Medio y Lejano Oriente, era práctica común que el “médico” inoculase la viruela con tejidos tomados de las llagas de un enfermo. Sin embargo, era cuestión de suerte que la persona inoculada sufriera la forma benigna de viruela, y adquiriera así inmunidad, o experimentara un ataque grave, tal vez fatal. Se trataba de una forma de curar sumamente peligrosa. A pesar del indudable riesgo y de los numerosos casos fatales, los relatos de frecuentes curaciones no tardaron en difundirse por toda Europa. Muchos enfermos, al encontrarse peligrosamente afectados, preferían correr el riesgo. Por lo tanto, durante cierta época, el “injerto” de viruela y otros tratamientos que ofrecían alguna esperanza contra la enfermedad tuvieron gran aceptación.
23
Instrumentación Biomédica / Instrumentación Médica Fue una suerte que hacia el final del siglo XVIII, un médico rural inglés, Edward Jenner (1749-1823), quien vivía en Gloucestershire, descubriera otro sistema de protección contra la viruela. Se había fijado en un detalle muy curioso; las mujeres que ordeñaban las vacas se infectaban sólo del tipo de viruela benigna, llamada viruela de vaca, que producía pústulas semejantes. Estas mujeres raramente se infectaban del tipo virulento y peligroso que le desfiguraba la cara o las mataba. Ante tal hecho, Jenner se preguntó si la viruela de vaca actuaba como agente protector contra la enfermedad más virulenta. Tal pregunta surgió en su mente a raíz de una conversación que tuvo con una joven campesina en busca de consejo médico, a quien Jenner le habló del riesgo de contraer la viruela. ¡Oh no! -argumentó la joven-, no padeceré nunca de esa enfermedad, pues he sido “vacunada”. La joven explicó que era ordeñadora y que, al igual que sus compañeras, había sufrido de erupción en las manos y brazos debido al contacto con las ubres inflamadas de las vacas. Añadió además, que los campesinos aseguraban que todo aquel que contraía esa “vacuna” ya no volvería a padecer de viruela. Durante muchos años Jenner realizó laboriosas observaciones y comprobó que esta infección, relativamente inofensiva, proporcionaba inmunidad a brotes de viruela mucho más graves. En mayo de 1796 se presentó la oportunidad de llevar a la práctica su descubrimiento. Acudió a su consulta una joven lechera de nombre Sara Nelmes con síntomas de viruela benigna. Jenner, tomó pus de las pústulas de la lechera y lo depositó en dos cortes que hizo en el brazo de un niño de ocho años de nombre James Phipps. Dos meses después repitió el procedimiento, y posteriormente comprobó que el niño nunca se enfermó de viruelas malignas. Fue así como surgió el fundamento de la ciencia inmunológica. Hoy se sabe que ambas enfermedades están estrechamente relacionadas; la vacuna estimula la producción de anticuerpos en el organismo, haciéndolo inmune a la enfermedad. La falta de comprensión del proceso de inmunización es lo que intrigaba a Jenner, por tal motivo retardó la publicación de sus descubrimientos 25 años, hasta 1798. Jenner, con su hallazgo, había efectuado un procedimiento que se llamó vacunación, debido a su etimología: vaca, del latín vacca. Los médicos de la época adoptaron ese nombre en forma despectiva.
24
Alvaro Tucci R. Argumentaban jocosamente que las personas sometidas a ese procedimiento corrían el riesgo de volverse vacas. En el momento de su muerte, ocurrida en 1823, su vacuna era ya famosa en el mundo entero. Con ella, se inicia la lucha contra las enfermedades víricas como la fiebre amarilla, la viruela y la poliomielitis, las cuales habían producido millones de muertes durante siglos. Jenner, como muchos otros pioneros, fue objeto de numerosas críticas y burlas despiadadas. Algunos médicos, particularmente franceses, lo acusaron de propiciar la aparición de nuevas enfermedades, que hasta entonces la humanidad no había padecido. Hubo informes "fidedignos" donde se afirmaba que un joven, después de haber sido vacunado, empezaba a andar a gatas, mugía y movía la cabeza como un toro. Los caricaturistas de la época tuvieron excelente material contra la vacunación. Se hicieron poesías y caricaturas ridiculizando el procedimiento; personas con cuernos o rabo incipientes o pelos por todo el cuerpo. En ocasiones, no sólo los médicos sino también la Iglesia estaba en contra de tal práctica, pues algunos clérigos afirmaban que era pecaminoso decidir quién debía sufrir esta enfermedad y quién no. Argumentaban que sólo Dios poseía esta prerrogativa. Finalmente, el rey Jorge III convocó la asamblea de la Real Academia de Médicos con el propósito de investigar lo referente a la vacunación. El informe fue tan favorable a Jenner que se acordó otorgarle un premio por 10.000 libras. Los trabajos de Jenner y el reconocimiento que le diera la prestigiosa Real Academia de Médicos, alentaron a los mejores científicos del siglo XIX, entre ellos el francés Louis Pasteur y el alemán Robert Koch, para que realizaren numerosas y prolíficas investigaciones. Mientras Pasteur se hallaba investigando las bacterias, la vacuna ya era práctica médica generalizada. Sin embargo, el científico observaba que la mayoría de los pacientes que sobrevivían a las operaciones morían poco después de septicemia. Esas observaciones condujeron a Pasteur, en 1860, a confirmar su teoría de que la mayor parte de las enfermedades eran causadas por diminutos organismos denominados bacterias. Koch, llegó incluso a aislar e identificar los microorganismos que provocaban varias enfermedades, entre ellas la tuberculosis y el cólera. Nadie, hasta esa fecha, había comprendido cómo se producían
25
Instrumentación Biomédica / Instrumentación Médica las infecciones. Estos científicos abrieron el camino a los modernos métodos de protección contra tales enfermedades. Hasta finales del siglo XIX, un hospital era un lugar que infundía pavor; no solamente se le temía al bisturí del cirujano, sino también la posible muerte después de la operación. Los índices de mortalidad debidos a las operaciones y sus consecuencias eran estremecedores. ¿Porqué moría la gente? La respuesta se resume en una palabra: infección. Para esa época, el conocimiento de la existencia de gérmenes estaba limitado a unos pocos; Pasteur hablaba de ellos en París, pero por no ser médico, sus argumentos infundían poca credibilidad en el medio, y la inmensa mayoría de los científicos no habían oído ni siquiera hablar de él. En los hospitales, los médicos y enfermeras actuaban como agentes transmisores de gérmenes. Era practica común que tocaran con sus manos varios enfermos sin tomar las más elementales precauciones, como las de lavarse las manos. Los vendajes de heridas infectadas se intercambiaban entre los distintos pacientes, se empleaban las manos y vendajes contaminados para limpiar las heridas. Los quirófanos eran habitaciones que tenían una litera en el centro donde se acostaba el paciente. Había polvo y suciedad en el suelo, la limpieza normalmente se efectuaba una vez por semana. Las ventanas estaban abiertas en verano y cerradas en invierno. Las personas entraban y salían de cualquier manera y a su antojo. Nadie llevaba bata especial ni equipo quirúrgico. Tanto el cirujano como sus ayudantes operaban con traje normal. Tal vez había una palangana para lavarse las manos. Los instrumentos quirúrgicos estaban sucios o se habían usado ese mismo día en otras operaciones, algunas de las ellas en heridas infectadas. Terminada la operación, el paciente era conducido de nuevo a la sala y allí yacía entre otros muchos enfermos con diversas afecciones. Sus vendajes eran cambiados por enfermeras que iban de un paciente a otro propagando las infecciones por toda la sala. En tales condiciones, era altamente probable que unos días después tuviese temperatura alta, se inflamase la herida y se formase pus. La gangrena lo asechaba, con el consiguiente peligro de perder algún miembro o la vida. Tal era la situación de los hospitales europeos a finales del siglo XIX, cuando un médico cirujano de Glasgow, llamado Joseph Lister
26
Alvaro Tucci R. (1827 - 1912), reparó en una frase de Pasteur que decía: "Lo más importante y prometedor de mis estudios es algo muy sencillo: La putrefacción es producida por fermentos vivos". Lo que hoy llamamos bacterias. Lister estaba convencido que los fermentos vivos eran los causantes de la infección. Comenzó a idear métodos para impedir la gangrena e intoxicación de la sangre, secuela frecuente en las intervenciones quirúrgicas por contaminación de las heridas. Empezó entonces a buscar una sustancia que fuera capaz de eliminar dichos "fermentos". Por casualidad se enteró de que en Carlisle, pequeña ciudad situada al norte de Inglaterra, se desinfectaban las cloacas con ácido carbólico, llamado también fenol. En 1865, empleó dicho ácido en un niño de once años, que tenía una pierna rota a consecuencia de haber sido atropellado por la pesada rueda de una carreta. Una fractura abierta como esa siempre solía acabar con la vida del paciente. Lister lavó la herida con ácido carbólico diluido, la tapó con gasa empapada con ese mismo ácido y la cubrió con una lámina muy delgada de estaño que impedía la evaporación. Esperó tres días por señales de fiebre, pero ésta no se presentó. Al cuarto día quitó las vendas y notó que el repelente olor a putrefacción no existía. Había evitado la temible septicemia; había nacido la asepsia. A raíz de esta experiencia, Lister se convirtió en gran defensor de la limpieza de los instrumentos quirúrgicos y especialmente las manos del cirujano. Convenció a sus colegas escoceses de la eficacia de su método. Así, Lister, que al igual que otros cirujanos operaba con levita, insistió en el uso de desinfectantes y en hervir todo lo hervible. Muchos años antes, incluso antes de Pasteur, otra persona había sustentado ideas parecidas a las de Lister; era el obstetra Húngaro Ignaz Semmelweis (1818-1865). Semmelweis observó que el índice de mortalidad por infección en las salas de maternidad, donde los médicos ayudaban en los partos, era tres veces más elevado que cuando el parto era auxiliado por comadronas. Sospechó que los médicos y estudiantes de medicina podían “llevar consigo” alguna clase de contagio provenientes de las salas de operaciones y autopsia. Para evitar la transmisión de la enfermedades, insistió que se adoptaran estrictas medidas de higiene en todas las salas de parto que estaban a su cargo. Pronto su experimento demostró ser efectivo, ya que el índice de mortalidad descendió vertiginosamente. Sin embargo, esta experiencia pasó casi
27
Instrumentación Biomédica / Instrumentación Médica desapercibida, nadie supo apreciarla hasta treinta años más tarde cuando Pasteur la confirmó. Es indudable el mérito que tuvo Lister en el desarrollo de la cirugía antiséptica, entendiéndose ésta como la destrucción o el impedimento de la multiplicación de los microbios, especialmente los patógenos. En ella, se trata de combatir los gérmenes, pero no de excluirlos de la zona operatoria. Por tal motivo, mientras operaba, un aparato esparcía constantemente una especie de llovizna en la zona operatoria, sobre el cirujano y sus ayudantes. Después de la operación, la zona era tratada con el mismo desinfectante. Gracias a la perseverancia y reputaciónde este escocés, su método se extendió por toda Inglaterra. Fue nombrado profesor de cirugía del prestigioso hospital King’s College de Londres, de donde la antisepsia se extendió por todo el mundo. Lentamente fue reemplazada por la asepsia, es decir; ausencia de infección o de agentes capaces de producirla. Otro aporte importante lo hizo el cirujano americano William Halstead, quien en 1896 introdujo los guantes de goma, no por motivos médicos, sino para resguardar las delicadas manos de una bella enfermera con la cual se casó posteriormente. Algunos años después se introdujo el uso de la mascarilla, la cual evitaba que los gérmenes contenidos en el aliento contaminasen al paciente. La asepsia, o eliminación de los gérmenes mediante la esterilización de todos los objetos utilizados en las operaciones y en los quirófanos, fue introducida años después por el cirujano berlinés Ernst von Bergmann. Este cirujano, utilizaba el vapor de agua para esterilizar las batas, toallas e instrumentos que empleaba en las operaciones. Actualmente, el esterilizador es un instrumento corriente en todo lugar donde se practica la cirugía. Con el tiempo, se desarrollaron sistemas más eficaces de esterilización por calor, entre los cuales se encuentra la autoclave o el horno de aire caliente, donde la temperatura se eleva hasta 160 ºC. Hoy día se conocen muchas clases de bacterias; se han identificado unas 2500 especies diferentes, algunas desempeñan un papel esencial en la fertilización de la tierra, otras, que viven en los intestinos del hombre y de los animales, ayudan a la digestión. La industria las utiliza, entre otras cosas, para la producción de quesos, vinagre y tratamiento de las aguas.
28
Alvaro Tucci R. Aunque muchas bacterias son útiles, otras son las responsables de producir enfermedades. Las bacterias que provocan enfermedades se llama patógenas. Estas bacterias, son parásitos altamente especializados que invaden el cuerpo humano y se reproducen en sus tejidos y líquidos. Los lesionan con las sustancias tóxicas que producen; las toxinas. Enfermedades como la tuberculosis, la lepra, la sífilis, la gonorrea, el tétano, el botulismo, la disentería, la difteria, son causadas por bacterias. En circunstancias normales, el cuerpo humano posee defensas contra las bacterias, virus y hongos patógenos. Cuando agentes nocivos extraños penetran en la sangre, el organismo produce anticuerpos para combatirlos. Si el afectado sobrevive a la infección, los anticuerpos que quedan en el organismo lo protegen contra otros ataques de la misma enfermedad. Para prevenir las enfermedades bacteriológicas y micóticas, la investigación médica ha desarrollado la técnica de la inmunización. Las vacunas, preparadas con bacterias infecciosas muertas o muy debilitadas, son inyectadas al paciente, quien desarrolla las defensas que lo protegerán contra "ataques" futuros. Gracias a las vacunas y a los métodos preventivos, enfermedades como el tifus, las viruelas y el cólera, ya no representan la misma amenaza de antaño. Sin embargo, existen aún algunas enfermedades como la fiebre tifoidea y la peste, entre otras, que se presentan en forma de epidemias menores, especialmente en algunas regiones. Estas enfermedades nos recuerdan que no estamos libres de las plagas del pasado. A pesar de la cadena de triunfos contra las infecciones, debidas a los aportes de Joseph Lister, Louis Pasteur, Edward Jenner y muchos otros valiosos científicos, el hombre no se ha librado de la amenaza de las enfermedades epidémicas. Pasteur y Koch identificaron muchas bacterias causantes de numerosas enfermedades, sin embargo desconocían las causas que originaban otras. La respuesta la dio el bacteriólogo ruso Dimitri Ivanowski, quien en 1892 demostró que una de las enfermedades, la de la planta del tabaco, llamada mosaico del tabaco, era causada por agentes tan diminutos que no se pueden ver con los microscopios ópticos y podían pasar por los filtros de porcelana, que las bacterias no podían franquear. Más tarde, el agente infeccioso “tan filtrable” fue denominado
29
Instrumentación Biomédica / Instrumentación Médica virus, palabra latina que significa líquido vivo o veneno. Desde entonces, los virus han sido identificados como la causa de numerosas enfermedades del hombre, animales y plantas. La última pandemia viral que sufrió la humanidad se produjo después de la Primera Guerra Mundial, entre 1918 y 1919; durante esa época Europa se vio azotada por una enfermedad conocida como gripe española, que produjo más víctimas que la misma guerra. Rara vez como en esos años la gripe había tomado un curso fatal. La alta mortalidad era debida al aumento de la virulencia del virus, o a la invasión bacteriana secundaria, o ambas. En esos años de pavor, no había suficientes médicos para atender a los pacientes. La poliomielitis, otra temible enfermedad viral, que ataca el sistema nervioso de la población más joven, ha dejado de presentarse en forma de focos epidémicos importantes, debido a las vacunas desarrolladas por Salk y Sabin.
LOS ANIMALES EN LA INVESTIGACIÓN MÉDICA La experimentación con animales es tan antigua como la historia. En el siglo IV a. de J.C., Aristóteles ya realizaba disecciones en animales para estudiar su anatomía. Galeno, en el siglo II, trataba de descubrir las funciones de los distintos órganos experimentando con animales. El descubrimiento de la doble circulación de la sangre, realizada por el inglés William Harvey, nació también de la experimentación y cortes realizados en animales vivos. Muy escasos hubieran sido los avances de la medicina sin la experimentación lógica y planificada, que con animales vivos realizara Claude Bernard, famoso científico francés del siglo XIX. Bernard es reconocido como el precursor de la medicina experimental moderna. Sus pruebas fueron tan fecundas, que aún hoy pueden considerárselas fundamentales en la investigación biológica. Postuló que las secreciones internas producidas por las glándulas, pasan al torrente sanguíneo para ejercer sus efectos en otros lugares del cuerpo. Su filosofía científica, abarcaba también problemas morales involucrados con la práctica de la experimentación animal. Hasta entrado el siglo XIX, en 1878, diez años después de la muerte de Bernard, el profesor Oskar Minkowsky (1858-1931) de la Universidad de Estrasburgo, empezó un trabajo con animales que lo llevó a la comprension de la diabetes. Casi por casualidad
30
Alvaro Tucci R. descubrió que extirpándole el páncreas a un perro daba lugar a la aparición de esa enfermedad. Veinte años antes, Paul Langerhans, joven estudiante de medicina, había descrito pequeñas agrupaciones de células dentro del páncreas, hoy llamadas “isletas de Langerhans”. Posteriores estudios microscópicos revelaron que en realidad esta glándula está compuesta por dos tipos de células, las que fabrican el jugo pancreático para la digestión y otras, agrupadas en isletas, que producen la hormona. Después de su descubrimiento, Minkowsky pensó que las isletas producían la hormona que faltaban a los diabéticos. Durante los treinta años siguientes, se hicieron numerosas tentativas para la extracción y empleo de esta sustancia. Un trabajo relevante realizado con animales experimentales lo realizó en 1919, en la Universidad de Toronto, el joven médico canadiense Frederick Banting. A pesar de las grandes dificultades económicas a que se enfrentabe, descubrió que si se ligaba el conducto que transporta el jugo pancreático al intestino, la mayor parte de la glándula era destruida, pero las células de las isletas sobrevivían. Así logró aislar la insulina que utilizó para tratar a un perro que padecía un coma diabético provocado. Después del tratamiento, el azúcar de la sangre descendió a niveles normales y el animal se recuperó. En 1922 fue tratado el primer paciente humano. Antes de este descubrimiento, cualquier niño que padeciera de diabetes moría al cabo de dos años y los adultos lograban vivir alrededor de seis meses. La diabetes, enfermedad ya conocida por los griegos, fue mortal hasta las primeras décadas del siglo XX. Su nombre deriva del griego; diabetes, que significa pasar a través, o sifón; haciendo referencia a la gran producción de orina tan característica de esa enfermedad. En el siglo VI, un médico hindú muy observador se dio cuenta que los insectos eran atraídos por su orina. Tom Willis, médico de cámara de Carlos II de Inglaterra, al saborearla, descubrió el sabor dulzón de la orina de los diabéticos. Pronto quedó demostrado que era debido a la presencia de azúcar, por tal motivo, el adjetivo mellitus fue asociado a su nombre. El hecho de que los diabéticos orinasen en demasía, había hecho pensar que se trataba de una enfermedad renal. Hoy
31
Instrumentación Biomédica / Instrumentación Médica sabemos que la diabetes es una afección que trastorna la conversión de los hidratos de carbono en energía. Este proceso sólo tiene lugar en presencia de la insulina, una hormona producida por las isletas de Langerhans del páncreas, glándula de gran tamaño situada en el repliegue del intestino llamado duodeno. La historia de la insulina por sí sola, posiblemente justifica la experimentación con animales. No cabe duda de que millones de vidas humanas han sido salvadas gracias a este descubrimiento efectuado en los laboratorios de Bernard en Francia, luego en Alemania y finalmente en Canadá. En 1888, los colaboradores de Pasteur, Pierre Roux (1853-1933) y Alexandre Yersin (1863-1943), averiguaron que el microorganismo de la difteria producía una toxina que era responsable de casi todos los trastornos de la enfermedad. Experimentos posteriores demostraron que la toxina podía ser neutralizada por una sustancia presente en la sangre de conejillos de Indias que habían sufrido la enfermedad. Así nació el concepto de antitoxinas. Los animales infectados con difteria, que habían sobrevivido a la enfermedad, podían usarse para la producción de antitoxinas. Son muchos los medicamentos obtenidos por medio de la experimentación con animales. Sin embargo, no es garantía absoluta que una droga efectiva para los animales se comporte en forma similar en el hombre. Las nuevas técnicas quirúrgicas, los trasplantes, las máquinas de riñón artificial y corazón – pulmón, deben su funcionamiento a la experimentación con animales.
INSTRUMENTOS
MÉDICOS
Los instrumentos médicos se desarrollaron gracias al esfuerzo silencioso de muchos miles de científicos, ingenieros e investigadores, que con su perseverancia, ingenio y desprendimiento, lograron realizar, perfeccionar, producir e introducir en la práctica médica, instrumentos cada vez más precisos, eficientes y seguros. El propósito fundamental del instrumento es aumentar la capacidad del ser humano. Con la palanca se pueden levantar pesos mayores; con la rueda, moverse más rápido; con el tambor o la radio, comunicarse a mayores distancias; con el microscopio, ver partículas más pequeñas; con el telescopio, ver a distancias
32
Alvaro Tucci R.
mayores; en fin, los instrumentos permiten extender el alcance de los sentidos. EL TACTO Y LA MEDIDA DE TEMPERATURA Los signos vitales son mediciones básicas que determinan el estado físico del ser humano. Los cuatro principales son la temperatura, el pulso, la respiración y la presión sanguínea. Sin embargo, la temperatura no pudo ser medida hasta el siglo XV. Antes, sólo podían hacerse afirmaciones como: esto es frío o aquello es caliente; o esto es más caliente de aquello. Para medir la temperatura fue necesario encontrar algún parámetro físico mesurable que variara con la temperatura, como por ejemplo, la dilatación de las sustancias al calentarse. Esta propiedad fue aprovechada por el científico italiano Galileo Galilei, quien en 1603 construyó su termómetro, palabra de origen griego derivada de thermes y metron, equivalentes a calor y medida respectivamente. Para construir el termómetro, Galileo invirtió un tubo de vidrio que contenía aire caliente sobre una vasija que contenía agua (ver figura 1.1a). Cuando el aire se enfrió el agua subió por el tubo, y dejó de hacerlo al igualarse su temperatura con la del medio ambiente. Galileo, demostró que la altura de agua succionada variaba con la temperatura. Cuando la temperatura del aposento cambiaba, el nivel de agua en el tubo también lo hacía. De este modo la altura del agua era una expresión de la temperatura.
Figura 1.1. (a) Termómetro de Galileo. (b) Termómetro del Gran Duque de Toscana.
33
Instrumentación Biomédica / Instrumentación Médica En 1625, el físico eslavo Santorio Santorio aplicó el principio ideado por Galileo para medir la temperatura del cuerpo humano. Tanto Santorio como Galileo, pronto se dieron cuenta de que la variación de presión atmosférica alteraba los resultados de las medidas. Esto era debido a que la superficie del agua en la vasija estaba en contacto con la atmósfera. El inconveniente fue resuelto 25 años más tarde por el Gran Duque de Toscana. En efecto, en 1654, el Gran Duque Fernando II selló el tubo y lo aisló de la presión atmosférica. Su termómetro, consistía en una ampolla en la cual el liquido se dilataba o contraía por efecto de la temperatura y ascendía por el tubo vertical donde era indicada. (ver figura 1.1b).Fernando II sabía que los líquidos cambian de volumen con la temperatura. Apoyado en este principio, logró llenar una ampolla de volumen adecuado con la cantidad justa de líquido, de modo que al dilatarse sólo podía hacerlo ascendiendo por el capilar. Como el diámetro del capilar es pequeño, los ascensos y descensos eran medibles. El físico inglés Robert Boyle, utilizando un termómetro muy parecido, demostró que la temperatura del cuerpo humano es constante y bastante superior a la del medio ambiente. En 1714, el artesano danés fabricante de instrumentos Gabriel Fahrenheit, introdujo mercurio en la ampolla y utilizó su dilatación como variable dependiente de la temperatura. Además, le anexó al tubo capilar la escala graduada para facilitar su lectura. El método empleado por Fahrenheit, para establecer la escala que lleva su nombre, tiene como límite inferior la temperatura más baja que pudo obtener en su laboratorio; el punto de congelación de la mezcla de sal y hielo. Sobre esa base fijó la solidificación del agua a 32 grados y la ebullición a 212 grados. En el Reino Unido y otros paises angloparlantes todavía se emplea esta escala. La temperatura del cuerpo humano es muy constante, si sobrepasa en un grado o dos el nivel considerado normal, se dice que hay fiebre; un síntoma evidente de enfermedad. En 1858, el médico alemán Karl August Wunderlich, utilizaba frecuentes comprobaciones de la temperatura corporal como nuevo procedimiento para seguir el curso de una enfermedad. En la década siguiente, el médico británico Thomas Clifford Allbutt inventó el termómetro clínico. El capilar lleno de mercurio tiene un estrangulamiento en la parte inferior. El efecto del estrangulamiento
34
Alvaro Tucci R. es que el mercurio se eleva hasta la cifra máxima y no desciende. Así, la temperatura máxima queda registrada. En 1742, el astrónomo sueco Anders Celsius, adoptó una escala diferente a la de Fahrenheit: estableció el cero como el punto de solidificación del agua y el 100 como el de ebullición. Dividió el intervalo donde el agua permanece líquida en 100 partes iguales, de allí el nombre de escala Celcius o centígrada. (Palabra proveniente del latín centum y gradus equivalentes a “cien” y “peldaños” respectivamente). EL OIDO Y EL ESTETOSCOPIO Los antiguos médicos griegos para diagnosticar colocaban el oído en el pecho, espalda o abdomen del paciente a fin de percibir los sonidos provenientes del corazón, las vías respiratorias y los ruidos intestinales. Para incrementar el nivel del sonido se empleó el “tubo para oír”. El estetoscopio es un refinamiento de este tubo. Su desarrollo se debe probablemente al médico francés T.H. Laennec, quien en 1819 lo utilizó con la finalidad de no contagiarse al colocar el oído en contacto con la piel del paciente. Luego se dio cuenta de que se incrementaba la calidad y volumen de los sonidos percibidos.
Figura 1.2. Corte del tubo de oír..
Consiste en un tubo de la forma mostrada en la figura 1.2. A fin de obtener un buen acoplamiento de impedancia acústica entre el cuerpo del paciente y el “tubo de oír” se le daba la forma indicada, con lo cual se conseguía mayor eficiencia de transmisión.Otras
35
Instrumentación Biomédica / Instrumentación Médica mejoras fueron aportadas 40 años más tarde, en 1860, por los norteamericanos George P. Camman y S. Scott, quienes concibieron el estetoscopio tal como lo conocemos hoy en día. LA VISTA, EL MICROSCOPIO, LOS RAYOS X Y OTROS El oftalmoscopio, inventado en el siglo XIX por el científico alemán Hermann von Helmholtz, es un instrumento médico no invasivo que permite ver dentro de ciertas cavidades del cuerpo como el oído, la nariz o los ojos. Su configuración básica se muestra en la figura 1.3. El espejo semitransparente dirige parte de la luz hacia el ojo del paciente, de allí, una fracción se transmite hacia el ojo del observador quien puede ver entonces el fondo del ojo. Si se tratara de observar directamente el fondo del ojo sin el empleo del espejo semitrasparente, la cabeza del observador arrojaría sombra sobre la córnea y no podría observar su retina. Un desarrollo similar se produjo en 1855, cuando se colocó un espejo en la parte posterior de la garganta, lo cual permitió examinar las cuerdas vocales.
Figura 1.3. El Oftalmoscopio
Las lentes fueron usados hace algunos siglos para leer y para magnificar. Se cuenta que en 1608 el anteojo fue inventado por un
36
Alvaro Tucci R. niño, el hijo de un fabricante de lentes ópticos, el holandés Hans Lippershey, mientras jugaba con lentes en el taller de su padre. La noticia del descubrimiento llegó a Italia. Galileo, por casualidad, oyó comentarios relacionados con el instrumento. Luego de varios ensayos, un año después logró encontrar la misma combinación de lentes que había obtenido el niño, de allí el nombre del “holandés y Galileo” que recibe el anteojo. Galileo, construyó además el primer telescopio y pronto aprendió a construir instrumentos más perfectos y con mayores aumentos. Fue pionero de la física y el primero en aplicar las leyes que iba descubriendo al mundo real, especialmente a la biología; por tal motivo es considerado el precursor de la biofísica. Aplicó la invariabilidad del período del péndulo para medir la frecuencia cardíaca, el termómetro a la medición de la temperatura, estudió la relación que existe entre el tamaño de un animal y sus huesos, extrayendo acertadas conclusiones acerca de los límites entre el tamaño del animal y la gravedad. LAS LUPAS Y EL MICROSCOPIO Sin duda, se puede afirmar que las lupas y el microscopio revolucionaron la biología y la medicina. Permitieron a los científicos ver un universo distinto al que se podía ver a simple vista. El microscopio surge de la necesidad de investigar de "como están hechas las cosas", de ir hacia lo más pequeño, de intentar penetrar los secretos de la materia. A pesar de que sus lentes estaban imperfectamente pulidas y los objetos ampliados aparecían como burbujas cubiertas de pelusa y hechos de estructuras inapreciables, los científicos de la época le dieron gran utilidad. Hace casi tres siglos, un holandés, Anton Van Leeuwenhoek (1632 - 1723), aficionado a pulimentar lentes, pulió algunas con tal precisión que, utilizando lentes simples, logró aumentar la imagen hasta 200 veces. Se sabía que las lupas producían aumentos limitados. La idea más simple para obtener mayor magnificación consiste en utilizar dos lupas, una a continuación de la otra, de manera que la imagen pueda ser ampliada dos veces. Esta idea fue utilizada por muchos científicos a mediados del siglo XVII, con lo cual se creó el microscopio compuesto.
37
Instrumentación Biomédica / Instrumentación Médica Uno de los científicos que lo utilizó fue el antes citado Van Leeuwenhoek, quien escribe en 1683 a un colega inglés: “Por la mañana acostumbro frotarme los dientes con sal y me enjuago después la boca con agua. A menudo, después de comer me limpio los molares con un mondadientes y los froto enérgicamente con un trozo de tela.......” Indudablemente Leeuwenhoek cuidaba y estaba orgulloso de su dentadura. No obstante, a pesar de sus cuidados, observaba entre sus dientes una sustancia blanca que se disolvía con agua de lluvia, a la que enfocó con su microscopio. Como resultado de tal examen escribió: “Observé entonces, con gran asombro, que en la citada materia existían numerosos animalitos vivos, dotados de movimientos, muy bonitos”. Leeuwenhoek acababa de descubrir los microbios, y el microscopio era el único instrumento que permitía la observación de tan diminutos e importantes seres vivos. Sin embargo, los científicos de la época no le dieron importancia al descubrimiento de los “bonitos animalitos", ya que por su tamaño, los consideraban insignificantes. Sólo en el siglo XIX, con el desarrollo de instrumentos ópticos, comenzó el estudio sistemático de los “animalitos”. Al comienzo, los científicos no comprendieron que las bacterias eran los agentes responsables de muchas enfermedades. Su mayor preocupación radicaba en averiguar el origen de los microbios. Se creía que se generaban espontáneamente de la materia putrefacta o corrompida y no mediante semillas o esporas. Hacia 1590 se idearon instrumentos que usaban combinaciones de varias lentes convexas. Con ellas se construían microscopios más potentes, que ayudaron a inglés Robert Hooke (1635-1703) para que en 1648 descubriera la existencia de células en los tejidos animales y vegetales. Con ello apareció un mundo aún más pequeño; el de las levaduras. El empleo del microscopio situó a los biólogos en posición de poder entender la organización de los seres vivos. El mismo Hooke, utilizando un microscopio compuesto construido por el mismo, descubrió que el corcho, corteza de cierto árbol. El corcho estaba formado por compartimentos vacíos muy pequeños, similares a una esponja fina. A estos compartimentos los denominó células, nombre proveniente por analogía con las celdas de los monasterios.
38
Alvaro Tucci R. Más tarde, se hallaron muchos seres vivos compuestos de células similares. Se hizo evidente que toda materia viva estaba constituida por células y que cada una era una unidad independiente de vida. En 1824, el fisiólogo francés René Dutrochet (1776-1847), en una publicación que pasó prácticamente inadvertida, se refería a algunas formas de vida, tal como la de ciertos microorganismos que estaban formados por una sola célula. Mientra que los organismos de mayores dimensiones estaban formados por muchas células, coordinadas en alguna forma para que pudieran cumplir una función. La teoría celular ganó importancia después de que Matthias Schleiden (1804-1881) y Theodor Schwann (1810-1882) de Alemania, la formularon independientemente en 1838 y 1839, respectivamente. Su importancia fue confirmada cuando el patólogo alemán Rudolf Virchow (1821-1902), en 1860, afirmó: “En animales y plantas toda célula procede de otra célula”. En aquel entonces ya resultaba evidente que todo organismo vivo empezaba su vida como una célula única. De la fertilización de un óvulo con un espermatozoide (del griego equivalente a semilla animal) y después de repetidas divisiones celulares, de ese óvulo emerge un ser vivo. Hacia 1850, la creciente industria vinícola francesa atravesaba momentos difíciles. El vino, durante el proceso de envejecimiento, se agriaba y no era posible beberlo. Este problema fue planteado al joven decano de la Facultad de Ciencias de la Universidad de Lille, situada en el corazón de la región vinícola francesa. Este joven decano era Louis Pasteur (1822 - 1895). A Pasteur le pareció ver con su microscopio, que después de finalizada la fermentación permanecían algunas levaduras. Sospechó, entonces, que eran las causantes del agriamiento y se propuso eliminarlas. A tal fin sugirió a la horrorizada industria vinícola francesa que el vino, después de terminada la fermentación, debía ser calentado suavemente a objeto de exterminar las levaduras restantes. Predijo acertadamente que después del tratamiento, el envejecimiento del vino proseguiría sin alteraciones en sus características de cuerpo, sabor, olor y color, y que ya no se agriaría. Al proceso de “suave calentamiento” se le conoce hoy en día como pasteurización. Este efectivo proceso, fue posteriormente
39
Instrumentación Biomédica / Instrumentación Médica aplicado a la leche y a la cerveza para eliminar los gérmenes y fermentos. Pasteur, con sus descubrimientos ,introdujo una serie de productos hoy día empleados en medicina preventiva y en inmunizacion. Se interesó por el proceso de la fermentación alcohólica y de soluciones azucaradas, experimentó con las levaduras de la leche y demostró que las bacterias no se producen espontáneamente. Descubrió que los microbios eran los agentes de la fermentación del vino y los responsables de que la leche se agriara. También sugirió que podían ser la causa de numerosas enfermedades. Al médico alemán Robert Koch (1843-1910), demostro en forma concluyente que las bacterias podían provocar enfermedades. En efecto, en 1876 estableció que el ántrax, enfermedad que ataca ciertos animales, era causaba por una bacteria. Seis años más tarde aisló el bacilo responsable de la tuberculosis. El descubrimiento de que muchas enfermedades comunes eran originadas por las bacterias causó revuelo científico universal. En 1879, accidentalmente, Pasteur inyectó unos pollitos con un cultivo rancio de gérmenes de cólera. La inyección no produjo infección y los pollitos nunca llegaron a enfermar. Pasteur, observó la semejanza entre la protección que su cultivo brindaba y la vacuna de Jenner contra la viruela. Pronto produjo una vacuna contra el cólera de las gallinas. Quizás su aporte más importante a la ciencia fue el advertir la relación entre inmunización y enfermedad. Hacia 1930, el químico alemán Gerhard Domagk (1895-1964), buscando una sustancia que destruyese los gérmenes sin perjudicar el organismo, descubrió el prontosil, familia de las sulfamidas hoy utilizado para el tratamiento de diversas enfermedades infecciosas. En Londres en 1928, Alexander Fleming (1881-1955), observó que en un cultivo enmohecido, el moho estaba destruyendo los gérmenes. Con esa observación, había descubierto un poderoso germicida externo que llamó penicilina. Diez años más tarde, el bioquimico anglo-alemán Ernest Chain (1906-1979), trabajando sobre las notas de Fleming pudo probar que este producto era sumamente efectivo contra enfermedades infecciosas. Aplicó la penicilina para uso interno y obtuvo el primer antibiótico.
40
Alvaro Tucci R. A partir de Van Leeuwenhoek, los investigadores prosiguieron afanosamente la búsqueda de nuevos medios para luchar contra todos esos “diminutos y nocivos animalitos”. Sin el auxilio del microscopio, como extensión de la vista, ninguno de estos descubrimientos hubiera sido posible. En la actualidad, potentes microscopios utilizan todos los recursos de la técnica para obtener mayores aumentos y mejor nitidez de la imagen. Sin embargo, existe un límite infranqueable: la naturaleza de la luz se opone a que la magnificación sobrepase cierto valor. Lo anterior fue señalado por el físico alemán Ernest Karl Abbe (1840-1905), quien en 1878 afirmó que: “Cuanto más pequeños son los objetos más indefinidos serán sus perfiles, ya que las ondas luminosas empiezan a contornearlos.” Desde luego, el remedio consiste en emplear longitudes de ondas más cortas. A tal fin se desarrolló el microscopio que emplea la luz ultravioleta. Los microscopios de luz visible pueden distinguir franjas separadas de 1/5000 de milímetro, mientras que los microscopios de luz ultravioleta distinguen franjas 1/10.000 de milímetro. Los rayos X serían más apropiados para este tipo de aplicación, pero desafortunadamente no existen lentes para estos rayos. Objetos más pequeños que 800 nm son del mismo orden de magnitud que la longitud de onda de la luz. El límite es infranqueable, a menos que se utilicen longitudes de ondas más pequeñas. El electrón, como onda electromagnética se encuentra en ese caso. Por ello, el microscopio electrónico permite alcanzar aumentos muy superiores. Debido a la teoría desarrollada en 1927 por el físico francés Louis de Broglie (1892-1987) y el británico George Paget Thomson (1892-1975), quienes trabajando independientemente y empleando métodos diferentes, demostraron que los electrones tienen propiedades ondulatorias con longitud de onda del orden de los -10 1,65 angstrom (1 angstrom 10 m) Disponiéndose de una fuente de longitud de ondas tan cortas, se pensó en aplicarla al desarrollo de microscopios más potentes, por lo cual recibió inmediata aplicación. El orden de magnitud de la longitud de onda asociada a los electrones es el mismo que el de los rayos X, con la ventaja que el haz electrónico se maneja mucho más fácilmente.
41
Instrumentación Biomédica / Instrumentación Médica En 1932, Ernest Ruska (1906-1988) y Max Knoll (1897-1969) de Alemania, desarrollaron la teoría y construyeron un microscopio electrónico rudimentario. El primero, realmente utilizable, fue construido en 1937 en la Universidad de Toronto por los físicos canadienses James Hillier (1915-2006) y Albert Prebus (1913-1997). Aquel instrumento, tenía una amplificación de 7000 mientras que el mejor microscopio óptico tiene amplificación de alrededor de 1000. Después de este éxito, Hillier y sus colaboradores diseñaron un instrumento con ampliación de 350.000. Los microscopios electrónicos estuvieron disponibles comercialmente a partir de 1939. LOS RAYOS X Hace algunas décadas, los médicos sólo podían mirar en el interior del cuerpo mediante la disección. Hoy, es posible ver y fotografiar lo que sucede en su interior utilizando las más variadas técnicas invasivas y no invasivas. En nuestros días, pocas personas dejan de pasar alguna vez delante de una pantalla de rayos X. Éstos son un medio muy eficaz para la detección y diagnóstico de ciertas enfermedades del hígado o riñones, las pulmonares, el cáncer y las úlceras. El 8 de noviembre de 1895 se produjo un acontecimiento muy importante; el que permitiría a los médicos “ver bajo la piel”. El físico alemán Wilhelm Roentgen, profesor de la Universidad de Würzburg, estaba utilizando con el tubo de rayos catódicos para estudiar el paso de la electricidad por el vacío, y descubrió los rayos X. Roentgen, observó que una plancha de cartón recubierta con una capa de sustancia fluorescente, el platinocianuro de bario, relucía brillantemente cuando la colocaba cerca del tubo de rayos catódicos. Así, llegó a la conclusión que había descubierto un nuevo tipo de radiación. Por ser desconocida, por no saber su origen y características, le dio el nombre de radiación X. Experimentos posteriores demostraron que esas radiaciones tenían la propiedad de traspasar los cuerpos y formar imagenes en las placas fotográfica o en una pantalla fluorescente. Roentgen, se percató de las posibilidades médicas de su descubrimiento. Hizo una radiografía de su propia mano y vio que los huesos se destacaban claramente, mientras que los tejidos blandos eran apenas visibles. Concluyó acertadamente que los
42
Alvaro Tucci R. rayos X atraviesan fácilmente los músculos y la grasa, pero lo hacían con más dificultad al atravesar los huesos. En los primeros tiempos, para obtener radiografías de claridad adecuada se necesitaban exposiciones de larga duración; la dosis a que eran sometidos los pacientes les causaba daños visibles, como quemaduras en la piel y posibles daños biológicos como el cáncer. Por desconocerse los efectos nocivos de las radiaciones, se le dieron aplicaciones totalmente inconvenientes. Por ejemplo, en los primeros años de la década de 1950 ciertas zapaterías, especialmente las dedicadas a la venta de calzado infantil, practicaban radiografías de los pies dentro de los zapatos que trataban de vender, como demostración del perfecto ajuste de los mismos. Los rayos X proporcionan al médico amplia información acerca de los huesos fracturados o caries dentales, pero su valor en el examen de los tejidos blandos es limitado. Sin embargo, el corazón se destaca con claridad, por estar rodeado de un fondo oscuro producido por los pulmones henchidos de aire. También la tuberculosis y el cáncer pueden ser detectados por este método. Ciertas partes blandas del organismo pueden ser observadas si se preparan con sustancias destinadas a bloquearlos. Estas sustancias radio opacas, son ingeridas en forma de líquido, inyectadas o introducidas directamente en el órgano que se desea examinar, como por ejemplo, en las vías digestivas, los riñones o el aparato reproductor. En 1929, el médico alemán Werner Forssmann (1904-1979), decidió sondear el corazón. Hizo pasar un tubo de goma (catéter) a través de la vena del brazo de un cadáver hasta el corazón y luego repitió el experimento en su propia persona. En el segundo intento y sin la ayuda de nadie logró su propósito. Por medio de un espejo que reflejaba la imagen proporcionada por un aparato de rayos X, Forssmann iba observando el avance del catéter por el interior de sus venas, hasta que logró introducirlo en su aurícula derecha. El experimento de Forssmann marcó el inicio de la técnica del cateterismo, es decir, la introducción de sustancias radio opacas en el interior del corazón u otros órganos, para luego visualizar su funcionamiento dinámico mediante los rayos X.
43
Instrumentación Biomédica / Instrumentación Médica LOS RADIOISÓTOPOS Y LA MEDICINA Es otra técnica que permite la exploración del cuerpo mediante el empleo de radiaciones ionizantes. Al paciente se le administra una pequeña dosis que se concentra en un órgano específico o en un tumor. Los rayos gamma emitidos por el material radioactivo pueden ser detectados desde el exterior del cuerpo y así puede conocerse su distribución. El yodo radioactivo, por ejemplo, se concentra en la glándula tiroides. Mediante el empleo de un detector adecuado, colocado en la cercanía del cuello del paciente, se puede producir la imagen de dicha glándula. La historia de las radiaciones nucleares comienza con el físico francés Antoine-Henri Becquerel (1852-1905), quien en 1896 se dedicaba a la investigación de las sustancias fluorescentes, en particular el sulfato potásico de uranilo. Quedó fascinado por el descubrimiento de Roentgen y estaba casi convencido que las radiaciones emitidas por la fluorescencia incluían los rayos X. Para comprobarlo envolvió una película fotográfica en papel negro, le colocó un cristal de sulfato potásico de uranilo encima y expuso todo a la luz solar. Supuso que la luz solar activaría la fluorescencia del cristal y los rayos X producidos velarían la película. El científico no pudo finalizar el experimento porque los días sucesivos fueron nubosos. Finalmente, incapaz de esperar reveló la película. Para su sorpresa encontró que estaba fuertemente impresionada. Concluyó entonces que cualquiera que fuese la radiación que atravesaba el papel, no dependía de la luz solar ni de la fluorescencia. Becquerel había descubierto otro tipo de radiaciones: la radioactividad. Por su trabajo, en 1903, recibió el premio Nobel de física. En años sucesivos, su hallazgo tuvo insospechadas consecuencias. Los estudios realizados por Becquerel fueron continuados por el francés Pierre Curie (1859-1906) y su esposa Marie Curie (18671934), nombres asociados a los elementos uranio, polonio y radio. En particular Marie Curie, acogió favorablemente el descubrimiento de Becquerel. En 1897 empleó uno de los inventos de su esposo, un preciso medidor de ionización que respondía a corrientes del orden de decenas de nanoamperios, para medir la intensidad las radiaciones ionizantes, conocido ahora como cámara de ionización.
44
Alvaro Tucci R. En 1897, el físico británico Ernest Rutherford (1871-1937), advirtió que las radiaciones emitidas no eran de una sola clase. Algunas eran desviadas por el campo eléctrico en un sentido, a las que llamó partículas alfa, otras se desviaban en sentido contrario, a las que llamó partículas beta, nombres que aún se conservan. Pronto fueron descubiertas otras que no se desviaban en absoluto, a las que se llamó rayos gamma. Rutherford, en 1911 formuló la teoría atómica que permitió comprender mejor la naturaleza de las radiaciones. En poco tiempo, la radioactividad fue empleada en hospitales para el tratamiento del cáncer, y desde 1903 se establecieron factorías en Francia y en Estados Unidos para preparar la valiosa sustancia. Por desgracia, las propiedades nocivas de la radioactividad y los rayos X no fueron comprendidas y muchos de los científicos y médicos murieron de cáncer y otras enfermedades causadas por la radiación. En Hamburgo, un monumento recuerda a los 169 radiólogos que murieron por excesiva exposición a los rayos X. En 1919, Rutherford utilizó el radio natural para "bombardear" los núcleos de nitrógeno. Descubrió que mediante este proceso se obtenía un elemento diferente; el oxígeno, asociado a unas partículas llamadas protones. De este modo se inició la producción de isótopos artificiales. Las aplicaciones clínicas a gran escala de la radiaciones nucleares comenzaron en 1936, cuando el físico norteamericano John Lawrence (1904-1991) produjo artificialmente radionúclidos en un ciclotrón y los usó en el tratamiento de la leucemia. De allí se desarrolló la tecnología de la instrumentación médica nuclear, entre los que se encuentra la gamma cámara. Se creó una nueva disciplina médica; la medicina nuclear, especialidad donde las sustancias radioactivas son introducidas en el cuerpo con fines terapéuticos, de diagnóstico y de investigación. Actualmente se emplean los radionúclidos para la radioterapia, especialmente efectiva para el tratamiento del cáncer. La radioterapia posee una notable eficacia en el tratamiento y control de las enfermedades neoplásicas, utilizándose para este fin una extensa variedad de fuentes radioactivas. Recientemente, se están empleando términos como teleterapia, donde la radiación procede de una fuente situada fuera del cuerpo,mientras que en la
45
Instrumentación Biomédica / Instrumentación Médica braditerapia, la fuente se coloca en el interior del cuerpo por un largo periodo. La braditerapia es empleada en pacientes que sufren tumores en el cuello del útero, a estas pacientes se le implantan unos “tubitos” que contienen radio, cesio o iridio radioactivo. En pacientes con cáncer de próstata se le implantan isótopos de yodo o paladio, que colocados junto al tumor producen su gradual disminución. La teleterapia, utiliza radioisótopos muy energéticos que emiten rayos gamma. Son empleados en la bomba de cobalto para el tratamiento del cáncer. Recientemente se está empleando la radioterapia intensiva modulada, procedimiento de irradiación que produce muchos menos efectos secundarios, siendo adecuada inclusive para el tratamiento de ciertos casos con metástasis. En la investigación médica, se empleó el hierro radioactivo para estudiar la ingestión, el almacenamiento y el uso de este elemento en la formación de la hemoglobina de la sangre, proporcionando así nuevos métodos de tratamiento para la anemia. Se emplea el yodo radioactivo para diagnosticar el funcionamiento de la glándula tiroides y determinar si existe deficiencia o exceso de las hormonas que produce, o para localizar tumores, a veces mucho antes de ser percibidos por otros métodos. Para el tratamiento de la enfermedad de la sangre llamada policitemia, donde la médula ósea se torna superactiva, se emplea el fósforo 32 suministrado en forma de inyección intravenosa, para limitar la producción de glóbulos rojos a un nivel adecuado. La radiocirugía se logra por medio del "bisturí radioactivo", formado por un aparato que concentra más de doscientos haces de cobalto en un pequeño punto de 0,2 mm de diámetro. Es empleado para el tratamiento de cáncer del cerebro y otros órganos. Sin embargo, las bondades relacionadas con el empleo de esta nueva tecnología no se hicieron realidad sino hasta que se aprendió a utilizarla. Becquerel, muy pronto se dio cuenta de los efectos nocivos de la radioactividad. El hecho de llevar un frasco que contenía radio en su bolsillo, le produjo quemaduras; descubrió de esta manera, una importante propiedad de la radioactividad: sus efectos biológicos.
46
Alvaro Tucci R. Le siguieron los esposos Curie, quienes aislaron del mineral uranífero pechblenda dos poderosos elementos radioactivos, el polonio y el radio. Su laboratorio era un aireado e inhóspito ático, lo cual probablemente salvó a Marie de una muerte temprana producida por la inhalación del gas radón. La fascinación científica de estas sustancias corrió paralela a la búsqueda de aplicaciones prácticas. Los recién descubiertos rayos X tuvieron un fuerte competidor, pues la radioactividad no necesitaba de equipos para producirla y administrarla. Llegaron los “éxitos” de la radioterapia y sus pioneros, entre ellos Marie Curie, fueron los primeros en experimentar las nefastas consecuencias retardadas de la radiación. Lo mismo ocurrió con sus pacientes; algunos de los cuales murieron debido a las quemaduras producidas por las radiaciones a que fueron expuestos, con la intención de curarlos. Las sales radioactivas se emplearon profusamente para la producción de pinturas luminosas. Los obreros que trabajaban en aquellas fábricas sufrieron daños irreparables. Los mineros de Schneeburg, fueron también sus víctimas por manejar este material sin protección alguna. El radio se convirtió durante un tiempo en el material de moda. Los médicos prescribían medicinas que contenian radio. Hubo también una ola de relojes de pulsera y de mesa con dial luminoso. Los números y esferas se pintaban con una mezcla de sulfuro de zinc y radio, que brillaba en la oscuridad. Las mujeres utilizaban finos pinceles para aplicarse esta pintura. Para dar a los pinceles una adecuada suavidad los mojaban con saliva. Pronto caían enfermas de anemia y con las encías sangrantes. La mayoría desarrollaba cáncer del pulmón por la acumulación de radio en su cuerpo. Los fabricantes de medicamentos radioactivos fueron también causantes de algunos fallecimientos. Por ejemplo, el “Raditor”, un preparado de gran aceptación en Norteamérica que contenía radio, se vendía como elemento curativo de ciento sesenta enfermedades diferentes. En 1932 causó la muerte a un industrial de Pittsburg, quien tomaba varios frascos al día, el revuelo fue tan grande que los fabricantes de el “Raditor” tuvieron que abandonar el país. Investigaciones posteriores demostraron que los materiales radioactivos producen cuatro tipos de radiaciones ionizantes: alfa,
47
Instrumentación Biomédica / Instrumentación Médica beta, gamma y neutrones. Su paso a través de los tejidos vivos perjudica su delicada organización. El comportamiento fisicoquímico de las células es afectado; gradualmente la célula, en lugar de jugar su papel acostumbrado, altera su actividad metabólica; el sistema empieza a errar. Las investigaciones genéticas demuestran, sin lugar a dudas, que para la población globalmente considerada, un ligero aumento a la exposición de las radiaciones le corresponde un incremento en la frecuencia de las mutaciones. Los seres vivos estamos continuamente sometidos a las radiaciones ionizantes naturales, y últimamente a las artificiales. Los rayos cósmicos, la radiación solar, el uranio y el torio de la tierra y ciertos isótopos radioactivos dentro de nuestro propio cuerpo, como el potasio 40, forman parte de las radiaciones naturales. Siempre han estado con nosotros. Pero desde 1895, la humanidad ha sido expuesta a radiaciones de las cuales nada sabían las generaciones precedentes. Los rayos X, en medicina y odontología, la concentración de materiales radioactivos, los desechos nucleares provenientes de los reactores, los incidentes y pruebas nucleares, la creación artificial de isótopos radioactivos de alta energía y vida media de miles de años, han incrementado nuestra exposición a las radiaciones. Todavía no se sabe exactamente cómo un daño inicial causado por las radiación en los tejidos vivos desencadena consecuencias negativas a largo plazo. En efecto, los daños causados por las radiaciones pueden clasificarse en inmediatos y diferidos. Los inmediatos se producen algunas semanas después de la exposición y los diferidos después de transcurridos varios años. Los efectos pueden además clasificarse en somáticos y genéticos. Los daños somáticos acontecen en el organismo que ha sido expuesto, mientras que los genéticos son transmitidos a los descendientes. Los efectos agudos de las radiaciones pueden identificarse fácilmente; generalmente se manifiestan como quemaduras superficiales. Los efectos somáticos diferidos pueden ser mucho más difíciles de identificar y los genéticos, no pueden ser identificables en absoluto. Los daños agudos se manifiestan por producir lesiones a los órganos más sensibles a las radiaciones, como los tejidos que
48
Alvaro Tucci R. forman los glóbulos rojos, los genitales, el cristalino, el estómago e intestinos, y si son muy intensos, en el sistema nervioso central. Dosis más pequeñas, predisponen a una serie de consecuencias biológicas, que pueden manifestarse cinco o más años después con la aparición de la leucemia u otro tipo de cáncer. La radiación natural es inevitable, habíamos aprendido a vivir biológicamente con ella. Esto no significa que es inofensiva, sino cualquiera que sea su daño, nos permitía existir sin observar efectos nocivos apreciables. LA FIBRA ÓPTICA Es un filamento flexible de vidrio o plástico del espesor de un cabello que tiene la propiedad de transmitir muy eficientemente la luz de uno de sus extremos al otro. Debido a su flexibilidad, permite a la luz "viajar" por trayectorias curvas. Algunos equipos médicos basan su funcionamiento en la fibra óptica con los se puede observar las partes internas del cuerpo. Acoplada a sistemas de televisión se pueden ver las vías digestivas superiores, el estómago o las vías digestivas inferiores. El broncoscopio, introducido en los bronquios, permite ver el estado de los pulmones; el citoscopio, introducido por la uretra, permite observar la vejiga; con el peritoneoscopio, introducido en el abdomen, se observan las paredes intestinales. La fibra óptica, se empleó a partir de 1970 para sustituir el cable telefónico de cobre. Su funcionamiento resultó tan satisfactorio, que diez años más tarde ya cruzaba el fondo del océano Atlántico para transmitir señales de comunicación. Para evitar que la luz "salga" de la fibra, se recubre con una sustancia plástica o con un segundo tipo de vidrio, que tiene la propiedad de reflejarla. De esta manera, con la luz guiada con la fibra, se pueden iluminar los rincones más insospechados. Pronto la luz fue modulada, de modo que las ondas sonoras podían convertirse en luminosidades de amplitud variable, para luego ser demoduladas y reconvertidas a sonoras. De esta forma, se fue reemplazando el costoso cable de cobre por la fibra de vidrio, mucho más económica y abundante, capaz, además, de transmitir más información por segundo. Actualmente la fibra óptica se emplea para transmitir señales de televisión y datos a alta velocidad entre computadores,
49
Instrumentación Biomédica / Instrumentación Médica los cuales forman parte importante de la World Wide Web, la conocida www. LOS ULTRASONIDOS Se llama ultrasonido a aquella energía sonora cuya frecuencia está fuera del alcance del oído humano. Mediante su empleo, pueden obtenerse imágenes estáticas y dinámicas de los órganos blandos, ya sea la imagen del feto y de su válvula mitral en movimiento, o medirse la velocidad de la sangre en los vasos. Estructuras del orden de un milímetro pueden ser “vistas” si se emplean longitudes de ondas en la región de los megahertz. Los equipos de ultrasonido, como el sonar, fueron desarrollados durante la segunda guerra mundial. El sonar, un radar submarino, fue empleado para facilitar la navegación subacuática y para localizar barcos y submarinos enemigos. Luego tuvo gran aplicacion en el campo de la medicina. Los tejidos y estructuras del cuerpo humano son, en general, buenos conductores de las ondas de energía sonora. Hasta los momentos puede afirmarse que el ultrasonido, con los niveles de energía empleados para producir imágenes, es completamente inocuo. Hasta la fecha no se han reportado efectos nocivos. LA TOMOGRAFIA AXIAL COMPUTARIZADA Hace algunas décadas se desarrolló otro instrumento dedicado a la obtención de imagenes; el tomógrafo axial computarizado (TAC) cuyo funcionamiento se basa en principios físicos completamente diferentes. Algunas de las más importantes limitaciones de las imágenes obtenidas mediante el uso convencional de los rayos X, es que se obtienen imágenes bidimensionales provenientes de cuerpos tridimensionales. Los detalles de los órganos blandos son “escondidos” por la alta densidad de los huesos. En la radiografía del tórax, la densa estructura de los huesos, hace muy difícil obtener información acerca de las regiones internas menos densas. Una forma de evitar este inconveniente sería tomar varias radiografías con diferentes ángulos. Desde luego, esta solución es de antemano descartada porque se sometería al paciente a dosis excesivas de radiación.
50
Alvaro Tucci R. A partir de 1972, se desarrolla la tomografía axial computarizada (TAC), cuya tecnología hace que cada fotón de rayos X suministre más información acerca de las estructuras internas. Las imágenes resultantes son "fotografías" tridimencionales de los órganos, sin estar éstos “escondidos” por los huesos circundantes. Para obtener la imagen tomográfica, se “barre” con rayos X la región de interés desde varias direcciones. La imagen se construyé a partir de los datos de atenuación obtenidos . La imagen es formada y procesada en forma digital por un sistema de computación especializado, que es parte integrante del equipo. La necesidad de desarrollar un instrumento de este tipo surgió cuando se quisieron obtener imágenes del cerebro. La masa cerebral presenta muy pequeñas variaciones de densidad y está contenida en una estructura ósea muy densa, donde la mayor parte de los rayos X son absorbidos. Por lo tanto, la imagen obtenida a partir de radiografías convencionales no aporta prácticamente datos útiles. El Tomógrafo fue desarrollado por Allen Cormack y Godfrey Hounsfield. Por su contribución al diagnóstico, ambos investigadores recibieron el Premio Nobel de Medicina en 1969. Su funcionamiento se basa en la variación de absorción de rayos X por los diferentes tejidos. Se observa la atenuación en la intersección de filas y columnas de una matriz, lo que permite determinar la característica de absorción del tejido en esa región. El sistema TAC produce imágenes de los cortes del órgano que se desea estudiar. El auxilio de la computación es determinante en la composición de las imágenes, ya que la velocidad de cálculo es inmensa, prácticamente inabordable por otros métodos. La adquisición y el procesamiento de un gran número de datos, le permite a la computadora crear las imagenes. LA RESONANCIA MAGNÉTICA NUCLEAR Otro instrumento que produce imagenes de los tejidos blandos es el equipo de Resonancia Magnética Nuclear (RMN o MRI), desarrollado en 1982. El paciente es colocado en el centro de un campo magnético intenso, para luego ser irradiarlo con un impulso de radiofrecuencia. La frecuencia y duración de la oscilación de los protones, que se produce después del impulso
51
Instrumentación Biomédica / Instrumentación Médica de radiofrecuencia, suministra los datos que dan origen a una imagena construida por una computadora. EL LABORATORIO CLÍNICO Al principio, para el diagnóstico se disponía unicamente de la experiencia, la intuición y los cinco sentidos. Valiéndose del sentido del gusto, los médicos medievales notaron que la orina de los diabéticos era dulce. En 1776, un médico inglés, Mathew Dobson (1725-1784), notó que los residuos que dejaba la orina de los diabéticos al evaporarse, olía y sabía a azúcar. La química aplicada a la medicina la inició otro médico inglés John Rollo (?-1801) quien en 1797 analizó químicamente los residuos de la orina; y así nació la bioquímica. El análisis de la sangre fue mejorado por el médico inglés William Gowers (1845-1915), quien en 1877, introdujo su hemacitómetro. Consistía en una grilla cuadriculada de 0,1 mm colocada en el fondo cóncavo de un portamuestras. Por medio de un microscopio, el observador podía contar los glóbulos rojos de la sangre contenidos en cada cuadrículo. Uno de los aparatos más importantes en el laboratorio clínico es la centrífuga, utilizada para mejorar la precisión del contaje. Fue desarrollada por los suecos Blix y Hedin en 1899 y la llamaron hematocrito. Ella separaba los glóbulos rojos por medio de la fuerza centrífuga. La centrífuga es un aparato que al girar "empuja" hacia el exterior las partículas suspendidas en el líquido. Cuando esa fuerza es mayor que la gravedad terrestre, las partículas suspendidas sedimentan con mayor rapidez. Los glóbulos rojos de la sangre sedimentan rápidamente. La leche fresca se separa en dos fracciones; la nata, más liviana, se separa de la leche desnatada. Estos tipos de separaciones, que tendrían lugar espontáneamente por la fuerza, de gravedad son aceleradas por efecto de la fuerza centrífuga. Las moléculas protéicas, aun con gran tamaño, no son lo suficientemente pesadas para separarse por la simple acción de la gravedad, ni tampoco sedimentan con rapidez en una centrífuga ordinaria. Para resolver este problema y otros similares, en los años veinte del siglo pasado el químico sueco Theodor Svedberg (1884 – 1971) desarrolló la ultracentrífuga. La ultracentrifugación, que en cierta medida permite la
52
Alvaro Tucci R. separación de las distintas clases de proteínas, ayudó a determinar a partir de la velocidad de sedimentación, sus pesos moleculares con razonable exactitud. Por su contribución al estudio de las suspensiones, Svedberg recibió el Premio Nobel de química en 1926. Estos aparatos, de empleo generalizado en los laboratorios clínicos especializados, giran a velocidades del orden de las 70.000 revoluciones por minuto. Produce fuerzas centrífugas hasta 900.000 veces más intensas que la fuerza de la gravedad En 1885, el alemán Hugo von Ziemssen (1829-1902), creó el primer laboratorio clínico, mientra que a principios de siglo XX, el Hospital General de Massachusetts estableció el primer laboratorio in sito. La técnica relacionada con el análisis químico clínico fue perfeccionándose hasta tal punto que nuestros médicos, para diagnosticar, necesitan invariablemente la ayuda especializada de estos laboratorios.
LA
INSTRUMENTACIÓN MÉDICA Y LA ELECTRÓNICA
El mayor aporte al desarrollo de la instrumentación médica, a partir del siglo XX, lo hicieron indudablemente las innovaciones electrónicas. Sus aplicaciones en la instrumentación médica comenzaron con la invención del electrocardiógrafo (ECG), realizado por el danés Wilhem Einthoven (1860-1927) en 1903. Continuaron hasta nuestros días con equipos mucho más complejos, automatizados y computarizados. EL ELECTROCARDIÓGRAFO En el electrocardiógrafo de Einthoven, el paciente introducía las dos manos y el pie izquierdo, cada uno en un recipiente que contenía agua. Un conductor unía el recipiente de la mano derecha con el recipiente de la mano izquierda. El mismo conductor pasaba entre los polos de un magneto y se movía debido a la corriente que el corazón generaba. Sobre ese conductor se colocó un pequeño espejo que reflejaba en una pared la luz que le incidía. El movimiento del conductor fue registrado por el trazo que producía la luz sobre la pared. El trazo luminoso equivalía a lo que es hoy un electrocardiograma. El sistema utilizado por Einthoven, formado por el espejo y el haz luminoso, era un ingenioso sistema que amplificaba la señal
53
Instrumentación Biomédica / Instrumentación Médica cardíaca. Con el desarrollo de los amplificadores electrónicos se pudo eliminar el amplificador de movimiento antes nombrado y se mejoraron las características del ECG. En 1940 se incorporó el registro de papel. Los amplificadores electrónicos fueron también empleados en conjunto con el electrodo que medía el pH, inventado por Max Cramer en 1906. Con este aporte se pudo cuantificar la acidez o alcalinidad de las soluciones. En 1924, el alemán Hans Berger desarrolló el electroencefalógrafo (EEG). Utilizando un galvanómetro muy sensible logró medir la corriente proveniente de placas metálicas fijadas en la cabeza del paciente y encontró que era el resultado de la actividad cerebral. EL ELECTROBISTURÍ En la transmisión de la señales Morse, empleada en las primeras comunicaciones inalámbricas, se generaba una chispa entre dos electrodos. Esto dio origen a la unidad de electrocirugía (ESU); el bisturí eléctrico ideado en los Estados Unidos en 1928. Sin embargo, su empleo no se generalizó en los quirófanos por no disponerse de anestesia no inflamable, hecho ocurrido a mediados del siglo XX. Al elemento de corte, llamado electrodo, se le aplica energía eléctrica de radiofrecuencia de unos 500 KHz. Con esta frecuencia y suficiente potencia, se cauteriza a medida que se corta. Con el electrobisturí, las cirugías podían realizarse más rápidamente con menos pérdida de sangre. LA ANESTESIA Anestesia, es una palabra que proviene del griego y significa insensibilidad. El dolor puede evitarse impidiendo por cualquier medio la transmisión de los impulsos nerviosos. La pérdida o disminución notable de la sensibilidad puede producirse en forma natural debido a algún padecimiento o en forma artificial. Para la insensibilidad artificial total (anestesia general) hay que bloquear el paso de los estímulos hacia el cerebro. Aunque el dolor es una advertencia encaminada a impedir que se produzcan daños excesivos en los seres vivos, constituye un padecimiento inútil durante las intervenciones quirúrgicas, la
54
Alvaro Tucci R. supresión del dolor se intentó inicialmente por medio de la hipnosis y la acupuntura. Las investigaciones, en busca de sustancias que alivian el dolor (analgésicos), han sido incesantes. El alcohol es probablemente una de de las más antigua. Hace más de 2000 años en Grecia, Hipócrates ya recetaba la corteza de sauce para calmar el dolor y la fiebre. Ahora, se sabe que efectivamente esa corteza contiene sustancias dotadas de acción analgésica. En 1876 se extrajo de dicha corteza una sustancia llamada salicina que tiene la propiedad de aliviar los dolores reumáticos. Un derivado de ella, el ácido salicílico, es empleado para calmar la fiebre. Sin embargo, esta sustancia produce graves trastornos gástricos, por lo que en 1899, un químico alemán, Felix Hoffmann intentó reducir el efecto colateral alterando ligeramente su estructura química. Produjo de este modo el ácido acetilsalicílico, al cual llamó aspirina, siendo hoy analgésico benigno más conocido y apreciado. De los analgésicos potentes, el opio, del griego opos, ya era conocido hace unos 6000 años. La planta adormidera, de donde procede, se usaba para inducir sensaciones placenteras, mucho antes de conocerse plenamente sus propiedades analgésicas. Hipócrates y Galeno escribieron respecto a los usos medicinales del opio y Paracelso llamó laúdano a la tintura de opio. Hasta mediados del siglo XIX, la cirugía no podía progresar por estar limitada por las hemorragias las infecciones y el dolor. La superación de estas dificultades produjo el triunfo de la cirugía moderna. Antes de proseguir, vale la pena conocer un poco sobre ese maravilloso descubrimiento que es la anestesia. Hasta mediados del siglo pasado, los pacientes que debían someterse a cirugía eran llevados a la mesa de operaciones por robustos enfermeros, como si se tratara de una sala de torturas, y en realidad lo era. En la edad media, los cirujanos eran considerados obreros inferiores. Las operaciones las efectuaban charlatanes, curanderos o barberos, que desarrollaban este arte. En aquel entonces no existía la anestesia como la conocemos hoy, de manera que el sufrimiento de los pacientes era atroz. Podía disminuir sólo con la rapidez del acto quirúrgico. Por eso, la habilidad de un cirujano se medía por la celeridad en la ejecución de una operación.
55
Instrumentación Biomédica / Instrumentación Médica El descubrimiento de los anestésicos se debe a las observaciones del químico británico Humphey Davy (1778-1829). Siendo muy joven ingresó al Instituto Neumático de Bristol donde fue destinado al estudio de la acción fisiológica de los gases. Davy, tenía la peligrosa costumbre de inhalarlos para descubrir sus efectos. En 1800, se topó con el óxido nitroso (gas hilarante). Descubrió que producía una sensación de mareo, embriaguez, volvía a las personas sugestionables, reían o lloraban a medida que exteriorizaban sus sentimientos. A fin de experimentar sus efectos, algunos se sentaban alrededor de un recipiente y lo inhalaban, por tal motivo se le llamó gas de la risa. Davy, informó que bajo su influencia no se experimentaba dolor y sugirió su empleo como anestésico. Pronto se convirtió en la novedad del momento. En 1846, fue empleado por James Jackson, quien lo utilizó por sus propiedades anestésicas. En los Estados Unidos, a principio de la década de 1840, los charlatanes llenaban las salas de fiestas con representaciones, Invitaban a subir al escenario a todo aquel que quisiera para hacerle inhalar el gas hilarante. En muchas casas se celebraban las reuniones del éter (lat. áether, gr. aither, líquido muy volátil de olor pronunciado y muy inflamable, aun a distancia, por sus vapores). Quienes lo inhalaban se sentían ligeramente borrachos y actuaban cómicamente. Un joven médico, Crawford W. Long (1815-1878), al participar en una de esas reuniones, notó que la gente se magullaba y se daba golpes sin que después se acordaran. Era como si se hubieran hecho daño mientras dormían. Long se dio cuenta de que el éter podía emplearse para dormir a los pacientes antes de someterles a una operación quirúrgica. Se le presentó la oportunidad al tener que operar a un joven que tenía dos tumores en la espalda. Mojó una toalla en éter y pidió al joven que lo inhalara, luego extirpó los tumores sin que el paciente sintiera ningún dolor. También en Estados Unidos, en 1844, un odontologo, el Dr. Horace Wells (1815-1848), que ignoraba los experimentos de Long, le pidió a un colega que le extrajera la muela del juicio después de haber inhalado éter. A finales de 1844, Wells empleó óxido nitroso para extraer una muela a un paciente. En 1846, un antiguo colega de Wells, proyectó un inhalador
56
Alvaro Tucci R. especial y convenció a un cirujano del Massachusetts General Hospital de Boston para que lo experimentara con uno de sus pacientes. Este cirujano, de nombre John Warren (1778-1856), dos años después, utilizando éter, extirpó un tumor sin producir dolor alguno. Debido a la notoriedad de Warren, la noticia se publicó en los periódico esparciéndose por todo el mundo. Al fin, las operaciones podían efectuarse sin los gritos de dolor de los pacientes. En 1831, el químico norteamericano Samuel Guthrie (1782-1848), descubrió el cloroformo. En 1847, el obstetra escocés James Young Simpson (1811-1870), descubrió sus propiedades anestésicas y lo adoptó inmediatamente. Fue el primero en administrarlo a las parturientas. Sin embargo, había predicadores que condenaban esta práctica, pues, según ellos, cuando Dios expulsó a Eva del Edén le dijo que pariría con dolor. Los predicadores, todos hombres, consideraban que el dolor del parto era como un castigo divino merecido por las mujeres. Hasta que Simpson, en 1853, aplicó el cloroformo a la reina Victoria en ocasión del nacimiento de su séptimo hijo. Los predicadores se vieron entonces obligados a escoger entre Dios y la soberana; escogieron ésta última, con lo cual cesaron las objeciones. La cocaína, un alcaloide obtenido de las hojas del arbusto de la coca, era masticada por los incas para suprimir las sensaciones de dolor y cansancio. Los europeos descubrieron que era fuertemente adictiva y peligrosa. Uno de los primeros en estudiarla fue el médico austríaco Sigmund Freud (1856-1939), quien transmitió sus observaciones a su colega Carl Koller (1857-1944). Koller la utilizó como anestésico local (anulación del dolor en un área del cuerpo sin producir inconsciencia). En 1884, después de haber experimentado con animales, llevó a cabo una intervención ocular utilizando anestesia local. Hoy en día, los cirujanos disponen de una gran variedad de sustancias anestésicas y equipos para suministrarla. EL LASER En 1953, el norteamericano Charles.H.Townes (1915-?) señaló que el principio del máser, para la producción de un rayo de microondas, intenso, coherente y monocromático, podía aplicarse a cualquier longitud de onda, inclusive la luz visible. En 1958,Townes, acompañado de A.L.Schawlow (1921-1999),
57
Instrumentación Biomédica / Instrumentación Médica publicaron el estudio teórico donde demostraban la factibilidad de funcionamiento de lo que llamaron láser (Light Amplification by Stimulated Emission of Radiation). Dos años después del enunciado teórico, el físico norteamericano Theodore. H. Maiman (1927-2007) construía el primer láser. Planchas de acero perforadas, fotografías en tres dimensiones, microsoldaduras y otras innovaciones están asociadas al nombre mágico del láser. Maiman diseñó un cilindro de rubí con sus extremos paralelos cuidadosamente pulidos, a los que cubrió con una película de plata. Excitaba el cilindro con una fuente luminosa destellante hasta que emitía un rayo de luz roja. La luz coherente así producida podía concentrarse en un punto tan pequeño que la temperatura podía superar la de la superficie del sol. Este hecho, llevó a los científicos a pensar que la fusión nuclear del hidrógeno, una de las grandes esperanzas para cubrir las necesidades de energía de nuestra civilización, podría relizarse. El hidrógeno, combustible para la fusión, es materia prima casi inagotable, el agua contiene dos átomos de hidrógeno en sus moléculas. Para que el proceso de fusión se desencadene hacen falta temperaturas del orden del millón de grados. Uno de los procesos ensayados para producir temperaturas de este orden fue el empleo de láseres sincronizados y dirigidos hacia el punto donde se hallara el hidrógeno. De llegar a materializarse esto, sería uno de los descubrimientos más importantes de la historia. El disco láser, también conocido como disco compacto o CD/ DVD, se desarrolló en 1972. En ellos, la información leída por rayos láser es almacenada en forma digital por medio de “huequecillos microscópicos”. La capacidad de almacenamiento de estos discos es fabulosa y la reproducción de la información es exacta réplica del original. Cada CD, cuyo costo es de algunos céntimos de dólar, tiene la capacidad de almacenar Gbytes de información. Otra aplicación relevante del laser la produjo IBM, cuando en 1982 comercializó una impresora láser capaz de imprimir unas 30 líneas por segundo. El CD y la impresora láser invadieron casi todod las oficinas y hogares de muchos paises Cuando la luz solar se enfoca sobre un papel mediante una lente, éste arde; de la misma manera se utilizan los rayos láser en medicina.
58
Alvaro Tucci R. El bisturí láser, que al cortar cauteriza simultaneamente, permite intervenciones quirúrgicas de altísima precisión. Acoplado a la fibra óptica, es posible trasladar su acción a lugares inaccesibles. Enfocado sobre una diminuta área de tejido coagula las células, al igual que la punta incandescente de una aguja. Se emplea principalmente en cirugía, oftalmología y rehabilitación. En oftalmología para “soldar” las áreas posteriores de la retina desprendida de la capa coridea. EL RESPIRADOR ARTIFICIAL El empleo de los respiradores artificiales comienza con Eugene Woillez, quien en 1876 desarrollo una máquina operada manualmente a la que llamó espiróforo, ideado para suplir las deficiencias respiratorias graves. Para auxiliar los pacientes con parálisis pulmonar, causada por la poliomielitis, P. Drinker, en 1928, introdujo el pulmón artificial o pulmón de acero accionado con energía eléctrica. El paciente era introducido en un cilindro rígido metálico, de modo que sólo la cabeza asomaba al exterior, aplicandósele cíclicamente presión negativa. Cuando la presión es menor que la atmosférica, el pecho del enfermo se expande e inspira el aire; cuando la presión vuelve al nivel atmosférico, el pecho se contrae y expulsa el aire de los pulmones. Otro mecanismo respiratorio menos complicado, llamado ventilador de presión positiva intermitente, fue desarrollado por H. Lasser y B. Ibsen. Se utilizó masivamente debido a la devastadora epidemia de poliomielitis que se produjo en Copenhague en 1952. Este aparato consistía en un cilindro de aire comprimido, un tubo de goma, una bolsa de goma semirígida, un absorbente de anhídrido carbónico y una válvula. Para emplearlo, se hacía una incisión en la parte superior de la tráquea del paciente donde se insertaba el tubo. Un estudiante de medicina se dedicaba a apretar la bolsa a un ritmo semejante al de la respiración normal. Después del experimento de Copenhague, se construyeron otras versiones perfeccionadas y accionadas por electricidad. EL DESFIBRILADOR Millones de personas mueren cada año debido a los paros cardíacos, sin embargo, si se les pudiere auxiliar con un
59
Instrumentación Biomédica / Instrumentación Médica desfibrilador antes de un minuto, el 80% se salvaría. La fibrilación es una alteración del funcionamiento del corazón. Se presenta cuando se pierde el sincronismo natural de las contracciones de las aurículas y los ventrículos. En su lugar se producen contracciones rápidas e irregulares, como una especie de temblor. Durante la fibrilación desaparece casi totalmente la circulación, puesto que el corazón no produce latidos potentes y eficaces. La fibrilación ventricular es una alteración generalmente mortal que usualmente se manifiesta con la trombosis coronaria. El desfibrilador, es un instrumento que induce la despolarización sostenida de las células del miocardio con el fin de detener su fibrilación. Las aplicaciones clínicas del desfibrilador comenzaron en 1956 cuando el cardiólogo de Harvard, Paul M. Zoll (1911-1999) y un grupo de investigadores tuvieron éxito al desfibrilar el corazón de un paciente que había sufrido un ataque cardíaco. Detuvieron la fibrilación al aplicarle una corriente alterna a través del pecho. La efectividad y confiabilidad del instrumento fue incrementada por médico lituano Bernard Lown (1921-?) En el desfibrilador de Lown, un condensador se descarga a través del pecho del paciente y le suministra corriente continua del orden de los amperios. Si la descarga se aplica directamente sobre la superficie del corazón, la corriente requerida es mucho menor. EL MARCAPASOS El corazón late con regularidad, se acelera cuando el esfuerzo o las emociones incrementan la demanda de oxígeno, o entra en un ritmo más lento cuando el cuerpo está en reposo. Desde la década de 1920 se sabe que un grupo de célula localizadas en el corazón inician su latido. Ese grupo de células forman el nodo sinoauricular, llamado en inglés pacemaker y en español marcapasos. Cuando las células se alteran o dañan, el corazón puede latir muy despacio o muy aprisa. Si no reanuda su ritmo normal, a pesar de los medicamentos, es necesario recurrir al marcapasos artificial. En 1957, el cirujano norteamericano Clarence Walton Lillehei (1918-1999), “marcó el paso de un corazón”. Durante el transcurso de una operación, hizo que el corazón del paciente latiera guiado
60
Alvaro Tucci R. por estímulos externos. Le aplicó impulsos eléctricos con periodo semejante a los impulsos naturales. Pero este marcapasos sólo tenía aplicación durante las intervenciones. En 1960, el cirujano norteamericano William Chardack (19192006) y el ingeniero Wilson Greatbatch (1919-?), desarrollaron el marcapaso implantable. Consiste en una minúscula unidad generadora de impulsos alimentada por pilas, que se instala bajo la pared abdominal o en la parte delantera de la axila. Unos conductores eléctricos se introducen por el lado izquierdo del tórax y se instalan en el interior del tabique ventricular. El marcapasos fue el primer “repuesto” del corazón; le siguieron las válvulas y las arterias. EL RIÑÓN ARTIFICIAL Los procesos orgánicos terminan produciendo desechos venenosos. Cada célula genera productos residuales que se acumulan en el flujo sanguíneo, y a menos que sean eliminados, trastornan el equilibrio químico del cuerpo. La eliminación depende de los riñones que filtran unos 170 litros de sangre diariamente. Si por efecto de alguna dolencia disminuye la capacidad del riñón para excretar agua y urea, estos productos se acumulan excesivamente en la sangre dando lugar a una enfermedad fatal llamada uremia. En 1945, con el invento del riñón artificial por el norteamericano de origen holandés Willem J.Kolff (1910-?), se inicia la era de los órganos artificiales. Con este invento, se puede mantener con vida a aquellas personas cuyos riñones dejan de cumplir su función. En 1941, Kolff, observó que si sumergía un saquito de celofán lleno de sangre en una solución de azúcar, sal y agua, el agua y la urea de la sangre pasaban a la solución. El fenómeno físico que explica el paso de la urea a través del celofán se llama diálisis, y en el caso de la sangre, hemodiálisis. Mientras que el agua se filtra debido a un proceso llamado ósmosis. Todos los riñones artificiales se basan en el experimento de Kolff. Consisten esencialmente en un aparato que bombea la sangre del enfermo para que se deslice lentamente por una membrana de celofán de gran superficie. La membrana está en contacto con un gran volumen de solución acuosa de azúcar y sal en la cual se recogen los
61
Instrumentación Biomédica / Instrumentación Médica desechos. Después de dializada, la sangre es regresada al torrente circulatorio. En 1960, el riñón artificial fue aplicado por primera vez en forma continua por el cirujano norteamericano Belding Scribner (19212003), para purificar la sangre de pacientes con insuficiencia renal crónica. OTROS DESARROLLOS En los espectrofotómetros, un haz de luz de longitud de onda progresivamente creciente pasa a través de una solución y se registra la luz absorbida en función de su longitud de onda. La magnitud de la absorción varía, alcanzando generalmente valores máximos para ciertas longitudes de onda. El resultado es un registro con picos de absorción característicos, llamado espectro de absorción. Estos aparatos se utilizan para el análisis de estructuras de un determinado grupo atómico, el cual posee su propio pico de compuestos complejos. Los análisis cromatográficos, han permitido valorar con exactitud el contenido de aminoácidos de diversas proteínas. Se ha determinado, por ejemplo, que la molécula de una proteína de la sangre, denominada albúmina sérica, contiene 526 aminoácidos de 18 tipos distintos, constituyendo una proteína con peso molecular de aproximadamente 69.000 . La técnica de electroforesis, gracias a la diferencia de carga eléctrica neta existente en las diversas moléculas, utiliza la corriente eléctrica para separar las proteínas . Esta técnica fue desarrollada por el bioquímico sueco Arne Tiselius (1902-1971), quien en 1948, recibió el premio Nobel por esta valiosa contribución. La electroforesis sobre papel, utiliza la corriente eléctrica para transportar las moléculas a través de una tira de papel de filtro, permitiendo, por ejemplo, la separación de los fragmentos de cada hemoglobina. En un laboratorio moderno de biología molecular, la lupa ha sido sustituida por instrumentos como contadores de centelleo, de resonancia magnética nuclear, espectrómetros de masas, espectroscopia Raman con láser y muchos otros. Estos instrumentos permiten “ver” las moléculas, los átomos y sus enlaces, y han servido para conocer los secretos más escondidos de la materia.
62
Alvaro Tucci R. A finales de los años veinte del siglo pasado, se desarrolló un instrumento basado en el hecho de que los núcleos atómicos poseen propiedades magnéticas. Las moléculas expuestas a un campo magnético de gran intensidad absorben ciertas radiofrecuencias. A partir de tal absorción, denominada resonancia magnética nuclear (RMN), puede obtenerse información sobre los enlaces atómicos. En particular, pueden localizar la posición de los pequeños átomos de hidrógeno en el interior de una molécula. Las técnicas de RMN fueron elaboradas en 1946 por dos equipos de investigadores independientes, uno bajo la dirección del ingeniero electricista Edward M. Purcell (1912-1997), el otro, dirigido por el físico suizo-americano Felix Bloch (1905-1983), quienes compartieron el premio Nobel de Física en 1952. En 1928, el físico hindú Chandrasekhara Venkata Raman (18881970), halló que la luz dispersada por las moléculas en una solución era alterada en su longitud de onda. De la naturaleza de la alteración podía deducirse la estructura de la molécula. Por este descubrimiento, conocido como efecto Raman, dicho investigador recibió el premio Nobel de Física en el año 1930. A las longitudes de ondas "alteradas" se les denomina espectro Raman de la molécula. La mayor parte de los elementos químicos biológicamente más importantes, poseen isótopos inestables que pueden ser utilizados como trazadores. Estos isótopos son el hidrógeno 2 (deuterio), el carbono 13, el nitrógeno 15 y el oxígeno 18. El hidrógeno 2, por ejemplo, podría utilizarse como trazador en una molécula que lo contenga. Si dicha molécula es administrada al organismo, la presencia de hidrógeno pesado puede ser detectada mediante el espectrógrafo de masas, en virtud de su mayor peso. De este modo puede seguirse el “camino y destino” del átomo de hidrógeno, que en este caso ha sido utilizado como trazador. EL COMPUTADOR No es posible hablar de la instrumentación médica sin incluir esa maravilla tecnológica que, desde la segunda mitad del siglo XX, se ha ganado un espacio en nuestro hogar y en todos los campos del saber. Desde que el hombre empezó a utilizar la aritmética, ha buscado instrumentos que lo ayudaran a manejar los números.
63
Instrumentación Biomédica / Instrumentación Médica Un ejemplo antiguo e ingenioso es el ábaco. Este instrumento primitivo fue desarrollado entre los años 4000 y 3000 a de J.C. Consistía en un marco rectangular donde se colocaban varios hilos paralelos sobre los cuales se deslizaban unas “bolitas”. Los romanos llamaron a estas bolitas calculi, del plural de calculus, que en latín significa piedra pequeña; raíz latina dio origen a la palabra cálculo. La primera máquina de calcular exitosa fue construida por el matemático, físico y filósofo francés Blaise Pascal (1623-1662). Dotado de gran precocidad, a los dieciocho años inventó una máquina de calcular, la cual todavía se conserva en buen estado de funcionamiento. El filósofo y matemático alemán Gottfried W. Leibniz (16471716), conocido por descubrir al mismo tiempo que Isaac Newton (1643-1727) el cálculo infinitesimal, construyó una máquina de calcular alrededor de 1671, la cual no solamente sumaba y restaba, sino también multiplicaba. Muchos de los principios de esta máquina fueron adoptados en las calculadoras que se construyeron posteriormente. La calculadora de Leibniz debía ser operada paso a paso, es decir, cada operación aritmética debía ser iniciada y seguida manualmente por el operador, lo que reducía el número de operaciones a unas 500 diarias. El científico y matemático inglés Charles Babbage (1792-1871), intentó mecanizar el procedimiento y eliminar el operador. Diseñó una máquina que podía realizar una secuencia de operaciones sin intervención humana y sin pararse hasta concluir la tarea. Su idea fue financiada por el gobierno inglés, pero no la pudo llevar a término debido a la limitada tecnología de su época. Sin embargo, le corresponde a este científico el mérito de haber establecido los principios básicos de las máquinas digitales modernas. En 1925, el ingeniero norteamericano Vannevar Bush (18901974) y su equipo, construyeron una máquina capaz de resolver ecuaciones diferenciales. Aunque utilizaba interruptores mecánicos, esta máquina es considerada precursora de la computación moderna. El primer computador electrónico, que contenía 19.000 tubos de vacío, pesaba 30 toneladas, consumía 150 kilovatios y ocupaba 400 metros cuadrados, se construyó durante la segunda guerra
64
Alvaro Tucci R. mundial en la Universidad de Pennsylvania. Fue llamado ENIAC de Electronic Numerical Integrator and Computer. ENIAC, dejo de funcionar en 1955, sólo después de doce años de vida, pero dejó una descendencia sorprendentemente numerosa y sofisticada. El computador electrónico digital, UNIVAC, de la “Universal Automatic Computer”, fue puesto en funcionamiento en 1952 en los Estados Unidos para analizar los resultados de una elección presidencial. UNIVAC, fue el primer computador digital empleado con fines comerciales. La teoría de los computadores digitales modernos se basa en la tesis doctoral de un joven ingeniero americano, Claude Elwood Shannon (1916-2001), quien en 1938 expuso que la lógica deductiva, en la forma conocida como álgebra de Boole, podía ser tratada mediante un sistema binario. El álgebra de Boole, se refiere a un sistema de lógica simbólica que fue publicada en 1854 por el matemático inglés George Boole (1815-1864) en el libro titulado Una investigación de las leyes del pensamiento. El álgebra de Boole, ha adquirido una importancia en computación e ingeniería de comunicaciones, constituyendo lo que conocemos hoy como la teoría de la información. Por supuesto, el computador moderno es completamente automático, su velocidad e "inmunidad al cansancio" le permite realizar tareas muy pesadas, aunque no necesariamente demasiado difíciles para el cerebro humano. Nuevas investigaciones intentan producir máquinas que imitan la mente humana, se desarrolla la inteligencia artificial y sistemas capaces de aprender “recordando” experiencias.
65
Alvaro Tucci R.
CAPÍTULO 2
Origen de los Biopotenciales INTRODUCCIÓN
Todos los sistemas vivos, desde los organismos unicelulares hasta los complejos multicelulares, incluido el ser humano, se caracterizan por su gran organización. Están formados por moléculas biológicas específicas, como las proteínas, lípidos, ácidos nucleicos y carbohidratos. Todas ellas en suspención en un sistema acuoso de electrólitos de sodio, potasio y cloro y pequeñas moléculas solubles como el dióxido de carbono, oxígeno, aminoácidos, glucosa, etc. A la sustancia constitutiva de los seres vivos se le conoce como "protoplasma" que es esencialmente idéntica en todos las células. Sólo existen pequeñas diferencias en el tipo y número de sus proteínas y ácidos nucleicos, que son el origen de la diversidad de la población de seres vivos, su especialización y evolución. El líquido acuoso que "baña" todas las células, que le suministra todas las sustancias necesarias para el metabolismo y recibe los productos de desecho, es el líquido extracelular. En los organismos multicelulares, las células están altamente especializadas, de ese modo son más eficientes en el desempeño de sus funciones. Actúan como parte de conjuntos que forman tejidos, órganos o sistemas. Los aparatos y sistemas que integran las organismos multicelulares son esencialmente los siguientes:
67
Instrumentación Biomédica / Origen de los Biopotenciales El aparato digestivo: Formado principalmente por las vías gastrointestinales, también incluye el hígado, el páncreas, y las glándulas salivares. Sus funciones son la ingestión, digestión, absorción de los alimentos y la defecación . El aparato respiratorio: Integrado por las vías respiratorias y los pulmones. En ellos se efectúa el intercambio de gases; la absorción de oxígeno y la excreción de dióxido de carbono. El aparato circulatorio: El corazón, los vasos sanguíneos y el sistema linfático, son los encargados de suministrar a las células el fluido extracelular. En este fluido, se encuentran las sustancias nutritivas y las materias de desecho originadas por el metabolismo celular. Los líquidos impulsados por el aparato circulatorio también intervienen en la inmunidad. La inmunidad es la prevención de infecciones debidas a la invasión del fluido extracelular por agentes patógenos o por agentes tóxicos exógenos. El aparato excretor: Los riñones, las vías urinarias, así como las glándulas sudoríferas, conservan el estado dinámico del fluido extracelular, eliminan los desechos y regulan su volumen. El sistema nervioso lo integran un conjunto de células muy especializadas que constituyen el sistema nervioso central, los nervios del sistema autónomo y periférico y las innervaciones de los sentidos. Las neuronas, células fundamentales del sistema nervioso, captan, transmiten y procesan estímulos de los medios externos e internos e inervan los sentidos. En coordinación con varias hormonas producidas por las glándulas endocrinas, el sistema nervioso controla y regula la actividad los organismos vivos. El sistema musculosquelético está compuesto por los músculos, los tendones y los huesos. Su función es efectuar los movimientos necesarios para la vida. Los músculos, con su movimiento, ayudan al corazón en el bombeo de la sangre y al movimiento de fluidos extracelulares El integumento: La piel y tejidos subcutáneos conservan el fluido extracelular. Evitan la pérdida de fluidos, protegen de la "invasión" de agentes patógenos y conservan la temperatura del cuerpo. La célula está compuesta por cuatro partes independientes pero altamente integradas: la membrana, el citoplasma, el nucleoplasma y los organelos semiautónomos. La membrana rodea y separa las diversas partes de la célula, a la vez que permite su integración. Todas las membranas celulares tienen la misma composición
68
Alvaro Tucci R. estructural y bioquímica. Esencialmente, son capas dobles de proteínas que le confieren su característica de selección o semipermeabilidad y control de todos los materiales que "entran y salen" de de la célula.El funcionamiento del cuerpo humano es la suma del metabolismo de los 70 billones de células que lo integran. Los procesos bioquímicos de la célula se realizan en una solución acuosa de electrolítos, fundamentalmente Na+, CI- y K+. Dicha solución acuosa, es el ingrediente básico de la materia fundamental de la célula y el elemento primordial del fluido intracelular, además de otros solutos en forma de partículas de tipo iónico y molecular. La actividad esencial de la membrana, es establecer un equilibrio dinámico bioquímico tendiente a conservar la concentración de metabolitos. La incapacidad para mantener esta concentración, pone en riesgo la vida de la célula.
NATURALEZA
DEL
IMPULSO
NERVIOSO
El descubrimiento de que las células nerviosas tienen la capacidad de estimular los músculos y ocasionar su contracción, ocurrió por accidente cuando el fisiólogo italiano Luigi Galvani (1737 –1798) experimentaba con los músculos de ancas de ranas. El científico, quería averiguar si los choques eléctricos que hacían sacudir los "músculos vivos" podían hacerlo también con los "músculos muertos". Galvani, había disecado una rana que se encontraba en la cercanía de una máquina eléctrica (la botella de Leyden). Uno de sus ayudantes, aplicó la punta de un bisturí a los nervios crurales de la rana en el preciso momento en que la máquina producía una chispa. Observó entonces, que todos los músculos experimentaban incontenibles sacudidas espasmódicas. Otro ayudante observó que el fenómeno ocurría sólo cuando la máquina eléctrica producía la chispa. Este hecho entusiasmó al científico, quien para aclarar el oscuro fenómeno repitió el experimento. Notó que era de naturaleza eléctrica y que efectivamente se repetía. Años antes, Benjamín Franklin (1706-1790), en 1752, había demostrado que el rayo también era de naturaleza eléctrica. Galvani, se preguntaba si las "dos electricidades" eran iguales, por lo que decidió comprobar si los músculos, sometidos a los efectos de una tormenta eléctrica, experimentaban las mismas contracciones. Para verificar este hecho, colocó los músculos de rana en unos
69
Instrumentación Biomédica / Origen de los Biopotenciales
ganchos de latón en el exterior de su ventana, de manera que estuvieran en contacto con la reja y esperó a que se desatara una tormenta. Al mismo tiempo que se producía un rayo, todos los músculos sufrían contracciones violentas, como si quisieran avisar el trueno. Otras observaciones demostraban que en algunas ocasiones, inexplicablemente, los espasmos se originaban en ausencia de tormenta. Galvani, descubrió que estos espasmos se producían cuando el músculo entraba en contacto simultáneamente con dos metales diferentes; como el cobre y el zinc. Tal observación, lo llevó a inferir que la electricidad que intervenía en el fenómeno se originaba en el músculo mismo, por lo cual la llamó electricidad animal. Utilizando el músculo como indicador visible, Galvani concluyó acertadamente que los nervios podían ser estimulados por la electricidad. Este anuncio, se produjo precisamente cuando muchos investigadores estaban intrigados por los efectos de la electricidad estática sobre los sistemas biológicos. En esa época, las ciencias naturales y exactas no estaban disociadas de la filosofía, y el Galvanismo (obtención de movimiento de animales vivos o muertos, mediante la estimulación por medio de la corriente eléctrica), era causa de discusiones en los medios científicos. De la misma forma que en la Edad Media se debatía sobre la alquimia, o como en la actualidad se discute sobre los alcances de la clonación. En Londres, se hacían lecturas públicas sobre los usos medicinales de la electricidad. Se realizaron experimentos en presencia del rey Jorge III y su familia, haciendo saltar ranas como si estuviesen vivas; se intentaron curar sabañones mediante descargas eléctricas y se discutían diversas doctrinas filosóficas, entre otras, la naturaleza del principio vital y la posibilidad de que se llegase a descubrir para conferirlo a la materia inerte. En 1818, un médico de Glagow, realizó un experimento público con el cadáver de un asesino, cuya sentencia fue la horca y la entrega inmediata de su cuerpo a los anatomistas. Después de declarado muerto por el verdugo, fue llevado al paraninfo de la Universidad de Glasgow donde los anatomistas intervenían los cadáveres en plena vista pública. Apenas llegó el cuerpo, se realizaron algunas disecciones en busca de los nervios donde se haría la estimulación eléctrica. Una pierna reaccionó con tanta fuerza que casi derriba a uno de los asistentes. Cuando se conectaron los cables al nervio frénico y al
70
Alvaro Tucci R. diafragma, el éxito fue incomparable. "El aliento comenzó de inmediato. El pecho respiraba agitadamente y bajaba, el vientre sobresalía y se deshinchaba de nuevo...", escribió un científico presente. Las observaciones de Galvani, relacionadas con la contracción muscular en presencia de metales diferentes en un medio húmedo, intrigaron al físico italiano Alessandro Volta (1745-1827). Después de realizar numerosas experimentaciones, Volta concluyó acertadamente que la electricidad se originaba en los metales. Tal conclusión lo llevó a inventar la pila, proceso mediante el cual se transforma energía química en eléctrica. Algunos años más tarde, el fisiólogo alemán Hermann von Holmholtz (1821-1894) supuso que el impulso nervioso se propagaba como lo hace la corriente eléctrica por un conductor. Con la finalidad de verificar esta hipótesis, sabiendo que la velocidad de propagación de la corriente a lo largo de un conductor es de unos 300.000 Km/seg, realizó un experimento destinado a medir la velocidad del impulso nervioso a lo largo de un nervio. Después de varias observaciones comprobó que la velocidad era unos dos millones y medio de veces más lenta. Investigaciones posteriores demostraron que la máxima velocidad de propagación, registrada en algunos nervios de mamíferos, alcanza sólo 120 m/seg. Los resultados experimentales de Holmholtz, tan alejados de lo esperado, obligaban a buscar otras formas de propagación. Un indicio aportado por nuevas investigaciones, se manifestaba en el hecho que la velocidad de conducción nerviosa, lo mismo que en las reacciones químicas, dependía de la temperatura, lo cual sugería que la propagación podía ser de naturaleza electroquímica. Un aumento de temperatura causa la disminución de la resistencia eléctrica de los tejidos, con el consiguiente incremento de la corriente. Aquí cabe establecer la diferencia entre corriente eléctrica, como flujo de electrones, y corriente iónica. La corriente eléctrica que fluye por un conductor está formada por electrones libres cuyo movimiento se propaga a la velocidad de la luz; mientras que la corriente iónica está formada por partículas o iones, que no son más que átomos o grupos de átomos cargados eléctricamente, que se propagan por un electrolito a velocidades mucho menores. Cuando la corriente de electrones fluye por conductores o semiconductores, su paso no altera su constitución, mientras que el flujo de la corriente iónica puede producir reacciones químicas y
71
Instrumentación Biomédica / Origen de los Biopotenciales transporte de materia. La corriente que fluye por los tejidos biológicos es corriente iónica. Otra característica de la propagación iónica en las fibras nerviosas, es que a pesar de ser el nervio un mal conductor de electricidad, el impulso que lo recorre no se atenúa. Esta propiedad, que intrigó por mucho tiempo a los investigadores, fue comprobada por medio del siguiente experimento: Si se coloca un electrodo fuera de la neurona y otro en su interior, se detecta una diferencia de potencial de unos 70 mV. Siendo la parte interna negativa con respecto a la externa. A este potencial se le llama potencial de reposo. Cuando el axón se estimula registra una breve inversión de polaridad; la parte interna se vuelve positiva respecto a la externa. A la nueva polaridad se le llama potencial de acción. La variación de voltaje sobre la membrana en función del tiempo se representa en la figura 2-1. Investigaciones posteriores comprobaron que la propagación del impulso nervioso es el resultado del movimiento de iones a través de la membrana que cubre el axón de la célula. El potencial de acción es el que "viaja" a lo largo de la membrana a la velocidad de algunos milímetros por segundo en los nervios no mielinizados y decenas de metros por segundo en los mielinizados.
Figura 2.1. Potencial de membrana
72
Alvaro Tucci R. El mecanismo mediante el cual se efectúa la conducción del impulso eléctrico en la célula nerviosa no mielinizada se representa en la figura 2.2. La propagación del impulso nervioso se efectúa por medio del desplazamiento de la inversión transitoria de la polaridad a lo largo del axón. Por tal motivo, su propagación no sufre atenuación.
Figura 2.2. Propagación del Impulso
El segmento del axón que queda "atrás de la inversión" se vuelve refractario durante un breve periodo, es decir, no puede ser reexitado, lo cual impide que el potencial de acción "retroceda". Esto hecho es comprobado por medio del experimento mostrado en la figura 2.3, donde se mide el cambio de potencial entre la parte interna y externa de un axón, utilizando dos microelectrodos y un milivoltímetro. Un extremo del microelectrodo se coloca dentro del axón y otro en su superficie. La inversión transitoria de polaridad dentro del axón es representada por el rectángulo que viaja hacia la derecha. La figura 2.3a. muestra la condición en la cual la inversión no ha alcanzado la región donde están los electrodos. La superficie es positiva con respecto a la parte interna y el potencial de reposo, indicado por el milivoltímetro, es de unos -70 mv. La figura 2.3b. indica el momento en que el impulso nervioso alcanza la región donde están los electrodos. En ese instante se produce inversión de polaridad, el milivoltímetro indica que la tensión es positiva. El potencial de acción es de unos +50 mv.
73
Instrumentación Biomédica / Origen de los Biopotenciales
Figura 2.3. Detección del impulso nervioso e inversión de polaridad
En la figura 2.3c. se observa la condición en la cual el impulso nervioso se aleja de los electrodos. El potencial de la membrana se restaura y adquiere de nuevo el potencial de reposo. La curva de la figura 2.3d indica la forma que ha variado el voltaje entre los electrodos debido al desplazamiento del potencial de acción a lo largo de la fibra nerviosa.
LA
MEMBRANA
CELULAR
La membrana celular es la envoltura de unos 80 Angstroms de espesor que rodea la célula. A través de ella se efectúan los intercambios con el medio que la rodea. Regula la conducción de las sustancias en ambos sentidos. Permite el paso de los elementos necesarios provenientes del exterior y a través de ella se eliminan los desechos producidos por su metabolismo. La diferencia de potencial sobre la membrana celular se debe a su permeabilidad selectiva relacionada con ciertos iones. En estado de reposo, la membrana de la mayoría de las células no permite + que los iones sodio (Na ) pasen a través de ella, pero es hasta + cierto punto permeable a los iones potasio (K ). Esta propiedad, única de la membrana celular, hace que se establezca una diferencia iónica entre la composición del líquido
74
Alvaro Tucci R. intracelular y extracelular, lo cual crea sobre ella una diferencia de potencial. Cuando la parte interna es negativa respecto a la externa, estamos en presencia del potencial de reposo. Su magnitud varía de un tejido a otro y oscila entre los -9 mV y -100 mV. Se dice que una membrana está polarizada cuando se establece sobre ella una diferencia de potencial y seguirá así mientras permanezca impermeable a los iones que la polarizan. Cuando se estimula pierde momentáneamente su impermeabilidad y los iones que antes no podían franquearla fluyen a través de ella y la despolarizan. Para que la membrana se polarice de nuevo la célula debe "bombear" iones positivos hacia el exterior. En este proceso hay gasto de energía. Los intercambios entre la célula y el medio que la rodea son posibles debido a que la membrana es selectivamente permeable. La permeabilidad depende, entre otros factores, del tamaño y naturaleza de las moléculas que la pretenden atravesar, si estas son polares o no, y de su carga. El agua, con peso molecular de 18 y radio de 0,12 nm, pasa casi libremente y se difunde por ósmosis. Pero la membrana es prácticamente impermeable a las proteínas intracelulares y otros aniones de gran tamaño, como por ejemplo la albúmina, que tiene peso molecular de 69.000 y radio de 7,5 nm La membrana también contiene compuertas o válvulas; las compuertas de voltaje, que se abren o cierran en respuesta a estímulos eléctricos y las compuertas de ligando, que responden a estímulos bioquímicos. Un conducto típico con compuerta de voltaje es el conducto del sodio. La tabla 2.1. muestra el voltaje promedio que se establece sobre la membrana de una neurona de mamífero y su permeabilidad para los iones sodio, potasio y cloro. Tabla 2.1 Ion
Na + K + Cl
+
Concentración
Potencial Extracelular (mV)
Permeabilidad de equilibrio
(mmol/lt)
Concentración Intracelular (mmol/lt)
15.0 150.0 9.0
150.0 5.5 125.0
+60 -90 -70
0.019 2.1 3.9
75
Instrumentación Biomédica / Origen de los Biopotenciales En el transporte de iones, cuando las sustancias se mueven en dirección del gradiente químico o eléctrico, no requiere consumo de energía. Este proceso se denomina difusión. La difusión puede ser simple o facilitada. Cuando el transporte se efectúa contra el gradiente, los iones son forzados a desplazarse a través de la membrana; en este caso el desplazamiento se llama transporte activo y consume energía. Es efectuado por una proteína de membrana, activada por el sodio y el potasio, conocida también como bomba sodio-potasio. La energía requerida por la bomba se deriva exclusivamente de la hidrólisis del ATP (Adenosín Trifosfato). Este proceso ocurre con el potasio, que tiene mayor concentración en las células musculares y nerviosas que en el medio que las rodea. Tal situación se esquematiza en la figura 2.4.
Figura 2.4. Transporte Activo. Para mantener una alta concentración + de K en el interior de la célula se requiere energía en forma de ATP +
+
EFECTOS DEL TRANSPORTE NA Y K La bomba sodio-potasio es un mecanismo que se encuentra en cada célula. Produce desplazamiento neto de cargas positivas hacia el exterior de la célula, puesto que tiene la propiedad de transportar + + tres Na hacia el exterior por cada dos K hacia el interior. Su funcionamiento, regulado en parte por cierta realimentación, + es activado o no por la concentración de Na en el interior de la célula.
76
Alvaro Tucci R. +
+
El trasporte activo del Na y el K es un proceso que consume mucha energía y forma una gran parte de la energía consumida por el metabolismo basal. En promedio constituye 33% de la energía utilizada por la célula. Esta cifra se incrementa hasta un 70% en las neuronas. MOVIMIENTO DE LOS IONES Los fenómenos de conducción ionica a través de la membrana están gobernados por: • Difusión de las partículas debido al gradiente de concentración. • Interacción de las partículas cargadas. • Propiedades de la membrana. DIFUSIÓN POR GRADIENTE DE CONCENTRACIÓN La ley de difusión de las partículas, o ley de Fick, establece: "Si hay una alta concentración de partículas en una región y están en libertad de moverse, lo harán en la dirección que tienda a homogeneizar la concentración". Es decir, las partículas se moverán en dirección contraria al gradiente de concentración. Esta ley se aplica, por ejemplo, a la difusión de partículas de un perfume, a los electrones en difusión cuando se fabrica un semiconductor, o a la distribución de iones en un electrolito. Su expresión matemática es: j = -D
d(c) dx
donde: j c D x
es la densidad de corriente en partículas por unidad de área. es la concentración de las partículas. es la constante de difusión y la distancia.
La concentración ionica en función de la distancia, para una sola dimensión, se representa gráficamente en la figura 2.5.
77
Instrumentación Biomédica / Origen de los Biopotenciales
Figura 2.5. Concentración iónica en función de la distancia.
En este punto cabe resaltar algunos aspectos relacionados con el fenómeno: La difusión, es un proceso mediante el cual un gas o una sustancia en solución, debido al movimiento aleatorio de sus partículas, tiende a ocupar todo el espacio disponible. Las partículas del soluto disueltas en el solvente están en un continuo movimiento aleatorio, en consecuencia cualquiera de ellas tiene la misma probabilidad de alejarse o aproximarse a la zona en que están más concentradas. Debido a que hay más partículas en la zona de gran concentración, mayor es el número que se desplazan hacia la zona de menor concentración. Es decir, existe un flujo neto de partículas del soluto que se mueven de la zona de mayor a menor concentración. El tiempo necesario para obtener el equilibrio por difusión es proporcional al gradiente de concentración y cuadrado de la distancia al área transversal a través de la cual se efectúa la difusión. En el axón de una neurona en estado de reposo, la concentración + de K en el citoplasma es unas 30 veces superior a la concentración del mismo elemento en el líquido extracelular, mientras que la + concentración de Na , es unas diez veces superior en el líquido extracelular. Tal situación se representa en la figura 2.6. + En reposo, la membrana es impermeable a los iones Na y poco + + permeable a los iones K . Debido a la alta concentración de K en el
78
Alvaro Tucci R. citoplasma, éstos se difunden a través de la membrana hacia el líquido extracelular. En consecuencia, en el interior de la célula se desarrolla una carga negativa. El exceso de carga negativa impide + que una mayor cantidad de iones K se sigan movilizando. Rápidamente se alcanza un equilibrio en el cual no existe + movimiento neto de iones K . En esta situeción, sobre la membrana se establece el potencial de reposo.
Figura 2.6. Distribución iónica
Cuando la membrana se vuelve permeable al sodio en el sitio + de la estimulación los iones Na entran precipitadamente en la célula atraídos por la carga negativa existente en su interior y por la diferencia de gradiente de concentración. Este flujo de iones positivos invierte momentáneamente la polaridad de la membrana, de modo que se torna positiva en su parte interna. Tal situación se ilustra en la figura 2.7
Figura 2.7. Potencial de membrana
79
Instrumentación Biomédica / Origen de los Biopotenciales +
El cambio de permeabilidad al Na dura aproximadamente 0,5 ms, luego recupera la impermeabilidad a ese ion. Durante el estímulo, + la permeabilidad al K aumenta también, por lo tanto se genera un flujo de estos iones hacia la parte externa de la célula. El flujo de iones es debido principalmente a que su interior es positivo. Al terminar el estímulo, la bomba sodio-potasio restablece la + + condición de reposo, es decir, expulsa Na e introduce K con el gasto de energía celular antes nombrado. INTERACCION DE LAS PARTICULAS CARGADAS Debido a su carga, los iones están también sometidos a la ley de atracción o repulsión. Dicha ley establece que las partículas cargadas se atraen o repelen de acuerdo a su polaridad, por lo cual se genera también un flujo de corriente iónica, expresada matemáticamente por la siguiente ecuación: Jd = -uZ donde
Jd V Z C u
dV dx
C
es la densidad de corriente de difusión. es la caída de potencial. es la valencia o número de cargas del ion. es la concentración del ion y es una constante de proporcionalidad que expresa movilidad.
Con referencia a esta ecuación se pueden hacer los siguientes comentarios: Cuando un ion "no difundible" está de un lado de la membrana, afecta la distribución del resto de los iones a los cuales la membrana es permeable. Por ejemplo, si existen iones sodio de un lado de la membrana a través de la cual no pueden difundirse y hay iones potasio en el lado opuesto, los iones sodio impiden que los de potasio se difundan, pues los repelen. Por lo tanto, la difusión de los iones depende de la distribución de las cargas eléctricas. Los iones del mismo signo se repelen y tienden a separarse, mientras que los de signo contrario se atraen y tienden a unirse. Así se establece una diferencia de concentración de iones a lo largo de la membrana celular que da origen al potencial eléctrico.
80
Alvaro Tucci R. Siempre que existe una diferencia de potencial en un sistema, éste es capaz de realizar un trabajo, ya que posee energía potencial acumulada en "espera" de ser liberada. Es posible analizar las fuerzas que actúan sobre cada ion situado en la cercanía de la membrana celular. Considérese, por ejemplo, el ion negativo cloruro, el cual está presente en mayor concentración en el líquido extracelular en una proporción de 125:9; por tal motivo, tiende a difundirse hacia el interior de la célula. Pero como el interior de la célula es negativo con respecto al exterior, los iones cloruro se ven forzados a permanecer en el exterior. Así se alcanza un equilibrio, en el cual los iones cloruro que salen de la célula son numéricamente iguales a los que entran. El potencial de membrana que se establece al detenerse el flujo — de iones Cl se llama potencial de equilibrio y su magnitud puede calcularse por medio de la ecuación de Nernst: Vm = donde:
k T q — Cl
kT q
-
ln
(Cl )i (Cl )e -23
es la constante de Boltzman = 1,38 x 10 J/K. es la temperatura absoluta en grados Kelvin -19 es la carga del protón = 1,602 x 10 C. representan la concentración del ion respectivo.
Los sufijos "i" y "e" se refieren al lugar en que se encuentran los iones, "i" en la parte interna de la membrana, "e" en la parte externa. Si en la ecuación anterior se sustituyen las constantes "k" y "q" por su valor numérico y se cambia "ln" por "log" de base 10, para la temperatura de 37 grados centígrados, se obtiene la expresión: Vm = 61.5 log
9 125
= - 70mV —
Tomando valores de la tabla 2.1, para el ion (Cl ) se obtiene: +
(Na )i = 61.5 log 15 Vm = 61.5 log + (Na )e 150
= + 60mV
En este caso, el valor calculado para el potencial de membrana es -70 mV, que corresponde al medido en una membrana en
81
Instrumentación Biomédica / Origen de los Biopotenciales reposo. Por lo que se concluye que no es necesario invocar otras fuerzas, que no sean las representadas por los gradientes químico — y eléctrico, para explicar la migración y distribución del (Cl ) a través de la membrana. Utilizando el mismo procedimiento, el voltaje de equilibrio para + el (K ) es dado por: -
Vm = 61.5 log
(Cl )i -
(Cl )e +
El voltaje de equilibrio para el (Na ) es: +
Vm = 61.5 log
(K )i +
(K )e
= 61.5 log
5.5 150
= -90mV
En el sodio, al contrario que en los casos anteriores, el gradiente de concentración y por tanto el gradiente eléctrico, son de sentido contrario. Esto se refleja por el signo positivo del voltaje expresado en la última ecuación. Si sólo las fuerzas eléctricas y químicas estuvieran actuando, + + cabría esperar que la célula ganara (Na ) y perdiera (K ). Sin embargo, la concentración intracelular se mantiene constante + por la presencia del transporte activo de (Na ) hacia el exterior y + del (K ) hacia el interior contra sus gradientes. Goldman, estableció la ecuación, basada en los principios anteriores que permite calcular la diferencia de potencial en la membrana en condiciones de equilibrio, es decir, cuando no hay flujo neto de iones a través de ella. Así: Vm =
KT q
+
ln
+
-
PK(K )i + PNa(Na )i + PCl(Cl )e +
+
-
PK(K )e + PNa(Na )e + PCl(Cl )i
PK, PNa, y PCl, representan la permeabilidad de la membrana al ion respectivo, expresado en tabla 2.1. De la ecuación de Goldman, se deduce que la magnitud del potencial de membrana depende de la distribución de los iones sodio, cloro y potasio y de la permeabilidad a cada uno de ellos.
82
Alvaro Tucci R. También muestra que Vm es directamente proporcional a la temperatura. MEDIDA DE L POTENCIAL DE MEMBRANA Las teorías anteriores son fácilmente comprobables mediante la medida de la diferencia de potencial que se establece en la membrana. Se puede medir por medio de un milivoltímetro de alta impedancia de entrada con uno de sus terminales en contacto con el líquido intracelular y el otro con el líquido extracelular, tal como se indica en la figura 2.8. El microelectrodo que se introduce en la célula está recubierto por un aislante, excepto en la punta, que entra en contacto únicamente con el líquido celular. El otro electrodo está en contacto directo con el líquido extracelular. El milivoltímetro indica la diferencia de potencial que se establece sobre la membrana celular aproximadamente 70 mV negativo respecto al líquido que la rodea, lo cual indica que la concentración de iones negativos en el interior es mayor que en el líquido extracelular.
Figura 2.8. Medida del potencial de membrana
83
Instrumentación Biomédica / Origen de los Biopotenciales El estudio de los biopotenciales que se establecen sobre la membrana, es esencial para entender cómo trabajan muchos instrumentos médicos, los cuales basan su funcionamiento en la detección de estas señales. Algunos de ellos, como el electrocardiógrafo, el electroencefalógrafo, el electromiógrafo y el electroretinógrafo miden directamente los biopotenciales en la superficie de la piel. Estos biopotenciales, no son más que la sumatoria de los voltajes que se generan sobre cada membrana celular. Como dato curioso se puede nombrar el desfibrilador, que actúa en forma contraria; despolariza simultáneamente todas las células cardíacas. Hacer una medición biológica equivale a la detección, adquisición, tratamiento, cuantificación y presentación de señales que el propio cuerpo genera.
84
Alvaro Tucci R.
CAPÍTULO 3
Sistema Neuromuscular INTRODUCCIÓN
El deseo de conocer, explorar, o simplemente curiosear, son características de algunos seres vivos catalogados como superiores. Una planta o una ostra no sienten deseos ni les interesa el medio ambiente, la lluvia o las corrientes marinas le ponen a su alcance, de alguna manera, sus alimentos. Si son atacadas por el fuego o algún parásito simplemente mueren. Otros organismos más evolucionados aprendieron a moverse, seguramente para buscar alimento, sobreviviendo entonces los mejores. Para poder moverse se hicieron más complejos; desarrollaron órganos motores y sensitivos que les permitieron captar más y mejores sensaciones del medio ambiente y aprendieron a intercambiar mensajes entre ellos. Desarrollaron un sistema nervioso complejo, capaz de "almacenar" e interpretar los datos captados por los sentidos. Un perro, en sus momentos de ocio, después de haber satisfecho sus necesidades básicas, se dedica a explorar, olfatea y oye el más leve ruido. Se interesa por el medio ambiente, curiosea y mantiene su cerebro activo; por tal motivo se dice que el perro es más inteligente que otros animales que no se dedican a estas actividades. Sus ratos de ocio lo emplean, por ejemplo, como hace el gato, en dormir. 85
Instrumentación Biomédica / Sistema Neuromuscular Cuanto más evolucionado es el sistema nervioso, particularmente el cerebro, mayor es la necesidad de explorar, de curiosear, de conocer, de aprender, como hace el mono, que se interesa por cualquier cosa que cae en sus manos. El cerebro humano es la más estupenda masa del universo conocido. Su capacidad de recibir, organizar y almacenar datos supera ampliamente los requerimientos necesarios para la vida. El exceso de capacidad, es lógicamente utilizado primero para satisfacer las necesidades básicas; cultivar, cazar, tejer, almacenar. Luego lo impulsa a conocer, explorar, entender; aprender, desarrollar, o también puede conducirlo al aburrimiento, causa de graves enfermedades mentales. Pero ¿qué ocurre una vez satisfechas estas necesidades? El deseo de conocer impulsa al hombre hacia nuevos caminos como las Bellas Artes. En los albores de la civilización se hacían estatuillas, o se pintaban las paredes con escenas cotidianas. ¿Qué impulsa a Cristóbal Colón a descubrir nuevos mundos, o más recientemente, al hombre hacia el espacio exterior? Simplemente la necesidad de mantener la mente ocupada. La mente, no sólo se ocupa para crear obras de arte o descubrir nuevos mundos, también se emplea para cultivar el conocimiento por el propio placer que esta actividad produce. Saber porqué se hace de noche o de día, porqué brillan las estrellas, porqué cae una piedra, o qué son el rayo y el trueno; es curiosidad pura; su conocimiento no resuelve absolutamente nada práctico. No obstante, siempre han habido personas interesadas por contestar preguntas aparentemente tan inútiles. Se ha tratado de contestarlas sólo por el placer de mantener el cerebro ocupado. Galileo lo hacía, aun arriesgando su propia integridad física. Las culturas anteriores a la griega, afirmaban que los fenómenos naturales provenían de lo sobrenatural, eran los caprichos de los dioses. Los pensadores griegos fueron los primeros en sospechar, luego afirmar, y algunas veces comprobar, que el Universo era un sistema gobernado por leyes inflexibles. Los filósofos griegos, ocupaban su tiempo con el excitante ejercicio de descubrir hasta que punto existían realmente las leyes naturales. Tales de Mileto, observando el firmamento y sirviéndose de los conocimientos de los babilonios, fue capaz de predecir un eclipse que se produjo en el año 585 a. de J.C.
86
Alvaro Tucci R. A partir de estas observaciones, motivadas por la imperiosa necesidad de conocer, es como el hombre, para su bien o para su desgracia, llegó a la "civilización" actual.
EL SISTEMA NERVIOSO El ser humano, a diferencia de otros animales vivientes de su tamaño, tiene pocas ventajas físicas comparativas: camina torpemente, no puede correr como un gamo, su visión, oído y olfato son inferiores a los de ciertos animales y es posiblemente el único ser que, por haber adoptado la posición erecta, sufre de lumbago. Si se piensa en la perfección evolutiva de otros organismos, como la maravillosa capacidad del pez para nadar o del ave para volar; la enorme fecundidad, adaptabilidad y resistencia de los insectos; entonces el hombre parece una criatura pobremente constituida y equipada. No obstante, a pesar de estas desventajas, ha conseguido dominar este planeta gracias únicamente a una evolución determinante; la de su cerebro. Cualquier organismo constituido por un gran número de células debe tener un sistema que las coordine, en caso contrario, sus respuestas serían erráticas. Cada célula actuaría por su cuenta, anárquicamente. Se observa que hasta los animales multicelulares más primitivos poseen un sistema de comando y coordinación, que no es más que los rudimentos de un sistema nervioso. Cuando se intenta comprender lo que realmente ocurre en el sistema nervioso, compuesto esencialmente por neuronas, se observa un funcionamiento tan sutil y complejo, que hasta su actuación más simple desconcierta. La naturaleza no ha creado el cerebro. Es el resultado de una interminable serie de "incidentes" evolutivos, que proporcionan ventajas comparativas y mayores posibilidades de supervivencia al organismo que las posea. Se supone que en los cordados (animales que tienen columna vertebral o al menos notocordio), el cerebro se desarrolló a partir de estructuras rudimentarias, que en principio eran simples expansiones o abultamientos del tejido nervioso. A medida que se avanza en el desarrollo de las especies, el cerebro adquiere una importancia mayor, llegando a constituir el principal componente del encéfalo. Si un animal logró poseer una mancha sobre su cuerpo que era excepcionalmente sensible a la luz, pudo evolucionar durante
87
Instrumentación Biomédica / Sistema Neuromuscular millones de años y convertirse en el sentido de la vista. Dicha evolución implica la aparición de grupos de células especializadas que posteriormente formarían los órganos. La evolución del cerebro humano, según las modernas teorías, tres veces más grande que el de nuestros parientes más cercanos en la escala evolutiva, los simios, pesa aproximadamente 1500 gramos. Se supone que creció y evolucionó durante millones de años a partir del tronco cerebral. El tronco cerebral es la parte más primitiva del cerebro, rodea la porción superior de la médula espinal y está presente en todas las especies que tienen un sistema nervioso. Es un embrión cerebral que regula las funciones vitales básicas como la respiración y el metabolismo. Esta masa nerviosa, predominante en la Era de los Reptiles, no tenía la capacidad de pensar, sentir o aprender; simplemente se concretaba a ejecutar un conjunto de “programas” capaces de asegurar la supervivencia. Millones de años más tarde, se reunieron un conjunto de células que rodearon parte del primitivo tronco cerebral. Este reducido grupo de neuronas formaron un pequeño centro dedicado a analizar los olores, lo que permitió determinar si procedían de un alimento o un veneno, de un depredador o una presa, o de un compañero sexual. Un segundo grupo de células del mismo centro, organizadas en otra capa, enviaba mensajes al resto del sistema nervioso indicándole si el animal debía morder o escupir, huir o depredar, o aparearse. Con la aparición de los primeros mamíferos se formaron otros centros, otras capas que rodearon y bordearon el tronco cerebral, a las que se llamó sistema límbico (limbus, palabra latina que significa borde). A medida que evolucionaba, el sistema límbico desarrolló dos potentes características: el aprendizaje y la memoria. Tales herramientas le permitieron al animal tener cierto grado de inteligencia y adaptarse a situaciones cambiantes. Ya sus reacciones no serían automáticas e invariables, sino adecuadas a las exigencias del medio en que vivía. Se estableció una relación entre el centro olfativo y el sistema límbico que permitía distinguir diferentes olores, reconocerlos, comparar el olor presente con el pasado y determinar si era bueno
88
Alvaro Tucci R. o malo. De esta manera, se sentaron las bases rudimentarias de lo que sería la neocorteza cerebral o cerebro pensante. Hace aproximadamente unos 100 millones de años se produjo este desarrollo excepcional en el cerebro de los mamíferos. Sobre las capas que rodeaban el tronco cerebral se anexaron otras capas de células que formaron la neocorteza. La neocorteza ponía a disposición de quien la tuviera un cerebro pensante, donde se percibe, se comprende y se planifica. La neocorteza del Homo Sapiens, mucho más grande que la de ninguna otra especie, ha hecho al hombre. Es el asiento del pensamiento, contiene los centros donde se compara y comprende lo que perciben los sentidos, agrega los sentimientos, aprecia el arte y propicia la imaginación. El agregado de la neocorteza, con sus conexiones en el sistema límbico, incorpora las emociones, como por ejemplo el amor materno. El vínculo madre-hijo, base de la unidad familiar, hace posible el desarrollo humano durante el largo periodo de la infancia, mientras el cerebro continúa desarrollándose. Las especies que no poseen la neocorteza, como los reptiles, carecen de este vínculo. Cuando sus crías salen del huevo, deben ingeniárselas para subsistir y no ser devoradas. No hay madre que las defienda. A medida que se avanza en la escala evolutiva, desde el reptil al simio y al ser humano, se observa que la masa de la neocorteza aumenta. Con ese aumento se produce un crecimiento geométrico de las interconexiones del circuito cerebral. Cuanto más grande es el número de interconexiones más variadas serán las respuestas posibles. Así, mientras una rata o un mono tienen limitadas respuestas típicas al miedo, la neocorteza humana, más grande, permite una mayor variedad de respuestas, entre las cuales se incluye una llamada a la policía. Sorprendentemente, muchos filósofos de la antigüedad desconocieron casi por completo las funciones del órgano situado dentro del cráneo. Aristóteles (384-322 a. de J.C.), lo consideraba un dispositivo cuya función era enfriar la sangre excesivamente caliente. El médico griego de Alejandría, Herófilo de Chacedón (335280 a. de J.C.), reconoció correctamente que el cerebro era el asiento de la inteligencia, pero el error de Aristóteles tenía más peso que su acierto.
89
Instrumentación Biomédica / Sistema Neuromuscular Herófilo, considerado por muchos padre de la anatomía, estudió el cerebro humano y comprobó que los nervios pueden transmitir impulsos motores y sensitivos. Aportó importantes conclusiones sobre la anatomía del ojo, dio nombre al duodeno. Fue además eminente clínico; empleó el reloj de agua para medir la frecuencia cardíaca. Los pensadores medievales localizaban las emociones, la personalidad y los sentimientos en el corazón, el hígado y el bazo; de allí las expresiones «tiene un gran corazón», «tengo el corazón roto», y otras similares. El primer anatomista moderno fue un médico inglés Thomas Willis (1621-1675), quien en el siglo XVII describió los trayectos seguidos por los nervios hasta el cerebro. Un siglo después el fisiólogo suizo Albrecht von Haller (1708-1777), llegó a la conclusión de que el cerebro recibía sensaciones a través de los nervios y enviaba mensajes como respuestas. Supuso que todos los nervios se unían en el centro del cerebro. En 1811, el médico austríaco Franz Joseph Gall (1758-1828), fijó su atención en la materia gris presente en la superficie. Sugirió que los nervios no se reunían en el centro del cerebro como había supuesto von Haller, sino que cada uno de ellos se dirigía hacia una determinada región de la materia gris. Opinaba que las diferentes zonas de la corteza cerebral se especializan en una determinada función. En 1824, el anatomista francés Jean Pierre Flourens (17941867), demostró que el cerebro era el responsable de la actividad intelectual y de la voluntad. Hoy sabemos que el sistema nervioso nos relaciona con las múltiples manifestaciones del mundo que nos rodea. El color, la forma, el movimiento, los sonidos, el frío o el calor, el tacto y muchos otros, son percibidos y evaluados por este sistema. Preside los actos, desde los más instintivos, como la respiración, hasta la coordinación de los músculos y las glándulas. Es importante para la vida de relación y para la vida vegetativa. Es sede de la memoria, la inteligencia, el razonamiento, el proceso de aprendizaje, los sentimientos, el carácter y muchas otras particularidades propias de los seres humanos. Desde el punto de vista funcional, el sistema nervioso junto con el sistema endocrino integran y controlan las numerosas funciones que nos permiten regular el medio interno y relacionarnos con el medio externo.
90
Alvaro Tucci R. Los anatomistas dividen este sistema en dos partes: el sistema nervioso central, formado por el encéfalo y la médula espinal, responsable de toda la actividad nerviosa y el sistema nervioso periférico, compuesto por los nervios que parten del cráneo y de la médula espinal. Los nervios se dividen y subdividen, como las raíces de un árbol, hasta inervar todo el cuerpo; los músculos, las glándulas, la punta de los dedos, el intestino y por supuesto, el cráneo. LA NEURONA La unidad funcional del sistema nervioso es la neurona. Está formada por el cuerpo celular, sede de su núcleo, donde se efectúan los procesos metabólicos. Del cuerpo celular parten de cinco a siete prolongaciones menores, llamadas dentritas y una rama principal llamada axón. Las dentritas, que se extienden y se arborizan hacia el exterior del cuerpo neuronal, son las receptoras de los impulsos nerviosos. En los animales superiores, especialmente en el hombre, las dentritas están altamente ramificadas. Las neuronas se “articulan” las unas con otras por medio de sus dentritas y axones. El axón transmite los impulsos nerviosos hasta los botones terminales, donde los potenciales de acción hacen que se liberen ciertas sustancias químicas, llamadas transmisores sinápticos o neurotransmisores. Los transmisores sinápticos hacen que los impulsos nerviosos sean transmitidos a otras células. Por tal motivo, a las neuronas pueden considerárselas también como células secretorias, donde la zona se secreción se encuentra en los extremos del axón. En la figura 3.1 se representa la estructura simplificada de una neurona. El axón, un filamento que puede ser muy largo, transmite los impulsos nerviosos hacia los músculos y las glándulas. En el ser humano puede alcanzar hasta un metro de longitud y 0,01 milímetro de diámetro. Si el cuerpo de la neurona fuera del tamaño de una pelota de tenis, el axón pudiese tener hasta 1,6 kilómetros de longitud. En general, los nervios están formados por un conjunto de axones que se agrupan. A las agrupaciones de los cuerpos celulares neuronales dentro del sistema nervioso central se les denomina núcleos, mientras que
91
Instrumentación Biomédica / Sistema Neuromuscular a las agrupaciones similares fuera del sistema nervioso central se les conoce como ganglios.
Figura 3.1. Neurona motora mielinizada
Por el aspecto es difícil distinguir un axón de una dentrita. La diferencia se encuentra en la dirección en que fluye la “información” con respecto al cuerpo celular. En las dentritas fluye hacia el cuerpo celular mientras que en el axón se aleja. Las neuronas tienen un solo axón, normalmente recubierto por una sustancia aislante grasa llamada mielina. La mielina, un complejo lipoproteínico aislante, formado por muchas capas de la membrana celular de las células de Schwann. Se caracteriza por estar interrumpida por aberturas situadas a intervalos regulares, de aproximadamente un milímetro, conocidas como nodos de Ranvier. La mayoría de las neuronas del sistema nervioso central de los mamíferos están mielinizadas, mientras que gran parte de las neuronas de los invertebrados no lo están. La vaina de mielina se caracteriza por envolver todo el axón, excepto en el segmento inicial, los nodos de Ranvier y en los botones terminales, en los cuales se almacena el neurotransmisor secretado por la neurona. La vaina de mielina, según el Premio Nobel australiano John Eccles (1903-1997), es una "brillante innovación". Gracias a ella, la propagación de los impulsos nerviosos en los vertebrados es mucho más rápida que en los invertebrados. El impulso nervioso, en lugar de deslizarse sobre la membrana como lo hace en las fibras nerviosas no mielinizadas, “salta” de un nodo a otro, como se muestra en la figura 3.2., con velocidad de propagación unas 50 mayor.
92
Alvaro Tucci R.
Figura 3.2. Neurona mielinizada donde el impulso “salta” se un nodo a otro
La velocidad normal de propagación en el hombre oscila entre 60 y 120 metros por segundo, dependiendo del individuo, del tipo de nervio, del estímulo y de la temperatura. En algunas fibras nerviosas mielinizadas gruesas, se llegan a registrar velocidades de propagación de hasta 200 metros por segundo. El sistema nervioso humano contiene billones de neuronas. Cada una puede ser considerada como un centro genético, puesto que ellas mismas generan su axón y sus dentritas, hasta tal punto que si se amputa una de estas prolongaciones vuelve a regenerarse. Si se amputa el axón que inerva un músculo este se atrofia, ya que al regenerarse no inerva el músculo acertadamente. Las neuronas nacen con nosotros, nos acompañan durante toda la vida, se van perfeccionando hasta cierta edad y luego comienzan a decaer junto con el resto del organismo. Contrariamente a lo que se creía, recientemente se comprobó que también se reproducen al igual que otras células. De acuerdo a su función, las neuronas pueden clasificarse en sensoriales, motoras y de asociación. LAS NEURONAS SENSORIALES Los seres vivientes perciben los hechos presentes en el medio donde se desenvuelven si disponen de los sensores adecuados para detectarlos. Para las amebas no existe el sonido o la luz, puesto que no tienen los órganos receptores para oír o ver. Los perros no perciben el color, ya que no disponen de los pigmentos visuales apropiados
93
Instrumentación Biomédica / Sistema Neuromuscular para percibirlos. Los humanos no percibimos los ultrasonidos, ni los rayos infrarrojos o ultravioletas, ni las ondas de radio, porque no disponemos de los transductores que condicionen esas energías. El aparato de radio convierte la energía electromagnética radiada por una antena en ondas sonoras perceptibles por el oído. El aparato de radio, así como la mayoría de los instrumentos científicos, son simples extensiones de nuestros receptores biológicos: los sentidos. Los estímulos provenientes del ambiente son formas de energía. Los órganos sensoriales contienen terminaciones nerviosas especializadas para recibir esas energías. La energía sonora es captada y traducida por un aparato especializado: el oído. La especialización de las neuronas hacia cierta forma de energía se manifiesta cuando un estímulo, que pudiera interpretarse como dolor en un nervio, es interpretado por el nervio auditivo como un sonido, el nervio óptico lo interpretaría como una luz. La sensibilidad corporal nace de las terminaciones nerviosas. Los receptores corporales se encuentran principalmente en los sentidos, que captan los estímulos provenientes del ambiente, como son el sonido, la luz, el olor, el frío, el calor, el contacto, la vibración, la aceleración y otros. Las neuronas sensitivas son las que conducen los estímulos originados en las terminaciones nerviosas hacia el sistema nervioso central, por lo cual se le llama aferentes o centrípetas. Las terminaciones nerviosas "transmiten" a la fibra sensitiva la estimulación mecánica, química o térmica, después de haberla transformado en impulsos nerviosos. Los impulsos nerviosos son las únicas señales que pueden ser transportadas por las neuronas. LAS NEURONAS MOTORAS Las neuronas motoras conducen los estímulos originados en los centros nerviosos hacia los músculos y las glándulas que inervan. Transmiten el control de la motricidad, el tono muscular y complejos mecanismos, como el que nos permite estar de pie. En ellas, el estímulo se aleja de los centros nerviosos, por eso se les llama eferentes o centrífugas.
94
Alvaro Tucci R. LAS NEURONAS DE ASOCIACIÓN Las neuronas sensoriales son incapaces de inducir una acción motora y las neuronas motoras no pueden captar los estímulos provenientes del medio. Para que un estímulo sensorial sea traducido en acción, debe ser “acoplado” a una neurona motora. El acoplamiento necesario lo provee el sistema nervioso central por medio de las neuronas de asociación que lo componen. EL SISTEMA NERVIOSO CENTRAL Preside la vida de relación y controla las funciones dependientes de la voluntad. En los vertebrados, el sistema nervioso central es formado por la masa encefálica y la médula espinal. Está contenido en el cráneo y en la columna vertebral. La región más prominente de la masa encefálica es el cerebro, compuesto por más de 5.000.000.000.000 neuronas de asociación. Su representación simplificada se muestra en la figura 3.3. El cerebro es el centro donde se reciben los estímulos sensoriales que se traducen en respuestas apropiadas. En él se conserva la información recogida por los sentidos, es el centro de la memoria, la inteligencia, los sentimientos y de infinidad de otras funciones. En la memoria están almacenados miles de “trozos” de información que cada segundo recogen los sentidos. Allí están guardados los recuerdos e infinidad de incidentes, hasta los más triviales, que se creían hace tiempo olvidados. Si consideramos la duración de la vida, y los miles de datos que nuestros sentidos recogen cada segundo, llegamos a la conclusión que la capacidad de la memoria es prodigiosa. La facultad de aprender, la utilización de los conocimientos adquiridos, la inteligencia, la personalidad, el lenguaje, las ideas, el razonamiento, los pensamientos, los sentimientos, son características del sistema nervioso que se va desarrollando durante toda la vida. El cerebro envía los impulsos motores al cerebelo, éste los distribuye y los dirige en forma ordenada hacia los músculos. Un daño en el cerebelo, hace que el ser humano pierda el control de sus actividades musculares, sus movimientos pueden volver a ser como los de un infante.
95
Instrumentación Biomédica / Sistema Neuromuscular
Figura 3.3. El encéfalo humano.
El tálamo, gran núcleo de sustancia gris situado debajo del cerebro, actúa como centro de recepción, relevo y control de diversas sensaciones. Las sensaciones intensas de dolor, calor, frío o ruido son "filtradas" a este nivel, mientras que las menos intensas fluyen directamente hacia la corteza cerebral. El hipotálamo, situado inmediatamente debajo del tálamo, contiene los centros que controlan las grandes funciones vegetativas, como la temperatura corporal y el ciclo de vigilia–sueño. Además, tiene influencia sobre la pituitaria. El hipotálamo y la pituitaria, controlan entre otras cosas, el apetito, el balance del agua, el metabolismo de los carbohidratos y las grasas, la presión sanguínea y el estado emocional. En 1954, el fisiólogo norteamericano James Olds (1922-1976) descubrió una función más bien aterradora del hipotálamo. Contiene una región que si se estimula da origen a una sensación sumamente placentera. Un electrodo situado en el centro del placer de una rata, dispuesto de tal forma que pueda autoestimularse, hace que lo active hasta 8000 veces por hora, durante días. El animal pierde el interés por cosas tan fundamentales como los alimentos, el sexo y el sueño, todo resulta innecesario comparado con este estímulo. La médula oblongada, situada en la parte superior de la médula espinal, conecta la masa encefálica con la médula espinal. Controla muchos procesos fisiológicos involuntarios, como la respiración, los latidos del corazón, el vómito y la contracción o dilatación de los vasos sanguíneos que a su vez controlan la presión arterial.
96
Alvaro Tucci R. Es incorrecto considerar el sistema nervioso central sólo como un "controlador" de las sensaciones provenientes de los sentidos y de la actividad motora. Es un sistema que además es capaz de organizar la percepción de los conocimientos, conservar sus rastros y confrontar los nuevos aprendizajes con los previamente almacenados. Proporciona el conocimiento del esquema corporal, la actividad gestural, la identificación de los objetos, el lenguaje y la memoria. Es el centro del razonamiento, la inteligencia, el pensamiento, la creatividad. La neurociencia, a pesar de sus asombrosos avances, no ha podido comprender plenamente muchos de sus complejos procesos. Un corte del cerebro y de la médula espinal muestran que están constituidos por dos tipos de materia. La materia gris, situada en la corteza cerebral y en el centro de la médula espinal y la materia blanca, situada en la zona central del cerebro y en la parte externa de la médula. En la materia gris están localizados los cuerpos neuronales, mientras que en la materia blanca están localizados primordialmente los axones y las dentritas. Aproximadamente el 10% del tejido nervioso está formado por neuronas, el resto, por una materia llamada neuralgia. La neuralgia, formada por varias clases de células, soporta físicamente, nutre, protege y aísla las neuronas. De estas células, la más conocida es la de Schwann, que forma vainas de mielina alrededor de las fibras neuronales. El cerebro se divide en dos hemisferios; el derecho y el izquierdo. El hemisferio izquierdo es el responsable de la actividad del lado derecho del cuerpo. Al hemisferio derecho le corresponde controlar el lado opuesto. Los dos hemisferios están conectados por el puente de Varolio, un haz grueso de fibras nerviosas que permite la coordinación entre ambos. La médula espinal es un cordón nervioso que se extiende a lo largo de los orificios centrales de las vértebras, desde el agujero occipital hasta la segunda vértebra lumbar. Mide, en el hombre adulto, unos 45 centímetros de largo y 1 centímetro de diámetro. EL SISTEMA PERIFÉRICO El resto del sistema nervioso, que no pertenece al sistema central, se llama sistema nervioso periférico. Está constituido principalmente por nervios sensoriales y motores, que son
97
Instrumentación Biomédica / Sistema Neuromuscular prolongaciones del sistema central, e inervan y se extienden por todo el cuerpo. Muchos de estos nervios son mixtos, por estar formados por fibras sensitivas y motoras. El sistema periférico de los mamíferos comprende cuarenta y tres pares de nervios: doce craneales y treinta y uno raquídeos. De la masa encefálica se desprenden los doce pares de nervios craneales que inervan las estructuras de la cabeza y el cuello; otros, como el nervio vago, inerva el estómago y el corazón. De la médula se derivan 31 pares de nervios raquídeos o espinales, cada uno formado por fibras motoras y sensoriales, que inervan un grupo de músculos esqueléticos y perciben señales sensoriales provenientes de algún área precisa del cuerpo. Los nervios fueron observados por los primeros anatomistas, pero no comprendieron su estructura y sus funciones. El médico griego Claudio Galeno (131-201), en el siglo II d. de J.C., los consideraba conductos huecos que servían para el transporte de un fluido "sutil". El físico y médico italiano Luigi Galvani (1737-1798), descubrió que la acción nerviosa estaba asociada a la electricidad, también un “sutil fluido”, más sutil de lo que Galeno podía imaginar. En 1873, el estudio del sistema nervioso experimentó un avance considerable cuando otro fisiólogo italiano, Camillo Golgi (18431926), demostró que los nervios estaban formados por células separadas e independientes que no se unen entre sí, sino por medio de la sinapsis. Golgi, apoyó con sus experimentos la teoría asomada por el anatomista alemán Wilhelm von Waldeyer (1836-1921), quien afirmaba que el sistema nervioso se componía de células nerviosas o neuronas. Dicha teoría fue reforzada por el neurólogo español Santiago Ramón y Cajal (1852-1934), quien hacia 1889, estableció definitivamente la teoría de las neuronas. Algunos de los axones de las neuronas motoras y las dentritas de las neuronas sensoriales pueden ser bastantes largas. La más larga en el ser humano se extiende desde la médula espinal hasta el dedo pulgar del pie; más de un metro de longitud. Los nervios están formados por muchas fibras nerviosas, cada una aislada de las otras, y todas envueltas en una membrana llamada perineuro. La sección transversal de un nervio es parecida a la de un cable telefónico de muchos alambres. Su corte transversal se representa en la figura 3.4.
98
Alvaro Tucci R. Los pares de nervios craneales sensoriales son el óptico, el olfatorio y el auditivo. Los pares craneales motores son el ocular común, el patético, el ocular externo, el par espinal, que inerva en el cuello, la laringe y en la faringe, y el par hipogloso que inerva parte de la lengua.
Figura 3.4. Corte transversal de un nervio.
Los pares de nervios craneales mixtos son cuatro: el par trigémino que inerva la cara, parte de la cabeza y los músculos masticadores; el par de nervios faciales, que gobiernan la expresión y la fisonomía, e inervan los músculos de la cara y el cuello; el par glosofaríngeo que inerva la lengua, la faringe y el paladar; y el par de nervios neumogástricos o vagos, que inervan las vísceras torácicas y parte de las abdominales. Este último par es muy largo, muy ramificado y preside funciones de importancia vital. Los treinta y un pares de nervios raquídeos son nervios mixtos. Emergen por los agujeros de conjugación de las vértebras. Están formados por dos raíces: la raíz anterior, constituida por fibras motrices y la posterior, por fibras sensitivas. Los nervios raquídeos se reúnen en cinco grupos clasificados según la zona de origen en la columna vertebral; ocho pares cervicales, doce dorsales, cinco lumbares, cinco sacros y un coxígeo. Los ocho pares cervicales se dividen en cuatro pares superiores, que forman el plexo cervical, de donde sale el nervio frénico; y cuatro pares inferiores, que forman el plexo braquial, que inerva los brazos. Los doce pares dorsales se distribuyen alrededor del tórax para formar los nervios intercostales. Los cinco pares
99
Instrumentación Biomédica / Sistema Neuromuscular lumbares forman el plexo lumbar, de donde procede el nervio crural, que inerva la parte anterior del muslo. Los cinco pares sacros constituyen el plexo sacro, de donde se origina el más voluminoso de los nervios, el ciático, que inerva la parte posterior del muslo y la pierna. Finalmente, el delgado nervio coxígeo que se dirige hacia la piel y músculos de esa región. El sistema nervioso periférico en el hombre y en ciertos animales superiores, consta realmente del subsistema sensorial somático o voluntario y el subsistema autónomo vegetativo o involuntario. EL SISTEMA SOMÁTICO O VOLUNTARIO Se ocupa principalmente de la recepción de las sensaciones provenientes de los sentidos, los músculos y las articulaciones, y de la transmisión y recepción de impulsos hacia estos órganos. Inerva aquellos músculos cuyos movimientos dependen de nuestra voluntad. Se expresa, por ejemplo, con el deseo de mover un dedo, de pensar, de escribir, o de mirar hacia un lado. Su control se encuentra en el cerebro y en la médula espinal. EL SISTEMA AUTÓNOMO O VEGETATIVO Muchos órganos del cuerpo humano funcionan perfectamente bien sin la participación consciente y sin ningún esfuerzo consciente. Ni las contracciones peristálticas del intestino, ni los latidos del corazón, ni la actividad de secreción del páncreas, ni la digestión, necesitan de nuestra acción. Sin embargo, todos ellos están continuamente bajo el estricto control del sistema nervioso, incluso durante el sueño. Este sistema fue investigado por el fisiólogo británico John Newport Langley (1852-1925) en la década de 1890, quien, aparte de reconocerlo como tal, le denominó sistema nervioso autónomo o vegetativo. Determinó que el control y la regulación automática de algunos procesos vitales involuntarios, como el manejo del músculo cardíaco, los músculos lisos, las glándulas involucradas en las funciones digestiva, circulatoria, urinaria, de reproducción y otras, provenía de la médula espinal y de algunas porciones del encéfalo. El sistema nervioso autónomo está formado por dos grupos de nervios: el simpático y el parasimpático. Cada grupo se origina en lugares diferentes del sistema nervioso. Un nervio de cada grupo inerva cada órgano.
100
Alvaro Tucci R. Los efectos de estos nervios sobre un determinado órgano son opuestos; por ejemplo, los nervios provenientes del simpático conducen señales que tienden a aumentar los latidos del corazón y a diminuir la velocidad con que se efectúa la digestión; mientras que los nervios provenientes del parasimpático, que inervan los mismos órganos, producen un efecto contrario, es decir, tienden a disminuir los latidos del corazón y a acelerar la digestión. Este sistema de control permite una respuesta inmediata del órgano inervado. Cuando surge la necesidad de disminuir o acelerar su función ambos sistemas entran en acción con más o menos intensidad. Al disminuir los impulsos del nervio parasimpático que inerva el corazón, se produce un inmediato aumento de sus latidos. Contrariamente, una disminución de los impulsos en el nervio simpático produce un inmediato descenso en sus latidos. Los nervios simpático y parasimpático que inervan el corazón producen sustancias neurotransmisoras de efectos opuestos. Hay que aclarar que no sólo los sistemas simpático y parasimpático son los encargados de acelerar o desacelerar los latidos del corazón; estos sistemas son únicamente de "emergencia". El corazón está dotado también de un sistema de control químico, que para los mismos efectos actúa sobre las glándulas suprarrenales, pero su velocidad de respuesta es un poco más lenta. Hacia 1830, el fisiólogo inglés Marshall Hall (1790-1857), estudió otro tipo de comportamiento involuntario. Observó que cuando accidentalmente se toca con la mano un objeto muy caliente, ésta se retira en forma instantánea. Si la sensación de calor tuviera que llegar hasta el cerebro, ser interpretada y provocar una respuesta, la mano se quemaría. Supuso acertadamente que debía haber otro mecanismo que actuara. La médula espinal “no pensante” realiza esta tarea en forma automática y mucho más rápido. Hall, llamó a este proceso acto reflejo. En el ser humano, muchos reflejos están subordinados a la actividad consciente, a nuestra voluntad; se puede mantener la mano sobre un objeto muy caliente si así se decide. En cambio, los animales inferiores, aun los recién nacidos, son muy dependientes de los reflejos que desarrollan durante su vida. Su voluntad tiene menos incidencia en su comportamiento. Un ejemplo es el de la araña tejiendo su red. Aquí los reflejos
101
Instrumentación Biomédica / Sistema Neuromuscular producen un tipo tan elaborado de comportamiento que se ha preferido llamarlo comportamiento innato. Las arañas nacen con un sistema nervioso en el cual las instrucciones de cómo elaborar el tipo de telaraña propio de su especie, ya están hechas. Si se observa la telaraña, tejida con maravillosa precisión y eficacia, es casi imposible creer que haya sido creada por ese insecto. El solo hecho que esta compleja tarea sea realizada tan perfectamente como lo haría una máquina, demuestra que la inteligencia no tiene nada que ver. Una araña puede tejer a la perfección su telaraña, sorprendentemente compleja, aun cuando nunca haya visto una. No obstante, si ésta no cumpliera con su función y necesitara ser modificada, el insecto no aprendería a construir otro tipo o a modificarla. Por el contrario, el ser humano nace casi desprovisto de aptitudes innatas. Sólo puede chupar, llorar y apenas agarrarse. Sin embargo, de adulto, su inteligencia le permite dudar, reflexionar, aprender y estudiar las posibles alternativas que son inherentes al pensamiento y que inevitablemente darán origen a imperfecciones y variaciones entre una construcción y otra. LA COMUNICACIÓN NEURONAL Las neuronas se encuentran entre un grupo especial de células capaces de ser excitadas, y cuando lo hacen, generan potenciales de acción de duración muy breve denominados impulsos neuronales. Cuando se inicia el potencial de acción, éste se propaga a lo largo del axón hasta sus terminales, para ser transmitido desde allí a otra neurona. Durante muchos años se supuso que la transmisión era eléctrica. Las corrientes iónicas producidas por los potenciales de acción estimulaban las células adyacentes, que a su vez se excitaban, generando su propio potencial de acción. Ahora se sabe que las señales son transmitidas de una neurona a otra por medio de una unión especializada conocida como sinapsis. La sinapsis puede ser eléctrica o química. En la sinapsis eléctrica, la transmisión se efectúa cuando el impulso nervioso pasa directamente de una neurona a otra a través de membranas estrechamente unidas. En la sinapsis química, presente en la gran mayoría de las conexiones interneuronales de los mamíferos, las neuronas no se
102
Alvaro Tucci R. tocan. Existe un espacio de aproximadamente 20 nanometros entre ellas, conocido como espacio o hendidura sináptica. Las señales se propagan a través de la hendidura sináptica por medio de sustancias químicas, conocidas como neurotransmisores, cuyos principales representantes son la acetilcolina y la noradrenalina. El potencial de acción, proveniente de la neurona presináptica, llega al extremo de su axón y provoca la liberación de los neurotransmisores que se hallan contenidos en unas cápsulas situadas en el interior de la hendidura (figura 3.5). Estas sustancias se difunden rápidamente y se combinan con las moléculas receptoras, ubicadas sobre la membrana de la dentrita de la neurona postsináptica, provocando un cambio en la permeabilidad de su membrana.
Figura 3.5. Representación de la sinapsis.
Después de realizar su función, algunos neurotransmisores son rápidamente destruidos por ciertas enzimas; mientras que otros, se difunden fuera del espacio sináptico o son nuevamente encapsulados. En la sinapsis química la transmisión es unidireccional. El axón de la neurona presinática excita las dentritas o el cuerpo celular de la neurona postsináptica, lo que determina la dirección de comunicación. Una sola neurona puede recibir señales "excitadoras" de cientos e incluso de miles de sinapsis. Según las características de estas señales, la neurona se puede excitar e iniciar un impulso. Por lo tanto, la sinapsis no sólo representa la conexión entre las neuronas,
103
Instrumentación Biomédica / Sistema Neuromuscular sino es un punto de retransmisión y de control extremadamente importante para el funcionamiento del sistema nervioso.
LOS
MÚSCULOS
Según el tipo de fibras que los componen se distinguen tres tipos de músculos: esquelético, liso y cardíaco. Todos compuestos casi exclusivamente por células musculares alargadas, contráctiles y poco tejido intersticial. Las células musculares, al igual que las neuronas, pueden ser excitadas y producir un potencial de acción que se transmite a lo largo de la membrana celular. El potencial de acción activa su mecanismo contráctil. Los músculos esqueléticos comprenden la masa muscular somática que normalmente actúa gobernada por la voluntad, es decir, son de contracción voluntaria. Las células de tejido muscular estriado forman los músculos rojos, cuya característica es la contracción rápida de corta duración. Están inervados por el sistema nervioso voluntario y son parte fundamental del sistema locomotor. La fibra muscular estriada es una célula sumamente alargada y polinucleada. Algunos autores, en vista del gran número de núcleos que la componen, opinan que se trata de la fusión de muchas células unidas para construir una fibra. En un músculo estriado, como el bíceps, las fibras musculares están organizadas en forma paralela y se extienden de un extremo a otro del músculo, tal como se muestra en la figura 3.6.
Figura 3.6. Organización del tejido muscular.
104
Alvaro Tucci R. Las células musculares cardíacas son estriadas, mononucleares, ramificadas, de contracción rápida e independientes de la voluntad. El tejido muscular liso es inervado por el sistema autónomo. Se caracteriza por estar formado por células que se contraen lentamente e independientes de la voluntad. Forman el tubo digestivo, el útero y las paredes musculares de las arterias y venas, que constituyen los órganos de la vida vegetativa. LA UNIÓN NEUROMUSCULAR Cuando un axón que inerva una fibra muscular esquelética se acerca a su terminación pierde la vaina de mielina y se divide en varios botones terminales, tal como se muestra en la figura 3.6. La fibra nerviosa así ramificada se adhiere a la membrana que recubre cada fibra muscular y forma la unión neuromuscular. Si el impulso llega a los botones terminales, se libera una pequeña cantidad de sustancia transmisora, en forma similar a lo que sucede con la sinapsis. La sustancia transmisora, la acetilcolina, hace que la membrana celular del músculo sea más permeable a los iones sodio y potasio. Los iones fluyen hacia el interior de la célula despolarizándola. El potencial de acción se extiende a lo largo de la fibra muscular, que se contrae unos 10 ms después de la despolarización.
Figura 3.7. Demora de la contracción muscular respecto al potencial de acción.
105
Instrumentación Biomédica / Sistema Neuromuscular La figura 3.7 muestra la relación entre el potencial de acción y la contracción muscular. Las múltiples terminaciones nerviosas, actuando conjuntamente sobre las fibras individuales, son las que producen el estímulo en el músculo completo. Las uniones neuromusculares para el músculo cardíaco y los músculos lisos presentan importantes diferencias, aunque cumplen el mismo cometido. La fibra muscular individual es la unidad fundamental de la estructura del músculo, sin embargo, no es la unidad fundamental de contracción. Cada fibra nerviosa se ramifica de tal manera que inerva un gran número de fibras musculares simultáneamente. A ese grupo de fibras, que forman la unidad mínima de contracción, se les llama unidad motora. Cuanto menor es el número de fibras musculares estimuladas por cada fibra nerviosa, mayor es la precisión del movimiento. Para los músculos que controlan el movimiento de los ojos, sobre los cuales se tiene un control muy preciso, sólo algunas fibras musculares son inervadas por cada neurona; contrariamente, en músculos donde el control es menor, como el bíceps, una sola neurona puede estimular miles de fibras musculares. Aunque un músculo es capaz de tener varios grados de contracción, las fibras musculares individuales tienen respuesta de todo o nada. Si el estímulo excede cierto umbral, la fibra muscular responde con una contracción completa.
Figura 3.8. Patrón de contracción de una fibra muscular y de un músculo completo
106
Alvaro Tucci R. En la figura 3.8a se representa la contracción de una fibra muscular individual o de una unidad motora, mientras que en la figura 3.8b, la de un músculo completo. En la primera, la respuesta es todo o nada, mientras que en la segunda, se exhibe un aumento gradual en la contracción. El grado de contracción aumenta a medida que las unidades motoras del músculo se van activando. Un gran número de drogas actúan directamente sobre las uniones neuromusculares. La nicotina y la cafeína tienen el mismo efecto que las sustancias transmisoras; estimulan la contracción muscular. La persona expuesta a estas sustancias se siente inquieta; sus músculos son más sensitivos al estímulo. Otras drogas inhiben la actividad de las uniones neuromusculares; entre ellas se encuentra el curare, poderoso veneno conocido desde hace mucho tiempo por los indios centro y suramericanos. El animal expuesto a este veneno muere por parálisis, ya que inhibe las contracciones musculares. EL MOVIMIENTO DE LOS VERTEBRADOS Las contracciones musculares por sí mismas no producen movimiento. En los vertebrados complejos, como el hombre, para que se produzca desplazamiento es necesario que el músculo esté adherido a un hueso del sistema esquelético, donde se ejerce la fuerza que dará origen al movimiento. Para que la contracción muscular produzca un movimiento útil, uno de los extremos del músculo debe estar anclado a un hueso fijo y el otro a uno móvil. Obviamente, si un músculo estuviera adherido a dos huesos que se mueven libremente su contracción serviría sólo para acercarlos. Los músculos se insertan en los huesos por medio de tendones, compuestos en su mayor parte por un tejido conjuntivo fibroso blanco, que a su vez están en íntimo contacto con la superficie del hueso. En el brazo, el tendón del músculo bíceps está insertado en los huesos del hombro, que son relativamente inmóviles; el otro extremo está adherido al radio, uno de los huesos del antebrazo. La contracción del bíceps produce movimiento del hueso móvil, con lo cual el brazo se dobla en el codo. El esqueleto humano está compuesto por unos doscientos huesos; este número varía con la edad del individuo. Muchos de
107
Instrumentación Biomédica / Sistema Neuromuscular estos huesos están unidos por medio de ligamentos, formado por un tejido conjuntivo fibroso, blanco y muy duro. Las articulaciones están lubricadas por un fluido que ellas mismas secretan; el líquido sinovial. El líquido sinovial, un fluído viscoso de consistencia similar a la clara del huevo, está destinado a reducir la fricción, lubricar y acolchar las articulaciones durante el movimiento. Hay muchos tipos de articulaciones en el sistema esquelético, cada una especializada en realizar un trabajo determinado.
Figura 3.9. Relación músculo-hueso
Los músculos ejercen fuerza solamente contrayéndose, es decir, no pueden "empujar". Para cada músculo, cuya acción es "halar" un hueso en una dirección, debe haber otro adherido al mismo hueso que trabaja antagónicamente. Cuando uno de los músculos se contrae, el antagónico se relaja. Si ambos músculos se contrajeran simultáneamente podrían destrozar el hueso. Este hecho le asigna al sistema nervioso una tarea adicional; coordinar la actividad muscular, de forma que se produzcan las contracciones y los relajamientos apropiados.
108
Alvaro Tucci R.
CAPÍTULO 4
Sistema Circulatorio INTRODUCCIÓN
Para que el cuerpo se mantenga con vida, cada una de sus células debe recibir suministro continuo de alimentos y oxígeno y a cada célula se le debe liberar del dióxido de carbono y otros materiales generados por el metabolismo celular. Este proceso es ejecutado continuamente, durante toda la vida, por el sistema circulatorio. El sistema circulatorio es un circuito cerrado formado por el corazón, que bombea la sangre y por un conjunto de conductos o vasos sanguíneos. Los vasos transportan la sangre impulsada por la acción cardíaca hacia todas partes del cuerpo y la regresan al corazón. Se calcula que la longitud de los conductos en el ser humano adulto es de unos 100.000 Kms. Dentro del sistema de conducción se distinguen tres tipos de vasos: las arterias, las venas y los capilares. Un subsistema del aparato circulatorio lo constituye el sistema linfático que "recoge" el fluido intersticial y lo devuelve a la sangre. LAS
ARTERIAS
Las arterias son conductos elásticos ramificados que conducen la sangre oxigenada proveniente del corazón hacia todas partes del cuerpo. Las conductos están formados por tres capas musculares, elásticas y concéntricas muy resistentes.
109
Instrumentación Biomédica / Sistema Circulatorio Forman una red, que a medida que se producen más y más ramificaciones, se va reduciendo su diámetro. La aorta, con unos 2 cm de diámetro y las ramas más pequeñas, las arteriolas con unos 0,2 mm. Las arterias contienen cerca del 20 % del volumen sanguíneo. Cuando se cortan o hieren, la hemorragia es grande y violenta, debido a la alta presión y al hecho de que, por su estructura, las membranas no permiten que se "achaten". Con la excepción de la arteria radial en la muñeca y la temporal en las sienes, el organismo se defiende de esta eventualidad colocando muy profundamente sus arterias. La aorta es la de mayor diámetro. Nace del ventrículo izquierdo, da una vuelta como el mango de un bastón e irriga prácticamente todo el cuerpo, a excepción de los pulmones. Las arterias coronarias se derivan de la aorta e irrigan el corazón. La arteria pulmonar nace del ventrículo derecho, se bifurca casi desde su nacimiento en arteria pulmonar izquierda y derecha y lleva sangre a los pulmones. La elasticidad de las paredes arteriales favorece la circulación. Hace que la corriente sanguínea, en lugar de presentarse por oleadas, sea continua. Cada vez que el corazón se contrae envía una “oleada” de sangre a alta presión a las arterias. En respuesta, éstas se dilatan para luego volverse a contraer, con lo que la sangre recibe un nuevo impulso. Las dilataciones y contracciones hacen que la corriente sanguínea se convierta de pulsante en casi continua. Cuando la sangre es impulsada hacia la aorta, se establece una onda de presión que viaja por las arterias a mucho mayor velocidad que el flujo sanguíneo. Esta onda de presión es fácilmente palpable. La velocidad de propagación de la onda se incrementa con la edad, puesto que las arterias pierden elasticidad; se vuelven más rígidas. Hace unos quinientos años no se tenía idea de la circulación de la sangre. Esto se evidencia por el nombre dado en aquella época a las arterias, que significa conductos de aire. Los anatomistas de la época, al encontrarlas sin sangre en los cadáveres, pensaron que estaban destinadas a conducir aire. En 1550, el médico español Miguel Servet (1511-1553), descubrió que la sangre circula desde corazón a los pulmones y de éstos al corazón. En 1628, el ingles William Harvey (1578-1657), descubrió que la sangre fluía por todos los órganos del cuerpo. El italiano
110
Alvaro Tucci R. Marcello Malpighi (1628-1694), en 1661, valiéndose del microscopio, descubrió los capilares y determinó cómo se establece la comunicación entre las arterias y las venas.
LAS
VENAS
Las venas son vasos que transportan la sangre proveniente de los tejidos hacia el corazón. Poseen paredes más delgadas, menos resistentes e inelásticas. La vénulas son vasos de diámetro muy pequeño, ramificadas por todos los tejidos, que se van agrupando para formar venas de mayor diámetro. Cuando se cortan o se hieren, la sangre brota con lentitud. Sus membranas permiten que se achaten; por lo tanto es relativamente fácil contener las hemorragias. Las venas cava superior e inferior conducen la sangre a la aurícula derecha, y las cuatro venas pulmonares devuelven la sangre purificada, proveniente de los pulmones, a la aurícula izquierda. La vena coronaria, proveniente del corazón, se vacía directamente en la aurícula derecha. Las venas contienen el 75% del volumen sanguíneo. Las venas de gran tamaño, especialmente de las extremidades inferiores, están provistas de válvulas que impiden el retroceso de la sangre por efecto de la gravedad. En las venas profundas de las piernas, las válvulas se ubican cada centímetro y medio. Los músculos de las piernas controlan la circulación venosa. Cuando se se mueven las piernas, los músculos comprimen las venas y “empujan” la sangre hacia el corazón. Si se permanece de pie durante mucho tiempo la acción de bombeo disminuye y puede acumularse hasta un 20% de la sangre en las piernas. En este caso, algunas personas acusan una disminución del aporte de oxígeno y nutrientes al cerebro que les ocasiona vértigos o desmayos. Por soportar tensiones continuas, las válvulas pueden llegar a deteriorarse y no cerrar adecuadamente. Las venas se congestionan por la sangre que se mueve con lentitud, ceden a la presión y se ensanchan. Esta condición, conocida como venas varicosas, se caracteriza por producir hinchamiento, picazón, dolor, sangrado, úlceras y hasta coágulos en las piernas.
LOS
CAPILARES
Los capilares son vasos muy delgados de tamaño microscópico que comunican las ramificaciones de las arteriolas con las vénulas. Contienen cerca del 5 %del volumen sanguíneo.
111
Instrumentación Biomédica / Sistema Circulatorio A través de su delicada membrana, constituida por una sola fila de células, se realiza el intercambio de sustancias entre la sangre y las células de los tejidos. Cuando la sangre fluye por los capilares se transforma de sangre arterial, muy oxigenada, en sangre venosa, poco oxigenada. En este proceso, el oxígeno y los alimentos son aportados por la sangre a los tejidos, mientras que el dióxido de carbono, el vapor de agua, el ácido úrico y otros desechos, son vertidos en ella. Cuando la sangre fluye en los capilares pulmonares, se transforma de sangre venosa en arterial; en este proceso se absorbe oxígeno y se libera dióxido de carbono. Los capilares son tan abundantes que basta pincharse ligeramente para romper varios de ellos y provocar la salida de la sangre. La presión promedio en su interior es de unos 30 mm de Hg. En ellos "cae" casi toda la presión arterial. La distribución de la sangre en las arterias, las venas y los diversos órganos está sujeta, en cierto modo, a la actuación del sistema nervioso. Existen nervios que producen vasodilatación y otros que producen vasoconstricción. Por medio de este mecanismo, el sistema nervioso incrementa o disminuye notablemente el aporte la sangre en los distintos órganos. Las emociones, como la alegría, vergüenza o cólera, producen vasodilatación; las mejillas se tornan rojas. En cambio, la palidez, debida al miedo, es producto de la vasoconstricción de los capilares de la cara. Algunos medios físicos, como el calor o el frío, también alteran la distribución de la sangre.
EL
CORAZÓN
El corazón es un órgano muscular del tamaño de un puño que se encuentra suspendido en el centro del tórax, entre los pulmones. En el adulto pesa unos 400 gramos. Se une al esternón por medio de ligamentos y apoya su parte inferior en el diafragma. Tiene cuatro cavidades: dos superiores y dos inferiores; las aurículas y los ventrículos, respectivamente. Es una excelente "minibomba". Con sus potentes y rítmicas contracciones impulsan la sangre por la aorta a la velocidad de unos 440 mm/seg. La velocidad disminuye gradualmente hasta 1 mm/seg en los capilares. Esta maravillosa minibomba puede mantener la vida por más de
112
Alvaro Tucci R. 100 años sin ser reparada. Todos los días late unas 100.000 veces. Bombea aproximadamente 70 mililitros de sangre por latido, lo que equivale a 4,7 litros por minuto, 282 litros por hora, 6,8 metros cúbicos por día y 150.000 metros cúbicos en sesenta años. El equivalente a una piscina de 100 por 100 metros de superficie y 15 metros de profundidad. Esta enorme capacidad de bombeo la obtiene de la transformación de la energía química en mecánica, originada por la contracción de las células cardíacas. La eficiencia de conversión del corazón no ha sido igualada por máquina alguna. El bombeo cardíaco produce ciertos ruidos que se pueden oír por medio del estetoscopio. El primer ruido del ciclo cardíaco es producido por el cierre brusco de las válvulas mitral y tricúspide, al inicio de la sístole ventricular; el segundo, es causado por el cierre de las válvulas aórtica y pulmonar, al final de la sístole ventricular. Durante la diástole se percibe un tercer ruido, especialmente en individuos jóvenes, producido por el rápido llenado ventricular. El corazón está dotado de automatismo, es decir, late sin la intervención de nuestra voluntad unas 70 veces por minuto. Su frecuencia está influenciada por el sistema nervioso; las emociones, la actividad física, la fiebre u otros estímulos. Si la frecuencia cardíaca es inferior a su valor normal se le llama bradicardia; si es superior se le llama taquicardia. El corazón está formado por dos bombas que operan en paralelo, pero el flujo sanguíneo las recorre en serie. La bomba de la derecha o "corazón derecho", impulsa la sangre a los pulmones para que se oxigene, luego regresa a la bomba de la izquierda o "corazón izquierdo" que impulsa la sangre al resto del cuerpo. El caudal, o el volumen de sangre por unidad de tiempo, que circula por el corazón izquierdo y por el derecho es igual, puesto que están en serie. Las vías por donde circula la sangre en su ida y vuelta a los pulmones se denomina circulación pulmonar. El resto de las vías, que suministra oxígeno y alimentos al resto de los tejidos, se denomina circulación mayor. La circulación mayor forma un circuito de alta resistencia, con elevado gradiente de presión entre las arterias y las venas, donde el corazón izquierdo puede ser visto como una bomba de presión. En cambio, la circulación pulmonar se caracteriza por presentar un circuito de baja resistencia, con bajo gradiente de presión entre
113
Instrumentación Biomédica / Sistema Circulatorio las venas y arterias, donde el corazón derecho puede ser visto como una bomba volumétrica. Por ello, el corazón izquierdo es más grande y de construcción muscular más robusta que el derecho. El músculo cardíaco, llamado miocardio, está formado por fibras que responden a señales eléctricas y neumáticas. Es un músculo estriado que contiene una red abundante de capilares indispensables para cubrir sus necesidades energéticas. Forma cuatro compartimentos o cavidades, dos superiores llamadas aurícula izquierda y aurícula derecha separadas por el tabique auricular y dos inferiores llamadas ventrículo izquierdo y ventrículo derecho separados por el tabique ventricular. Una membrana doble, el pericardio, envuelve totalmente el corazón. Entre las dos hojas del pericardio se encuentra un líquido seroso que facilita su movimiento. El endocardio tapiza sus cavidades internas. La acción de bombeo se realiza cuando los músculos que circundan cada cavidad se contraen y expulsan parcialmente la sangre. El corazón está dotado de válvulas que permiten el paso de la sangre en el momento de la contracción pero impiden su retroceso. La función principal de bombeo la efectúan los ventrículos. Las aurículas actúan como cámaras receptoras y depósito de sangre. La función de bombeo de las cuatro cámaras está gobernada por una serie de eventos eléctricos muy bien coordinados. Los eventos eléctricos son distribuidos en el miocardio por medio de un sistema de conducción. El sistema de conducción está formado por una masa muy pequeña de células especializadas, denominadas marcapasos, capaces de producir expontaneamente potenciales de acción. Cada latido del corazón es desencadenado por estas células. En ausencia de inervación externa, el músculo cardíaco se contrae rítmicamente debido a su presencia. Si se considera el corazón como una fuente de energía bioeléctrica, es de suponer que la energía de esa fuente está directamente relacionada con la masa muscular, es decir, el número de células activas del miocardio. Por ser las paredes del ventrículo izquierdo casi tres veces más gruesas que las del ventrículo derecho y mucho más gruesas que las paredes de las aurículas, cabe esperar que las células de las paredes del ventrículo izquierdo son las que más aportan a la formación de los potenciales externos al corazón.
114
Alvaro Tucci R. LAS CÉLULAS MARCAPASOS El miocardio, funcionalmente se divide en músculo auricular y músculo ventricular, ambos eléctricamente aislados por el anillo fibroso. El músculo auricular y el ventricular tienen como punto de contacto el nodo aurículo-ventricular o nodo AV, formado por células marcapaso. La figura 4.1 esquematiza este sistema.
Figura 4.1. Disposición del anillo fibroso y nodo AV en el miocardio.
El tejido marcapasos se caracteriza por tener el potencial de membrana inestable; sus células tienen la particularidad de despolarizarse espontáneamente. Cuando están polarizadas, en lugar de tener un valor sostenido constante, tienden a “dejar filtrar” las cargas en un sentido y otro de la membrana, por lo que el voltaje varía continuamente. Cuando alcanza el potencial umbral se produce una nueva contracción. La frecuencia con la cual se repite cíclicamente dicho proceso determina el número de contracciones por minuto. Por el contrario, cuando las células musculares esqueléticas están polarizadas, el voltaje sobre su membrana es constante. La contracción en los músculos esqueléticos es de solamente unos 5ms y no tienen un estado refractario. Si el esfuerzo es prolongado, la fibra del músculo se contrae cada 5ms mientras se mantenga el esfuerzo. En cambio, en el corazón deben pasar por lo menos 250 ms antes de contraerse de nuevo. Este es el tiempo necesario para que las cavidades cardíacas pueden vaciarse casi totalmente. Debido a la inestabilidad propia del tejido cardíaco, se observa que el corazón continúa latiendo aún después de seccionarse
115
Instrumentación Biomédica / Sistema Circulatorio todos sus nervios. Inclusive si se corta en fragmentos, éstos seguirán latiendo. Los latidos son debidos precisamente a la acción del tejido marcapasos; tejido especializado que puede iniciar potenciales de acción iterativos. El tejido marcapasos forma el sistema de conducción que normalmente propaga los impulsos por todo el corazón. En el músculo cardíaco, a diferencia del esquelético, existe una fuerte unión entre las células. Esta unión hace que la acción de una unidad contráctil sea transmitida a las células vecinas. Las uniones proveen “puentes de baja impedancia” que facilitan la propagación de la excitación de una fibra a otra. Se crea un estímulo eléctrico o frente de onda que se extiende por todo el corazón. A estas células se les conoce como células sinticiales. Cuando la frecuencia es alta, el músculo cardíaco tiene la propiedad única de contraerse y repolarizarse más aprisa. Si las pulsaciones aumentan de 70 a 200 por minuto, la duración de la sístole se reduce a la mitad y la diástole se acorta de 600 ms a 140 ms. Hasta cerca de 180 pulsaciones por minuto el gasto cardíaco, o sea, la cantidad de litros por minuto que bombea el corazón, aumenta con la frecuencia. Para frecuencias mayores, el corazón no tiene tiempo para llenarse completamente. En su contracción expulsa menos sangre y decrece el gasto cardíaco, con lo cual aparecen síntomas de insuficiencia. ACTIVIDAD ELÉCTRICA DEL CORAZÓN La excitación del corazón no procede directamente del sistema nervioso central como sucede en la mayor parte de las inervaciones musculares. El sistema de conducción cardíaco se muestra en la figura 4.2. Existe un foco celular en la pared posterior de la aurícula derecha que se comporta como un marcapasos natural, que da inicio al proceso de contracción. A ese foco celular, que depolariza el corazón e inicia en forma espontánea a intervalos regulares la acción de bombeo, se le llama nodo sinusal o sinoauricular (SA). La contracción provocada por el nodo se extiende primero por la aurícula, donde se propaga en forma similar a una perturbación en el agua. La despolarización que se origina en el nodo SA alcanza el nodo aurículo - ventricular (AV) 40 ms después. Debido a la baja velocidad de conducción del tejido que forma este nodo, la
116
Alvaro Tucci R. depolarización alcanza sus ramas unos 110 ms después. El impulso eléctrico recorre entonces el haz de His, su rama derecha e izquierda y sus ramificaciones finales, conocidas como fibras de Purkinje, que recubren el endocardio ventricular. Las aurículas se contraen casi simultáneamente y 110 ms después, se contraen casi simultáneamente los dos ventrículos. La demora de 110 ms, generada por el sistema de conducción, es el tiempo necesario para que la sangre pueda desplazarse de las aurículas a los ventrículos. Una vez llenos los ventrículos, se inicia su despolarización y estos se contraen violentamente. El ventrículo derecho impulsa la sangre hacia los pulmones y el izquierdo hacia la aorta. Cuando el músculo cardíaco está en el periodo de reposo, sus células están polarizadas. Los iones están distribuidos de tal forma que la parte interna de la célula es unos 90 mv. negativa respecto a la parte externa. A esta polarización, que se conoce como potencial de reposo, evidentemente representa una energía potencial. La energía potencial almacenada puede liberarse cuando las condiciones son propicias. La oportunidad se presenta cuando espontáneamente el nodo SA inicia la despolarización del miocardio a la frecuencia de unas 70 pulsaciones por minuto.
Figura 4.2. Sistema de conducción del corazón.
En ausencia del nodo SA, el nodo AV provocaría espontáneamente 60 a 40 ppm, mientras que el tejido cardíaco por sí solo haría que el corazón latiera de 40 a 15 ppm. Es decir, si al corazón se le suprime el nodo SA que lo hace latir de 70 a 80 ppm,
117
Instrumentación Biomédica / Sistema Circulatorio quedará latiendo a la frecuencia determinada por el nodo AV que lo hace latir de 40 a 60 ppm. Si se suprime también el nodo AV quedaría contrayéndose de 40 a 15 ppm. De lo anterior se deduce que el nodo SA es el que normalmente determina la frecuencia cardíaca. Es el marcapaso normal del corazón, que provoca las contracciones más frecuentes y que causa estímulos despolarizantes en el resto de los tejidos, antes de que éstos alcancen a despolarizarse por otros estímulos. La frecuencia cardíaca, también es controlada por algunos nervios del sistema simpático y el nervio vago del parasimpático, que producen respectivamente su incremento o decremento. Estos nervios modifican le frecuencia cardíaca cuando estamos excitados o tenemos miedo. La frecuencia cardíaca también es controlada por un sistema de lazo cerrado. El sensor procede de los receptores de presión situados en la aorta y en el seno carotídeo. Su función, es alterar el efecto del vago cuando cambia la presión en la aorta o en el seno carotídeo. Si la presión sanguínea aumenta, el efecto del vago tiende a reducir la frecuencia, cuando disminuye el efecto es contrario. Otro control de lazo cerrado se basa en la detección del retorno de la sangre venosa. Cuando el cuerpo está sometido a actividad física, debido al movimiento muscular, se produce dilatación periférica. La dilatación periférica hace que se incremente la sangre venosa que regresa al corazón, y al ser detectada, se incrementa su frecuencia. Pequeñas alteraciones de la actividad eléctrica del corazón pueden causar que este órgano deje de bombear eficientemente. El estudio de los biopotenciales provenientes del músculo cardíaco dan pie para el desarrollo de una vasta serie de instrumentos electrónicos: el electrocardiógrafo, el marcapasos, el cardiotacómetro, el desfibrilador y otros instrumentos de diagnóstico e investigación. EL CORAZÓN COMO BOMBA El corazón es una bomba muy eficiente. Basa su funcionamiento en una secuencia de eventos que desencadenan la contracción del miocardio. Al final de la diástole, la sangre proveniente de la venas cava superior e inferior llena el corazón derecho, mientras que el corazón izquierdo se llena con la sangre proveniente de las
118
Alvaro Tucci R. venas pulmonares. Las válvulas mitral y tricúspide, situadas entre las aurículas y los ventrículos, se abren, mientras que las válvulas aórtica y pulmonar se cierran. La sangre fluye al corazón durante toda la diástole, llenando las aurículas y los ventrículos. La presión dentro de las cavidades cardíacas es baja. Durante la sístole auricular la contracción de las aurículas impulsa un 30% de sangre adicional hacia los ventrículos. Al inicio de la sístole ventricular, se cierran las válvulas mitral y tricúspide, el músculo ventricular se contrae en forma violenta durante unos 50 ms, la presión intraventricular aumenta al máximo. Cuando la presión en el ventrículo izquierdo sobrepasa la presión existente en la aorta, que en condiciones normales es de unos 80 mm Hg, por diferencia de presión se abre la válvula aórtica. Análogamente, cuando la presión del ventrículo derecho sobrepasa la presión existente en la arteria pulmonar, que es de unos 10 mm Hg, se abre la válvula pulmonar. En reposo y en condiciones normales, la presión máxima en el ventrículo izquierdo alcanza unos 120 mm Hg y en el ventrículo derecho unos 25 mm Hg. Cuando las válvulas aórtica y pulmonar se abren, se inicia la fase de expulsión ventricular. El volumen de sangre expulsado por cada ventrículo es de 70 a 90 ml, es decir, el 65% de la capacidad volumétrica ventricular. Al final de la sístole, unos 50 ml de sangre permanecen en cada ventrículo. La fracción de expulsión es un buen índice de la función ventricular. Evidentemente, los valores anteriores pueden variar de un individuo a otro. Una vez que el músculo ventricular está completamente contraído, buena parte de la sangre ha sido bombeada. La presión ventricular decae y las válvulas aórtica y pulmonar se cierran. Cuando la presión ventricular es inferior a la auricular se abren las válvulas aurículo-ventriculares y los ventrículos se llenan de nuevo.
SECUENCIA
DE
LA
CIRCULACIÓN
La sangre, después de circular por los capilares, donde cede oxígeno y nutrientes y absorbe anhídrido carbónico y otros desechos, llega a la aurícula derecha por medio de dos gruesas venas; la cava superior y la cava inferior (Fig. 4.3). Estas dos venas llenan la aurícula derecha (AD) y el ventrículo derecho (VD). Luego, el corazón se contrae e impulsa la sangre hacia los
119
Instrumentación Biomédica / Sistema Circulatorio pulmones por medio de la arteria pulmonar. En los pulmones, se elimina buena parte del dióxido de carbono y se reoxigena. La sangre oxigenada, regresa a la aurícula izquierda (AI) por medio de la vena pulmonar y la llena la aurícula y el ventrículo izquierdo (VI). En seguida el corazón se contrae e impulsa la sangre por la arteria aorta que la distribuye por el resto del cuerpo. La sangre regresa al corazón por medio de la venas cava.
Figura. 4.3. Sistema cardiopulmonar
El intercambio de gases se efectúa en los alvéolos, que son diminutos sacos en los extremos del árbol bronquial. La red capilar del tejido alveolar permite el intercambio de gases entre el aire contenido en los alvéolos y las células sanguíneas que se desplazan dentro de los capilares. En los diminutos capilares, las células sanguíneas pasan en fila, una a la vez, y entran en contacto con la delicada membrana semipermeable que separa el saco alveolar, donde se efectúa la difusión. La difusión, es un proceso físico mediante el cual sustancias como el oxígeno y dióxido de carbono atraviesan una membrana semipermeable, desde una zona de alta concentración a otra de menor concentración. Las células sanguíneas que atraviesan los capilares tienen muy poca cantidad de oxígeno y gran cantidad de dióxido de carbono. Como resultado, el dióxido de carbono pasa por difusión a través
120
Alvaro Tucci R. de la membrana hacia el aire de los alvéolos, que es menos rico en dióxido de carbono. De forma similar, el oxígeno contenido en el aire de los alvéolos atraviesa la membrana para pasar a las células sanguíneas. De esta manera, la sangre se libera del exceso de dióxido de carbono que se exhala y se enriquece de oxígeno.
121
Alvaro Tucci R.
CAPÍTULO 5
Recolección de Señales Bioeléctricas LAS
PRIMERAS
MEDICIONES
El místico y físico austríaco Franz Mesmer, en 1775, anunció el
descubrimiento de una fuerza que “penetraba el universo", a la que llamó magnetismo animal. El inexplicable concepto de Mesmer referente a esta fuerza misteriosa, propia de los animales y de los humanos, fue ridiculizada por sus colegas, los físicos de la época, de forma tal que se vio forzado a deponer su floreciente teoría. Sin embargo, sólo 16 años más tarde, el fisiólogo Luigi Galvani (1737-1798), afirmaba que existía una fuerza misteriosa que operaba en animales y humanos, a la que llamó electricidad animal. Según su teoría, llamada Galvanismo o Reacción Galvánica, el cerebro de los animales produce electricidad que es transferida a los nervios, acumulada en los músculos y utilizada para producir movimiento de los miembros. Esta teoría recorrió los claustros universitarios europeos a finales del siglo XVIII y pricipios del siglo XIX. Iclusive se llegó a pensar que por medio de la electricidad se podían liberar las misteriosas fuerzas vitales. Años más tarde, un amigo de Galvani, Alessandro Volta (17451827), colocó dos metales distintos en ambos lados de su lengua y tuvo una sensación muy desagradable. Descubrió, por medio de su lengua, evidencias de la electricidad animal anunciada por su amigo.
123
Instrumentación Biomédica / Recolección de señales bioeléctricas Hace muy pocos siglos, la electricidad era algo absolutamente inconcebible. No podíamos imaginar una cosa que no era sólida, ni líquida, ni gaseosa, que no ocupa espacio, que no es posible ver, ni oir, ni tocar, pudiera formar parte de la naturaleza. Para explicar su presencia surgieron ideas cargadas de fantasía, colindantes con la magia. Tales de Mileto, 600 años antes de Cristo, observó que algunas briznas de hierba seca eran atraídas por un trozo de ámbar que antes había sido frotado en su túnica. La palabra "electricidad", proviene del vocablo elektron, nombre dado por los griegos al ámbar amarillo, de donde se deriva el nombre de tan singular forma de energía. Los romanos, aplicaban electroterapia cuando sumergían los paralíticos en lagunas donde abundaban "peces eléctricos", a fin de que recibieran descargas que consideraban benéficas. Con la invención del galvanómetro, instrumento ideado para medir la corriente eléctrica, esta nueva fuerza pudo ser medida. En los años siguientes, con el avance de la tecnología, especialmente mediante el desarrollo de los amplificadores, se pudieron observar, medir, clasificar, analizar y registrar los "pequeños" potenciales corporales. Este avance tecnológico, contribuyó a que se entendieran muchos fenómenos biológicos. Desde los tiempos de Galvani, se sabía que en los músculos habia potenciales eléctricos. Entonces, parecía natural suponer que al latir el corazón, pudieran aparecer los mismos potenciales. El problema radicaba en cómo medir las pequeñas señales que allí se originaban. La solución se presentó con el aporte del fisiólogo holandés Willem Einthoven (1860–1927) quien, en 1903, desarrolló el primer galvanómetro de hilo. Dicho instrumento consiste en un delgado conductor que pasa por un campo magnético. La corriente que fluye por del conductor lo obliga a desviarse en forma perpendicular al campo. Las primeras mediciones importantes de los biopotenciales cardíacos fueron realizadas por los científicos Sir Thomas Lewis (1881-1945) y Willem Einthoven (1860-1927) en 1912. Ellos utilizaron el galvanómetro de hilo y electrodos de inmersión. Estos electrodos, estaban formados por un recipiente que contiene una solución salina, donde el paciente introducía un pie o una mano. Para la época, el galvanómetro de Einthoven y los electrodos de inmersión permitieron observar las variaciones rítmicas del
124
Alvaro Tucci R. potencial eléctrico del corazón. El resultado de estas investigaciones fue el electrocardiógrafo. Por su aporte a este desarrollo, Einthoven fue galardonado con el premio Nobel de medicina y fisiología en 1924. En 1917, los electrodos de inmersión fueron sustituido por electrodos de placa metálica, que permiten al paciente permanecer en posicion más conveniente durante el registro electrocardiográfico.
MEDICIONES BIOLÓGICAS Los instrumentos médicos son empleados para ayudar al médico a obtener un diagnóstico acertado, para el reconocimiento médico ordinario, para la evaluar el estado físico, para la vigilar los signos vitales durante las operaciones y en los cuidados intensivos, y para la adquirir datos con fines de diagnóstico e investigación. La instrumentación electrónica, que basa su funcionamiento en la recolección de señales bioeléctricas, debe detectar, registrar y mostrar en alguna forma la actividad eléctrica buscada. Alrededor de esta disciplina se han desarrollado una cantidad de instrumentos destinados a la investigación y al diagnóstico. Sin embargo, cuando se trata de obtener respuestas de los complejos sistema que integran los seres vivos, se encuentra que para un mismo estímulo las respuestas no son las mismas, varían de un individuo a otro, e inclusive en el mismo individuo, si el estímulo se suministra en momentos diferentes. Los ingenieros destinados a trabajar con biosistemas deben "acostumbrarse" a operar con los amplios márgenes de tolerancia, propios de estas disciplinas. Los complejos sistemas del cuerpo humano son, entre otros, eléctricos, mecánicos, térmicos, químicos, hidráulicos, ópticos, acústicos y neumáticos que interactúan entre sí. La estimulación de un sistema, generalmente afecta de alguna manera a todos los demás, a veces en forma imperceptible. Por estas razones, la relación causa / efecto es bastante difícil de definir. A estas complejidades, se anexan otras variables casi incomprensibles aportadas por “el poderoso computador”, el cerebro, que hacen que todas los parámetros estén influenciadas y alimentadas por abstracciones tales como; los sentimientos, el estado de ánimo, el amor, el odio, la disposición, las ganas o el desgano. El simple hecho de andar, cuyo control procede de los centros
125
Instrumentación Biomédica / Recolección de señales bioeléctricas más elevados del cerebro, implica conocer la posición espacial de los miembros. Dicha información, procedente de los músculos y articulaciones, llega al cerebro por las vías sensoriales. El cerebro, responde enviando “instrucciones” por las vías motoras para controlar los músculos. Además, existe una estrecha colaboración entre el sistema nervioso, los ojos y el órgano de equilibrio de los oídos, que en su conjunto se realimentan y hacen que se efectúe la marcha correctamente. Si cualquiera de estos sistemas fallara, la marcha sería errática o imposible. Los instrumentos empleados para evaluar las variables biológicas están destinados a medir, modificar y presentar los resultados para su interpretación y evaluación. No deben exponer al paciente al dolor o peligros innecesarios y sin violar condiciones higiénicas, morales, legales y éticas. Algunas de las mediciones en los seres vivos pueden realizarse con gran facilidad; como la determinación de la presión arterial. Otras, pueden ser más complicadas y riesgosas; como la medida de la presión tomada directamente en las cavidades cardíacas. Uno de los problemas frecuentemente encontrado es el acceso al lugar adecuado para colocar el transductor. Por ejemplo, si se trata de determinar la actividad neuroquímica del cerebro, es muy riesgoso colocar el transductor en el lugar apropiado. Cuando la variable a medir es inaccesible, se intentan hacer medidas indirectas teniendo en cuenta las limitaciones que estas involucran. Las medidas biológicas pueden efectuarse in vivo o in vitro. Las medidas in vivo son las que se realizan sobre o dentro de un organismo vivo, como la toma de la presión arterial o un cateterismo (introducción de un catéter en una cavidad del paciente). En las medidas in vitro, se toman muestras y se analizan fuera del cuerpo, por ejemplo, el análisis de orina o el despistaje del cáncer. LOS TRANSDUCTORES Los transductores son dispositivos que convierte una forma de energía en otra. Transforman algún parámetro fisiológico, como el voltaje, la presión, la temperatura, la concentración química, la velocidad de desplazamiento, en señales eléctricas. El transductor establece el contacto entre el paciente o sus muestras y el instrumento de medida. Las señales utilizadas por los instrumentos médicos generalmente provienen de algún transductor.
126
Alvaro Tucci R. Un transductor piezoeléctrico transforma la energía mecánica. El micrófono convierte la energía sonora. El fotodiodo y fototransistor convierten la energía luminosa. Las termocuplas y los termistores transforman la energía térmica. Algunas propiedades químicas, como el pH o el contenido de oxígeno en la sangre, pueden ser medidos con transductores que convierten la energía química en señal eléctrica. En la conversión se deben alterar lo menos posible los parámetros del fenómeno que se está midiendo. Así, una corneta debe reproducir con mínima distorsión los ruidos cardíacos. La señal eléctrica proveniente del transductor es generelmente acoplada a un circuito electrónico, como un puente de Wheatstone o un amplificador diferencial. Luego es procesada para cumplir con los requerimientos de la medida. Podría, por ejemplo, ser amplificada, digitalizada o convertida en una señal oscilatoria. Finalmente, la señal debe producir resultados inteligibles y fácilmente percibidos por el médico o el operador del instrumento. Estos resultados podrían ser acústicos o visuales. Frecuentemente es necesario conservarlos para uso posterior. La tendencia es digitalizarlos y almacenarlos en una memoria o registrarlos en papel, como en el electrocardiograma. Las imágenes fotográficas, producidas con las recientes tecnologías tomográficas, permiten conservarlas en la memoria del equipo o ser enviadas via internet a otros destinos. Todas las medidas, y con más razón las efectuadas en seres vivos, son afectadas por la presencia del transductor. En los sistemas biológicos la alteración provocada puede ser significativa. Por ejemplo, la presencia del transductor para medir la presión parcial de oxígeno en la sangre altera muy poco su verdadero valor. Sin embargo, el intento de medir los potenciales electroquímicos en una célula viva, implica que ésta sea penetrada por un microelectrodo. El intento altera su funcionamiento o puede matarla, por lo que cabe esperar que los verdaderos potenciales no son exactamente los leídos. Inclusive, los efectos psicológicos son capaces de alterar los resultados de la lectura. Tal es el caso de los pacientes que presentan mayor tensión arterial en los consultorios médicos. Por este motivo, para no causar alteraciones o miedo excesivo, los transductores deben tener presencia agradable. Su colocación
127
Instrumentación Biomédica / Recolección de señales bioeléctricas no debe producir dolor o incomodidad innecesaria, deben ser diseñados siguiendo estrictas normas de seguridad, para así minimizar los riesgos del paciente y del personal operario. En algunas medidas fisiológicas, el transductor cumple dos funciones: suministra un estímulo y mide la respuesta. Para la medida de la presión intraocular se “dispara” un chorro de aire en el globo ocular y se mide su deformación; o cuando se estimula un nervio y se observa la respuesta del músculo con él asociado. LOS ELECTRODOS Los electrodos son dispositivos que se colocan en contacto con el cuerpo con la intención de "recoger" algún tipo de señal eléctrica producida por la actividad del sistema nervioso y muscular. Los biopotenciales, diminutos voltajes presentes en todo organismo vivo, son causados por la actividad electroquímica de una simple célula o la suma de la actividad de un gran número de ellas, como los provenientes de un músculo o del cerebro. Para la medida de los biopotenciales, es necesario disponer de algún tipo de electrodo que actúe como interface entre el cuerpo y el instrumento de medida. Cuando se realizan estas operaciones, necesariamente, cierta corriente fluye por el circuito de medida. Los electrodos cumplen además la función de transducción: convierten la corriente iónica en corriente de electrones. Para clarificar estos conceptos, se repasarán brevemente algunas características de las soluciones. Desde un punto de vista electroquímico, los cuerpos vivos pueden considerarse como soluciones contenidas en los órganos o en el cuerpo mismo. Si estas soluciones están en contacto con dos electrodos alimentados por una fuente externa de potencial eléctrico, un flujo de corriente circula por el espacio interelectródico. Tambien sucede que los tejidos pueden actua como fuente de energía eléctrica y suministrar corriente que fluye desde el espacio interelectrodico hacia los electrodos. En este caso, el efecto electroquímico depende de la naturaleza y composición de la solución, del material, del tamaño y calidad del contacto de los electrodos, de la temperatura y de las propiedades del circuito eléctrico externo. Los electrodos son dispositivos de contacto que interaccionan con las soluciones y “recogen” las señales de las células, o de la
128
Alvaro Tucci R. actividad de un conjunto de ellas. Sin embargo, hay que observar que los potenciales generados no debidos al flujo de electrones, sino generados por corrientes iónicas. La medida de estos potenciales requiere que sean convertidos en señales eléctricas. Los electrodos son los dispositivos encargados de esta conversión, a cuya teoría se han dedicado muchos libros. La comprensión de la teoría bioquímica asociada a su funcionamiento, ha contribuido al diseño de instrumentos electrónicos más estables, libres de ruido y capaces de reproducir señales inalteradas a lo largo de su operación. La transducción se genera en el electrolito, cerca de la superficie del electrodo. El electrolito, formado por una solución, pasta o gel, establece el contacto entre el cuerpo y la superficie del electrodo. Puede ser también el mismo fluido contenido en los tejidos o simplemente la transpiración acumulada bajo la superficie del electrodo. En algunas aplicaciones se utilizan electrodos inertes, que por ser elaborados con metales nobles, no producen reacciones químicas con el electrolito que pudieran afectar los resultados. El más conocido es el electrodo de platino, aunque a veces se emplean otros metales como el oro o la plata. En otras circunstancias, se emplean electrodos hechos de algún material que entra en equilibrio químico con los iones portadores de la corriente. El potencial del electrodo se relaciona entonces con la concentración de ion correspondiente.
Figura 5.1. Modelo de interface del electrodo superficial metal–electrolito y perfil de distribución de las cargas
129
Instrumentación Biomédica / Recolección de señales bioeléctricas El electrolito puede ser considerado como una solución que se disocia en iones. La interface electrodo–electrolito, así como la distribución de cargas, es esquemáticamente ilustrada en la figura 5.1. La corriente neta que atraviesa el electrolito está compuesta por + – cationes C y aniones A , mientras que la corriente que circula por los electrodos está compuesta por electrones. No hay electrones libres en el electrolito ni aniones o cationes en los electrodos. Por lo tanto, la reacción química en la interface convierte la corriente iónica en el electrolito en corriente de electrones en el metal. Una de las reacciones es la oxidación de los átomos del electrodo metálico: + – z C C + ze ...............................(5.1) donde z es la valencia del átomo. En consecuencia, el campo eléctrico rechaza los electrones hacia la izquierda del metal e impulsa los iones hacia la derecha en el electrolito. Otra reacción es la oxidación de los aniones en la interface electrodo–electrolito:
A
z
–
– A + ze ................................(5.2)
El anión al oxidarse se convierte en un átomo neutro, entrega uno o más electrones libres que son absorbidos por el metal. Los átomos neutros se alejan de la interface por efecto de difusión. Ambas reacciones son reversibles, es decir, también se produce reducción en sentido contrario, de derecha a izquierda. Cuando la corriente fluye del electrodo al electrolito, domina la reacción de oxidación. Si la corriente fluye en sentido contrario, la reacción dominante es la reducción. Cuando no existe flujo de corriente en la interface, estas reacciones todavía ocurren, pero la reacción de oxidación se iguala con la de reducción. Por lo tanto no existe transferencia neta de cargas a través de la interface. EL POTENCIAL MEDIO DE CELDA (Ec) Debido a que la mayoría de los metales poseen electrones libres o con enlaces muy débiles, son buenos conductores de electricidad. Cuando un electrodo metálico se sumerge en un electrolito, algunos de estos electrones se transfieren a la solución
130
Alvaro Tucci R. y "dejan atrás", en la superficie del metal, iones positivos. Esta transferencia de cargas continúa hasta alcanzar el equilibrio eléctrico. Por ello, el electrodo queda cargado respecto al electrolito. En condiciones de equilibrio, se crean dos capas de cargas en la interface; la capa más cercana al metal de una polaridad, y la capa cercana al electrolito de polaridad opuesta. Entre una capa y otra se establece una diferencia de potencial que se llama potencial medio de celda (Ec), que en un electrodo de plata es de 0,80 voltios. Si un electrodo de cobre se coloca dentro de la misma solución donde está el electrodo de plata, también perderá electrones y se establece un potencial medio de celda correspondiente al cobre de 0,34 voltios. El potencial entre el electrodo de plata y el de cobre será su diferencia, es decir, 0,46 voltios. Esta diferencia de potencial es la que hace posible la fabricación de las pilas. En la práctica, no es posible medir el potencial medio de celda de un solo electrodo, ya que no se dispone de un punto de referencia donde conectar el segundo polo del voltímetro. Por tal razón, se debe crear un segundo electrodo. En este caso, como el segundo electrodo tiene también potencial medio de celda, la lectura indicará la diferencia entre los dos potenciales, tal como sucede al introducirse un electrodo de plata y otro de cobre en la misma solución. Para normalizar las lecturas, se conviene en medir el potencial medio de celda de diferentes materiales respecto a un electrodo de referencia internacionalmente adoptado; el electrodo de hidrógeno. Consiste en una superficie de platino, especialmente preparada, sumergida en una solución ácida por donde circulan burbujas de gas hidrógeno. Los iones de hidrógeno se difunden y crean una interface. El cable del electrodo de hidrógeno se conecta directamente a la superficie de platino. El potencial medio de celda de dicho electrodo, bajo ciertas condiciones que se obtienen fácilmente en el laboratorio, es por definición igual a cero. El electrodo de hidrógeno presenta dos inconvenientes: debe ser alimentado continuamente con burbujas de hidrógeno y para algunas determinaciones, no es lo suficientemente estable. Por eso, se utiliza en aplicaciones muy especiales y es reemplazado por otros tipos de electrodos. La más importante característica del electrodo de referencia es su estabilidad. Su potencial debe ser estable e insensible a los cambios
131
Instrumentación Biomédica / Recolección de señales bioeléctricas que pudieran ocurrir en la composición de la solución donde se encuentra. El electrodo de plata-cloruro de plata y el electrodo de calomelanos, conocido también como electrodo de cloruro mercurioso, son dos tipos muy empleados por ofrecer estas características. Para medir el potencial medio de celda de un electrodo, se coloca en la misma solución donde se encuentra el electrodo de referencia y se mide la diferencia de potencial por medio de un electrómetro o un voltímetro de muy alta impedancia de entrada. El potencial medio de celda a 25ºC de algunos materiales y aleaciones más utilizadas en la fabricación de electrodos, junto con el proceso electrónico de oxidación/reducción que ocurre en su superficie, se muestran en la tabla 5.1. La polaridad del potencial es referida al electrodo de flujo de hidrógeno. Tabla 5.1 Material Al Zn Cr Fe Ni Sr Pb H2 Ag + Br Sn2+ Ag + Cl Cu Cu Ag Au Au
Reacción en el electrodo (v) -
3+
Al + 3e2 Zn + 2e3+ Cr + 3e2+ Fe + 2e2+ Ni + 2e2+ Sr + 2e2+ Pb + 2e+ 2H + 2eAgBr + e4+ Sn + 2eAgCl + e2+ Cu + 2e+ Cu + e+ Ag + e3+ Au + 3e+ Au + e-
Potencial
-
1,66 0,76 0,74 0,44 0,25 0,14 0,13 0,00 + 0,10 + 0,15 + 0,22 + 0,34 + 0,52 + 0,80 + 1,50 + 1,68
La teoría establece que si dos electrodos de idéntico tamaño y material se emplean para efectuar una medida fisiológica, el indeseable potencial medio de celda se anula. Sin embargo, en la práctica esto no es estrictamente cierto. El potencial medio de celda varía con el tiempo, la presión, la temperatura y la concentración iónica.
132
Alvaro Tucci R. La diferencia de potencial que se establece entre dos electrodos idénticos colocados en una misma solución, se debe principalmente a las impurezas contenidas en el metal y en el electrolito. Por lo tanto, no debe esperarse una anulación perfecta de los potenciales de celda; siempre existirá un pequeño remanente en presencia de ruido. POLARIZACIÓN DE LOS ELECTRODOS El valor del potencial medio de celda, tal como es indicado en la tabla 5.1, se produce cuando por la interface no circula corriente. Si llegara a circular, el potencial se verá afectado. La diferencia se conoce como tensión sobrepuesta. La tensión sobrepuesta es debida a la polarización del electrodo y está formada por tres componentes: la caída de tensión en el electrolito, la redistribución de la concentración iónica y el voltaje de activación. La caída de tensión en el electrolito es consecuencia de su resistencia óhmica. Cuando la corriente circula entre dos electrodos separados por un electrolito, se produce una caída de tensión a lo largo de su recorrido. La caída de tensión es proporcional a la cantidad de corriente, la sección por donde circula y la resistividad del electrolito. Sin embargo, es un error asumir que la caída de tensión en el electrolito es una función lineal de la corriente. En aste caso la Ley de Ohm no aplica; se desvía notablemente de ella, especialmente para soluciones de bajas concentracion. La tensión sobrepuesta por redistribución de las concentración de cargas iónicas, se debe a la alteración del equilibrio de los iones en la vecindad de la interface. El paso de la corriente hace que el equilibrio de las cargas existente en esa zona se altere y no se cumple el equilibrio entre el proceso de oxidación y reducción, expresado en las ecuaciones 5.1 y 5.2. El voltaje de activación es el tercer mecanismo que contribuye a formar la tensión sobrepuesta. La circulación de corriente hace que una de las reacciones, la de reducción o la de oxidación, domine sobre la otra. El nivel de la barrera energética a vencer por los átomos, aparece como una diferencia de potencial adicional entre el electrodo y el electrolito, conocido como voltaje de activación. Los tres mecanismos de polarización son aditivos y se cumple que: Vs = Vr + Vc + Va
133
Instrumentación Biomédica / Recolección de señales bioeléctricas donde: Vs Vr Vc Va
es la tensión sobrepuesta. es la caída de tensión por resistencia óhmica. es la tensión sobrepuesta por la redistribución iónica. es el voltaje de activación.
ELECTRODOS NO POLARIZABLES Cuando hay circulación de corriente entre los electrodos y el electrolito, en teoría es posible concebir electrodos ideales perfectamente polarizables y electrodos absolutamente no polarizables. Los electrodos perfectamente polarizables, son aquellos en los cuales cuando hay circulación de corriente, las cargas no cruzan la interface electrodo–electrolito. La interface actúa como un condensador; la corriente que circula es de desplazamiento y nunca atraviesa el aislante. Los electrodos no polarizables son aquellos en los cuales la corriente circula libremente a través de la interface, por lo tanto no se produce tensión sobrepuesta. En la práctica, no es posible fabricar ninguno de los dos tipos de electrodos, sin embargo, es posible acercarse a ello. Los electrodos polarizables se construyen con materiales inertes, como los metales nobles, difíciles de oxidar o disolver. La corriente que atraviesa la interface altera la concentración de sus iones, en consecuencia la tensión sobrepuesta se debe principalmente a la redistribución iónica. El electrodo plata–cloruro de plata (Ag–AgCl ) es uno de los que más se acerca al modelo teórico; es muy empleado por ser económico, estable y relativamente libre de ruido. A fin evitar el desgaste por roce de la superficie de contacto, durante el uso y almacenamiento deben tratarse con cuidado. Periódicamente debe limpiarse suavemente con algodón. Para reducir la interferencia, se acoplan al equipo por medio de cables blindados. El cable blindado tiene la capacitancia distribuida elevada, puede degradar los tiempos de respuesta da las rápidas variaciones de potenciales generadas por los músculos y nervios, especialmente si su longitud es grande. ARTEFACTOS En medicina y biología, el término “artefacto” se refiere a cualquier señal diferente de la que se quiere medir. Es un término parecido a
134
Alvaro Tucci R. “ruido”, empleado en ingeniería electrónica. Son artefactos, la interferencia eléctrica, inclusive la generada por la línea, el ruido propio generado por el instrumento de medida, las variaciones debidas a cambios de temperaturas, señales captadas por el movimiento del paciente y en general, cualquier señal inesperada que se presente ocasionalmente. Gran parte de los electrodos son sensibles al movimiento. Cuando el paciente se mueve, inclusive cuando respira, se producen señales indeseables, a veces difíciles de separar de las que se desean medir. Estas señales pueden ser de tal forma y magnitud que “tapan” completamente la señal de interés. En ciertas aplicaciones, especialmente cuando las mediciones se realizan en niños, se hace necesario aplicarle anestesia total para poder realizar el estudio correspondiente.
TIPOS
DE
ELECTRODOS
Para medir los diferentes biopotenciales se han desarrollado varios tipos de electrodos. Algunos especialmente diseñados para adaptarse a ciertas mediciones, otros con buena relación señal-ruido. Los principales tipos de electrodos se agrupan en tres categorías: superficiales, de aguja y microelectrodos. ELECTRODOS SUPERFICIALES Los electrodos superficiales son apropiados para medir potenciales en la superficie del cuerpo; en aplicaciones electrocardiográficas (ECG), electroencefalográficas (EEG) o electromiográficas (EMG). En general, un electrodo consite en una superficie metálica conectada al instrumento de madida por medio de un conductor. En la parte inferior se coloca un algodón o una gaza empapada con una solución salina, o se aplica gel. Se mantienen en contacto con la piel por medio de correas elásticas, por succión o por medio de superficies adhesivas. En las primeras mediciones de biopotenciales, los electrodos superficiales consistían de un pedazo de gasa mojada con solución salina conectada a un conductor. A medida que la solución se evaporaba, la conductividad de la gasa disminuía, alterándose los resultados de las mediciones. Se idearon varios sistemas, como el empleo un contenedor lleno de solución, o sumergir los miembros
135
Instrumentación Biomédica / Recolección de señales bioeléctricas en la solución misma. En vista de las complicaciones, este método quedó rápidamente descartado. Luego se utilizaron los electrodos planos de lámina metálica, similares al mostrado en la figura 5.2a. Para reducir la impedancia electrodo–tejido, el electrodo debía limpiarse muy bien antes de ser usado, los vellos debía afeitarse y la piel frotarse con algún abrasivo hasta que enrojeciera, para luego colocarlo sobre ella firmemente. A pesar de estas precauciones la impedancia seguía siendo alta, lo cual dificultaba la medida de pequeños biopotenciales.Nótese que mientras más pequeñas son las señales biológicas a medir, más baja debe ser la impedancia electrodo–piel.
Figura 5.2. Diferentes tipos de electrodos superficiales: (a) electrodo de lámina metálica; (b) electrodo desechable; (c) electrodo de succión; (d) electrodo flotante, (e) electrodo flexible; (f) electrodo activo
Se desarrolló entónces una pasta formada por un compuesto salino que reducía aun más la impedancia, pero no solucionaba el problema de la evaporación. Se perfeccionaron otros tipos de gel
136
Alvaro Tucci R. o pastas electrolíticas muy estables y electrodos desechables, separados de la piel por el propio gel contenido en una pequeña concavidad. Estos desarrollos permitieron efectuar medidas más estables y con menos interferencias. Cuando se emplean los electrodos superficiales, la señal observada proviene de una porción relativamente grande de tejido; de millones de células nerviosas o musculares que trabajan conjuntamente. Para evaluar la actividad de pequeñas secciones de tejido o de una célula, no es posible emplear electrodos superficiales. En los modernos centros de salud, se ha generalizado el uso de electrodos autoadhesivos desechables, como el mostrado en la figura 5.2b. Estos electrodos, impregnados de gel, son más higiénicos y fácilmente adosables, con lo que se reduce el tiempo que el personal debe dedicar a su colocación. Están formados por dos discos concéntricos; uno grande de plástico adhesivo y otro más pequeño colocado en su centro que hace el contacto eléctrico. El electrodo central está recubierto con una película de cloruro de plata e impregnado con pasta electrolítica que actúa como electrolito. Para colocar el electrodo es conveniente limpiar y desgrasar la piel sobre la cual se va a aplicar. Otro electrodo, desarrollado hace muchos años y todavía en uso, es el de succión, mostrado en la figura 5.2c. Consiste en una copa metálica y un bulbo de succión de goma. La succión crea el vacío suficiente dentro de la copa para mantenerlo adherido a la piel durante un corto periodo. Aunque el electrodo es relativamente grande, la superficie de contacto es pequeña; solamente el borde de la copa está en contacto con la piel, su impedancia es relativamente grande y tiende a producir más artefactos que los electrodos metálicos planos. Es empleado en electrocardiografía como electrodo precordial, puesto que puede ser rápidamente desplazado de un lugar a otro. Los electrodos de placa metálica en contacto directo con la piel son muy sensibles al movimiento. Cuando el paciente se mueve, se producen cambios de voltaje o artefactos, debido a las alteraciones en las capas de cargas eléctricas presentes en la interface. Incluso el más leve movimiento es suficiente para generar artefactos capaces de “ocultar” los potenciales bioeléctricos que se intentan medir. Los electrodos no polarizables, como el de Ag-AgCl, reducen
137
Instrumentación Biomédica / Recolección de señales bioeléctricas significativamente la sensibilidad al movimiento. Los electrodos flotantes, como el mostrado en la figura 5.2d, son prácticamente inmune. En ellos se elimina el contacto directo del electrodo con la piel. La parte metálica es un disco o una bolita de plata recubierta con cloruro de plata, que entra en contacto eléctrico con la piel sólo a través de la pasta electrolítica contenida en su cavidad. Cuando el paciente se mueve, la pasta electrolítica permanece estática respecto al disco metálico, por lo tanto no se alteran las capas de carga de la interface. El electrodo flotante es estable y adecuado para múltiples usos. En los electrodos flotantes desechables, la pasta electrolítica está embebida en una esponja. La esponja está en contacto con la piel por una cara y por la otra firmemente adherida al electrodo metálico. Los electrodos flexibles son aquellos que se adaptan a las superficies del cuerpo. El contacto con la piel es de mejor calidad, más firme y con mayor área de contacto. Como consecuencia, los artefactos debidos al movimiento del paciente son minimizados. Un tipo de electrodo flexible se muestra en la figura 5.2e. Consiste en un material adhesivo sobre el cual se coloca una malla formada por finos alambres flexibles de plata. También se fabrican con superficie de Mylar recubierta con una capa de plata conectada al conductor que lleva la señal al instrumento de medida. La pasta electrolítica se coloca sobre la malla o el Mylar. Otro tipo de electrodo flexible es compuesto por silicona mezclada con polvo de carbón. La silicona actúa como aglutinante y el carbón como conductor. Esta combinación produce un material flexible, conductor y de gran resistencia al uso. Los electrodos flexibles adquieren especial importancia en la detección electrocardiográfica o respiratoria de niños prematuros, donde las curvaturas del cuerpo son tan pronunciadas que los electrodos rígidos harían muy mal contacto. Los electrodos activos, como el mostrado en la figura 5.2f, son de desarrollo más reciente. Consisten en un disco metálico sólido de acero inoxidable. En una cara del disco se coloca un amplificador de muy alta impedancia de entrada, del orden de los 1000 Mohmios, cuya entrada está directamente conectada al disco. La salida del amplificador se conecta al conductor que lleva la señal al instrumento de medida. El amplificador actúa como convertidor de impedancias. Convierte
138
Alvaro Tucci R. la alta impedancia de entrada de la interface en baja impedancia, adecuada para la transmisión de la señal por el conductor. El amplificador, adosado al disco metálico, está encapsulado con algún tipo de resina. Es alimentado con una fuente estabilizada que se encuentra en el instrumento de medida. Frecuentemente, las señales bioeléctricas se transmiten por el mismo conductor que alimenta el amplificador; aparecen como pequeñas variaciones de voltaje sobre ese cable, luego son magnificadas por amplificadores diferenciales apropiados. Los electrodos activos presentan algunos inconvenientes en ciertas aplicaciones: La capacidad de la interface puede ser tan pequeña que puede verse comprometidas las respuestas a las bajas frecuencias, el contacto con la piel produce frecuentes artefactos y el potencial medio de celda puede saturar el amplificador. En los electrodos activos, la alta impedancia de entrada del amplificador hace que sean muy sensibles a los artefactos generados por las interferencias electromagnéticas circundantes y a la electricidad estáticaca. La electricidad estática es generada principalmente por la ropa sintética usada por el personal, especialmente en ambientes muy secos y alfombrados. Los electrodos utilizados en cirugía son generalmente del tipo desechable. Se fabrican de tamaño y formas diferentes, son flexibles y se adaptan a la forma del cuerpo, son livianos y construidos con sustancias antialérgicas, especialmente aquellos que deben emplearse por largos periodos. También se han desarrollado electrodos para aplicaciones especificas. Para usos electroencefalográficos son discos metálicos pequeños de unos 6 mm de diámetro, que deben adosarse al cuero cabelludo con pasta electrolítica. Los electrodos de pinza, para ser colocados en la oreja, se emplean como electrodo de referencia. El circuito equivalente de los electrodos metálicos acoplados con pasta electrolítica a un instrumento de medida, se muestra en la figura 5.3.
139
Instrumentación Biomédica / Recolección de señales bioeléctricas
Figura 5.3. Circuito equivalente de un electrodo de superficie
La impedancia Ze del electrodo es dada por: Re Ze = Rs +
j2πfCe Re+
1 jπfCe
Re-arreglando los términos se obtiene: Ze = Rs +
Re 1 + j2πf CeRe
La distribución de cargas hace que se establezca la diferencia de potencial medio de celda (Ec) en la interface, representado por una fuente de poder Ec. En serie con Ec se encuentra la impedancia Ze, formada por Re,Ce y Rs. Ce representa la capacidad del electrodo, Re en paralelo, representa la resistencia por la cual circula la corriente de fuga del condensador y Rs es la resistencia óhmica de la interface, constituida por la resistencia de la pasta electrolítica y los conductores.Esta ecuación describe bastante bien el comportamiento de un electrodo superficial. En ella, puede notarse que la impedancia Ze es función de la frecuencia. Es comprensible esperar que los elementos que forman el circuito equivalente se alteren cuando el paciente se mueve. Las resistencias y el condensador cambian de valor, lo que origina artefactos.
140
Alvaro Tucci R.
Figura 5.4. Circuito equivalente de dos electrodos con tejido biológico entre ellos, acoplados a un amplificador con impedancia de entrada Za
Los componentes del circuito equivalente Re, Rs y Ce no son constantes. Medidas experimentales demuestran que sus valores son inversamente proporcionales al cuadrado de la frecuencia, e 2 independientes de la densidad corriente, si esta es inferior a 1mA/cm . La impedancia de los electrodos en función de la frecuencia se puede medir si se colocan dos electrodos en la forma convencional. Luego se procede a aplicar una tensión y se mide la corriente que pasa por ellos para diferentes frecuencias. La relación voltaje/ corriente, es la impedancia de los dos electrodos en serie. Si los electrodos son idénticos, el valor de la impedancia de cada uno es la mitad del valor medido. El circuito equivalente de los dos electrodos, el tejido interpuesto y la impedancia de entrada del amplificador es el mostrado en la figura 5.4. Ec y Ze representan el potencial medio de celda y la impedancia de cada electrodo, mientras que Za representa la impedancia de entrada del amplificador. Esta última debe ser alta, de manera que absorba muy poca corriente del generador, que en este caso es el tejido biológico. Si la impedancia de entrada fuera baja, el voltaje de entrada dependerá excesivamente de la impedancia.
141
Instrumentación Biomédica / Recolección de señales bioeléctricas ELECTRODOS DE AGUJA Los electrodos de aguja son empleados para medir los biopotenciales dentro del cuerpo. Los transcutáneos son ideados para atravesar únicamente la piel, mientras que los electrodos internos se implantan en órganos más profundos; el cerebro, algún nervio o músculo. La interface se establece entre su parte conductora y el líquido intra o extra celular, por esto adolecen de las complicaciones de interface nombradas anteriormente. Los electrodos de aguja se emplean para medir biopotenciales provenientes de lugares específicos de los tejidos. Están fabricados con finos alambres de zinc, acero inoxidable, tungsteno o aleaciones de platino. No puede emplearse cobre o plata, puesto que estos elementos son tóxicos para las células. Para satisfacer necesidades especiales, algunos usuarios fabrican sus propios electrodos.
Figura 5.5. Diferentes formas de los electrodos de aguja: (a) Electrodo monopolar; (b) Electrodo bifilar; (c) Electrodo coaxial; (d) Electrodo de vidrio.
142
Alvaro Tucci R. Los electrodos de aguja pueden ser monopolares o bipolares. El primero, mostrados en la figura 5.5a, es un conductor sólido, usualmente acero inoxidable, recubierto con algún material aislante o plástico del cual sobresale la punta del conductor. Es empleado principalmente en aplicaciones electromiográficas. Mide la diferencia de potencial entre la punta, insertada en un músculo, y un electrodo de referencia adosado en la piel del paciente. También se emplea para la detección electrocardiográfica continua en pacientes sometidos a cirugía. Durante la intervención, se colocan dos electrodos en forma subcutanea en las extremidades, los cuales hacen buen contacto y permanecen en su lugar, aunque el paciente tenga que moverse durante el acto quirúrgico. Los electrodos de vidrio o de pipeta, consisten en una tubo de vidrio lleno con una sustancia conductora líquida o gelatinosa. En un extremo, la sustancia entra en contacto con el paciente, en el otro, con un cable conductor que lleva los biopotenciales al instrumento de medida. Un tipo de estos electrodos se muestra en la figura 5.5d. Los electrodos bipolares pueden ser bifilares o coaxiales. El bipolar, mostrado en la figura 5.5b, mide la diferencia de potencial entre las puntas descubiertas de dos conductores. Los conductores son cementados dentro de una cánula de acero inoxidable, como una aguja hipodérmica, la cual puede conectarse a tierra. Puesto que la señal se mide entre sus conductores no es necesario el electrodo de referencia. En el electrodo coaxial, mostrado en la figura 5.5c, la diferencia de potencial se mide entre el electrodo central o activo y la envoltura de acero inoxidable que podría ser una aguja hipodérmica. En estos electrodos, la parte externa del conductor coaxial actúa como blindaje. MICROELECTRODOS Los microelectrodos son empleados para medir la diferencia de potencial que se establece entre la parte interna y externa de la membrana celular. La medida permite analizar el comportamiento de la membrana en función de los potenciales eléctricos existentes. Para efectuarla, se coloca una punta del electrodo dentro de la célula y otro en la parte externa.
143
Instrumentación Biomédica / Recolección de señales bioeléctricas Las dimensiones de la punta de los microelectrodos deben ser pequeñas con respecto a la célula. Para tener noción de estas dimensiones, hay que notar que el diámetro de un glóbulo rojo es de 7um, una fibra nerviosa mide de 1 a 20um y la célula nerviosa espinal humana más grande mide unos 150um. Los microelectrodos son generalmente de dos tipos: de punta metálica y de micropipeta. Los de punta metálica se construyen afilando electroquímicamente el extremo de un hilo de acero, tungsteno o aleaciones de platino-iridio, de forma que pueda penetrar fácilmente la membrana celular. En los electrodos metálicos, la punta es la única porción en contacto eléctrico con la célula, el resto del electrodo está recubierto de un material no conductor que lo aísla de los tejidos. La acción de colocar el electrodo en cierta posición respecto a la célula es generalmente dificultosa. Un tipo de electrodo de punta metálica se muestra en la figura 5.6a.
Figura 5.6 . Microelectrodos: (a) De punta metálica; (b) De micropipeta de vidrio.
Los microelectrodos hechos con tubos capilares de vidrio tienen diámetro en la punta del orden de los 0,05 a 10 micrómetros. El capilar se llena con un electrolito compatible con el líquido celular, como por ejemplo, una solución 3 M KCl. En este tipo de electrodo, mostrado en la figura 5.6b, se presentan dos interfaces; una en la punta de la pipeta, entre el electrolito y los líquidos celulares y la otra en el interior de la pipeta, entre el electrolito y el conductor metálico.
144
Alvaro Tucci R. Debido a su pequeña área de contacto, los microelectrodos presentan impedancias muy altas, comprendidas entre 1 y 100 Mohmios. En consecuencia, los amplificadores a los cuales se les conectan deben tener la impedancia de entrada similar o mayor. De hecho, para obtener alta fidelidad en el registro, se emplean 5 amplificadores cuya impedancia de entrada es del orden de los 10 Mohomios. La ventaja de disponer de un amplificador de muy alta impedancia se perdería si el aislante que recubre el electrodo no fuera de alta calidad, comparable a la impedancia de entrada del amplificador. Algunos electrodos emplean el teflón, que aparte de ser buen aislante, se desliza fácilmente cuando es implantado. ELECTRODOS PARA LA ELECTROESTIMULACIÓN Los electrodos empleados para la estimulación eléctrica de los tejidos son de la misma forma que los electrodos empleados para “recoger” biopotenciales. Sin embargo, la corriente que atraviesa la interface es mucho mayor. Su magnitud debe ser capaz de provocar la contracción muscular. Un ejemplo de este electrodo es el del marcapasos, que se instala directamente en el músculo cardíaco. La corriente de estimulación que recorre los electrodos puede ser pulsante, periódica, monopolar o bipolar. Se entiende por corriente pulsante la que recorre el circuito únicamente durante un breve tiempo. Periódica es aquella que se produce a intervalos regulares, por ejemplo, un pulso cada segundo. Corriente monopolar es aquella que no cambia de sentido; mientras que la corriente bipolar circula durante cierto tiempo en un sentido, y luego, por el mismo tiempo, en sentido contrario. En la figura 5.7a,b se muestran dos formas de ondas periódicas pulsantes; la monopolar y la bipolar. Otras formas de ondas, como trenes de pulsos rectangulares o sinusoidales o impulsos con decaimiento exponencial, también se emplean para estos fines. La respuesta de los electrodos al tipo de estímulo, depende si es alimentado con corriente constante o con voltaje constante. Si es alimentado con corriente constante, la respuesta de voltaje es como se muestra en la figura 5.7c. Nótese que la forma de onda de voltaje no coincide con la forma de onda de la corriente. La diferencia es debida a la polarización del electrodo cuando por la interface circula corriente unidireccional o monopolar.
145
Instrumentación Biomédica / Recolección de señales bioeléctricas Si el electrodo es alimentado con voltaje constante, las formas de onda se muestran en la figura 5.7d. La diferencia se debe también al efecto de polarización. La polarización se refleja como una alteración de los valores de los componentes del circuito equivalente; los valores cambian a medida que el impulso progresa. Luego, cabe esperar, que el circuito equivalente de los electrodos depende de la corriente y de la duración de los impulsos.
Figura 5.7. Formas de ondas periódicas
SUGERENCIAS EN EL MANEJO DE ELECTRODOS Para usar correctamente los electrodos deben seguirse los siguientes lineamientos y precauciones:
146
Alvaro Tucci R.
• Todas las partes metálicas que podrían entrar en contacto con el electrolito deben estar hechas del mismo metal. En caso contrario,se crean potenciales de celdas diferentes, polarizaciones adicionales, reacciones químicas y corrosiones innecesarias, se produce inestabilidad del potencial de celda e incremento del ruido eléctrico. • Debe tenerse especial cuidado que las partes soldadas no entren en contacto con el electrolito; el metal con que está hecha la soldadura, seguramente es diferente. • Cuando se emplean electrodos para realizar medidas diferenciales, es preferible que estén hechos del mismo material; los potenciales medios de celda son aproximadamente iguales y se anulan. En la entrada del amplificador no hay componente de voltaje continuo, lo que minimiza la posibilidad de saturación, especialmente en amplificadores de alta ganancia y de acoplamiento directo. • Los electrodos son dispositivos muy confiables. El lugar más propenso a fallar es el punto donde el conductor se une al electrodo. El conductor se rompe debido a las continuas torceduras y el electrodo queda separado del instrumento de medida. A veces esta falla no se nota a simple vista, por quedar oculta por el aislante. Se manifiesta por un ruido excesivo, normalmente de 60 Hz. • Debido a que los electrodos son continuamente manipulados, se contaminan con pasta electrolítica, gel o soluciones conductoras. Esta contaminación es casi inevitable. Es fuente de ruido y reducción de la señal y hace que la calidad del aislante disminuya con el tiempo. Es necesario mantener limpios y libres de contaminación todos los aislantes, de lo contrario se producen fugas que tienden a disminuir la impedancia esperada. Los conductores expuestos a este tipo de contaminación se corroen y los contactos se vuelven defectuosos. • La impedancia de entrada del amplificador debe ser mucho mayor que la impedancia de la fuente de la señal. Si esta condición no es satisfecha, se produce atenuación y distorsión de la señal a medir. Al contaminarse la entrada del amplificador, se produce una drástica disminución de su impedancia de entrada, debido a que se establecen corrientes de fuga superficiales en los aislantes. Los conectores, cables, aislantes y la zona donde físicamente está situada la entrada del amplificador, deben estar libres de todo tipo
147
Instrumentación Biomédica / Recolección de señales bioeléctricas de contaminación y humedad. • Las corrientes superficiales, que se desplazan por la superficie contaminada de los aislantes, incrementan con la acumulación de polvo y con la humedad ambiente. En los días secos las medidas son "mejores" que en los días lluviosos. El problema se corrige mediante la limpieza de dichas superficies con tetracloruro de carbono u otros solventes similares que dejan pocos residuos al evaporarse.
148
Alvaro Tucci R.
CAPÍTULO 6
Amplificación de Biopotenciales y Filtros AMPLIFICADORES
DE
BIOPOTENCIALES
Las señales de origen biológico se caracterizan por ser de baja amplitud y provenir de fuentes de alta impedancia. Es función de los amplificadores incrementar dichas señales y acoplarlas a los circuitos electrónicos de impedancia menor, que posteriormente las procesarán. Cuando los amplificadores están destinados únicamente a incrementar la magnitud de los biopotenciales, se diseñan como amplificadores de voltaje con ganancia de aproximadamente 1000. Cuando actúan únicamente como acopladores de impedancias, aíslan la señal de entrada de la carga y están diseñados como amplificadores de corriente La configuración básica de los amplificadores de biopotenciales es normalmente diferencial, debido a que las señales a medir son “recogidas” simultáneamente por dos electrodos colocados en diferentes partes del cuerpo. Tal es el caso de la detección de los potenciales en el electrocardiograma, el electrooculograma o el electromiograma. En el electrocardiograma, los biopotenciales son medidos como la diferencia del voltaje superficial entre dos miembros; en el electroencefalograma, como la diferencia de potencial superficial 149
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros entre dos lugares del cráneo y en el electromiograma miden la diferencia de potencial entre dos partes del músculo. La amplificación debe estar dirigida solamente a la frecuencia fundamental y a las armónicas que componen la señal de interés. Los amplificadores de biopotenciales deben reunir las siguientes características: a. a.- Entrada diferencial. Le confiere la propiedad de amplificar únicamente la diferencia de potencial instantáneo presente en las entradas. Tiene dos terminales de entrada y uno de salida. El voltaje de salida es proporcional a la diferencia entre los dos voltajes de entrada. b.- Alta impedancia de entrada. La alta impedancia hace que la madida altere lo menos posible la señal a medir. Si la carga sobre la señal a medir es excesiva se produce distorsión. Los amplificadores de biopotenciales tienen por lo menos 2 MW de impedancia de entrada, siendo deseables para muchas aplicaciones 10 MW. c.- No someter a riesgo el paciente. El circuito de entrada del amplificador debe ser diseñado de tal forma que no represente riesgo para el paciente u operadores. Cualquier corriente presente en los terminales de entrada del amplificador, además de afectar el potencial biológico que se está midiendo, podría causar micro o macro shock. La etapa de entrada del amplificador debe tener circuitos de protección y aislamientos especiales, de forma que la corriente por los electrodos, en las condiciones más adversas no represente riesgo. d. d.- Salida de baja impedancia. La señal de salida del amplificador es acoplada conductores o circuitos como amplificadores, discriminadores,o es ampleada para "manejar" algún monitor o registrador. Generalmente debe ser de baja impedancia para poder suministrar la potencia requerida a los circuitos que maneja. Puede ser diferencial o no, pero en ambos casos, referida a tierra. e. e.- Selectividad en la amplificación. Deben amplificar únicamente aquella porción del espectro de frecuencias de que está compuesta la señal bioeléctrica. Su ancho de banda no debe ser mayor de lo necesario; el amplificador actúa como filtro pasa banda, atenúa todas aquellas frecuencias y ruidos que están fuera del espectro de interés. La tabla 6.1. muestra la banda de frecuencias y la máxima magnitud de la señal de entrada en los amplificadores de biopotenciales. El electrooculograma (EOG), el electroencefalogramas
150
Alvaro Tucci R. (EEG), el electrocardiograma (ECG), el electromiograma (EMG ó EEG) y la medida del potencial de acción del axón (AAP). Tabla 6.1 Tipo de estudio
EOG EEG ECG EMG AAP
Ancho de banda (Hz) Banda inferior
Banda superior
d.c. 0,1 d.c. 50 1000
10 100 30 2000 10.000
Voltaje máximo de entrada (mV) 0,5 0,7 5 100 100
Los electrodos, aparte de los biopotenciales, “recogen” señales de ruido compuestas generalmente por voltajes de mayor amplitud que la misma señal de interés. El amplificador diferencial tiene la propiedad de eliminar las señales en modo común El grado de rechazo de la señal común se llama relación de rechazo en modo común o CMMR (Common Mode Rejection Ratio). El símbolo y la definición matemática del amplificador diferencial se muestran en la figura 6.1. Va y Vb son las tensiones en las entradas, medidas con respecto a tierra. A es la ganancia diferencial de voltaje del amplificador y Vo es el voltaje de salida respecto a tierra.
Vo = A (Vb - Va ) .................( 6.1 ) Figura 6.1. Representación del amplificador diferencial
Los modernos amplificadores diferenciales son fabricados con circuitos integrados que emplean tecnología MOS o CMOS, con
151
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros ellas es posible obtener muy alta impedancia de entrada y ancho de banda suficiente para la amplificación de señales biológicas. Su consumo es relativamente bajo, lo que permite ser empleados en equipos portátiles. Mediante diseños adecuados, pueden obtenerse ganancias e impedancias de salida apropiadas para manejar los circuitos conectados a su salida. Una etapa típica de entrada diferencial construida con dos transistores se muestra en la figura 6.2. Emplea dos fuentes de poder; una positiva y otra negativa. Las resistencias de colector son idénticas. El voltaje diferencial de salida Vo se genera entre uno de los colectores y tierra. La etapa convierte la señal diferencial de entrada en una señal de salida única que puede emplearse etapas sucesivas de amplificación.
Figura 6.2. Etapa de entrada de un amplificador diferencial
Los amplificadores reciben la señal a amplificar de los electrodos. Su presencia no debe alterar en forma apreciable las señales eléctricas "recogidas". Es decir, deben alterar muy poco los voltajes y corrientes originalmente presentes en el biosistema. Por su alta impedancia de entrada "extraen" muy poca corriente del sistema que se está midiendo. Los electrodos superficiales presentan una impedancia del orden de los 100 Kohmios , debida principalmente a la resistencia de la piel, mientras que los electrodos de aguja o microelectrodos, la impedancia es del orden de los Mohmios El amplificador diferencial construido con dos transistores como el mostrado en la figura 6.2 es bastante utilizado. Constituye la etapa
152
Alvaro Tucci R. de entrada de los amplificadores operacionales. Se emplea en circuitos para instrumentación, circuitos integrados lineales y lógicos. Para su estudio puede considerarse como si estuviera en una caja negra con dos terminales de entrada y una salida.
AMPLIFICADORES DIFERENCIALES DE ALTA IMPEDANCIA DE ENTRADA Y CONTROL DE GANANCIA A efecto de analizar el funcionamiento de los amplificadores, se asume que estos son ideales, lo cual simplifica significativamente su diseño sin alterar en forma apreciable los resultados. Un acoplador de impedancias construido con el amplificador ideal se muestra en la figura 6.3. En este circuito, la impedancia de entrada es idealmente infinita y la impedancia de salida idealmente cero. La corriente de entrada es cero y el voltaje de entrada es igual al voltaje de salida (Vi = Vo). Por lo tanto, la ganancia de voltaje es uno. Los voltajes son medidos respecto a tierra.
Figura 6.3. Acoplador de impedancias
Una versión del circuito anterior donde se conserva el valor de la impedancia de entrada y se obtiene cierta ganancia, se muestra en la figura 6.4.
Figura 6.4. Acoplador de impedancias con ganancia
153
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros La ganancia del amplificador mostrado en la figura 6.4. es dada por la siguiente expresión: A=
Rf Ri
+1
La ganancia del circuito se obtiene de la relación: A=
Vi Vo
Considérese el nodo formado por la unión de Rf y Ri. Como la impedancia del amplificador es idealmente infinita, la corriente por la resistencias Ri es igual a la corriente por la resistencia Rf, por lo tanto: Vi Vi – Vo = Ri Rf La ganancia del amplificador es dada por: Vo = Vi
A=
Rf Ri
+1
Ejemplo Ejemplo: Con referencia al diagrama de la figura 6.4, si el voltaje de entrada es Vi = 0,3v, las resistencias Ri = 1000ohmios y Rf = 3000ohmios, la ganancia será: A=
Rf Ri
+1=
3000 1000
+1=4
y el voltaje de salida: Vo = Vi x A = 0,3 x 4 = 1,2 voltios El amplificador de la figura 6.4 no es diferencial. Para convertirlo se hacen las modificaciones mostradas en la figura 6.5., donde se crean las entradas diferenciales y se agrega el potenciómetro Rp. Para efectos de cálculos, a la fracción inferior del potenciómetro se le llama c x Rp y a la porción superior (1 – c) x Rp Por el teorema de superposición se obtiene: Vo = Voa + Vob
154
Alvaro Tucci R. donde: Voa es el voltaje de salida del amplificador cuando Vb = 0 (La entrada inferior conectada a tierra) y Vob es el voltaje de salida cuando Va = 0 (La entrada superior conectada a tierra). Por lo tanto:
Vob = c x Vb
(1 +
entonces: Vo = –Va
(
Rf Ri
Rf
)
Ri Rf
) + c x Vb (1 +
Ri
)
...............(6.2)
Para satisfacer la ecuación (6.1) que es la que define el amplificador diferencial, debe cumplirse que: Rf Ri
=c
( 1+
Rf Ri
)
de donde: c=
Rf Rf + Ri
......................( 6.3 )
Figura 6.5. Amplificador diferencial básico
En la ecuación (6.3), “c” es una fracción particular del potenciómetro que satisface la definición de amplificador diferencial. Cuando se satisface la ecuación (6.3 ), se dice que el amplificador diferencial está balanceado.
155
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros En condiciones de balance, si se sustituye la ecuación (6.3) en la ecuación (6.2) se obtiene: Vo = –Va
Rf + Vb Rf Ri Rf + Ri
(
x 1+
Rf Ri
)
Rf .................(6.4) Ri Si se compara la ecuación (6.4) con la ecuación (6.1) se evidencia que la ganancia diferencial del sistema es: de donde:
(
Vo = Vb – Va
A=
)
Rf Ri
La ganancia depende únicamente de la relación entre las resistencias Rf y Ri. El circuito de la figura 6.5 presenta una impedancia de entrada relativamente baja. En Va, la impedancia en la entrada es Ri y en la entrada Vb es Rp. Para lograr impedancias mucho mayores se coloca en cada entrada un amplificador de acoplamiento de impedancias, como el mostrado en la figura 6.6 con lo cual se logra también cierta amplificación. En un amplificador diferencial ideal la corriente de entrada i = 0, luego: V3 – V4 Ro
=
pero como: V1 = V3
y
Va – Vb Ra + Ro + Rb
................( 6.5)
V2 = V4
.................( 6.6)
combinando las ecuaciones (6.5) y (6.6) se obtiene: Va – Vb =
( V 1 – V2 )
Ra + Ro + Rb Ro
La tensión diferencial de salida de los acopladores de impedancia o “buffers”, Va – Vb, es igual a la tensión diferencial de entrada, multiplicada por una constante (Ra+Ro+Rb)/Ro. Esta última constante es la que determina la ganancia de los
156
Alvaro Tucci R. acopladores de impedancia. La ganancia total del circuito de la figura 6.6 es: A =
Ra + Ro + Rb Ro
x
Rf Ri
Figura 6.6. Amplificador diferencial con alta impedancia de entrada
Ejemplo Ejemplo: Asumiendo que el amplificador de la figura 6.6 es ideal y está balanceado, Ra = Rb = 2KohmiosyRo =3Kohmios Determinar el valor de Va–Vb y la corriente en la cadena de resistencias cuando V1 = 100 mv y V2 = 200 mv Dadas las condiciones anteriores, se observa que la corriente que circula por la cadena de resistencias es la misma en cada una de ellas. En consecuencia: I=
0,2 - 0,1 3000
= 0,033mA
Va – Vb = 0,033 (2000 + 3000 + 2000) = 0,233v La ganancia de la etapa es: Va – Vb V1 – V2
=
0,233 0,1
= 2,33
Si la segunda etapa está formada por un amplificador con resistencias Ri = 470ohmios y Rf = 2400ohmios, su ganancia es dada por:
157
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
2400 Rf = Ri 470
= 5,11
La ganancia total será: A = 2,33 x 5,11 = 11,90 AMPLIFICADORES DE POTENCIA La etapa de salida del amplificador de la figura 6.6 puede disipar alrededor de 100 mw y suministrar a la carga algunos miliamperios. Si se requiere más corriente es necesario utilizar un amplificador de potencia. Esta situación se presenta cuando el amplificador debe manejar un galvanómetro, el sistema de registro de un electrocardiógrafos o aparatos similares. Los amplificadores de potencia a conectarse en cascada con el amplificador mostrado en la figura 6.6, emplean como elementos activos transistores de potencia montados sobre disipadores de calor, que ayudan a mantener la temperatura de estos componentes dentro de los límites especificados por el fabricante. Las principales características de los amplificadores de potencia son: Ganancia de potencia Gp Eficiencia η Impedancia de entrada Zi Impedancia de salida Zo Se define como eficiencia de un amplificador de potencia “η”, al cociente entre la potencia de la señal entregada a la carga y la potencia media consumida entregada por la fuente de poder. El circuito básico de un amplificador de potencia acoplado por condensador se muestra en la figura 6.7. Este arreglo es adecuado para manejar algunos vatios. Su rendimiento es del orden del 48%. La disipación de potencia en el transistor es limitada por la temperatura máxima permisible en la unión de colector. Para evitar excederla, se monta el transistor sobre un disipador de calor, el cual consiste en una base metálica conductora de calor con aletas
158
Alvaro Tucci R. refrigeradoras acopladas íntimamente con el transistor. Para manejar mayores potencias, el transistor puede sustituirse por un arreglo Darlington.
Figura 6.7. Amplificador de potencia
AMPLIFICADORES DE POTENCIA TIPO PUSH PUL L PULL La configuración de la figura 6.8, es empleada cuando se requiere manejar mayores potencias. El amplificador está construido con dos transistores que funcionan en contrafase o push-pull. Esta configuración produce menos distorsión y tiene mayor rendimiento, cercano al 70%. Los transistores se polarizan para que trabajen en clase B, casi al corte. La potencia de salida Po es determinada por los requerimientos de potencia de la carga. La tensión máxima de salida es limitada por la tensión de ruptura inversa máxima a que puede someterse el colector del transistor, conocida también por el vocablo inglés Break Down Voltage o BDV, cuyo valor es suministrado por el fabricante. La resistencia de carga R1 tiene un valor dado por: 2
R1 =
V 2Po
donde V es el voltaje aplicado a cada transistor respecto a tierra y Po es la potencia disipada en la resistencia de carga. Nótese que la potencia media de la etapa es igual a la potencia media de un semiciclo, ya que conduce un transistor la vez. El generador Vb produce ondas senusoidales. Cuando comienza la semionda positiva y el voltaje de base Vb es lo suficientemente
159
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros positivo, el transistor Q1 entra en conducción mientras que Q2 permanece en corte. En estas condiciones, para transistores de silicio se cumple que: Vb = 0,7 + Vo
...................(6.7)
En el semiciclo negativo, cuando Vb es suficientemente negativo, Q2 conduce, mientras que Q1 deja de hacerlo. En estas condiciones se cumple que: Vb = – 0,7 + Vo
...................(6.8)
De las igualdades (6.7) y (6.8), se desprende que la ganancia de voltaje de este arreglo es aproximadamente igual a uno. La característica dinámica de transferencia del circuito anterior se muestra en la figura 6.9. En ella se representan gráficamente las ecuaciones (6.7) y (6.8), es decir, la tensión de salida en función de la tensión de entrada. Cuando la tensión de base está comprendida entre -0,7 y +0,7 voltios ninguno de los dos transistores conducen. En estas condiciones, tanto la corriente en los colectores como el voltaje de salida son iguales a cero.
160
Figura 6.8. Circuito básico de un amplificador de potencia tipo push-pull
Alvaro Tucci R.
Figura 6.9. Característica dinámica de transferencia de un circuito push-pull
Para que la distorsión sea mínima, la característica de transferencia debe ser lo más cercana posible a una recta. Sin embargo, para tensiones de entrada comprendidas entre –0,7 y +0,7 voltios, se observa una discontinuidad conocida como zona muerta (crossover). Una onda sinusoidal amplificada por este arreglo produciría una distorsión de la forma mostrada en la figura 6.10.
Figura 6.10. Distorsión producida en la onda sinusoidal por la discontinuidad de la característica dinámica de la etapa push-pull
Para reducir la distorsión por discontinuidad puede anaxarse en la entrada del circuito push pull un amplificador no-inversor conectado
161
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros de la forma indicada en la figura 6.11.
Figura 6.11. Amplificador con compensación
En el circuito de la figura 6.11, si se aplica la Ley de los Nodos en el punto (1) se obtiene: Vi Ri
por lo tanto:
Vo = Vi
=
Vi – Vo Rf
(1 +
Rf Ri
)
............... (6.9)
Luego, la ganancia de voltaje es dada por: Av =
Vo =+1 Vi
Rf Ri
................(6.10)
La ecuación (6.9) muestra que el voltaje de salida Vo es una función lineal del voltaje de entrada. Por lo tanto, la distorsión por discontinuidad ha sido teóricamente eliminada. Esto es debido a que en esa zona la tensión Vo es cercana cero, en consecuencia por la resistencia Rf fluye muy poca corriente. Si esto ocurre, el circuito se comporta como si tuviera una resistencia de muy alto valor, casi como un circuito abierto. Ahora bien, si en la ecuación (6.10) la resistencia Rf es de muy alto valor, la ganancia Av es también muy grande. Se concluye, por lo
162
Alvaro Tucci R. tanto, que para tensiones de entrada pequeñas la ganancia del sistema es muy grande, con lo que se reduce la distorsión por discontinuidad apreciablemente. Como se dijo anteriormente, la eficiencia del amplificador de la figura 6.11 es del orden del 70%. Las pérdidas se producen mayormente en los transistores de potencia. Las pérdidas en Rf y Ri y en el amplificador operacional prácticamente son despreciables. La corriente en el transistor es máxima cuando conduce totalmente o está saturado. Si se desprecia Vce, que para transistores de silicio es 0,2 voltios, la corriente máxima por el transistor es dada por: V Imax =
Rc + RL
Si se asume que la corriente de colector es igual a la corriente de emisor, la máxima excursión de tensión positiva en la salida es: Vo = V
RL Rc + RL
y la máxima excursión de tensión negativa es: RL Vo = – V Rc + RL La excursión máxima de salida es la suma de las dos anteriores, es decir: RL Vomax = 2V Rc + RL
CARACTERÍSTICAS
DE
LOS
AMPLIFICADORES
Las principales características de los amplificadores y su definición son las siguientes: IMPEDANCIA DE ENTRADA La impedancia de entrada es la relación entre la tensión y la corriente de entrada. Para la configuración de la figura 6.8, se calcula a partir de su definición, es decir: Vb Zi = Ib
163
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
Si se aplica la Ley de las Mallas al circuito formado por el generador Vb, la junta base-emisor del transistor de silicio y la resistencia de carga se obtiene: Vb = 0,7+(1+hfe)Ib x RL donde (1+hfe)Ib es la corriente de colector Ic. Si se asume que la tensión de alimentación V es mucho mayor que 0,7 voltios, lo cual es muy probable, se obtiene: Zi = (1+hfe)Ib
RL Ib
Por lo tanto, la impedancia de estrada es: Zi = (1+hfe)RL GANANCIA DE POTENCIA La ganancia de potencia Gp es el cociente entre la potencia de salida Po, suministrada a la carga y la potencia Pi, que se suministra a la entrada del amplificador. Po Gp = Pi La potencia que se le suministra al amplificador es dada por: 2
Pi =
Vb
2
Vb
=
Zi (1+hfe)RL y la potencia suministrada a la carga es dada por: 2
Po =
Por lo tanto:
Gp = 1+hfe
Vo RL 2
Vo 2
Vb En el circuito en cuestión, la tensión de base Vb difiere de la tensión de emisor sólo en 0,7 voltios. Por lo tanto puede asumirse, sin mucho
164
Alvaro Tucci R. error, que Vo = Vb. Entonces la ganancia de potencia es dada por: Gp = (1+hfe) EFICIENCIA La potencia que puede manejar un amplificador es limitada por la capacidad de disipar el calor que en él se genera. La generación de calor es un factor indeseable siempre presente. Es debido a las pérdidas de energía que se producen en la transformación de la amplitud de la señal. Mientras mayor es la eficiencia del sistema, menor será el calor generado. La eficiencia h se define como la relación entre la potencia útil entregada a la carga Po y la potencia total Pt suministrada al circuito por las fuentes de poder, es decir:
η=
Po Pt
La potencia total Pt debe ser igual a la suma de la potencia suministrada a la carga Po, más la potencia de pérdida Pp, o sea: Pt = Po + Pp 2
pero: y
Po = I x RL 2
Pp = I x Rc + Vce x I 2
Por lo tanto:
η=
I x RL 2
2
I x Rc + I x RL + I x Vce
Dividiendo numerador y denominador por I se obtiene:
η=
I x RL I x Rc + I x RL + Vce
En la ecuación anterior, el numerador es igual a Vo y el denominador es igual al voltaje de alimentación V. Por lo tanto la eficiencia es dada por: Vo η= V
165
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros MÁXIMA TRANSFERENCIA DE POTENCIA Los terminales de salida del amplificador pueden ser representados por el circuito equivalente de Thevenín mostrado en la figura 6.12. Consiste en una fuente de voltaje en circuito abierto Voc, en serie con la resistencia de Thevenín Rt. Esta fuente de voltaje con su resistencia Rt alimenta la resistencia de carga RL
Figura 6.12. Circuito equivalente de Thevenín
En el circuito se cumple que: VL = Voc
RL Rt + RL
y la potencia suministrada a RL es: 2
PRL =
VL RL
Por lo tanto RL
PRL =
(Rt + RL )
2
V oc
2
Si en esta última ecuación se asume que la resistencia de Thevenín Rt es de 10 ohmios y Voc es 10 voltios, entonces: PRL =
100RL 2
(10 + RL)
Para varios valores de RL puede calcularse PRL. Los resultados son mostrados en la tabla 6.2.
166
Alvaro Tucci R. Tabla 6.2. RL
(ohms)
1 5 10 40 80 100
PRL (vatios)
0,82 2,22 2,50 1,60 0,99 0,82
Si con los valores obtenidos se traza la curva de la potencia disipada en la resistencia RL en función de su valor, se obtiene la gráfica de la figura 6.13. De ella se concluye que la máxima transferencia de potencia ocurre cuando el valor de la resistencia de carga RL es igual al valor de la resistencia interna del generador.
Figura 6.13. Curva de transferencia de potencia
Ejemplo: Para el circuito amplificador de potencia mostrado en la figura 6.14, donde el amplificador diferencial puede ser considerado ideal y los transistores de potencia de silicio, determinar: a. El voltaje de salida Vo. b. El voltaje a la salida del amplificador diferencial Vd. c. Identificar cuál de los transistores está conduciendo. d. Calcular el voltaje Vce para el transistor que conduce. e. Calcular la potencia disipada en el transistor, en la resistencia Rc y en la resistencia Ro. f. Determinar la eficiencia del circuito, asumiendo que las pérdidas en el operacional y circuitos de polarización son despreciables.
167
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
Figura 6.14. Amplificador de biopotenciales con ajuste de offset
a) En el nodo N, que está a 0,36 voltios respecto a tierra, la suma de las corrientes debe ser igual a cero, es decir: I1 + I2 + I3 + I4 = 0 Las corrientes pueden calcularse de la siguiente forma:
I1 =
I2 =
I3 = I4 =
12 – 0,36 5k + 3k –5 – 0,36 2k + 5k 0 – 0,36 1k Vo – 0,36 10k
= 1,455mA
= –0,766mA
= –0,36mA =
Vo 10k
= –0,036mA
Por lo tanto: 1,455 mA – 0,766 mA – 0,36 mA + Vo/10K – 0,036 mA = 0 Resolviendo para Vo se obtiene: Vo = –2,93voltios
168
Alvaro Tucci R.
b) La tensión Vd es igual a la tensión Vo menos la caída de tensión en la junta emisor – base del transistor, es decir: Vd = –0,7 – 2,93 = –3,63voltios c) Cuando Vd = -3,63voltios el transistor Q2 está conduciendo. d) La corriente por la resistencia de carga es: Io =
Vo Ro
=
–2,93 10
= –0,293A
Para hfe relativamente alta, puede asumirse que la corriente de colector es prácticamente igual a la corriente de emisor, entonces la caída de tensión en Rc es: VRc = 0,298 x 8 = 2,34 voltios La caída de tensión Vce en el transistor que conduce es: Vce = 12 – 2,93 – 2,34 = 6,73voltios e) La potencia disipada en el transistor es: Pt =Vce x Io = 6,73 x 0,293 = 1,97w La potencia disipada en Rc es: 2 2 PRc = I o x Rc = 0,293 x 8 = 0,69w La potencia disipada en Ro es: 2 2 PRo = I o x Ro = 0,293 x 10 = 0,86w f) El rendimiento del amplificador es dado por:
η=
Po Pt + Pc + Po
=
0,86 1,97 + 0,69 + 0,86
= 0,24
169
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
FUENTES DE INTERFERENCIA La generación, distribución y consumo de energía eléctrica produce radiaciones electromagnéticas que engendran interferencias. Los ambientes hospitalarios están particularmente contaminados por estas radiaciones, ya que en ellos se concentran las instalaciones eléctricas que alimentan los equipos, la iluminación artificial, los ascensores y otros servicios. Los pacientes están próximos a conductores y aparatos eléctricos; es inevitable que entre ellos y la red eléctrica se establezcan capacidades distribuidas, representadas por un condensador en la figura 6.15. Tales capacidades, en presencia del campo electromagnético generan las tensiones de interferencia.
Figura 6.15. Interferencia de la línea sobre las mediciones de los biopotenciales
La estimación del valor de la capacitancia se obtiene por medio de la siguiente ecuación: C = eo A d donde: –12 F es la permeabilidad absoluta. eo = 8,854 x 10 m 2 A es el área del cuerpo humano expresada en m d es la distancia promedio entre el cuerpo y los conductores, expresada en metros. 2
Si se asume que la superficie del cuerpo humano es de 1m y se
170
Alvaro Tucci R. encuentra a una distancia promedio de un metro de la línea de distribución de energía eléctrica, la capacidad distribuida es: C = 8,854 x 10
–12
2
1 = 8,854pF 1
Este cálculo, da una idea aproximada de los valores de la capacidad distribuida que se pueden esperar entre el paciente y la línea eléctrica. Normalmente se asume una magnitud comprendida entre1 a 20 pF, que entre otras cosas, depende de la posición relativa del paciente respecto a la línea de alimentación. En el ejemplo siguiente se estima el valor de la tensión de interferencia que probablemente estará presente en la entrada del amplificador diferencial debido al acoplamiento entre la línea de alimentación y el paciente. Ejemplo: A un paciente se le está efectuando un electrocardiograma con un equipo que tiene entrada diferencial y 10Mohmios de impedancia. La capacidad distribuida entre el paciente y la red de 120 voltios 60Hz es de 5pF. Calcular la tensión en la entrada en el amplificador diferencial debida a la interferencia. La figura 6.16 muestra el circuito equivalente de entrada del amplificador, acoplado por medio de un condensador a la red.
Figura 6.16. Circuito equivalente
La impedancia del condensador es: Zo =
1 2πfC
=
1
7
–12
= 53 x 10 Ω
2 x π x 60 x 5 x 10 Pero como la impedancia de entrada del electrocardiógrafo es
171
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros de 10 ohmios, la tensión en la entrada en el amplificador diferencial es dada por: V = 120
R R + Zo
= 120
1 1 + 53
= 2,22voltios
Es evidente que el voltaje de interferencia acoplado a la entrada del electrocardiógrafo, es algunas miles de veces superior al voltaje proveniente de la actividad cardíaca, que es del orden de los milivoltios. La misma señal de interferencia está presente simultáneamente en los dos conductores de entrada del amplificador, mientras que la señal proveniente de la actividad cardíaca no lo está. Por tal motivo, la señal de interferencia es prácticamente eliminada por la característica de rechazo en modo común del amplificador diferencial. Para la señal de interferencia, si V2 = V1 aplica lo siguiente: Vo = V2 – V1 = 0 El ejemplo ilustra cómo el voltaje en modo común de 2,22 voltios es teóricamente eliminado. De la misma manera se suprimen otras señales de interferencia de frecuencias diferentes.
RECHAZO EN MODO COMÚN En el ejemplo anterior se determinó que el voltaje de interferencia es eliminado por el hecho de que es igual en ambos terminales de entrada del amplificador. Sin embargo, debido a imperfecciones en el procedimiento de fabricación de los circuitos integrados, los amplificadores diferenciales no son perfectamente balanceados; una misma señal aplicada a las dos entradas es amplificada por factores ligeramente diferentes. El desbalance también se altera durante la vida del amplificador debido a la variación de los valores de los componentes de los circuitos, a las variaciones de temperatura y humedad y al polvo que se acumula con el tiempo. Por ello es conveniente que el microclima que rodea la etapa de entrada debe tener temperatura y humedad controladas, estar exento de polvo, y emplear para su fabricación componentes con las mejores características de estabilidad.
172
Alvaro Tucci R. Como consecuencia de las imperfecciones anteriores, es de esperar que la señal de entrada en modo común producirá una pequeña señal de salida. La capacidad de un amplificador diferencial para rechazar las señales en modo común (CMRR) es suministrada por el fabricante y se define como: CMRR =
Vo con V2 aterrado Vo con V2 = V1
En la práctica, el CMRR se mide por medio del procedimiento ilustrado en la figura 6.17
Figura 6.17. El amplificador diferencial
1.- Colocar V2 a tierra y aplicar un voltaje V1. 2.- Medir el voltaje de salida resultante que se llamará V01. 3.- Desconectar V2 de tierra e unir V1 con V2. 4.- Aplicar el mismo voltaje, que se llamará V1, a ambos terminales. 5.- Medir el voltaje resultante en la salida, que se llamará V02. 6.- El CMRR es dado por la relación V 01 V 02 Puesto que el CMRR no es más que un cociente entre dos voltajes puede también expresarse en decibeles, así: CMRR(dB) = 20 log CMRR
173
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
LOCALIZACIÓN
DE
FALLAS
El procedimiento de la localización de las fallas consiste en determinar la parte del circuito que la genera. Para ello es conveniente realizar en forma ordenada las siguientes tareas: • Inspeccionar la tarjeta de circuito impreso. Revisar los conectores y la calidad de sus contactos. Inspeccionar los componentes, tratando de localizar fusibles "abiertos", conectores mal colocados o en mal estado, soldaduras defectuosas o “fías”, componentes rotos o que hayan cambiado de color por efecto del calor.
• Si durante la inspección visual no se observa ninguno de los defectos antes citados, es conveniente proceder a medir las tensiones de las fuentes de poder y la tensión de alimentación “in situ” en cada amplificador. A menos que se indique lo contrario, el valor de las tensiones especificadas por los fabricantes son referidas a tierra.
• Si en condiciones normales de trabajo y carga, todas las fuentes de poder suministran las tensiones con las características de estabilidad y ondulación especificadas en el manual de servicio del instrumento, se puede asumir que las fuentes están trabajando satisfactoriamente.
• La forma clásica de analizar el resto de los circuitos para localizar la falla en un amplificador es “seguir la señal” por medio de un osciloscopio, preferiblemente de dos canales. En un canal se visualiza la señal de entrada, mientras que en el otro la salida. La comparación de las dos determina si el amplificador o parte de él están trabajando adecuadamente. Si no es así, la falla debería estar localizada en la porción que se está analizando. En este caso se revisarán los componentes activos y pasivos que forman el circuito. Por ejemplo, si la señal de entrada del amplificador está dentro de los límites permitidos y la señal de salida está recortada en sus dos extremos, es indicación de que la ganancia es excesiva. Es probable que algún componente pasivo, especialmente una resistencia, está en malas condiciones, cambió de valor o está "abierta". Si la señal de salida está recortada en uno de sus extremos, es probable que una tensión de polarización no está dentro de los límites permitidos.
174
Alvaro Tucci R.
PRECAUCIONES EN EL MANEJO DE LOS AMPLIFICADORES Los amplificadores diferenciales se construyen con circuitos integrados (DIP), aunque frecuentemente la etapa de entrada puede estar implementada con componentes discretos, cuyos elementos activos son dispositivos de alta impedancia. Para manipularlos adecuadamente deben tomar ciertas precauciones. Cualquiera de estos componentes está sujeto a daños por voltajes estáticos, temperatura excesiva al ser soldados o pueden dañarse por estar sujetos a vibraciones mecánicas. Los componentes electrónicos, especialmente los semiconductores, no deben exponerse a los voltajes estáticos que se pudieran establecerse entre ellos y la persona que los manipula. Al tocarlos se puede "perforar" el aislamiento o deteriorarse la junta PN de los semiconductores que lo componen. Para no exponer los diferentes elementos a voltajes estáticos, las personas que los manipulen deben “conectarse a una buena tierra” por medio de un brazalete metálico y un conductor, o algún otro dispositivo similar. Esta precaución debe tomarse especialmente cuando se trabaja en ambientes secos, con zapatos de goma, o en pisos de linoleo. Cuando surge la necesidad de sustituir algún circuito integrado, es conveniente emplear una base donde se instalará el nuevo circuito. Con este procedimiento se trata de evitar el sobre calentamiento del circuito impreso debido a las múltiples soldaduras. En general, debe evitarse a toda costa el sobre calentamiento de los componentes, de la tarjeta de circuitos impresos y especialmente los semiconductores. Se recomienda el empleo de soldadores con control de temperatura. Las soldaduras se deben realizar con la mayor rapidez, recordando que para obtener una buena soldadura la temperatura de la unión de los metales debe ser la mínima suficiente para asegurar un buen contacto eléctrico, duradero, cierto y sin exceso de estaño. Si la temperatura no es suficiente, se produce lo que se llama “soldadura fría”, que es un contacto defectuoso difícil de localizar. Los semiconductores deben protegerse de las vibraciones mecánicas producidas al recortar sus terminales con herramientas
175
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros no adecuadas. Las herramientas que cortan en cizalla, como las tijeras, son las mejores. Las pinzas de “corte frío” producen vibraciones que se transmiten por el metal y pueden romper las delicadas conexiones en el interior del componente.
FILTROS En una gran variedad de instrumentos médicos, es necesario seleccionar algunas frecuencias de la compleja señal de entrada y eliminar otras. Un caso típico es la electroencefalografía, donde los varios estados de vigilia y sueño producen diferentes bandas de frecuencias. Las ondas teta, con frecuencias comprendidas entre 4 y 8 Hz indican sueño, mientras que las ondas beta, en la banda de frecuencia de 13 a 22 Hz, indican un alto grado de alerta. En estos equipos los filtros se emplean para dirigir las varias bandas de frecuencias a diferentes canales. En un canal se registrarán las ondas teta, en otro las beta y así sucesivamente. Con este procesamiento de separación de frecuencias se facilita el diagnóstico. Los filtros son dispositivos electrónicos que permiten el paso de "señales" de ciertas frecuencias y rechazan otras. Debido a esta característica, también se emplean para suprimir los ruidos e interferencias. Un filtro ideal colocado entre los terminales de un circuito eléctrico permite el paso de las frecuencias deseadas sin alterar su amplitud y fase y elimina totalmente las frecuencias no deseadas. Supóngase que se desea amplificar una señal cuyas frecuencias de interés están dentro de la banda de 1000 Hz a 2000 Hz, mezclada con otras frecuencias y todo en presencia de ruido. Un filtro pasa banda de 1000 Hz a 2000 Hz sólo permitirá el paso de esas frecuencias y elimina las restantes, incluso las frecuencias componentes del ruido y la interferencia de 60 Hz probablemente presente. CLASIFICACIÓN DE LOS FILTROS Los filtros, de acuerdo a su respuesta a las frecuencias, se clasificanen en pasa bajas, pasa altas, pasa banda y rechaza banda. De acuerdo a los componentes físicos que los componen se clasifican en LC, RC, de cristal y activos.
176
Alvaro Tucci R. POR SU RESPUESTA A FRECUENCIAS Filtro pasa bajas bajas: Son los que permiten el paso de señales de bajas frecuencias y bloquean las altas. La banda está comprendida entre la corriente continua hasta una frecuencia de corte. Filtro pasa altas: altas Son los que permiten el paso de señales de altas frecuencias y bloquean las bajas. La banda de atenuación está comprendida desde la corriente continua hasta una de frecuencia de corte. Filtro pasa banda banda: Permiten el paso de señales cuya frecuencia está comprendida dentro de una banda y rechazan el resto. Filtro de rechazo de banda: banda Son los que permiten el paso de todas las frecuencias, a excepción de aquellas comprendidas dentro de una banda. En las definiciones anteriores se asume que los filtros son ideales. Por ejemplo, un filtro pasa bajas de 1KHz deja pasar, sin atenuar, todas las frecuencias menores de 1KHz y rechaza totalmente las frecuencias mayores. La frecuencia de 1000 Hz pasará sin ser atenuada, mientras que la de 1.001 Hz o de mayores frecuencias serán completamente atenuadas.
Figura 6.18. Respuesta de los filtros a diferentes frecuencias: (a) Filtro pasa bajas; (b) Filtro pasa altas; (c) Filtro pasa banda; (d) Filtro rechaza banda
177
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros Sin embargo, en los filtros reales existe una región de transición entre la banda de transmisión y la de rechazo. La figura 6.18 muestra las características de transmisión de las cuatro categorías. CARACTERÍSTICAS DE LOS FILTROS Frecuencia de corte (Fc) La frecuencia de corte es aquella donde la ganancia se reduce 0,707 veces respecto a la ganancia central, lo que equivale a la frecuencia donde la atenuación del filtro es 3 dB. De la figura 6.18 se deduce que los filtros pasa bajas y pasa altas tienen sólo una frecuencia de corte, mientras que los pasa y rechaza banda tienen dos frecuencias de corte, una inferior Fc1 y otra superior Fc2. Ancho de Banda (BW) El ancho de banda (bandwidth o BW) es el rango comprendido entre la frecuencia de corte inferior y superior, así: BW = Fc2 – Fc1 Frecuencia central Fo Los filtros pasa banda son geométricamente simétricos respecto a una frecuencia central, conocida también como frecuencia de resonancia. La frecuencia central puede ser calculada por medio de la siguiente ecuación: Fo = (Fc1 x Fc2) Factor de calidad (Q (Qo)) Es la relación que existe entre la frecuencia central y el ancho de banda. Se conoce también como factor de selectividad y aplica únicamente a los filtros pasa banda. Se expresa como: Qo =
Fo Fc2 – Fc1
=
Fo BW
Otra forma de expresar la selectividad de un filtro es por medio del porcentaje del ancho de banda, el cual se define como: % BW =
178
Fc2 – Fc1 Fo
x100
Alvaro Tucci R. Atenuación (Av) La atenuación es la relación entre el voltaje de salida (Vs) y el voltaje de entrada (Ve). La atenuación se expresa normalmente en dB y es daba por: Vs Av(dB) = 20log Ve FILTROS PASIVOS Y ACTIVOS Los filtros están formados por bobinas, condensadores, resistencias, cristales o resonadores mecánicos y amplificadores. Los amplificadores discretos u operacionales combinados con reactancias y resistencias forman los llamados filtros activos. Los filtros pasivos no incluyen entre sus componentes elementos activos y raramente se eplean en instrumentación médica. Los filtros activos, por su rango de frecuencia y características de atenuación, son los más empleados. La figura 6.19 muestra los rangos de frecuencia para los diferentes tipos.
Figura 6.19. Rango de frecuencia de diferentes tipos de filtros
FILTROS LC Los filtros constituidos con inductancias y capacitancias son adecuados para frecuencias desde algunas decenas de Hz hasta centenas de KHz. Para frecuencias menores, los valores de las bobinas y los condensadores pueden ser tan elevados que su diseño es prácticamente irrealizable. Para frecuencias mayores, las capacidades e inductancias parásitas limitan su uso.
179
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros FILTROS ACTIVOS Los filtros activos empleados en instrumentación médica se construyen preferentemente con amplificadores operacionales, cuya frecuencia de operación está comprendida entre la tensión continua y los 500 KHz. Para este rango de frecuencias no existen limitaciones serias en su diseño. El empleo de los amplificadores permite además el acoplamiento de impedancias en forma relativamente independiente de la frecuencia. Los componentes de los filtros activos comprenden además redes RC integradas o formadas por componentes discretos. La figura 6.20a, muestra la configuración de un filtro activo pasa bajas. Este circuito tiene muy baja impedancia de salida y la propiedad de amplificar. Su frecuencia de corte es dada por: F1 =
1 2πRfCf
La figura 6.20b muestra la configuración de un filtro activo pasa altas. Es empleado para amplificar pequeñas señales que pudieran “cabalgar” sobre tensiones continuas de mayor magnitud. Nótese que Ci bloquea toda componente de corriente continua. Su frecuencia de corte es dada por: F2 =
1 2πRiCi
La figura 6.20c muestra la configuración de un filtro activo pasa banda, que no es más que la combinación de un filtro pasa bajas y un filtro pasa altas, construidos con un solo amplificador operacional. Es útil para amplificar una banda definida de frecuencias, como por ejemplo las requerida para registrar los latidos del corazón o las señales propias de un electroencefalógrafo. Las frecuencias de corte pueden determinarse mediante las mismas ecuaciones anteriores. ORDEN DE LOS FILTROS El orden de los filtros, es una característica relacionada con la pendiente de la atenuación entre las banda de conducción y de rechazo. Para mayor atenuación se recurre a filtros de orden superior. Por ejemplo, los filtros de primer orden atenúan las señales a razón de 6 dB por octava, los de segundo orden 12 dB
180
Alvaro Tucci R. por octava, los de tercer orden 18 dB por octava y así sucesivamente.
Figura 6.20. Filtros activos: (a) Filtro pasa baja; (b) Filtro pasa alta; (c) Filtro pasa banda.
La figura 6.21 muestra un filtro de segundo orden tipo Butterworth. (Filtros muy empleados y fáciles de construir que derivan su nombre de quien los implementó). Los elementos que los componen son de uso común y aceptan componentes discretos de tolerancias normales. La realimentación que introduce Z1 genera una meseta más plana en la banda de conducción, similar a la que producirían varios filtros en cascada. A partir del circuito básico mostrado en la figura 6.21, se pueden diseñar filtros pasa bajas, pasa altas o pasa banda. El tipo de filtro que se diseñe depende de los valores que se le asignen a las impedancias complejas Z1, Z2, Z3 y Z4. Si se asume que el amplificador operacional es ideal; la ganancia del filtro se deriva de la aplicación de la Ley de los Nodos en (1) y (2). En el nodo (1) se obtiene: V1 – Vin Z3
+
V1 – Vout Z1
+
V1 – Vout Z4
=0
181
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
Figura 6.23. Filtro tipo Butterworth pasa alta de segundo orden
En el nodo (2) se obtiene: Vout – V1 Z4
Vout
+
=0
Z2
Despejando V1 de la segunda ecuación y sustituyéndolo en la primera, se obtiene la ganancia del sistema que es dada por: Av =
Vout Vin
1 =
(1 +
Z4 Z2
) (1 +
Z3 Z1
+
Z3 Z4
) (
Z3 Z1
+
Z3 Z4
)
La ecuación anterior es la fórmula general que expresa la ganancia de un filtro de segundo orden. Para filtros específicos, los valores de las impedancias se sustituyen por los valores reales, lo cual generalmente conduce a la simplificación de la ecuación. Se toma como ejemplo un filtro pasa bajas de segundo orden tipo Butterworth, con atenuación de 12 dB por octava, como el mostrado en la figura 6.22 . Se asume que C1 = 2C2. Para obtener la fórmula que expresa la ganancia se sustituyen los valores específicos de las impedancias en la fórmula general,así: Z1 =
182
1 jwC1
,
Z2 =
1 jwC2
,
Z3 = R,
Z4 = R ,
Alvaro Tucci R.
Figura 6.22. Filtro Butterworth de segundo orden pasa bajas
Entonces en el filtro de la figura 6.22 la ganancia es dada por: 1
Av =
....( 6.11)
(1 + j2πfRC2 ) (2 + j2πfRC1 ) (1 + j2πfRC1 ) 1
y la frecuencia de corte es: Fc =
2πR C1C2 La figura 6.23 muestra un filtro Butterworth pasa altas de segundo orden donde se cumple que R2 = 2R1. La frecuencia de corte es dada por: Fc =
1 2πC R1R2
Figura 6.23. Filtro tipo Butterworth pasa alta de segundo orden
183
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros El filtro Butterworth pasa bajas es quizás el más empleado en instrumentación médica. Su respuesta a frecuencias en el centro de la banda es muy plana y algo redondeada en la cercanía de las frecuencias de corte. La figura 6.24 muestra la configuración de un filtro tipo Butterworth pasa bajas con dos secciones de filtrado.
Figura 6.24. Filtro tipo Butterworth pasa bajas con dos secciones de filtrado
Los filtros de tercer orden pueden obtenerse agregando una etapa adicional a los filtros de segundo orden. La figura 6.25 muestra un filtro pasa bajas de tercer orden.
Figura 6.25. Filtro tipo Butterworth pasa bajas de tercer orden
Puesto que los amplificadores operacionales proveen aislamiento entre etapas, la ganancia total se obtiene del producto de la ganancia de la primera etapa por la ganancia de la segunda.
184
Alvaro Tucci R. Como se vio anteriormente, la ganancia de la primera etapa Av1 es dada por la ecuación 6.11 y la ganancia de la segunda etapa Av2 es dada por la siguiente ecuación AV2 =
1/(jωC3 ) R + 1/( jωC3 )
=
1 1 + jωRC3
La ganancia total es entonces Av1 x Av2. El filtro sigue la respuesta Butterworth si se cumple que: C1= 2C3 y C3=2C2. La frecuencia de corte es entonces dada por: 1
Fc = 2πR
3
C1C2C3
FILTROS RECHAZA BANDA En los equipos electromédicos la frecuencia que causa más interferencia es la de la línea de 60 Hz. Otras frecuencias que podrían causar interferencia son las próximas a 500 KHz utilizadas por los electrobisturís y las cercanas a los 2 MHz empleadas por los equipos de ultrasonidos. En estos casos el empleo de filtros de banda estrecha “liberan” a la señal de interés de estos componentes sin introducir excesiva distorsión. Por ejemplo, en el caso de la señal electrocardiográfica, compuesta por frecuencias de hasta 100Hz, un filtro de 60 Hz la “libera” de esta interferencia. Un filtro rechaza banda con ganancia –1 construido con amplificador diferencial formado por tres operacionales se muestra en la figura 6.26. Puesto que es un amplificador balanceado, se cumple que: Vout = Vb – Va La señal de entrada Vin es aplicada simultáneamente a los operacionales A y B. El operacional A recibe una fracción de la tensión de entrada dada por: Va = 1/3 Vin
185
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros El operacional B recibe una fracción de la señal de entrada Vin dada por: Xp
Vb =
Xs + Xp
Vin
donde: Xp representa la impedancia del condensador y la resistencia en paralelo, y Xs representa la impedancia del condensador y la resistencia en serie. Por lo tanto: Vout =
(
1
Xp
+
3
Xs + Xp
) Vin
La gananciaa del circuito es. AV =
1 3
+
Xp
............(6.12)
Xs + Xp
Figura 6.26. Filtro rechaza banda con amplificador diferencial.
Ejemplo Ejemplo: Considérese el circuito amplificador rechaza banda de 60Hz mostrado en la figura 6.26, donde R = 2652.6ohmios, R1 = 10Kohmios, R2 = 5Kohmios, y C = 1μF.
186
Alvaro Tucci R. La ganancia en función de la frecuencia calculada por medio de la ecuación (6.12) es 0,149. Si se expresa en dB se obtiene: AV = (dB) = 20 log 0,149 = –16,5 dB Los resultados para diferentes frecuencias expresados en forma gráfica se muestran en la figura 6.27. En la gráfica se nota cómo la frecuencia de 60Hz es fuertemente rechazada. A esta frecuencia se le conoce como frecuencia de hendidura (notch frequency) la cual, según los cálculos, es atenuada 116 dB Se verifica que la frecuencia de hendidura FN para el filtro de la figura 6.26 es dada por: 1 FN = .........................(6.13) 2πRC
=
1 –6
2π x 2652,6 x 10
= 60 Hz
Figura 6.27. Características de ganancia de un filtro que rechaza los 60 Hz. calculado a partir de los datos del ejemplo.
187
Instrumentación Biomédica / Amplificación de Biopotenciales y Filtros
Por medio de la ecuación (6.13) el filtro puede ser calculado para otras frecuencias de hendidura.
188
Alvaro Tucci R.
CAPÍTULO 7
El Electrocardiograma INTRODUCCIÓN
En nuestra época, en que las enfermedades cardíacas son más frecuentes, se acepta que el electrocardiograma o ECG es un estudio relativamente sencillo que permite la evaluación de la función cardíaca. El corazón, como músculo al fin, es excitado por estímulos eléctricos, y el ECG no es más que el registro de esa actividad. Desde los tiempos de Galvani se sabía que los músculos son exci- tados por pequeños potenciales eléctricos; parecía entonces natural suponer que el músculo cardiaco, en su rítmico latir, sería excitado por potenciales eléctricos periódicos. Se pensó además que el estudio de estos potenciales podría conducir al diagnostico de algunas de sus enfermedades. Para la época, el problema a resolver era cómo medir los pequeños potenciales con suficiente precisión. El fisiólogo holandés Willem Einthoven (1860 – 1927) desarrolló en 1903 un galvanómetro de hilo cuya exactitud fue suficiente para medir las variaciones del potencial eléctrico generado por el corazón. El resultado fue el electrocardiograma. Por su aporte al desarrollo de la electrocardiografía, Einthoven recibió el Premio Nobel de Medicina y Fisiología en 1924. 189
Instrumentación Biomédica / El Electrocardiograma
ORIGEN
DE
EL
ELECTROCARDIOGRAMA
Durante el ciclo cardíaco, cuando una porción del miocardio se despolariza y se vuelve eléctricamente negativa respecto al resto del corazón, se crean dos regiones que se comportan como un dipolo. En estas regiones se establecen dos cargas del mismo valor de polaridad opuesta, que dan origen a un campo eléctrico y a corrientes que circulan por el tórax. La representación del campo eléctrico creado por el dipolo se ilustra en la figura 7.1. Desde el punto de vista electrocardiográfico, el corazón puede ser considerado como un generador eléctrico, representado por un dipolo localizado dentro de sus límites, que se desplaza de un lugar a otro de acuerdo a su actividad y cuya tensión varía cíclicamente.
Figura 7.1. Dipolo cardíaco y líneas equipotenciales
El tórax puede ser visto como una carga resistiva conectada al dipolo por donde circula la corriente. Si se colocan dos electrodos en puntos diferentes del tórax, se puede medir la diferencia de potencial entre esos dos puntos. Dicha diferencia depende de la magnitud del dipolo, de la orientación de los electrodos y de la resistencia de los tejidos corporales interpuestos. La diferencia de potencial es proporcional al coseno del ángulo entre el eje del dipolo y el eje de los electrodos y disminuye con la distancia de la fuente. Su valor es máximo cuando estos ejes son paralelos y es cero cuando son perpendiculares. Al eje de los electrodos se le llama eje de la derivación. La figura 7.2 ilustra las relaciones anteriores reducidas a un plano. El vector Ve representa la diferencia de potencial sobre los electrodos, a es el ángulo formado entre los ejes, y k es una
190
Alvaro Tucci R. constante que depende del voltaje instantáneo y de la resistencia de los tejidos corporales interpuestos entre el dipolo y los electrodos. Las líneas equipotenciales son zonas que en un momento dado están al mismo potencial. La diferencia de potencial entre los electrodos da origen al electrocardiograma, que es una representación gráfica de sus variaciones recogidas por los electrodos durante el ciclo cardíaco. Los cambios de potencial para un ECG normal describen la curva característica mostrada en la figura 7.3.
Figura 7.2. Dipolo, líneas equipotenciales y electrodos
Figura 7.3. El electrocardigrama o ECG normal
191
Instrumentación Biomédica / El Electrocardiograma Las principales características de esta curva son: La duración del complejo QRS de 70 a 110 ms. El intervalo RR entre dos ondas sucesivas de 600 a 1000 ms. El intervalo PR de 150 a 200 ms. El intervalo ST de unos 320 ms. En el siguiente análisis se asume que el ciclo cardíaco comienza después del periodo de reposo del corazón. Cuando se despolariza el nodo SA, el tejido a su alrededor se vuelve negativo respecto al resto del miocardio que permanece todavía polarizado. Por lo tanto, se crea un dipolo que se establece entre la zona donde reside el nodo SA y el resto del miocardio. El potencial eléctrico creado por el dipolo hace que circule una corriente en tal dirección que el brazo izquierdo (Left Arm o LA) es positivo respecto al brazo derecho (Right Arm o RA). La corriente alcanza su valor máximo unos 40 ms después que se inicia la despolarización y crea la onda P. Tal situación se muestra en la figura 7.4a. Después de unos 90 ms la aurícula está completamente despolarizada y la tensión cae a cero. La despolarización de las aurículas se transmite al ventrículo derecho a través del nodo AV que actúa como una "línea de retardo". En él se genera una demora de unos 110 ms. Transcurrido este tiempo, parte del músculo del ventrículo también comienza a despolarizarse. Una porción izquierda se vuelve negativa respecto a la todavía polarizada porción derecha. Se crea así otro dipolo que hace que el brazo izquierdo sea positivo respecto al derecho. De este modo se produce la onda R mostrada en la figura 7.4b, que alcanza su valor máximo unos 250 ms después de iniciado el ciclo. Se observa que el área bajo la curva de la onda R es mayor que el área bajo la curva de la onda P. La diferencia se debe a que la masa ventricular es mayor que la auricular. En la contracción ventricular un mayor número de células contribuyen a incrementar el área bajo la curva. La onda T, representada en la figura 7.4c, se produce en forma similar al repolarizarse el músculo cardíaco. Es positiva debido a que la repolarización se inicia en la superficie interna de las cavidades del corazón y se desplaza hacia la superficie externa, mientras que la polarización precedente se produjo en sentido contrario. La onda P representa la actividad eléctrica de la aurícula; el
192
Alvaro Tucci R. intervalo PQ es el tiempo requerido para la despolarización auricular y la conducción del impulso a través del nodo AV. El complejo ventricular o complejo QRS se produce cuando se despolarizan los ventrículos. El intervalo QR, conocido como tiempo de activación ventricular, corresponde a la propagación de la onda de despolarización desde el endocardio hasta la superficie epicárdica.
Figura 7.4. El corazón como fuente del ECG
El segmento ST es un periodo de inactividad eléctrica, que se presenta después que la totalidad del miocardio se ha desporalizado. La onda T indica la repolarización de los ventrículos. El intervalo QT
193
Instrumentación Biomédica / El Electrocardiograma es el tiempo requerido para la despolarización y repolarización de los ventrículos. La onda U, no siempre presente, se debe a algunos potenciales que se forman al principio de la diástole. Después de la anda T el músculo cardíaco entra en un periodo de reposo, caracterizado por la falta de actividad eléctrica. El trazo electrocardigráfico toma la forma de una línea plana horizontal llamada línea basal o isoeléctrica. Luego del reposo, con otra onda P se reinicia un nuevo ciclo. El intervalo RR es el tiempo que transcurre entre dos ondas sucesivas llamado período. Las pulsaciones por minuto (ppm) se calculan a partir del periodo, utilizando la siguiente igualdad:ppm = 60/RR Si el intervalo RR es, por ejemplo, de 800 ms, las pulsaciones por minuto son: 60/0,8 = 75 ppm.
DERIVACIONES ELECTROCARDIOGRÁFICAS Los potenciales eléctricos provenientes de la actividad cardíaca pueden ser recogidos en la superficie corporal mediante electrodos conectados a la entrada de un electrocardiógrafo. A la disposición de los electrodos sobre el tórax se le llaman derivaciones. Habitualmente, en los registros clínicos electrocardiográficos se emplean doce derivaciones que se agrupan de la manera siguiente: Tres derivaciones estándar de los miembros; Vi, Vii, y Viii. Tres derivaciones aumentadas de los miembros; aVR, aVL, aVF. Seis derivaciones precordiales; V1, V2, V3, V4, V5, V6. DERIVACIONES ESTANDAR La relación entre las distintas derivaciones, la polaridad y la magnitud de los voltajes que se generan se comprende mejor si se recurre al concepto de vector. Una magnitud como el voltaje se puede representar por un vector. Un vector no es más que un segmento de línea recta con una flecha en la punta. La longitud del segmento es proporcional a la magnitud del voltaje. Si un segmento de 1cm representa 5voltios, otro de 2 cm representará 10 voltios. La dirección del voltaje es indicada por la orientación del vector y la polaridad por el sentido de la flecha. Se conviene que la flecha va dirigida de negativo a positivo.
194
Alvaro Tucci R. Un vector puede representar un voltaje instantáneo. El voltaje instantáneo es aquel presente en un momento dado, y no es necesariamente el mismo un instante después. Si el voltaje varía en magnitud, dirección y/o sentido, el vector que lo representa seguirá esas variaciones. Por lo tanto, su magnitud, dirección y polaridad deben cambiar en la misma forma en que lo hace el voltaje que representa. En el caso particular del ECG los voltajes cambian constantemente. Los biopotenciales instantáneos de las tres derivaciones estándar son representados por medio de vectores en la figura 7.5. Los potenciales instantaneos son reemplazadps por pilas.Sus bornes se unen para formar un triángulo históricamente conocido como Triángulo de Einthoven.
Figura 7.5. Representación vectorial de las derivaciones estándar
La segunda Ley de Kirchhoff o Ley de las Mallas establece que: "En todo circuito cerrado, la suma de las caídas de tensiones debe ser igual a la suma de los voltajes generados" Se concluye entonces de la figura 7.5 que voltaje instantáneo Vii debe ser igual a la suma vectorial de los voltajes instantáneos Vi y Viii, así: Vii = Vi + Viii donde:
195
Instrumentación Biomédica / El Electrocardiograma Vi Vii Viii
es el voltaje medido entre los dos brazos. es el voltaje entre el brazo derecho y la pierna izquierda. es el voltaje entre el brazo izquierdo y la pierna izquierda.
La figura 7.6 es la representación gráfica de las tres derivaciones estándar durante un ciclo cardíaco completo. En ella se observa que para cada instante se cumple la igualdad anterior. Para medir las tres derivaciones estándar se recurre a los circuitos de la figura 7.7. y las gráficas resultantes se muestra en la figura 7.8.
Figura 7.6. Vii es la suma instantanea de Vi y Viii
La representación electrocardiografica varía considerablemente de una persona a otra; depende del lugar donde se coloquen los electrodos y del tamaño y condiciones físicas del paciente. Para las derivaciones estándar, la máxima y mínima amplitud considerada normal expresada en milivoltios (mv) se muestran en la tabla 7.1.
196
Alvaro Tucci R. Tabla Punto en la curva P Q R S T
7.1
Vi (mv)
Vii (mv)
Viii (mv)
0,01 a 0,12 0,00 a 0,16 0,07 a 1,13 0,00 a 0,36 0,06 a 0,42
0,00 a 0,19 0,03 a 0,18 0,18 a 1,68 0,06 a 0,49 0,06 a 0,55
0,00 a 0,13 0,00 a 0,28 0,03 a 1,31 0,00 a 0,55 0,00 a 0,30
Figura 7.7. Medida de las tres derivaciones estándar
DERIVACIONES AUMENTADAS Las tres derivaciones aumentadas se obtienen por medio de las conexiones mostradas en la figura 7.9. Dichas derivaciones son denominadas: voltaje aumentado para el brazo derecho o aVR (Augmented Voltage Right arm), voltaje aumentado para el brazo izquierdo o aVL (Augmented Voltage Left arm) y voltaje aumentado para el pie izquierdo o aVF (Augmented Voltage left Foot).
197
Instrumentación Biomédica / El Electrocardiograma
Figura 7.8. ECG normal para las tres derivaciones estándar
Para medir estas derivaciones, se conecta el polo positivo del electrocardiógrafo al miembro indicado por el nombre de la derivación y el polo negativo al Terminal Central de Goldberg o CTg. El terminal central se crea al unir mediante resistencias las otras dos derivaciones de los miembros, tal como lo muestra la figura 7.9.
Figura 7.9. Conexiones para las derivaciones aumentadas
En este caso, el ECG registrará la diferencia de potencial entre el miembro explorado y el voltaje promedio de los otros dos
198
Alvaro Tucci R. miembros unidos al Terminal Central de Goldberg. Las tres resistencias que se unen para formar el terminal son del mismo valor y mucho más pequeñas que la impedancia de entrada del electrocardiógrafo. Para calcular el voltaje aumentado a partir del voltaje estándar, se emplean las siguientes ecuaciones derivadas de la segunda ley de Kirchhoff. aVR = - Vi - (Viii/2) aVL = Vi - (Vii/2) aVF = Vii - (Vi/2) DERIVACIONES PRECORDIALES Para la medida electrocardiográfica de las seis derivaciones precordiales se emplea el electrodo C, que se coloca en lugares muy específicos del tórax. El electrodo C está conectado al terminal no inversor del amplificador diferencial, tal como se muestra en la figura 7.10. En este caso, el terminal inversor del amplificador diferencial se conectada a un punto de referencia, conocido como Terminal Central de Wilson o CTw, cuyos ramales van unidos por medio de tres resistencias de igual valor R, al brazo derecho, al brazo izquierdo y pierna izquierda.
Figura 7.10. Conexión para derivaciones precordiales
La figura 7.11 muestra las gráficas resultantes de las seis derivaciones precordiales. Dichas gráficas son muy dependientes
199
Instrumentación Biomédica / El Electrocardiograma de la posición anatómica donde se coloca el electrodo C en el tórax.
Figura 7.11. Gráficas precordiales para diferentes posiciones del electrodo C
El hecho de que los registros precordiales sean muy dependientes de la posición del electrodo C abre la posibilidad de identificar regiones de funcionamiento anormales en el corazón. Los seis lugares normalizados en el tórax donde se coloca el electrodo C son: V1 Cuarto espacio intercostal en la margen derecha del esternón. V2 Cuarto espacio intercostal en la margen izquierda del esternón. V3 En el punto medio entre V2 y V4. V4 En el quinto espacio intercostal sobre la línea media de la clavícula. V5 En el mismo nivel que V4 sobre la línea anterior de la axila. V6 En el mismo nivel que V4 sobre la línea media de la axila. La selección de las diferentes derivaciones estándar, aumentadas y precordiales, las efectúa el operador accionando el selector de derivaciones que normalmente está situado en la parte frontal del electrocardiógrafo.
200
Alvaro Tucci R.
REDUCCIÓN DE LOS VOLTAJES EN MODO COMÚN Las señales en modo común, como el ruido de 60Hz, se analizaron en un capítulo precedente y se determinó que su efecto puede reducirse aprovechando las características de rechazo en modo común de los amplificadores diferenciales. Para reducir aun más el ruido, se recurre a la técnica de la realimentación negativa, que produce una efectiva disminución del voltaje en modo común en el cuerpo del paciente. La realimentación negativa es un procedimiento mediante el cual parte de la señal de salida es reenviado a la entrada de forma que se oponga a los cambios en la salida. En las figuras 7.7 y 7.10 se observa la presencia de un amplificador operacional llamado CM (Common mode reduction amplifier). El amplificador recibe en su entrada parte de la señal de salida del amplificador diferencial, la invierte y la realimenta en la pierna derecha. Por tal motivo en el cuerpo del paciente las señales comunes se restan. Esta técnica es muy efectiva para la reducción del ruido y es ampliamente utilizada en equipos e instrumentos.
ALGUNAS ANOMALÍAS Las variables electrocardiográficas más importantes son: magnitud, polaridad y relativa duración de cada segmento. El electrogardiograma, desde un punto de vista clínico, debe ser evaluado por un médico especialista. Sin embargo, con el propósito de resaltar la utilidad del ECG se citan algunos ejemplos. El intervalo PR extendido, indica que existe un incremento en el tiempo de conducción en el nodo AV. Un ensanchamiento del complejo QRS puede ser debido a la conducción impropia de la fibra nerviosa del haz de His. El incremento del intervalo ST puede indicar que ha ocurrido un infarto. La onda T negativa puede indicar insuficiencia coronaria. La fibrilación ventricular es una condición crítica generalmente fatal. En ella se pierde el complejo QRS. La pérdida de este complejo indica que el ventrículo no se está contrayendo y por supuesto la circulación sanguínea es casi inexistente. En estas condiciones, la forma de onda mostrada en el ECG tiene componentes de frecuencia mayores a los normales, ya que la fibrilación misma es de alta frecuencia. Su detección y el diagnóstico son casi automáticos.
201
Instrumentación Biomédica / El Electrocardiograma La fibrilación auricular se produce cuando la aurícula no se contrae. Es una afección menos seria que se manifiesta en el ECG por la ausencia de la onda P. El aleteo auricular (atrial flutter), donde la aurícula no se contrae y fibrila a una frecuencia menor, tampoco es condición crítica. En ambos casos se mantiene la circulación sanguínea ya que el complejo QRS está presente. Los latidos ectópicos se originan en un nodo diferente del nodo SA. Este otro nodo p u e d e s e r c o n g é n i t o o g e n e r a r s e espontáneamente durante la vida. Produce latidos fuera de sincronismo causantes de contracciones auriculares o ventriculares prematuras.
Figura 7.12. Electrocardiogramas anormales
202
Alvaro Tucci R.
CAPÍTULO 8
El electrocardiógrafo En el capítulo anterior se determinó que los latidos del corazón generan señales eléctricas, que registradas en una gráfica conocida como electrocardiograma, facilitan el diagnóstico de la función cardíaca. Dicha gráfica se conoce también con las iniciales ECG y a veces por las iniciales en alemán EKG. El potencial eléctrico generado por el corazón se extiende por todo el cuerpo y puede detectarse si se colocan electrodos en su superficie.Sin embargo, para conocer razonablemente la actividad eléctrica del músculo cardíaco deben realizarse varias mediciones, para lo cual se colocan los electrodos en zonas muy específicas y estandarizadas, conocidas como derivaciones. EL
ELECTROCARDIÓGRAFO
El electrocardiógrafo es un instrumento electromecánico empleado para registrar los biopotenciales generados por la actividad eléctrica del músculo cardíaco. Se presentan en forma de gráfico sobre papel calibrado o sobre la pantalla de un tubo de rayos catódicos o de cristal líquido. La figura 8.1 muestra su diagrama en bloques. El aparato está constituido por varios electrodos superficiales, un cable múltiple, un selector de derivaciones, un amplificador diferencial, un amplificador de potencia o «driver», un registrador XT de papel térmico y varias fuentes de poder que los alimenta.
203
Instrumentación Biomédica / El electrocardiógrafo La American Heart Association es el organismo encargado de establecer y estandarizar las características principales que debe reunir un electrocardiógrafo. De esta manera las gráficas pueden ser analizadas por los médicos de cualquier parte del mundo sin necesidad de la conversión de los datos. Las principales características dictadas por esa institución son: 1.- Respuesta a la frecuencia de 0,1 Hz a 100 Hz. divididos así: +/- 0,5dB de 0,1Hz hasta 25 Hz y +/- 3dB de 25Hz hasta 100Hz. 2.- Linealidad y distorsión no mayor del 5%, cuando el estilete recorre 50 mm sobre todo el rango de frecuencia. 3.- Voltaje de entrada hasta 10 mV p-p. 4.- Impedancia de entrada entre un electrodo cualquiera y tierra debe ser que mayor de 5 Mohmios La medida se hace con el resto de los electrodos conectados a tierra. 5.- Corriente de entrada no mayor que 1mA. Aunque las normas de seguridad permiten que por el paciente puedan fluir hasta 10mV, la corriente de entrada no debe exceder ese valor. 6.- Normalmente el operador debe poder seleccionar la sensibilidad de 5, 10, o 20 mm/mV. 7.- Debe estar provisto de una señal calibración de 1mV y un sistema de ajuste de ganancia. La señal de calibración, que se aplica a la entrada del amplificador, debe producir una desviación en el papel de 10 mm. 8.- La velocidad del papel debe ser de 25 mm/seg. Existen equipos de propósito especial que tienen velocidad de 50 mm/seg. 9.- Debe estar previsto de un sistema que produce una marca en el papel cada segundo. 10.- Los electrodos y su correspondiente posición anatómica se identifican por colores y por dos letras según la tabla siguiente. Blanco Negro Verde Rojo Marrón
Brazo derecho Brazo izquierdo Pierna derecha Pierna izquierda Pecho
RA LA RL LL C
(Right Arm) (Left Arm) (Right Leg) (Left Leg) (Chest)
La figura 8.1 muestra el diagrama en bloques de un
204
Alvaro Tucci R. electrocardiógrafo portátil de uso general. El equipo está unido al paciente por medio de electrodos que "recogen" las señales electrocardiográficas, excepto uno que "inyecta" una señal a la pierna derecha del paciente.
Figura 8.1. Diagrama en bloques de un electrocardiógrafo
LOS ELECTRODOS Los electrodos “recogen” el voltaje de la superficie del cuerpo para que sea «visto» por los circuitos electrónicos que componen el electrocardiógrafo. Ellos están unidos al instrumento por medio de un cable múltiple y están representados en la figura 8.1 por puntos negros sobre la superficie del paciente. Los electrodos más empleados están construidos por una placa conductora, generalmente metálica, de aleación plata–níquel y fabricados de diferentes formas. Entre los electrodos y la piel se coloca la pasta electrolítica o gel, que cumple la función de electrolito y mantiene un buen contacto. Los electrodos superficiales están provistos de un sistema de correas que los sujeta firmemente en la posición adecuada mientras se realiza el examen. Los electrodos deben mantenerse en buen estado, limpios y libres de óxido.
205
Instrumentación Biomédica / El electrocardiógrafo En aplicaciones quirúrgicas se emplean electrodos desechables que tienen incorporada una sustancia adhesiva y pasta electrolítica. Son flexibles y se adaptan a la forma del cuerpo; son livianos y construidos con sustancias antialérgicas, especialmente los diseñados para ser utilizados por largo tiempo. CIRCUITO DE PROTECCIÓN Los pacientes sujetos a operaciones quirúrgicas están normalmente conectados a un monitor cardíaco. Si la práctica involucra el empleo de unidades de desfibrilación o electroquirúrgicas, al paciente le son aplicadas tensiones elevadas que pueden alcanzar el monitor cardíaco a través de los electrodos y dañar sus circuitos. Para evitar este inconveniente, en la entrada del instrumento se coloca un circuito de protección tal como se muestra en la figura 8.1. El circuito de protección resguarda el amplificador diferencial y el resto del instrumento contra las tensiones elevadas, que pueden alcanzar miles de voltios. La presencia de tensiones elevadas en el sistema altera completamente el electrocardiograma. La figura 8.2 indica la forma de conectar los circuitos de protección en el la entrada del electrocardiógrafo.
Figura 8.2. Sistema de protección contra sobretensiones
Los circuitos de protección son los limitadores de voltaje o clippers. La figura 8.3 muestra la curva voltaje-corriente característica
206
Alvaro Tucci R. de dichos limitadores y la configuración de algunos de ellos. En la figura 8.3a, se observa que para tensiones pequeñas, comprendidas dentro de la porción casi horizontal de la curva característica, la resistencia del limitador es muy alta; la corriente es muy pequeña y puede asumirse sin error apreciable, que su comportamiento es el de un circuito abierto. Si el voltaje "recogido" por los electrodos trata de exceder los codos de la curva, la característica del limitador cambia abruptamente de pendiente, su resistencia se vuelve muy pequeña, la corriente aumenta al máximo y es limitada únicamente por la resistencia ohmica.
Figura 8.3.
Dispositivos limitadores de voltaje y curva característica
Los circuitos limitadores de voltaje pueden ser implementados con diferentes componentes. La figura 8.3b indica un dispositivo que emplea dos diodos de respuesta rápida. Los diodos de germanio no conducen hasta que el voltaje aplicado excede 0,3 voltios y sólo si el ánodo es positivo respecto al cátodo. Si la tensión aplicada excede este valor, uno de los diodos entra en conducción y limita la tensión entre sus bornes. La ventaja principal de este circuito es que el voltaje de conducción es pequeño. Para diodos de silicio la banda está comprendide entre –0,6 y +0,6 voltios. El problema que surge con el empleo de los limitadores en el circuito de entrada es que tienden a reducir la impedancia de entrada e introducen distorsión de la señal. La distorsión se debe a que el "codo de curva" característica no es tan abrupto, sino gradual. La distorsión se manifiesta para señales mayores de 0,1 voltio. Sin
207
Instrumentación Biomédica / El electrocardiógrafo embargo, como la señales provenientes de los electrodos son del orden de los milivoltios, no se ven afectadas por su presencia. Para limitadores de 1,2 voltios puede emplearse el arreglo mostrado en la figura 8.3c donde se utilizan cuatro diodos de silicio. Esta configuración tiene la desventaja de presentar doble resistencia durante la conducción. La configuración de la figura 8.3d emplea dos diodos zener en serie. Cuando se aplica tensión sobre este circuito uno de los diodos está polarizado en forma directa. La tensión de ruptura del diodo polarizado en forma directa es Vd = 0,6 voltios, mientras que el voltaje de ruptura del diodo con polarización inversa está comprendida entre Vz = 2,7 y 100 voltios, dependiendo del tipo de zener empleado. La tensión del limitador es dada por Vd + Vz. Cuando la polaridad de la tensión aplicada es invertida, la función de los diodos se intercambia. Esta configuración ofrece la posibilidad de construir limitadores con rango comprendido entre los 3 y 100 voltios. Otro limitador, construido con el tubo de descarga gaseosa es mostrado en la figura 8.3e. Mientras no se alcanza el voltaje de ruptura, el tubo se comporta como un circuito abierto, de lo contrario pasa al estado de conducción o baja resistencia. El rango del limitador depende del tipo de gas que contiene, pero está comprendido entre los 50 y 90 voltios. Los tubos miniatura de neón son muy económicos pero más "lentos" que los implementados diodos semiconductores. Para tensiones mayores de 90 voltios pueden utilizarse varios tubos en serie. Cuando se instalan limitadores de voltaje en paralelo con la entrada de un circuito de alta impedancia, debe considerarse su resistencia en estado de no-conducción. Una alta resistencia minimiza el efecto de carga sobre los electrodos y no afecta la impedancia de entrada del amplificador. EL SELECTOR DE DERIVACIONES Cada electrodo está unido por medio de un cable conductor al selector de derivaciones. Su función es la de conectar un grupo de electrodos a la entrada del amplificador diferencial y la salida del amplificador CM a la pierna derecha del paciente. La figura 8.4 muestra la forma como se realizan las conexiones. El operador, al mover este control colocado en el frente del
208
Alvaro Tucci R. instrumento puede seleccionar una de las tres derivaciones estándar, una de las tres aumentadas o una de las seis precordiales. Los cuadros de la figura 8.4, colocados alrededor del selector indican la forma como se interconectan los diferentes electrodos con el amplificador diferencial. Así, en la posición Vi el selector conecta el brazo izquierdo a la entrada no inversora del amplificador diferencial, el brazo derecho a la entrada inversora del mismo amplificador y la pierna derecha a la salida del amplificador CM. Nótese que para todas las derivaciones la pierna derecha esta siempre conectada a la salida del amplificador CM.
Figura 8.4. Esquema del selector de derivaciones
EL CALIBRADOR El botón de calibración es empleado por el operador, antes de realizar el electrocardiograma, para comprobar el funcionamiento del equipo y ajustar su ganancia. Cada vez que el operador presiona el botón, se aplica la tensión de 1 mv a la entrada del amplificador diferencial. Al introducir en el sistema esta señal calibrada, en el registro debe obtenerse la
209
Instrumentación Biomédica / El electrocardiógrafo desviación de 1cm. En caso contrario se ajusta el control de ganancia hasta que esa desviación sea obtenida. La calibración, aparte de suministrar la señal para el ajuste de la ganancia, permite verificar el funcionamiento del equipo, ya que la desviación de 1 cm demuestra que el amplificador y la unidad de registro están funcionando correctamente. Si la prueba de calibración produce el resultado esperado, pero el estudio electrocardiográfico no es correcto, deberá buscarse la falla en los contactos de los electrodos o en los cables. Es probable que el instrumento esté cerca de una fuente de interferencia que altera el trazo electrocardiográfico. EL AMPLIFICADOR DIFERENCIAL Es un amplificador de alta impedancia de entrada y alta relación de rechazo en modo común. Es encargado de efectuar la amplificación de las señales provenientes de los electrodos. En ocasiones, debido a la función que realiza, se le llama preamplificador. Sus características, como la linealidad, el ancho de banda y la distorsión deben satisfacer las condiciones dictadas por la American Heart Assosiation. En el circuito del amplificador diferencial, está incluido un filtro pasa banda que da al instrumento las características de frecuencia antes descritas. El filtro pasa banda se incluye con la finalidad de dejar pasar únicamente aquellas frecuencias que forman parte de la señal electrocardiográfica y suprimir las restantes, de forma que el trazo sea más nítido y fácil de interpretar. La configuración típica de un amplificador y su análisis fue descrita en un capítulo anterior. EL CONTROL DE GANANCIA La ganancia del amplificador diferencial está gobernada por dos controles. Un control discreto, con el que se selecciona la desviación sobre el registro en 5, 10 o 20 mm/mv y un control continuo, que permite ajustar la ganancia, de forma que la señal de 1mv de calibración, origine la desviación de 10mm. EL CONTROL DE POSICIÓN DE LA PLUMILLA El control de posición o línea base, permite colocar la plumilla o estilete en cualquier lugar sobre el papel. Se obtiene haciendo pasar una corriente continua de polarización (offset current) por la bobina
210
Alvaro Tucci R. del galvanómetro que mueve la plumilla. La posición normal es el centro del papel. EL AMPLIFICADOR DE POTENCIA El amplificador de potencia o driver, es encargado de amplificar la señal proveniente del amplificador diferencial, hasta el nivel de potencia apropiado para alimentar la bobina del galvanómetro. La bobina es alimentada con baja tensión y relativa alta corriente. A ella se une la plumilla que registra los movimientos sobre el papel que da origen el electrocardiograma. El amplificador de potencia recibe la señal del amplificador diferencial a través de un condensador de acoplamiento, con lo que se pretende minimizar el corrimiento o «drift» presente en la salida del amplificador y evitar su "saturación". LA UNIDAD DE REGISTRO Esta unidad está formada por un registrador con velocidad del papel y características de frecuencia antes especificadas. Consta de un galvanómetro de bobina móvil que mueve un estilete caliente, que en contacto con papel térmico, registra la actividad cardíaca. Cuando el sistema de registro es de este tipo, el electrocardiógrafo tiene un control adicional que regula la corriente por el estilete y por ende la intensidad del trazo. En algunos electrocardiógrafos no portátiles, se emplean registradores con sistema de inscripción con tinta presurizada. La plumilla consiste en un pequeño cabezal móvil de donde emerge la tinta a alta presión desde un pequeño orificio capilar que apunta hacia el papel. La tinta, eyectada en forma de chorro casi invisible, traza el ECG. Este sistema tiene la ventaja de responder a frecuencias mayores, puesto que en él se evita el roce del estilete con el papel. LA FUENTE DE PODER AISLADA La fuente de poder aislada y un transformador de aislamiento forman parte del sistema de protección. Evitan que el paciente y el personal que opera el equipo estén expuestos a sacudidas eléctricas. El transformador de aislamiento alimenta la fuente de poder que se caracteriza por estar muy bien aislada del chasis del instrumento. El amplificador diferencial es alimentado por esta fuente. El sistema de protección, aprobado por las normas de seguridad hospitalarias, consiste en un circuito que aísla eléctricamente los
211
Instrumentación Biomédica / El electrocardiógrafo electrodos de la fuente de poder, de donde podrían generarse corrientes que representan algún riesgo. Como los electrodos son de baja impedancia y están colocados sobre la piel, en la región del corazón, podrían ser causa de sacudidas eléctricas peligrosas si la corriente a través de ellos excediera los 10 mA. Si además durante el acto quirúrgico el paciente tiene colocado un marcapasos externo o está siendo cateterizado, el riesgo puede ser aun mayor. Puesto que los requerimientos de potencia del amplificador diferencial son pequeños, para así evitar el riesgo anterior algunos fabricantes prefieren alimentarlos con baterías recargables. En este caso, el amplificador driver y la unidad de registro, cuyos requerimientos de potencia son mayores, son alimentados por una fuente que no requiere tan alto grado de aislamiento. EL MARCADOR DE EVENTOS A medida que se impreme el ECG, un segundo estilete térmico colocado en la parte inferior del papel produce una pequeña marca. Esta marca, por tener un periodo de un segundo, permite al médico cardiólogo determinar con exactitud la duración de los eventos. La plumilla térmica es alimentada por un generador de impulsos. LA FUENTE DE PODER Además de la fuente de poder aislada, el sistema de alimentación del electrocardiógrafo, tiene otras tres fuentes. Una suministra energía al amplificador driver y circuitos anexos, otra a las plumillas térmicas y la tercera al motor sincrónico que se encarga del arrastre del papel. La fuente de poder que alimenta el amplificador diferencial y los circuitos anexos es de corriente continua de muy bajo ruido y bien regulada, que suministra tensión positiva y negativa del orden de los +12 y –12 voltios. El amplificador driver es también alimentado con una fuente regulada de +12 y –12 voltios, pero con características menos exigentes que la anterior. La fuente que alimenta el motor que arrastra el papel es de corriente alternada de 60 Hz. Su tensión depende del tipo de motor. La fuente de los estiletes no es regulada, es del orden de los 12 voltios y es capaz de suministrar varios amperios.
212
Alvaro Tucci R.
ELECTROCARDIÓGRAFOS
ESPECIALES
El electrocardiógrafo descrito anteriormente es el más generalizado. Está presente en el consultorio de todo médico cuya especialidad esté relacionada con la cardiología y su costo es relativamente bajo. Sin embargo, la industria ha desarrollado otros instrumentos dedicados a realizar tareas específicas como las que se describen a continuación. EL ECG FETAL El electrocardiógrafo fetal emplea un electrodo adicional que se coloca en el abdomen de la madre. La disposición de los amplificadores diferenciales es de la forma mostrada en la figura 8.5. El electrodo M, colocado en el pecho, referido al Terminal Central de Wilson CTw, mide el ECG de la madre. El electrodo F colocado en el abdomen mide la suma del ECG de la madre más el ECG del feto. El ECG de la madre es más fuerte y de menor frecuencia cardíaca que el del feto. Antes de proceder a tomar el registro del feto debe colocarse el electrodo F en varios lugares del abdomen hasta conseguir la mejor señal, cuya magnitud es del orden de los 50 mv. Debido a que la señal es muy pequeña es difícil registrarla durante la labor de parto; en esta circunstancia la madre se agita constantemente y genera importantes artefactos que se sobreponen a las señales provenientes del feto.
Figura 8.5. Diagrama en bloques de un ECG fetal
213
Instrumentación Biomédica / El electrocardiógrafo Los potenciales "recogidos" son dirigidos hacia el amplificador diferencial que rechaza la señal en modo común y amplifica la diferencia. El potencial en modo común de la madre es rechazado. En la salida del amplificador aparece únicamente la señal del feto, es decir: (M + F) – M = F La figura 8.6 muestra un registro típico fetal. Nótese que el complejo QRS de la madre es mucho mayor que el del feto, en consecuencia este último es difícil de distinguir. Para mejorar el registro se han empleado técnicas de realimentación implementadas por el amplificador CM, con las cuales se minimiza el complejo QRS de la madre. Para mejorar el registro se emplean tres electrodos. El primero en el pecho de la madre, el segundo en la parte superior o fondo de útero y el tercero en la parte inferior del útero. El ECG de la madre se obtiene de los dos electrodos superiores y el fetal de los dos inferiores. El electrodo central es el común.
Figura 8.6. ECG típico fetal
214
Alvaro Tucci R. EL MONITOR CARDÍACO El monitor cardíaco o cardioscopio es un instrumento utilizado para observar el ECG durante periodos prolongados. Se emplea principalmente en las unidades de cuidado intensivo y en los quirófanos. En los cuidado intensivo es utilizado en pacientes que han sufrido infarto al miocardio. En estos casos, la vigilancia es esencial durante el período crítico, que por lo general se prolonga por algunos días. El monitor detecta una posible arritmia cardíaca temprana, que pudiera ser fatal de no tratarla a tiempo. En los quirófanos, durante el acto quirúrgico, mientras se suministra anestesia, la observación del electrocardiograma ayuda al cirujano a determinar la condición en que se encuentra el paciente y la vigilancia continua fetal durante el trabajo de parto ayuda a detectar la presencia de alguna anormalidad en el feto. La figura 8.7 muestra el diagrama en bloques del monitor cardíaco. Normalmente trabaja con un par de electrodos colocados en el pecho. El circuito de protección evita que el monitor se dañe cuando el cirujano utiliza algún tipo de electrocirugía o desfibrilación. El amplificador es del mismo tipo que el empleado en los electrocardiógrafos de uso general.
Figura 8.7. Diagrama en bloques de un monitor cardíaco
La salida del amplificador alimenta directamente el osciloscopio. Su sistema de barrido horizontal se dispara automáticamente con
215
Instrumentación Biomédica / El electrocardiógrafo la señal cardíaca y su velocicdad es igual a la del papel en el electrocardiógrafo, de tal manera que la gráfica que muestra la pantalla es igual a la del papel térmico. El graficador o la unidad de registro es del mismo tipo que el empleado en los electrocardiográficos de uso general. Es activado por medio del comando “S” cuando el médico requiere un registro permanente. El monitor mostrado en la figura 8.7 está provisto con un sistema automático capaz de registrar episodios de interés. El análisis de esos episodios permite al cardiólogo determinar la causa de ciertos trastornos, como por ejemplo, el registro electrocardiográfico previo a una arritmia seria. El sistema automático de registro se realiza cuando se alimenta la salida del amplificador a una memoria que almacena el electrocardiograma digitalizado de los últimos 15 segundos. Si se actúa el conmutador S, la salida de la memoria es convertida de nuevo en señal analógica y empleada para alimentar el graficador. La memoria introduce un retardo de unos 15 segundos; es decir, los eventos que se observan en el registrador se produjeron 15 segundos antes. El amplificador alimenta también el cardiotacómetro que mide y muestra al operador la frecuencia cardíaca en forma analógica o digital. El circuito de alarma se acciona automáticamente si la frecuencia es inferior o excede a ciertos valores preestablecidos por el médico. Para sistemas automatizados, el circuito de alarma conecta automáticamente la salida de la memoria al graficador, para que así queden registrados los eventos que produjeron la crisis. Si el monitor es empleado durante periodos muy largos, se producen fallas debidas a artefactos provocados por algún mal contacto en las interfaces electrodo-paciente ya que la gel se seca. Mientras más tiempo permanecen los electrodos adosados al paciente, más frecuentes serán las fallas. Por este motivo, es conveniente cambiarlos o limpiarlos diariamente. Algunos monitores cardíacos tienen incorporado un sistema de alarma que indica cuando la conexión electrodo-paciente se degrada, el electrodo se desconecta o un conductor se rompe. La figura 8.8 muestra el diagrama en bloques de uno de estos sistemas.
216
Alvaro Tucci R.
Figura 8.8. Diagrama en bloques de un sistema de alarma incorporado a un monitor cardíaco
El oscilador, es un generador de onda sinusoidal de 50 KHz de alta impedancia de salida que se conecta entre los electrodos a vigilar. La corriente que suministra es del orden de las décimas de miliampere, que por su alta frecuencia no representa riesgo para el paciente. Con este sistema, en los electrodos existen dos señales; la electrocardiográfica y la de alarma, de mucho mayor amplitud y frecuencia. La señal de alarma se hace circular con el único propósito de comprobar el estado y la continuidad del circuito de los electrodos. Mientras estos permanezcan en buen estado, la corriente que circula por ellos y por el cuerpo del paciente produce una caída de tensión relativamente pequeña. Si la pasta electrolítica se seca, un electrodo se despega, un conductor se abre, o alguna conexión se deteriora, la impedancia del circuito de los electrodos aumenta y la tensión sobre el oscilador aumenta también. Dicha variación es detectada por el comparador, y si excede cierto valor previamente estipulado, la señal de salida actúa la alarma como indicación de que existe un problema de continuidad el circuito de los electrodos. La función de los filtros es la de "separar" la señal electrocardiográfica de la generada por el oscilador. El comparador recibe únicamente la señal sinusoidal, puesto que el filtro pasa banda de 50 KHz bloquea todo tipo de señal que no tenga esa frecuencia. El amplificador diferencial recibe únicamente la señal electrocardiográfica, por tener ésta componentes de frecuencias inferiores a los 150 Hz.
217
Instrumentación Biomédica / El electrocardiógrafo Otra situación se presenta cuando un electrodo se despega del paciente o se deteriora su contacto. En esta condición el circuito de alarma presenta alta impedancia. La tensión interelectródica aumenta considerablemente, pudiendo dañar los circuitos electrónicos del amplificador diferencial. Por tal motivo, se coloca el circuito de protección que actúa de la forma que se determinó anteriormente. EL ECG BAJO ESFUERZO Algunas anormalidades del corazón se presentan únicamente cuando el paciente esta sujeto a esfuerzo físico. Durante el ejercicio el gasto cardíaco aumenta ya que los músculos en movimiento intenso requieren de un riego sanguíneo mayor. En condiciones de esfuerzo, por ejemplo, pudieran aparecer contracciones ventriculares paroxísticas. En ellas, los ventrículos se contraen sin haberlo hecho previamente las aurículas, lo que se manifiesta por la carencia de la onda P. El ECG bajo esfuerzo se obtiene al someter al paciente a un programa de ejercicios físicos. Usualmente camina sobre una banda sinfín a velocidades y pendientes controladas, pedalea una bicicleta estática con diferentes grados de frenado o realiza otro ejercicio similar, hasta lograr que los latidos del corazón alcancen un valor determinado por sus condiciones físicas. Mientras se realizan uno de estos ejercicios, se observan y se registran algunos signos vitales tales como el ECG, la presión arterial y la frecuencia cardíaca. A esta prueba se le conoce como Test de Esfuerzo. El electrocardiógrafo empleado en estos equipos está provisto de filtros adicionales, destinados a minimizar y compensar por el ruido proveniente de las contracciones musculares y movimiento de los electrodos. EL HOLTER El Holter es un electrocardiógrafo portátil con suficiente capacidad de memoria para almacenar la actividad eléctrica del corazón durante 24 horas. Fue creado con la finalidad de descubrir anomalías cardíacas “ocultas” o que aparecen espontáneamente en forma aleatoria. El método Holter permite detectar enfermedades
218
Alvaro Tucci R. tales como las contracciones ventriculares prematuras que se producen ocasionalmente. Para realizar estas mediciones, Norman Holter, durante la cuarta década del siglo XX, propuso grabar el ECG durante 24 horas mientras el paciente realiza sus actividades diarias normales. A tal fin ideó registrar, por medio de un grabador portátil alimentado por pilas, el ECG en cinta magnética. En esta prueba el paciente debe tener instalado el equipo con sus respectivos electrodos por lo menos durante 24 horas seguidas. En el Holter, la velocidad de la cinta es de 1/24 de la velocidad normal de grabación de la música. Su duración en lugar de una hora debe ser de 24 horas. Las pilas que suministran energía a los circuitos electrónicos y el motor de arrastre de la cinta, deben tener suficiente capacidad para alimentar el instrumento durante el mismo tiempo. Con las tecnologías recientes se logra que los circuitos electrónicos y el motor de arrastre de la cinta sean de bajo consumo, con lo que se reducen sus dimensiones y el peso de las pilas. Una vez completadas las 24 horas la lectura del registro se efectúa a alta velocidad, de forma que un observador experimentado puede, en 12 minutos, revisar la actividad cardíaca de 24 horas. La lectura de la cinta magnética se efectúa por sistemas computarizados, que almacenan en sus memorias únicamente aquellos episodios críticos para que puedan ser examinados posteriormente por el médico especialista. Los equipos de lectura más económicos emplean como memoria un registro temporal, donde se descarga la información en matrices de puntos, que posteriormente son observadas en pantallas de cristal líquido. Ultimamente, debido al enorme desarrollo de memorias de estado sólido gran capacidad, la cinta megnética está siendo reemplazada.
AVERÍAS FRECUENTES Los electrocardiógrafos, ocasionalmente pueden presentar algunas averías que el operador o el médico deben estar en capacidad de detectar. Algunas de ellas son: El ancho de banda del equipo se reduce; no abarca el rango comprendido entre 0,1 y 100Hz, lo que equivale a una distorsión por frecuencia que afecta el trazo del ECG, tal como se observa en la figura 8.9.
219
Instrumentación Biomédica / El electrocardiógrafo Esto puede ser debido a un diseño defectuoso, al envejecimiento de las partes electrónicas; como los condensadores, o a reparaciones donde se han reemplazado componentes por otros no apropiados o de calidad inferior. La figura 8.9a muestra un electrocardiograma realizado con un instrumento que tiene un ancho de banda normal. La gráfica 8.9b es efectuada con un equipo que tiene reducida la respuesta a las altas frecuencias. Se observa el redondeado de los ángulos puntiagudos y la disminución de la amplitud del complejo QRS. La gráfica 8.9c fue realizada con un instrumento que tiene poca respuesta a las bajas frecuencias. En este caso, se observa distorsión de la línea base (después del complejo QRS se produce un pico negativo que no debería estar allí) y las ondas monofásicas aparecen como bifásicas. Este efecto se conoce como distorsión por bajas frecuencias.
Figura 8.9. Efectos de la distorsión por frecuencia
220
Alvaro Tucci R. Otra alteración de la señal electrocardiográfica es la distorsión por corte o saturación. Se produce cuando la plumilla no recorre todo el trayecto que debiera recorrer. Esto sucede cuando la línea base se coloca muy cerca de los bordes del papel. En este caso, la excursión se ve limitada por los topes mecánicos del movimiento de la plumilla y la gráfica aparece recortada ya sea en la parte superior o inferior. Esta falla se soluciona al colocar la línea base en el centro del papel, utilizando para ello el control de posición de la plumilla. Cuando los circuitos electrónicos son defectuosos, la ganancia del amplificador es inadecuada o el amplificador satura, también se produce esta distorsión, lo cual modifica significativamente la apariencia del ECG.
Figura 8.10. Efectos de la distorsión por saturación o corte
La figura 8.10a muestra un ECG normal. La figura 8.10b el mismo electro distorsionado por saturación. Allí se evidencia la pérdida de la parte superior del complejo QRS. Esta falla, es muy probable que se genere por la saturación en alguna etapa de amplificación, debida a la inadecuada polarización de algún elemento activo. En la figura 8.10c se observa un electro que ha sufrido la misma
221
Instrumentación Biomédica / El electrocardiógrafo distorsión en su parte inferior, la cual puede ser generada por las mismas causas. En la figura 8.11a, la línea base aparece sin señal; falla que puede ser debida a una de las fuentes de alimentación, el selector de derivaciones no está en la posición correcta o la ganancia del amplificador es muy baja. La línea base inestable de la figura 8.11b se debe a que el paciente se mueve excesivamente. En ocasiones se nota que la línea base oscila en sincronismo con su respiración. En ambos casos, la causa probable es que los electrodos no están bien ajustados o el gel está seco.
Figura 8.11. Fuentes de interferencia en el trazo ECG
La figura 8.11c es originada por la interferencia de la línea de alimentación de 60 Hz, la ganancia excesiva de los amplificadores o los electrodos secos. En este caso, debe reducirse la ganancia a su valor normal, revisar los contacto de los electrodos y separar los cables de los electrodos lo más posible del cuerpo del paciente.
222
Alvaro Tucci R. En la figura 8.11d se observa una señal intermitente debido a que el circuito de los electrodos se "abre". Cuando esto sucede, el terminal del amplificador queda en circuito abierto, y sobre él se induce una tensión relativamente alta que provoca su saturación. Tal situación lo evidencia el trazo horizontal de la figura. Debido a la ganancia insuficiente del amplificador, la señal electrocardiográfica de la figura 8.11e es de muy baja amplitud, lo cual puede corregirse ajustando la ganancia. Los artefactos de gran magnitud, mostrados en la figura 8.11f, provienen de transientes de alto voltaje ocasionados por la desfibrilación, cuando se mueven los electrodos o cuando el paciente está en contacto con cargas estáticas. Las cargas estáticas se transmiten al paciente cuando alguien lo toca sin tomar le precaución de "descargarse" primero. Los transientes saturan el amplificador y los capacitores quedan cargados por varios segundos. Durante ese periodo, llamado tiempo muerto, no se produce trazo electrocardiográfico. En los equipos provistos del sistema de protección se reduce considerablemente este lapso. Si el electrocardiógrafo no funciona adecuadamente y no sufre ninguna de las fallas descritas, se debe comprobar el funcionamiento de las fuentes de alimentación, verificar los voltajes y el "ruido", que debe estar dentro de las especificaciones suministradas por el fabricante. Si las fuentes funcionan satisfactoriamente, hay que verificar las señales con la ayuda de un osciloscopio. La señal debe seguir el camino indicado en el diagrama en bloques del aparato. Si en algunas derivaciones no se registra la señal apropiada, es probable un daño está en el selector de derivaciones, probablemente en la posición que se encontraba cuando se aplicó por última vez el desfibrilador. Si la interferencia de 60Hz está presente en una derivación, es probable que el cable correspondiente a ese canal está abierto, ha perdido el blindaje o el contacto con el paciente es defectuoso.
INTERFERENCIA DE LA LINEA Por ser el electrocardiógrafo un instrumento muy sensible, de alta impedancia de entrada, con los conductores de los electrodos bastante largos y normalmente instalado en ambientes de alta
223
Instrumentación Biomédica / El electrocardiógrafo contaminación electromagnética, es muy probable que esté sujeto a interferencias. La interferencia más común es la generada por las líneas de alimentación, cuyos conductores recorren paredes, pisos y techos. Todos ellos contribuyen a generar un campo eléctrico, que induce en el electrocardiógrafo una señal de interferencia, que se reconoce por tener la frecuencia de 60 Hz. Los principales aparatos productores de interferencia son los transformadores, motores, equipos de diatermia, relés, equipos de rayos X, interruptores y lámparas fluorescentes o de descarga gaseosa. Los campos generados producen corrientes inducidas en el paciente, en los cables de los electrodos y en los circuitos del electrocardiógrafo.
Figura 8.12. Acoplamiento de interferencia con la red
Los condensadores C1, C2 y C3 de la figura 8.12, representan el acoplamiento entre la línea de 60Hz y el sistema electrocardiográfico. Si al efectuar un electro hay exceso de interferencia, esta puede ser debida a alguna discontinuidad o mal contacto en el circuito de los electrodos.Su inspección generalmente conduce a su disminución. Sin embargo, si en el ambiente existe una excesiva contaminación electromagnética, las medidas anteriores no son
224
Alvaro Tucci R. suficientes. Hay que proceder a "entorchar" los cables de los electrodos o a blindarlos y conectar el blindaje a tierra. En casos extremos se emplea el blindaje electrostático mostrado en la figura 8.13. El blindaje electrostático consiste en colocar el electrocardiógrafo en una habitación cuyas paredes piso y techo se ha colocado una malla metálica conectada a tierra. La malla debe estar hecha con un buen conductor eléctrico y magnético de alta permeabilidad, como por ejemplo el acero. Es indispensable que la conexión a tierra sean de excelente calidad, en caso contrario es inútil tomar la precaucion antes citada.
Figura 8.13. Blindaje del sistema electrocardiográfico
RUIDO GENERADO POR LAZOS DE TIERRA En la práctica hospitalaria, es frecuente que un paciente está "conectad" simultaneamente al ECG y a otros aparatos eléctricos. El electrocardigrafo y los otros aparatos se conectan a tierra a través de su cordón de alimentación, pero seguramente van a estar conectados a tomas diferentes dentro de la habitación. Cuando esto sucede, se establece un lazo de tierra como el mostrado en la figura 8.14a. Por el lazo circula la corriente «i» que
225
Instrumentación Biomédica / El electrocardiógrafo multiplicada por la resistencia ohmica de los conductores y contactos involucrados en el circuito, produce una tensión que aparece como ruido de 60Hz.
Figura 8.14. Eliminación del lazo de tierra
Esta situación es particularmente peligrosa para los pacientes en quirófano, que por estar conectados a “dos tierras”, se establecen dos voltajes Va y Vb ligeramente diferentes. Esta diferencia provoca la circulación de corriente por su cuerpo, que aparte de representar un grave riesgo, produce interferencia en modo común.
226
Alvaro Tucci R. Para evitar el lazo, se utiliza una sola tierra como se muestra en la figura 8.14b, de forma que todos los aparatos estén conectados a ella y no exista la posibilidad de que se establezcan lazos adicionales.
227
Alvaro Tucci R.
CAPÍTULO 9
Ultrasonografía
LOS ULTRASONIDOS
Las vibraciones mecánicas con frecuencia superior a los 20KHz, que se transmiten al medio circundante en forma de ondas sonoras, son llamadas ultrasonidos, debido a que exceden los límites audibles del oído humano. Las ondas ultrasonoras no son de uso exclusivo de los seres humanos, ciertos animales como los murciélagos, los delfines y algunas aves, se valen de su eco para orientarse, evadir obstáculos y cazar. En 1793, el biólogo italiano Lazzaro Spellanzani observó que los murciélagos pueden “ver con los oídos”. En efecto, al chillar emiten ultrasonidos de unos 130.000 Hz, cuyas ondas reflejadas son oídas por el mismo animal. La dirección del reflejo, el tiempo que transcurre entre la emisión del chillido y el eco y su intensidad, le permiten localizar los objetos que ha de evitar en su vuelo, orientarse, o identificar los insectos que ha de cazar. Los murciélagos, aun siendo ciegos, pueden volar perfectamente. Sin embargo, si privados del sentido del oído no podrían hacerlo. Recientemente, en el 2005, se descubrió en China un sapo que emite ultrasonidos en el mismo rango de frecuencia, lo que le permite comunicarse sin ser detectado por lo predadores. 229
Instrumentación Biomédica / Ultrasonografía Las marsopas, cetáceo parecido al delfín, al igual que los guácharos, aves que viven en cuevas en Venezuela, utilizan también el eco para localizar los objetos y sus presas. Estos animales, por consumir presas de mayor tamaño, utilizan sonidos de mayor longitud de onda, en la región audible. Según el biólogo americano John C. Lilly, los complejos sonidos que emiten los animales de cerebro mayor, como las marsopas y los delfines, pueden incluso utilizarlos con otros fines; para localizarse, aparearse, comunicarse o simplemente para “charlar”.
REVISIÓN HISTÓRICA Antes de utilizar las propiedades de las ondas ultrasónicas, el hombre tuvo que aprender a producirlas. El primer intento fue quizás el silbato de Francis Galton, con frecuencia de 23KHZ, construido hacia 1883 y usado para controlar perros por medio del sonido inaudible a los humanos. Otro intento fue realizado por los hermanos Pierre y Paul-Jacques Curie en 1880. Ellos descubrieron que se producían potenciales eléctricos entre las caras opuestas de un fragmento de cuarzo cuando era sometido a presión o esfuerzo mecánico que lo deformaba. De ahí surgió el nombre de piezoelectricidad, palabra derivada del griego piezein, equivalente a presionar. Observaron también que el valor de dichos potenciales era proporcional a la deformación mecánica que los producía. Los mismos investigadores hallaron que al aplicar un potencial eléctrico a un cristal de este tipo se producía una ligera deformación, similar a cuando se le aplicaba presión. Observaron además que la deformación era directamente proporcional al voltaje aplicado. A este fenómeno, o efecto piezoeléctrico inverso, se le llamó electrostricción. Así, un cristal puede actuar como generador y receptor de este tipo de ondas. Después del descubrimiento de estas propiedades de los cristales de cuarzo, los investigadores se dedicaron a la búsqueda otros materiales que tuvieran las mismas propiedades piezoeléctricas, y descubrieron que la sal de Rochela y el titanato de bario las tenían. El descubrimiento de la piezoelectricidad permitió la generación de potenciales que fluctúan rápidamente, aunado al desarrollo de las válvulas termoiónicas, que permitía amplificarlos, suministraron
230
Alvaro Tucci R. los medios necesarios para la producción y recepción de ultrasonidos de mediana y alta potencia. Quizás la primera mención corroborada de la aplicación de ultrasonidos se deba a Gordon, quien en 1883 describió un dispositivo que podría considerarse precursor de los generadores de chorro utilizados en la industria. Es de interés histórico notar que los rayos X tuvieron aplicación inmediata mientras que los ultrasonidos lo hicieron 50 años más tarde. La utilización de las ondas ultrasonoras comenzó en 1917 con los experimentos del físico francés Paul Langevin, quien descubrió sus excelentes características de reflexión y comprendió que podrían tener aplicaciones interesantes. Ese mismo año, sus investigaciones lo condujeron a la aplicación exitosa de la comunicación subacuática por vibraciones acústicas de alta frecuencia. Por tal motivo, durante la Primera Guerra Mundial, fue comisionado por el gobierno francés para desarrollar alguna forma de localización de submarinos enemigos que producían estragos a la flota francesa. En su patente, describe la generación y recepción de ondas ultrasonoras, que se efectuaba por medio de un arreglo de cristales de cuarzo en mosaico, cementados entre láminas de acero. El aparato nunca llegó a utilizarse, pero fue el precursor de dispositivos más elaborados que se desarrollaron posteriormente. Durante la Segunda Guerra Mundial, el método de Langevin perfeccionado se transformó en el “sonar”, equipo ideado para el mismo fin. La palabra “sonar” deriva de las primeras letras de la expresión inglesa Sound Navigation and Ranging, o sea, navegación y localización por medio del sonido. "Ranging" tiene implicito el concepto de distancia. Una de las primeras aplicaciones de los equipos de ultrasonido fue la medición de la profundidad del fondo marino. El método de reflexión de las ondas ultrasónicas remplazó la sondaleza. La medición del intervalo entre el envío de un impulso sonoro y el retorno de su eco se utilizó y se sigue utilizando para medir la profundidad. Con este método, fue posible trazar el perfil del fondo marino sobre el que se movía un barco. De esta manera se descubrieron mesetas del tamaño de un continente, cadenas montañosas más largas y elevadas que las de la tierra emergida, o profundos abismos, donde el Gran Cañón sería un simple barranco.
231
Instrumentación Biomédica / Ultrasonografía A partir de 1920, el método ultrasónico se empleó para localizar bancos de peces y algas, con la consiguiente aplicación en las flotas pesqueras. Se le atribuye al científico soviético Leningrado Sergei Sokolov el desarrollo del ultrasonido. En 1937, trabajó intensamente en este campo y estudió la propagación de las ondas ultrasonoras en sólidos y líquidos. Creó la técnica para la detección de grietas en metales, método que permitió “visualizar” el interior de ciertas estructuras. Del estudio de los ultrasonidos, Sokolov se percató que cuando la energía ultrasonora que se propaga por la materia y alcanza una discontinuidad, o los límites entre dos estructuras de densidades diferentes, parte de la energía atraviesa la discontinuidad y parte se refleja en forma de eco. Los ecos pueden ser captados, amplificados y presentados gráficamente en una pantalla para ser interpretados. De esta forma es posible conocer la profundidad y características de la discontinuidad o interface reflejante. La primera aplicación en medicina se atribuye al austríaco Karl Dussik, quien en 1937 utilizó la transmisión de Sokolov para intentar demostrar la presencia tumores intracraneales. Dussik, llamó a su método hiperfonografía, que consiste en colocar el transmisor en un lado del cráneo y el receptor en el lado opuesto. El receptor recibe las señales después que atraviesan las estructuras craneales. Dussik, supuso que la atenuación del tejido tumoral era diferente, y podía ser detectada por el receptor. El sistema resultó poco útil debido a que la diferencia de atenuación entre los tejidos sanos y tumorales es imperceptible. Durante la Segunda Guerra Mundial, al estudiar los ecos que generaba la energía ultrasonora, Floyd Firestone creó un método preciso para detectar las grietas internas de estructuras sólidas. En su instrumento, llamado reflectoscopio, utilizaba el eco producido por las interfaces en lugar de la detección directa empleada por Sokolov. El emisor, formados por cristales de cuarzo, y el receptor, por sal de Rochele, se colocan del mismo lado del objeto en estudio. El método ideado por Firestone consistía en la emisión de ondas ultrasonoras, moduladas en "trenes" de impulsos cortos, emitidos a intervalos relativamente largos. Los trenes de ondas eran reflejados por las interfaces, captados por el cristal receptor, y visualizados en la pantalla de un osciloscopio.
232
Alvaro Tucci R. A partir de 1945, los ecos ultrasonoros generados por el método de Firestone y su expresión gráfica se utilizaron en metalurgia. Fueron empleados para el estudios no destructivo de materiales y en pruebas de homogeneidad en metales y aleaciones metálicas, e incursionaron, con cierto éxito, en el campo de la medicina. La ultrasonografía aplicada a la medicina permite la observación, en forma no invasiva, de estructuras y formas anatómicas de diferentes órganos. Su funcionamiento se basa en el análisis de los ecos producidos por esas estructuras, que analizados por sistemas de adquisición y tratamiento de datos, son capaces de generar imágenes comprensibles y útiles para el diagnóstico. Hasta 1952, el empleo del ultrasonido en el diagnóstico clínico se había limitado a la ecografía unidimensional. Ese mismo año, Wild y Reid, realizaron un experimento empleando un cristal de 15 MHz montado sobre un pivote que le permitía cierto grado de oscilación. Para poder colocar el cristal y el sistema de pivote debajo del agua, estos científicos lo envolvieron en una membrana de caucho. Una vez colocado en el agua, hacían que el cristal oscilara y así produjeron el primer ecograma bidimensional, lo cual les permitió detectar y estudiar muchos tumores palpables de los senos. Joyner Wild y John Reid realizaron la hazaña de diagnosticar en el pre operatorio 26 de 27 casos de cáncer y 43 de 50 casos de tumores benignos, que fueron luego confirmados por diagnóstico histopatológico. Otro método de diagnóstico por ultrasonidos fue culminado por Douglas Howry y sus colaboradores en 1952. Ellos, desarrollaron un tomógrafo basado en lo que se llama rastreador compuesto. Con su instrumento original, y un procedimiento de exploración por barrido con impulsos ultrasonoros de poca potencia y de menor frecuencia, produjeron ecogramas de elevada calidad técnica. Para facilitar la propagación del sonido, Howry hacía exploraciones de 360° en áreas sumergidas, con la que producía imágenes de un corte transversal de definición excelente. Las imágenes de neoplasias en el seno y algunos cortes transversales del antebrazo de uno de los investigadores que trabajaban con él, fueron las primeras producidas por este método. Otra técnica, creada para el estudio de órganos en movimiento
233
Instrumentación Biomédica / Ultrasonografía relativamente rápido se basa en el efecto Doppler. El instrumento transmite y recibe ecos provenientes del flujo sanguíneo y de órganos tales como el corazón y sus válvulas. El transductor para la detección Doppler contiene un cristal transmisor y otro receptor. El transmisor emite un haz continuo de ultrasonidos de baja intensidad, parte del cual es reflejado por las estructuras en movimiento y detectado por el cristal receptor. La diferencia en frecuencia indica la velocidad del móvil. Mediante la aplicación de los descubrimientos y desarrollos tecnológicos que comenzaron con los hermanos Curie, el efecto piezoeléctrico, el método de transmisión de Sokolov, la emisión de "trenes" de impulsos cortos ideado por Firestone, la técnicas de exploración por barrido y el efecto Doppler, hicieron posible el desarrollo de una gran variedad de equipos aplicados a la medicina y a otras disciplinas. El diagnóstico con ultrasonido es cómodo, inocuo, seguro y sin riesgos para el paciente. Los niveles de potencia utilizados son 2 muy bajos; del orden de 0,01 a 0,04 W/cm . Los exámenes con ultrasonido son de uso externo o poco invasivos, permiten la visualización de órganos blandos, pueden repetirse cuantas veces se requiera y no exponen al paciente a radiaciones ionizantes.
PROPAGACIÓN DE LAS ONDAS SONORAS Las ondas sonoras se propagan en medios elásticos, es decir, en materiales donde las partículas que lo forman están vinculadas con sus vecinas por medio de una especie de banda elástica. En reposo las partículas están distribuidas en forma regular y el espacio entre una y otra es constante. Si en la superficie de este medio se presenta una perturbación acústica se propaga por su interior. La perturbación hace que las partículas superficiales oscilen respecto a su posición de reposo y transmiten el movimiento a sus vecinas. Las vecinas también entran en oscilación y transmitirán el movimiento, y así sucesivamente. Aunque la perturbación se propaga a lo largo del material, cada partícula oscila únicamente respecto a su posición inicial de reposo. El roce intermolecular hace que las partículas, en lugar de oscilar en forma indefinida, lo hagan progresivamente con menor amplitud, hasta detenerse en la posición inicial de equilibrio.
234
Alvaro Tucci R. La perturbación ocasiona la propagación de la energía en el sentido del impulso original, pero también afecta en menor grado las partículas vecinas. A pesar de este efecto lateral, se puede afirmar que las partículas vibran, y predominantemente transmiten energía cinética en un sentido dominante, a una velocidad determinada. Contrariamente a lo que sucede con la transmisión del calor, donde las partículas vibran en forma aleatoria, las ondas sonoras se propagan por los medios elásticos en forma "ordenada". La amplitud de su movimiento depende de la magnitud del impulso inicial, el tipo de banda elástica del medio donde se propagan y de la distancia de la partícula respecto al lugar donde se genera la perturbación. De acuerdo a la forma de propagación, las ondas sonoras se clasifican en longitudinales y transversales. ONDAS LONGITUDINALES Si en un medio elástico la perturbación inicial impulsa las partículas hacia la derecha, éstas chocarán con sus vecinas de la derecha y les transmitirán su movimiento; éstas lo transmiten a su vez a la derecha, y así sucesivamente. Por tal motivo, la perturbación se propaga preferentemente de izquierda a derecha. El movimiento oscilatorio de cada partícula es paralelo a la dirección en que se propaga la perturbación. A lo largo de su camino surgen compresiones y rarificaciones alternadas, donde las partículas se distribuyen en forma sinusoidal, como se muestra en la figura. 9.1. En este caso, como las oscilaciones tienen la misma dirección del movimiento de las ondas sonoras, se les llama longitudinales o compresivas. Las ondas longitudinales se propagan en medios sólidos, líquidos y gaseosos. En las regiones de compresión, donde hay aglomeración de partículas, la presión local es mayor que regiones de rarificación. Por eso, a lo largo de la vía de propagación se generan presiones que varían en forma sinusoidal. La distancia entre compresiones sucesivas se mantiene constante a lo largo de la trayectoria de la perturbación y se llama longitud de onda. La ubicación de las concentraciones y rarificaciones de partículas no se mantienen en un solo lugar respecto del medio, sino que se desplazan. La velocidad de desplazamiento es la velocidad de propagación del sonido en ese medio. Se concluye
235
Instrumentación Biomédica / Ultrasonografía entónces, que las vibraciones sonoras son ondas de presión distribuidas en forma sinusoidal, que viajan por un medio a una velocidad finita. El oído es sensible a estas variaciones si el rango de frecuencia está dentro de los límites audibles.
Figura 9.1. Onda acústica sinusoidal longitudinal
ONDAS TRANSVERSALES Las ondas transversales son aquellas donde el movimiento de las partículas es perpendicular a la dirección de propagación. Para visualizar el fenómeno se puede recurrir a la siguiente analogía: Cuando se agita una cuerda por un extremo las ondas se propagan a lo largo de la cuerda, pero las partículas que la forman siguen un movimiento perpendicular a la propagación. Aunque todos los materiales pueden ser medios de propagación para las ondas longitudinales, las ondas transversales se propagan únicamente en los sólidos. Para un mismo sólido, la velocidad de propagación de las ondas transversales es muy inferior a la velocidad de las ondas longitudinales. Esta característica se aprovecha, por ejemplo, para medir la distancia del epicentro de un temblor de tierra. Dicha distancia es proporcional al intervalo entre la "llegada" de las ondas longitudinales y transversales registradas por el sismógrafo. En relación con la propagación de las ondas sonoras, los tejidos de los mamíferos pueden considerarse como líquidos. En ellos, la componente transversal es insignificante respecto a la longitudinal. Por lo tanto, en el estudios de los tejidos biológicos
236
Alvaro Tucci R. por medio de ultrasonidos, se consideran únicamente las ondas longitudinales.
CARACTERÍSTICAS FÍSICAS Aunque el sonido se defina como una sensación audible, para los físicos consta de vibraciones mecánicas que generan variaciones de presión dentro de la frecuencia audibles o no. Las ondas sonoras, lo mismo que las de radio, las calóricas, la luz y los rayos X son oscilaciones sinusoidales. Las ondas sinusoidales se caracterizan por su frecuencia, amplitud, periodo, fase, intensidad y potencia. Frecuencia (f). Si una perturbación sonora se propaga en un medio, y un observador estático cuenta el número de oscilaciones por segundo que “pasan” frente a él; ese número es la frecuencia, y se expresa en Hertz (Hz).En términos de frecuencia, las ondas sonoras se clasifican en: Subsónicas o infrasonoras, 0 a 20 Hz. Audibles, 20 a 20.000 Hz. Ultrasonoras, las que exceden los 20.000 Hz. Las ultrasonoras para aplicaciones médicas están comprendidas entre 1MHz a 15 MHz La frecuencia empleada en el diagnóstico médico depende de la resolución requerida para un estudio determinado. Para la detección de estructuras anatómicas pequeñas se requieren frecuencias altas. La frecuencia determina la nitidez de las imagen y la calidad de los detalles que la componen, sin embargo, el poder de penetración de las frecuencias altas es menor. Período (T): Es el intervalo en el cual dos ondas consecutivas se repiten. Se expresa en segundos. El periodo es el valor recíproco de la frecuencia, así: f = 1/T Longitud de onda (λ):: Es la distancia en la cual dos ondas consecutivas se repiten, como por ejemplo entre una cresta y otra. Se expresa en unidades de longitud. Velocidad (c): Es la rapidez con que se desplaza una perturbación sonora en un medio. Es equivalente al número de oscilaciones por segundo multiplicado por la longitud de onda de cada oscilación, así: c=f.λ
237
Instrumentación Biomédica / Ultrasonografía Como la velocidad promedio en los tejidos de 1540 m/s, la longitud de onda y su frecuencia equivalente se muestran en la tabla 9.1. Nótese, que a mayor frecuencia menor longitud de onda. Tabla 9.1. Frecuencia (MHz)
Longitud de onda (mm)
1 2 3,5 5 10 15 20
1,54 0,77 0,44 0,31 0,15 0,10 0,08
La velocidad de propagación de las ondas longitudinales depende de la densidad y del contenido elástico del medio en que se propagan. La velocidad es dada por la siguiente ecuación: c=
1 rxB
donde r es la densidad del medio y B es su compresividad. En este momento, hay que notar la diferencia entre el movimiento de las partículas y la velocidad de propagación del sonido. Las partículas oscilan respecto a un punto de reposo. Su desplazamiento neto es nulo. En promedio permanecen en el mismo sitio. Mientras que la onda sonora se propaga en el medio a una velocidad finita. La máxima distancia que se mueven las partículas respecto a –8 su posición de reposo es del orden de 10 cm, el diámetro de un átomo, y su velocidad es del orden de algunos centímetros por segundo. Sin embargo, la presión que ejercen los agrupamientos y rarificaciones es grande, especialmente muy cerca del origen de la perturbación. En la tabla 9.2 se indica la velocidad con que se propaga el sonido en algunos materiales orgánicos e inorgánicos.
238
Alvaro Tucci R. Tabla 9.2 Material inorgánico Aluminio Cobre Níquel Acero Nylon Aceite Agua Goma Aire Oxígeno
Velocidad(m/s) 6400 4700 5600 6000 1850 1400 1400 1600 330 320
Material orgánico
Velocidad(m/s)
Grasa Cerebro Sangre Músculos Higado Riñones Tejido óseo
1540 1540 1570 1580 1585 1560 4080
In ten sidad. La intensidad de una onda sonora se define como la Inten tensidad. 2 cantidad de energía que “pasa” cada segundo por cm de área perpendicular a la dirección de la propagación. Se expresa en 2 2 2 w/cm , mw/cm , w/m o unidades similares. Para el diagnóstico ecosonográficos, se emplean valores comprendidos entre 1 y 2 100 mw/cm . Para la fisioterapia, que basa su acción en el calor generado en los tejidos por los ultrasonidos, se utilizan intensidades 2 de hasta 10w/cm . En aplicaciones quirúrgicas, donde se requiere la evaporación de los tejidos, o para la soldadura de la retina 2 desprendida, se emplean intensidades de hasta 1500 w/cm por pequeñas fracciones de segundo. Amplitud. La amplitud de una onda se define como el máximo cambio de presión generado por la onda misma. Cuando se genera una onda ultrasonora la energía pasa de la fuente al medio. Si la energía es alta, se produce una mayor presión, que se traduce en mayor velocidad de desplazamiento de las partículas, es decir, mayor energía cinética. A medida que la intensidad aumenta la amplitud también aumenta. El término es empleado también para describir la magnitud del eco. No es posible dejar este tema sin referirse al notable comportamiento del oído humano, capaz de detectar ondas sonoras -16 2 14 de tan baja intensidad como 10 w/cm hasta ondas 10 veces más intensas. Potencia. Aunque a veces se confunden la intensidad y la potencia de un haz ultrasonoro, no son cantidades idénticas. La intensidad es la cantidad de flujo sonoro por unidad de área. La potencia es la energía total del haz expresada en vatios.
239
Instrumentación Biomédica / Ultrasonografía
2
2
Potencia(w) = Intensidad(w/cm ) . Area del haz(cm ) La potencia de salida de los instrumentos para el diagnóstico médico normalmente es especificada por el fabricante. En los instrumentos Doppler, que generan un haz continuo, la potencia está comprendida entre los 5 y 50 mw. En los que producen impulsos ultrasonoros, es importante conocer la potencia promedio y la instantánea. La primera es de algunos milivatios, mientras que la segunda es de decenas de vatios. Reflexión, refracción y difracción. La refracción se refiere al cambio de dirección que experimenta una onda sonora al pasar de un medio a otro. Cuando encuentra una discontinuidad o interface, parte de la onda se refleja y parte se transmite con dirección diferente. Tal situación se muestra en la figura 9.2, donde se aprecia la onda transmitida y la onda reflejada o eco.
Figura 9.2. Reflexión y refracción de una onda
En la figura se observa cómo las ondas sonoras son reflejadas y refractadas al ser interceptadas por una interface plana. El ángulo de incidencia θi es igual al ángulo de reflexión θo mientras que el ángulo de la onda transmitida qt respecto a la incidente está relacionado por: Vi Vt
240
sen θt sen θi
Alvaro Tucci R. donde Vi y Vt representan la velocidad del sonido en el medio respectivo. Cuanto mayor es la diferencia de la impedancia acústica entre los dos medios mayor es el coeficiente de reflexión y la amplitud del eco. Este concepto es importante puesto que los equipos de ultrasonidos dedicados a la producción de imágenes se valen del eco para formarla. El físico francés Agustín Fresnel, demostró que existe la posibilidad de que una onda sonora que llega a una interface no se refleje en absoluto. Que lo haga, depende del tamaño comparativo de su longitud de onda en relación con el tamaño del obstáculo. Cuando el tamaño del obstáculo es igual o menor que la longitud de onda no hay reflexión, puesto que el haz sonoro se "desvía y lo rodea". A este fenómeno físico se le llama difracción. Por el contrario, si el obstáculo es considerablemente mayor que la longitud de onda, ésta se refleja. Un haz ultrasonoro con longitud de onda de 0,5 mm, que incide sobre cualquier obstáculo mayor de unos 2 mm, generará ecos detectables. Si el obstáculo es de 0,5 mm, la generación de ecos detectables es incierta. Si la superficie donde incide la onda no es plana, se produce una reflexión difusa, tal como se muestra en la figura 9.3.
Figura 9.3. Reflexión en una superficie rugosa
Frente de onda. Una perturbación sonora que se propaga por un medio tridimencional, crea superficies o frentes de onda de presión con altas y bajas concentraciones de partículas, que se alejan del punto inicial de la perturbación a la velocidad del sonido.
241
Instrumentación Biomédica / Ultrasonografía Si se generan ondas pulsantes de tres o cuatro ciclos, se producen sólo tres o cuatro planos de altas y bajas presiones, que se alejan de la fuente que las produjo. Fase. En la figura 9.4., tómese P como un punto de referencia estático, situado en un medio donde se está propagando el sonido. La fase de la onda en cualquier instante, se expresa como un ángulo en grados o radianes respecto al punto P. Una onda completa tiene 360°, por lo tanto el punto A está atrasado media onda o 180° respecto a P. El punto B lo está un cuarto de onda, o sea 90°. En cambio el punto D está adelantado 30° respecto a P, y F lo está 180°.
Figura 9.4. Fase de una onda
Diferencia de fase. fase Se dice que dos ondas de la misma frecuencia están en fase si ambas alcanzan su valor máximo positivo o negativo al mismo tiempo. Tal situación se muestra en la figura 9.5a. Dos ondas de la misma frecuencia están desfasadas 180º o en contrafase, cuando en el mismo instante una de ellas se encuentra en su valor máximo positivo y la otra en su máximo negativo, tal como se muestra en la figura 9.5b. La figura 9.6c muestra dos ondas desafiadas 90º. Evidentemente, el defasaje entre dos ondas puede ser de cualquier valor comprendido entre –180 o y +180º. Si dos o más ondas son transmitidas en un mismo medio, la fluctuación resultante de la presión en un punto dado se obtiene sumando las presiones aportadas por cada una. A este fenómeno se le llama interferencia. Si dos ondas de la misma frecuencia están en fase, las presiones se suman; si están en contrafase se restan, y hasta se anulan si son de la misma amplitud y frecuencia.
242
Alvaro Tucci R. En general, cuando se tienen dos o más ondas, desfasadas o no, la onda resultante se obtiene gráficamente sumando punto a punto la amplitud de cada una de ellas. También puede obtenerse la resultante mediante métodos matemáticos.
(a) 0ndas en fase
(b) 0ndas defasadas 180 grados
(b) 0ndas defasadas 90 grados
Figura 9.5. Ondas desfasadas
ULTRASONIDOS EN LOS TEJIDOS Otras consideraciones relacionadas con la interacción de las ondas ultrasonoras con los tejodos son las siguientes. VELOCIDAD DE PROPAGACIÓN La velocidad con que se propaga una onda ultrasonora en un medio depende de su densidad y compresibilidad. Mientras más rígido es el material, mayor es la velocidad de propagación; en los tejidos blandos es casi cinco veces mayor que en el aire, y en los huesos, doce veces. Para las frecuencias empleadas con fines de diagnósticos, no se observa variación de la velocidad con la frecuencia. Sin embargo, la velocidad varía con la temperatura; en el agua un aumento de 5ºC produce una variación de velocidad del 1%. En los estudios ultrasonográficos, donde se desea determinar la profundidad de las interfaces, es necesario conocer la velocidad del sonido. Su velocidad, multiplicada por la mitad del tiempo que
243
Instrumentación Biomédica / Ultrasonografía demora el eco en regresar al punto de emisión es igual a la profundidad. IMPEDANCIA ACÚSTICA La impedancia acústica (z), conocida también como impedancia característica, es la resistencia que ofrece un medio al paso de las ondas sonoras. Depende principalmente de elasticidad, densidad, frecuencia y tipo de onda. Para ondas sinusoidales y para las frecuencias empleadas en exploraciones médicas, la impedancia acústica es dada por: z=d.v 3
donde (d) es la densidad del medio, en gr/cm y (v) es la velocidad, en cm/seg. Si dos tejidos tienen impedancias acústicas diferentes, en su interface se genera un eco de magnitud proporcional a la diferencia, es decir: Δz = (d1 . v1) - (d2 . v2 ) Para que una estructura pueda ser detectada debe producir un eco de magnitud apreciable. Una masa de tejido puede ser registrada por medio del ultrasonido, si su impedancia acústica relativa al medio que la circunda es diferente. Muchas interfaces no se detectan por tener impedancias iguales o muy parecidas. La tabla 9.3 indica la impedancia acústica de algunos tejidos. Los equipos que detectan los ecos deben ser muy sensibles y selectivos, ya que la diferencia de impedancias entre los tejidos blandos es pequeña, por lo que la magnitud del eco también lo es. Sólo se produce reflexión considerable en las interfaces con los huesos. A partir de los valores de la tabla 9.3 se pueden hacer interesantes observaciones. Por ejemplo, se nota que la diferencia de impedancia entre el aire y los tejidos es grande, por lo que es de esperar que un haz incidente en la piel es fuertemente reflejado y la porción que la penetra es muy poca.
244
Alvaro Tucci R. Tabla
9.3 2
Material
v (m/s)
Z (gr/cm )10
Aire Grasa Aceite de castor Agua(20 C) Humor acuoso Humor vítreo Cerebro Sangre Riñón Tejido blando(promedio) Hígado Músculo Polietileno Lentes del ojo Hueso
0,0004 1,38 1,43 1,48 1,50 1,52 1,58 1,61 1,62 1,63 1,65 1,70 1,84 1,84 7,80
330 1450 1500 1480 1500 1520 1540 1570 1560 1540 1550 1580 2000 1620 3500
La tabla 9.4 muestra el porcentaje de reflexión que se da entre diferentes tejidos. Tabla 9.4 Agua – Hueso Agua – Cerebro Cerebro – Hueso Músculo – Hueso Sangre – Riñón Sangre – Cerebro
68 % 3,2 % 65 % 65 % 0,69 % 0,3 %
ATENUACIÓN Cuando el sonido se propaga en un medio, su intensidad decrece progresivamente. A esta disminución se le llama atenuación. La atenuación es propiciada por tres fenómenos concurrentes: absorción, divergencia y reflexión. En aplicaciones con fines de diagnóstico, la absorción es el mecanismo principal de atenuación. La energía es absorbida por los tejidos, debido al roce molecular generado por las mismas vibraciones sonoras. La energía utilizada para vencer el roce molecular, es convertida en calor dentro del mismo medio donde se propaga el sonido.
245
Instrumentación Biomédica / Ultrasonografía El coeficiente de absorción en tejidos blandos es proporcional a la frecuencia. Quizás dependa de la naturaleza compleja de las proteínas tisulares. Se ha demostrado que el 80% de la absorción que ocurre en los tejidos se debe a sus proteínas. La absorción comparativa para algunos tejidos es la siguiente: Tabla 9.5 Agua Sangre Tejido blando Hueso
0,002 0,2 1,0 20,0
La divergencia es otro factor que contribuye a la atenuación. Cuando un haz de ultrasonido se propaga tiende a divergir. El área por donde se propaga aumenta en la medida que el frente de onda se aleja de la fuente, por lo tanto, la intensidad del sonido por unidad de área disminuye. A medida que la frecuencia aumenta la divergencia disminuye. Para frecuencia mayores de 1 MHz las ondas son prácticamente paralelas. La atenuación por pequeñas reflexiones se produce cuando el haz ultrasonoro se propaga en medios no perfectamente homogéneos, como lo son las estructuras tisulares. En ellas, se interponen muchas pequeñas interfaces donde parte de la energía es reflejada, lo cual contribuye a atenuar la onda transmitida. ESPESOR MEDIO Es aquel espesor de material que al ser atravesado por una onda sonora reduce su intensidad a la mitad. Depende de la naturaleza del material y de la frecuencia de propagación. La figura 9.6 muestra la forma en que se atenúan las ondas sonoras. Las ondas mayor frecuencia se absorben más rápidamente. Para la frecuencia f1, la intensidad del haz ultrasonoro se ha reducido a la mitad para un espesor medio d1. Para la frecuencia f2, el espesor es menor. Tómese como ejemplo los tejidos blandos. En ellos, las ondas de 1MHz tienen un espesor medio de unos 5 cm, mientras que para 3 MHz, se reduce a 1,5 cm.
246
Alvaro Tucci R.
Figura 9.6. Atenuación de una onda sonora en función del espesor
EFECTOS DE LOS ULTRASONIDOS Cuando los ultrasonidos se propagan en los tejidos, el roce molecular hace que parte de su energía se transforme en calor. Su absorción, aparte del calentamiento, puede causar cavitación o efectos bioquímicos. El efecto más pronunciado es la generación de calor. Si la velocidad de producción excede la capacidad de disipación, la temperatura aumenta. En ciertas aplicaciones terapéuticas se aprovecha esta propiedad para aplicar calor en forma selectiva. Si la agitación de las partículas es muy grande se pueden producir cambios estructurales del medio. La cavitación, se refiere a la producción de burbujas de gas en el tejido sometido a ultrasonidos. Se forman en el transcurso de cada ciclo, en el momento de menor presión acústica. Durante el resto del tiempo, como la presión aumenta, las burbujas colapsan con apreciable liberación de energía. En la cavitación también puede ocurrir que las burbujas aumentan de tamaño y alcanzan dimensiones que les permiten resonar. Su resonancia causa alteraciones violentas de los tejidos circundantes. Este tipo de cavitación, llamada estable, no puede ocurrir en equipos que generan trenes de pulsos. La cavitación, se produce principalmente para altas intensidades, 2 del orden de los 10 w/cm y frecuencias del orden de los 30 KHz. En ultrasonografía con fines de diagnóstico, la intensidad 2 utilizada es menor que 100 mw/cm . Por lo tanto, la generación de
247
Instrumentación Biomédica / Ultrasonografía calor, los cambios estructurales de los tejidos y la cavitación son inexistentes. Para el nivel de intensidad utilizado para el diagnóstico, no se han reportado efectos nocivos.
GENERACIÓN DE ULTRASONIDOS La corneta, es el dispositivo común y más conocido que transforma la energía eléctrica en acústica. Está formada por un imán cilíndrico, alrededor del cual se coloca una bobina móvil, sostenida por el diafragma. La bobina se alimenta con corriente variable, la cual produce un campo magnético que al reaccionar con el campo del imán e impulsa el diafragma. El diafragma al moverse altera la condición estática del aire que lo circunda, generando presiones y depresiones que son captadas los órganos auditivos. Sin embargo, las cornetas no pueden vibrar a suficiente frecuencia para producir ultrasonidos. Su respuesta es limitada por la inercia de las masas en movimiento. Con diseños muy especiales se logran frecuencias de algunas decenas de kilociclos. El elemento capaz de convertir la energía eléctrica en sonora y viceversa, a frecuencias ultrasónicas, es el cristal piezoeléctrico. Los primeros materiales que se emplearon para la generación de ultrasonidos fueron el de cuarzo y la sal de Rochelle. Luego fueron reemplazados por cristales sintéticos como los de titanato de bario, sulfato de litio o zinconato y titanato de plomo. Estos últimos, más estables con las variaciones de temperatura, tienen mayor rendimiento y su costo es menor. El cristal piezoeléctrico debe estar conectado a dos electrodos, uno en contacto con la superficie de su cara anterior y el otro con la posterior. Estos contactos se obtienen por la deposición de una película metálica evaporada. Los cristales son montados en cabezales que se comunican con el resto del equipo por medio de un cable que contiene varios conductores. La forma y dimensiones del cabezal permiten su fácil manipulación. Presentan una ventana de plástico que se coloca en contacto con el paciente. De ella emergen y/o se reciben las señales de ultrasonido. La lámina de plástico y actúa como protección mecánica del cristal. Para máxima transferencia de energía entre el transductor y la
248
Alvaro Tucci R. piel, es necesario un buen acoplamiento de impedancias, lo cual se logra mediante la eliminación de la capa de aire que pudiera existir entre ellos. El aire es una barrera casi infranqueable para los ultrasonidos, debido a que se atenúa rápidamente en ese medio. La capa de aire se "desaloja" si se coloca entre ambas superficies una estrato de aceite, que actúa como acoplamiento de impedancias. El acoplamiento puede optimizarse seleccionando la viscosidad del aceite. Por la experiencia diaria relacionada con el sonido, se sabe que se propaga en todas direcciones y es muy difícil focalizarlo. Afortunadamente, con las altas frecuencias se pueden producir haces delgados, bien dirigidos y muy poco divergentes. Si los haces emergentes de un transductor tienen esas características, y además se enfocan, pueden producir imágenes de alta resolución. El enfoque se logra mediante el empleo de un cristal cóncavo, que actúa en forma similar a un lente óptico, o por un arreglo de cristales que se excitan en forma secuencial y enfocan el mismo punto. Cada transductor está construido para operar a la frecuencia natural de oscilación del cristal, que es determinada por sus dimensiones físicas. Para aplicaciones médicas, el diámetro de los cristales cilíndricos varía entre los 4 y 25 mm. La eficiencia de transducción del cristal es máxima si opera a esa frecuencia. Si actúa como transmisor, la conversión de energía eléctrica en sonora es máxima. Como receptor, la conversión es inversa y entrega máxima energía eléctrica. En algunos equipos de ultrasonido, la energía se emite en forma continua, mientras que otros transmiten ondas discontinuas. En los equipos que utilizan como principio de funcionamiento el efecto Doppler, el transductor está formado por dos cristales montados en el mismo cabezal, uno transmite continuamente y el otro, el receptor, permanece en espera de los ecos. Los equipos que transmiten en forma discontinua emiten trenes de ondas sinusoidales de muy corta duración a intervalos regulares, llamados pulsos. El envío de un tren de ondas, significa que una perturbación momentánea de algunos ciclos se propaga en un medio y en cada instante afecta una región limitada. La perturbación, que tiene de 1 a 2 mm de espesor, se aleja de la fuente y se refleja en las discontinuidades que encuentra en su camino.
249
Instrumentación Biomédica / Ultrasonografía En el intervalo entre pulso y pulso, el transductor permanece en “silencio”, en espera de las ondas reflejadas. De esta manera, el mismo cristal actúa como transmisor cuando emite y de receptor cuando recibe los ecos. Normalmente, el tiempo de transmisión es únicamente 1%, el 99% restante se dedica a la recepción. Si el transductor trabaja en modo pulsado, se coloca en la parte posterior del cristal un material de amortiguación, que evita que siga oscilando aun después de exitarse. Luego de emitir el tren de ondas, el material de amortiguación lo detiene rápidamente, para así poder detectar la llegada de los ecos. Los ecos excitan el cristal y hacen que oscile a su frecuencia natural de oscilación. Por efecto de la electrostricción, se generen pequeños voltajes entre sus caras, que posteriormente son amplificadas y utilizadas para generar la imagen. La figura 9.7a muestra un transductor de un solo cristal, en donde el haz emerge de la parte frontal, mientras que en el montaje de la figura 9.7b el haz emerge lateralmente.
Figura 9.7. Dos transductores de ultrasonidos que emiten en modo pulsado
CLASIFICACIÓN DE LAS TÉCNICAS DE EXPLORACIÓN La aplicación de técnicas ultrasonográficas en el campo de la medicina con fines de diagnóstico se remontan al año 1937. Para esa época, se empleaban en forma similar a como lo hacen los rayos X. Se transmitían a través del cuerpo y se registraba la magnitud de la atenuación en diferentes áreas. Para satisfacer las crecientes necesidades de diagnóstico se desarrollaron equipos que emplean diferentes técnicas y principios,
250
Alvaro Tucci R. los cuales, de acuerdo a la forma de producir la exploración, se clasifican en: Modo A, Modo B, Tiempo real, Tiempo-movimiento (TM mode) y efecto Doppler. La técnica de barrido en Modo A (A scanning) se desarrolló en 1945, cuando entraron en el mercado nuevos componentes electrónicos que permitieron su implementación. El Modo B apareció a principios de los años 50, seguido por la técnica de exploración tiempo-movimiento. El primer instrumento basado en el efecto Doppler de onda continua lo hizo en 1958, y los de onda pulsátil en 1969. A principio de los años 70 se desarrollo la técnica de escalas de grises y de barrido en tiempo real. Las conversiones analógico/digitales para almacenamiento y procesamiento de imágenes se emplearon a partir de 1974.
EXPLORACIÓN EN MODO A El método más simple y fácil de usar es la exploración en Modo A. Su nombre implica modulación de amplitud (Amplitud modulation). Se le conoce también como Presentación en modo A o A Scan mode.
Figura. 9.8. Formación de la imagen por medio de ecos con presentación en modo A
Con esta exploración, la imagen resultante suministra información referente a la distancia entre la superficie del transductor y las interfaces de los tejidos. Es empleada para el estudio de estructuras anatómicas simples donde se requieren medidas de profundidad, como por ejemplo, la determinación de la
251
Instrumentación Biomédica / Ultrasonografía línea media del cerebro o el diámetro del bulbo ocular. A veces sus imágenes son utilizadas como complemento de otros estudios ultrasonográficos. El transductor es de un solo cristal, actúa como transmisor y receptor. Con el transductor se “apunta” en la dirección de interés y se detectan los ecos producidos por las interfaces. La figura 9.8 muestra la gráfica de los ecos reflejados por las interfaces tisulares. De las figuras anteriores se concluye que: Tiempo de ida y vuelta
Profundidad = Velocidad
2 Para un tiempo de ida y vuelta de 80μs, la profundidad de la interface es: -6
Profundidad = 1540
80 x 10 2
= 6,2 cm
INSTRUMENTOS QUE OPERAN EN MODO A El instrumento básico que opera en modo A está constituido por los bloques mostrados en la figura 9.9.
Figura 9.9. Diagrama en bloques de un instrumento que opera en modo A.
El generador de pulsos produce señales de sincronismo que se emplean para disparar simultáneamente el generador de alto voltaje, la unidad TGC (Time-Gain Compensation) y el generador de base de tiempo del CRT (Tubo de Rayos Catódicos). La señal de
252
Alvaro Tucci R. sincronismo, cuya repetición es determinada por el fabricante del equipo, está comprendida entre los 200 y 1500 pulsos por segundo. Cuando el generador de alto voltaje recibe esta señal, produce un tren de ondas sinusoidales de unos 300 voltios con duración de 0,5ms, que induce al cristal de 2MHz a que oscile a su frecuencia natural. Cada tren de ondas es transformado por el cristal en un incremento súbito de energía ultrasonora, conocido como burst, con duración de algunos microsegundos. Después de transcurrido este tiempo, el cristal se detiene y queda en “silencio” en espera de los ecos que pudieran regresar. El impulso de energía ultrasónica dirigido hacia los tejodos, seguramente se encuentra con interfaces de distintas impedancias acústicas localizadas a diferentes profundidades. Las interfaces generaran ecos cuya amplitud es proporcional a la diferencia de sus impedancias. Los ecos son parte de la energía sonora que “rebota” en las interfaces y regresan al transductor cuando el cristal está en “silencio”, y como son de la misma frecuencia, lo inducen a que vibre. Las vibraciones hacen que entre las caras del cristal se generen pequeños voltajes, no mayores de algunos milivoltios. El tiempo que transcurre entre el envío del tren de pulsos y su eco es proporcional a la profundidad de la interface, mientras que la amplitud del voltaje generado por el cristal está relacionado con las características de la interface que lo produjo. El voltaje generado por los ecos es de muy pequeña amplitud. El amplificador de R.F.(Se llama amplificador de radio frecuencia, debido a que las señales que debe amplificar están en ese rango) se encarga de incrementar su nivel hasta algunos voltios. Dicho voltaje, después de procesado por el demodulador y el amplificador de video, es aplicado a las placas de desviación vertical del osciloscopio (CRT) u otro dispositivo de visualización. En consecuencia, la magnitud de la desviación vertical es una medida de la intensidad del eco. Para que el ecosonograma sea inteligible, es necesario que el barrido horizontal del CRT se inicie en el preciso momento en que el cristal entre en estado de “silencio”, de forma que mientras transcurre el barrido horizontal se reciben los ecos. La desviación horizontal es proporcional al tiempo tomado por
253
Instrumentación Biomédica / Ultrasonografía la onda sonora para alcanzar la interface y regresar, por lo tanto, es expresión de la medida de la profundidad a que se encuentra la interface. Dicha profundidad, puede leerse directamente en la escala calibrada de la pantalla del dispositivo de visualización. Entre la emisión de un tren de pulsos y otro, debe transcurrir el tiempo suficiente para permitir que los ecos provenientes de las interfaces más lejanas retornen y sean detectados por el transductor. Sólo entonces se debe emitir el siguiente impulso. Su frecuencia de repetición depende de la profundidad de las interfaces más alejadas que se pretendan registrar. Como la velocidad promedio de los ultrasonidos en los tejidos es de 1540 m/seg y el transductor tiene una profundidad máxima de detección de 10 cm, la repetición de los trenes de pulsos no debe exceder de 1540/0,2 = 7700 pulsos por segundo La frecuencia de repetición de pulsos en equipos comerciales para diagnóstico varía entre 200 y 1500. El objetivo del Limitador, mostrado en la figura 9.9, es "acoplar" al Amplificador los pequeños voltajes provenientes del transductor y evitar que los impulsos de alto voltaje que alimentan el cristal lo alcancen. La ganancia del amplificador de RF es gobernada por la Unidad TGC o unidad de compensación tiempo-ganancia. Dicha unidad hace que la ganancia varíe con el tiempo; es decir, amplifica más aquellos ecos que tardan más en alcanzar el transductor. Su principio de funcionamiento será analizado más adelante en este capítulo. A fin de obtener una imagen “limpia y nítida", los ecos amplificados son rectificados, filtrados y “alisados” por el demodulador. En esta etapa, también se elimina el ruido y los ecos de baja amplitud. El tratamiento que reciben se muestra en la figura 9.10. Finalmente, el amplificador de video incrementa la amplitud de los impulsos hasta algunas decenas de voltios, que aplicados al dispositivo de visualización producen la desviación vertical de algunos centímetros.
254
Alvaro Tucci R.
Figura 9.10. Procesamiento de la señal en el demodulador
La imagen de los ecos se muestra en la pantalla a la frecuencia de repetición del generador de impulsos. El tubo de rayos catódicos está recubierto con fósforo de baja persistencia. Las imagenes pueden ser almacenadas en la memoria del sistema y/o impresas para su futura utilización. La presentación en Modo A se emplea para la explorar pequeñas áreas, como en el ojo, el corazón y los vasos. Los equipos que lo utiliza son de bajo costo y para uso específico.
EXPLORACIÓN EN MODO B En la exploración en Modo A, un haz delgado de ultrasonido se dirige a los tejidos. La magnitud del eco y el tiempo de tránsito aportan datos suficientes para el estudio de ciertas estructuras tisulares simples. Sin embargo, en la mayoría de los casos, las estructuras anatómicas son bastante complejas, de manera que su identificación, localización y forma se obtienen más fácilmente si se emplea la información procedente de muchas líneas de eco, como es el caso de la exploración en Modo B. La letra B proviene de la palabra inglesa Brightness, equivalente a brillantez. La forma de generar información, es "recolectando" datos de
255
Instrumentación Biomédica / Ultrasonografía muchos ecos provenientes de las interfaces para luego construir imágenes bidimensionales. Normalmente se generan unas 500 líneas por segundo, suficientes para producir resultados de buena calidad. Los equipos comerciales utilizan dos métodos para crear las múltiples líneas de información: 1. Mediante el empleo de un transductor de un solo cristal que oscila respecto a un eje. 2. Por medio de un transductor compuesto, formado por múltiples cristales. En el primer caso, la imagen es generada cuando el transductor oscila continuamente respecto a una posición central, como si fuera un columpio. El arco que recorre es normalmente limitado a 90º, que es su "campo visual". Durante su recorrido, emite trenes de ultrasonidos y recibe los ecos de todas las líneas de información, que debidamente procesados dan origen a una imagen bidimensional.
Figura 9.11. Exploración en modo B con transductor oscilante de un solo cristal
En el cabezal, esquematizado en la figura 9.11,se observa el motor y las levas encargadas de hacer que el cristal oscile con respecto a un eje. Los trenes de impulsos ultrasonoros se generan en el origen y se propagan en forma de abanico por el órgano de interés. Durante su propagación, se encuentran con discontinuidades que los refleja. Los ecos reflejados son
256
Alvaro Tucci R. detectados por el mismo cristal, convertidos en puntos de brillantez variable y proyectados sobre una pantalla. Los puntos son de intensidad modulada; su brillantez es proporcional a la magnitud del eco que los produjo. El resultado es una imagen bidimensional compuesta por puntos con diferente luminosidades. Como el cristal emite los ultrasonidos en forma de abanico, la imagen es deformada, aumenta en tamaño a medida que se aleja del transductor. En el segundo caso, la presentación en modo B es generada con un transductor compuesto. Consiste en un arreglo de cristales piezoeléctricos colocados en línea, uno al lado de otro. Los cristales se excitan en forma secuencial, uno a la vez, y uno a la vez irá recibiendo los ecos generados por su mismo haz. Los datos "recogidos" provienen de líneas de exploración paralelas, por lo tanto no producen deformación de la imagen. El principio de funcionamiento de este sistema es mostrado en la figura 9.12. Al igual que en el caso anterior, la imagen está formada por puntos luminosos de diferentes intensidades. La posición de cada punto en pantalla está relacionada con la profundidad de la interface, mientras que su brillo es proporcional a la magnitud del eco que lo produjo. Este sistema de representación se le conoce como registro por escala de grises (Gray Shade Recording), puesto que emplea toda una variedad de puntos, desde el más brillante hasta el más opaco. En la imagen que se forma en el monitor, la desviación horizontal es producida por el generador de base de tiempo, la desviación vertical es proporcional a la profundidad de la interface y el brillo de los puntos, a la magnitud del eco.
Figura 9.12. Método básico de producción de imágenes utilizando un transductor compuesto por un arreglo lineal de cristales
257
Instrumentación Biomédica / Ultrasonografía A fin de modular la brillantez de cada punto de información, la señal producida por el eco, después de procesada, se aplica entre cátodo y grilla del tubo de rayos catódicos del monitor. La conversión de la magnitud del eco en brillantez puede ser lineal o seguir otra función. Una conversión no lineal podría ser logarítmica, que se logra mediante el empleo de un amplificador logarítmico. Su característica es incrementar la brillantez de los ecos de menor amplitud, es decir, aquellos provenientes de interfaces con poca diferencia en impedancia acústica. Con la amplificación logarítmica se logra descubrir detalles anatómicos que, de no ser procesados de esta forma, pasarían desapercibidos. Con la amplificación logarítmica se logran imágenes con más detalles y de mejor calidad. Otra forma de conversión no lineal es mediante el empleo de convertidores digitales, cuyo principio de funcionamiento se analizará más adelante en este capítulo. La imagen obtenida en Modo B es normalmente almacenada en la memoria del convertidor de barrido (Scan converter memory). Esta información puede ser procesada digitalmente, reproducirse, imprimirse en papel, borrarse o ser "manipulada" mediante las técnicas de computación. INSTRUMENTOS QUE OPERAN EN MODO B El instrumento básico que opera en Modo B esta formado por los bloques mostrados en la figura 9.13. Para obtener imágenes de buena calidad debe ser operado por personal competente. La manipulación óptima de los controles del instrumento esta asociada a ciertos conocimientos anatómicos y clínicos, por lo que normalmente el mismo médico especialista los manipula. El cabezal esta sostenido por un sistema de "brazos" mecánicos que le permite gran libertad de movimiento y además proporciona información precisa y contínua de la posición y dirección del haz ultrasonoro. La figura 9.14, muestra un sistema mecánico que suministra los datos con los cuales se determinan las coordenadas de posición y dirección del haz. El sistema consta de cuatro potenciómetros que se mueven en correspondencia con los ángulos de las articulaciones. Tres de ellas son mostradas en la figura; la cuarta corresponde a la rotación del transductor.
258
Alvaro Tucci R. Los ángulos de las articulaciones mecánicas también podrían ser detectados por medio de sensores ópticos o magnéticos, que por no poseer partes móviles, estarían libres de desgaste y mantenimiento.
Figura 9.13. Diagrama en bloques de un instrumento que opera en Modo B
El Registro de Señales, detecta los ángulos y acondiciona la información para que sean interpretadas por el Convertidor de Barrido. El convertidor suministra los voltajes X-Y, que aplicados a las placas del monitor reproducen las coordenadas. El Generador de Pulsos, suministra la potencia necesaria para alimentar el transductor. El sistema electrónico para la generación de impulsos y detección de ecos es similar al descrito para al barrido en Modo A. La diferencia fundamental estriba en que la señal del eco es empleada para modular la brillantez de los puntos en la pantalla del monitor. En la Unidad TGC están los controles de Ganancia Cercana, Ganancia Lejana, Inicio de Pendiente y Pendiente. En el amplificador de Radio Frecuencia se encuentra el control de ganancia, que determina la amplificación total del sistema. Los pequeños ruidos o artefactos son eliminados en el Demodulador. Para cada eco, en el Convertidor de Barrido (Scan Converter) llegan
259
Instrumentación Biomédica / Ultrasonografía tres señales X, Y, Z: Las señales X e Y son las que determinan la posición del haz en la pantalla del monitor, y la señal Z, modula su brillantez. En el Convertidor se procesa la imagen y se implementa el sistema de acercamiento o “zoom”. Los controles de Foco, Brillantez, Contraste e Iluminación de la escala están en el Monitor.
Figura 9.14. Sistema mecánico para determinar la posición del transductor
EXPLORACIÓN EN TIEMPO REAL La exploración en tiempo real permite la visualización de órganos en movimiento. Su principio de funcionamiento es similar a una filmación; se producen 25 imágenes por segundo. A esta presentación se le llama también barrido tiempo–movimiento (T-M scanning), barrido tiempo–posición (T-P scanning), barrido de movimiento (M scanning), y aplicado a la cardiología se le conoce como ecocardiografía o cardiografía ultrasónica. En la exploración en tiempo real, el proceso básico de producción de imágenes consiste en relacionar la posición del eco, producido en la sección anatómica que se está explorando, con las coordenadas X-Y en la pantalla del monitor. La mayor parte de lo expuesto para la exploración en Modo B es aplicable al barrido en tiempo real, hasta tal punto que muchos equipos se construyen para cumplir ambas funciones. En la figura 9.15 se pone de manifiesto su similitud y diferencia. En los sistemas de exploración en Tiempo Real, la formación de una imagen (one frame) se completa en 25 ms. Durante ese tiempo se producen unas 100 líneas de ecos. La calidad de la imagen es inferior a la exploración en Modo B, donde la imagen se produce
260
Alvaro Tucci R. con unas 500 líneas por segundo. Sin embargo, se han implementado métodos de procesamiento para mejorar su calidad.
Figura 9.15. Relación entre barrido en Modo B y en tiempo real
En los equipos de exploración en Tiempo Real, se generan y visualizan de 20 a 40 imagenes o cuadros por segundo. Debido a esta rápida sucesión, el movimiento en la pantalla aparece como si fuera continuo. Esta presentación permite la observación de interfaces en movimiento, como las válvulas cardíacas. La rápida sucesión de imágenes es posible debido a la alta velocidad con que se transmiten los ultrasonidos en los tejidos. El tiempo que transcurre entre la transmisión y la recolección de ecos es del orden de los 0,25 ms. En la exploración en tiempo real hay dos factores que intervienen en la calidad de la imagen: el número de líneas de ecos por imagen y el ángulo visual. El número de líneas es limitado por la velocidad con que deben producirse las imágenes y el ángulo visual no es mayor de 90º, ya que es difícil diseñar transductores que se adapten al contorno del cuerpo y que tengan ángulos mayores. El término Barrido en Tiempo Real, aplica a instrumentos con capacidad de generar por lo menos 15 cuadros por segundo. Algunos instrumentos, diseñados para producir menos cuadros con mayor densidad de información, son adecuados para el estudio de tejidos estáticos o de movimiento lento. Los instrumentos de barrido en Tiempo Real se emplean fundamentalmente para visualizar la acción del corazón. También se utilizan para el estudio del movimiento de órganos que se muevan rápidamente, como los vasos, el corazón del feto, el
261
Instrumentación Biomédica / Ultrasonografía movimiento ocular, las paredes faríngeas, la respiración fetal y las contracciones estomacales. Algunos instrumentos de barrido en tiempo real permiten que se le adapten otras unidades y convertirlos al Modo B. La selección entre los equipos de exploración en Modo B o en Tiempo Real depende de las aplicaciones a las cuales se les destina. Posteriormente en este capítulo se verá cuales son las limitaciones y aplicaciones de cada uno de éllos. INSTRUMENTOS QUE OPERAN EN TIEMPO REAL Los transductores de los instrumentos de barrido en tiempo real emiten el haz de ultrasonido en un abanico de direcciones. Los ecos que reciben de esas mismas direcciones son empleados para producir la imagen. Los principales tipos de transductores utilizados en equipos de Tiempo Real se muestran en la figura 9.16. La forma más simple de obtener la imagen es por medio del transductor oscilante, mostrado en la figura 9.16a. Este transductor tiene un solo cristal, que oscila en forma similar a un columpio, movido por un mecanismo que incorpora un pequeño motor eléctrico. El campo visual del instrumento es limitado a unos 90º. Se emplea principalmente para la exploración de pequeñas áreas como el corazón, el ojo, los vasos sanguíneos. Es empleado en equipos específicos y de bajo costo. La figura 9.16 b muestra el transductor rotativo, formado por cuatro cristales idénticos montados sobre una rueda. Los cristales son activados uno a la vez cuando pasan frente a la ventana, de forma que el haz es dirigido hacia la parte frontal. El conjunto está colocado dentro de un cilindro plástico lleno de aceite. Tanto el cilindro como el aceite son buenos transmisores de ultrasonido. La rotación de los cristales se obtiene por medio de un pequeño motor eléctrico situado dentro del cabezal. Como los cristales pasan en forma secuencial frente a la ventana, se obtienen cuatro imágenes por revolución. El ángulo visual es normalmente 90º, pero si se activan dos cristales consecutivos a la vez, el campo visual se incrementa a 180º. El barrido PPI (Plan Position Indicator), es una técnica de exploración en tiempo real con campo visual es de 360º. El cabezal, que contiene el transductor, se introduce en orificios como la vagina o el recto. El cristal, activado continuamente, gira dentro del cabezal y explora
262
Alvaro Tucci R. todos los tejidos a su alrededor. La misma función se puede lograr con dos cristales que "apuntan" en direcciones opuestas.
Figura 9.16. Tipos de transductores para barrido en tiempo real: (a) Transductor oscilante; (b) Transductor rotativo; (c) Transductor para barrido PPI; (d) Tranductor con arreglo lineal de cristales.
El cristal, que está colocado dentro de una cápsula de plástico como la mostrada en la figura 9.16c, rota continuamente y emite un haz de ultrasonido en ángulo recto respecto al eje del cabezal. En los sistemas de presentación en tiempo real, donde el cristal oscila o rota, pudiera pensarse que su movimiento distorsiona la imagen debido a que el eco se recibe cuando el cristal no está en la misma posición de que cuando emitió el haz. Puede demostrarse que la distorsión debida a este hecho es despreciable; el tiempo que transcurre entre el momento en que se emite el haz y la recepción del eco, es muy pequeño en comparación con el ciclo de rotación. Para una velocidad de propagación de 1540 m/s y una profundidad de penetración de 8 cm, el tiempo que transcurre entre la emisión y la recepción del eco es:
263
Instrumentación Biomédica / Ultrasonografía
t=
0,16 1540
= 0,104ms
Si el cristal realiza dos revoluciones por segundo, en ese tiempo o habrá rodado 0,075 . Por lo tanto puede asumir que está estático. La figura 16d muestra un cabezal con transductor lineal, formado por varios cristales, colocados uno al lado del otro, que se activan en forma secuencial por grupos. De estas forma se transmiten haces finos y paralelos de ultrasonidos que se desplazan a lo largo del transductor y cuyos ecos generan rápidamente la imagen. El eco es detectado por el mismo grupo de cristales que lo produjo. Los transductores con arreglo lineal incorporan de 20 a 400 cristales acústicamente aislados. Un transductor típico de 3,5 MHz consta de 100 cristales que ocupan una longitud de unos 12 cm. Para generar el haz pulsado de ultrasonido, los cristales se activan por grupos; por ejemplo, el 1, 2, 3, 4 y 5, luego el 2, 3, 4, 5 y 6 y así sucesivamente. El haz ultrasonoro avanza 1 mm a la vez, hasta completar la longitud completa del transductor. Con los 100 cristales se crearán 96 líneas de información que darán origen a la imagen. El haz producido por este transductor se desplaza de un extremo al otro del cabezal. Comienza con el cristal de un extremo y termina con el cristal del extremo opuesto, para luego repetirse la operación. Por ello se dice que el transductor es de barrido lineal. La forma del haz de ultrasonidos es rectangular; es el producto de la longitud del arreglo de los cristales por su ancho. Los transductores, cualquiera que sea su tipo, son de frecuencia fija, estandarizada, por ejemplo, 3,5; 5; o 7,5 MHz. Para cambiarla es necesario reemplazar el cabezal completo. Se fabrican cabezales a los cuales se les puede cambiar únicamente el cristal, pero no son prácticos y su costo es elevado. Algunos equipos tienen la posibilidad de "enfocar" los tejidos que se encuentran a una "profundidad" determinada. La imagen se forma únicamente con ecos provenientes de esa profundidad. Si el equipo dispone de un control de profundidad, el operador está en capacidad de explorar planos a diferentes distancias del transductor.
264
Alvaro Tucci R.
RESOLUCIÓN Para cualquier técnica de formación de imágenes es importante conocer cuál es la resolución del equipo, es decir, cuál es la interface más pequeña que el instrumento puede reconocer y ser visualizada. La resolución expresa la capacidad de un equipo para mostrar los detalles estructurales de los tejidos. Con instrumento de alta resolución se pueden observar detalles tisulares mas finos, lo que da origen a imagenes de mejor calidad. La resolución también puede definirse como distancia mínima a la cual se pueden distinguir dos puntos reflejantes como tales. Para medirla, se recurre al concepto de resolución axial, resolución lateral y resolución temporal.
Figura 9.17. Resolución axial con diferentes longitudes de Onda
Resolución axial o de profundidad, se refiere a la habilidad del instrumento para producir ecos separados de estructuras que se encuentran una detrás de la otra a lo largo del haz ultrasonoro. Depende de la longitud del tren de impulsos transmitidos; mientras más corto es el tren mejor es la resolución. La frecuencia de la onda ultrasonora determina el límite de la resolución. Las estructuras que se encuentran separadas menos que una longitud de onda no podrán ser diferenciadas. En la figura 9.17A, se observa que la separación de los objetos es mayor que la longitud del tren de ondas y sus dimensiones son mayores que la longitud de onda, por lo tanto, se generan dos ecos que claramente los identifican. En la figura 9.17B, la separación
265
Instrumentación Biomédica / Ultrasonografía de los objetos es menor que la longitud de onda, por lo que no se genera ningún eco. Resolución lateral, es la habilidad del instrumento para producir ecos separados de estructuras que se encuentran una al lado de la otra; La resolución lateral depende fundamentalmente del ancho del haz. La figura 9.18a muestra un haz estrecho, que al moverse en forma vertical da origen a dos ecos. La figura 9.18b ilustra un haz más ancho que abarca los dos estructura simultáneamente, al moverse en forma vertical da origen a un solo eco.
Figura 9.18. Efecto del ancho del haz en la resolución del sistema.
La resolución lateral mejora si se incrementa la frecuencia. Para frecuencias altas, el tren de ondas es de menor duración y más estrecho, puesto que el cristal que lo genera es más pequeño. Un scanner de 3 MHz tiene una resolución axial de 1 mm y una lateral de 3 mm. El mismo instrumento de 5 MHz tiene resolucion de 0,5 mm y 2 mm respectivamente. Sin embargo, debe notarse que a medida que se aumenta la frecuencia el poder de penetración disminuye. Resolución temporal, se define como la habilidad de separar eventos en el tiempo. Aplica únicamente al scanner de tiempo real. La resolución temporal depende del número de imágenes por segundo. Treinta imágenes por segundo son normalmente suficientes para visualizar satisfactoriamente la mayoría de los órganos del cuerpo humano en movimiento, excepto quizás los más rápidos movimientos cardíacos, como por ejemplo, el aleteo de la válvula mitral.
PRESENTACIÓN DE LA IMAGEN Los señales correspondientes a los ecos son procesadas electrónicamente, de forma que el operador pueda relacionar las
266
Alvaro Tucci R. estructuras tisulares con la imagen. Para presentar la imagen se emplea la pantalla de un tubo de rayos catódicos (CRT), representada en la figura 9.19. Los equipos de construcción reciente, emplean monitores de pantallas planas de cristal líquido(LCD) de alta resolución . La presentación de la imagen en el monitor depende del modo. En el Modo A, la desviación vertical está relacionada con la amplitud de los ecos. Las señales eléctricas, proporcionales a los ecos, son aplicadas a las placas de desviación vertical del tubo de rayos catódicos.
Figura 9.19. Estructura básica de un tubo de rayos catódicos.
Los equipos de vieja generación emplean el CRT con memoria, en ellos, la imagen permanece almacenada en la pantalla hasta que el operador decida borrarla. Este sistema ha sido reemplazado por los convertidores de barrido, los cuales almacenan las imágenes en su memoria digital antes de ser enviadas al CRT. Las medidas de las pantallas de los monitores varia desde 3 por 4 cm hasta 30 por 40 cm. Las pantallas grandes son más adecuadas para detectar y visualizar movimientos pequeños. Las pequeñas se emplean en equipos portátiles. La recubierta con fósforo blanco o de colores son es la más recomendable; en ella, se presenta las imagen con tonos grises o colores de alta calidad.
VELOCIDAD La velocidad se refiere al número de imágenes por segundo que genera el equipo. A medida que aumenta la velocidad el número
267
Instrumentación Biomédica / Ultrasonografía de líneas que la forman disminuye. En los equipos de barrido en tiempo real, no es posible aumentar el número de líneas mas allá de cierto valor, puesto que todo el tiempo disponible es empleado en la recepción de los ecos. Existe un compromiso entre la velocidad de presentación de las imágenes y la densidad de las líneas. Si se explora un órgano con la velocidad de 20 imágenes por segundo, el número de líneas por imagen podría ser 160. Si se incrementa el número de imágenes a 40, las líneas se reducen a 80. La velocidad de presentación de la imagen está relacionada con la rapidez con que se mueve el blanco en estudio. Para un blanco que se mueve rápidamente, a pesar de la pérdida de detalles, es preferible una velocidad elevada. Para velocidades inferiores a 20 imágenes por segundo se produce un parpadeo inaceptable. Posteriormente en este capítulo, se describiran algunas técnicas para mejorar la presentación de las imágenes, aun cuando se emplean bajas velocidades.
EL EFECTO DOPPLER El efecto Doppler se presenta cuando una fuente de sonido, el observador, o ambos se mueven uno respecto al otro. La frecuencia del sonido que percibe un observador, situado a cierta distancia de un objeto sonoro que se le acerca, es mayor que la observada cuando se aleja. La figura 9.20 muestra en forma gráfica cómo es afectada la frecuencia cuando existe movimiento relativo entre la fuente emisora de sonido y un móvil. En la figura 9.20a se representa el movimiento de ondas sonoras paralelas, con referencia a un observador estacionario. La frecuencia (f) oída por el observador en función de la velocidad del sonido (c) y su longitud de onda (l), está dada por: f=
c λ
En la figura 9.20b, el observador se acerca con velocidad (v) a la fuente de sonido, la frecuencia (fo) que percibe es dada por: fo =
268
c+v λ
Alvaro Tucci R. La relación entre ambas frecuencias es dada por: fo f
= 1+
v c
En la figura 9.20c, el observador se aleja de la fuente de sonido con velocidad (v), la frecuencia (fo) que oye es dada por: fo = f
c-v λ
En la figura 9.20d, el observador se mueve con velocidad (v) y ángulo θ en el sentido indicado. La frecuencia que oye será: c - v.cos θ fo = λ En la figura 9.20e, el sonido incide con un ángulo θ en una interface móvil que se aleja del observador. El observador estático percibe el eco cuya frecuencia es: fo =
c - 2v.cos θ λ
La relación entre frecuencias es: fo f
1-
1-
(2v.cos θ )
por lo tanto: fo = f
2v.cos θ
=
c
….......…( 9.1)
c
El eco ultrasonoro, proveniente de las estructuras estáticas, tiene la misma frecuencia que el emitido por el transductor. Mientras que la frecuencia del eco reflejado por interfaces en movimiento, sufre una desviación. La diferencia de frecuencias puede transformarse en una señal indicadora del movimiento. Los equipos médicos, que basan su funcionamiento en el efecto Doppler, detectan la variación de frecuencia causada por la reflexión del sonido generado por una fuente fija cuando incide en una discontinuidad móvil.
269
Instrumentación Biomédica / Ultrasonografía Son empleados para medir la velocidad del torrente sanguíneo, el movimiento de las válvulas del corazón, o de las arterias en respuesta a un pulso de presión, los latidos del corazón del feto, la localización precisa de la placenta, la detección de embarazos múltiples y otras aplicaciones donde esté presente algún tipo de movimiento.
Figura 9.20. El efecto Doppler en diferentes situaciones
En el útero, ocupado por el feto, se identifican algunos ecos característicos de importancia clínica. El más intenso es el latido fetal, que es debido al paso de sangre por las arterias del feto. Según las estructuras en las que se oriente el haz ultrasonoro, se
270
Alvaro Tucci R. identifica un sonido placentario característico, utilizado para localizar la placenta.
MEDIDA DE LA VELOCIDAD DEL FLUJO SANGUÍNEO La velocidad del flujo sanguíneo se puede determinar de dos maneras: mediante el cambio de frecuencia por Efecto Doppler o midiendo el tiempo de tránsito. El primero responde a la diferencia entre la frecuencia emitida (f) y la reflejada (fo), así: Δf = f - fo
…….( 9.2)
reemplazando (9.1) en (9.2) se obtiene: 2v.f.cos θ
..…….( 9.3) c La diferencia en frecuencia se determina por medio del un sistema mostrado en la figura 9.21 Δf =
Figura 9.21. Diagrama en bloques de un equipo basado en el efecto Doppler
La velocidad del flujo sanguíneo puede calcularse a partir de la ecuación siguiente, derivada de la (9.3). Así: v=
Δf c 2f cos θ
271
Instrumentación Biomédica / Ultrasonografía donde: Δf f θ c v
es la diferencia de frecuencias. es la frecuencia del generador. es el ángulo que forma el transductor con el vaso. es la velocidad del sonido es la velocidad de la sangre
Otra forma para medir la velocidad de la sangre en un vaso se efectúa por medio de la determinación del tiempo de tránsito. El diagrama en bloques del equipos es mostrado en la figura 9.22.
Figura 9.22. Diagrama en bloque de un medidor de flujo sanguíneo basado en la medida del tiempo de tránsito.
La distancia D, que viaja el sonido en el sentido de la corriente sanguínea es dada por: D = Td (c + v cos θ) donde: Td es el tiempo de tránsito en sentido de la corriente. c
es la velocidad del sonido en la sangre.
v
es la velocidad de la sangre en el vaso.
θ
es el ángulo de incidencia del haz ultrasonoro respecto al vaso.
En el sentido de la corriente sanguinea, la velocidad del sonido se incrementa debido a que es “arrastrado”, por lo tanto, el tiempo
272
Alvaro Tucci R. de tránsito empleado para recorrer una distancia dada es menor. La distancia D que viaja el sonido en sentido inverso a la corriente sanguínea es dada por: D = Ti (c – v cos θ) La diferencia en el tiempo de tránsito ΔT es: 2v D cos θ
ΔT = Ti – Td
2
c +(v cos θ) 2
2 2
pero como (c ) es mucho mayor que (v.cos θ ) se obtiene: ΔT =
2v D cos θ c
2
Entonces la velocidad del flujo sanguíneo es dada por la expresión: 2
v=
ΔT c
2D.cos θ
.............(9.4)
El equipo que mide la velocidad del torrente sanguíneo, representado en la figura 9.22, funciona de la siguiente manera: • El selector de señales invierte periódicamente la función de los cristales; cuando uno es el emisor el otro es el receptor y viceversa. La inversión se logra al cerrar S1 y S2 en forma alternada. En el primer estado, el tiempo de tránsito en sentido del flujo sanguíneo Td, es el que transcurre entre la emisión de ultrasonidos por el cristal 1 y la recepción por el cristal 2. • En el segundo estado, el tiempo de tránsito en sentido contrario al flujo sanguíneo Ti, es el que transcurre entre la emisión de ultrasonidos por el cristal 2 y la recepción por el cristal 1. Conociendo los tiempos de tránsito se calcula ΔT y por medio de la ecuación 9.4. determina la velocidad (v) del flujo.
273
Instrumentación Biomédica / Ultrasonografía
SISTEMA DE COMPENSACIÓN TIEMPO-GANANCIA ((TGC TGC TGC)) Generalmente, los equipos destinados a producir ultrasonografias están provistos de un sistema conocido como TGC o compensación tiempo-ganancia (Time-Gain Compensation). Esta técnica, empleada para mejorar la calidad de la imagen, consiste en incrementar la ganancia del amplificador en función del tiempo transcurrido desde el momento en que se emite el tren de ultrasonidos. De esta forma, los "últimos ecos" que regresan al transductor de son amplificados más . El tren de ultrasonidos, en su recorrido, primero alcanza las interfaces cercanas y luego las profundas. Para un mismo tipo de interface, los ecos provenientes de las más profundas son de menor amplitud que los originados en las interfaces cercanas. El haz de ultrasonido, para alcanzar interfaces profundas, debe recorrer mayor distancia antes de regresar al transductor, y en su recorrido se atenúa. El sistema TGC, compensa por el decremento de amplitud de estos ecos. La figura 9.23 muestra la acción del sistema de compensación tiempo–ganancia. La amplificación en función del tiempo es ajustada por un conjunto de controles accesibles al operador, que los emplea para mejorar la calidad de la imagen.
Figura 9.23. Acción de los controles del TGC.
Ganancia Cercana (Near gain). Es un control empleado para reducir la sensibilidad del amplificador de los ecos muy cercanos, como los que se producen en la interface de la piel con el
274
Alvaro Tucci R. transductor. Su acción, es minimizar los ecos producidos inmediatamente después de la emisión del tren de pulsos. En la gráfica de la figura 9.23 se indica cómo modifica la ganancia del amplificador. Inicio de pendiente (Slope start). Es un control que determina a que profundidad la ganancia del amplificador empieza a incrementar. Pendiente (Slope). Ajusta la rata de crecimiento de la ganancia del amplificador en función de la profundidad o el tiempo. Normalmente se expresa en dB. Ganancia Lejana (Far gain). Es un control utilizado para ajustar la ganancia de los ecos provenientes de las interfaces más alejados de la fuente de ultrasonidos. En el diagrama en bloques de la figura 9.9, se observa que la Unidad TGC es iniciada por el generador de pulsos. Su salida, aplicada al amplificador de RF, hace que su función de transferencia se ajuste a la forma mostrada en la figura 9.23. La ganancia del amplificador, inmediatamente después que se genera el haz ultrasonoro, es pequeña, luego incrementa con el tiempo siguiendo una de las pendientes, de manera que los ecos lejanos experimenten mayor amplificación.
CONVERTIDORES DE BARRIDO Y PROCESAMIENTO DE IMAGENES La información contenida en los ecos no tiene ningún significado para el operador, ya que no puede interpretarla. El convertidor de barrido (Scan converter) es el dispositivo que se encarga de esta función. "Acumula" y procesa la información, la almacena y luego la procesa nuevamente para adecuarla a la pantalla del monitor. Su nombre deriva del hecho que acepta señales eléctricas secuenciales provenientes de los ecos de cada barrido; línea por línea, y para crear la imagen en el monitor, las convierte en una forma de barrido diferente, por ejemplo, una serie de líneas horizontales de televisión. Para obtener de las imagenes la mayor cantidad de información, con lo que se aumenta el poder de diagnóstico, en el procesador se implementan ciertas rutinas dirigidas a resaltar detalles, que de otra manera podrían pasar desapercibidos. Se implementa, por ejemplo, la escala de grises, bien conocida a
275
Instrumentación Biomédica / Ultrasonografía partir de la fotografía convencional, o se resalta la información que aportan los ecos pequeños en la formación de la imagen. Los convertidores de barrido pueden ser digitales o analógicos. Los analógicos, formados por un CRT con memoria, almacenan la información como cargas eléctricas distribuidas sobre la superficie de silicio de su pantalla. Estos convertidores, presentes en equipos de vieja data, son reemplazados por los convertidores digitales. Estos últimos, son básicamente pequeñas computadoras con gran capacidad memoria donde la imagen es almacenada. La imagen ultrasonográfica está formada por un conjunto de puntos más o menos brillantes. Su calidad depende de la técnica que se emplea para la recolección y el procesamiento de los datos. Algunas técnicas son descritas a continuación. BARRIDO SIMPLE Es una forma de barrido en tiempo real, preferentemente empleado en Modo B. Cada eco es el resultado de “interrogar” cada discontinuidad en la región donde es dirigido el haz ultrasonoro. Su magnitud, es convertida en un punto cuya luminosidad o tono gris depende de las propiedades reflectoras de la discontinuidad. BARRIDO COMPUESTO En el barrido compuesto, la imagen se va formando con la suma de los ecos generados por la interrogación repetitiva de cada discontinuidad. De esta manera, la imagen final se forma con la contribución de imágenes sucesivas que se sobreponen. La luminosidad de las estructuras dependen de sus propiedades reflectoras y de la rata de repetición con que son detectadas. Cuando se efectúa el barrido, la información de las estructuras anatómicas suministrada por los ecos, es almacenada en la memoria digital. Si el barrido compuesto, cuando se detecta un nuevo eco proveniente del mismo punto, se almacena únicamente si es mayor que el eco previamente almacenado, con lo cual se logran imágenes de mejor calidad.
CONVERTIDORES DE BARRIDO DIGITALES En los sistemas digitales la imagen está formada por un gran número de pequeños puntos o celdas llamadas pixels. Una imagen
276
Alvaro Tucci R. ultrasonográfica de 25 por 20 centímetros podría estar formada por 50.000 pixels de un milímetro cuadrado cada uno, organizados en una matriz de 200 filas por 250 columnas. Con los datos así organizados, se facilita su procesamiento por los métodos convencionales de computación. Pueden realizarse, por ejemplo, operaciones de actualización de datos, promediar señales provenientes del mismo punto, sobreponer o restar imágenes, realizar operaciones estadísticas, comparar imágenes o copiarlas. La memoria de la computadora está estructurada de tal forma que a cada pixel le corresponde una localidad. En cada localidad está almacenado un número binario cuyo valor es proporcional a la magnitud del eco que lo produjo. Cada número binario representa un color o un tono gris. Para números binarios iguales le corresponde el mismo color o tono gris. La figura 9.24 muestra este arreglo. Para construir una imagen, aparte de la información relacionada con el tono gris, se debe conocer el lugar de donde procede cada eco, para lo cual el transductor debe suministrar las coordenadas de su posición. De él emergen tres señales analógicas, x, y, z, las dos primeras son de posición y la tercera contiene la información sobre el tono gris. Las tres señales son llevadas al digitalizador que las convierte en digitales.
Brillo
Localización
000 072 145 255 140
10584 10585 10586 10587 10588
078 055 050
10589 10590 10591
022
10592
Figura 9.24. Distribución de los pixels y su almacenamiento en la memoria
277
Instrumentación Biomédica / Ultrasonografía Para cada eco, del digitalizador surgen tres señales digitales llamadas X ,Y, Z, que suministran los datos suficientes para “ensamblar” la imagen. Las X e Y proporcionan la localización del pixel en la matriz de puntos, mientras que la Z determina su tono. Para la señal Z se emplean 32 o 64 niveles de grises, lo que equivale a 5 o 6 bits por pixel. El número de niveles de grises, multiplicado por el número de pixels que integra la matriz, determinan la capacidad de la memoria del convertidor. En algunos equipos, la señales de posición son suministradas por el transductor en forma digital. En este caso, el digitalizador solo se encarga de convertir la señal z. En el convertidor, el procedimiento de escritura en la memoria dura aproximadamente 1us y una imagen completa es leída en unos 40ms. Por consiguiente, se dispone de tiempo suficiente para que en un segundo se pueden producir de 20 a 30 imágenes, que es el mínimo requerido para eliminar el parpadeo. Las memorias de los convertidores de barrido tienen capacidad para almacenar matrices de 640 por 512, con lo que se generan imágenes de 30 por 25 cm. Cada pixel está formado por un cuadrado de 0,5 mm de lado. Mientras más pequeñas son las dimensiones de los pixels, mayor es la resolución de la imagen. Eco proveniente del receptor
Rango dinámico 40 dB (100 : 1) Palabra de 8 bits
Pre-proceso Compresión de señal (Palabra de 8 a 5 bits) Brillo
Almacenamiento Localización
Almacenamiento y adecuación
Post-proceso
Convertidor digital a analógico
Procesamiento de escala de grises (Palabra de 5 a 8 bits) Señal de video
Figura 9.25. Diagrama en bloques de un convertidor analógico/digital
278
Alvaro Tucci R.
CONVERSIÓN ANALÓGICO / DIGITAL El proceso de conversión de los ecos es llevado a cabo por el convertidor analógico/digital, conocido también como ADC (Analogical to Digital Converter). Existen varios métodos de conversión que pueden ser analizados en publicaciones especializadas. Aquí se describe por medio del diagrama en bloques uno de ellos. Los detalles de cada bloque y los circuitos que lo componen son particulares para cada equipo; dependen del fabricante. A manera de ejemplo, se describe el funcionamiento del convertidor mostrado la figura 9.25 En el ADC se realiza una operación conocida como digitalización. Consiste en medir, a intervalos regulares, el voltaje de la señal analógica y digitalizar la medida. Por ejemplo, en la figura 9.26 se toman mustras cada milisegundo, para luego convertirlas en un número binario cuyo valor está relacionado con el voltaje medido. Este procedimiento es conocido también como muestréo (sampling) Cada vez que se efectúa un barrido, se obtiene nueva información digital que es dirigida al mismo lugar de memoria, pero evidentemente no todas puede ser almacenadas. Una computadora se "encarga" de seleccionar la información mas adecuada de acuerdo a algún griterio previamente establecido. Por ejemplo, podría seleccionar el valor más grande, o calcular el valor promedio y almacenarlo o determinar el valor central.
Figura 9.26. Muestreo de un eco a intervalos de 1 ms.
279
Instrumentación Biomédica / Ultrasonografía PRE PROCESAMIENTO Cuando se efectúa el proceso de digitalización, usualmente se producen 256 niveles de grises que son representados por un número binario de 8 bits. El pre-procesamiento, llamado compresión, consiste en reducir el número de niveles a 32, con lo que se reduce la capacidad de la memoria y el tiempo de acceso. La compresión preserva la información necesaria para el diagnóstico, ya que es prácticamente imposible distinguir más de 32 niveles de grises. Algunos convertidores no utilizan la etapa de compresión. Durante el procedimiento se emplea una de las siguientes opciones: 1.- La compresión lineal donde los datos comprimidos son transferidos directamente a la memoria, sin someterlos a procesamiento alguno. 2.- La compresión logarítmica puede ser de dos tipos: La destinada a favorecer la visión de los ecos más pequeños, particularmente los provenientes de los tejidos glandulares y la que no enfatiza los ecos muy pequeños. 3.- La compresión que favorece la visión de los ecos promedio, útil para delinear las superficies anatómicas y estructuras internas. ALMACENAMIENTO Los datos, una vez comprimidos, son enviados a medida que se producen a la unidad de almacenamiento, que consiste esencialmente en una memoria digital. La forma para almacenar datos puede tener varias opciones (algoritmos) que el operador del equipo puede seleccionar. La forma más simple, consiste en colocar los datos, producto de cada barrido, en su respectivo lugar de memoria y reemplazar los precedentes. Esta modalidad se genera una imagen nueva cada vez que se produce un barrido. Es modo de operación muy útil para la búsqueda o reconocimiento (Search o Survey mode). La imagen, es continuamente renovada en la medida en que el haz se desplaza de un lado para otro buscando alguna particularidad en los tejidos de interés. La alta velocidad de escritura y lectura de los convertidores permite que la renovación de la imegen se realize rápidamente.
280
Alvaro Tucci R. Una segunda opción podría comparar el nuevo dato con el existente. Si el existente es mayor, no se efectúa ningún cambio. Si el nuevo dato es mayor, una fracción de la diferencia se suma al valor anterior, de forma que el nivel de la señal aumenta gradualmente hacia un máximo. A este sistema, se le conoce como modo de actualización compuesto o integral (Compound or integrating update mode). Otro algoritmo de actualización podría ser el de promediar el nuevo dato con el existente y colocar el resultado en el mismo lugar de la memoria. Con este sistema, se obtiene una imagen con mejor estimación de las zonas de reflexión en los tejidos. Aparte de los algoritmos antes descritos, existen muchas otras opciones adoptadas por los fabricantes. En el ejemplo anterior, con una matriz de almacenamiento de 640 por 512 pixel, los valores numéricos son leídos línea por línea para formar la imagen en la pantalla del monitor. La señal de barrido horizontal del monitor se repite 512 veces por imagen y está en sincronismo con el inicio de la lectura de cada línea. El procedimiento de adquisición de nuevos datos, su lectura y puesta en pantalla, se repiten unas 25 veces por segundo. POST-PROCESAMIENTO Durante el procedimiento de lectura de los números almacenados en la matriz, es usual modificar su valor. A estas modificaciones se le llama post-procesamiento. Tienen por objeto suministrar al operador la posibilidad de producir el tono de gris deseado. La imagen puede ser más clara o más oscura, con mayor o menor contraste. Para efectuar post-procesamiento se coloca, antes de hacer la conversión, el valor de cada numero binario en un registro intermedio donde se le suma o resta otro número. Normalmente el registro intermedio es de 8 bits; tiene capacidad para almacenar un número comprendido entre 0 y 255. Pero como la magnitud del eco en la memoria está comprendido entre 0 y 31, es posible sumarle o restarle otro numero cuyo valor depende de la opción. La figura 9.27 muestra cuatro formas de post-procesamiento conocidas como opciones gamma. La opción A es una transferencia lineal, donde los datos no sufren ninguna modificación numérica. En la opción B se comprimen las señales de mayor valor, con lo que se obtienen imágenes de
281
Instrumentación Biomédica / Ultrasonografía alto contraste. La opción C ofrece un contraste menor, y la opción D, produce una imagen de bajo contraste, obtenida por medio de la compresión de los ecos de menor valor.
Figura 9.27. Cuatro opciones del post-procesamiento de los ecos
En la etapa de post-procesamiento, se pueden realizar otras manipulaciones numéricas particulares de cada equipo. A continuación se describen dos posibilidades. Si el equipo se adquiere con la opción de post-procesamiento, normalmente es posible reprogramarlo para hacer tareas similares o de mayor complejidad. Una técnica estadística consiste en agrupar los ecos por su amplitud y construir con ellos una curva. Se observa que la distribución depende del tipo de tejido examinado. Por ejemplo, la experiencia muestra que los ecos de un hígado cirrótico contienen ecos de mayor amplitud que los de un hígado normal. Otra técnica se basa en el hecho de que un cambio abrupto de la amplitud de un eco respecto a sus vecinos en una imagen digitalmente almacenada, no representa verdaderamente cambios en las estructuras de los tejidos. La experiencia demuestra que en las estructuras anatómicas esos cambios son inexistentes. En estos casos, se aplican técnicas estadísticas de alisado o aplanamiento, que consisten en aproximar el contenido de cada localidad de memoria a los valores circundantes. Como es de esperar, esta técnica reduce la resolución de la imagen.
282
Alvaro Tucci R.
CONVERSIÓN DIGITAL/ANALÓGICA La conversión digital/analógica, consiste en transformar el número binario en un voltaje proporcional al valor del número. Es efectuada por el convertidor digital /analógico (Digital to Analog Converter o DAC). La conversión, tiene por objeto producir los voltajes analógicos, que aplicados al tubo de rayos catódicos del monitor, puedan producir una imagen visible en la pantalla. Podría verse también como la conversión de los valores numéricos almacenados en la matriz de memoria en una matriz de pixeles de diferentes luminosidades. CONVERSIÓN EN TIEMPO REAL La característica principal de los convertidores digitales, empleados en equipos con barrido en tiempo real, es la transferencia de la imagen hacia la memoria a alta velocidad, puesto que para una buena secuencia visual se requieren 25 imágenes por segundo. Como la información proveniente de los transductores en tiempo real es transferida directamente en pantalla, surge la pregunta del porqué se emplean memorias de almacenamiento. Evidentemente, no son necesarias para formar la imagen, sin embargo, agregan ciertas facilidades esenciales como: - Congelación de la imagen. - Capacidad de post-procesamiento en tiempo real. - Conversión de imágenes en tiempo real, en formatos estándar de televisión para registro en videocasete. CONTROLES DE LOS CONVERTIDORES Los controles de los convertidores pueden clasificarse en dos tipos: los que modifican la presentación de la imagen y los que actúan sobre el procesamiento de los datos. Los que modifican la presentación son: - Foco. - Brillantez. - Contraste. - Zoom. Utilizado para magnificar áreas de interés de la imagen. - Subdivisión de la pantalla. Para ver simultáneamente varias imágenes.
283
Instrumentación Biomédica / Ultrasonografía - Polaridad. Presentación de los ecos como puntos blancos sobre un fondo negro o viceversa. Los controles de procesamiento varían sensiblemente entre una marca y otra, sin embargo, la mayor parte de los equipos tienen controles que realizan las tareas descritas en el pre-procesamiento y post-procesamiento.
CONVERTIDORES ANALÓGICOS Los convertidores analógicos, incorporados en equipos construidos antes de la invasión de la tecnología digital, tienen la misma función que los digitales. Constan esencialmente de un tubo de rayos catódicos con “memoria”, donde el fósforo de la pantalla ha sido reemplazado por una capa de material aislante capaz de retener el patrón de las cargas eléctricas en su superficie. La figura 2.28 muestra uno dispositivo de este tipo. En estos tubos, utilizados también en osciloscopios con memoria, el sistema de almacenamiento está compuesto por una capa de material conductor, sobre la que se deposita un arreglo de pequeños cuadrados . El número de cuadrados es del orden de varios cientos de miles, por lo tanto sus dimensiones son mucho menores que el diámetro del haz de electrones que incide en la pantalla. Cada cuadrado está aislado de sus vecinos y tiene brillantez propia. Cuando el haz de electrones "barre" la pantalla va cargando esos cuadrados, que responden emitiendo una luz proporcional a la intensidad del haz de electrones que los cargó. Grilla Tarjeta de almacenamiento
Placas deflectoras
Haz de electrones
Figura 9.28. Estructura de un tubo de almacenamiento utilizado por los convertidores analógicos
284
Alvaro Tucci R. Desde el punto de vista de la imagen ultrasonora, la pantalla puede considerarse como una hoja de material uniforme, capaz de almacenar imágenes con alta resolución, en forma de cargas eléctricas distribuidas en su superficie. Para almacenar la imagen, se barre la pantalla en forma similar al conocido método de desviación horizontal y vertical empleado por la televisión. El haz de electrones es modulado por la amplitud de los ecos. Las líneas de barrido horizontal, están sincronizadas con las del haz ultrasonoro que explora el paciente. Los ecos, son almacenados en la pantalla a lo largo de cada línea de barrido como puntos, cuya brillantez es proporcional a su magnitud. Para modular el haz de electrones que incide en la pantalla, se aplica el voltaje que representa los ecos entre cátodo y grilla del tubo de rayos catódicos. La brillantez de la imagen puede ser ajustada por medio de un control denominado Nivel de Lectura (Read level).
APLICACIONES CLÍNICAS Las aplicaciones clínicas de los ultrasonidos se van incrementando rápidamente. El desarrollo de nuevos transductores, permite la exploración especializada dirigida a ciertos órganos, como por ejemplo el control ultrasonográfico en la detección precoz del cáncer de los ovarios. La calidad de las imágen es mejorada sensiblemente mediante la incorporación del color, las imagenes tridimencionales y de alta resolución. Algunas de las aplicaciones son las siguientes: ECOENCEFALOGRAFÍA Se llama ecoencefalografía, a la técnica que se usó durante muchos años para determinar el desplazamiento de la masa encefálica respecto a la línea media; dicho desplazamiento se produce por efecto de una lesión o enfermedad. Esta determinación es muy útil en casos de accidentes, especialmente los automovilísticos, donde no se cuenta con el tiempo ni las instalaciones adecuadas para estudios angiográficos. Permite decidir si es necesaria una intervención quirúrgica inmediata. Se realiza con instrumentos bastante simples que pueden ser instalados en ambulancias. La frecuencia de operación de estos equipos es usualmente
285
Instrumentación Biomédica / Ultrasonografía de 2 MHz. La longitud de onda de 0,75 mm es lo bastante corta para generar datos precisos respecto a las interfaces buscadas. Con el transductor de 15 mm de diámetro, es posible hallar en el área temporal un punto de aplicación donde su superficie haga buen contacto. Los transductores de 4MHz, con diámetro de 10 mm, empleados en los casos de hidrocefalia infantil, son útiles para la identificación de hematomas subdurales en el lado de la hemorragia, donde no se requiere gran profundidad de penetración. OFTALMOLOGÍA El ojo humano constituye un órgano ideal para el estudio ultrasonográfico. Comprende la córnea, la cámara anterior, el cristalino, el espacio del humor vítreo, con su líquido homogéneo, la retina y la pared posterior. Una de las más importantes aplicaciones de la ultrasonografía en modo A, aparte de la localización de cuerpos extraños dentro del ojo, es poder realizar las medidas del globo ocular. Por medio de este estudio, pueden apreciarse los cambios que ocasionan ciertas enfermedades como el glaucoma o la miopía. El ecograma del ojo normal suele mostrar un diámetro promedio, desde el eco anterior hasta el posterior, de 22 a 26 mm. Las principales interfaces se enuentran distribuidas así: El espesor de la cámara anterior es de unos 2 mm, el cristalino tiene unos 4 mm y la cavidad del humor vítreo tiene un diámetro aproximado de 18 mm. Como este estudio requiere de poca profundidad de penetración y mucha resolución, se emplean transductores con frecuencia cercana a los 7,5 MHz. La alta resolución permite localizar cuerpos extraños muy pequeños dentro del globo ocular. Con el único fin de resaltar la gran utilidad de los ultrasonidos para el diagnóstico, se describen a continuación algunos detalles relacionados con un estudio oftalmológico: Después de aplicar la anestesia local, el transductor impregnado de jalea se coloca directamente sobre la córnea. La cámara anterior, el cristalino y la cavidad del vítreo son homogéneos y no generan ecos. Un resultado interesante del análisis de la cavidad del vítreo, es su respuesta acústica variable. El patrón de respuesta interpretado por un experto, permiten determinar la naturaleza ciertas lesiones.
286
Alvaro Tucci R. Por ejemplo, los ecos generados por las hemorragias recientes difieren de las que datan de algunos días. Las recientes producen ecos nítidos, mientras que las más antiguas se vuelven más homogéneas, o quizás no reflejen patrón alguno. Uno de los diagnósticos más importantes, es la detección del desprendimiento seroso o líquido de la retina. En el primero, el líquido subretiniano tiene homogeneidad acústica y no refleja ecos. En el seroso o sólido, los ecos se reflejan en términos de múltiples “blips” que perturban la línea basal y se extienden hacia atrás para abarcar también la pared del globo. La exploración en modo A es capaz de identificar la presencia del desprendimiento sólido. También identifica tumores de la retina, o los localizados detrás de esta capa, en la región coroidea. CEFALOMETRÍA El embarazo, constituye un estado en el cual el empleo de radiaciones ionizantes es limitado, particularmente durante las primeras semanas, ya que la exposición a los rayos X produce alteraciones genéticas. Por otra parte, el abdomen de la embarazada es particularmente idóneo para la técnica ultrasonográfica; que por estar lleno de líquido presenta muy buen contraste ultrasonoro. La cefalometría, es una técnica ultrasonográfica inocua y precisa, que es utilizada para medir el diámetro biparietal de la cabeza del feto. Permite predecir la fecha probable del parto y el peso neonatal. Aparte de la cefalometría, aporta datos que corroboran el cálculo clínico de la edad gestacional; datos indispensables para adelantar el parto. ECOCARDIOGRAFÍA En Suecia, Elder y Hertz, en 1954, demostraron que la estructura del corazón, al ser explorada con un transductor de 2,5 MHz, reflejaba los ultrasonidos. Observaron que el “movimiento” de los ecos estaba relacionado con las estructuras cardíacas, y debido a ello, fue evidente que podía utilizarse para el diagnóstico. Con la ecografía en Modo A, pueden hacerse mediciones precisas de las dimensiones de la pared del tórax, de la pared posterior del ventrículo izquierdo y derecho, y en general, del espesor del miocardio.
287
Instrumentación Biomédica / Ultrasonografía La ecografía en Modo B, aparte de suministrar información referente a la profundidad de las estructuras, permite estudiar el movimiento valvular y del miocardio. Es útil para el diagnóstico de valvulopatías, puesto que suministra información relacionada con la operación de las válvulas y otras estructuras como las paredes protésicas sana y enfermas. Los ecocardiogramas, contienen patrones característicos del movimiento vascular y detalles estructurales de válvulas normales y enfermas. La interpretación del eco de una válvula en particular, correlacionado con el análisis de los registros de los ruidos cardíacos, permite la detección de ciertas alteraciones es esa válvula. La obstrucción de cualquier válvula cardíaca recibe el nombre de estenosis, en tanto que la pérdida por dicha estructura, se conoce como insuficiencia o regurgitación. Por medio de la ecocardiografía, se detectan coágulos sanguíneos y derrames pericárdicos, que es la acumulación de líquido en el saco que rodea el corazón. Se detectan calcificaciones o fibrosis intensas, que suelen manifestarse por una mayor brillantez de los ecos. La calcificaciones intensas, causa de inmovilidad relativa de las válvulas, se manifiestan como una imagen de menor amplitud. La ecografía en Tiempo Real, es útil para detectar una enfermedad segmentaria o global del miocardio. Son también detectadas las anormalidades en el movimiento de la pared cardíaca, las enfermedades de la arteria coronaria o miocardiopatías intrínsecas. Su aplicación aporta datos anatómicos y hemodinámicos, de los cuales pueden deducirse por cálculo, muchos índices del funcionamiento del ventrículo izquierdo, incluidos el gasto cardíaco y la fracción de expulsión. El diagnóstico mediante el empleo de ultrasonidos se ha extendido y refinado durante los últimos años y seguramente lo seguirá haciendo. Se prevé, entre otras innovaciones, la incorporación creciente de sistemas computarizados para la obtención de imágenes tridimensionales de alta calidad, mejores diseños de transductores, nuevas áreas de exploración y mejor calidad de la imagen. Los equipos modernos tienden a ser más pequeños y de menor consumo. Los inconvenientes mecánicos propios del Modo B se están solucionando. La calidad de la imagen de los equipos de
288
Alvaro Tucci R. tiempo real está en continuo mejoramiento. Se está prestando especial atención a la forma del haz ultrasonoro y a su enfoque electrónico. ONDA DE CHOQUE, LITIASIS Y ESWT Otra aplicación de los ultrasonidos en medicina es la onda de choque extracorpórea. Consiste en una onda de alta presión generada fuera del cuerpo que se aplica en la superficie corporal. De allí se desplaza por los tejidos hacia un foco específico. Se caracteriza por tener una presión de más de 100 atmósferas, con tiempo de alzada de 30-120 nanosegundos y duración de unos 5 milisegundos. El ancho del frente de onda es de 0,001 mm, por lo que las paredes celulares se someten a un gradiente de presión muy elevado. Su efecto se manifiesta en las interfaces, como la de tejidohueso, donde entrega su energía cinética. Su alta energía permite fraccionar un cálculo renal para que luego sea expulsado. La absorción de la energía cinética en la interfase de diferentes impedancias acústicas es crucial en la planificación del tratamiento; debe ser adecuada para fragmentar los cálculos pero no los huesos. Las ondas de choque nunca deben ser enfocadas en cavidades gaseosas como los pulmones o los intestinos, puesto que la impedancia acústica del gas es mucho menor que la de los tejidos. Por esta razón, virtualmente toda la energía es reflejada, a consecuencia de un fenómeno llamado rarefacción, puede ocasionar daño considerable a los tejidos de los bordes. El empleo de la onda de choque en el tratamiento de los cálculos renales, es lo que sirvió de base para el desarrollo de una nueva técnica iniciada en Alemania en 1980, llamada Terapia de Onda de Choque Extracorporal (Extracorporeal Shock Wave Therapy - ESWT). Los investigadores, que estaban tratando de determinar cuál era el tipo de onda de alta presión más adecuado para fraccionar los cálculos renales, sin dañar los tejidos circundantes, se dieron cuenta que podían obtenerse otros beneficios. Desde entonces se emplea con éxito para el tratamiento de desórdenes dolorosos musculo-esqueléticos, como los asociados a la tendonitis en el hombro, codo, rodilla, tobillo, fascitis plantar, espolones y los dolores crónicos asociados. El tratamiento EWST no requiere anestesia de ningún tipo,
289
Instrumentación Biomédica / Ultrasonografía puesto que la energía sónica empleada es mucho menor que en el tratamiento de la litiasis. El mecanismo exacto mediante el cual las ondas de choque actúan para aliviar dolores crónicos es todavía desconocido, aunque existen postulados que intentan hacerlo. El EWST es un método no invasivo que no produce efectos secundarios. Su empleo se ha extendido al tratamiento de tendones y ligamentos, a sus calcificaciones y adhesiones, a la artrosis y a su tratamiento doloroso agudo; también se está empleando en medicina veterinaria, especialmente en el tratamiento de los caballos de carrera. Existen tres tipos de generadores de ondas de choque: los electrohidráulicos, los piezoeléctricos y los electromagnéticos. Estos últimos se subdividen en: bobina plana y lente con focalización; y los tecnológicamente más avanzados, con bobina cilíndrica, que está rodeada de una membrana metálica, que al expandirse transforma la energía aplicada a la bobina en una onda mecánica que se enfoca por medio de una parábola. El generador produce diferentes niveles de energía y tiene capacidad para poderse enfocar a diferentes profundidades, comprendidas entre 4 y 50 mm.
290
Alvaro Tucci R.
CAPÍTULO 10
Unidades electroquirúrgicas INTRODUCCIÓN
En tiempos anteriores al Renacimiento, durante la antigüedad y la Edad Media, la cirugía se consideraba una rama inferior de la medicina no muy bien valorada en la sociedad ni por el sector científico, ya que implicaba trabajo manual que tenía cierta semejanza con la carnicería y la vivisección. Los médicos de la época dejaban esta tarea, considerada degradante, a los mismos que cortaban el cabello. La sociedad de entonces reconocía la profesión de barbero–cirujano. Entre los más destacados barberos-cirujanos se encontraba el francés Ambroise Paré (1519 1590), quien llegó a ser el preferido de la corte de Enrique II de Francia. Se distinguió particularmente por sus aportes a la medicina militar. Los cirujanos, cosían y desinfectaban las heridas de balas con aceite hirviendo y cauterizaban las arterias, todo sin los efectos benéficos de la anestesia, desconocida para la época. De modo que el acto quirúrgico se asemejaba a una sesión de las más cruentas torturas. Paré, logró practicar la cirugía sometiendo al paciente a mucho menos dolor. Observaba las reglas higiénicas, empleaba aceites calmantes en lugar de hirvientes y ligaba las arterias en lugar de 291
Instrumentación Biomédica / Unidades electroquirúrgicas quemarlas. Por estos hechos, es considerado el precursor de la cirugía racional. En ese tiempo, los libros científicos se escribían y publicaban en latín, pero como Paré no había recibido una formación clásica, se vio obligado a escribir el resumen de sus hallazgos en francés, razón por la cual, su publicación no fue debidamente valorada. De Paré a nuestros días, la cirugía recibió considerables aportes, quizás el más valioso fue el empleo de anestésicos. Se supone que el alcohol fue uno de los primeros, mientras que en Oriente se utilizaba la acupuntura. La química contribuyó con el óxido nitroso, que al ser inhalado suprimía la sensación de dolor. Años después, para provocar la inconsciencia y la supresión del dolor, se emplearon sustancias como el éter dietílico y el cloroformo. A pesar de que el acto quirúrgico se hacía cada vez más indoloro, continuaba siendo mortal por la infección de las heridas. Los progresos en el campo de la cirugía antiséptica (de las palabras griegas que significan contra la putrefacción), se deben principalmente al trabajo de los investigadores del siglo XIX, Louis Pasteur y Joseph Lister. El término anestesia, que proviene de la palabra griega que significa sin sensación, fue empleado por primera vez por el médico norteamericano Oliver W. Holmes. A medida que se conocía mejor el peligro de la infección, los cirujanos extremaron sus precauciones para evitarla. En algunos casos, medidas muy simples resultaron de gran utilidad. El cirujano norteamericano William S. Halsted (1852-1922), introdujo una práctica que se extendió rápidamente; sugirió el empleo de guantes quirúrgicos de goma, que eran más fáciles de esterilizar que las manos. El cirujano y autor francés Alexis Carrel (1873–1944) hizo otro aporte, consistente en una técnica de suturación de los vasos sanguíneos, por lo cual le fue concedido el premio Nobel de Medicina y Fisiología en 1912. En los últimos años, se han venido implementando masivamente nuevos sistemas. Las técnicas laparoscópicas muy poco invasivas, aunadas a las electroquirúrgicas han hecho aportes valiosos. Los nuevos productos y métodos que emergen amplían su campo de acción, lo que permite efectuar intervenciones en áreas altamente congestionadas, prohibidas hace algunos años. Los procedimientos laparoscópicos más prometedores resuelven, por ejemplo, el problema del reflujo gastroesofágico y permiten, entre otras intervenciones, la colocación de injerto de
292
Alvaro Tucci R. puentes coronarios. La incontinencia urinaria es tratada por medio de la suspensión del cuello de la vejiga y la cirugía espinal es empleada para aliviar el dolor lumbar.
LA ELECTROCIRUGÍA Electrocirugía es paso de la corriente eléctrica de alta frecuencia por los tejidos con el fin de crear el efecto quirúrgico deseado. El equipo, consiste básicamente en un generador que convierte la corriente alternada de 60 Hz, en corriente de alta frecuencia adecuada para el acto quirúrgico. La primera unidad electroquirúrgica (ESU - Electro Surgigal Unit) fue probada por W.T. Bovie durante la primera guerra mundial en la Universidad de Harvard. Empleó un transmisor de chispas proveniente de una unidad naval de guerra de los Estados Unidos. Se dio cuenta que cuando aplicaba la punta del cable de salida del transmisor a los tejidos biológicos, éstos eran cortados en el lugar donde la punta los tocaba. Bovie desarrolló una unidad para que fuera utilizada por el gran cirujano norteamericano Harvey Cushing (1869-1939), quien por poseer una capacidad técnica extraordinaria, participó activamente en su desarrollo. Cushing,además de aportar numerosas e importantes contribuciones a la neurología clínica, en 1925 empleó la electrocirugía para cortar coagular tejidos. En los años siguientes, el equipo producido por Bovie fue ampliamente mejorado. En su diseño se incorporaron componentes de estado sólido. Fue provisto de osciladores con diferentes opciones de modulación de pulsos. Luego se le anexaron sistemas que incluyen las ultimas técnicas de automatización y microprocesadores en el control de corriente, frecuencia y tiempo. Como el electrobisturí es empleado en pacientes que están bajo el efecto de la anestesia, y en consecuencia en extremo vulnerables, los nuevos modelos incluyen sistemas automáticos de seguridad. Cuando se emplea en pacientes que tengan implantado marcapasos deben tomarse precauciones especiales, puesto que las interferencias generadas por esta unidad podrían afectar su funcionamiento. El principal defecto de la electrocirugía es que no produce cortes rectos y precisos. Las heridas son más propensas a infectarse,
293
Instrumentación Biomédica / Unidades electroquirúrgicas precisamente porqué en el borde del corte quedan fisuras aún después de suturadas. El electrobisturí tiene ciertas ventajas sobre el bisturí convencional: los electrodos cortan más rápidamente, el efecto calórico de la corriente y las chispas tienden a cauterizar el tejido e inhibir el sangramiento, lo que reduce la pérdida de sangre y el tiempo de intervención. Deben ser empleados con precaución, puesto que la acción de cortar produce chispas que puede alterar el funcionamiento de los equipos elécticos cercanos y presentan un riesgo de explosión. No deben usarse en sitios donde pueda existir una atmósfera de anestesia inflamable u otros gases, como desinfectantes o gas metano, que pudiera estar presente en el intestino y colon del paciente. Por esta razón, hasta 1950, su empleo en los quirófanos se vio limitado. Luego, con el advenimiento de la anestesia no inflamable, su uso se generalizó considerablemente.
EL ELECTROBISTURÍ BÁSICO El electrobisturí mostrado en la figura 10.1, está formado por un oscilador de radio frecuencia (RF) que opera entre los 300 KHz y 3 MHz. El voltaje entre el electrodo de corte y el de retorno está comprendido entre 1000 y 10.000 voltios. El voltaje de ruptura del aire en condiciones normales, es de unos 3 Kv por mm. En consecuencia, cuando el electrodo se acerca lo suficiente a la piel se produce chispa. Para 10Kv esa distancia es 3,3 mm. El electrodo de corte es de punta roma, no adecuado para cortar tejidos, a menos que estén presentes corrientes de RF. Cuando se mantiene suficientemente alejado de la piel, no hay flujo de corriente ni acción de corte. Al tocarla, la alta densidad de corriente cerca del electrodo hace que las células se vaporicen, con lo cual se “rompen” los tejidos. La ruptura de la estructura tisular es precisamente la acción de corte buscada. La densidad de corriente en la cercanía del electrodo de corte es muy alta; decrece rápidamente a medida que se aleja en su camino hacia el electrodo de retorno, por ello, la acción de corte se produce únicamente en la zona que está en contacto inmediato con el electrodo. Si la corriente después de atravesar los tejidos regresa al
294
Alvaro Tucci R. electrodo de retorno, se habla de cirugía monopolar. En ella, la salida del generador está aislada de tierra, por lo cual se le llama generador de salida aislada. Las unidades electroquirúrgicas también se diseñan para ser empleadas con técnicas endoscópicas. La endoscopia es un procedimiento de diagnóstico mínimamente invasivo, que consiste en la introducción de un instrumento óptico o endoscopio a través de un orificio natural o de una incisión quirúrgica, con el fin de visualizar y examiar órganos internos,realizar maniobras terapéuticas o tomar biopsias.
Figura 10.1. El electrobisturí básico
La laparoscopia permite la visualización de la cavidad abdominal, mientras que con la atroscopia se examinan las articulaciones. En ambos casos, se efectúan pequeñas incisiones por donde se introduce el instrumento. En la laringoscopia, no es necesario hacer incisiones, ya que con la simple introducción del endoscopio por la cavidad bucal se puede examinar la laringe. La endoscopia practicada con unidades electroquirúrgicas, está siendo rápidamente adoptada como método clínico, como lo demuestra, por ejemplo, la colecistectomía y la laparoscopia ginecológica. Aunque estos procedimientos pueden ser más costosos que las intervenciones convencionales, reúnen enormes ventajas para el paciente, especialmente su pronto retorno a la vida normal. Las unidades electroquirúrgicas diseñadas para la cirugía general no deben emplearse en procedimientos endoscópicos.
295
Instrumentación Biomédica / Unidades electroquirúrgicas En estas intervenciones, puede suceder que una fracción de la corriente se aparta del circuito electroquirúrgico y sigue un paso alterno de menor resistencia hacia tierra. A las corrientes que siguen un "camino" no deseado, se las llama corrientes de fuga o parásitas. Son causa de quemaduras localizadas si el paciente toca tierra en un lugar distinto del electrodo de retorno. CIRCUITO EQUIVALENTE El circuito equivalente de la unidad electroquirúrgica en operación se muestra en la figura 10.2.
Figura.10.2. Circuito equivalente del E.S.U.
Ri es del orden de los 400 ohmios. Representa la resistencia interna del generador y de los conductores. Re, es la resistencia del electrodo activo. Su valor depende del tipo y de la posición relativa respecto al tejido. En posición de corte está comprendida entre los 100 y 1000 ohmios y es un circuito abierto cuando el electrodo de corte se encuentra suficientemente alejado. La potencia de radio frecuencia que se disipa en el tejido en la cercanía del electrodo hace que se produzca corte o coagulación. Esta acción depende fundamentalmente del valor de Re. Rb, es la resistencia que presenta el cuerpo del paciente al paso de la corriente de alta frecuencia. Su valor es del orden de los 50 ohmios. Rr, es la resistencia que se establece entre la piel y el electrodo de retorno. Su valor, en condiciones optimas, no debe exceder los 10 ohmios. Un valor excesivo de Rr hace que en el electrodo de retorno se produzca un calentamiento inaceptable o quemaduras superficiales. Es importante mantener este valor lo más bajo posible.
296
Alvaro Tucci R.
EL ELECTRODO ACTIVO En electrocirugía se llaman electrodos, a los dispositivos conductores que transmiten o reciben la corriente electroquirúrgica. El electrodo activo es aquel que concentra la corriente en el sitio quirúrgico. Los diferentes fabricantes ofrecen al mercado una variedad de electrodos de uso general o especializados de diferentes formas y tamaño, que el cirujano selecciona basándose en el tipo de intervención que va a realizar. Los electrodos de uso general, empleados en operaciones extensas, tienen aproximadamente 1 mm de espesor por 10 mm de ancho. Cuando el electrodo se emplea en modo de corte (cut mode), se alimenta con corriente sinusoidal. En la mayoría de los casos es importante emplear unidades especializadas. Por ejemplo, en microcirugía la poca potencia aplicada a los electrodos, que pueden ser tan delgados como un cabello, debe permitir al cirujano controlar la corriente para obtener los mejores resultados. La forma de onda de la corriente aplicada a diferentes electrodos es la indicada en la figura 10.3. Si el electrodo se mantiene a corta distancia de la piel, se produce descarga eléctrica únicamente en aquel lugar que está más cerca del tejido. En ese punto, la intensidad es máxima y produce un corte limitado y bien definido. Los electrodos pueden también ser empleados para producir coagulación (coag mode). En ellos, se genera una descarga difusa cuyo efecto es cauterizar el tejido y coagular la sangre. En este caso, el voltaje aplicado es sinusoidal interrumpido, con lo que se logra una chispa menos intensa, más difusa, que abarca una región más amplia. El electrodo cauterizador es menos puntiagudo que el electrodo de corte, aunque a veces el mismo cumple con ambas funciones. Otro electrodo, el hemostático, tiene por función apresar y sujetar el tejido, especialmente los vasos sangrantes. La capacidad de una forma de onda para producir hemostasia sin cortar los tejidos se la llama factor de cresta (Crest Factor). Un factor alto es indicativo de mejor coagulación y menos daños tisulares. La electrocirugía bipolar se efectúa mediante el empleo de un electrodo bipolar, como el mostrado en la figura 10.3. La corriente de alta frecuencia fluye de un electrodo al otro, a través del tejido
297
Instrumentación Biomédica / Unidades electroquirúrgicas a disecar, sin hacerlo por otras partes del cuerpo. En consecuencia, el electrodo de retorno no es necesario. Usualmente se persigue la disecación, que es el efecto electroquirúrgico donde se deshidratan los tejidos y se desnaturalizan las proteínas.
Figura10.3. Tipos de electrodos
MONITOREO DEL ELECTRODO ACTIVO Es un sistema de seguridad utilizado en aplicaciones laparoscópicas. El electrodo activo debe tener un mango fuertemente aislado y recubierto por una cánula, en forma similar a la mostrada en la figura 10.4. El objetivo del aislamiento es hacer que la corriente alcance los tejidos únicamente en el sitio de la operación y evita las fugas a través del mango hacia el paciente. Sin embargo, aunque el aislamiento sea excelente, siempre se producen pequeñas fugas en su superficie, debidas al ambiente húmedo en que se encuentra. Las corrientes de fuga pueden aumentar debido a fallas en el aislamiento de la cánula o a la excesiva capacitancia distribuida. El monitoreo del electrodo activo es un sistema que mide continuamente la corriente de fuga proveniente del mango y que necesariamente fluye hacia el generador. El monitoreo se efectúa por medio de una pantalla conductora coaxial que lo envuelve y “recoge” las corrientes parásitas que "regresan" al generador. Si el nivel de estas corrientes alcanza
298
Alvaro Tucci R. valores peligrosos, el monitor del electrodo interrumpe el suministro de energía.
Figura 10.4. Principio de la endoscopia electroquirúrgica
EL ELECTRODO DE RETORNO El electrodo de retorno “recoge” la corriente de RF que se utiliza en el acto quirúrgico y la regresa al generador. Para evitar que dicha corriente origine calor muy localizado que pudiera dañar los tejidos, se distribuye sobre una superficie mucho mayor que la del electrodo activo. El calor generado en los tejidos es directamente proporcional a la densidad de corriente. Se entiende por densidad de corriente, a la cantidad que fluye por unidad de área perpendicular a su 2 dirección de propagación y se expresa en Amp/cm o en unidades similares. A fin de evitar quemaduras en el paciente, el electrodo de retorno debe ser colocado siguiendo instrucciones precisas que tienden a reducir el valor de Rr (ver fig.10.2). Un aumento de su valor equivale a un aumento de la potencia disipada en la interface piel-electrodo. Para mantener Rr dentro de límites aceptables, el electrodo de retorno debe colocarse bajo una masa muscular grande y afeitada, como la nalga, el bíceps o muslo. El peso del cuerpo del paciente debe presionar y mantenerlo inmóvil. No debe colocarse sobre heridas, prominencias óseas, áreas sin afeitar, o donde existan implantes metálicos.
299
Instrumentación Biomédica / Unidades electroquirúrgicas Para asegurar un buen contacto, entre el electrodo de retorno y la piel debe colocarse abundante gel. Si durante el acto quirúrgico se mueve el paciente, se debe cuidar que el contacto siga siendo de buena calidad. MONITOREO DEL ELECTRODO DE RETORNO Algunos fabricantes incluyen un sistema de seguridad que detecta continuamente el valor de la resistencia entre el paciente y el electrodo de retorno; si es alta, debido seguramente a un pobre contacto del electrodo, se activa el sistema que interrumpe el suministro de corriente y se emite una alarma sonora. El método ha mostrado ser eficiente y seguro en millones de procedimientos quirúrgicos. Está diseñado para interrumpir la corriente antes que se produzcan las quemaduras en el sitio donde el contacto es pobre. En los equipos que incluyen el monitoreo, el electrodo de retorno es diferente. Puede identificarse fácilmente por tener dos áreas separadas y un conector especial con más de un contacto. El circuito de detección se muestra en la figura 10.5.
Figura10.5. Circuito detector de calidad del electrodo de tierra.
DIAGRAMA EN BLOQUES La figura 10.6, muestra el diagrama en bloques de una unidad electroquirúrgica. La potencia de salida puede ajustarse entre unos 80 y 600 w sobre una carga de 500 ohmios. El voltaje en circuito
300
Alvaro Tucci R. abierto puede variar entre 1000 y 10.000 voltios y radio frecuencia entre los 500 y 3000KHz. La potencia de salida es seleccionada en una de las cuatro modalidades disponibles, cortar, coagular, mezcla 1 y mezcla 2, de acuerdo al criterio del cirujano. Para cortar (Cut mode o Pure cut), la potencia entregada al electrodo activo debe ser suficiente para evaporar las células. Se obtienen mejores resultados con ondas continuas de baja tensión, debiéndose emplear preferentemente la mayor frecuencia disponible, con lo cual se obtiene un mejor corte. El efecto de coagulación se genera cuando se calienta el tejido. El calor produce deshidratación profunda y cauterización. Para obtener buenos resultados se emplea menos que 1/3 de la potencia disponible; es decir, menos de 200 vatios. La potencia a disipar depende del área a coagular. Es aconsejable utilizar la mínima frecuencia disponible. Se ha determinado que los mejores resultados se obtienen con alta tensión intermitente, optimizados para la electrocoagulación. Cuando se requiere cortar los tejidos sin que se produzca un excesivo sangramiento, se emplea los modos de operación Mez 1 o Mez 2 (Blend 1 o Blend 2). Con ello, la energía disipada en los tejidos es tal que se produce corte y coagulación simultáneamente. En la operación Mez 1 o Mez 2, la potencia disipada en el electrodo activo es ½ ó ¾ la potencia disponible. Por medio de estos dos opciones, el cirujano puede regular la velocidad de coagulación. DIAGRAMA DE LAS UNIDADES En el mercado se encuentran diferentes tipos de unidades electroquirúrgicas, algunas de uso general y otras diseñadas para aplicaciones específicas. Las hay de frecuencia fija y variable, de potencia fija y variable, y con diferentes tipos de electrodos. El principio de funcionamiento y los circuitos de dos modelos se describen a continuación: SPARK GAP ((RANURA RANURA DE CHISPAS CHISPAS)) La unidad electroquirúrgica tipo spark gap fue utilizada hasta que se desarrollaron las de tubos de vacío. A pesar de que esta tecnología, interesante desde el punto de vista histórico, fue empleada hace muchos años, todavía se consiguen equipos basados en este principio, especialmente en áreas rurales. Esta unidad reveló ser de mejor calidad en lo referente al corte
301
Instrumentación Biomédica / Unidades electroquirúrgicas y a la coagulación, que las unidades construidas posteriormente con tubos de vacío. Es robusta y confiable, y todavía llena las necesidades de los cirujanos en sus varias versiones de potencia y aplicaciones. La figura 10.7 muestra el circuito básico.
Figura 10.6. Forma de ondas en el electrodo activo
El transformador elevador T2, incrementa la tensión de línea entre 1500 y 2000 voltios. Entre sus terminales se conectan en serie dos pares de electrodos de carbón, que forman las ranuras donde se producen las chispas. Se emplean dos pares de electrodos para asegurar el funcionamiento del equipo, aun cuando uno de ellos entra en corto circuito.
302
Alvaro Tucci R.
Figura 10.7. Diagrama de una unidad tipo “Spark gap”
La chispa en los electrodos, en combinación con los devanados de los transformadores T2 y T3 y los condensadores C1 y C2, forman un circuito resonante de oscilación amortiguada. Estas oscilaciones, son acopladas capacitativamente a los electrodos por medio C4 y C5. Debido a las relativas altas frecuencias utilizadas, los condensadores de acoplamiento C4 y C5, son de pequeña capacidad, del orden de los 0,005 uF, fabricados con aislante de primera calidad como la mica. La calidad del dieléctrico asegura que al paciente no se transmitan posibles corrientes continuas de fuga o de baja frecuencia. Estos equipo, al generar trenes de ondas de oscilación amortiguada, aparte de su frecuencia fundamental, contienen una amplia gama de armónicos que producen ruido sobre gran parte del espectro de frecuencia. Por tal motivo, deben tomarse las medidas preventivas para que no interfieran con el resto de los equipos eléctricos colocados en su cercanía. El cirujano, al actuar del interruptor de pedal, hace que la bobina del relé se energize y cierre el contacto que suministra energía al transformador elevador T2. El transformador de aislamientoT1 es de baja tensión, es utilizado para evitar que el cirujano y el paciente estén expuestos alta tensión. Algunas unidades electroquirúrgicas, especialmente las de baja potencia, realizan la misma función por medio de un interruptor colocado directamente sobre el electrodo activo, de manera que pueda ser activado manualmente por el cirujano.
303
Instrumentación Biomédica / Unidades electroquirúrgicas
LA UNIDAD DE ESTADO SÓLIDO Las modernas unidades electroquirúrgicas de estado sólido, se desarrollaron a partir del advenimiento de la fabricación de transistores de potencia de alta frecuencia. Constan esencialmente de un circuito oscilador de onda sinusoidal y de un amplificador de potencia. El principio de funcionamiento del oscilador se ilustra por medio de la figura 10.8.
Figura 10.8. Principio de funcionamiento del oscilador
La ganancia de voltaje = Av =
Vo Vi
Pero Vo = AV y V = Vi + βVo
..........(10.1) ...........(10.2)
donde β representa la fracción realimentada de Vo Por lo tanto: Vi = V - βVo
............(10.3)
Reemplazando la ecuación (10.2) y (10.3) en la (10.1) se obtiene: Av =
Av V – βVo
.........(10.4)
Si la ecuación (10.4) se divide por V y se reemplaza A, se obtiene: Av =
A 1 – βA
Vo V
por
.......(10.5)
En la ecuación 10.5 si βA = 1
........(10.6)
la ganancia Av es infinita. Lo que indica que el más insignificante ruido en la entrada hace que el sistema comience a oscilar y se mantenga en ese estado, generándose ondas sinusoidales.
304
Alvaro Tucci R. En el diagrama del oscilador de la figura 10.8, los bloques A y β están formados por circuitos cuyo comportamiento depende de la frecuencia. Su valor puede calcularse a partir de las ecuación 10.6. Si la condición βA = 1 es verdadera para una sola frecuencia, el sistema generará una señal sinusoidal pura. Tómese como ejemplo la configuración mostrada en la figura 10.9. El circuito marcado con la elipse A, determina la ganancia del amplificador. El marcado con la β no es más que un divisor de tensión que hace que una fracción de Vo sea realimentada en la entrada no inversora del amplificador. Por lo tanto se puede afirmar que: V1 = βVo ..........(10.7) Considérese el divisor de tensión formado por R1 y R2, R2 R1 + R2
V2 = V0
........... (10.8)
De la ecuación 10.7 se obtiene: V1 = βVo =
Z1 Z1 + Z 2
Vo
............(10.9)
Donde: β=
Z1 , Z1 + Z2
Z1 = R +
Reemplazando el valor de obtiene:
1 jωC
2
R–
(
1 ωC
2
, Z2 = R+
1 jωC
Z1 y Z2 en 10.9 y simplificando se
R jωC
V1 =
R jωC
)+
V0
.......(10.10)
3R jωC
305
Instrumentación Biomédica / Unidades electroquirúrgicas
Figura. 10.9. Un circuito oscilador de onda sinusoidal
De la condición de oscilación βA = 1, se observa que este producto es un número real, por lo tanto b también lo es. Para que esto suceda en la ecuación 10.10 debe cumplirse que: ωC =
1 R
...........(10.11)
Si se sustituye la ecuación 10.11 en la ecuación 10.10 se obtiene: V1 1 = Vo 3 Puesto que a la entrada del amplificador operacional V1 = V2, la ecuación 10.8 se reduce a: R2 R1 + R2 =
1 3
..........(10.12)
La conclusión que se deriva del análisis anterior es que los valores de R1 y R2 , además de satisfacer la ecuación 10.12, deben cumplir con los requisitos del amplificador operacional publicados por el fabricante. Para la frecuencia de oscilación deseada, los valores de R y C se obtienen de la ecuación 10.11.
306
Alvaro Tucci R. Ejemplo 10.1 Diseñar un oscilador de 1MHz con la configuración mostrada en la figura 10.9. Solución: Se asume R = 10Kohmios De la ecuación 10.11 se obtiene:
C=
1 2 πfR
=
1 6 4 = 15,9pf 2π10 10
Para satisfacer la ecuación 10.12 se selecciona R1 = 20Kohmios y R2 = 10Kohmios
EL AMPLIFICADOR DE POTENCIA El amplificador de potencia tiene la finalidad de suministrar algunos centenares de vatios al electrodo activo. La potencia a suministrar es manejada por transistores de alta potencia y alta frecuencia, cuya temperatura debe ser mantenida dentro de los límites permitidos por el fabricante. Los transistores, montados sobre disipadores de calor, son enfriados por circulación de aire forzado.
Figura 10.10. El amplificador de potencia
307
Instrumentación Biomédica / Unidades electroquirúrgicas Para resolver el problema de disipación de calor en equipos de mediana y alta potencia, algunos fabricantes especifican el máximo tiempo de corte y el mínimo de “reposo”, así evitan exceder los 250º C que es la temperatura máxima permitida para los transistores. Un ejemplo de un amplificador de potencia es el mostrado en la figura 10.10. El amplificador-driver suministra la señal sinusoidal a la base del transistor de potencia. La corriente de colector Ic, que circula por el primario del transformador, induce tensión en el secundario. En el circuito, Re es la resistencia del electrodo activo. Rb es la resistencia de los tejidos. Rr es la resistencia del electrodo de retorno. Una representación idealizada de las características V-I de un transistor de potencia se muestra en la figura 10.11. Cuando Vb = 0, el transistor no conduce y la tensión Vce Vbb. Si la tensión Vb es mayor que 0,7 voltios, el transistor comienza a conducir. Cuando Vb alcanza la tensión máxima,Vec se aproxima a cero e Ic alcanza su valor máximo. Si el transistor conduce su máxima corriente, la tensión colectoremisor se acerca a cero. Si se analiza la configuración del circuito de la figura 10.10 se observa que: Vbb = Icmax ( Req + Rem )
.............(10.13)
donde Rem es la resistencia de emisor y Req =
(
N1 N2
) 2Rl
...........(10.14)
La resistencia de carga está formada por la suma de la resistencia del electrodo activo Re, los tejidos Rb y el electrodo de retorno Rr Así: Rl = Re + Rb + Rr En un transistor se cumple que Ic = β x Ib
308
........(10.15)
Alvaro Tucci R. Si se reemplaza la ecuación 10.15 en la ecuación 10.13 se tiene: Req + Rem =
V bb β Ibmax
..........(10.16)
A fin de obtener máxima excursión en el voltaje de salida en función de la corriente de base máxima de entrada Ibmax, la ecuación 10.16 proporciona el medio para seleccionar los valores correctos de las resistencias. Usualmente el voltaje de salida Vb del amplificador-driver es conocido. Si se aplica la ley de las mallas en el circuito de entrada se obtiene: Vbmax = Vbe + β Ibmax Rem
............(10.17)
Si se desprecia el voltaje Vbe por ser muy pequeño, Rem =
Vbmax β Ibmax
............(10.18)
Si se conoce el valor b del transistor y el voltaje de base máximo aplicado Vbmax para una máxima excursión de salida, la ecuación 10.16 permite calcular el valor de Rem.
Figura 10.11. Curvas características y recta de carga del transistor de potencia
309
Instrumentación Biomédica / Unidades electroquirúrgicas
Ejemplo 10.2 Con referencia a la configuración de la figura 10.10, se asume que el amplificador-driver tiene impedancia de salida idealmente igual a cero ohmios, y suministra 20 voltios pico a pico y una corriente máxima de 0,5 Amp. Si el transistor de potencia con b = 20 está alimentado con una tensión continua de 200 voltios y suministra corriente a una carga de 500 ohmios, calcular el valor de la resistencia de emisor y la relación de transformación para máxima excursión. Solución: Req + Rem =
Rem =
V bb 200 = = 20 β Ibmax 20 x 0,5
Vbmax 20 = =2 β Ibmax 20 x 0,5
ohmios
ohmios
Por lo tanto, la resistencia equivalente es: Req=20 – 2 = 18 ohmios
N1 = N2
R eq R1
=
18 500
= 0,1897
Ejempo 10.3 Un amplificador, como el mostrado en la figura 10.10, suministra 30 vatios a la interface electrodo activo-tejido cuya resistencia es de 5000 ohmios. La relación de transformación es 0,06667. El transistor de potencia cuya β = 70 y Rem = 2 ohmios, es alimentado con una tensión continua de 200 voltios. Calcular la tensión máxima y la corriente máxima que el amplificadordriver tiene que suministrar a la base del transistor de potencia. Solución: Req =
(
N1 N2
Icmax =
310
)2
2
R1 = 0,06667 x 5000 = 22 ohmios
200 V bb = = 8,33Amp 22 + 2 Req + Rem
Alvaro Tucci R.
Ibmax =
8,33 = 0,12Amp 70
Vbmax = Rem β Ibmax = 2 x 70 x 0,12 = 16,8voltios Para algunos amplificadores-driver la corriente de 0,12 Amp puede ser excesiva. En estos casos se puede emplear la configuración Darlington. Ejemplo 10.4 Un oscilador de onda sinusoidal cuya configuración es la mostrada en la figura 10.9 tiene R1=2 Mohmios y C=0,02 uF. Calcular R y R2 para que oscile a 700 KHz Calcular la frecuencia de resonancia si R=200 ohmios y C=0,002 uF Solución: 1 ωC
R=
R2 = R1+R 2
1 3
1 = = 11,37ohmios 3 -6 2π 700 x 10 x 0,02.10
por lo tanto R2 = R 1 = 2
2 2
= 1Mohmios
La frecuencia de resonancia, para R = 200ohmios y C = 0,002 uF, se determina por medio de la ecuación ωC = f=
1 1 = -6 2πRC 2π 200 x 0,002 x 10
1 , por lo tanto: R
= 398KHz
Ejemplo 10.5 Dada la configuración de la figura 10.10, el amplificador-driver maneja un transistor de potencia cuya β =40 con un voltaje pico a pico de 10 voltios y una corriente de 1mA. Calcular Rem para máxima excursión y Req cuando Vbb=100 voltios.
311
Instrumentación Biomédica / Unidades electroquirúrgicas Solución: Rem =
Vb βxIb
Req + Rem =
=
10 v 3 = 250 ohmios 40x10
V bb βxIb
=
100 3 = 2500 ohmios 40x10
Por lo tanto: Req = 2500 - 250 = 2250 ohmios
CONSIDERACIONES OPERACIONALES El empleo racional de las unidades electroquirúrgicas implica ciertos conocimientos relacionados con la potencia utilizada, el voltaje de operación, la frecuencia y el tipo de onda y si se emplea cirugía monopolar o bipolar. EL MEDIDOR DE POTENCIA La incorporación de medidores de potencia o vatímetros en equipos de electrocirugía es práctica común. Mediante su lectura, el cirujano encuentra un valioso aliado que le permite estimar la potencia que está utilizando durante el acto quirúrgico. Sin embargo, su incorporación no evita el mal empleo del instrumento. Basta recordar que el vatímetro indica el valor del voltaje sobre los terminales de salida del aparato multiplicado por la corriente que circula por los electrodos. Una potencia de 40 vatios podría obtenerse por una de las siguientes combinaciones:
20 v x 40 v x 2000 v 4000 v
2A 1A x 0,02 A x 0,01 A
= = = =
40 vatios 40 vatios 40 vatios 40 vatios
El vatímetro indica la potencia suministrada por el generador al terminal de salida para una impedancia de carga determinada. Si el cirujano está convencido que necesita una potencia de 40 vatios, podría optar por cualquiera opciones anteriores. Podría utilizar voltajes insuficientes o voltajes excesivamente altos. Los
312
Alvaro Tucci R. voltajes insuficientes no producen el efecto quirúrgico buscado y los voltajes elevados, particularmente aplicados en unidades bipolares, podrían ocasionar situaciones de riesgo. Una tensión excesiva en los electrodos puede producir descargas sobre sus aislantes. Este arco, es particularmente destructivo en el medio endoscópico. Cuando se conectan los electrodos los por medio conductores de RF ocurren algunas modificaciones; se introducen en el circuito capacitancias cuyo valor depende principalmente de la longitud, diámetro y configuración del conductor, de las condiciones del medio quirúrgico y del tipo de electrobisturí empleado. Las cánulas largas, aisladas, empleadas en cirugía endoscópica, crean una capacidad adicional apreciable. La capacidad distribuida hace que parte de la potencia, que es indicada por el vatimetro, no es disipada en el electrodo de corte. Los vatímetros son poco precisos, particularmente cuando se opera a baja potencia, como lo son las microcirugías oftálmicas. Considérese, por ejemplo, una microintervención donde se requieren 10 vatios. El manual de operación especifica que la potencia indicada por el vatímetro tiene una precisión de +/– 10% o +/– 5 vatios, cualesquiera que sea mayor. La potencia real suministrada podría estar comprendida entre 5 y 15 vatios. El error es de +/– 50% y podría ser mayor para potencias menores. De las consideraciones anteriores se desprende que la lectura del vatímetro nunca debe ser usada como único criterio para seleccionar la potencia de salida. VOLTAJE DE OPERACIÓN El voltaje de operación determina el comportamiento del electrodo de corte. Una elevada tensión puede causar descargas indeseables, especialmente en intervenciones laparoscópicas. Por tal motivo, en los equipos destinados a estas aplicaciones, se limita la potencia a 100 vatios y la tensión a 1.200 voltios. El voltaje, también determina la temperatura a la cual se efectúa la coagulación. La corriente modulada de coagulación o de mezcla (blended), debido a que deben utilizar un mayor voltaje, generan un arco que tiende a carbonizar de los tejidos. En cambio, las corrientes no moduladas, si usadas con electrodos de gran superficie, pueden cortar y coagular por contacto, lo cual se manifiesta como la deshidratación de los tejidos.
313
Instrumentación Biomédica / Unidades electroquirúrgicas FRECUENCIA DE OPERACIÓN Las unidades electroquirúrgicas operan en el rango de frecuencias comprendido entre 300 KHz y los 3MHz. Para las cercanas a los 3 MHz, las capacidades distribuidas son las mayores responsables de las pérdidas de potencia en los cables, aislantes y cánulas. Por lo tanto, la potencia disponible en el electrodo de corte es menor. Parte importante de la corriente es desviada a tierra por las capacidades distribuidas, por lo que la lectura del vatímetro es aún menos confiable. FORMA DE ONDA La forma de onda de la corriente aplicada al electrodo activo determina si se produce corte, coagulación o ambas acciones simultáneas. Es un concepto errado asumir que todas las coagulaciones deban hacerse con la corriente de coagulación o todos los cortes con corrientes de corte. En los procedimientos endoscópicos, la coagulación debe realizarse con baja tension y corriente no modulada, utilizando preferentemente electrodos de mayor superficie y tensiones bajas. Los electrodos especialmente diseñados para producir coagulación, como por ejemplo los unipolares tipo espátula, son más seguros, efectivos y ocasionan resultados reproducible.
ELECTROCIRUGÍA MONOPOLAR Y BIPOLAR La mayoría de las lesiones causadas por procedimientos quirúrgicos laparoscópicos provienen de la electrocirugía monopolar. La cirugía bipolar ha resultado ser más confiable y segura. En ella, la corriente circula de un electrodo a otro "bajo la vista" del cirujano. Las posibles lesiones producidas por la cirugía bipolar son menos destructivas y más confinadas, por lo tanto debe ser usada preferentemente en áreas anatómicas "congestionadas". Después de las operaciones laparoscópicas, una pequeña proporción de pacientes puede sufrir lesiones causadas por quemaduras diatérmicas. Durante las operaciones laparoscópicas, cuando se empleanla técnica monopolar, pueden ocurrir quemaduras fuera del campo visual del cirujano, debido a las corrientes de fuga por los aislantes o al acoplamiento capacitivo.
314
Alvaro Tucci R. Las principales precauciones a tomar son:
• El empleo técnicas bipolares y cánulas muy bien aisladas. • Es recomendable usar forceps de coagulación bipolares (Kleppinger forceps), puesto que con ellas se reduce el riesgo de hemostasis por efecto de las corriente de fuga capacitiva.
EFECTOS DE LA RADIO FRECUENCIA
Los efectos biológicos de la corriente alternada dependen en gran parte de su frecuencia. Las bajas frecuencias, como por ejemplo las de 60 Hz, producen contracción muscular y fibrilación cardíaca. Frecuencias mayores, en el rango de algunos KHz no producen estos efectos. En consecuencia, como las unidades electroquirúrgicas operan entre 100KHz y 3MHz,no se producen contracciones ni fibrilación. Sin embargo, no deben ignorarse los efectos nocivos de la corriente, particularmente si son intensas y prolongadas, en pacientes bajo el efecto de la anestesia, Cuando fluyen a través de las células causan su evaporación, lo que equivale a la ruptura de las estructuras tisulares, o sea un corte. La evaporación se produce en aquellos lugares donde la densidad de corriente es alta, particularmente en la cercanía de los electrodos. En los materiales conductores de electricidad, a medida que la frecuencia aumenta la corriente tiende a fluir cerca de su superficie. A este fenómeno se la llama efecto pelicular (Skin effect). En los seres vivos, el efecto pelicular no se manifiesta, por el contrario se observa que la corriente de alta frecuencia fluye preferentemente por sección central del cuerpo. Cabe resaltar que la electrocirugía causa más lesiones que cualquier otro dispositivo eléctrico utilizado en el quirófano. La mayor parte de los accidentes se deben a errores de manipulación. De aquí la importancia de conocer claramente el funcionamiento de estos equipos, así como todas las medidas tendientes a prevenir las complicaciones derivadas de su mal uso.
315
Alvaro Tucci R.
CAPÍTULO 11
Equipos de cirugía láser
T al
DISPOSITIVOS
MÁSER Y
LÁSER
vez, la novedad más fascinante entre todas las investigaciones recientes se deba al estudio de la molécula de amoníaco (NH3). Sus tres átomos de hidrógeno están dispuestos como si ocuparan los vértices de un triángulo equilátero, mientras que el átomo de nitrógeno ocupa el centro del triángulo, equidistante de los átomos de hidrógeno. La molécula de amoníaco en condiciones adecuadas tiene la propiedad de vibrar. El átomo de nitrógeno oscila con respecto al plano del triángulo; lo “atraviesa” en un sentido y después en el sentido opuesto y prosigue indefinidamente con este movimiento. En verdad, la molécula de amoníaco vibra a su frecuencia natural de oscilación de 24 GHz, lo cual corresponde a una longitud de onda de 1,25 cm; en la región de las microondas. El periodo de estas oscilaciones en sumamente constante, mucho más que el período de cualquier otro dispositivo creado por el ingenio humano y más preciso que el movimiento de los cuerpos celestes. En el curso de sus vibraciones, la molécula libera radiación electromagnética a la misma frecuencia de 24 GHz. Para observar este hecho desde otro ángulo, basta imaginar que la molécula de amoníaco puede ocupar uno de los dos niveles energéticos cuya
317
Instrumentación Biomédica / Equipos de cirugía láser diferencia de energía es la de un fotón de 1,25 cm de longitud de onda. Si la molécula desciende de nivel energético emitirá un fotón de esa energía. Por otra parte, si una molécula en el nivel energético inferior absorbe un fotón semejante se elevará al nivel energético superior. El nivel energético superior lo puede alcanzar si se le suministra energía en forma de calor, electricidad o se exponen a un débil rayo de microondas de la misma frecuencia. Pero, ¿qué ocurre cuando una molécula está en el nivel superior y se expone a fotones semejantes? En 1917, el físico Albert Einstein (1879 – 1955), formuló la teoría de que si un fotón con ciertas características incide en una molécula, ésta lo absorbe y su nivel de energía aumenta. Pero si un fotón incide en una molécula que ya posee un alto nivel energético, el fotón incidente continua con su misma trayectoria y energía, mientras que el átomo regresa a su nivel energético inferior y emite un fotón, exactamente en la misma dirección del fotón incidente y con la misma longitud de onda. Luego habrá dos fotones iguales donde existía uno. Esta teoría fue confirmada experimentalmente en 1924. Si en un momento dado se pudieran colocar todas o casi todas las moléculas en el nivel energético superior y este conjunto se expone a la radiación de microondas, entonces predomina la generación de los dobles fotones y ciertamente se producirá un acontecimiento interesante. La radiación entrante de microondas proporciona los fotones necesarios que inducen a las moléculas de amoníaco a emitir un segundo fotón. Como consecuencia de esta interacción, los dos fotones inciden en otras dos moléculas de alto nivel energético produciendo cuatro fotones, y así sucesivamente. Por medio de este mecanismo, en un tiempo muy corto se generaran una gran cantidad de fotones, todos con la misma longitud de onda y todos moviéndose en la misma dirección. El físico norteamericano Charles Hard Townes (n.1915) se preguntó si podría hacer uso de ese principio para producir un rayo de microondas de gran intensidad. En 1953 consiguió la forma de aislar las moléculas de amoníaco en el nivel energético superior y someterlas al estímulo de fotones de energía apropiada. Cuando entraban unos cuantos fotones se desataba una verdadera avalancha. El físico había conseguido la forma de amplificar considerablemente la radiación, por lo que bautizó su dispositivo
318
Alvaro Tucci R. con el nombre de máser, palabra compuesta por las iniciales de las palabras inglesas: Microwave Amplification by Stimulated Emission of Radiation. Dos físicos soviéticos, Alexander Mijáilovich Prójorov (n. 1916) y Nikoláis Yennediéievich Basov (n. 1922), establecieron casi al mismo tiempo que Townes las bases teóricas del máser. Los tres compartieron el premio Nobel de física en 1964. Pronto se crearon los másers implementados con sólidos. Los primeros másers, tanto gaseosos como sólidos, trabajaban en forma intermitente. Era preciso colocar primero los átomos al nivel energético superior para luego estimularlos. Para salvar esta dificultad, el físico holandés – estadounidense Nicolás Bloembergen, decidió emplear un material cuyos átomos pueden tener electrones a tres niveles energéticos; inferior, intermedio y superior. Primero, se inducen los electrones a "subir" al nivel energético superior; una vez allí, dos estímulos adecuados los hacen "descender" primero al nivel intermedio y luego al inferior. Para el estímulo se requieren dos fotones de diferente energía. En este caso, el "ascenso" al nivel superior y la emisión pueden ser simultáneas y sin interferencia entre ambos procesos, así se evita la intermitencia. El máser fue un desarrollo tecnológico de gran éxito. Entre otras aplicaciones fue utilizado para amplificar las señales de radio y como detector ultrasensible de señales radioeléctricas provenientes del espacio exterior. En 1957, Townes no satisfecho con estas aplicaciones, siguió desarrollando su descubrimiento; llegó a la conclusión que éste debería trabajar igualmente bien para cualquier longitud de onda, incluida la luz visible. Así tres años después nacía el láser. El láser, primer dispositivo similar al máser, capaz de producir un rayo de luz visible, intensa, coherente y monocromática, fue construido en mayo de 1960 por el físico norteamericano Theodore Harold Maiman (n. 1927). Maiman, utilizó un cilindro de rubí sintético, que es esencialmente óxido de aluminio con una mínima cantidad de óxido de cromo, recubierto con una delgada capa de plata, con sus caras extremas planas paralelas y muy bien pulidas. El cilindro es alimentado con energía procedente de una lámpara destellante. Los electrones de los átomos de cromo ascienden al
319
Instrumentación Biomédica / Equipos de cirugía láser nivel superior para decaer poco después. Los primeros fotones emitidos estimulan la producción de otros muchos y la barra emite súbitamente un rayo de luz roja intensa. Dicha luz, puede concentrarse en un punto tan pequeño que las temperatura podían sobrepasar la de la superficie del sol. A este dispositivo se le llamó máser óptico, para luego convertirse en láser, palabra compuesta por las iniciales en ingles de Light Amplificatión by Stimulated Emission of Radiation. Otra contribución la aportó en 1960 el físico persa Alí Javan, investigador de los Laboratorios Bell; quien mediante el empleo de una mezcla gaseosa de neón y helio desarrolló el laser La luz “ordinaria”, producida de cualquier forma, desde la hoguera pasando por la luciérnaga hasta la luz solar, se compone de “paquetes” de ondas de diferentes frecuencias que irradian hacia innumerables direcciones. Sin embargo, la luz producida por el láser consta de fotones de una misma frecuencia, que se mueven en la misma dirección y que aparentemente se “fusionan”, dando origen a lo que se denomina “luz coherente”. De esta forma, el láser genera un haz de luz muy intenso, monocromático, formado por ondas coherentes, paralelas como jamás se había producido. Puede recorrer largas distancias sin prácticamente "ensancharse". Se puede enfocar con precisión suficiente para calentar una cafetera a unos 1600 Km de distancia. Enfocar el haz de luz láser significa que se puede concentrar una gran cantidad de energía en un volumen muy pequeño donde la temperatura puede ser muy alta. Puede vaporizar metales, soldar, cortar o perforar sustancias de muy alto punto de fusión. El empleo del láser se ha generalizado. En unos pocos años se han desarrollado láseres que pueden producir centenares de longitudes de onda, desde la luz ultravioleta cercana hasta la infrarroja distante. Se produce la acción láser con una variedad de materiales sólidos, líquidos a gaseosos: óxidos metálicos, fluoruros y tungstenos, semiconductores, líquidos y columnas gaseosas. Cada uno con sus ventajas y desventajas. En la investigación científica, el desarrollo del laser ha aportado nuevos elementos que permiten entender la naturaleza de la luz. Se ha vuelto importantes en el campo de las comunicaciones, en la industria es empleados en la soldadura y el taladrado de precisión y hasta se emplea en la fabricación en juguetes. En la industria
320
Alvaro Tucci R. bélica, se incluye en los sistemas navegación y para apuntar las armas. En medicina, se emplea para el tratamiento del cáncer o en procedimientos quirúrgicos complejos, como la soldadura de la retina desprendida, donde los tejidos circundantes no sufren lesión por efecto del calor. Como bisturí, es menos traumático para el paciente. En operaciones tan delicadas como las de médula espinal o el encéfalo, coagula con gran eficiencia y produce cortes de gran precisión en ambientes secos o llenos de fluido, con muy poca producción de humo.
FUENTES ATÓMICAS DE LUZ La luz neón roja, proveniente de anuncios luminosos y la familiar luz fluorescente, son ejemplos de fuentes de luz diferentes de las lámparas incandescentes. La luz proviene de la emisión de los átomos del material; se genera debido al "re-arreglo" energético de sus electrones. La figura 11.1, representa un átomo con su núcleo y los electrones asociados. Si uno de estos electrones es excitado adecuadamente, se altera su nivel normal de energía y seguramente se desplaza en una órbita de mayor energía.
Figura 11.1. Representación esquemática de la transición de un electrón que causa radiación electromagnética
Si se exita el electrón que se encuentra en la órbita A suministrándole suficiente energía, es probable que se coloque en una órbita de energía superior, como por ejemplo la B. Este electrón, en un tiempo muy corto, (en la mayoría de los átomos es del orden
321
Instrumentación Biomédica / Equipos de cirugía láser -8
de 10 segundos), regresa a su nivel de energía normal. En su regreso, libera y emite el excedente de energía en forma de radiación electromagnética o fotón. La energía de los fotones emitidos es dada por «h × f» -34 Donde «h» es la constante de Plank = 6,626 × 10 joule/seg. Y «f» es la frecuencia de la energía radiante en Hertz. Si la frecuencia de la radiación electromagnética está dentro del rango de la luz visible, el color depende elemento del cual procede. En el caso de la luz neón, la excitación se produce por colisión entre los iones que componen el gas y los electrones suministrados por la corriente eléctrica que lo atraviesa. En su desexcitación, los electrones producen emisión electromagnética cuya longitud de onda corresponde predominantemente a la luz roja. Esta luz, es esencialmente monocromática, aunque no se descarta la presencia de otras longitudes de ondas correspondientes a otros modos de excitación. En las lámparas fluorescentes, el mecanismo de generación de luz se produce en dos etapas. La desexcitación inicial produce luz no visible, predominantemente en la región ultravioleta, la cual es absorbida por una capa que recubre el tubo en su interior. Los átomos que forman esta capa son excitados por la luz ultravioleta y al desexcitarse producen luz visible, policromática, divergente, incoherente (de dirección y fase diferentes) y con una amplia gama de longitudes de ondas. La fluorescencia, se presenta en aquellos materiales que tienen la característica de “desexcitarse” con tiempo mucho mayor que -8 los 10 segundos. En algunos materiales este proceso puede alcanzar horas o hasta de algunos días. A los materiales que tienen esta característica se le llama fluorescentes, puesto que emiten luz por un largo periodo después de haber sido expuesto a cierta excitación inicial intensa. Estos materiales constituyen la base para el desarrollo del láser.
PRINCIPIO DE FUNCIONAMIENTO DEL LÁSER A continuación se describe el principio de funcionamiento, la estructura física, las propiedades y las características del láser.
322
Alvaro Tucci R. EMISIÓN POR ESTIMULACIÓN El principio de operación del láser está basado en la emisión de fotones de átomos excitados. Si los átomos de un material son excitados al mismo nivel y uno de ellos emite su radiación antes que los demás, el “paso” de esa radiación los estimula para que cedan el exceso de energía en forma de radiación electromagnética. Esa radiación emerge en fase y tiene la misma dirección que la radiación que indujo la desexcitación. El efecto se esquematiza en la figura 11.2, donde se muestra cómo el átomo “a”, previamente excitado emite radiación. Cuando ésta “pasa” en la cercanía de los átomos “b” y “c” los estimula para que se desexciten y emitan luz con la misma dirección y fase que la radiación emitida por el átomo ”a”. A la radiación "secundaria"se le conoce como emisión estimulada. Puesto que en la desexitación está envuelta una única transición entre capas atómicas, la radiación emitida por el material es monocromática, es decir, de la misma frecuencia.
Figura 11.2. Atomos estimulados por el proceso de emisión por estimulación
ESTRUCTURA DEL LÁSER El láser está formado por material soporte o huésped (Host material) que contiene “átomos de larga vida de desexcitación”. Si
323
Instrumentación Biomédica / Equipos de cirugía láser algunos de estos átomos en algún momento se desexcita espontáneamente, la radiación emitida estimula los otros átomos que encuentra en su camino para que se desexciten también. Estos grupos de átomos dan lugar a los impulsos de radiación emergente, como “p1” y “p2”, que se pierden fuera del material, tal como se muestra en la figura 11.3. Ahora considérese un impulso dirigido perpendicularmente hacia el espejo E1 y E2. Este impulso se refleja entre los espejos estimulando átomos a su paso, los cuales son desexcitados rápidamente. El espejo E2 es semitransparente, refleja el 60 % de la luz incidente y transmite el 40 % restante. Por lo tanto, parte del impulso en cada reflexión lo traspasa como una luz emergente con muy poca divergencia. Evidentemente, este sistema podría operar continuamente si los átomos que se van desexcitando se vuelven a reexcitar.
Figura 11.3. Estructura simplificada del láser
PROPIEDADES DE LA LUZ LÁSER La luz láser es esencialmente monocromática; proviene predominantemente de un cambio de nivel particular de energía de los electrones de un material dado. Las impurezas y vibraciones
324
Alvaro Tucci R. térmicas de los átomos producen algunas otras longitudes de onda contaminantes. La luz láser que emerge del espejo de salida es coherente. La coherencia implica que, aparte de ser monocromatica, los fotones emitidos están en fase, es decir, no se produce interferencia destructiva. La luz coherente se caracteriza por no ser divergente; después de recorrer cierta distancia la sección trasversal del haz no incrementa. Sin embargo, debido a las vibraciones térmicas y otros efectos menores, el haz, después de recorrer cierta distancia tienda a perderla. El grado de pérdide de coherencia se expresa como longitud de coherencia La longitud de coherencia de un luz perfectamente monocromática es infinita. La luz que emerge perpendicular al espejo E2 tiene una divergencia del orden de los 0,001 radianes. Los láser construidos para ser operados en forma continua tienen potencia comprendida entre fracciones de vatios hasta algunos centenares de vatios. Los construidos para ser operados en forma pulsante pueden tener una potencia instantánea del orden de los millones de vatios, con el tiempo de emisión del orden de los micros o nano segundos. TABLA 11-1 CARACTERÍSTICAS DE ALGUNOS LASER Material Aplicaciones
Longitud de onda (μm)
Helio-neón (gas)
0,6328 (roja)
Argón (gas)
0,4880 (verde)
Dióxido de carbono (gas)
0,6 (IR)
Rubí (sólido)
0,6943 (roja)
Neodimio (sólido)
1,06 (IR)
Potencia 0,5 a 100 mw (cw) Propósito general, calibrar alineación 0,1 a 5 w (cw) Pequeñas soldaduras 10 a 100 w comunicaciones (pulso) 0 a 1Kw (cw) Corte, soldadura, comunicaciones, vaporización, perforación 0 a 1Gw (pulso) Corte, soldadura, vaporización, perforación, calibración 0 a 1Gw (pulso) Corte, soldadura, vaporización, perforación, comunicaciones
Ejemplo 11.1 Un láser de helio-neón con diámetro de 0,3 cm y 10 -3 mw de potencia tiene una divergencia de 2 × 10 radianes. El detector empleado está colocado a una distancia de 200 m. Si el
325
Instrumentación Biomédica / Equipos de cirugía láser 2
detector tiene una superficie de 6 cm hallar la intensidad a la cual el detector puede activarse. Solución: Para resolver el problema se debe hallar la intensidad del rayo láser a 200 m de distancia. El radio del rayo a esa distancia es dado por la fórmula de divergencia siguiente: R2 = R1 + L tan δ -3 -3 R2 = (1,5 × 10 m) + (200 m) (tan 2 × 10 rad ) R2 = 0,4015 m Por lo tanto el área iluminada a los 200 m es: 2
π × 0,4015 = 0,5064 m
2
La intensidad a 200 m de distancia es -3
2 I2 = 10.10 w2 = 0,01975 w/m 0,5064 m
La potencia interceptada por el detector es: 2
-4
2
Pd = I × Ad = (0,01975 w/m )(6 ×10 m ) = 11,85 μw Por lo tanto el detector debe activarse con una potencia de por lo menos 11,85 μw Esta potencia, aunque muy pequeña, es suficiente para activar muchos detectores.
DISPOSITIVOS QUIRÚRGICOS LÁSER Los dispositivos quirúrgicos láser, también conocidos como bisturí láser, son posibles debido a las propiedades de coherencia de este tipo de luz, lo que permite que sea enfocada con mucha más precisión que la luz solar. De hecho, es posible enfocarla al tamaño de las células vivas. La posibilidad de enfoque tan precisa hace que la concentración de energía sobre las células causa su evaporación y por ende el corte del tejido. En la cirugía oftálmica o cerebral, el haz puede ser dirigido a través de pequeñas cavidades, donde los espacios son muy reducidos para poder usar métodos convencionales. Las cirugía láser es más "precisa" que la convencional pero las unidades
326
Alvaro Tucci R. son mucho más costosas, más grandes y su manejo requiere de un entrenamiento prolongado. EL LÁSER DE CO 2 CO2 El diagrama en bloques de un bisturí es mostrado en la figura 11-4. El tubo láser contiene una mezcla de gases de dióxido de carbono, nitrógeno y helio a baja presión, la cual es controlada por la bomba de vacío. En el bisturí de flujo continuo, la bombona suministra gas permanentemente. La finalidad es renovar aquellas moléculas de CO2 que son "destruidas" por el proceso que se efectúa dentro del tubo. La fuente de alto voltaje d.c. suministra suficiente tensión para producir ionización del gas en el tubo. En su interior se establece un flujo de corriente iónica. El flujo de iones al "chocar" con los átomos de gas los excitan y se produce el efecto láser.
Figura 11.4. Diagrama en bloques de un bisturí láser de CO2 de flujo continuo
El haz, que viaja a lo largo del eje del tubo, es reflejado por los espejos situados en ambos extremos y su intensidad se incrementa en cada recorrido. Debido a la semi transparencia de los espejos, parte de la luz emerge del tubo y viaja a lo largo del sistema óptico que actua de guía. Con el lente de enfoque se ajusta al diámetro del haz sobre el campo operatorio.
327
Instrumentación Biomédica / Equipos de cirugía láser Para una determinada potencia del haz, el diámetro del foco determina la densidad de energía que se aplicará al tejido. El ajuste del enfoque y por ende del diámetro del foco, permite al cirujano realizar la operación de corte o coagulación. El corte se realiza con un diámetro pequeño mientras que la coagular requiere de un diámetro mayor. El tamaño del foco debe ajustarse antes de utilizarlo. Si no se hace, el haz podría causar lesiones en los tejidos, especialmente si la potencia es alta. Puesto que el láser de CO2 emite luz infrarroja invisible, no puede ser empleada para ajustar el foco. El inconveniente se resuelve mediante el empleo de un láser auxiliar de baja potencia de helio–neón, que emite luz roja, utilizada únicamente con fines de enfoque, que se llama luz de apuntar o aiming light, la cual pasa por el mismo sistema de lentes que la luz infrarroja. El procedimiento a seguir antes de aplicar potencia para el corte o la coagulación, es enfocar primero la luz visible proveniente del láser de baja potencia. Una vez obtenido el enfoque deseado en el sitio adecuado, se procede a efectuar la operación con el haz infrarrojo de alta potencia. EL LÁSER DE ARGÓN El principio de funcionamiento de esta unidad es similar e la anterior. El láser de CO2 emite en el rango infrarrojo con longitud de onda de 10,6 mm, mientras que el láser de argón emite luz azul de 0,488 mm y verde de 0,515 mm, ambas en el rango visible. La absorción de las radiaciones por parte de los diferentes tejidos depende de la longitud de onda. Esta propiedad se aprovecha para efectuar diferentes tipos de intervenciones quirúrgicas. La luz generada por el láser de CO2 es adecuada para cortar, puesto que es absorbida fácilmente por el agua, principal componente de los tejidos. Mientras que la luz proveniente del gas argón pasa a través del agua con muy poca absorción, pero es fuertemente absorbida por tejidos obscuros, como la hemoglobina o la mielina. La luz proveniente del láser de argón no es tan efectiva para cortar, pero lo es para coagular y para ligar. Con potencia comprendida entre los 0,01 y los 20 vatios es empleada para "soldar" la retina desprendida o para coagular. Para soldar la retina, la luz pasa sin ser absorbida por el humor vítreo, pero es fuertemente absorbida por la retina donde se genera el calor que producirá su "soldadura".
328
Alvaro Tucci R. LÁSER DE CRISTAL DE ESTADO SÓLIDO Este tipo de láser, utilizado en aplicaciones médicas, emplea un cristal artificial que produce longitud de onda de 1,06 mm. El cristal artificial de Nd Yag se coloca entre dos espejos reflectores, tal como se muestra en el diagrama en bloques de la figura 11-5.
Figura 11.5. Diagrama en bloques del un láser de estado sólido
La fuente y bomba produce una luz no coherente con un alto contenido de longitud de onda de 1,06 mm, la cual es dirigida hacia el cristal que es estimulado a la acción láser. La luz, al igual que en los sistemas anteriores, se incrementa en cada recorrido por el cristal al efectuar sucesivas reflexiones en los espejos. Parte es transmitida por la fibra óptica hacia el bisturí láser. Para esta longitud de onda (10 veces menor que la del láser de CO2) la eficiencia de transmisión de la fibra óptica es superior, sin embargo debe ser refrigerada por una corriente de aire. El láser genera unos 100 vatios en forma de luz. Sólo un 15% se aprovecha. El resto debe ser disipado por los sistemas de enfriamiento. La efectividad en el corte de este láser está entre el de CO2 y el de argón. Es adecuado para cortar tejido con mucha pigmentación.
329
Instrumentación Biomédica / Equipos de cirugía láser
MEDIDAS DE SEGURIDAD Puesto que el láser puede producir daños considerables a gran distancia del campo operatorio, durante su empleo deben observarse y cumplirse normas de seguridad como las enumeradas a continuación: 1. Colocar en posición correcta el haz de luz láser antes de aplicar la potencia requerida. Para realizar esta operación debe emplearse la luz de apuntar (aiming light). 2. Calibrar la luz de apuntar para asegurar precisión. 3. Colocar esponjas mojadas alrededor del campo operatorio a fin de prevenir algún daño en los tejidos circundantes si el haz es mal dirigido. 4. Apartar las superficies reflejantes cercanas que puedan desviar la dirección del haz del área de cirugía. 5 Recubrir las superficies plásticas o de goma con hojas metálicas adhesivas, para evitar que sean quemadas por el haz. 6. No emplear el láser con anestésicos inflamables, ni en ambientes donde la concentración de oxígeno es superior al 40%. 7. Utilizar un succionador para eliminar el humo proveniente del campo quirúrgico. 8. El personal presente en el quirófano debe usar lentes con filtro, para evitar la posibilidad que el haz reflejado pueda dañarles los ojos. 9. Eliminar la ropa inflamable para evitar que el haz reflejado pueda encenderla. 10. Cubrir las ventanas con material opaco, para evitar que el haz se propague más allá del quirófano.
330
Alvaro Tucci R.
APÉNDICE A
Seguridad eléctrica hospitalaria INTRODUCCIÓN
Con los avances de las últimas décadas, un hospital, además
de un simple edificio donde se suministran cuidados médicos, se ha convertido en un centro de tecnología donde existen miles de aparatos eléctricos. Por tal motivo, las personas que operan dentro de estas instalaciones, ya sea pacientes, médicos, auxiliares o visitantes están expuestas al shock eléctrico, quemaduras, radiaciones o en contacto con tóxicos. El comportamiento dentro de estas instalaciones debe regirse por normas de seguridad, que tienen por objeto evitar incidentes y proteger a las personas e instalaciones de los percances que pudieran ocurrir. Los equipos deben instalarse siguiendo las instrucciones del fabricante. Las instalaciones de servicios, como las de suministro de energía eléctrica, oxígeno u otros gases y las instalaciones sanitarias, deben realizarse de acuerdo a las especificaciones y ordenanzas vigentes en la región. En este apéndice se analiza únicamente la exposición al shock eléctrico. Se sugieren algunas normas de seguridad orientadas a minimizar las posibilidad de sufrirlo y se proponen algunos dispositivos de protección, especialmente en áreas donde todo parece moverse con electricidad. Se analiza también el efecto fisiológico de la corriente y los riesgos que representa.
331
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria La protección debe ser dirigida particularmente a los pacientes, quienes enfrentan con desventaja estos riesgos, por estar enfermos, anestesiados, inconscientes o sometidos a intervenciones quirúrgicas. A aquellos que se le ha reducido la resistencia natural de la piel, por estar “conectados” a electrodos o catéter intravenoso, o a los que están en ambientes excesivamente húmedos, como los sometidos a diálisis. Aquellos con sondas cardíacas son especialmente vulnerables y necesitan protección adicional, ya que pequeñas corrientes pueden ocasionar la muerte por microshock. El microshock fue reportado a partir de 1969, cuando se observó que pacientes con catéteres instalados podían electrocutarse con corrientes muy inferiores a las normalmente permitidas. El pánico se extendió al estimarse que alrededor de 1200 norteamericanos al año morían electrocutados durante diagnósticos rudimentarios o tratamientos terapéuticos. Esta cifra es sólo una estimación, ya que la muerte por microshock deja escasas evidencias. El riesgo es mucho menor si se entrena adecuadamente el personal, se emplean equipos modernos, se implementan las medidas de seguridad y se hacen pruebas rutinarias de confiabilidad en los equipos.
EFECTOS DE LA CORRIENTE ELÉCTRICA Cuando se aplica una diferencia de potencial entre dos regiones del cuerpo, se produce un flujo de corriente cuya magnitud depende del potencial aplicado y de la resistencia del circuito. La casi totalidad de la resistencia se encuentra concentrada en la piel, específicamente en la capa superior de la epidermis. La resistencia de la piel al paso de la corriente no es un valor constante; es inversamente proporcional al área de contacto, depende de la parte del cuerpo donde es medida, de la cantidad de agua o sudoración presente y de los aceites naturales que contiene. Un electrodo de un centímetro cuadrado en contacto eléctrico con la piel sana y seca presenta una resistencia comprendida entre 15 Kohmios y 1 Mohmio. Si la piel está mojada o lesionada, la resistencia puede bajar hasta el 1% de estos valores. Normalmente se asume que la resistencia del cuerpo, una vez traspasada la piel, es de unos 200 ohmios. Cualquier procedimiento
332
Alvaro Tucci R. médico que reduce o elimina la resistencia natural de la piel hace que el paciente se vuelva muy vulnerable. Cuando se emplean termómetros electrónicos colocados en la boca o en el recto o cuando se instalan catéteres intravenosos, se elimina completamente la resistencia de la piel. Los pacientes sometidos a estas prácticas deben protegerse adecuadamente, puesto que tensiones muy pequeñas pueden ser fatales. Para lograr un buen contacto entre los electrodos y la piel es práctica común reducir deliberadamente su resistencia, para lo cual se coloca gel u otro electrolito entre ambos. En la tabla A1 se 2 especifica la resistencia promedio por cm para diferentes electrodos. Tabla A1 Electrodo en piel seca Electrodo con gel Electrodo que penetra la piel
100 Kohmios 10 Kohmios 0,2 Kohmios
La frecuencia de la corriente a que se está expuestos es normalmente de 60Hz. Sin embargo, existe la probabilidad de que los pacientes estén en contacto con frecuencias mayores cuando sometidos a cirugías donde se emplea el electrobisturí, cuya frecuencia de operación es del orden de los 500 KHz La corriente de alta frecuencia es menos peligrosa, debido a que no tiene capacidad para provocar la contracción involuntaria de los músculos o fibrilación cardíaca. Si su intensidad es del orden de los amperios, en lugar de despolarizar las células y producir electroshock, las vaporiza y produce quemaduras. La electricidad estática también puede ser peligrosa para las personas y los equipos, especialmente los construidos con tecnología CMOS. Las chispas causadas por la electricidad estática pueden causar explosiones en presencia de gases inflamables. Las alfombras, son normalmente la causa de que se establezcan cargas estáticas, por tal motivo no son recomendadas en áreas donde se atienden pacientes críticos. MACROSHOCK Se llama macroshock eléctrico al paso de corriente por una porción extensa del cuerpo. Se clasifica según al efecto fisiológico que produce. Si la intensidad es de algunos miliamperios causa
333
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria ligeros cosquilleos. Una corriente de más intensidad produce una sacudida intensa y dolorosa; puede causar quemaduras severas o la muerte instantánea si la intensidad es del orden de los amperios. Su efecto depende principalmente de la densidad de la corriente y de los órganos por donde circula. El corazón y el sistema respiratorio son los más sensibles. La corriente, en su recorrido, produce despolarización y contracción muscular involuntaria. Si es muy intensa, el calor generado por efecto Joule, hace que se evaporen las células y se quemen los tejidos. Las consecuencias pueden ser fatales si pasa de un brazo a otro, de un brazo a las piernas, o de cualquiera de las extremidades a la cabeza, ya que se ven comprometidos órganos vitales como el corazón o el centro nervioso respiratorio. Si su recorrido es entre un brazo y su mano, entre dos puntos del abdomen, o entre una pierna y otra, donde no están comprometidos esos órganos, las consecuencias son menos severas. Si la corriente pasa por el tórax una porción de ella alcanza el corazón, y si es suficientemente intensa puede producir fibrilación. Si la corriente no pasa por el pecho es improbable que esto ocurra, aun cuando se produzca contracción muscular involuntaria. En la tabla A2 se especifican los efectos fisiológicos de la corriente de 60Hz cuando circula por el tórax. Tabla A.2 Corriente (mA) 1a5 5a8 8 a 20 20 a 80 80 a 1000 Más de 1000
Efectos fisiológico Sensación de cosquilleo Dolor intenso Contracción muscular involuntaria Parálisis Fibrilación cardíaca Contracción sostenida del miocardio
Se llama umbral de percepción a la mínima corriente que se puede sentir. Varía considerablemente entre individuos, principalmente por las condiciones de la piel. Corrientes con intensidad inferior a 5 mA producen únicamente la sensación de cosquilleo. Se considera peligrosa toda corriente superior a este valor. La corriente de 8 a 20 mA causa contracción muscular involuntaria. En ocasiones la persona afectada no puede apartarse
334
Alvaro Tucci R. o soltarse voluntariamente. Otras veces se produce un reflejo de retirada que puede causar lesiones secundarias, como la caída de una escalera. Corrientes mayores de 20 mA, que pasan por el tórax, producen contracciones musculares generalizadas del sistema respiratorio e interferencia de los impulsos nerviosas que lo controlan. Si persisten pueden causar la muerte por asfixia. Desafortunadamente, la corriente con frecuencia de 60 Hz es ideal para producir fibrilación ventricular. La fibrilación cardíaca se presenta si la intensidad a través del tórax es superior a 80 mA. El nodo SA pierde el control habitual de los latidos y el músculo cardíaco interrumpe su funcionamiento normal. Los ventrículos pierden la sincronización, se interrumpe la acción de bombeo, y a menos que se tomen rápidas acciones terapéuticas que reviertan la fibrilación, en minutos sobreviene la muerte. Desafortunadamente la fibrilación no se detiene cuando se elimina la causa que la produjo. Se estima, que por este motivo se producen la mayoría de los decesos por shock eléctrico. Para revertir la fibrilación debe aplicarse a través del tórax una corriente superior a 1 Amperio, la cual causa contracción simultanea del músculo cardíaco. Cuando la corriente es suprimida, es probable que el nodo SA tienda a retomar control y el corazón vuelve a latir normalmente. A este procedimiento se le llama desfibrilación. Los efectos anteriores se magnifican si la protección natural de la resistencia de la piel es eliminada por algún procedimiento médico; por ejemplo, la inserción de sondas por los orificios naturales o por incisión de la piel. En estos casos, con menos voltaje circula la corriente suficiente para producir los efectos fisiológicos descritos. Ejemplo A1 Utilizando los valores de la resistencia de la piel de la tabla A1, determinar los voltajes que producen la corriente de microshock de 5mA para: a.- Dos electrodos superficiales adosados a la piel seca. b.- Dos electrodos superficiales adosados con gel. c.- Dos electrodos que la penetran la piel. 2 Asumir que los electrodos superficiales son 12 cm y que la resistencia interna del cuerpo es de 200 ohmios.
335
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria Solución: El circuito por donde circula la corriente está formado por dos electrodos y la resistencia del cuerpo. La caída de tensión es dada por: V = [2 (R electrodos ) + R cuerpo] I Para electrodos colocados sobre la piel seca se obtiene: V = [2 (100K/12) + 200)] 5mA = 84,33 v Para electrodos con gel se obtiene: V = [2 (10K/12) + 200] 5mA = 9,33 v Para electrodos que penetran la piel la única resistencia es la del cuerpo, por lo tanto V = (200)5 mA = 1,00 v De los resultados se observa que con los electrodos colocados en la piel seca se necesitan 84,33v para que circule una corriente peligrosa. Este valor se reduce a 9,33v para electrodos adosados con gel, y solamente 1v para los electrodos que penetran la piel o están colocados sobre una herida. El macroshock es más frecuente cuando se emplea un sistema de distribución de dos conductores, la fase y el neutro, y no se dispone de un tercer conductor conectado a tierra. La figura A1(a), ilustra la situación de riesgo que puede ocurrir por desperfecto en el equipo donde la fase F entra en contacto con el conductor del paciente P. El macroshock ocurre cuando el individuo toca tierra, la caja o chasis del equipo. La figura A1(b) ilustra cómo, debido al empleo de tomas de corriente de dos terminales, puede producirse macroshock cuando se invierte la fase con el neutro. El individuo recibe una descarga cuando toca el instrumento. La figura A1(c) muestra otra situación de riesgo, que se presenta cuando la fase entra en contacto con la caja del instrumento. El individuo recibe shock eléctrico cuando en contacto con el chasis toca la tierra o el neutro. Por estas razones, el sistema de alimentación con dos
336
Alvaro Tucci R. conductores no está permitido en instalaciones sanitarias. Debe agregarse un tercer conductor, llamado tierra, que conecta las caja de los instrumentos con la tierra del edificio. Nótese que si el conductor de tierra se abre, las condiciones de riesgo mostradas en la figura A1 permanecen.
Figura A1. Situaciones de choque eléctrico con distribución de dos conductores.
MICROSHOCK El microshock es la respuesta fisiológica a una corriente, que aplicada directamente o en la cercanía del corazón, produce estímulos, contracciones no deseadas, o daño en sus tejidos. En casos extremos puede originar la muerte. Ocurre únicamente cuando por el corazón circula corriente alternada de baja frecuencia (60Hz)o corriente continua superior a 10mA.
337
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria En el microshock, la corriente es pequeña y distribuida en volúmenes reducidos, mientras que en el macroshock, la corriente es mucho mayor y se distribuye en volúmenes más grandes. Los pacientes expuestos a este riesgo son aquellos que tienen algún dispositivo colocado cerca o dentro del corazón; cuando tienen colocados electrodos de marcapasos externos, o cuando están sujetos a mediciones endocárdiacas. En las mediciones endocárdicas se emplean catéter aislados de conductor liquido colocados dentro del corazón, con la finalidad de medir la presión sanguínea, tomar muestras de sangre o inyectar medicamentos o colorantes. El catéter es una sonda en forma de tubo que se introduce en las cavidades o conductos normales o patológicos del cuerpo. Sirve de guía para instrumentos quirúrgicos, conductores, para inyectar líquidos o para realizar alguna medida. El catéter aislado está formado por un tubo aislante que hace contacto eléctrico con el corazón únicamente en la punta. El conductor contenido en el tubo puede se sólido o líquido. El microshock se produce por la alta densidad de corriente en la punta del catéter en contacto con el músculo cardíaco. Se entiende por densidad de corriente a la cantidad que circula por unidad de superficie perpendicular a su dirección. El microshock induce al corazón a fibrilar con los resultados antes descritos. La situación en que se produce microshock y el macroshock se ilustra en al figura A2.
338
Figura A2. Densidad de corriente en el microshock y en el macroshock
Alvaro Tucci R. La figura A3 ilustran situaciones en que produce microshock cuando los equipos son alimentados con fase y neutro o cuando el conductor de tierra se abre. Un paciente puede estar sometido a microshock si está “conectado” a dos equipos cuyos chasis están a tensiones diferentes. Estas tensiones son causadas por la caída de tensión en el neutro. Este efecto es virtualmente eliminado si se emplea un buen conductor de tierra.
Figura A3. Situaciones en que se produce microshock
EjemploA2 Un aparato alimentado con 120 voltios entre fase y neutro consume 100 vatios. Si el neutro está conectado al chasis por medio de un conductor que tiene resistencia de 0,2 ohm; calcular la tensión del chasis respecto a tierra. Corriente por el neutro = 100/120 = 0,83 A Tensión del chasis = 0,83 x 0,2 = 0,17 voltios El ejemplo muestra cómo la corriente que circula por el neutro hace que el chasis del aparato esté a una tensión diferente de cero. La pequeña resistencia de 0,2 ohmios es formada por la resistencia del conductor neutro y de las conexiones.
339
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria Es importante reducir esta resistencia al mínimo, para lo cual se deben emplear conductores de suficiente sección y conexiones de excelente calidad. Si por cualquier eventualidad, el chasis del aparato entra en contacto con un paciente que tiene instalado un catéter, la corriente que circula por su corazón será: Corriente de microshock = 0,17/200 = 0,83 mA Es evidente que inclusive una tensión de 0,17 voltios puede producir microshock, puesto que la corriente que circula por el corazón es mayor que 10 uA. Si en el aparato anterior se enciende otra porción del circuito que consume 2A adicionales, la nueva tensión del chasis será: Corriente en el neutro = 2 + 0,83 = 2.83 A Tensión en el chasis = 2,83 . 0,2 = 0,57 V Corriente de microshock = 0,57/200 = 2,85 mA Los cálculos evidencian que para aparatos de mayor consumo deben tomarse mayores precauciones. Ejemplo A3 A3: Con relación a la figura A3(b), determinar la corriente de pérdida si la resistencia de la piel es 10 Kohmios. La resistencia del catéter es de 10 Kohmios y la resistencia del corazón es de 200 ohmios. El equipo electrónico es alimentado con 120 voltios y existe un fuerte acoplamiento de 500 pF entre la fuente de poder y el conductor del paciente. Solución: El circuito equivalente es
340
Alvaro Tucci R. La impedancia del condensador es: Xc = 1/(6,28 f C) = 5,3 Mohmios Por lo tanto, se puede asumir que el resto de las resistencias en el circuito son despreciables. La corriente de microshock que circula será: = V/Xc = 22,6 uA Esta corriente, por exceder el valor de seguridad, puede causar fibrilación del corazón. Este caso se presenta cuando: • El paciente en contacto a dos o más equipos cuyos chasis están a tensiones diferentes. • El paciente en contacto con un solo equipo entra en contacto con tierra. • Cuando el conductor de tierra se abre.
Figura A4. Ejemplo de un microshock y Figura A5. Riesgo de microshock
341
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria La figura A4 muestra cómo un paciente intervenido quirúrgicamente esta sujeto a estos riesgos. El riesgo al microshock no se elimina completamente con la instalación del conductor de tierra. Considérese el caso mostrado en la figura A5, donde el neutro de un equipo de gran consumo, como el de aire acondicionado que está en un ambiente diferente al de el paciente, se abre. La alta corriente de retorno del equipo regresa por el conductor de tierra causando una caída de voltaje apreciable. En estas condiciones, la diferencia de tensión entre los equipos y la tensión de sus chasis respecto a tierra es alta, por lo que puede causar microshock al paciente. Para minimizar este riesgo es recomendable instalar una tierra adicional para los equipos de alto consumo.
BUS DE ALIMENTACIÓN La compañía de electricidad suministra energía por medio de unos conductores que forman el bus de alimentación. Los puntos donde los equipos tiene disponible esa energía son los tomacorrientes, distribuidos por todo el edificio. En ellos se dispone de corriente alternada monofásica, bifásica o trifásica con frecuencia de 50 o 60Hz, dependiendo de los requerimientos del equipo y del sistema eléctrico de cada país. La mayor parte del sistema de distribución, especialmente aquel que alimenta equipos médicos de bajas potencia, está formado por tres conductores; fases, neutro y tierra. Los equipos de mediana potencia están alimentados con dos fases, neutro y tierra y los de mayor potencia con tres fases neutro y tierra. En el tablero de distribución, el neutro y la tierra se unen y se conectan a un conductor suministrado por la compañía de electricidad que se conecta a la barra de tierra del edificio. El cableado del sistema de alimentación monofásico estandarizado en Norteamérica y adoptado por muchos países se muestra en la figura A6. El conductor de fase F es de color negro, el neutro N es de color blanco y G la tierra de color verde o desnudo. Aunque en el tablero de distribución el conductor neutro esta unido al conductor de tierra, ellos cumplen diferentes funciones y no son intercambiables. Por el neutro fluye la corriente de retorno de la fase, mientras que por el conductor de tierra circula muy poca corriente o ninguna, a menos que existan fallas o fugas.
342
Alvaro Tucci R.
Figura A6. Bus de alimentación en un sistema monofásico
EL SISTEMA DE TIERRA A efectos de la seguridad, el conductor de tierra es el más importante; asegura que las partes del equipo que puedan ser tocadas están efectivamente a tensión cero. De no existir este conductor, al producirse fallas en los circuitos internos, fugas en los aislantes, tensiones estáticas o inducidas por acoplamientos capacitivos, o cortocircuitos, las partes metálicas de los equipos podrían estar a tensiones relativamente altas. Es de esperar, que en condiciones normales la corriente por el conductor de tierra es muy pequeña. Sin embargo, si ocurren fugas de la fase a chasis o se produce un cortocircuito, la corriente puede ser apreciable. En estas condiciones es cuando se pone a prueba su efectividad. La tensión que se establece es el producto de la corriente de fuga por la resistencia de tierra. Para que esta última sea pequeña, el sistema de tierra debe presentar muy baja resistencia, para lo cual los conductores deben ser lo más cortos posible y tener por lo menos dos veces el calibre que el conductor de fase. En caso de cortocircuito a tierra, mientras no actúen los sistemas de protección formados por los fusibles o breakers, por el conductor de tierra puede circular una corriente muy intensa, la misma que circula por los fusible o breaker, por lo tanto debe ser capaz de soportarla.
343
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria La figura A7 muestra un sistema de tierra empleado en instalaciones hospitalarias. Cada cama está conectada al punto de tierra del paciente y para cada una existe un grupo de tomacorrientes colocados lo más cerca posible, todos alimentados por la misma fase. El conductor de tierra que los une es llevado también al punto de tierra del paciente. Los punto de tierra de cada paciente son interconectados por las subtierras a la tierra principal del edificio. Todos los equipos y todas las camas que están en una misma habitación deben estar conectados a la misma subtierra por medio de un conductor No 6 u 8, y todas las subtierras deben unirse a la tierra principal del edificio por medio de conductores los más cortos posible. El sistema de tierra en áreas críticas debe ser de alta calidad, puesto que protege a pacientes sometidos a procedimientos médicos que los vuelven particularmente vulnerables. Por tal motivo, también deben conectarse a tierra todas las superficies conductoras que se encuentran en el área y que pudieran entrar en contacto con los pacientes o con quienes los atienden.
Figura A7. Sistema de tierra en cada cama
Deben conectarse al punto de subtierra la cama metálica, los marcos de las puertas y ventanas metálicos, las tuberías de agua y
344
Alvaro Tucci R. de gases, estantes y cualquier otra superficie conductora. La resistencia hasta la tierra del paciente debe ser menor que 0,1 ohmios y la tensión no debe exceder 0,1 voltio. El macroshock, generalmente se produce por la ausencia o defecto en sistema de tierra. Por ejemplo, si la fase hace cortocircuito total o parcial con el chasis del aparato o con el conductor que llega al paciente, y si el paciente o el operador están en contacto simultáneamente con la tierra. La primera medida a adoptar para minimizar este riesgo, es que cada equipo debe estar conectado a la red de la forma indicada en la figura A6. El conductor de tierra debe hacer muy buen contacto eléctrico con la carcasa metálica del equipo y con la tierra del sistema eléctrico. Otra fuente de riesgo se produce si el conductor de fase y el neutro son invertidos. Esta situación se presenta cuando se conecta a la red un equipo que dispone de toma de corriente de dos terminales. Por esta razón, debe descartarse su uso y emplearse tomacorrientes especiales, fabricados para uso hospitalario, donde no existe tal posibilidad. Frecuentemente, los equipos con tomacorriente de dos terminales, como radios, televisores o calefactores, son introducidos en las instalaciones hospitalarias por los mismos pacientes o sus familiares. Debe evitarse el empleo de adaptadores que convierten un sistema de tres conductores a uno de dos conductores, donde se elimina la conexión de tierra. TIERRA EN ÁREAS DE CUIDADO CRÍTICO En áreas de cuidado crítico, como salas de emergencia, quirófanos, unidades de cuidado intensivo o coronario, salas de cateterismo, cuartos de recuperación o salas de parto y de diálisis, deben adoptarse los siguientes criterios. • Establecer un solo punto de tierra dentro de la habitación y conectarlo al exterior por medio de un solo conductor. • Limitar al máximo la longitud del conductor de tierra dentro de la habitación. • Medir la caída de tensión y comprobar que se encuentra dentro de los límites permitidos. • Diseñar el entorno para asegurar que el paciente está confinado y protegido dentro del sistema de tierra de su habitación.
345
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria Las precauciones anteriores son efectivas si no se produce ninguna avería en el conductor de tierra, por tal razón, debe tomarse la precaución de revisar periódicamente el conductor, sus conexiones y los contactos de los tomacorriente. Estos últimos deben ser de calidad hospitalaria. Las corrientes de fuga que fluyen hacia el chasis son llevadas a tierra por este conductor. Si se rompe o se abre, el potencial puede subir a niveles peligrosos para los pacientes que están en contacto con el chasis, mientras están siendo cateterizados. Por esta razón, es indispensable realizar inspecciones periódicas en equipos médicos, con la finalidad de detectar posibles corrientes de fuga. Aunque se instalen tierras separadas para cada paciente, no es posible prevenir completamente la aparición de voltajes peligrosos que puedan ser el resultado de fallas en el sistema de tierra.
CORRIENTE DE FUGA Se llama corriente de fuga aquella que fluyen por vías no previstas. Es peligrosa debido a que si el conductor de tierra se rompe o hace mal contacto fluye a tierra a través del paciente. Aunque los equipos estén en perfectas condiciones, la corriente de fuga es casi inevitable, es causada por acoplamientos capacitivos, resistivos e inductivos entre los circuitos eléctricos y el chasis o el cable del paciente. En equipos alimentados con corriente alternada, el acoplamiento capacitivo es el componente principal. Se presenta entre los conductores eléctricos y el chasis, principalmente entre el cable de alimentación, el filtro de línea y transformador. La figura A8 representa estas capacidades por medio de C1, C2 y C3. C1 representa la capacitancia entre el conductor de fase y la caja del instrumento. La mayoría de los equipos tienen un transformador de potencia, donde el primario y los secundarios están enrollados sobre un mismo núcleo magnético. De esa manera, por existir conductores separados por un aislante, se crea el acoplamiento capacitivo C2 entre los devanado y el núcleo. La corriente de fuga más significativa es la que se establece entre el primario y el núcleo, generalmente conectado a tierra. La corriente de fuga debida al transformador varía considerablemente de un instrumento a otro; depende de sus
346
Alvaro Tucci R. dimensiones físicas, de su construcción y de qué forma está conectado a la red. Normalmente se acepta que la corriente de fuga del sistema de potencia sea inferior a 100 uA.
Figura A8. Corriente de fuga debida a las capacidades distribuidas
C3 representa la capacitancia distribuida del conductor de alimentación que es del orden de los 5 uA por metro de longitud. Se reduce a 1uA en conductores especiales que actualmente se encuentran en el mercado. Parte de la corriente de fuga es debida al acoplamiento resistivo; la corriente fluye de los circuitos eléctricos sometidos a tensión hacia el chasis o la sonda del paciente. Se debe a la resistencia finita de los aislantes; su resistencia superficial se ve disminuida por la presencia de humedad, polvo, suciedad, aceite u otros fluidos que pudieran haber entrado en el equipo. El acoplamiento inductivo se produce generalmente por la presencia de transformadores y motores que inducen corrientes de pérdidas en el chasis.
ALGUNAS NORMAS DE SEGURIDAD Los factores que influye en la seguridad son el diseño adecuado del sistema eléctrico, el empleo de materiales de calidad hospitalarias y la utilización de equipos hechos siguiendo las normas de seguridad. Con relación a los equipos pueden hacerse las siguientes observaciones:
347
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria
• No deben volverse peligrosos si son expuestos a condiciones ambientales adversas; en atmósfera de alta o baja humedad, temperaturas extremas, polvo excesivo, almacenamiento prolongado o esfuerzos mecánicos. • Deben construirse para poder ser desinfectados o esterilizados. • Sus superficies no deben ser tóxicas. • Para evitar ser volteados su centro de gravedad debe ser bajo. • Los controles y levas no deben sobresalir excesivamente. • No deben construirse con orificios en la parte superior, para evitar que un derrame líquido pueda llegar a su interior. • Los orificios de ventilación deben ser reducidos, de manera que los niños no puedan introducir sus dedos u objetos metálicos. El conductor de alimentación debe ser protegido contra esfuerzos mecánicos, especialmente en el sitio donde entra en el equipo, de forma que no se transmitan los esfuerzos a las conexiones internas. Debe ser del tipo de bajas pérdidas por fugas entre la fase y tierra. Cada instrumento debe ser marcado con el nombre del fabricante, modelo, serial, fecha de fabricación, voltaje, frecuencia de operación y consumo. Los fusibles y breakers deben identificarse por su amperaje. Deben tener especificado si pueden ser empleados en áreas de cuidado crítico o en presencia de gases inflamables. El reemplazo rutinario de pilas no debe representar un riesgo y debe poderse hacer sin el empleo de herramientas. El acceso a los circuitos eléctricos no debe realizarse sin el auxilio de herramientas, a menos de que se disponga de un sistema automático de desconexión al abrirse el aparato. Debe evitarse el empleo de filtros de línea, debido a que éstos producen corrientes de fuga apreciables. Los fabricantes de equipos para uso hospitalario tienen especial cuidado en aislar la caja del instrumento y minimizar la capacitancia entre ella y conductor de fase. La impedancia entre el conductor de fase y los conductores de las sondas que llegan hasta el paciente debe ser alta. Cuando se reparan estos equipos no deben alterarse estas características.
348
Alvaro Tucci R. Los equipos fabricados con viejas tecnologías generalmente tienen mayores corrientes de fuga, por lo tanto no deben emplearse en pacientes críticos, a menos que esté asegurado un buen sistema de tierra. Cuando un instrumento nuevo o reparado llega al hospital debe comprobarse que la corriente de fuga, en las peores condiciones, está dentro de los límites permitidos y que el cable de alimentación y las conexiones no están rotas o deterioradas. Ambas verificaciones deben realizarse cada tres meses. A pesar de que los instrumentos electrónicos empleados en instituciones hospitalarias se construyen para brindar máxima seguridad, los componentes, como los dispositivos de seguridad, los aisladores, gomas, ventiladores y condensadores, cuando envejecen comienzan a fallar. Se deben inspeccionarse periódicamente y realizar mantenimiento preventivo.
TÉCNICAS DE PROTECCIÓN Existen dos métodos de protección contra el shock eléctrico. En el primero, se trata de aislar el paciente para que no tenga la posibilidad de entrar en contacto con la fuente de energía eléctrica y la tierra; el segundo, consiste en mantener todas las superficies conductoras que pudieran entrar en contacto con el paciente a un mismo potencial. En la práctica, ninguno de estos sistemas puede realizarse fácilmente, por eso se recurre a su combinación. INTERRUPCIÓN DE LA ENERGÍA ELÉCTRICA La interrupción de energía en equipos sostenedores de la vida, como los respiradores, desfibriladores, marcapasos y aquellos situados en el área de quirófano, puede ser fatal si el sistema de emergencia no entra inmediatamente en servicio al detectar la interrupción del sistema eléctrico de la zona. Los hospitales deben contar con una planta de generación de electricidad, de potencia adecuada para alimentarlos mientras permanezca la interrupción. Se considera que la transferencia de potencia al sistema de emergencia no debe durar más que 10 segundos, lo cual implica que las plantas deben estar en funcionamiento continuo, o disponen de sistemas de arranque rápido o de bancos de baterías. La tierra del sistema de emergencia debe ser la misma que la empleada durante el suministro normal de energía.
349
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria DOBLE AISLAMIENTO El doble aislamiento tiene por objeto evitar que las personas entren en contacto con el chasis u otra superficie conductora que pudiera estar expuesta a una tensión. Para lo cual, se montan los circuitos eléctricos en un chasis interno, aislado de la caja externa del equipo, de forma que el riesgo de shock es pequeño, aun cuando en el chasis interno se produzcan fugas a tierra.Si la caja externa está hecha con material aislante, éste actúa como segundo sistema de protección. Toda leva, eje de control, o interruptor que atraviesa la barrera de aislamiento debe estar hecha de material aislante. El doble aislamiento debe ser efectivo aun si se produce algún derramamiento de liquido conductor en la superficie del aparato. Algunos equipos, como los transductores de presión empleados en la zona cardíaca, se construyen con triple aislamiento. Ciertos catéteres se fabrican con paredes conductoras, con lo cual se pretende disminuir la densidad de corriente en la cercanía del corazón. INTERRUPCIÓN POR FALLAS EN EL SISTEMA DE TIERRA Su acción consiste en interrumpir la alimentación, si se detecta que la corriente que circula por el conductor de fase difiere, en cierto valor predeterminado, de la corriente que circula por el neutro. La corriente "diferencia" debe fluir forzosamente hacia tierra, ya sea a través de las fugas en el instrumento, o cuando un paciente toca simultáneamente la fase y la tierra. Un tipo interruptor de protección es mostrado en la figura A9. El sensor del sistema es un transformador diferencial, que no es más que un núcleo magnético en el cual se enrollan con el mismo número de vueltas y en sentido contrario los conductores de fase y neutro. En el tercer devanado se induce una señal si se establece un flujo magnético diferencial, el cual es aplicado a la entrada del amplificador. En equipos sin fuga, la corriente de fase If es igual a la corriente de neutro In. El flujo magnético generado en el núcleo por estas dos corrientes es igual y de sentido contrario, por lo tanto nulo. En estas condiciones no se induce tensión en el tercer devanado, no se activa el amplificador, la bobina del relé no se energiza, el interruptor de fase y neutro permanece cerrado y en el tomacorriente habrá tensión.
350
Alvaro Tucci R. Si el conductor de fase es tocado por algún individuo o tiene fugas, parte de la corriente es desviada a tierra. En este caso, la corriente de fase If es mayor que la corriente en el neutro.
Figura. A.9. Interruptor por fallas en el sistema de tierra
En estas condiciones, se establece un flujo magnético diferencial en el núcleo del transformador. Se induce una tensión en la bobina de entrada del amplificador y se energiza la bobina del relé, que desconecta la fase y el neutro del tomacorriente. La velocidad de respuesta de este protector es inversamente proporcional a la magnitud de la corriente de fuga a tierra. La figura A 10 muestra la velocidad de respuesta en función de la corriente de fuga. Este sistema se emplea en las instalaciones eléctricas de tres conductores. Es particularmente útil en áreas húmedas, como aquellas donde se practica la hidroterapia. Cuando la corriente es interrumpida debe accionarse manualmente un interruptor que reactiva el circuito. Para comprobar su buen funcionamiento, muchos sistemas de protección tienen incorporado un pulsador que crea una falla a tierra intencional. Este sistema de protección no es suficientemente sensible para proteger los pacientes contra microshock. Por tal motivo, no debe instalarse en áreas críticas donde la interrupción de energía eléctrica podría causar mas daño al paciente que la protección que se le pretende brindar.
351
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria
Figura A10. Tiempo de respuesta de interruptor de protección, en función de la corriente de fuga
EL TRANSFORMADOR DE AISLAMIENTO El conductor de tierra conectado a la caja exterior del equipo provee un camino seguro para las corrientes de pérdidas. Si el conductor de fase entra en contacto con la caja del equipo, por él pueden circular corrientes muy intensas, limitadas únicamente por la capacidad de los fusibles o breakers. El conductor de tierra evita que la tensión de la caja sea igual a de la fase. El shock eléctrico se produce cuando el sujeto entra en contacto directo, o por medio de otros conductores, con la fase del sistema de distribución. Con el transformador de aislamiento esquematizado en la figura A11, la fase y el neutro están aislados de tierra, de forma que si una de estas líneas entra en contacto con tierra, directamente o a través del sujeto, no podrá circular corriente. De hecho, la única corriente que podría circular es la de fuga, que puede alcanzar algunos miliamperios. Si por accidente el conductor de fase entre en contacto con la tierra, el transformador de aislamiento evita la producción chispas. Esta característica es importante en ambientes como los quirófanos, donde existen riesgos de incendio o explosión por la presencia de anestesia inflamable o exceso de oxígeno.
352
Alvaro Tucci R. El transformador de aislamiento es de uso obligatorio en quirófanos y en almacenes donde se guardan anestésicos u otros gases y es recomendable su uso en áreas húmedas. En estos ambientes, para prevenir descargas por corrientes estáticas, el personal, los equipos, las superficies conductoras y los pisos que están hechos con un material conductor, deben conectarse a tierra.
Figura A11. Transformador de aislamiento
Esta precaución representa un riesgo adicional para los sujetos que toquen un aparato con fugas, ya que se les crea un camino de la corriente hacia tierra. Los transformadores de aislamiento deben tener bajas fugas y baja capacitancia entre el primario y el secundario(menor que 100pF) y deben ser instalados lo más cerca posible de la cama del paciente. Su empleo presenta algunos inconvenientes; el incremento de la impedancia de la fuente, la limitada disponibilidad de potencia y son costosos. La corriente de fuga, originada por la capacitancia entre el secundario del transformador y tierra, impide que esta protección sea efectiva contra el microshock, por lo que no se justifica su uso para este propósito.
353
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria AISLAMIENTO ÓPTICO El empleo del interruptor por fallas a tierra y/o el transformador de aislamiento, no evitan que pequeñas corrientes de fuga puedan circular por el paciente. El aislamiento óptico es un sistema de protección que evita totalmente el contacto del paciente con el sistema eléctrico. El acoplamiento entre los conductores en contacto con el paciente y el resto del equipo se efectúa por medio de un optoacoplador como se muestra en la figura A12. El optoacoplador es un circuito integrado formado por un diodo emisor de luz (LED) y un fototransistor que actúa como receptor.Los datos provenientes del paciente son amplificados y convertidos por el diodo en ondas luminosas. El fototransistor recibe la señal y la transforma en corriente eléctrica que es enviada el equipo médico.
Figura A12. Circuito integrado de aislamiento óptico.
ALIMENTACIÓN CON PILAS Las pilas recargables o normales, pueden emplearse para alimentar los equipos portáliles, de bajo consumo, o las sondas intracorpóreas. Mediante su empleo se reduce consideramente el riesgo del shock eléctrico.
MEDIDA DE LAS CORRIENTES DE FUGA Los equipos médicos deben estar sujetos a programas de mantenimiento periódico. La medida de la corriente de fuga debe estar incluida dentro de esos programas.
354
Alvaro Tucci R. La corriente de fuga fluye de la fase hacia el chasis del instrumento. Es originada principalmente por las capacitancias distribuidas y en menor grado por la resistencia finita de los aislantes y por efecto inductivo. Las principales fuentes de fuga se producen en el conductor de alimentación de equipo, los filtros de la fuente de poder y el transformador de potencia La corriente de fuga puede circular entre: La caja del instrumento y tierra. La caja del instrumento y la sonda del paciente. La fase y la sonda del paciente.
Figura A13. Tres medidas de corriente de fuga
Para verificar que la conexión a tierra está en buenas condiciones y que los instrumentos pueden emplearse con minimo riesgo, deben realizarse las medidas mostradas en la figura A13. El medidor es representado por un número. Así: (1) representa la medida entre la caja del equipo y tierra, (2) entre la caja del equipo y la sonda de cada paciente y (3) entre la línea y la sonda de cada paciente. El circuito empleado para medir la corriente de fuga para las condiciones (1) y (2) podría ser el mostrado en la figura A14a, mientras que para la medida (3) se sugiere el circuito de la figura A14b. El condensador con la resistencia en serie de 1Kohmio facilitan el paso de corrientes de alta frecuencia. Con la medida (1), se comprueba que la operación del equipo
355
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria es segura aún cuando el conductor de tierra, entre el equipo y el tomacorriente de la pared, se abre, o se eliminara intencionalmente la tierra. Esta medida permite determinar la corriente que fluiría por el paciente si estuviera “conectado” a tierra y tocara la caja del equipo. En este caso la corriente de fuga no debe exceder los 100uA.
Figura A14. Medidores de la corriente de fuga
La prueba (2), mide la corriente de fuga hacia la sonda del paciente en el caso en que conductor de tierra se abra. Esta medida debe realizarse con la sonda activada. La máxima corriente de fuga permitida es de 20 uA para pacientes en áreas críticas y 50 uA en otras áreas. Las medidas anteriores deben realizarse bajo cuatro condiciones: Con el interruptor de línea encendido y apagado, y con la polaridad de línea normal e invertida. Una forma simple de realizar esta prueba, es mediante la sustitución de un adaptador de tres terminales por uno de dos terminales, con el cual se aísla la tierra y se invierte fácilmente la polaridad. Más detalles de medición y valores permitidos se describen en las siguientes publicaciones:
• National Electric Code, publicado en 1978 • Advancement of Medical Instrumentation’s(AAMI) American 356
National Standard de 1978.
Alvaro Tucci R.
VERIFICACIÓN DEL SISTEMA ELÉCTRICO La verificación del sistema eléctrico de distribución, debe realizarse con cierta regularidad de acuerdo a las normas de seguridad vigentes. Algunas de las técnicas que comprueban el buen funcionamiento y la seguridad del sistema se describen a continuación. LOS TOMACORRIENTES Los contactos de los tomacorriente están hechos para soportar una corriente y tensión máxima, que en ningún caso deben excederse. No deben presentar roturas ni zonas quemadas. No es sensato y representa un gran riesgo, conectar una carga que consume 40 amperios en un tomacorriente capaz de soportar hasta 15 amperios. Así, antes de conectar una carga, debe comprobarse que no excede su capacidad. Los contactos entre el tomacorriente y el enchufe se mantienen debido a la fuerza que ejercen unas láminas conductoras flexibles colocadas en cada borne del tomacorriente. Si las láminas ejercen suficiente presión, se establece un buen contacto. En caso contrario, el contacto es pobre y se recalienta, con lo que pierde flexibilidad y empeora su calidad. Con el uso, los tomacorrientes van perdiendo adhesión y eficacia con lo que se originan chispas y recalentamiento. Si la fuerza no es suficiente, existe la posibilidad de que el enchufe se zafe con el solo peso del cable. Un mal contacto implica un riesgo de incendio o que el aparato alimentado se quede sin energía. La fuerza requerida para retirar el enchufe del tomacorriente es una indicación de la calidad del contacto. La fuerza de retención debe ser por lo menos de 120 gramos por contacto, la cual puede ser medida por medio de un dinamómetro. Generalmente los tomacorrientes y enchufes se clasifican en tres categorías: de uso general, de servicio reforzado (heavy duty) y de uso hospitalario. La categoría es determinada por las pruebas que deben "pasar" de acuerdo a las normas UL 428 de la Standard for Electrical Attachment Plugs and Receptacles. Una prueba, por ejemplo, es la de sobrecarga, que se utiliza para ilustrar la diferencia entre las categorías Los tomascorrientes y enchufes de uso general, se conecten y desconecten 50 veces con una carga 150% mayor que la normal. Pasan la prueba si no se produce falla eléctrica, calentamiento,
357
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria alteración de la retención y no se producen “picaduras” ni desgaste en los contactos. Los de servicio reforzado, se conectan y desconectan 250 veces con una carga 200% mayor que la normal. Pasan la prueba si no se producen las fallas anteriormente nombradas. Los de uso hospitalario son unidades muy robustas sometidas a pruebas más rigurosas, como por ejemplo la desconexión muy rápida del enchufe. La retención de los contactos debe ser mucho mayor y capaz de resistir el peso de los conductores del máximo calibre permitido. Cuando se montan, se identifican por tener escrito hospital grade y un punto verde que los identifica una vez montados. Al instalar tomacorrientes nuevos o sustituidos, debe verificarse su cableado, es decir, la fase, el neutro y la tierra están conectados en los borne adecuados, ya que es frecuente que en el proceso se invierte algún conductor. Si el tomacorriente tiene el borne de tierra en la parte superior, el borne derecho es el neutro y el izquierdo es la fase. El terminal del neutro puede ser más grande que el de la fase. El terminal de tierra debe ser el primero en hacer contacto cuando se inserta el enchufe y el último en desconectarse. En el sistema de distribución de tres conductores, deben producirse dos fallas simultáneas para que ocurra un shock. Por ejemplo: el conductor de tierra abierto y la fase en contacto con la caja del equipo. El propósito de la prueba de polarización del tomacorriente es asegurar que el primer error no ocurra. Una forma simple y rápida para comprobar el alambrado de un tomacorriente, es mediante el empleo de un dispositivo de prueba como el mostrado en la figura A15. El alambrado es correcto si el LED 1 y LED 3 se encienden, mientras que el LED 2 permanece apagado. Si el conductor de tierra estuviera abierto sólo el LED 1 encendería. Si el neutro y la fase estuvieran invertidos se encendería LED 1 y LED 2, mientras que el LED 3 permanece apagado. Este dispositivo no prueba si el neutro y la tierra están invertidos. Una de las pruebas para la identificación de los conductores neutro y tierra es mostrada en la figura A16. Para determinar si los conductores neutro y tierra están invertidos, se aplica una carga a un tomacorriente cercano alimentado por el mismo circuito del tomacorriente que se desea
358
Alvaro Tucci R. probar. Con un osciloscopio conectado de la forma indicada, se mide el voltaje en el neutro V1 y el voltaje en la tierra V2. Si el tomacorriente está bien cableado la corriente de carga fluye únicamente entre la fase y el neutro, mientras que por el conductor de tierra sólo circulará una pequeña corriente de fuga. La mayor corriente que fluye por en neutro ocasionara una mayor señal en el osciloscopio, así V1 será mayor que V2 Otra prueba que debe realizarse en los tomacorrientes es la verificación del voltaje de salida, especialmente en condiciones de carga. El voltaje debe ser adecuado a los requerimientos del equipo que se vaya a conectar. Se debe tener especial cuidado para determinar si el equipo es alimentado con sistema monofásico, bifásico o trifásico.
Figura A15. Dispositivo de prueba de las tomas de corriente.
Figura A16. Prueba para la identificación de los conductores de neutro y tierra
359
Instrumentación biomédica / Apéndice A / Seguridad eléctrica hospitalaria
PROGRAMA DE SEGURIDAD El departamento de ingeniería o de mantenimiento de los hospitales y clínicas debe ser responsable del programa de seguridad. El programa debe atenerse a las normas establecidas por cada país, por las institución y las suministradas por el fabricante de cada equipo. Algunas de las normas generales de seguridad son las de reducir a un mínimo las corrientes de fuga a tierra y otras son resumidas brevemente a continuación. Los equipos que representan cierto riesgo deben ser alimentados con conductor de tierra, estar provistos de transformador de aislamiento y estar construidos con doble chasis aislado el uno del otro. Secciones del equipo en contacto con el paciente pueden estar alimentadas con pilas. El máximo potencial permitido entre dos superficies conductoras expuestas en la vecindad de un paciente no debe exceder de 0,5 voltios y en áreas críticas 0,1 voltio. Normalmente, los pacientes tienen contacto ocasional con los equipos eléctricos, mientras que en las áreas críticas el contacto puede ser permanente, por lo tanto, en éstas áreas toda superficie conductora en la vecindad del paciente debe estar conectada a tierra en un punto único, donde también se “conecta el paciente”. Como medida de seguridad debe comprobarse periódicamente la calidad de los contactos a tierra, incluido el del paciente. En áreas de atención general, cada cama debe proveerse con cuatro tomacorrientes con tierra, alimentadas por dos circuitos independientes. En áreas de atención crítica, cada cama debe esta provista de por lo menos seis toma corrientes con tierra, alimentadas por dos circuitos independientes. El conductor de tierra debe tener capacidad para soportar la corriente que soporta el breaker del circuito. Aquellos pacientes con marcapaso no deben estar expuestos a campos eléctricos y magnéticos, como los generados por motores eléctricos, sistemas de ignición, electrocauterismo, diatérmia, hornos de microondas o equipos de resonancia megnética. En general, puede afirmarse que la seguridad eléctrica en las instalaciones sanitarias puede obtenerse con costos moderados si se dispone de un buen sistema de distribución, de equipos bien diseñados, sometidos periódicamente a pruebas y de un personal bien entrenado.
360
Alvaro Tucci R.
APÉNDICE B
Términos médicos Para que los profesionales de diferentes disciplinas puedan "entenderse", es necesario que tengan los conocimiento y dominen los términos propios de cada una de ellas. En el caso de la Instrumentación Biomédica, los ingenieros deben tener nociones de fisiología, anatomía y conocer la terminología médica. En este libro, se utilizan términos biomédicos que posiblemente no son familiares para el lector. Las fuentes de estas definiciones se pueden encontrar en la bibliografía y en la interpretación del propio autor. Generalmente, la terminología médica tiene su origen en el latín y el griego. La mayoría de las palabras constan de una raíz modificada por un prefijo o por un sufijo, o por ambos. PREFI JOS COMUNES Los términos médicos generalmente están formados por varios componentes, uno de los cuales son los prefijos. Considérese la raíz «gástrica», que significa algo relacionado con el estómago. Si se coloca el prefijo "epi", que significa arriba o por encima, se convierte en "epigástrica", con lo que expresa algo perteneciente a la región situada encima del estómago.
361
Instrumentación biomédica / Apéndice B / Términos médicos
La siguiente lista incluye algunos de los prefijos y su significado.
Prefijo
Significado
Ejemplo
a,ad a,an ab,abs Aden ana ante anti artr auto bi, bis bio bleno bradi bronco caco-,caq cardi cefa condro cian circun cito demo derma dia disen,endo enter esteto epi end etimo etio exo fago farmac fisi fleb
proximidad privación separación glándula sobre, separación delante contra articulación uno mismo dos vida mucosidad lento tráquea malo corazón cabeza cartílago azul alrededor célula pueblo piel entre con, dificultad dentro intestino pecho sobre en el interior origen causa fuera de comer medicamento naturaleza física vena
adherencia adiaforesis abstinencia adenotomía análisis, anatomía anteojo antipirético artrítis automático bípedo biología blenorrea bradicardia bronconeumonía cacofinía cardíaco, cardiograma cefalalgia condromalacia cianótico circuncisión citología demografía dermatología diartrosis disentería endocarpio entéritis estetoscopio epidermis endoscopio etimología etiología exógeno fagocito farmacia, farmacopea fisiología flebitis
362
Alvaro Tucci R. fon gastr geront ginec gluc hemi hemat hepat hidr hiper hipno histo hipo icter in, en infra inter intra leuco lit macro melan meso meteor micr miel mio morfo multi necro nefr neo neumo neur noso odonto oftalm orto osteo
voz, sonido vientre viejo mujer dulce medio sangre hígado agua exceso, superioridad sueño tejido debajo, inferioridad amarillez privado de debajo de en medio de adentro blanco piedra grande negro medio en el aire pequeño médula músculo forma numeroso muerto riñón nuevo pulmón nervio enfermedad diente ojo recto, derecho hueso
ot pan para pato ped
oído toda junto a, contra enfermedad niño
foniátra gastralgía gerontología ginecología glucosa, glucógeno hemipléjico hematosis, hematología hepático hidroterapia hipertensión hipnotizar histología hipófisis, hipotensión ictericia insalubre infrarrojo intercostal intramuscular leucocito litiasis macrocéfalo melanosis mesocarpio meteorismo microbio mielitis miocardio morfología multifractura necrología nefrología neonatología neumotórax, neumonía neurosis, neuralgia nosografía odontólogo oftalmólogo ortopedia osteoblasto, osteoporosis otitis pandemia, panacea parásito patología pediatría
363
Instrumentación biomédica / Apéndice B / Términos médicos peri pleur pod poli post pre pro pseudo psico quiro,cir radio re retro sin,sim somat sub supra taqui term toco top toxico trans
alrededor costado pie mucho después delante de por, en vez de supuesto alma mano rayo de nuevo hacia atrás con cuerpo bajo sobre rápido calor parto lugar veneno más
peritoneo, pericardio pleuritis podómetro poligamia, poliomielitis postoperatorio precoz, prematuro procreación seudomembrana sicología cirugía radiografía, radiología repetición recaída retraído sinartrosis somático submaxilar suprarrenal taquicardia termómetro tocología tópico toxicología transparente
SUFIJOS COMUNES Los sufijos en la terminología médica describen cierta condición de una parte del cuerpo o una acción que involucra esa parte. Por ejemplo, el sufijo "grama", precedido de la raiz "cardio", produce la palabra «cardiograma»; o registro de la actividad cardíaca Los siguientes sufijos son algunos de los más comunes en medicina. algia cele centesis clisis coco cito dinia ectasis ectomia génesis
364
dolor hernia procedimiento quirúrgico irrigación, lavado tipo de bacteria célula dolor estiramiento, dilatación eliminación, extirpación condición de, formación
neuralgia onfalocele amniocéntesis venoclisis estafilococo fagocito pleurodinia bronquiectasia gastrectomía cardiogénesis
Alvaro Tucci R.
grama grafo grafía itis logia lisis malacia megalia oma opsia osis patia pepsia fagia fobia plasia plastia poiesis ptisis ragia rafia rea rrexis sclerosis scopio espasmo ostomia terapia tomo tomia trofia
registro, gráfico instrumento que registra proceso de registro inflamación estudio de destrucción ablandamiento agrandamiento tumor ver degeneración enfermedad digestión comer, tragar miedo desarrollo, formación corrección quirúrgica formación escupir, espetar pérdida de suturar flujo, descarga ruptura endurecimiento instrumento contracción muscular nueva abertura tratamiento instrumento cortante ioncisión, seccionar nutrición, desarrollo
electrocardiograma electrógrafo electroencefalografía amigdalitis, artritis urología glicolisis condromalacia cardiomegalia sarcoma biopsia artrosis cardiopatía dispepsia aerofagia, polifagia claustrofobia neoplasia retinoplastia eritropoiesis hemoptisis hemorragia neurorrafia diarrea cariorrexis arteriosclerosis oftalmoscopio broncoespasmo colostomía quimioterapia microtomo gastrotomía atrofia
TÉRMINOS POSICIONALES Y DIRECCIONALES Aferente Eferente Ventral Dorsal Profundo Superficial Distal Proximal
Conducción hacia una estructura Conducción en sentido contrario de una estructura Parte anterior del cuerpo Parte posterior del cuerpo Alejado de la superficie del cuerpo Cerca de la superficie corporal Lejos del principio de una estructura Relacionado con el principio de una estructura
365
Instrumentación biomédica / Apéndice B / Términos médicos
Inferior Superior Lateral Medial Supino Prono Plano frontal Plano sagital P Transverso
Alejado de la cabeza Cerca de la cabeza Concerniente a un lado Relacionado con el centro Boca arriba Boca abajo Plano vertical, divide al cuerpo en anterior y posterior. Plano vertical, divide al cuerpo en derecha e izquierda Plano horizontal, divide al cuerpo en superior e inferior
División anatómica posterior Cervical Torácica Lumbar Sacra Coccígea
Región del cuello (Siete vértebras cervicales) Pecho (Doce vértebras torácicas) Flanco (Cinco vértebras lumbares) Sacro (Cinco vértebras fundidas) Cóccix (Cuatro vértebras fundidas)
TÉRMINOS DE ANATOMÍA GENERAL Los siguientes términos indican zonas o cavidades donde se alojan órganos o vísceras. . Cavid ad Organo Cavidad Craneal Torácica Abdominal Pélvica Espinal
Cerebro Pulmones, corazón, traquea, aorta Estómago, intestinos, bazo, bilis, hígado, páncreas Vesícula urinaria, uretra, uréter, útero, vagina Nervios de la médula espinal
Por su localización, las cavidades craneal y espinal son llamadas dorsales, mientras que las torácica, abdominal y pélvicas son ventrales. Las cavidades torácicas y abdominales están separadas por una estructura muscular; el diafragma.
Cavidad abdominal De acuerdo a la topografía y a la estructura de los órganos, la cavidad abdominal se subdivide en seis regiones anatómicas.
366
Alvaro Tucci R.
Hipocondríaca Epigástrica Lumbar Umbilical Hipogástrica Ilíaca o inguinal
Dos regiones laterales debajo de las costillas Región del estómago Las dos regiones laterales centrales Región del ombligo Región central inferior debajo del ombligo Las dos regiones laterales inferiores
TÉRMINOS DE USO GENERAL Acetilcolina
Éster reversible de ácido acético y colina de importantes funciones fisiológicas como la transmisión de del impulso nervioso por la sinapsis.
Acidosis Ph de la sangre disminuido por escasez de bicarbonato. Alcalosis Ph de la sangre aumentado por exceso de bicarbonato. Auscultación Acción de escuchar los sonidos provenientes del organismo Autónomo Que actúa independientemente de la voluntad. Cánula Tubo pequeño que se utilizado para insertarlo en una cavidad del cuerpo o de un vaso sanguíneo. Cortical Relativo a, de, o que consta de corteza. Despolarizar Hacer que se obtenga una descarga total o parcial. Ectópico Situado lejos de la posición norma. Eferente Que se aleja del centro. Electrodo Dispositivo conductor utilizado para suministrar o recoger corrientes provenientes del cuerpo. Estenosis Estrechamiento de un conducto. Electrolito Conductor eléctrico no metálico por el cual circula corriente iónica. Embrión Descendiente humano o animal antes de salir del útero o del huevo normalmente no completamente desarrollado.
Galvánica Heparina Infarto
Corriente continua normalmente suministrada por una pila o fuente de poder. Ácido que se produce en los tejidos, especialmente en el hígado o en forma artificial. Si se inyecta en el torrente sanguíneo hace incoagulable la sangre. Área de necrosis en un tejido u órgano producido por la obstrucción de la circulación que lo irriga.
Ion
Átomo o grupo de átomos con carga eléctrica positiva o negativa por haber perdido o ganado uno o más electrones.
Isométrico
Que tiene la misma longitud. Un músculo actúa isométricamente cuando ejerce una fuerza sin cambiar longitud
367
Instrumentación biomédica / Apéndice B / Términos médicos Isquemia
Anemia localizada debida a una obstrucción de la circulación. Latencia Retraso entre estímulo y respuesta. Lóbulo División de un órgano o parte algo redondeada. Membrana Fina capa de tejido que recubre o limita una superficie. Metabolismo Conjunto de procesos físicos y químicos mediante los cuales se mantiene la materia viva. Miógrafo Aparato que registra la contracción muscular. Necrosis Muerte del tejido en áreas localizadas. Perfusión Derramar sobre o a través. Prótesis Sustituto artificial de una parte que se carece. Tejido Conjunto de células similares unidas para realizar una función específica. Tórax Parte del cuerpo situada entre el cuello y el abdomen.
TÉRMINOS DEL SISTEMA CIRCULATORIO Aorta Arritmia Arteria Arteriola Arterias Arterias coronarias Aurícula derecha Aurícula izquierda Aurículo ventricular Bloqueo cardíaco
Bradicardia Ciclo cardíaco
368
Vaso arterial que sale del corazón, lleva la sangre para distribuirla por el resto del cuerpo mediante ramificaciones arteriales. Alteración temporal del ritmo cardíaco. Vaso por donde circula la sangre que se aleja del corazón. Pequeñas ramificaciones terminales de las arterias que conducen a los capilares. Vasos sanguíneos de paredes gruesas que conducen la sangre oxigenada desde el corazón hacia el resto del cuerpo. Vasos que derivan de la aorta e irrigan el corazón.Su obstrucción conduce al infarto al miocardio. Cámara superior derecha del corazón. Cámara superior izquierda del corazón. Delimitación situada entre la aurícula y el ventrículo del corazón. Anormalidad cardiaca manifestada por el retraso o interferencia en el mecanismo de conducción por lo cual los impulsos no se propagan por todo el miocardio o por alguna parte importante de él. Ritmo cardíaco lento. Acción de relajación, llenado, contracción y bombeo efectuada por el músculo cardíaco con duración de aproximadamente 0,9 segundos.
Alvaro Tucci R. Capilares Catéter
Circulación Pulmonar Circulación sistémica Defibrilación Desfibrilador Diástole
Vasos de paredes muy delgadas que unen las arterias con las venas y llevan sangre oxigenada a las células del cuerpo. Instrumento médico tubular que insertado en vasos, conductos o cavidades del organismo permite la inyección o extracción de fluidos o una vía de acceso. Sangre que impulsada por el corazón circula por los pulmones para oxigenarse y regresa al corazón. Sangre que impulsada por el corazón circula por todo el cuerpo para suministrarle oxígeno, alimentos y recoger los desechos metabólicos. Corrección mediante métodos artificiales de la fibrilación del corazón. Aparato eléctrico utilizado para detener la fibrilación. Una de las dos fases del latido cardíaco. Ocurre cuando las paredes del miocardio se relajan y la sangre fluye por las venas hacia el corazón.
Embolo Esfingmo-manómetro Estenosis mitral Extrasístole Fibrilación Haz de His
Infarto al miocardio Miocardio Nódulo sinoauricular Paro cardíaco Plestismografía
Partícula anormal de aire, coágulo o grasa en circulación por la sangre. Instrumento empleado para medir la presión sanguínea,especialmente la presión arterial. Estrechamiento de orificio aurículoventricular izquierdo. Contracción prematura del corazón. Contracciones espontáneas, irregulares, asíncronas y muy rápidas de las fibras musculares cardíacas. Pequeño haz de fibras musculares cardíacas que transmiten las ondas de despolarización desde las aurículas a los ventrículos durante la contracción cardíaca. Se puede producir si las arterias coronarias se obstruyen por un coágulo. Musculatura del corazón que actúa en la función de bombeo de la sangre. Marcapasos del corazón o agrupación de fibras musculares cardíacas responsable de iniciar cada ciclo de la contracción cardíacas. Detención momentánea o permanente de los latidos del corazón. Registro de los cambios de volumen de una parte del organismo debido a la circulación de la sangre.
369
Instrumentación biomédica / Apéndice B / Términos médicos Pulso de presión Sístole
Válvula aórtica Válvula mitral Válvula semilunar Válvula tricúspide Vasocostricción Vasodilatación Vasomotor Venas
Ventrículo derecho Ventrículo izquierdo Vénula
Diferencia entre la presión sistólica y diastólica. Una de las dos fases del latido cardíaco. Ocurre cuando las paredes del miocardio se contraen e impulsan la sangre hacia la aorta y la arteria pulmonar. Válvula de salida que comunica el ventrículo izquierdo con la aorta. Válvula situada entre la aurícula y el ventrículo izquierdo del corazón. Válvula de salida del ventrículo derecho a la arteria pulmonar. Válvula situada entre la aurícula y el ventrículo derecho. Estrechamiento de la luz de los vasos sanguíneos. Dilatación de la luz de los vasos sanguíneos. Relacionado con la musculatura que afecta la luz de los vasos sanguíneos. Vasos de paredes más delgadas que las arterias, que conducen sangre con desechos metabólicos provenientes de los tejidos hacia el corazón. Cámara inferior derecha del corazón que impulsa la sangre hacia los pulmones. Cámara inferior izquierda del corazón que impulsa la sangre por el resto del cuerpo. Vena pequeña que conecta una vena mayor con los capilares.
TÉRMINOS DEL SISTEMA RESPIRATORIO Alvéolos Anoxia Apice Apnea Atelectasia pulmonar Capacidad funcional residual Capacidad inspiratoria Capacidad pulmonar Capacidad vital
370
Sacos de aire situados en los pulmones formados por terminales de los bronquíolos. Insuficiencia de oxigeno para mantener la vida. Parte superior del pulmón. Ausencia de respiración. Colapso pulmonar. Volumen de gas remanente en los pulmones después de la espiración en reposo. Volumen máximo de aire que se inspirar a partir del reposo. Volumen de aire contenido en el pulmón al final de la inspiración total máxima. Volumen de aire que se puede exhalar después de la inhalación máxima posible.
Alvaro Tucci R.
Cavidad pleural Centro respiratorio Disnea Hilio Hiperventilación Hipoventilación Hipoxia Neumógrafo Oxihemoglobina Lóbulo Mediastino Pleura Presión parcial de Oxígeno
Respiración externa Respiración interna Tráquea Volumen espiratorio de reserva Volumen inspiratorio de reserva Volumen pulmonar por minuto Volumen residual
Saco sin aire que contiene líquido pleural. Centro nervioso que controla la respiración, situado en la médula oblonga. Dificultad respiratoria. Area central por donde entran y salen los vasos sanguíneos, nervios y bronquios. Respiración profunda, prolongada y rápida de forma anormal. Ventilación debajo de la cantidad normal. Falta de oxígeno. Instrumento que registra los cambios de volumen torácico durante la respiración. Compuesto de oxígeno y hemoglobina formado en los pulmones. Es el medio que transporta el oxígeno a los tejidos. Los pulmones se subdividen en lóbulos; el derecho formado por tres lóbulos y el izquierdo por dos. Pared gruesa que separa ambos hemitorax y que aloja el corazón la tráquea, esófago, aorta, bronquios, etc. Membrana que envuelve los pulmones Presión del oxígeno contenido en el aire. El aire contiene aproximadamente el 21% de oxígeno. Su presión parcial es el 21% de 760m de Hg, o sea 159mm. Por lo tanto, el oxígeno puro se puede suministrar a 159 mm de Hg, lo que equivale a respirar aire a nivel del mar. Es el aire aspirado y espirado de los pulmones. Intercambio de gases; oxígeno y dióxido de carbono, a nivel celular. Conducto principal por donde circula el aire de los pulmones. Volumen de aire que se puede espirar a partir de el punto final de una espiración en reposo. Volumen máximo de aire que se puede inspirar a partir del punto final de la inspiración. Volumen de aire respirado por minuto. Volumen de aire que queda en los pulmones después de una exhalación profunda.
371
Instrumentación biomédica / Apéndice B / Términos médicos Existen dos procesos involucrados en la respiración, la respiración externa y la interna. En la externa, el aire inhalado pasa por la nariz, faringe, laringe y tráquea. La tráquea se divide en dos bronquios, cada uno de los cuales lleva el aire a cada pulmón. Los bronquios se ramifican en bronquiolos, los cuales terminan en sacos de aire llamados alvéolos. El inicio de la respiración interna comienza en los alvéolos, donde se produce el intercambio de gases. Los alvéolos se enriquecen de dióxido de carbono que luego es expirado. La membrana de los alvéolos es muy delgada, del orden de los 0.001 mm.
TÉRMINOS DEL SISTEMA NERVIOSO Acetilcolina
Aferente Anaerobio Aracnoides Axón Barorreceptores
Cerebelo
Duramadre Encéfalo Epilepsia
372
Éter reversible de ácido acético y colina de importantes funciones fisiológicas como la transmisión del impulso nervioso por la sinapsis. Que transmite el impulso nervioso hacia el cerebro. Crecimiento en ausencia de oxígeno molecular. Una de las tres meninges situada entre la duramadre y la piamadre. Se llama así porque su estructura asemeja a una telaraña. Prolongación única, normalmente larga, de la célula nerviosa que conduce impulsos nerviosos. Nervios receptores sensibles a la presión sanguínea cuyos terminales se encuentran en los vasos, especialmente en el seno carotídeo. Centro nervioso del encéfalo que ocupa la parte posterior de la cavidad craneana. Regula la coordinación de los movimientos musculares y es el centro del equilibrio. Membrana exterior muy resistente y elástica del aparato cerebroespinal. Conjunto de órganos nerviosos (cerebro, cerebelo y bulbo raquídeo) contenidos en la cavidad del cráneo. Alteraciones de los ritmos eléctricos propios del sistema nervioso central. Se manifiestan generalmente por una serie de ataques convulsivos y con pérdida de conciencia.
Alvaro Tucci R. Ganglio Hipotálamo Meninge
Mielina
Cualquier agrupación de células nerviosas fuera del sistema nervioso central que actúa como centro. Centro de control de la temperatura, el apetito, la sed, el sueño, las sensaciones y el sexo. Capa protectora formada por tres membranas que envuelve el encéfalo y la médula espinal. Las tres meninges son la duramadre, la aracnoides y la piamadre. Sustancia grasa que recubre ciertas fibras nerviosas.
Nervio
Organo en forma de cordón blanquecino que conduce los impulsos nerviosos de un punto a otro del organismo. Consta de fibras nerviosas eferentes y aferentes o de ambos tipos.
Neurona
Célula nerviosa considerada como la unidad fundamental del sistema nervioso. Estrechamientos de la vaina de mielina de una fibra nerviosa que se producen a intervalos de aproximadamente 1mm. Membrana interna serosa, suave y delicada que cubre el encéfalo y la médula.
Nódulos de Ranvier Piamadre Sistema nervioso central Sistema nervioso periférico Tálamo
Sistema formado por el encéfalo y la médula espinal. Formado principalmente por los nervios sensores y motores que invaden casi todo el cuerpo. Zona donde se reciben y procesan los impulsos sensoriales.
373
Instrumentación biomédica / Apéndice B / Términos médicos
374
Alvaro Tucci R.
BIBLIOGRAFIA
1.- Anatomía y Fisiología, Dr. Carlos Silva Fonseca, Editorial Kapelusz, Buenos Aires, 1980. 2.- Atlas en Colores del Cuerpo Humano, Mosby/Doyma Libros, Diorki Proyectos Editoriales Barcelona, S/F 3.-Basic Physics in Diagnostic Ultrasound, Joseph L. Rose Ph D y Barry B.Goldberg M.D., Johon Wiley and Sons, New York, 1994. 4.- Bioengineering,Biomedical,Medical and Clinical Engineering, Terry Bahill,Prentice Hall Inc., Englewood Cliffs, New Jersey,1981. 5.- Biología, Ruth Bernstein y Stephen Bernstein, 10ª Edición, McGraw Hill Book Co., Santa Fé de Bogotá, 1998. 6.- Biología e Investigación Científica, Helena Curtis, Editorial Médica Panamericana S.A.,1983. 7.- Biomedical Engineering and Instrumentation, Bronzino, J.D., Prindle Weber & Schmidt, Boston, 1986. 8.- Biomedical Instrumentation, Joseph DuBovy, Gregg Dividion Mc Graw Hill Book Co, 1978. 9.- Cause and Preventión of Electrosurgical Injuries in Laparoscopia, Journal of American College of Surgeons, Charles C. Nduka, Aug.1994. York, 1986. 11.- Cronología de los Descubrimientos, Isaac Asimov, Editorial Ariel S.A.,1992. 12.- Diagnostic Ultrasound Principles and Use of Instruments, W. N. McDickens, Ed. John Wiley and Son, New York, 1976. 13.- Diccionario Enciclopédico Quillet, Editorial Argentina Arístides Quillet S.A. 14.- Digital Computer Fundamentals, Thomas C. Bartee, Mc Graw Hill Book Company, New York, 1992.
375
Instrumentación biomédica / Apéndice B / Términos médicos 15.- Electrical Performance and Sefety Testing of Electromedical Equipment. Feinberg, B. N., Prentice Hall, Englewood Cliff, NJ, 1986. 16.- Electronic Devices, Floyd,T.L., Merrill Publishing, Columbus OH, 1988. 17.- Electrónica Fundamental para Científicos, James J.Brophy, Editorial Reverté S.A., Barcelona, 1973. 18.- Electronic Components, Instruments and Troubleshooting, Daniel L. Metzger,Prentice Hall Inc, New Jersey, 1981. 19.- Enciclopedia de la Electrónica, Ingeniería Técnica, Tomo V, Charles Belove, Editorial Oceano, Barcelona. 20.- Encyclopedia of Medical Devices and Instrumentation, Vol.2, Tacker, W.A., John Wiley 21.- Enciclopedia de la Vida. Dr. Neville Butler, Barcelona,1979.1986. 23.- Física, Luis González, Ediciones Co-Bo, Caracas, Venezuela, 1983. 24.- Física, Maiztegui-Sabato, Ediciones Kapelusz, Moreno372, Buenos Aires,1973. 25.- Fisiología Medica, William F.Ganong, 15ª edición, Editorial El Manual Moderno S.A., México, D.F.,1992. 26.- Grandes Ideas de la Ciencia, Isaac Asimov, Alianza Editorial S.A., 1983. 27.- Handbook of Electronics Calculation, Milton Kaufman, 2ª Edición, McGrawHill Book Company, New York,1988. 28.- Informática para Todos, Biblioteca Técnica de Informática, Mario De LuisEditor, Madrid, 2001. 29.- Instrumentación y Medidas Biológicas, Leslie Cromwel y otros, Barcelona,1980. 30.- Interfasing Sensors to the IBM PC, Willis J.Tompkin and John G. Webster,Prentice Hall, Englewood Cliff, New Jersey, 1992. 31.- Interpretación de Electrocardiogramas, Dr. Joseph Wartack, Nueva Editorial Interamericana, México D.F., 1977. 32.- Introducción a las Ciencias Biológicas, Tomo II, Isaac Asimov, EdicionesOrbis S.A., Barcelona, 1985. 33.- Introducción a la Ciencia Física, Tomo I, Isaac Asimov, Ediciones OrbisS.A., Barcelona, 1985. 34.- Laser in Medicine, Absten, G.T. and Joffee,S.N.,2d Edition, Chapman and Hall, London, 1989.
376
Alvaro Tucci R. 35.- Médical Instrumentation Application and Design, John G.Webster, Editor Houghton Miffin Company,Boston,1978. 36.- Métodos Instrumentales de Análisis. Químicos,G.W.Ewing, McGrow Hill de México S.A.,1978. 37.- Monitor Model 78534 Service Manual,. Hewlwtt-Packard Company, Waltham MA, 1988 38.- Neurología Fundamental, Luis Barraquer Bordas, Ediciones Toray S.A. 2ª Edición, Barcelona 1978. 39.- Pequeño Larousse Ilustrado, Ramón García Pelayo y Cross, Ediciones Larousse, París, 1981. 40.- Principles of Biomedical Instrumentation and Measurements.Richard Aston, Maxwell McMillan Inter.Edition, 1991. 41.- Process Control Instrumentation Technology, Curtis D. Johson, Ed. John Wiley. and Sons, 2ª edición, New York, 1982. 42.- Salud Enciclopedia Médica Familiar, Dr. Claude B. Bloudim, Círculo de Lectores S.A. Barcelona, 1980. 43.- Transducer Interfacing, Seippel, R.G., Prentice Hall, Englewood Cliff, NJ, 1988. 45.- Universitas, Gran Enciclopedia del Saber, Salvat Editores, Barcelona, 1979. 46.- Vida sin Condiciones, Dr.Deepak Chopra, Javier Vergara Editores, Buenos Aires,1991
DIRECCIONES
WEB:
1.- http://elmed.com/equal.htm All Electrosurgical UnitsAre Created Equal, Karl Hausner. 2.- http://web.mit.edu/invent/www/inventorsR-Z/towenes.html The Lamerson-MIT Awarddsprogram’s Invention Dimension 3.- http://www.everestmedical.com Everest Medical,13755 Fist Avenue North Minneapolis, Minnesota,55441-5454, 4.- http://www.valleylab.com Valleylab. Inc,5920 Longbow Drive, Boulder, Colorado, USA 5.- http://www.alliedmedical.org 6.- http://www.shockwavetherapy.com
377