La Biblia de La Geofisica

May 11, 2017 | Author: Juan Antonio Ruiz Cruz | Category: N/A
Share Embed Donate


Short Description

Download La Biblia de La Geofisica...

Description

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

El cuadro adjunto sintetiza la fuerza relativa y el alcance de los cuatro campos de fuerza fundamentales del Universo. En el caso de la gravedad y el electromagnetismo (campos potenciales ambos), como es sabido, la fuerza disminuye en relación inversa con el cuadrado de la distancia. Las fuerzas Nuclear Fuerte y Débil sólo actúan a escala del núcleo atómico: la primera mantiene unidos a los protones y neutrones (formados por quarks) contrarrestando al electromagnetismo, y la segunda es responsable de fenómenos como la desintegración beta, que actúa sobre los leptones (electrones, positrones, neutrinos). Tras la unificación de las fuerzas electromagnética y nuclear débil, hecha por el paquistaní Abdul Salam y el estadounidense Steven Weinberg en 1964, muchos físicos han estado trabajando para hallar el vínculo entre éstas y la Nuclear Fuerte y, objetivo más complejo aún, el vínculo con la gravedad para unificar en una única gran teoría a toda la física del universo. Al momento del Gran Estallido o Big Bang, inicio del espaciotiempo y de la entropía, se presume que todas las fuerzas estaban indiferenciadas. Teorías como la de las Supercuerdas con supersimetría intentan comprender estos conceptos fundamentales de toda la física. En lo que a nosotros atañe, la geofísica se las arregla bien con las cuatro fuerzas principales disjuntas. De hecho, en algunos métodos estudiamos magnetismo y electricidad como fenómenos separados, o analizamos las perturbaciones sísmicas en forma separada de la gravedad, a la cual en última instancia se remite, o la radioactividad sin reparar en las fuerzas electromagnética y nuclear débil, y a la geotermia sin analizar que en esencia es también un fenómeno electromagnético. Vayamos entonces al abordaje de la geofísica. La propuesta es navegar virtualmente la Tierra buscando el impulso de favorables fuerzas físicas. Desde el espacio, por aire, agua y sumergiéndonos en el interior sólido del planeta que habitamos. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

“Standing on the shoulders of Giants” Isaac Newton

LA CIENCIA GEOFÍSICA La Geofísica (etimológicamente, del griego, naturaleza de la Tierra) es la ciencia que estudia los campos físicos vinculados a nuestro planeta. Es decir, que estudia la Tierra mediante métodos de la física, de carácter indirecto, a fin de conocer su evolución y características actuales (geofísica pura) y también como herramienta de prospección de recursos (geofísica aplicada). Pueden medirse directamente los campos físicos naturales (gravedad, magnetismo, radioactividad, geotermas, etc.) o generarse campos artificiales por emisión de electricidad, energía sísmica, etc., para así obtener mediciones más efectivas a los fines exploratorios.

Algo de Historia: En la antigua Grecia encontramos los primeros estudios rigurosos sobre la Tierra y el cielo, que aparecen también después en otras civilizaciones (Chinos, Mayas, etc.), destacándose Eratóstenes de Cirene quien a finales del siglo III a. C. calculó con escaso error el radio terrestre, así como la distancia de la Tierra al Sol y la inclinación del eje planetario. El conocimiento de la Tierra se aceleró desde el Renacimiento. El término geofísica es empleado inicialmente por Julius Fröbel en 1834 y otros autores en años siguientes, pero aparece publicado por vez primera en Alemania gracias a Adolf Mühry en 1863: “Beitraege zur Geophysik und Klimatographie”, y luego nuevamente en 1887 en el “Handbuch der Geophysik” de S. Günther. Si bien hubo algunas exploraciones geofísicas informales ya desde la alta Edad Media, el primer aparato específico de prospección geofísica data de 1879, el magnetómetro de los alemanes Thalen y Tiberg, con el que exitosamente buscaron yacimientos de hierro. Y la primera cátedra de geofísica se debe a Emil Wiechert, en 1898 en Göttingen, Alemania. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

Observatorio Maya en Chichén Itzá (México) y primera página de Mundus Subterraneus. de A. Kircher, publicado en 1664, libro que tuvo gran influencia en las primeras teorías sobre el interior de la Tierra.

“DESARROLLO DE LA GEOFÍSICA: “Muchos de los contenidos científicos de la Geofísica son tan antiguos como la ciencia misma. Esto no es de extrañar, ya que la Tierra es el primer laboratorio en el que se realizan observaciones y al que se aplican las teorías científicas. Muchas de las disciplinas que componen hoy la Geofísica extienden sus raíces hasta los orígenes de las ciencias en la Antigüedad. Entre los antiguos griegos de los siglos III y IV a. de C., como, por ejemplo, Eratóstenes y Aristóteles, por sólo citar a dos, se encuentran ya cálculos geodésicos del tamaño de la Tierra y discusiones sobre el origen de los terremotos. La Geofísica moderna se desarrolla a la par de la ciencia en los siglos XVI Y XVII con Galileo, Gilbert, Newton, Halley, etc., y progresa juntamente con ella en los siglos XVIII y XIX. Sin embargo, el término «Geofísica», de acuerdo con W. Kertz, aparece por primera vez en 1863 en el tratado de Adolf Mühry Beitraege zur Geophysik und Klimatographie. Georg van Neumayer, en 1871, define la Geofísica como el conocimiento de las relaciones físicas de la Tierra. En 1880, el profesor de Geografía de Kónisberg Karl J. Zoeppritz define más concretamente la Geofísica como aquella parte de las ciencias de la Tierra que trata del estudio de la actividad de las fuerzas físicas responsables del origen, evolución y estructura de la Tierra. La Geofísica para él llena un vacío existente en las ciencias de la Tierra que entonces constituían la Geografía y la Geología “Antes de la generalización del término «Geofísica», los contenidos de esta ciencia se designaron con otros nombres. A. G. Werner, que procedía de la minería y geología, utiliza en 1755 el término «Geognosia», y mucho antes, en el siglo XVII, J. Zahn y A. Kircher utilizaron el de «Geoscópica». Alejandro von Humbolt, al que se le considera como uno de los padres de la Geofísica moderna y cuya influencia en esta ciencia fue muy grande, utilizó el término «Physikalische Geographie» (Geografía Física) y Franz Neumann el de «Physik der Erde» (Física de la Tierra). A finales del "siglo XVIII v principios del XIX, fuera del ámbito germano, en Francia, encontramos el uso del término «Theorie de la Terre» (Teoría de la Tierra) por De la Metherie y el de «Physique du Globe» (Física del Globo) por Saigey, término este último que sigue usándose en la actualidad. En Inglaterra, el profesor de Cambridge W. Hopkins introduce en 1838 el término "Physical Geology» (Geología Física) para designar la ciencia que trata de los aspectos fisicomatemáticos de la Geología “Como resume Kertz, al final del siglo XIX, la Física había perdido el interés por la Tierra, para la Geología los métodos de la Geofísica le eran extraños y sus temas demasiado generales y algo parecido le sucedía a la Geografía. Esta situación justificaba el nacimiento de una ciencia separada con un nombre y contenido específico, la Geofísica. Esta ciencia queda consagrada definitivamente a finales del siglo XIX

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

con el texto de S. Günther Handbuch der Geophysik, publicado en 1887, con la primera revista especializada creada en 1893 por G. Gerland, Beiträge zur Geophysik, y con la primera cátedra de Geofísica establecida en 1898 en la Universidad de Gottingen y que ocupó Emil Wiechert. “La tendencia a unificar en una sola ciencia, a la que finalmente se dio el nombre de Geofísica, los aspectos fisicomatemáticos de los fenómenos relacionados con la Tierra encuentra desde sus principios el problema de establecer su relación con dos ciencias más antiguas, la Geografía y la Geología. Ya Günther en el prólogo de su obra se extiende en este sentido sobre el significado de la Geofísica y su carácter físico en contraste con el carácter más descriptivo de la Geografía y el limitado a los materiales directamente observables en la superficie de la Tierra y en pequeña escala de la Geología. Sin embargo, la separación entre Geología y Geofísica no es tan clara al principio, como lo demuestran la obra de E. Suess Das Anlitz der Erde, y M. Neumayr y E. Suess, Erdgeschichte. que tratan igualmente temas de ambas ciencias. “Otro problema es la relación entre la Geofísica y la Geodesia, ciencia con una larga tradición y vinculada en muchos aspectos a la Astronomía. Sobre este asunto hay muchas opiniones, aunque se suele vincular a la Geofísica la parte de la Geodesia física y Gravimetría. “Hemos visto que el inicio de la Geofísica como una ciencia independiente se realiza en la tradición alemana desde la Física y las Matemáticas y de una manera un tanto desligada de la Geología. Esta desconexión se agudiza en cierta manera durante la primera mitad de este siglo, durante la cual las interrelaciones entre ambas disciplinas fueron escasas. Esta situación es algo distinta en Estados Unidos, al estar en muchas universidades la Geofísica integrada en un mismo departamento junto con la Geología. El contacto entre ambas disciplinas es, en efecto, muy necesario. La parte de la Geofísica que trata de la Tierra sólida necesita del conocimiento detallado de las capas superficiales que aporta la Geología, y su interpretación de la evolución temporal de las estructuras, y la Geología a su vez necesita de la Geofísica, si no quiere anclarse en una interpretación meramente cualitativa y descriptiva de los fenómenos geológicos. El geólogo, que estudia una región muy concreta, necesita relacionar sus observaciones con procesos tectónicos y estructuras más amplias y profundas cuya información le aporta la Geofísica. Afortunadamente, la tendencia actual es la de un acercamiento de ambas disciplinas, al acentuarse la matematización y el empleo de métodos físicos en el estudio de los problemas geológicos. Baste mencionar, entre otros, la determinación de las edades de estratos y fósiles por métodos radiactivos, el uso del magnetismo remanente de las rocas para determinar el movimiento relativo de bloques de la corteza terrestre y el empleo, cada vez más frecuente, de los métodos geofísicos al estudio de los estratos y formaciones geol6gicas. Por otra parte, al enfrentarse la Geofísica con problemas cada vez más concretos de la estructura y dinámica de la corteza terrestre, necesita para la interpretación de sus observaciones la información de los estudios geológicos, un gran impulso a esta cooperación interdisciplinar se ha logrado con los proyectos internacionales Geodinámico y de la Litosfera en los que entre 1970 y 1990 se aunaron esfuerzos de todas las disciplinas de las ciencias de la tierra para abordar problemas relacionados con la estructura y dinámica de litosfera, corteza y manto superior de la Tierra. Es muy posible que con el tiempo la separación tan rígida entre Geofísica y Geología desaparezca en beneficio de unas ciencias de la Tierra unificadas, en las que las distintas metodologías científicas tengan su aplicación al estudio de los fenómenos relacionados con la Tierra.” (texto extraído de Udías y Mezcúa, 1997, p. 19-22)

Ciencias Afines: Lógicamente, la Geología y la Física son las ciencias más estrechamente vinculadas con la Geofísica. En menor grado, también la Geoquímica es una ciencia afín. Ahora bien, en su definición en sentido amplio están incluídas en la geofísica disciplinas a veces consideradas independientes, como Aeronomía, Meteorología, Oceanología, Hidrología u otras que se vinculan con la geología como Geodinámica y Tectonofísica. La Planetología y la Astrofísica pueden, a su vez, considerarse emparentadas o hasta todavía más amplias, inclusivas de la Geofísica. En su definición en un sentido más restringido están comprendidas la Gravimetría (conectada con la Geodesia), la Magnetometría (con Geomagnetismo y Paleomagnetismo), la Geoelectricidad, la Sismología y dos disciplinas también vinculadas con la geología: Radiometría (incluyendo Geocronología) y Geotermia (relacionada a la Vulcanología). 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

En todas ellas existen vertientes puras y prospectivas, a veces de difícil discernimiento, las cuales se comparan a continuación: Geofísica Pura Gravimetría (con Geodesia) Magnetometría (con Geo y Paleomagnetismo) Geoelectricidad Radiometría (con Geocronología) Geotermia (con Vulcanología) Sismología

Geofísica Aplicada Prospección Gravimétrica Prospección Magnetométrica Prospección Geoeléctrica Prospección Radiométrica Prospección Geotérmica Prospección Sísmica (Refracción y Reflexión) El Perfilaje de Pozos es una subdisciplina común a cada metodología geofísica, y ha tenido un enorme desarrollo principalmente a partir de los requerimientos de la exploración y explotación de hidrocarburos. “DIVISIÓN DE LA GEOFÍSICA: “Uno de los problemas de una ciencia tan amplia como la Geofísica es el de establecer un criterio racional para su división. Si en un principio era fácil el considerarla como una única ciencia, el desarrollo de los últimos años hace cada vez menos posible el abarcar tanto los campos en los que se ha ido subdividiendo como la diversidad de los métodos que en cada uno de ellos se utilizan. No solamente los distintos campos de la Geofísica se van independizando cada vez más, sino que se van creando otros nuevos, necesitándose así de nuevas divisiones, como es el caso del Paleomagnetismo, la Geocronología y la ciencia del interior de los planetas. Este último tema, el estudio del interior de los planetas, su estructura y dinámica, su atmósfera y su sismicidad, posibles ya gracias a los viajes espaciales, ha planteado la cuestión de hasta qué punto la Geofísica se refiere sólo a la Tierra. “Manteniéndonos de momento en el estudio de la Tierra, su mismo objeto impone sobre la Geofísica una cierta unidad. Todos los procesos y estructuras localizadas desde el centro de la Tierra, hasta el límite exterior de la Magnetosfera, son objeto de estudio de la Geofísica. Una de las primeras divisiones propuestas por Gutenberg en el prólogo del libro Lehrbuch der Geophysik, publicado en 1929, se basa en los distintos campos de la Física que se aplican a la Tierra sólida, los mares y la atmósfera. La Geofísica queda de esta forma dividida en capítulos de Mecánica, Gravitación, Electricidad, Magnetismo, Óptica. Calor y Composición de la Materia. Más extendida que esta división es la que se basa en una serie de distintas disciplinas que se han ido formando en el seno de la Geofísica. No existe unanimidad de criterios para esta división, y algunas disciplinas forman ciencias con entidad propia, como la Geodesia y la Meteorología. Una división incluyendo estas materias es la siguiente: Geodesia y Gravimetría. Sismología. Geomagnetismo y Aeronomía. Oceanografía física. Meteorología. Geodinámica. Geoquímica y Volcanología. Planetología Prospección Geofísica “Parecida a esta división es la propuesta por la Unión lnternacional de Geodesia y Geofísica (IUGG) para sus secciones: Geodesia. Sismología y Física del interior de la Tierra. Meteorología y Física de la atmósfera. Geomagnetismo y Aeronomía. Ciencias físicas de los océanos. Hidrología científica. Volcanología y Química del interior de la Tierra.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

Corte esquemático de la envoltura gaseosa de la Tierra.

“La Unión Geofísica Americana (AGU) añade a estas divisiones las de Paleomagnetismo, Tectonofísica, Planetología y Física solar e Interplanetaria. Es difícil, por tanto, el dar una división única y algunas de estas disciplinas, como la Geoquímica o la Física interplanetaria, parecen quedar un poco fuera del ámbito de la Geofísica. Por otro lado, algunas disciplinas se han desarrollado hasta formar casi ciencias separadas, como pueden serlo la Oceanografía y la Meteorología “Una parte importante de la Geofísica la constituye su aplicación a la búsqueda de recursos minerales, es decir, lo que se suele llamar Geofísica aplicada o Prospección geofísica. La existencia de esta rama ha llevado a establecer una primera división de la Geofísica en pura y aplicada. Tanto la división como los términos empleados no son muy afortunados. No está claro por qué el solo interés económico hace de una ciencia que sea pura o aplicada. Este planteamiento lleva a situaciones un tanto absurdas. Por ejemplo, la refracción sísmica para el estudio de la estructura de la corteza terrestre pertenece a la Geofísica pura, mientras que si se aplica a la búsqueda de petróleo, pertenece a la aplicada. Naturalmente, no se puede ignorar que la Geofísica aplicada a la búsqueda de minerales se ha convertido en una disciplina en sí misma con sus revistas especializadas y sus asociaciones internacionales “Otra división de tipo muy general y que se ha utilizado, sobre todo en Francia, es la de Geofísica interna

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

y externa. La primera trata de los fenómenos relacionados con la Tierra sólida., dejando para la segunda los de la atmósfera, océanos, campo magnético externo, medio interplanetario. etc. En realidad, todas las divisiones tienen un poco de arbitrarias, ya que es muy difícil poner límites a unas disciplinas con respecto a otras. No se puede buscar. por tanto, una racionalidad completa en la definición di todo lo que se ha de incluir en la Geofísica y cómo se ha de dividir ésta. Por ejemplo es difícil decidir si el estudio del medio interplanetario o de la actividad del Sol debe pertenecer a la Geofísica o a la Astrofísica. Muchas veces las inclusiones y divisiones tienen un peso histórico y no corresponden a una clasificación puramente metodológica. El problema, además, no es excesivamente importante y podemos dejarlo a la interminables discusiones de los congresos de las asociaciones científicas.” (texto extraído de Udías y Mezcúa, 1997, p. 22-23)

La Anomalía: Es el concepto central de la geofísica prospectiva (del latín prospicere, examinar). De lo que se trata es de registrar, procesar y graficar la respuesta dada por distintos campos físicos en las áreas de potencial interés exploratorio o de desarrollo de recursos. Y entonces buscar los sectores de valores anómalos respecto al fondo local o regional e interpretarlos en términos geológicos a fin de determinar los sitios de interés económico. La búsqueda de anomalías se hará, antes que nada, evaluando información previa de las potenciales áreas a prospectar, para comenzar allí donde las condiciones geológicas y/o de factibilidad económica sean a priori más promisorias. Cuando se ha definido el área, se establece el mallado de mediciones, sea que tales mediciones se hagan a lo largo de trayectorias predefinidas (paralelas entre sí, o formando una cuadrícula, o cualquier otra figura que se considere oportuna) o bien si son puntos más o menos distantes ubicados según las facilidades geográficas de la zona. Usar una malla más fina o más gruesa -es decir, hacer mediciones más cercanas o más lejanas entre sí- dependerá indirectamente de la escala del trabajo -por cuestiones prácticas y de costospero fundamentalmente dependerá del tamaño mínimo de las anomalías de interés. En otras palabras, la red es más cerrada o abierta según sea el tamaño del pescado que queremos capturar. Una vez hecho el registro o adquisición de los datos de campo (mediciones físicas, posicionamiento y eventualmente otros) se harán los cálculos correctivos que constituyen el procesamiento necesario para homogeneizarlos, es decir hacerlos comparables, y poder entonces graficarlos para finalmente hacer su interpretación en términos geológicos y eventualmente de recursos potencialmente explotables. Los datos pueden presentarse en forma de perfiles de pozo (datos esencialmente unidimensionales en el eje z ó 1D, salvo componentes de desviación horizontal del pozo), cortes (también llamados secciones verticales, transectas, calicatas o perfiles, en este caso bidimensionales en x, z, ó 2D), mapas (o secciones horizontales, que también son datos 2D pero llevados a un plano horizontal x,y en lugar de vertical), o volúmenes de información (tridimensional ó 3D, en x, y, z). Y también cualquiera de los anteriores incorporando la variable de cambio temporal, esencialmente allí donde se está explotando un recurso y los registros físicos se modifican en función de la disminución de dicho recurso, por lo que en todos los casos se agrega la dimensión temporal: por ejemplo un volumen (3D) pasa a un delta de volumen (4D, con x, y, z, t). Las curvas que unen puntos de igual valor de la magnitud física relevada se denominan isoanómalas, aunque no necesariamente estemos en presencia de una anomalía significativa. Y los perfiles o cortes o mapas o volúmenes son denominados genéricamente gráficas de anomalía gravimétrica, magnética, radiométrica, de velocidades sísmicas, etc. La prospección geofísica suele hacerse sobre la superficie terrestre, pero también dentro de pozos, o puede ser marina (o lacustre o fluvial), aérea e incluso satelital, dependiendo de las limitaciones inherentes a las magnitudes físicas a medir -por ejemplo, la radioactividad medida sobre el mar es casi nula o las ondas sísmicas pierden sus propiedades distintivas al entrar al aire- y también según sean las tecnologías disponibles y sus costos. 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

Prospección aeromagnética y mapa resultante en perspectiva.

Es muy importante tener en cuenta que distintas realidades del subsuelo pueden producir semejantes anomalías geofísicas, lo que hace indispensable la cuidadosa evaluación de todos los antecedentes geológicos, geoquímicos, de pozos, de otros métodos geofísicos, etc. “PROSPECCION GEOFÍSICA: “La tecnología geofísica, es decir, la aplicación de los conocimientos que brinda la Geofísica en favor de la humanidad, es lo que se denomina "prospección geofísica". Esta sería, a primera vista, un conjunto de técnicas físicas y matemáticas aplicadas a la exploraci6n del subsuelo; para la búsqueda y posterior estudio de yacimientos, de sustancias útiles (petróleo, aguas subterráneas, minerales, carbón, etc.) por medio de observaciones en la superficie de la Tierra de las propiedades físicas de los materiales en el interior de la misma. “Los métodos geofísicos pueden detectar solamente discontinuidades o sea regiones donde las propiedades físicas de las rocas difieren considerablemente de las otras zonas. Esto, que parecería ser una desventaja, resulta una limitación universal ya que el hombre no puede percibir lo que es homogéneo en su naturaleza, sino que reconoce únicamente lo que tiene alguna variaci6n o discontinuidad en el tiempo y en el espacio. “Esas variaciones, denominadas "anomalías" son las que evidencian estructuras o acumulaciones de sustancias útiles que tienen valor económico. Por eso, el objetivo de los métodos geofísicos es ubicar las anomalías más que descubrir el mineral buscado. Para el geofísico tienen más interés las desviaciones respecto al valor normal de las propiedades que el valor absoluto de las mismas. La mayoría de las interpretaciones geofísicas se llevan a cabo con el propósito de determinar la geología profunda por el análisis de las anomalías, pero en muy pocas ocasiones se busca el mineral directamente. “Si se considera a la Geofísica como el estudio de los campos físicos ligados a la Tierra, resulta evidente que la Prospección habrá de apoyarse en la primera, que le brindará la información que necesita sobre tales campos. Pero a su vez, la primera necesita aplicar los métodos de la segunda para la resolución de problemas puramente teóricos. “El primer paso en el uso de la Geofísica con fines prácticos se dio en 1843 cuando se postuló que el teodolito magnético; un instrumento de laboratorio usado para medir variaciones de la declinación (ángulo que forma la dirección al norte magnético con el norte geográfico), podía usarse en el descubrimiento de vetas de minerales magnéticos. Hace poco más de un siglo (1879) se construyó el primer instrumento para ser usado en la prospección de mineral de hierro. Pero, si bien la prospección minera fue la primera aplicación práctica de los conocimientos brindados por la geofísica, los avances más espectaculares y rápidos son producto de la prospección petrolera. Desde que en 1924 se descubrió petróleo por primera vez en un pozo ubicado por medios geofísicos (sísmica de refracción), la actividad en la prospección geofísica se ha expandido a una velocidad extraordinaria. Esto es un resultado lógico de la competencia creciente como así también del desafío cada vez más fuerte que representan los depósitos que faltan descubrir ya que los yacimientos más fáciles de hallar son progresivamente descubiertos y explotados. “La demanda del petróleo y minerales ha llegado a su pico y como las nuevas fuentes que pueden ser halladas con medios geológicos convencionales son cada vez más escasas, salvo en los rincones más alejados de la Tierra, la carga principal de hallar las futuras reservas descansa sobre los geofísicos.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

“RESUMEN DE LOS MÉTODOS DE PROSPECCIÓN GEOFÍSICA “Los métodos de exploración geofísica usados en la búsqueda de minerales o fluidos en el interior de la Tierra pueden c1asificarse según los siguientes grupos principales, de acuerdo a cuál sea: GRAVIMÉTRICO MAGNETOMÉTRICO ELÉCTRICO SÍSMICO RADIOACTIVO PERFILAJES EN POZOS “Si bien este ú1timo grupo combina una serie de técnicas cuyos fundamentos residen en alguno de los otros grupos, merece ser considerado como punto separado por la importancia que reviste. “La e1ecci6n de una técnica o de un conjunto de las mismas para localizar un determinado mineral está condicionada por su naturaleza y la de las rocas que lo rodean. En muy pocos casos el método que se haya e1egido puede indicar directamente la presencia del mineral buscado. Por lo general, lo que se consigue, aun con un buen programa de exp1oraci6n, son indicios si se dan o no las condiciones para la existencia del mismo. “El rango de problemas que pueden ser encarados con estos métodos es muy amplio y va desde los estudios de carácter regional que cubren grandes áreas, a los trabajos de detalle que pueden requerir diferentes mediciones en un mismo punto. “Por otro lado, considerando que diferentes condiciones geo1ógicas están asociadas a los yacimientos metálicos y a los yacimientos de hidrocarburos, resulta 1ógico que la exp1oraci6n minera se 11eve a cabo en áreas favorables a la existencia del mineral que se está buscando. Así, 1a búsqueda de minerales metalíferos se concentra generalmente en áreas en las que se sabe que hay rocas ígneas y metamórficas. A su vez, la exploración para carbón, petróleo y gas se confina a las cuencas sedimentarias, excepto en las raras situaciones en que el petróleo y el gas pueden migrar a rocas ígneas y metamórficas fracturadas. “Los costos son también muy variados. Por lo general, los métodos más económicos son aquellos que permiten la registración en un avión o barco, con lo que se consigue rápidamente un recubrimiento areal grande. En términos generales puede decirse que del total invertido en exploración geofísica, el 90 % se invierte en prospección petrolífera, mientras que el 10% restante se invierte en proyectos mineros o de ingeniería.” (texto extraído de Apuntes del I.S.E.P., 1982, p. 15-18)

Conformación del interior de nuestro planeta, a la luz de la geofísica.

Utilización de los Métodos Geofísicos: Para alcanzar los objetivos, además de los medios disponibles, es fundamental basarse en todo el conocimiento previo (geología superficial, datos de pozos, geoquímica, etc.), en la objetividad y en el trabajo interdisciplinario. 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

Las condiciones que favorecen o aconsejan el empleo de los métodos geofísicos tienen que ver, en primer lugar, con la insuficiente información obtenida por métodos más directos, como la geología de superficie, la información desde perforaciones o la geoquímica, entre otros, insuficiencia que puede deberse a escollos técnicos o bien a costos excesivos. En segundo lugar, con la existencia de respuestas físicas medibles en función de los prospectos de interés geológico, sean éstos de índole económica o puramente académica. En tercer lugar, con la factibilidad de resolución técnica práctica en la ejecución de el o los métodos potencialmente útiles. Y naturalmente, en cuarto lugar, en las ecuaciones de costos (gastos o inversiones) y de los potenciales beneficios, o sea la relación costo/beneficio. Ahora bien, dadas la primera condición general y la segunda para varios métodos con respuestas comparables, serán las posibilidades de abordaje práctico de la problemática a resolver y las diferentes alternativas de costos versus beneficios las que permitirán tomar la decisión de emplear uno u otro método geofísico, con tal o cual modalidad, o varios de ellos en forma complementaria, o ninguno. La relación costo/beneficio estará siempre presente, incluso cuando el beneficio no sea netamente económico sino más bien cualitativo en términos de un conocimiento buscado por su importancia científica o el prestigio académico. Gastamos más (recursos técnicos, mano de obra, esfuerzos, tiempo) cuando creemos poder ganar más, apostamos más cuando el premio es mayor o bien mayor es la probabilidad de ganarlo. Actualmente más del 95% de la inversión mundial en estudios geofísicos está vinculada con actividades petroleras y cerca del 90% del gasto en geofísica corresponde a prospección sísmica y acústica. Estos porcentajes son atinentes también al impacto ambiental de los distintos métodos geofísicos, mucho más crítico en el caso de la sísmica dado su mayor despliegue de recursos. “EL PAPEL DE LA GEOFÍSICA EN LA PROSPECCIÓN DE MINERALES: “(…) El estudio de la interrelación tanto en espacio como en tiempo de las diferentes rocas, el comportamiento en el pasado de éstas, segÚn deducciones, el estudio de los minerales en las rocas ordinarias y en las menas -dicho más brevemente, la aplicación de la geología y de la mineralogía- pueden restringir aún más la zona de prospección. Sin embargo, el área puede ser todavía demasiado grande para que las labores de exploración o cateo, tales como excavaciones y perforaciones, sean prácticas y económicas, por lo que son deseables nuevas restricciones. Además, tanto la geología como la mineralogía dependen de la existencia de afloramientos de rocas, pero no siempre se dispone de éstos. Si existen, puede que no sean 10 suficientemente abundantes para que la situación de los yacimientos pueda predecirse con certeza razonable. Por otra parte, aunque las formaciones metalizadas sean bien conocidas, los yacimientos pueden hallarse ocultos a profundidad menor o mayor por debajo de la superficie accesible para el estudio directo geológico o mineralógico. En realidad, este caso se da muy frecuentemente en la prospección moderna, ya que los yacimientos aflorantes han sido descubiertos desde hace mucho tiempo y en muchos casos están agotados. El papel del examen geo16gico de la superficie, pierde importancia con el desarrollo de la industria minera. “Este es el momento en que la Geofísica -la aplicación de la Física al estudio de la Tierra- entra en escena. Los yacimientos suelen diferir en sus propiedades físicas (susceptibilidad magnética, conductividad eléctrica, densidad, etc.) respecto de las rocas que los rodean. Observando adecuadamente las variaciones de las propiedades físicas del terreno, y mediante cuidadosa interpretación de los resultados, podremos eliminar extensas zonas como de escasa probabilidad para contener menas de ciertos tipos específicos, y encauzar investigaciones más detalladas sobre zonas reducidas y concretas. “La elección de la zona inicial para el estudio geofísico, se hace frecuentemente tomando como guía consideraciones geológicas. Las porciones que la Geofísica puede eliminar son, en términos muy generales, aquellas dentro de las cuales la propiedad física relevante del terreno no presenta variaciones significativas (anomalías), mientras que deben escogerse para ulterior investigación las zonas que muestran variaciones apreciables que puedan atribuirse razonablemente a cuerpos del subsuelo que difieren en dicha propiedad respecto de las rocas encajantes. En este sentido, la prospección de menas es una prospección directa, en contraste con la prospección petrolera, que es indirecta. En la prospección de petróleo no podemos aprovechar ninguna propiedad física del mismo petróleo, sino que hemos de buscar estructuras geo16gicas capaces de actuar como almacenes petrolíferos.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

“Con sólo datos geofísicos no puede decidirse si los cuerpos por ellos señalados corresponden o no a yacimientos mineros. No obstante, la combinación de estos datos con datos geo1ógicos e información de otro tipo, así como con la experiencia previa, permite con frecuencia escoger algunas de las indicaciones como las que presentan mayor probabilidad de estar causadas por la mena buscada. Las costosas labores de exploración, tales como perforaciones, calicatas y pozos, únicas capaces de dar la prueba definitiva de la existencia del mineral, pueden concentrarse en esos pocos lugares. Además, la interpretación detallada de las anomalías geofísicas suministra frecuentemente estimaciones confiables acerca de la profundidad, longitud, anchura, posición, etc., más probables, de los cuerpos anómalos. Estos datos proporcionan ayuda para el establecimiento de programas de explotación racionales y económicos para la estimación del tonelaje y valor del posible yacimiento y para la toma de decisiones sobre su explotación. “Así, la finalidad primaria de la Geofísica en la prospección es la de separar zonas que aparecen como estériles de las que presentan posibilidades de contener yacimientos. Puesto que los yacimientos mineros son accidentes relativamente raros, las zonas estériles son naturalmente más abundantes que las prometedoras, y los resultados de la mayoría de las prospecciones geofísicas serán negativos (correctamente) como ocurre también con la mayor parte de las prospecciones geológicas. Por consiguiente, el éxito de una prospección geofísica bien ejecutada no puede medirse por el número de metalizaciones que ha descubierto, ni por el número de sondeos mecánicos que han cortado mineral, sino por el tiempo, esfuerzo y dinero que la prospección ha ahorrado al eliminar terrenos que, en caso contrario, habrían debido ser desechados por el empleo de métodos más costosos. (…) “Una prospección puede ser considerada como satisfactoria, aunque no se haya obtenido ninguna indicación geofísica, o aunque en caso afirmativo, no se haya encontrado mineral después de perforación o calicateo. El criterio y medida del éxito es simplemente el ahorro estimado en los costes, conseguido por la eliminación de terreno estéril efectuada por medio de la prospección geofísica. (Al estimar este ahorro, el coste de las labores efectuadas específicamente para comprobar los resultados de la prospección, como por ejemplo, perforaciones, debe incluirse, como es natural, en el coste de la prospección.) (…)” (texto extraído de Parasnis y Orellana, 1971, p. 19-22)

Por último, una definición de autor no identificado, en algún grado verídica, publicada por la revista de la American Association of Petroleum Geologists (contraparte natural de la Society of Exploration Geophysicists): “A Geophysicist is a person who passes as an exacting expert on the basis of being able to turn out with prolific fortitude infinite strings of incomprehensible formulae calculated with micrometric precision from vague assumptions which are based upon debatable figures taken from inconclusive experiments carried out with instruments of problematic accuracy by persons of doubtful reliability and questionable mentality for the avowed purpose of annoying and confounding a hopeless group of fanatics known as Geologists who are themselves the lunatic fringe surrounding the hard-working Oil Operator.”

Plataforma petrolera en alta mar.

Intentaremos no molestar demasiado, ni seguir contribuyendo a la confusión del lector, sea éste estudiante de Geología, de Ingeniería en Petróleo o cualquiera otra fuese su formación previa. En el peor de los casos, esperamos poder ayudar a conciliar el sueño…

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 1 La Ciencia Geofísica

Chelotti, L., Acosta, N., Foster, M., 2009.

CUESTIONARIO BÁSICO - Dar una definición de geofísica. - ¿Cuáles ciencias le son afines? - Comentar brevemente los antecedentes históricos. - ¿En qué se fundamenta la separación en geofísica pura y aplicada? - Definir anomalía geofísica. - ¿De qué depende la densidad del muestreo de datos? - ¿Qué condiciones favorecen el empleo de estos métodos?

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.18-34). Librería de Ciencia e Industria. - Parasnis y Orellana, 1971. Geofísica Minera (p.19-35). Editorial Paraninfo. - Udías y Mezcua, 1997. Fundamentos de Geofísica (p.19-35). Alianza Editorial.

- Varios Autores, 1982. Apuntes del Instituto Superior de Exploración Petrolera (p.15-18). Yacimientos Petrolíferos Fiscales.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

“Eppur si muove” Galileo Galilei

PROSPECCIÓN GRAVIMÉTRICA

La gravimetría estudia las variaciones del campo de la gravedad (del latín gravitas) debido a una desigual distribución de masas en el interior de la Tierra. Consiste en medir e interpretar las anomalías que las variaciones de la densidad en el subsuelo generan sobre el campo gravitatorio terrestre. La densidad de los posibles minerales del subsuelo ha de ser tenida en cuenta, pero es sabido que éstos conforman rocas que sólo raramente tienen pesos específicos más o menos homogéneos (el caso de los carbones, con 1-1,7, calizas con 2,7-2,8 o evaporitas con unos 2,1 g/cm3) mientras que lo más frecuente es que se combinen en litologías heterogéneas. Rocas muy densas (por ejemplo metamórficas e ígneas, esta últimas con unos 2,7 si son graníticas y cerca de 3 g/cm3 si son basálticas) han de provocar mayor atracción gravitatoria, y menor las que tienen baja densidad (en general las sedimentarias, que en el caso de las clásticas promedian los 2,2-2,4 g/cm3 y de 2 ó menos si son sedimentos inconsolidados). Además, una misma litología incrementa su densidad con la profundidad de soterramiento y consecuente aumento de la carga litostática. Es necesario obtener los valores real y teórico de la aceleración de la gravedad (g) para, por diferencia, establecer las anomalías. En ese valor teórico deben considerarse los efectos geográficamente variables debidos a la forma general del planeta (elipsoide de revolución) y su fuerza centrífuga de rotación. En el valor real entran en consideración también las variaciones de densidad locales que son el objetivo de la gravimetría prospectiva. Ese valor real puede ser medido en forma absoluta, respecto al centro de la Tierra y con la mayor precisión posible, o bien en forma relativa respecto a una referencia local (tantas unidades mayor o menor que el valor existente en tal sitio). Esferoide o Elipsoide de Revolución: modelo básico que supone la tierra formada por capas homogéneas concéntricas y sometida a las fuerzas de la gravedad que tienden a hacerla esférica y a la fuerza centrífuga que tiende a ensancharla en el ecuador, donde ésta es máxima (siendo nula en los polos). Geoide: superficie de equilibrio de los mares de la tierra si éstos pudieran extenderse a través de los continentes mediante canales imaginarios. Superficie equipotencial correspondiente al nivel de los mares. Se aparta en más o en menos del elipsoide de revolución según las variaciones de densidad de la corteza y manto a gran escala. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Respecto al elipsoide de revolución de referencia, el geoide se aparta un máximo de unos 60 m en el Atlántico Norte y un mínimo de 90 m al sur de la India.

Una aproximación intuitiva al concepto de gravedad lo encontramos en la obra de Lucrecio (60 a.C.): “De Rerum Natura”, siendo la idea del heliocentrismo incluso anterior: de Aristarco de Samos en el 270 a.C. Pero, como sabemos, fue el británico Isaac Newton quien definió las leyes de la gravedad. Partió de las observaciones y conclusiones del polaco Mikolaj Kopernik (en latín Nicolaus Copernicus, que en 1543 publicó “De Revolutionibum Orbium Caelestium”), del alemán Johannes Kepler (con sus tres leyes de movimientos planetarios de 1609-1619 en “Epitome Astronomiae Copernicanae”), del italiano Galileo Galilei (inercia, caída de cuerpos, péndulo, observaciones telescópicas, en “Discorsi di Due Scienze”, 1633, y otras obras), así como de otros grandes estudiosos, como reconociera el propio Newton cuando erigió su “Principia Mathemática” (1687) donde expresó la primera ley: F = G.m1.m2 / r2 y la segunda: F = m2.g En 1897 otro británico, Henry Cavendish, inventó la primera balanza de torsión y con ella midió el valor de la constante G (Gravitación Universal): 6,67.10-11N m2 Kg2. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Además se definió el Potencial Gravitacional terrestre U(r) = G.mT / r, o sea el valor del campo potencial de la gravedad (independiente del camino realizado) cuyo cero de referencia es la superficie del geoide (es decir que vale lo mismo en los polos que en el ecuador). Y también un Potencial Gravitatorio que toma en cuenta el efecto de la fuerza centrífuga: -mT.w2.r.cosϕ ϕ (siendo w la velocidad angular y ϕ el ángulo de latitud). La derivada del Potencial Gravitacional respecto al radio es la aceleración de la gravedad: dU =g o, escrito con una notación diferente: dU = Uz dr dz donde en realidad también debemos calcular un valor neto que tome en cuenta la fuerza centrífuga. De modo que resulta g = (G.mT / r2) -mT.w2.r.cosϕ ϕ (que naturalmente no es igual en los polos que en el ecuador). En rigor éstas son expresiones simplificadas, ya que deberíamos incorporar el término del irlandés James Mac Cullagh (1839) que resta el pequeño efecto causado por los momentos de inercia axial y ecuatorial del planeta, irrelevante en actividades prospectivas. El valor de g, que es la magnitud generalmente utilizada para medir la gravedad, se expresa en gal (cm/s2). La gravedad media de la Tierra (9,81m/s2) corresponde a 981 gal. En la figura se indican los valores en los polos y el ecuador, así como la razón de sus diferencias, que se explican luego. La unidad habitualmente usada en prospección es el miligal (en ese caso la media terrestre es de 981000 mgal) o bien la unidad gravimétrica (u.g.) que es una décima del miligal.

Otra magnitud medible es el gradiente de g, esto es la derivada de la aceleración en las direcciones x, y ó z, valores que se miden en eötvös (mgal/km). Tenemos entonces: dg = dUz =Uzz; dUz =Uzx; dUz =Uzy dz dz dx dy ADQUISICIÓN DE LOS DATOS Metodología de trabajo:  

Ubicación del área a partir de la evaluación de toda la información previa y de la definición de los objetivos del relevamiento, sean éstos puramente científicos o de prospección de recursos o ambos. Determinación y estaqueo de los puntos tomados como bases (en los que las lecturas 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

gravimétricas se harán dos o tres veces) y las estaciones en torno a esas bases (donde las mediciones se harán una sola vez). La ubicación de estos puntos ha de conformar una malla lo más regular posible, más factible en trabajos de pequeña escala y más improbable en relevamientos regionales donde cerros, lagunas y otros rasgos geográficos pueden obligar a desplazar u omitir puntos del mallado ideal de datos. En trabajos aéreos o marinos (o lacustres o fluviales) se definirán las líneas de navegación y el intervalo de muestreo a lo largo de tales líneas, además de los puntos de atadura entre líneas, en los que las lecturas habrán de repetirse generando así los puntos base del área de cateo. Las restricciones podrán deberse a islas, corredores vedados a la navegación, etc. 

Relevamiento topográfico, en el que se realiza la determinación de cotas y distancias entre las estaciones. Los errores de cierre de los polígonos (altimétricos y planimétricos) deben ser bien controlados y distribuidos. Su precisión estará ajustada con la precisión de las lecturas gravimétricas del aparato. Planimetría, para ubicar las estaciones. Debe considerarse el margen de error en las mediciones para así calcular a su vez el error probable de g en las correcciones por latitud. Altimetría, para la ubicación en z. También se calcula el rango de error probable en las mediciones que se traducirá en errores de g en las correcciones vinculadas con la altitud. 

Relevamiento gravimétrico: es la adquisición de los valores de g (componente vertical de la gravedad, obtenido con gravímetros) o más raramente de valores de gradiente de la gravedad (con aparatos llamados gradiómetros). Si existe cerca alguna base de una red de gravedad absoluta (por ejemplo en Argentina del IGM o el MOP en la provincia de Buenos Aires, o la red internacional IGSN) existe la posibilidad de colgar el trabajo de ese valor de precisión geodésica. Sin embargo esto no es necesario en los trabajos netamente prospectivos, en los que basta con mediciones de gravedad relativa. Tampoco es condición sine qua non que la base de arranque sea un punto no anómalo, ya que en cualquier caso la condición de anomalía de gravedad relativa quedará en evidencia al completar la serie de correcciones de los datos adquiridos. PROCESAMIENTO DE LA INFORMACIÓN Es el conjunto de las correcciones que nos permitirán homogeneizar los datos y hacerlos comparables para su correcta graficación, a fin de poder interpretarlos geológicamente. Se efectúan según el siguiente ordenamiento. Correcciones Temporales: El objetivo es tener valores corregidos que se aproximen a los que hubiéramos obtenido si todas las estaciones las hubiésemos realizado simultáneamente (y con el mismo instrumento). Las causas de que las mediciones de g cambien con el tiempo son dos. o Efecto de Mareas Terrestres (como máximo 0.05 mgal/hr, o sea unos 0,3 mgal en seis horas). Este cambio en el valor de g es producto de las deformaciones temporales del geoide (máximo unos 75 cm) causadas por la atracción del sol y la luna (efecto lunisolar), cuyos valores se pueden obtener de tablas publicadas. Se registran pleas y bajas cada seis horas, como en el mar. o Deriva Instrumental: cambio en la lectura del aparato de medición (gravímetro, en esencia una balanza) debido a la fatiga del resorte -lo que provoca un comportamiento parcialmente plástico, no completamente elástico- y la eventual influencia de la temperatura ambiente en su respuesta. 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Para efectuar la corrección temporal puede construirse una gráfica con los datos crudos de campo y tratar de reconstruir la curva de variación de los dos efectos sumados, como se ve en la figura de arriba. O bien se suprime primero el efecto de marea terrestre, obtenido de tablas, para después corregir gráficamente por deriva instrumental, la cual sigue un comportamiento casi lineal. Entonces, en una gráfica con g en ordenadas y tiempo en abscisas, se construyen segmentos conectando los datos correspondientes a las lecturas en cada punto base, que se han leído dos o tres veces (cada vez en un horario distinto), para luego proyectar a dicho segmento los datos de las estaciones que se han hecho en horarios intermedios en torno a la base de referencia. A su vez el ∆g entre bases se obtiene calculando la diferencia entre cada segmento y el siguiente. Cuando se cuenta con datos repetidos de muchas bases puede recurrirse a alguna aproximación de la deriva por el método de los mínimos cuadrados. Compensación por el método de los polígonos: si luego de corregir por Deriva los valores de cada estación, al calcular el error de cierre no nos diera cero, lo que se hace es compensar el error en las diferentes estaciones de forma que cierre al llegar a la primera. Se divide el error por el número de estaciones.

Correcciones Espaciales: En este caso el objetivo es tener valores en los que se busca cancelar los efectos latitudinal y altimétrico sobre las mediciones realizadas. Veamos cada causa y su corrección. o Latitud: se define el valor de gravedad teórico según el modelo del elipsoide de revolución -usualmente no se requiere la precisión de un modelo geoidal- debido principalmente al efecto combinado de fuerza centrífuga (que no es gravitatoria pero la contrarresta, tendiendo a minimizar el valor de g en el ecuador) y del achatamiento axial terrestre y su ensanchamiento ecuatorial (originado por la fuerza 5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

centrífuga) que provoca en los polos una menor distancia y una menor masa interpuesta entre la superficie y el centro de la Tierra (y lo contrario en el ecuador). Donde menor sea el radio terrestre mayor será el valor de g, pero también donde menor masa interpuesta haya menor será ese valor. En el balance, el efecto de menor radio es más significativo que el de menor masa interpuesta (como lo indica la fórmula de Newton, donde el radio está al cuadrado), o sea g resulta mayor en los polos y esto se magnifica todavía más porque en los polos no hay fuerza centrífuga que contrarreste el valor de g, resultando en unos 983,2 gal contra 978,0 en el ecuador. Véase la figura de la página 3. Esta es la fórmula que da la gravedad teórica para una latitud ϕ en base al elipsoide de revolución que mejor ajusta el geoide: g (gal) = 978,0327 (1+0,0053024sen2ϕ-0,0000058sen22ϕ) Para corregir tenemos presente que la gravedad en ambos hemisferios crece a medida que nos acercamos a los polos y por lo tanto existe una diferencia normal de gravedad entre las estaciones y la base debido a las diferencias de latitud entre ellas. En el hemisferio sur la corrección será positiva para todas las estaciones al norte de la base y negativa para las que están al sur. En prospección suele bastar con la siguiente aproximación grosera de corrección por latitud: CL (mgal/km) = 0,8122 sen2ϕ En la gráfica siguiente se ve los valores que va tomando CL (K) según la latitud.

o Altitud: se modifica el valor de gravedad teórico a nivel local según la altimetría, lo cual se manifiesta con dos efectos opuestos, llamados de Aire Libre y Bouguer, más un efecto fino vinculado al segundo (por irregularidades topográficas). Tenemos entonces: -Corrección de Aire Libre: de altura o cota respecto a un plano de referencia establecido, sea el nivel medio del mar (superficie del geoide o nivel equipotencial cero) o cualquier otra altitud de referencia elegida para uniformar las magnitudes medidas dentro del área de trabajo. Si el punto medido está por encima del plano de referencia se le suma al valor de la corrección por aire libre, ya que el campo gravitatorio terrestre decrece con la altura de la estación y h es mayor que cero en la fórmula. Si el punto está por debajo del plano de referencia se le resta la corrección por aire libre. Un cálculo aproximado es: CAL = 0,3086 mgal/m -Corrección de Bouguer (estudiada por Pierre Bouguer, 1740): debido al efecto gravitacional de la masa interpuesta entre el punto de medición y el plano de referencia y suponiendo para el cálculo una losa horizontal infinita de espesor h igual a la diferencia de cotas. Debe tenerse en cuenta también la densidad media de dicha losa ideal. Esta corrección debe restarse del valor de g medido si la estación está situada por encima de la base y sumarse si está por debajo. El signo de la CB es opuesto al de la CAL. Aproximamos CB = 0,0419 δ mgal/m (siendo δ la densidad en gr/cm3) 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

De modo que para calcular la CB se debe conocer la Densidad de la Roca entre cada punto estación y el Plano de Referencia (Datum), que se puede obtener por: Métodos directos: *Midiendo peso y volumen de muestras de material no consolidado colocado en un cilindro de volumen conocido. *Pesando en el aire y en el agua la muestra, recubierta con parafina, aplicando la fórmula de Arquímedes, donde: δ = Peso en el aire / Empuje (es decir, peso del fluido desplazado) Las muestras pueden ser de afloramientos o pozos, pero pueden dar valores algo distintos que los de roca virgen soterrada y en general no son representativos de la densidad media en el conjunto de roca considerado, por lo cual raramente se emplean sólo estos métodos y más bien se recurre a ellos como modo de cotejar con los métodos indirectos. Métodos indirectos: *el método más utilizado es el del estadounidense Lewis Nettleton (1939). Consiste en seleccionar en la zona de trabajo un área que involucre un alto y un bajo, medimos valores de g en cada uno de los puntos y los corregimos altimétricamente, asignándole distintos valores tentativos de densidad. (Previamente ya hemos corregido por deriva y por latitud.) Con valores bajos de densidad la corrección resulta deficiente y la curva acompaña la forma de la topografía; el efecto de la cota es predominante y el de la masa es despreciable. Si la densidad elegida es alta la corrección resulta excesiva, la g está influenciada por la masa interpuesta antes que por la cota, y se invierte el diagrama. Para un valor próximo al real se elimina por completo el efecto del relieve, se utiliza un valor de densidad que tiende a hacer lineal la anomalía gravimétrica. En el gráfico adjunto es el caso de 2,5 g/cm3. *Un método alternativo es el de Siegert (1942), con relieve ondulado, el cual se resuelve mediante aplicación de mínimos cuadrados entre diferencias de cotas y de gravedades observadas. 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

*Y otro método menos usado es el de Legge (1939), también mediante mínimos cuadrados. Se denomina Corrección Altimétrica a la suma (con su signo) de la corrección de Bouguer y la de Aire Libre. Siempre que elijamos un plano de referencia por debajo del punto estación la corrección altimétrica es positiva. CALT = CAL - CB -Corrección Topográfica: se debe a un efecto menor relacionado con el de Bouguer, tomando en cuenta la influencia lateral respecto al punto de medición, función de los excesos o deficiencias de masa dados por las irregularidades de la topografía local. Acá también debe considerarse la influencia de la densidad media.

Cuando existe una elevación lateral al punto corregido, la componente vertical (z) del tirón lateral ascendente desde el centro de masa de la elevación no había sido considerada en la corrección de Bouguer (losa horizontal infinita), de modo que ahora lo consideraremos sumando una magnitud de corrección, ya que la elevación lateral nos disminuyó el valor medido. Cuando existe una depresión lateral, durante la corrección de Bouguer hemos asumido que allí había masa -depresión rellena-, es decir que, como parte del efecto de la losa horizontal infinita, hemos restado la componente vertical (z) de ese tirón lateral descendente. Pero tal tirón no existía porque allí no hay masa, o sea que la CB fue implícitamente sobredimensionada, por lo cual restamos de más y ahora tenemos que devolver la diferencia, es decir sumar una magnitud de corrección volviendo las cosas a como fue originalmente medido. 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

La corrección topográfica resulta siempre positiva. Para calcularla recurrimos a plantillas como la ilustrada en la gráfica de arriba, tomando la cota promedio de cada compartimiento, calculando el ∆h respecto al punto central (que se corresponde con un dato gravimétrico) y aplicando una fórmula de ajuste o bien resolviendo mediante el uso de ábacos. CT = Gδφ [(r2-r1) + (r12 +∆h2)1/2 – (r22 +∆h2)1/2], donde φ es el ángulo de cada sector en radianes.  Determinación de la g observada corregida de todas las estaciones: es el resultado de aplicar la suma de las correcciones aplicadas, también denominada reducción de la gravedad al elipsoide. Podrá ser un valor de gravedad absoluto o bien relativo a una referencia de trabajo local. gc = gob + Deriva + CL + CAL + CB + CT

 Determinación de valores de anomalía de Bouguer: si hemos trabajado con valores de gravedad absoluta, será la diferencia entre la g observada (y corregida, o sea gc) y la g teórica que se obtiene de la fórmula que hemos visto para un elipsoide de referencia (página 6). Es el objetivo de los estudios geodésicos y su origen se encuentra en las variaciones de densidad de la corteza terrestre, sobre todo en su porción más superficial. ∆g = gc –gT Pero también llamamos anomalía de Bouguer a los ∆g de gravedad relativa respecto de alguna referencia local que consideremos “normal”, situación típica en la inmensa mayoría de los trabajos de prospección, donde no se han medido valores absolutos de g.  Confección del Mapa de Isoanomalias o de Anomalía de Bouguer: graficación de curvas que unen puntos interpolados de iguales valores de anomalía de Bouguer (curvas isoanómalas), que permite visualizar arealmente las anomalías encontradas durante la prospección. También pueden construirse Perfiles de Anomalía de Bouguer a partir de datos mapeados o bien desde datos registrados directamente a lo largo de cortes o transectas individuales. INTERPRETACIÓN GRAVIMÉTRICA Se trata de poner en términos de significado geológico -y eventualmente económico- los datos graficados. Debe tenerse siempre presente la importantísima dependencia de la distancia vertical y lateral entre el punto de medición y la masa anómala, y también que hay infinitos diferentes modelos del subsuelo que pueden producir similares respuestas gravimétricas, tal como se ilustra.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Por esto es fundamental la evaluación de toda la información geológica conexa, así como de pozos, de otros métodos geofísicos, etc. Y pueden considerarse dos encuadres: Interpretación Cualitativa: descripción de anomalías, relación con estructuras. Interpretación Cuantitativa: volumen, profundidad, masa.  Filtrado y separación de las componentes residuales y regionales de gravedad Las anomalías observadas son la suma de los potenciales de anomalías someras, intermedias y profundas. La interpretación deberá iniciarse separando los diferentes efectos. El procedimiento de separación de anomalías consiste en la separación del efecto regional (más suave y de mayor amplitud o baja frecuencia). De acuerdo a lo que nos interese prospectar separamos lo regional de lo residual; por ejemplo si sólo nos interesa conocer la distribución del basamento no nos importa el efecto residual, por lo tanto lo filtramos.

La separación de anomalías puede hacerse por: -Métodos gráficos: que se basan en el conocimiento de las anomalías locales y de la

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

geología regional por parte del intérprete. Una forma es el método de suavización de curvas y otro es la construcción de perfiles de gravedad. -Métodos analíticos: donde se elimina el efecto regional por análisis de la derivada segunda, media aritmética, mínimos cuadrados, método de Griffin, transformada de Fourier, etc. g residual = g Bouguer - g regional Método de la derivada segunda: mediante la aplicación de la segunda derivada de la gravedad sobre los datos mapeados o en perfil logramos resaltar significativamente todo aquello que sea de origen somero o residual, respecto a los efectos regionales o profundos.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Método de Griffin: desarrollado por el estadounidense Carroll Griffin (1949) parte de tomar, dentro de un mapa de anomalía de Bouger, un punto del que naturalmente conocemos el valor de la g de Bouguer (es decir la g observada con todas las correcciones ya vistas). Trazamos un círculo con centro en dicho punto y se considera que el regional es el promedio de los valores de la gravedad en los alrededores de la estación. Una vez obtenido el regional, el residual es la diferencia entre la gravedad de Bouguer y la gravedad regional. El tamaño del círculo ha de ser función de lo que interpretamos por regional y residual. Un círculo demasiado chico nos dará una g regional casi igual a la g de Bouguer que ya tenemos y por lo tanto la g residual será prácticamente nula. Un círculo excesivamente grande producirá una g regional casi nula y en consecuencia la g residual será semejante a lo que nos muestra el mapa de anomalía de Bouguer desde donde partimos.

Método de Continuación: se basa en plantear matemáticamente la medición del campo potencial gravitatorio de un área ya relevada a niveles sucesivamente más elevados (continuación ascendente) o más profundos (continuación descendente), en este último caso sólo válido por encima de las masas anómalas. Los resultados son mapas de anomalías más suaves en el primer caso o más agudas en el segundo, asimilables a componentes regionales o residuales, respectivamente. Este método analítico es muy bueno para mejorar la resolución de anomalías de Bouguer resultantes de la intersección de los efectos de dos masas rocosas del subsuelo. Método de la Transformada de Fourier: emplea el instrumento matemático desarrollado en la Francia napoleónica por Joseph Fourier (1822). Mediante su aplicación aproximamos el perfil o mapa de anomalías mediante una serie de funciones armónicas (seno, coseno) de distintas longitudes de onda y distinta amplitud cada una, transfiriendo así la información al dominio de los espectros de amplitudes. Allí separamos con algún criterio práctico lo que vamos a considerar componentes regionales o profundas (de larga longitud de onda o pequeño número de onda) y residuales, someras o locales (de corta longitud de onda o gran número de onda), para finalmente volver al dominio original -haciendo la antitransformada de Fourier- representando datos separados (ya sea regionales o bien residuales) en mapas o cortes según los criterios aplicados. Esto se esquematiza en la siguiente página. 12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

 Anomalía Isostática: Es un cálculo especial, no de rutina, sólo aplicado en casos de estudios regionales de la gravedad, donde el conjunto de la corteza terrestre queda involucrado en un objetivo de investigación geofísica profunda. Se compara la gravedad medida (con todas las correcciones previas aplicadas) con aquella que correspondería a una situación de corteza equilibrada isostáticamente según un modelo elaborado particular (basado en el modelo conceptual del británico George Airy, 1855). La diferencia entre ambos conjuntos de datos es la corrección isostática, o sea el grado de desequilibrio isostático (flotacional) de la región en el sentido del estadounidense Clarence Dutton, 1889. La gráfica de anomalía isostática se asemeja en parte a la de anomalía de Aire Libre (producto de aplicar todas las correcciones hasta la de cota, pero no la de Bouguer). Cuando esta última es aplicada a escala de la corteza se está desequilibrando el cálculo, al quitar las antirraíces (el relieve sobre el nivel del mar) que tiende a equilibrarse isostáticamente con las raíces corticales profundas. Las causas del desequilibrio isostático en la naturaleza pueden ser muy variadas: sobrecargas corticales todavía no compensadas por raíces, como por ejemplo en grandes acumulaciones deltaicas o estructuras volcánicas recientes como los puntos calientes (hot spots). O también cortezas descargadas rápidamente -en términos geológicos- por fenómenos erosivos o por deglaciación, tal el caso de la Patagonia, actualmente en ascenso isostático. La fórmula general de Airy es: Z(δ δs – δc) = H. δc (Z es la profundidad bajo el nivel de compensación, H la cota sobre el nivel del mar, δc la densidad media de la corteza terrestre y δs la densidad subcortical)

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

 Interpretación y comparación de las anomalías observadas con formas sencillas: Algunos de los criterios de interpretación son la intensidad, agudeza, resolución y forma de las anomalías. La intensidad está dada por el contraste de densidades con las rocas del entorno, así como por el tamaño y la profundidad de la masa anómala. La agudeza suele vincularse a la profundidad del rasgo geológico, tanto más agudo el mapa o perfil cuanto más somero es el emplazamiento anómalo. La resolución tiene que ver con la capacidad de la información graficada para definir la separación en subsuelo entre dos anomalías parcialmente superpuestas en mapas o cortes. La forma nos da información sobre la configuración geológica de las anomalías, como el caso de pliegues o diques alargados, chimeneas volcánicas o diapiros más o menos circulares, etc. El objetivo es la determinación de las dimensiones, forma y profundidad de emplazamientos gravimétricamente anómalos. Una estimación sencilla, aunque no precisa, de la profundidad del techo de la masa de densidad anómala se basa en medir el ancho medio (el ancho medido en la mitad del ∆g anómalo) y multiplicarlo por 0,6. Es decir, Z w 0,6 ancho medio. A veces los valores altos de g están asociados con los núcleos de los anticlinales o bloques elevados (pilares), ambas alternativas representan una aproximación de rocas densas a la superficie. En otros casos los valores altos están relacionados con la presencia de cuerpos intrusivos ígneos (que pueden tener distintas mineralizaciones) o de coladas yacentes en el subsuelo. Las zonas con gradientes fuertes se deben al contacto entre rocas con distinta densidad, como ocurre en los planos de falla. También existen anomalías negativas debidas a la presencia de rocas poco densas, como los núcleos de los sinclinales, diapiros halo o tectocinéticos, etc. El conocimiento de la geología regional y la estructura del área ayuda a desechar alternativas que podrían dar una solución a la respuesta gravimétrica obtenida. 14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Por otro lado, si sabemos que la anomalía se debe a un cuerpo que, por ejemplo, fuera más o menos cilíndrico verticalmente y conocemos el contraste de densidades con las rocas que lo rodean, es posible determinar su profundidad y el radio y longitud de esa masa que se puede asimilar a una chimenea volcánica u otras formas de emplazamiento geológico. Es lo que se llama inversión del método. Igual procedimiento se aplica a otras formas geométricas simples (esferas, prismas y otros como puede verse en la figura adjunta, algunas resolubles mediante ábacos, como el de abajo), o bien a geometrías más complejas, recurriendo a métodos de integración de volúmenes de formas poliédricas más o menos elaboradas, como se ejemplifica en la gráfica de la siguiente página.

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Finalmente, un método de inversión avanzado es el de la Deconvolución: serie de operaciones matemáticas empleadas en restauración de señales, para recuperar datos que han sido alterados por un proceso físico. Proceso que, en nuestro caso, representa al portador de la información del subsuelo, esto es, el campo físico (en este caso gravitatorio) que se “convolucionó” con la anomalía de densidad. La deconvolución es la operación inversa a la convolución que realmente ocurrió en la Tierra, es decir, la modificación del campo de gravedad por la masa rocosa anómala. De manera que con el proceso matemático de deconvolución -que veremos con más detalle en sísmica- intentamos construir el modelo de aquella estructura geológica que se convolucionó con la gravedad para dar la anomalía de Bouguer medida y graficada. CUESTIONARIO BÁSICO - ¿En qué se diferencian campo y potencial gravitatorio? - ¿Qué es la gravedad teórica y qué la gravedad absoluta? - Fundamentar las diferencias entre la gravedad en el ecuador y en los polos del planeta. - ¿Qué efecto astronómico aparece incluído en las mediciones para deriva instrumental? - Explicar la corrección altimétrica. - ¿Puede la corrección topográfica ser positiva o negativa?, ¿por qué? - ¿Cómo se aplica el método de Nettleton? - ¿Qué métodos separan gravedad regional de local? - Explicar por qué las anomalías residuales son las más agudas. - ¿Qué es la anomalía isostática? - ¿Cuál es la utilidad de los modelos gravimétricos?

16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 2 Prospección Gravimétrica

Chelotti, L., Acosta, N., Foster, M., 2009.

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.35-100). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.169-189). Cambridge University Press. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.148-179). Editorial Paraninfo. - Lowrie, W., 1997. Fundamentals of Geopysics (p.29-81). Cambridge University Press. - Parasnis y Orellana. 1971. Geofísica Minera (p.227 -281). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.37-139). Alianza Editorial.

17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

INSTRUMENTAL Y APLICACIONES GRAVIMÉTRICAS

Mediciones de Gravedad Relativa: Los primeros trabajos de prospección fueron realizados con balanzas de torsión, como la de Eötvos, que medían el gradiente de la gravedad -por lo cual eran aparatos llamados gradiómetrosy también en esos tiempos se utilizaron péndulos, si bien de operación lenta -más apropiados para mediciones absolutas-, de los cuales el más utilizado fue el de Henry Katter (1917). Pero desde principios de la década de 1930 se han utilizado los gravímetros, que miden directamente pequeñas variaciones de la componente vertical (z) de la gravedad relativa, respecto a una referencia o base principal, sobre la base de que m.g = k.h (k es la constante del aparato y h el desplazamiento vertical). En verdad la prestación de las balanzas de torsión era superior, pero la mayor rapidez de los gravímetros, con aceptables resultados, pesó especialmente en las actividades de exploración hidrocarburífera. Gravímetros Estables: En éstos el cambio de la longitud del muelle se mide directamente por medio de una amplificación (óptica, mecánica o eléctrica), ajustándose nuevamente al punto central mediante un tornillo y leyendo las divisiones debidas a la variación de la longitud del muelle, es decir al cambio de g. Prácticamente dejaron de usarse hace décadas. Algunos ejemplos son el Hartley, con un sistema de amplificación mecánico-óptica, y el Gulf, con amplificación de tipo óptica. Gravímetros Inestables o Astáticos: Desarrollados en 1934 por Lucien La Coste y Arnold Romberg (pero comercializado en escala sólo después de la Segunda Guerra Mundial) consta de una masa suspendida inestablemente a través de un brazo lateral, tal que para determinado valor de g la masa se encuentra en equilibrio. Basta un pequeño cambio de g para que se abandone el equilibrio y esto se traduzca en desplazamientos relativamente grandes. Posee dos resortes principales, uno para los ajustes de las mediciones como en los estables y otro para suspender el sistema, el cual es llamado resorte cero (zero length spring) ya que no se modifica su posición durante la operación. Algunas marcas conocidas, cada una con varios modelos, son Thyssen, La Coste-Romberg, Worden, Sodin, Canadian y otras. Como se mencionó antes, el material de los resortes (inicialmente metálicos, actualmente de cuarzo) genera una deriva (en inglés, drift) que es necesario determinar. La deriva es la variación que experimentan las lecturas en una misma estación con respecto al tiempo. Se debe a deformaciones no perfectamente elásticas del sistema (fatiga), inevitablemente variante respecto al 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

resorte ideal, más otras variaciones por la temperatura y perturbaciones que eventualmente sufre un instrumento durante su trabajo. Aquí podemos ver ilustraciones de distintos tipos de gravímetros.

Existen diseños de gravímetros adaptados para ser bajados a fondos marinos (La Coste, 1952, con mando remoto), también para trabajar desde barcos o también desde aviones (ya desde los años ’60), o para pozos petroleros (Gilbert, Edcon, etc., que se mantienen verticales sin importar la inclinación del pozo), todos construidos según el principio de los gravímetros astáticos. Existen asimismo versiones avanzadas para mediciones satelitales, y hasta fue enviado a la Luna un diseño especial de La Coste, en 1972. También han surgido recientemente gravímetros de Resorte Vibrante con un sistema de registro electromagnético y otros que funcionan por Levitación Magnética de un imán sobre un campo 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

inducido a través de una bobina, los que constituyen la base de los modernos desarrollos en curso. A la derecha se ilustra el diseño básico de cada uno de ellos.

Gradiómetros: Empleados también para mediciones de gravedad relativa. Los más antiguos, desde fines del siglo XIX, fueron las Balanzas de Torsión, modificadas de la balanza original de Cavendish, siendo la más utilizada la desarrollada por el húngaro Lorand von Eötvös (1886), para medir directamente la pendiente o gradiente de la gravedad. Ésta consta de dos masas iguales suspendidas de brazos a distintas alturas y con posibilidad de rotar en conjunto para situarse en la dirección de máximo gradiente horizontal de la aceleración gravitatoria.

A partir de 1970 empezaron a usarse Gradiómetros Modernos, conformados por tres pares de gravímetros ensamblados en las direcciones x, y, z, inicialmente para navegación submarina, reemplazando al sonar durante la Guerra Fría. Posteriormente comenzaron a ser empleados también para prospección marina principalmente petrolera ya que, si bien muy costosos, brindan respuestas superiores a la de los gravímetros que sólo miden la componente z de la gravedad. Van montados sobre plataformas girocontroladas y con acelerómetros que permiten corregir los efectos provocados por los movimientos de la embarcación. La aplicación más habitual se relaciona con la presencia de diapiros halocinéticos que entrampan hidrocarburos en los reservorios de sus flancos. Estas figuras ilustran sobre la gradiometría moderna. 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

Mediciones de Gravedad Absoluta: Péndulos: Basados en el sincronismo de su período descubierto por Galileo Galilei, fueron los primeros instrumentos usados y aún se los emplea. El período T = 2π/√L/g (siendo L la longitud del péndulo ideal, aproximadamente igual a k, constante del sistema real). (Como se mencionó, algunos péndulos también fueron utilizados hace un siglo para prospección.) Aparatos de Caída Libre: Desarrollados en las últimas dos décadas, miden la gravedad por caída de un cuerpo en un receptáculo en vacío (otra idea original de Galileo), haciendo las determinaciones mediante instrumental electrónico de alta precisión y recordando que la distancia vertical h = (1/2)g.t2 (siendo t el tiempo de caída). 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

Gravímetro Superconductor o Criogénico: De desarrollo reciente, consiste en una esfera hueca suspendida en un campo magnético generado por un toroide superconductor enfriado por un compresor de helio. Usado para mediciones absolutas y monitoreo fino de mareas y sismos.

APLICACIONES GRAVIMÉTRICAS Como ya fue en parte mencionado, existen anomalías de Bouguer negativas -siempre en términos relativos respecto a una referencia zonal- allí donde hay sinclinales, domos evaporíticos, etc. Los altos gravitacionales, en cambio, pueden presentarse si hay rocas ígneas intruyendo una secuencia sedimentaria, o bien donde tengamos anticlinales -porque en su núcleo las rocas más antiguas, generalmente más densas, se acercan a la superficie-, o bien en otras diversas conformaciones geológicas. Los objetivos pueden vincularse al estudio de la geología regional con variados fines prospectivos y aun investigaciones corticales de gran magnitud, como el siguiente ejemplo alpino.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

En algunos casos la adquisición de los datos es un mallado terrestre de gran escala, o bien transectas generalmente perpendiculares a los principales rasgos tectónicos. Desde hace ya muchos años, como se dijo, la gravedad puede ser registrada tanto desde barcos como aviones, si bien con alguna disminución en su precisión pero útil a los fines regionales, a veces con gravímetros y otras veces con gradiómetros, que son más costosos pero brindan información de excelente calidad. Desde barcos o aviones es importante tener una navegación lo más pareja posible y evitar aceleraciones que generarían ruidos en las lecturas, si bien es posible recurrir a acelerómetros que permiten compensar esto. Desde el aire se trata de seguir líneas de vuelo rectas a altura constante, más o menos paralelas entre sí y, como en otras modalidades, aproximadamente normales a las estructuras, con algunas líneas de atadura en sentido perpendicular al antedicho. Finalmente, como también se mencionó, existen registros satelitales con fines fundamentalmente geodésicos.

Arriba tenemos los mapas de anomalía de Bouguer y residual de los Estados Unidos, generados a partir de la integración de muchos relevamientos individuales. Se pueden apreciar los valores negativos sobre el orógeno que está actualmente activo (las Rocky Mountains) y 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

valores positivos sobre las raíces exhumadas de un orógeno antiguo (los Apalaches). Puede verse que el mapa residual quita estos elementos regionales muy profundos y realza rasgos relativamente más someros. Abajo un relevamiento típico, en una cuenca sedimentaria del noroeste argentino.

El primera figura a la izquierda en la página siguiente es la interpretación de una transecta a escala cortical, desde las Sierras Cuyanas de Argentina al Pacífico en Chile. La anomalía de Bouguer está descompensada por la ya citada eliminación metodológica de las antirraíces (el relieve) y la anomalía de Aire Libre -sin supresión de la masa interpuesta que configura las antirraíces- da, en cambio, un resultado más semejante al de la anomalía Isostática, de modo que se la puede tomar como una primera aproximación si no se tiene la oportunidad de calcular el desbalance isostático. 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

Los mapas a la derecha muestran precisamente la relativa similitud entre la anomalía de Aire Libre y la Isostática modelada a escala continental (D.Chapin,1996; Geophysics).

Pero además existen otras diversas aplicaciones de la gravimetría a menores escalas, como el ejemplo de la figura de aquí arriba, en la cuenca Austral: un maar (cráter freatomagmático) con una intrusión ígnea subvolcánica visible en la sísmica de reflexión y en el perfil de detalle de la anomalía de Bouguer generada por el contraste de densidades. 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

Otras aplicaciones de escala reducida son las hidrogeológicas (basamentos de acuíferos, etc.), las medioambientales (como ser la detección de piletas de petróleo o basurales tapados), también las referidas a trabajos de exploración arqueológica (por ejemplo construcciones con bloques densos yaciendo bajo sedimentos ligeros) o para fundaciones en ingeniería civil (rocas de base para diques, puentes, etc.), en algunos casos con mediciones de altísima precisión en un área muy reducida, como el ejemplo siguiente.



Gravimetría Aplicada a la Prospección de Hidrocarburos:

La prospección gravimétrica ha sido muy utilizada en las primeras etapas exploratorias de las cuencas sedimentarias, dado que brinda buenas imágenes de la forma de las cuencas, sus variaciones de espesor y la conformación de sus principales estructuras que pueden eventualmente configurar trampas de hidrocarburos, tal como se ve en el ejemplo de la Fosa de Tucumán. La mayor proximidad a la superficie del basamento -o de rocas densas en general- se expresa en aumentos de la aceleración de la gravedad y por lo tanto de la anomalía de Bouguer observada en mapas y cortes. A la inversa, con mayor profundidad del basamento -o rocas someras de baja densidad- tenemos anomalías de Bouguer negativas respecto a la referencia regional. En cuencas exploratoriamente más maduras, ya sea marinas o continentales, la gravimetría puede ayudar a resolver modelos del subsuelo allí donde la sísmica de reflexión u otros métodos geofísicos no dan buena respuesta, por ejemplo bajo domos salinos relativamente complejos o bajo intrusiones ígneas o coladas de gran espesor. También puede ser una ayuda -siempre económica- si existen sobrecorrimientos de rocas densas sobre otras más modernas y los altos buzamientos 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

dificultan la iluminación de la sísmica. Como asimismo han sido utilizadas las mediciones de gravedad en áreas donde no se ha podido registrar sísmica, por ejemplo áreas pobladas o zonas de reserva, tanto sea mediante adquisición terrestre como en la variante aérea. O también con mediciones terrestres pero con facilidades de transporte por helicóptero, tal como se ilustra a la derecha. A escala local, con mediciones de precisión, también se pueden obtener resultados afinados que pueden ser muy útiles si se los interpreta mediante modelos apropiados, recurriendo siempre a la separación de componentes someras, profundas y eventualmente intermedias de la gravedad, conceptos que son relativos según la escala que estemos manejando. La componente profunda de un estudio de impacto ambiental (ejemplo piletas de petróleo mal tapadas) puede ser la más somera posible a nivel del estudio de una cuenca. 

Perfilaje Gravimétrico de Pozos:

Como ya se comentó, la gravedad puede medirse directamente a través de un perfilaje en un sondeo petrolero, como también minero o para otros fines. Existen las herramientas apropiadas (gravímetros de pozo) si tal información se considera de interés para la exploración o el desarrollo de yacimientos. Pueden emplearse en pozos incluso horizontales y son muy útiles en cuencas con presencia de rocas con densidades sensiblemente contrastantes, las cuales se pueden obtener con mayor precisión que con otras herramientas geofísicas, como el perfil radiactivo de Densidad. Abajo, foto y esquema de un gravímetro de pozo, y comparación de un perfil de pozo con otro de gravimetría superficial.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 3 Gravimetría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009.

La siguiente gráfica muestra esquemáticamente los registros gravitatorios de caída de la densidad en perfil debido a un emplazamiento lateral evaporítico a diferentes distancias:

CUESTIONARIO BÁSICO - Señalar instrumental usado para mediciones absolutas - ¿Qué tipos de gravímetros existen y dónde se los puede utilizar? - ¿Cuáles son las ventajas y desventajas de los gradiómetros? - ¿Qué información brindan los gravímetros de pozo? - Dar ejemplos de aplicaciones petroleras y no petroleras de la gravimetría, a escalas regional y de detalle.

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.35-100). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.169-189). Cambridge University Press. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.148-179). Editorial Paraninfo. - Lowrie, W., 1997. Fundamentals of Geophysics (p.29-81). Cambridge University Press. - Parasnis y Orellana. 1971. Geofísica Minera (p.227 -281). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.37-139). Alianza Editorial.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

"In the discovery of secret things and in the investigation of hidden causes, stronger reasons are obtained from sure experiments and demonstrated arguments than from probable conjectures and the opinions of philosophical speculators of the common sort." William Gilbert

PROSPECCIÓN MAGNETOMÉTRICA El campo magnético terrestre, cuyo origen reside en el núcleo, es modificado por cambiantes componentes externas a la masa sólida del planeta, pero también existe una componente muy menor de la corteza, que puede ser significativa a una escala relativamente local. La prospección magnetométrica se basa en evaluar esa desigual distribución de fuerzas magnéticas dentro de la corteza terrestre. El contenido alto en minerales de hierro produce anomalías positivas y su defecto anomalías negativas. Las anomalías magnéticas detectadas a través de estudios magnéticos en el terreno se explican con variaciones en las propiedades físicas de las rocas como la susceptibilidad magnética y/o la imantación remanente de las rocas. Estas propiedades físicas sólo existen a temperaturas debajo de la Temperatura de Curie. En consecuencia los generadores de las anomalías magnéticas pueden hallarse hasta una profundidad máxima de 30 a 40 km, dependiendo del gradiente geotérmico, esto es esencialmente, como quedó dicho, dentro de la corteza terrestre. La magnetita o piedra imán fue conocida desde la antigüedad, especialmente en China (desde 2,6 milenios antes de nuestra era) y también en Egipto. Los griegos la llamaron magnetita por ser común en la región de Magnesia. Como sabemos, la brújula fue inventada en China cerca del año 100. Árabes y Persas la utilizaban en el siglo XI para navegación y llegó a Europa en el siglo XIII. Un militar francés, Pierre de Maricourt fue el primero en emplearla para hacer un carteo de un yacimiento de magnetita -o es al menos el testimonio más antiguo del que disponemos-, un trabajo autodidacta en el norte de Italia que no fue utilizado luego. El alemán Georg Hartmann en1510 estudió la declinación y en 1544 la inclinación magnética, variables con las coordenadas. El británico Williams Gilbert en 1600 publicó “De Magnete, Magneticisique Corporibus” donde definió el campo magnético como un imán orientado con el eje terrestre. En 1635, también en Gran Bretaña, Henry Gellibrand observó su variación con el paso de los años. La primera balanza para medir fuerzas magnéticas se debe al británico John Mitchell (1750) que observó su variación con la inversa del cuadrado de la distancia. Por lo que el francés Charles Coulomb, que venía estudiando fuerzas eléctricas, aplicó la misma ecuación general para el campo magnético. Su ley de 1784 expresa en magnetismo que: F = p1.p2 / µ.r2 (en el S.I. la magnitud de los polos se da en A.m, la distancia r en metros y la constante µ, permeabilidad magnética, es en el vacío µ0 = 2Π .10-7 A.m/V.s = A2/N) 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Otros conceptos básicos, análogos a los de gravimetría, son: el Potencial Magnético V = p1 / µ.r y su derivada, el Campo Magnético H = F / p2 = p1 / µ.r2 El danés Hans Oersted documentó en 1819 la desviación de una aguja magnética por una corriente eléctrica y el británico Michael Faraday observó en 1831 (al igual que el alemán H. Lenz) que el movimiento de un imán cerca de un cable induce una corriente eléctrica. Karl Gauss concluyó en 1838 en Alemania que el campo principal definido por Gilbert tiene su origen en el interior de la Tierra. La unificación de los campos magnético y eléctrico se debe al británico James Maxwell en 1861, con cuatro ecuaciones que incluyen las leyes de Gauss, Ampère y Faraday. Unidades de la intensidad magnética: Se mide la intensidad de magnetización. La unidad de campo magnético es el Oersted (Wb/m2). Muchos expresan las unidades en Gauss, que es exactamente la misma magnitud con otro nombre. Otra unidad del S.I. es el γ=10-5 Oe o G En el sistema cgs la unidad principal es el Tesla (Maxwell/cm2), y el nT = 10-9T En prospección se emplean el γ y el nT, que valen lo mismo: 1γγ = 1nT. Los geofísicos prefieren emplear el parámetro 'intensidad del campo magnético H' en vez del parámetro 'inducción o densidad del flujo B'. Se puede substituir uno de estos parámetros por el otro porque la permeabilidad del aire varía muy poco de la permeabilidad del vacío. La densidad del flujo B de un campo magnético está relacionada con la intensidad magnética H como sigue: y

B = µ0 .H + J (siendo J la polarización magnética, que vale cero en el vacío y el aire) B = µ .H en medios isótropos

También podemos escribir que: B = H + H’ (siendo H’ el campo magnético inducido en los minerales magnéticos del subsuelo) COMPORTAMIENTO MAGNÉTICO DE LA MATERIA Susceptibilidad Magnética k: al someter una sustancia a un campo magnético H, ésta se magnetiza. Adquiere intensidad de imantación M proporcional al campo exterior aplicado. Se tiene por lo tanto: M = k .H (donde la constante de proporcionalidad k es la susc. magn.) y además: M = m /volumen = p /área (donde m es el momento magnético = p. longitud) La medición de k se realiza en laboratorio mediante un puente de inductancia o una balanza magnética, o bien multiplicando el porcentaje de magnetita u otros minerales magnéticos presentes en la roca por la susceptibilidad de éstos, obtenida de tablas. La utilidad práctica de su medición radica en la diferenciación entre rocas sedimentarias (k baja) e ígneas y metamórficas del basamento (k altas). Fenómenos magnéticos en la materia sometida a un campo exterior: hay que considerar que la materia esta formada por cargas eléctricas en movimiento 

Diamagnetismo: consiste en la variación del momento magnético de los átomos, el cual se opone levemente a un campo magnético exterior, se produce debido a la simetría de los átomos causada por la alineación de momentos magnéticos asociados a electrones orbitales en presencia de un campo magnético externo, la cual hace que el momento magnético del átomo sea pequeño y negativo. Este fenómeno es independiente de la temperatura. El valor que adopta k es negativo. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica



Chelotti, L., Acosta, N., Foster, M., 2009

Ejemplos son grafito, halita, anhidrita, cuarzo, feldespato, petróleos, agua, Ag, Au, Cu, Bi, Sb, etc. Paramagnetismo: debido a una simetría deficiente de los orbitales de los átomos se produce un momento magnético del átomo no nulo (en los elementos que tienen un número impar de electrones en las capas electrónicas externas) y en presencia de un campo exterior se ordenan de manera que refuerzan la accion de éste. Depende de la agitación térmica de las moléculas. El valor de k es levemente positivo. Ejemplos son blenda, galena, pirita, limonita, olivino, granate, piroxenos, anfíboles, biotita, Pt, Al, Ti, Ir, etc.



Ferromagnetismo: se presenta sólo en el estado sólido, las fuerzas interatómicas producen un paralelismo de los momentos de los átomos próximos (recintos o dominios de Weiss). En presencia de un campo exterior se ordenan de forma similar al paramagnetismo, pero a nivel de recintos y con mucha mayor intensidad. El valor de k es altamente positivo. Caso de los metales nativos como el hierro, níquel y cobalto, presentes en meteoritos.



Ferrimagnetismo: se producen dos series de momentos atómicos, paralelos y antiparalelos, pero dominan los primeros. Se da en la magnetita, pirrotina, ilmenita, titanomagnetita, cromita, etc. La respuesta magnética disminuye con el incremento de temperatura hasta casi cero a la llamada Temperatura de Curie, que es de 580º para la magnetita, desde donde sólo se comporta paramagnéticamente, fenómeno que también sucede en los minerales ferromagnéticos. El valor de k es altamente positivo. Por ejemplo, tomando k.106en unidades cgs, es de 300.000 a 700.000 para la magnetita, de cerca de 130.000 para la ilmenita y la pirrotina y mucho menor para otros minerales (por ejemplo, 10.000 la cromita), variando según el valor de H.

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica



Chelotti, L., Acosta, N., Foster, M., 2009

Antiferromagnetismo: como en el caso anterior, pero las dos series de momentos son del mismo orden y se cancelan mutuamente, dando respuesta prácticamente nula. El valor de k es cero. Ejemplos son la hematita, óxidos de manganeso, de cobalto, de níquel, de hierro, etc.

Permeabilidad magnética µ: puede imaginarse como la facilidad que ofrece un cuerpo al paso del flujo magnético. Usualmente se toma adimensionalmente, como la relación entre el flujo magnético inducido en un material respecto del que circula por el aire. Se relaciona con k de la siguiente manera: µ = µ0 (1 + k)

Ciclo de Histéresis y Remanencia Magnética: El ciclo de histéresis muestra el comportamiento real de una sustancia magnética que experimenta magnetizaciones y desmagnetizaciones cíclicas. Se produce sólo en los materiales ferro o ferrimagnéticos, cuyo comportamiento se aleja de la simple relación lineal B = µ 0 .H, llegándose a un máximo de respuesta B del material ferromagnético cuando se aplica un campo magnético creciente H, nivel de saturación, y desmagnetizándose, al ir reduciendo el campo aplicado, más gradualmente que cuando se magnetizó, para quedar al final un valor remanente de respuesta magnética del material. Es la base de los estudios paleo y arqueomagnéticos o de Magnetismo Remanente, donde el campo inductor es el campo geomagnético de la Tierra y cuando éste cambia, una parte del campo inducido en la roca no cambia sino que permanece fijo en una dirección, documentando así la orientación del campo magnético terrestre en el momento en que se formó la roca. COMPONENTES DEL CAMPO MAGNÉTICO TERRESTRE Como se dijo, éste se compone de un campo interno más otro externo, a saber: Campo Interno (97% del total) Campo geomagnético principal: originado por la rotación del núcleo externo de la Tierra, de composición metálica, con grandes cargas eléctricas y comportamiento fluido, donde además ocurren corrientes convectivas que transportan calor. El inglés Sir Joseph Larmor en 1919 recurrió al modelo electromagnético de la dínamo-disco de Faraday autoinducida. 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

En la figura puede verse como la corriente (i) que circula en el circuito, genera un campo magnético inducido (B). Éste decrece con el tiempo, lo mismo que la corriente, debido a la resistencia del conductor. No obstante, el campo magnético variable que atraviesa el disco giratorio induce una corriente en el mismo. La corriente inducida refuerza la corriente inicial y por lo tanto al campo B, y este proceso se repite en un ciclo continuo, dando origen a la dínamo autoinducida. Este modelo general fue ajustado por el estadounidense Walter Elsasser y otros desde 1940 para dar cuenta de la complejidad convectiva del núcleo externo. Campo cortical: sólo perceptible a nivel local o regional, pero prácticamente despreciable a escala de la Tierra. Se debe a los minerales magnéticos de la corteza terrestre y las anomalías que presenta nos permite inferir la desigual repartición de los materiales. Es de mucho menor magnitud que el anterior pero detectable dada su cercanía a la superficie, y es el objetivo concreto de la prospección magnetométrica. Campo Externo (3% del total) Está debido a corrientes inducidas en la ionosfera por la actividad solar, al desplazarse ésta respecto del campo terrestre. El desplazamiento se debe a movimientos convectivos (calentamiento diurno solar y mareas atmosféricas) además de la propia rotación terrestre, el movimiento orbital y las variaciones temporales de la actividad magnética de la estrella. El campo externo es asimétrico por presión del viento solar, con una cola en dirección opuesta al sol y dejando dos regiones anulares superpuestas cargadas de partículas frente al ecuador magnético (a distancias de unos 1000 a 5000 km y de 25000 a 50000 km), llamados cinturones de radiación de (James) Van Allen (estadounidense que los descubrió en 1959). Son mayormente electrones y protones derivados de neutrones provenientes del Sol, que se desintegran al acercarse al campo magnético terrestre.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Modelo del Dipolo Geomagnético: Si no existiera un campo geomagnético interno la radiación y las partículas del viento solar aniquilarían toda forma de vida sobre la superficie terrestre. El campo geomagnético se describe en una primera aproximación por un dipolo magnético ubicado en el centro de la tierra, cuyo eje está inclinado unos 11º con respecto al eje de rotación de la tierra (como se sabe a su vez 23,5º respecto al plano de la órbita o eclíptica), difiriendo entonces las coordenadas de los polos magnéticos y de rotación. El dipolo está dirigido hacia el Sur, es negativo en el hemisferio norte y positivo en el sur. El Polo Norte Magnético se sitúa a unos 2000 km del polo norte geográfico, en el archipiélago de Baffin (Canadá), en tanto que el Polo Sur Magnético está a 2000 km del polo sur geográfico, en la tierra del rey Jorge V (sector antártico australiano). Como consecuencia de esto, tenemos un ángulo entre el norte geográfico y el magnético llamado declinación, que resulta de la proyección a la horizontal del vector de inclinación magnética, el cual sigue las líneas de fuerza del campo. Podemos además medir la intensidad de este campo, sea la total F o sus componentes H y Z, como se ilustra a la derecha.

Pueden definirse dos polos geomagnéticos, que resultan de la proyección hacia la superficie del eje del dipolo principal, pero los verdaderos polos magnéticos difieren en su ubicación, como se ve en la siguiente figura. Esto se debe a que el campo geomagnético principal es complejo, puede aproximarse con un único dipolo pero, de hecho, es la suma de innumerables dipolos de distinta magnitud, producto de la compleja dinámica convectiva del núcleo externo.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Debido a esto se pueden separar, por un lado, las componentes geomagnéticas de este dipolo principal, que podría ser considerado como un campo regional global, y, por otro, las componentes llamadas no-dipolares o multi-dipolares (en referencia al citado dipolo dominante) que generan una especie de campo residual global (que representa un 20% del campo geomagnético principal) debido a la presencia de esos otros dipolos que todavía no se conocen con precisión. Además, como se dijo antes, existen cambios temporales, aunque no lineales. La figura de arriba muestra una gráfica de variación de la declinación en una localidad en particular (Londres). Abajo pueden verse los mapamundi de declinación (expresado en isógonas, curvas que unen puntos de igual declinación magnética), de inclinación (curvas isóclinas), de intensidad total del campo (isodínamas), de variación anual de la intensidad magnética (isodeltas), así como de la intensidad de la componente no-dipolar del campo geomagnético.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Ahora bien, algunos siglos de registro han permitido caracterizar las llamadas Variaciones Seculares. Así, se ha verificado una migración hacia el oeste del campo geomagnético dipolar o principal del orden de 0,14ºlongitud/año hasta principios del siglo XIX y de 0,05ºlongitud/año en las dos últimas centurias, que se presume relacionado con un leve retraso en la rotación del núcleo respecto al manto terrestre. También ocurre esto con el campo no-dipolar, aceptablemente medido sólo para el siglo XX, cuando promedió los 0,18ºlongitud/año de corrimiento al oeste, con regiones de valores bastante distintos, diferencias que pueden deberse a la complejidad de los procesos del núcleo externo. Pero además la intensidad del campo dipolar disminuyó una media de 0,03%/año hasta principios del siglo XX y de casi 0,06%/año desde entonces. Por su parte, el campo nodipolar registra algunas regiones del planeta con descenso y otras con aumento de la intensidad magnética. Esta media descendente llevaría a la anulación del campo en un período del orden de los 3000 años, algo sobre lo que no hay certezas. Arqueomagnetismo: Teniendo en cuenta las variaciones seculares, podemos hacer una extrapolación hacia el pasado a partir de la medición del campo magnético preservado por materiales ferromagnéticos que experimentan el proceso de histéresis, que será explicado luego, que genera la llamada remanencia magnética. Su correlación con otras herramientas de datación (información histórica, geocronología, etc.) han permitido crear un valioso instrumento para datar eventos arqueológicos con razonable precisión (por ejemplo del orden de los veinte años para hechos ocurridos hace dos milenios). Fondos de hogares y hornos de ceramistas son típicos testimonios arqueomagnéticos. Paleomagnetismo: Sin embargo, sabemos que en el pasado ha habido reversiones de polaridad del campo magnético en períodos del orden de las decenas o cientos de miles de años. El italiano Macedonio Melloni observó en 1850 la cambiante magnetización de las coladas del Vesuvio, primer registro escrito sobre la idea del magnetismo remanente. Después los trabajos de Brunhes desde 1905 en Francia, 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Matuyama en 1929 en Japón y otros permitieron acopiar información sobre imanaciones antiguas, opuestas de la actual, a la que se sumó el estudio de los fondos oceánicos como consecuencia de la Guerra Fría, para que en 1963 Morley, Matthews y Vine en Estados Unidos le dieran forma al concepto de polaridades paleomagnéticas. Los modelos elaborados en años recientes indican probables procesos de desaparición de un dipolo dominante y consecuente aparición de modelos tetrapolares, octopolares u otros, donde varios dipolos tienen magnitudes comparables, durante un período de 2000 ó más años hasta reconfigurar un modelo dipolar principal pero de polaridad opuesta a la original, según se esquematiza en la siguiente figura.

En las figuras de arriba se ve un corte de la Tierra y la gráfica de reversiones del Cretácico cuspidal y el Terciario, con un detalle de los últimos cinco millones de años, señalándose épocas 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

(del orden del millón de años, con una polaridad dominante pero no exclusivamente positiva o negativa) y dentro de las épocas los nombres de algunas de las reversiones breves (de decenas de miles de años) que reciben el nombre de episodios. La figura que sigue representa la frecuencia de las inversiones magnéticas desde el Paleozoico Superior hasta el presente. Tiempos de mayor estabilidad magnética (hasta de 60 millones de años) se corresponden con máxima deriva continental, sugiriendo una conexión entre la dinámica convectiva del núcleo externo, a su vez térmicamente reflejada en la heterogeneidad de la capa D, donde grosso modo pueden identificarse “criptoplacas” cuya distribución guarda alguna semejanza con la de las placas corticales.

Los registros paleomagnéticos más completos están en los fondos oceánicos, aunque sólo para los últimos 180 millones de años -edad máxima de la corteza oceánica-. La magnetización termorremanente de las lavas da siempre las imágenes instantáneas con mejor definición, sea en el mar como en tierra firme. También pueden tenerse registros de magnetización depositorremanente a partir de la sedimentación en fondos de aguas tranquilas donde los minerales magnéticos detríticos se orientan dando por resultado algo así como una película borrosa, en forma no muy precisa pero continua en el tiempo, siguiendo los cambios del campo geomagnético. Un ejemplo paradigmático son las areniscas rojas del Permo-Triásico de Europa y Norteamérica (New Red Sanstones). Una tercera opción es la magnetización quimiorremanente producida durante modificaciones diagenéticas, oxidación, formación de minerales autigénicos -a veces por acción bacteriana-, etc. Las mediciones más ajustadas se realizan con muestras llevadas a laboratorio -con la ubicación original claramente referenciada-, un proceso que es lento y un poco complejo. En prospección la magnetización remanente produce ruido. Una aplicación importante del paleomagnetismo surge del seguimiento de las migraciones de los polos norte y sur. En primer lugar se debe recordar que los polos migran actualmente en un movimiento precesional en torno a los polos de rotación y parece ser que lo han hecho durante toda la historia geológica. En segundo lugar, los primeros siempre han estado relativamente cerca de los segundos. Y tercero, cuando se intenta ubicar los polos de algún tiempo geológico en particular, se encuentra que desde distintas masas continentales la ubicación difiere. Pero la diferencia se anula en cuanto logramos ubicar los continentes en las posiciones relativas que guardaban en ese tiempo geológico. Ergo, tenemos una herramienta para hacer el seguimiento de la deriva relativa entre distintas placas corticales. ADQUISICIÓN DE DATOS EN PROSPECCIÓN Se miden las componentes vertical, horizontal (ecuador) o ambas del campo magnético si la prospección amerita este detalle. Se utilizan instrumentos apropiados -hay distintos tipos de magnetómetro- y se desarrolla un trabajo de campo a lo largo de una malla con criterios parecidos a los de gravimetría, es decir, se mide en intervalos regulares, o tan regulares como sea posible en función de las dificultades del

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

terreno. En la exploración magnética a escala regional generalmente se registra a lo largo de un perfil o de varios perfiles paralelos con un espaciamiento preferentemente constante. Las mediciones realizadas, usualmente relativas respecto a una referencia local, pueden ser terrestres, aéreas -lo más habitual-, marinas y hasta satelitales -para objetivos académicos- y se encuentran afectadas por varios factores que deberán ser tenidos en cuenta: -Efecto de las componentes horizontal y vertical de la intensidad. -Influencia de la inclinación del campo geomagnético. -Efecto de inclinación y forma de las masas emplazadas causantes de la anomalía. -Eventual magnetización oblicua a los cuerpos. -Posible magnetización remanente. -Ruidos, debidos a objetos metálicos superficiales o enterrados, alambrados, ductos, líneas de alta tensión, plantas generadoras, etc., según sea la modalidad y escala de registro. PROCESAMIENTO DE LA INFORMACIÓN La secuencia de correcciones que se debe aplicar a los datos registrados en el campo incluye los siguientes ítems. Correcciones espaciales Latitud-longitud: a diferencia de la gravedad, el campo geomagnético varía arealmente no sólo con la latitud sino también, aunque en menor medida, con la longitud. Tiene una forma un tanto irregular y de hecho el ecuador magnético y el geográfico se cruzan. También existe una significativa diferencia en cuanto a la dispersión de valores: el campo gravitacional es sólo unos 5 milésimos mayor en los polos que en el ecuador, mientras que el campo magnético se duplica. CL: ∆γ / ∆x ∆γ : al norte y al sur del área de trabajo ∆x : dirección del meridiano magnético

Altitud: existe una disminución de los valores medidos con la altitud, del orden de los 0,03γ/m, pero no es de importancia salvo que se trabaje en un área de mucho relieve. Generalmente esta corrección no se toma en cuenta. Correcciones temporales Variación Secular: se conoce con el nombre de Secular a las alteraciones del campo magnético terrestre que se manifiestan lenta y progresivamente a través de los años. Se manifiestan mediante la deriva hacia el oeste de los valores de declinación e inclinación, así como una disminución anual de intensidad del orden de 20γ. Involucra componentes dipolares y no-dipolares del campo geomagnético. 11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Las variaciones seculares cambian entonces cada año los valores de referencia para cada latitud y longitud y deben tenerse presentes cuando se comparan datos de una misma área o áreas adyacentes si fueron registrados en distintos años. Variaciones Diurnas: se cuantifican en una base repitiendo mediciones cada hora. Conocida la medida y la hora de observación de cada punto es fácil eliminar el efecto a partir de la curva obtenida para la base. Es función de: -Variación Solar: tiene una regularidad de 24 horas, por desplazamiento de la ionosfera que sólo de la latitud geográfica y del tiempo, al existir una correlación con el período de rotación terrestre. Tiene una intensidad del orden de los 25 a 100 γ, con una variación adicional en ciclos de 27 días según la rotación solar (dado que la distribución de manchas es siempre inhomogénea), y creciendo durante el verano en cada hemisferio debido a la inclinación del eje de rotación de la Tierra. -Variación Lunar: ésta tiene una periodicidad de 25 horas con una amplitud de 2 ó 3 γ. Está relacionada con la rotación de la Tierra respecto a la Luna, lo que genera mareas atmosféricas en las que el Sol tiene una influencia menos marcada. Varía a lo largo del mes lunar (28 días) según la traslación del satélite en torno a la Tierra.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

-Tormentas Magnéticas: son bruscos disturbios que están relacionados con la actividad de las manchas solares -vórtices magnéticos-, más intensas cada 11 años cuando se revierte la polaridad magnética de la estrella. Son impredecibles, pudiendo durar varios días. Entre el ecuador y los 60º de latitud llegan a los 1000 γ, alcanzando valores mayores en los polos. Pueden obligar a suspender la adquisición de datos. Durante las tormentas, la concentración de partículas ionizadas por la convergencia de líneas de campo magnético sobre la atmósfera polar genera los fantasmagóricos fenómenos de las auroras polares, como se ve en la fotografía de la primera página. Influencia del avión: Varía según el campo magnético normal de la zona y según el ángulo de colocación del avión. La operación de contrarrestar el efecto se realiza mediante recorridos de prueba en una zona llana sin anomalías. (La prospección magnetométrica en su modalidad aérea es la más ampliamente utilizada.) INTERPRETACION MAGNÉTICA Presentación de los datos: -Confección de mapas isoanómalos: corregidas las lecturas por variación diurna se vuelcan los datos sobre un mapa para trazar la curvas isógammas. Utilizando isolíneas paralelas y equidistantes se debe enfocar su atención a la existencia de anomalías de interés no completamente definidas por la información disponible, lo que se basa en una red de estaciones de observación con cierto espaciamiento. Por medio de otros datos geofísicos y/o geológicos se podría comprobar la interpretación de los datos magnéticos. Tales evaluaciones sucesivas se aplican comúnmente en la prospección geofísica minera. Como en otros mapeos geofísicos, geológicos, de ingeniería de reservorios, etc., una isolínea es la línea, que une varios puntos del terreno (varias estaciones de observación) del mismo valor o de la misma intensidad y el espaciamiento entre dos isógammas es una medida del gradiente. Las isolíneas con espaciamiento pequeño y denso (espaciadas densamente) expresan un gradiente alto, las isolíneas con espaciamiento grande entre sí representan un gradiente pequeño. En este contexto gradiente se refiere a una variación de un valor de una intensidad con respecto a la distancia, donde las isógammas cerradas ilustran extremos altos o bajos.

-Trazado de perfiles: desde datos registrados a lo largo de transectas o bien trazando los perfiles más representativos sobre un mapa, los cuales se definirán en su mayoría perpendiculares al rumbo de las anomalías y unos pocos paralelos a éste. -Suavizado de anomalías (filtrado): los métodos utilizados son los mismos que se aplican en gravimetría para separar regional y residual, ya sea en mapas o sobre perfiles, empleando Métodos Gráficos, Derivada Segunda, Griffin, Continuidad, Transformada de Fourier u otros. 13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Efecto magnético vertical sobre cuerpos de modelo polarizados verticalmente: A través de algunas fórmulas relativamente sencillas se puede describir el efecto magnético vertical de cuerpos de modelo emplazados en el subsuelo y verticalmente polarizados. Si los cuerpos tienen diferentes contenidos en minerales magnéticos (por ejemplo un basalto del orden de un 5% de magnetita y un granito alrededor del 1%), o si tienen diferentes dimensiones o si están situados en distintas profundidades, las curvas isógammas resultantes serán diferentes. Muchas veces en perfil tienen forma de campana de Gauss, pero pueden diferir en intensidad, ancho o asimetría, si existe buzamiento. Slichter (1955) da los siguientes valores típicos de respuesta: Tipo de roca

% de magnetita

k .106 en cgs

% de magnetita

k .106 en cgs

Basalto

2,3

6900

8,6

26000

Granito

0,2

600

1,9

5700

Los modelos que se esquematizan a continuación muestran el variable efecto causado por una masa rocosa de densidad mayor a la de la roca encajante, según cómo varíen su profundidad, su tamaño y su contenido porcentual de magnetita.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Interpretación cualitativa: Se efectúa analizando el mapa de isoanómalas, de la componente vertical del campo geomagnético, y de los perfiles trazados en dichos mapas. Por ejemplo, líneas concéntricas indican la posible existencia de un cuerpo de planta pseudoesférica, o líneas positivas y negativas pueden indicar un cuerpo buzante (polo positivo o norte en la parte más superficial en el hemisferio sur). La forma alargada de las curvas da indicios del rumbo u otros aspectos geométricos. Los perfiles indican, en el caso de asimetría de las alas, la presencia de un cuerpo buzante, el cual estará dado por el ala de menor pendiente, en cuya dirección estará el polo más profundo de polaridad opuesta. También hay que considerar la inclinación magnética de la zona en estudio, ya que dicha asimetría puede no deberse al buzamiento. Y también una eventual magnetización transversal, como se grafica en la página 17. Interpretación cuantitativa: El objetivo final de cualquier estudio geofísico es la deducción de la geometría de los cuerpos causantes de una anomalía estudiada (forma, tamaño, profundidad) o del subsuelo (espesor, buzamiento). Para las anomalías magnéticas como para las de densidad (gravimetría) existe una infinidad de modelos que pueden explicar los fenómenos observados en superficie, incluso si el campo magnético fuese conocido con precisión en cada punto de la superficie. Surge entonces que las anomalías magnéticas por sí solas son insuficientes para determinar sin ambigüedades los cuerpos o estructuras que los generan, al igual que en los demás métodos geofísicos. Por lo tanto la interpretación se debe hacer en forma indirecta, por inversión, suponiendo un cuerpo de forma geométrica conocida, calculando la anomalía que causaría y comparándola con la observada. Este es un proceso iterativo en el cual se van variando parámetros como la profundidad, el radio, buzamiento, etc., hasta encontrar un modelo que represente el caso observado. La forma del cuerpo depende mucho del conocimiento geológico de la zona que está siendo explorada. El problema de la interpretación cuantitativa en el método magnetométrico resulta abordable ya que en la práctica los yacimientos y otros emplazamientos pueden clasificarse geométricamente como placas delgadas o gruesas, o cuerpos de forma sensiblemente cilíndrica o esférica, etc. Para la estimación de dimensiones, profundidad, etc. es necesaria la determinación de un nivel cero o campo normal, que corresponde a las lecturas del magnetómetro en los puntos cercanos a la zona estudiada donde no existan perturbaciones significativas debidas a cuerpos subterráneos. Este nivel también puede establecerse en los flancos de la anomalía ya que estos tienden asintóticamente al nivel de referencia buscado. Para esto es necesario que la longitud de los perfiles sea varias veces superior a la extensión de la anomalía. Generalmente la aproximación más sencilla es la de sustituir la parte superior e inferior del cuerpo por polos magnéticos aislados, separados una distancia acorde a la longitud del cuerpo, y con éstos calcular el efecto que producen en el campo magnético en superficie. El buzamiento se simula desplazando lateralmente un polo con respecto al otro. La teoría de los polos puede suministrar datos como profundidad del techo o centro de cuerpo, longitud, posición y buzamiento. Si un cuerpo tiene un gran desarrollo vertical, puede despreciarse la acción del polo más profundo y hacer la Reducción al Polo más somero, un planteo que resulta pseudo gravimétrico. Otro procedimiento de inversión es el Método de Vacquier (1939), que genera modelos basados en la superposición de prismas interpretados a partir de las profundidades deducidas de la derivada segunda de los mapas isoanómalos. También en modelos prismáticos se basa el procedimiento del Bureau of Mineral Resources de Australia, de gran aplicación en datos obtenidos desde registros aéreos. La Deconvolución de Euler calcula derivadas segundas en x,y,z e índices estructurales para hacer una inversión por mínimos cuadrados dividida en ventanas posicionales en subsuelo. Y muy empleado es el Método de Peters (1949), que plantea cuerpos soterrados de geometrías simples que se encuentran magnetizados verticalmente, lo que permite deducir parámetros como la extensión y la profundidad de su límite superior. Por ejemplo: 15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

-En el caso de una placa o manto de extensión horizontal relativamente importante, el ancho medio de la curva correspondiente a su efecto magnético vertical indica la extensión horizontal del manto en la dirección del perfil realizado. -En el caso de un dique, el ancho medio de la curva correspondiente a su efecto magnético vertical medido a lo largo del rumbo da su longitud, y medido en un perfil normal da la profundidad del límite superior según la siguiente relación aproximada: Z w 0,7 ancho medio -Para un cuerpo esférico o cilíndrico vertical vale para todos los rumbos la relación arriba citada. La dirección de buzamiento puede inferirse de la asimetría de los perfiles magnéticos y el ángulo se obtiene probando con distintos modelos de cuerpos simples, aunque el efecto del polo inferior, como así también el efecto de imantación transversal, pueden llevar a valores no del todo precisos. La imantación transversal suele aparecer con frecuencia en los cuerpos cuyo rumbo no coincide con la dirección N-S, aunque también por una muy heterogénea distribución de minerales magnéticos o por magnetismo remanente, que se suele presentar como ruido de difícil definición. Efecto magnético total sobre cuerpos en subsuelo: En prospección comúnmente se mide la componente total del campo magnético. En el caso de un cuerpo con alta susceptibilidad magnética emplazado en el subsuelo, la componente total se constituye de la superposición de las magnitudes correspondientes al campo geomagnético H y al campo magnético anómalo H’ generado por el cuerpo. Este efecto magnético total mensurable en la superficie depende de la dirección del campo geomagnético en el lugar y de la imantación inducida en este cuerpo en la dirección de H. A continuación algunos ejemplos gráficos sencillos.

16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Los modelos numéricos de los datos de la intensidad total se diseñan usualmente por medio de programas en computadora. Dependiendo de los problemas geológicos en cuestión y de la capacidad de procesamiento disponible se realizan modelos de dos o de tres dimensiones. Y acá un ejemplo real de cierta complejidad:

17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 4 Prospección Magnetométrica

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO - ¿Cuáles son las causas del campo geomagnético y del campo cortical de la Tierra? - ¿A qué se deben las variaciones temporales del campo y cómo se las maneja en prospección? - Expresar las definiciones matemáticas de Potencial, Campo y Flujo Magnético. - ¿En qué difieren la susceptibilidad y la permeabilidad magnética? - ¿Es la magnetita ferromagnética?, ¿por qué? - Explicar por qué el ciclo de histéresis permite el estudio de eventos antiguos. - ¿Cómo difieren los perfiles magnéticos según las componentes horizontal, vertical o total? - ¿Qué consideraciones se hacen en la inversión de anomalías magnéticas?

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.105-180). Librería de Ciencia e Industria. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.181-208). Editorial Paraninfo. - Lowrie, W., 1997. Fundamentals of Geopysics (p.229-305). Cambridge University Press. - Parasnis y Orellana, 1971. Geofísica Minera (p.36-110, 305-310). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.271-362). Alianza Editorial.

18

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

INSTRUMENTAL Y APLICACIONES MAGNETOMÉTRICAS MAGNETÓMETROS Veremos aquí una brevísima explicación del fundamento de los principales tipos de instrumentos de medición utilizados en la prospección magnetométrica. 

Variómetros o Balanzas magnéticas: Pueden ser de componente vertical u horizontal, según los distintos diseños. La balanza más antigua fue la inventada por John Mitchell, como se citó. Y poco más de un siglo después, en 1789, los alemanes Thalen y Tiberg, diseñaron el primer instrumento específico de prospección geofísica con el que catearon exitosamente yacimientos de hierro en Alemania y otros países.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Balanza de Schmid: Empleada desde 1914 en Potsdam, es de tipo vertical y ha sido una de las más utilizadas, aunque las balanzas son ya instrumentos más bien históricos. Se trata de un imán pivoteando cerca de su centro de masa. El desequilibrio gravimétrico producido se compensa mediante la componente magnética. Consta de un sistema óptico que permite observar las variaciones del imán. 

Magnetómetro de Torsión: Imán suspendido por hilos metálicos en tensión. La torsión del hilo es una medida directa de la intensidad vertical registrada en un disco graduado. De principios del siglo XX es también un aparato casi en desuso.



Inductor Terrestre: Este aparato -arriba a la izquierda- fue desarrollado por Charles Delzenne en Francia (1844) para investigación y décadas después se lo comenzó a emplear en ocasiones para prospección. Se basa en la medición de corriente inducida (mediante un galvanómetro de gran sensibilidad) en una bobina cuyo eje varía convenientemente de posición (sistema tipo cardan). Permite medir inclinación y declinación magnéticas, como también la intensidad del campo en función del área y número de vueltas de cable -valores fijos para cada aparato- y de la velocidad de giro que adopta, algo que resulta complicado de manejar. (Un arreglo similar, girando en base a una fuerza como el viento o el agua, constituye un generador eléctrico.) Magnetómetro de Bobinas de Flujo (flip-coil magnetometer): Basado en el principio del inductor terrestre, es un diseño de mediados del siglo XX para ser montado en la cola de un avión. Tiene un sistema de compensación de masa (barritas de metal) y un sistema de tipo cardan que permite la orientación para medir la componente total en la dirección en que éste es máximo. Posee tres elementos detectores formados por bobinas: dos para posición de una tercera que mide el campo, ya que el potencial eléctrico inducido será proporcional a la fuerza del campo magnético en que se mueve.

.

Brújula de Inclinación: Este instrumento (izquierda) mide la variación de la intensidad vertical Z (ó V). Se constituye de una aguja imantada que puede moverse libremente en un plano vertical y que lleva fijada a un lado del eje un peso ajustable que genera un par de torsión gravitatorio que resulta equilibrado por un par de torsión magnético (imán). 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Cualquier variación de la componente vertical del campo terrestre cambia el momento de la fuerza magnética y por tanto el ángulo de inclinación de la aguja. Se debe orientar el imán en un plano vertical y los polos del imán paralelos a la dirección del componente total del campo. Se la emplea sólo para trabajos expeditivos que no requieren de mucha precisión. Superbrújula de Hotchkiss: Su construcción es parecida a la de la brújula de inclinación, pero permite medir la variación de la intensidad total F de un campo magnético, para lo cual tiene una barra auxiliar no magnética, que lleva un contrapeso regulable extra. Para medir la variación de F se orienta los polos del imán paralelamente a la dirección del campo total y la medición se realiza orientando la superbrújula en una dirección perpendicular al meridiano magnético. Aunque es mejor que la anterior, se la utiliza básicamente para trabajos expeditivos. 

Magnetómetro Discriminador de Flujo (fluxgate magnetometer): Desarrollado a fines de la década de 1930 en Estados Unidos por el ruso Víctor Vacquier y empleado durante la Segunda Guerra Mundial para detección de submarinos. Se lo conoce también como de núcleo saturable, ya que está basado en la saturación de un circuito electromagnético de dos bobinados sobre núcleos de ferrita -que forman el circuito primario-, más un bobinado externo de medición -circuito secundario-. En presencia de un campo exterior aparecen armónicos pares cuya amplitud es proporcional al mismo. Mediante una bobina exterior se crea un campo magnético que anule el efecto terrestre y se mide la intensidad que circula por ella.



Magnetómetro de Precesión Protónica o Resonancia Magnética Nuclear: El principio de la RMN fue descubierto en 1938 en Estados Unidos por el polaco Isidor Rabi y aplicado desde 1946 por Bloch y Purcell, fundamentándose en el movimiento 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

precesional develado por el irlandés Joseph Larmor hacia 1900. En magnetometría prospectiva su uso empezó a fines de la década de 1950, utilizándose los protones de una muestra de agua, sometiéndolos a un campo magnético exterior para orientar los momentos magnéticos de los protones. Al cesar el campo los protones tenderán a orientarse según el campo magnético terrestre de acuerdo a un movimiento de precesión amortiguado. Este movimiento supone una variación del flujo magnético y por lo tanto en una bobina se produce una fem de frecuencia que puede medirse. Como el oxígeno no da respuestas magnéticas, toda la resonancia se debe a los protones del hidrógeno, cuya constante girométrica es de 23,5 γ/Hz.

Magnetómetro de Overhauser: Es semejante al anterior pero, en este caso, la resonancia magnética, además de a nivel protónico, tiene lugar también en los iones paramagnéticos que conforman la sustancia, fenómeno descubierto por el estadounidense Albert Overhauser en 1953 y aplicado en prospección magnética desde los años de 1960. Se aplica primero un campo de microondas que produce la resonancia de los electrones no apareados de la sustancia líquida, para después aplicar una señal de radiofrecuencia que genera el acople de la señal resonante de los electrones con la de los núcleos, efecto que suele dar respuestas unas mil veces más intensas que la RMN pura, pero que requiere de un mayor intervalo entre mediciones. La precisión instrumental está en el orden de los 0.01nT. La imagen presenta un arreglo de dos magnetómetros para medición de gradiente, en este caso vertical, disposición que se puede realizar también en otras direcciones y con otros tipos de magnetómetros, los que así conforman entonces gradiómetros magnéticos. Magnetómetro de Absorción Óptica o Vapor de Álcali: Es otra variante del magnetómetro de RMN utilizado desde mediados de la década de 1960, que se distingue por la forma de medición de la frecuencia de Larmor, ya que utiliza la 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

inestabilidad óptica que presentan vapores de rubidio, cesio, etc. El fenómeno de separación del espectro luminoso en presencia de un campo magnético fue descubierto por el holandés Pieter Zeeman en 1896. Cuando los núcleos atómicos del vapor de álcali entran en resonancia, el paso de luz polarizada a través de la misma se hace casi nulo, minimizándose en consecuencia la intensidad luminosa detectada, a partir de lo cual automáticamente se regula la frecuencia entregada por un generador a los valores de resonancia en Hz, que se pueden equiparar a intensidad en γ. Abajo se ve el esquema y fotografías de un modelo terrestre y de otro marino.

.

Magnetómetro Criogénico o SQUID: Acrónimo de Superconducting QUantum Interference Device, es un moderno dispositivo de muy alto costo y gran precisión que registra mediante un toroide superconductor en el que en todo momento se genera una corriente eléctrica cuya tensión resulta proporcional al campo magnético terrestre. También se lo emplea para determinar la susceptibilidad en muestras de laboratorio, en reemplazo de otros dispositivos más convencionales.

Aparatos de Laboratorio: Para conocer el valor de k en especímenes seleccionados se emplean usualmente alguna balanza magnética de laboratorio, como las de Gouy o Evans, o bien el puente de inductancia. Este último es un dispositivo que consiste en un circuito doble que induce un campo electromagnético prefijado sobre cada muestra tomada de la superficie o de pozos, calicatas o galerías. El voltaje necesario para balancear la respuesta de la roca o mineral muestreado en el puente es función de su susceptibilidad magnética.

PROSPECCIÓN AEROMAGNÉTICA Tiene como ventajas una mayor rapidez para ejecutar los trabajos, la posibilidad de obtener datos sobre regiones pantanosas, junglas, etc. y la minimización de los efectos perturbadores debidos a irregularidades próximas a la superficie que dificultan el reconocimiento de las anomalías producidas por rocas más profundas, así como ruidos debidos a la presencia de objetos metálicos -aunque sí serán visibles desde el aire plantas generadoras, líneas de alta tension, grandes ductos, etc.-. Alturas de vuelo típicas en prospección minera son 150 a 200 metros, mientras que suele volarse a 1000 ó más metros para exploración de hidrocarburos. La separación lateral entre líneas tiende a ser una distancia que duplica la altura de vuelo y no mayor que la profundidad máxima de interés (por ejemplo, el basamento de una cuenca). Se debe tener un segundo magnetómetro para 5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

conocer la deriva diurna o bien volver a pasar por un punto base cada hora o menos, a no ser que se disponga de datos de algún observatorio en la zona de trabajo. Normalmente se mide la componente total en la dirección del campo magnético, es decir que las anomalías registradas resultan de las locales y las del campo terrestre. Los magnetómetros utilizados son los discriminadores de flujo y los de resonancia magnética en cualquiera de sus variantes. Desde un avión se los puede llevar en la proa de la nave o extremo de un ala, o más raramente en un planeador remolcado. Desde helicóptero lo más común es llevarlo pendiendo de un cable -como en la imagen de la página 4-, y existe la opción de emplear arreglos para medir gradiente magnético, tal como se puede apreciar en la fotografía de la izquierda.

Arriba se ve el mapa aeromagnético de gradiente vertical del continente australiano, realizado por integración de numerosos trabajos de cobertura areal.

APLICACIONES DE LA MAGNETOMETRÍA En la interpretación magnetométrica suele ser difícil decidir si los cambios a lo largo de un mapa o perfil se deben a estructuras o a cambios estratigráficos laterales. En el caso de que no se pueda definir claramente la forma de una anomalía magnética y en presencia de una anomalía previamente detectada por otros métodos geofísicos o geológicos, se orienta el eje de la anomalía magnética en la misma dirección que el eje de la anomalía, que por ejemplo podría ser conductiva, hallada por geoeléctrica, o de gravedad como en la figura adjunta. Esto podría responder a la presencia de falla y pilar tectónico elongado, de interés como trampa de hidrocarburos, o de un dique con una probable mineralización metalífera, según sea la escala de la estructura y el ámbito geológico en la que se encuentra. 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Muchas veces varias estructuras causantes de anomalías magnéticas son paralelas entre sí, como es el caso de un sistema de diques subparalelos, o de estratos muy inclinados entre los que se intercalan algunos con alto contenido en minerales magnéticos. En el caso de que tengamos una anomalía central y otras flanquéandola, una interpretación posible, entre muchas otras, sería la presencia de un cuerpo de peridotita (roca plutónica de olivino y piroxeno) rodeado por sulfuros de alto contenido en pirrotina (FeS). Un ejemplo vinculado a rocas plutónicas intruyendo rocas metamórficas puede apreciarse en la figura de abajo, resultante de un relevamiento aeromagnético en el centro-norte del Chubut, con tres anomalías magnéticas principales.

Aplicaciones magnetométricas mineras: Este método se aplica en las exploraciones mineras con los siguientes objetivos principales: -Búsqueda de minerales magnéticos como magnetita, ilmenita o pirrotina. -Localización de minerales magnéticos asociados paragenéticamente con minerales no magnéticos de interés económico. -Determinación de las dimensiones (tamaño, contorno, profundidad) de estructuras de zonas mineralizadas cubiertas por capas aluviales o vegetales. La mayor parte de la producción de hierro mundial se explota de depósitos de origen sedimentario de composición primaria oolítica y silícea. El resto se extrae de depósitos de origen magmático con minerales de Fe de ese mismo origen o bien residuales después de la meteorización de las demás componentes de las rocas magmáticas. Los depósitos de Fe asociados con rocas magmáticas frecuentemente están caracterizados por un cociente magnetita/hematita alto y en consecuencia pueden ser detectados directamente por las mediciones magnéticas. Las taconitas, por ejemplo, son depósitos de Fe de origen sedimentario. Su carácter magnético depende de su estado de oxidación, puesto que la magnetita se descompone por oxidación. Las 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

taconitas oxidadas son mucho menos magnéticas que las taconitas inalteradas, lo que hace más difícil su detección por este método geofísico. El método magnético permite localizar depósitos de Fe situados en cierta profundidad y cubiertos por otras formaciones geológicas no magnéticas, tal el caso de los rellenos hidrotermales de fracturas de Pea Ridge Mountain, Missouri, descubiertos por medio de sondeos realizados a lo largo de una anomalía magnética de forma longitudinal. Un caso opuesto es el del gran yacimiento de hierro del Lago Allard, en Canadá, donde el mineral ferrífero, la hematita, es antiferromagnética y por lo tanto indetectable por este método prospectivo. Por su asociación paragenética con minerales magnéticos, minerales no magnéticos, como los metales básicos níquel, cobre y oro, por ejemplo, pueden ser asimismo detectados por este método. También platino como puede apreciarse en el siguiente trabajo prospectivo en Canadá.

Igualmente se emplea la magnetometría con frecuencia en la exploración de diamantes, localizados en chimeneas volcánicas de kimberlitas o lamprófidos, ya que su contenido en magnetita e ilmenita permite que sean localizadas por este método. Se han encontrado chimeneas de kimberlitas en los Estados Unidos, en la ex Unión Soviética y en Sudáfrica, así como también en Namibia, país de donde proviene la figura de abajo, en yacimientos del desierto de Kalahari.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Otras aplicaciones de la magnetometría: Más ampliamente, la prospección magnetométrica es útil para estudiar el subsuelo, diferenciando la mayor o menor presencia, en extensión o profundidad, de rocas que poseen altas concentraciones de minerales magnéticos respecto de otras que los poseen escasamente. Y esta información puede permitir interpretaciones sobre problemáticas geológicas muy diversas. Una aplicación geológica regional puede ser el levantamiento de tendencias estructurales en una zona extensa de rocas afloradas saltuariamente debido a una cobertura de sedimentos geológicamente recientes o un desarrollo de suelo con vegetación. El complemento de un relevamiento aeromagnético cuyo mapeo resultante ilumine tales tendencias -por ejemplo el rumbo de un emplazamientos intrusivos o de un planos de falla, etc.- puede ser de gran ayuda para completar el mapeo geológico, de modo que se combinan los datos geológicos obtenidos de algunos pocos afloramientos distribuidos irregularmente con las tendencias aeromagnéticas registradas. Un ejemplo de mapeo aeromagnetométrico es el que se grafica a continuación, en los Estados Unidos.

Algo análogo puede suceder en presencia de datos geológicos de sondeos con fines mineros, hidrogeológicos o petroleros. Datos aéreos, o bien terrestres, pueden dar valiosa información complementaria. Otros objetivos de interés pueden ser ruinas sepultadas de carácter arqueológico (el caso a la derecha), aplicaciones de índole medioambiental, estructuras volcánicas activas (figura de la siguiente página), y muchas más.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Exploración magnética para hidrocarburos: En la búsqueda de petróleo y gas natural se emplea el método magnético para determinar la geometría (extensión, dimensión y potencia) de cuencas sedimentarias, que pueden generar, migrar, almacenar y entrampar hidrocarburos, así como estructuras significativas, como anticlinales o pilares tectónicos (véanse los perfiles de la página siguiente a la izquierda), e incluso domos de sal por su carencia de minerales magnéticos. Se sabe que el basamento ígneo o metamórfico, con mayor susceptibilidad magnética, se acerca a la superficie en los bordes de una cuenca o en los altos intracuencales, sitios donde entonces se expresan mayor valores de esta anomalía geofisica. Otras veces los resultados magnéticos permiten planificar y definir más precisamente la eventual cobertura de los registros sísmicos, que suelen dar una información bastante más rica pero son mucho más costosos en comparación al método magnético. O suplir parcialmente su ausencia, si la adquisición de sísmica no pudiera hacerse por razones poblacionales o ambientales. También existen aplicaciones denominadas de Micromagnetismo. Esto parte de la obtención de mediciones locales de cierta precisión desde las que se puede llegar a inferir la presencia de hidrocarburos cuando, como suele ocurrir naturalmente, los sellos de las trampas no han sido totalmente eficientes y pequeñas filtraciones de hidrocarburos han generado condiciones de magnetización en sedimentos someros, por la formación de minerales magnéticos autigénicos vinculada a procesos de biodegradación del petróleo fugado hacia niveles subsuperficiales. En la página siguiente a la derecha se ilustran estas aplicaciones. 10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5 Magnetometría, Instrumental y Aplicaciones

Chelotti, L., Acosta, N., Foster, M., 2009

Registros Magnéticos de Pozo: Los más empleados son la herramienta cuentacuplas y el perfil de resonancia magnética nuclear, que veremos detalladamente en el siguiente apartado. La Herramienta Cuentacuplas (casing collar locator) se corre a pozo entubado con el fin de identificar los ensambles o collares entre los caños del encamisado (casing), a partir de incrementos en la señal dados por un magnetómetro discriminador de flujo (fluxgate). Útil para correlacionar perfiles a pozo entubado o bien para servir de referencia de profundidades en las operaciones de terminación. Comparación de los métodos magnético y gravimétrico: El método magnético de exploración tiene algunos aspectos en común con el método gravimétrico. Los dos métodos hacen uso de campos de potenciales (el trabajo realizado para cambiar de nivel es independiente del camino recorrido), detectan anomalías causadas por variaciones en las propiedades de las rocas, que constituyen los primeros kilómetros de la superficie terrestre, sus respuestas disminuyen rápidamente con la distancia del punto de medición a la masa anómala, y los dos métodos tienen aplicaciones similares en la exploración petrolera. A través de los datos gravimétricos se asignan densidades, a partir de los datos magnéticos se asignan susceptibilidades magnéticas y la imantación remanente a rasgos definidos por la sísmica. Combinando los resultados magnéticos, gravimétricos y sísmicos se puede obtener informaciones acerca de la litología, que son de alta importancia en la evaluación de proyectos de prospección de hidrocarburos. En lo que concierne la interpretación, el método magnético es más complejo en comparación al método gravimétrico, si bien, como se dijo, la gravedad debe medirse con gran precisión (variación máxima de 5 en 1000 a escala de todo el planeta) en tanto que el magnetismo es más del doble en los polos que en el ecuador. Pero la intensidad magnética tiene magnitud y dirección y depende de la susceptibilidad magnética y de la imantación remanente de la roca, esto además de que sufre variaciones temporales muy grandes que deben corregirse con cuidado La fuerza magnética puede atraer o repulsar algo. Los efectos magnéticos pueden ser causados por componentes de poca abundancia en una roca. En el caso del método gravimétrico la masa, que determina la gravedad, solo tiene magnitud y depende de la densidad. La fuerza gravitatoria es atractiva. Generalmente los efectos gravitatorios se originan de los constituyentes principales de una roca. CUESTIONARIO BÁSICO - ¿En qué se basan los distintos instrumentos magnetométricos? - ¿Cómo se opera en aeromagnetometría? - Indicar aplicaciones de los mapas isoanómalos magnéticos. - ¿Qué aplicaciones petroleras tiene el método? - ¿Qué es el micromagnetismo?

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.105-180). Librería de Ciencia e Industria. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.181-208). Editorial Paraninfo. - Lowrie, W., 1997. Fundamentals of Geopysics (p.229-305). Cambridge University Press. - Parasnis y Orellana, 1971. Geofísica Minera (p.36-110, 305-310). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.271-362). Alianza Editorial.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

RESONANCIA MAGNÉTICA NUCLEAR DE POZO Es una herramienta relativamente moderna que ha tenido creciente aplicación en la evaluación de fluidos producibles de los yacimientos de hidrocarburos, con resultados generalmente muy buenos en la cuenca Golfo San Jorge. El principio de medida está basado en excitar magnéticamente núcleos de hidrógeno y analizar las señales que éstos emiten. La amplitud de estas señales será proporcional a la cantidad de núcleos de hidrógeno presentes en la zona de medida. Todas las mediciones de Resonancia Magnética Nuclear (RMN) implican el uso de un campo magnético y de ondas electromagnéticas de amplitud, frecuencia y duración controladas (pulsos), que son emitidas por la antena de una herramienta de perfilaje. En condiciones muy particulares, los núcleos de hidrógeno responden emitiendo también ondas electromagnéticas de la misma frecuencia que la antena emisora, las que se denominan ecos y son detectadas por la misma antena. Los datos primarios obtenidos en cada ciclo de medida son trenes de ecos los cuales están caracterizados por su amplitud y por la variación de ésta con el tiempo. Estos dos factores son muy importantes dado que la variación de la amplitud nos da una idea de la proveniencia de la señal (arcilla de la matriz o fluido neto en los poros); el valor de la amplitud a su vez depende del número de núcleos que pudo ser excitado en la zona de medida, el sistema esta calibrado de manera que este valor se expresa en unidades de porosidad. Principios físicos generales La rotación de la carga eléctrica (momento magnético) del núcleo atómico de los hidrógenos alrededor de su eje genera un campo magnético de la misma manera que un imán con sus polos NS orientados sobre el eje de rotación del núcleo. En los fluidos los momentos magnéticos de los núcleos de H se ordenan de manera aleatoria, de manera que la suma de todos es nula. La manera de detectar los fenómenos magnéticos asociados a ellos es ordenándolos de alguna forma tal que sus momentos magnéticos se sumen en alguna dirección preferencial (la forma es aplicando un campo magnético exterior). En presencia de un fuerte campo magnético exterior, aplicado con un magneto, los H se orientan en dos direcciones paralelas y antiparalelas al mismo. Podemos imaginarnos los H como trompos que giran sobre sí mismos pero a su vez tienen un giro de precesión alrededor de un eje coincidente con la dirección del campo magnético externo. El vector de magnetización resultante es la componente en la dirección del campo magnético externo resultante de la composición de muchísimos momentos magnéticos en el fluido debidos en en esencia a la respuesta de los núcleos de H. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Todas las componentes en el plano transversal se anulan entre sí, por lo cual podemos decir que la magnetización resultante en el plano transversal es nula. En este estado de magnetización estable se aplican los pulsos con la antena de la herramienta, los que tendrán una frecuencia (en realidad una banda de frecuencias) igual a la frecuencia de definida por Sir Joseph Larmor al inicio del pasado siglo, que es la única frecuencia a la cual es posible comunicar energía a los protones (fenómeno denominado resonancia magnética). El efecto de estos pulsos es un giro del momento magnético proporcional a la energía del pulso, por lo tanto una vez finalizado este primer pulso (de 90º) los momentos magnéticos se encuentran en el plano transversal girando a la frecuencia de Larmor. En el volumen investigado existe una banda de frecuencias de Larmor en lugar de una única y esto hace que rápidamente los más veloces tomen distancias de los más lerdos y se pierda la coherencia que permite detectarlos. En este punto se aplica un pulso con el doble de energía que el anterior (de 180º) provocando un giro también de 180º en el plano transversal alrededor de un eje. Esto provocará que al cabo de cierto tiempo los más rápidos alcancen a los más lerdos y en un instante todos los vectores pasen por el mismo lugar al mismo instante emitiendo una señal electromagnética que es detectada por la antena de la herramienta (primer eco). Este primer eco tiene la información de la cantidad de protones que participaron en nuestro experimento de RMN y como éstos están contenidos en los fluidos la amplitud de este eco es proporcional a la porosidad del medio que estamos midiendo.

Las herramientas de perfilaje de resonancia magnética nuclear (o precesión protónica) utilizan una secuencia de pulsos que permite analizar la magnetización en el plano transversal, fundamentalmente cómo vuelve la magnetización a su estado de equilibrio inicial. Este proceso de recuperación sigue leyes exponenciales. La magnetización en el plano transversal comienza de un valor Mo y tiende a cero con una constante de tiempo de relajación T2. Esta secuencia comienza con un pulso de 90º que nos ubica en el plano transversal seguido de una secuencia de pulsos de 180º obteniendo después de cada uno de ellos un eco (momentos magnéticos en fase). Estos ecos son proporcionales a la magnetización total que va quedando en el plano transversal, por lo que su amplitud va decayendo según una exponencial decreciente con una constante del tiempo de relajación llamada T2. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Este tren de ecos obtenidos es la información primaria obtenida de la herramienta de perfilaje. De él no nos es posible obtener datos de utilidad práctica, por lo cual se realiza un proceso de inversión que consiste en obtener un espectro de constantes T2 a partir de los trenes de eco obtenidos. A estos trenes se los conoce también como datos en el dominio del tiempo, y a los espectros de T2 como datos en el dominio de T2. Es decir que en abscisas pasamos de unidades de tiempo a T2, y en ordenadas de amplitud de ecos a unidades de incremento de la porosidad. En las mediciones de porosidad utilizando RMN se asocian los poros grandes a T2 grandes y los poros pequeños a T2 chicos. Es posible fijar limites en el espectro de T2 de manera de dividir a la porosidad, que es el área del espectro de T2, en porciones que representen muy aproximadamente a las porosidades efectiva, irreducible y móvil, esto dependerá de una correcta elección del método de adquisición y de los valores T2 límite o de corte (cutoffs) elegidos.

PRONÓSTICOS DE FLUIDOS REALIZADOS EN BASE A LA RMN La evaluación de la información adquirida con un conjunto básico de perfiles de pozo abierto constituido por una herramienta resistiva, un calibre y la herramienta de Resonancia Magnética Nuclear MREX (de Baker, otras compañías tienen productos alternativos) provee indicadores tales como: 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Porosidad Efectiva independientemente de la matriz rocosa. Indices de calidad petrofisica del reservorio Kc: Índice de permeabilidad de Coates, MBVM: Índice de porosidad asociada a fluidos móviles Estos dos últimos índices permiten caracterizar los reservorios de manera muy confiable, minimizando el punzado de capas “Sin Entrada” de fluido y facilitando la elección de capas que deberán ser estimuladas mediante fractura hidráulica. En el modo que se corre (POROPERM + OIL), además de los indicadores de calidad de reservorio, brinda tres espectros de T2 correspondientes a registros simultáneos, cuya interacción permite realizar certeros pronósticos del fluido presente en los reservorios. Metodología de trabajo empleada La metodología de trabajo es muy simple, limitándose a la aplicación de valores límite a los índices de calidad petrofísica, resultando “buenos” reservorios aquellos que posean valores de Kc y MBVM mayores a los mismos, y “malos o pobres” reservorios aquellos cuyos valores estén por debajo de tales límites. La discriminación entre buenos y malos reservorios se realiza tomando como base el caudal obtenido durante el ensayo de terminación cuando éstos se han realizado de forma individual y no en conjunto. El histograma siguiente presenta estas consideraciones, nótese la relación de proporcionalidad directa entre indicadores y caudales. Con valores bajos de los indicadores se obtuvieron bajos caudales; los caudales bajos de capas que tienen indicadores con altos valores permiten inferir posibles daños de formación y permiten sugerir algún tipo de estimulación como una fractura hidráulica que permita remover el daño e incrementar el caudal obtenido en la terminación.

Esta conclusión está claramente indicada en el gráfico superior, el recuadro muestra el incremento del caudal post-fractura en capas con índices altos de calidad de reservorio.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Los gráficos para el índice de permeabilidad de Coates muestran un comportamiento similar a los de porosidad asociada a fluidos móviles, lo que permite sacar conclusiones similares. De esta manera se obtienen los valores límite que permiten discriminar entre reservorios de buena, regular o mala calidad.

La clasificación de los fluidos diagnosticados se realiza aprovechando una propiedad característica de cada tipo de fluido llamada difusión, la cual es producida por un decaimiento adicional de los ecos en presencia de un campo magnético gradacional como el generado por el MREX. La existencia de un gradiente de campo magnético hace que la frecuencia de Larmor cambie espacialmente de acuerdo a como cambia el campo, lo que provoca en la secuencia de pulsos un desfasaje adicional de los H que en su movimiento desordenado se van del lugar donde fueron excitados cambiando su frecuencia de Larmor. Esto es análogo a una gota de tinta en un vaso de agua. Este fenómeno afecta mayormente a los fluidos de baja viscosidad y la propiedad es aprovechada para separar las señales de NMR provenientes de agua de las provenientes de petróleo, dado que las constantes de difusión de ambos fluidos son diferentes fundamentalmente a las diferencias de viscosidad. Para utilizar la propiedad de difusión de los fluidos en los registros de pozo se requiere realizar una adquisición con distintas frecuencias y a distintos valores de gradiente de campo magnético. El diagnostico de fluidos en los pozos se realiza por comparación visual de los espectros de T2 teniendo en cuenta las caracterizaciones que a continuación se exponen, las que se ajustan a medida que avanza un determinado proyecto. Cuando el fluido presente en el reservorio analizado es petróleo: Los espectros deberán verse prácticamente iguales (sin desplazamientos relativos). El espectro de T2 correspondiente al GTE de 89 (ubicado a la derecha en la siguiente figura) no deberá estar desplazado hacia la izquierda respecto de los GTE de 36 y 17 (espectros ubicados a la izquierda). Esto se debe a la poca difusión que presenta este tipo de fluido.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Cuando el fluido es agua de formación: Dado que el agua presenta mayor difusión, cuando sea éste el fluido contenido en el reservorio, el espectro de la derecha presentará un desplazamiento (“shift”) hacia la izquierda respecto a los del GTE: 36 y 17, tal como se muestra en la siguiente figura.

Nótese el valor bajo para el índice de movilidad asociado a fluidos móviles en las capas sin entrada de fluido en el ensayo de terminación. Otro elemento que es utilizado para el diagnóstico de petróleo y que aprovecha los efectos de la difusión es el valor de T2 máx del agua, el cual depende de los parámetros de adquisición, de la temperatura y de la viscosidad del agua.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

Este valor máximo está representado en el registro de MREX por una línea de color azul colocada en el espectro de T2 correspondiente al GTE de 89. Toda señal que esté por arriba de esta línea es producida por petróleo que se encuentre en la zona de lectura de la herramienta.

Dado que existe un gran contraste de la constante de difusión del gas respecto a la de los demás fluidos, esta propiedad podría haber sido utilizada para identificarlo, pero las bajas presiones a la que este se encuentra en nuestros reservorios hacen que el índice de hidrógeno asociado sea bajo, generando consecuentemente una señal de muy baja intensidad que normalmente queda enmascarada por la fuerte señal que producen las altas concentraciones de agua irreducible típicas de esta Cuenca. Limitaciones del método de evaluación Expuestos ya los criterios utilizados para diagnosticar tipos de fluidos, a continuación se comentará acerca de las limitaciones de esta metodología de evaluación que pueden motivar prognosis desacertadas. En ocasiones los radios de invasión calculados por procesamiento de lecturas de resistividad a varias profundidades de investigación resultan bastante importantes. Por lo cual 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

muchas veces la lectura del MREX se produce en la zona lavada que está inmediatamente a continuación de la pared del pozo. La señal de petróleo que es detectada por la herramienta está producida por el petróleo que no fue desplazado por el filtrado del lodo de perforación. Así, un petróleo de baja viscosidad que sea casi completamente desplazado de la zona lavada, podrá ser interpretado como agua debido a que se observará un desplazamiento de espectros producido por el agua del filtrado. Esto motivará fallos en los diagnósticos de fluidos que harán confundir reservorios petrolíferos con capas acuíferas. La gran invasión de agua filtrada puede ser la razón de pronósticos desacertados. Por otro lado, un reservorio fundamentalmente acuífero que tiene alojado algo de petróleo en la zona de lectura, podrá producir diagnósticos erróneos que lo confundan con un reservorio petrolífero. Por fortuna el tipo de petróleo más común en la Cuenca del Golfo San Jorge (de viscosidad media), minimiza estos fallos permitiendo que esta metodología de evaluación de fluidos resulte bastante certera. Interpretación de mapas de difusión Una imagen de 2D NMR (mapa de difusión) es análoga a los gráficos que son usados en análisis de pozo abierto. Por ejemplo los que usan conjuntamente datos de densidad y de neutrón para determinar tipo de roca y porosidad.

En forma similar nosotros graficamos en 2D los datos de MREX (Difusión vs. T2 Intrínseco) para de esta manera diferenciar fluidos con el mismo T2 pero distinta difusión. El T2 es el tiempo de relajación que corresponde a la constante de tiempo del decaimiento del tren de ecos y la difusividad D es la medida de la habilidad de las moléculas para moverse aleatoriamente en el fluido. Se grafican líneas para el agua y para el petróleo. El gas ocupará la esquina superior derecha. El volumen de cada fluido está representado por un color distinto.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

En la Cuenca del Golfo San Jorge estas técnicas de identificación de fluidos han permitido predecir con un promedio de acierto de más de 75% qué zonas son probablemente más productivas de hidrocarburos. Esto ha eliminado la necesidad de ensayos de prueba, ahorrando a las operadoras mucho dinero y tiempo de terminación. En el ejemplo se muestra un mapa de difusión de una zona productora de petróleo. La misma muestra petróleo móvil tal cual lo demostró el ensayo posterior de terminación.

CONSIDERACIONES PARA PROGNOSIS DE FLUIDOS

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 5(b) Resonancia Magnética Nuclear de Pozo

preparado por N. Acosta

CONSIDERACIONES TENIDAS EN CUENTA PARA ESTIMACIÓN DEL PORCENTAJE DE ACIERTOS EN PROGNOSIS DE FLUIDOS 

La zona de lectura de la herramienta corresponde a la zona invadida (4 pulgadas de profundidad de investigación) lo cual no hace factible hacer cuantificaciones que permitan estimar porcentajes de fluidos en los ensayos.



No se consideran los resultados de los ensayos en los siguientes casos:





Ensayos en conjunto que involucran capas con diferentes prognosis



Bajos caudales obtenidos en los ensayos (por ej: menos de 160 lts.) de capas de alta calidad de reservorio (MBVM alto), en esos casos se infiere probable daño de formación y de nos ser estimuladas no se consideran.



El resultado sin entrada en una capa con prognosis de fluido y en la cual la calidad de reservorio sugiera una estimulación no se considera en la estadística dado que un probable daño de formación podría ser la causa del resultado y sin estimulación NO es posible conocer el fluido que se encuentra en el reservorio.

En caso de capas estimuladas mediante fractura hidráulica se considera el resultado del ensayo post-fractura

CUESTIONARIO BÁSICO - ¿En qué se fundamentan los perfiles de resonancia magnética nuclear en pozo? - ¿Qué indicadores provee esta metodología? - ¿Cómo evaluamos el potencial de un reservorio con RMN? - ¿Qué son los mapas de Difusión?

Bibliografía Específica: -

-

-

-

S. Chen, D. Beard, M. Guillen, S. Fang and G. Zhang: MR Explorer Log Acquisition Methods: Petrophysical-Objective_Oriented Approaches, SPWLA 44th Annual Logging Symposium, June 22-25, 2003. S. Chen, C.M. Edwards, and H.F. Thern. Western Atlas Logging Services. Advances in NMR Log Processing and Interpretation. Delia C. Diaz, Eduardo Breda, YPF, S.A. Comodoro Rivadavia , Argentina, Carlos Minetto, Baker Atlas, Comodoro Rivadavia, Argentina, Songhua Chen, SPE, Baker Atlas, Houston, USA. SPE 56425. Use of NMR Logging for Formation Damage Prevention: Water-Flooding Case Study in Cañadón Seco, San Jorge Basin. Songhua Chen, SPE, Western Atlas Logging Services, Houston, USA; Oscar Olima, YPF S. A., Héctor Gamín YPF S.A., Comodoro Rivadavia, Argentina; Daniel T. Georgi, SPE, Western Atlas Logging Services, Houston, USA; J. Carlos Minetto, Western Atlas Logging Services, Comodoro Rivadavia, Argentina SPE 49009 Estimation of Hydrocarbon Viscosity with Multiple TE Dual Wait-Time MRIL Logs. M. Altunbay, C.M. Edwards and D.T. Georgi, Western Atlas Logging Services SPE 38027 Reducing Uncertainty in Reservoir Description with NMR-Log Data.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

PROSPECCIÓN GEOELÉCTRICA Los métodos geoeléctricos se fundamentan en el registro de magnitudes eléctricas del campo electromagnético en el suelo y subsuelo terrestre, las que, una vez procesadas e interpretadas, podrán conducir a la identificación de valores anómalos vinculados a objetivos de interés científico o eventualmente aplicado. La electricidad estática se conoce desde la antigüedad, como lo documentó Teofrasto en el 300 a.C., es el caso del ámbar al ser frotado. Electrón significa ámbar en griego y la palabra fue instalada en la modernidad por el británico Williams Gilbert. William Watson, también británico, en 1746 descubrió que el suelo es conductor de corriente eléctrica. Más tarde, en 1784, como ya se citó, el francés Charles Coulomb definió la ley fundamental de los campos electromagnéticos, que para el campo eléctrico se escribe: F = Kq1.q2 / l2 -la forma matemática típica de los campos potenciales(en el S.I. las cargas q están dadas en coulomb y la distancia o longitud conductora l en metros, con K= 9.109 N.m2/c2 en el vacío). En Italia hacia el 1800 Alessandro Volta inventó la primera pila. La palabra voltio se utiliza para definir la diferencia de energía potencial en los campos eléctricos. Análogamente al magnetismo, el Potencial Eléctrico es: V = Kq1 / l y el Campo Eléctrico es: E = F / q2 = Kq1 / l2 = V / l (potencial eléctrico sobre longitud) La Densidad de Corriente es: J = I / s (intensidad eléctrica sobre sección o área del conductor)

André Ampère (francés) en 1800 observó que dos cables con corriente se repelen o atraen según la dirección relativa de circulación y expuso su teorema: ]Hds = J+(dD/dt) (donde el primer término es la integral de superficie cerrada del campo magnético, J la densidad de corriente, D la inducción electrostática y t el tiempo).

PROSPECCIÓN GEOELÉCTRICA En las variantes prospectivas de la geoelectricidad pueden aprovecharse las respuestas dadas a partir de los campos eléctricos naturales de la Tierra o bien recurrirse a la generación de campos artificiales cuya mayor intensidad o mejor control podrá permitir generar registros más claros del terreno estudiado. Existe una gran variedad de metodologías, que podemos clasificar según diversos criterios alternativos o la combinación de ellos. Por ejemplo:   

Naturaleza del campo: natural o artificial Información obtenida: vertical (sondeo), lateral (calicata) o areal (mapa) Tipo de campo: constante (continuo) o variable (alterno). 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Clasificación General de los Métodos Prospectivos: Campo Natural

Potencial Espontáneo (PE) Corrientes Telúricas Corrientes Magnetotelúricas (MT)

Campo Artificial Campo Constante (CC): Líneas Equipotenciales (Inyección de Corriente) Sondeos Eléctricos Calicatas Eléctricas y TE Campo Variable (EM): (ElectroMagnéticos)

Calicatas Electromagnéticas Sondeos de Frecuencia Registros Hertzianos y Otros

Polarización Inducida (PI): Dominio del Tiempo Dominio de la Frecuencia PROPIEDADES ELÉCTRICAS DE LAS ROCAS Tipos de Conductividad Estrictamente hablando, todos los cuerpos son eléctricamente conductores dado que permiten, en mayor o menor medida, el paso de portadores de cargas eléctricas. Estos portadores pueden ser electrones o iones, hecho que permite distinguir entre dos tipos de conductividad: electrónica e iónica. Los cuerpos con conductividad electrónica se clasifican en metales y semiconductores. Los que tienen conductividad iónica pueden ser dieléctricos o electrolitos líquidos (si no son gaseosos). 

Conductividad Electrónica Metales: El mecanismo de la conductividad de éstos puede imaginarse como debido a que los electrones de valencia de sus átomos pueden moverse libremente entre la red cristalina que éstos forman, sin vinculación a ninguno determinado. La facilidad de movimiento de los electrones y su gran número redundan en una conductividad muy elevada. Su resistencia aumenta con la temperatura y con el contenido de impurezas. La resistividad de los metales a temperatura normal varía entre 10-8 y 10-7 Ωm. Son pocos y muy escasos los componentes de la corteza terrestre que posean conductividad metálica. Entre ellos se cuentan los metales nativos (oro, plata, cobre, estaño) y quizá algún mineral poco abundante como la ullmanita (NiSbS). (Como curiosidad, los materiales superconductores, que no se encuentran en la corteza terrestre, se comportan análogamente a los metales hasta que, a muy bajas temperaturas, caen a resistividad cero, como se esquematiza en la siguiente página.) Semiconductores: Son muchos y de gran importancia práctica. Su resistividad depende de su contenido en impurezas, a veces en grado extremo. Además su conductividad depende de la absorción de fotones y aumenta con la temperatura. Por ello, no cabe esperar que la resistividad de una especie mineralógica determinada pueda representarse por un dato único, sino que puede variar dentro de límites amplios. En general los teluros y los arseniuros son conductores muy buenos. Los sulfuros suelen entrar también entre los conductores buenos, con excepciones como la blenda y el cinabrio. Los óxidos, y los compuestos de antimonio suelen ser malos conductores, con la excepción de la magnetita. Ahora bien, estos minerales no suelen aparecer en la naturaleza de forma individual, sino en asociaciones, y junto con una ganga frecuentemente aislante (cuarzo, calcita, etc.), por lo que la resistividad conjunta del filón puede variar mucho de unos casos a otros. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural



Chelotti, L., Acosta, N., Foster, M., 2009

Conductividad Iónica: Dieléctricos (o aisladores): Los electrones están fuertemente ligados a los átomos. Esto puede deberse a que existan enlaces covalentes o iónicos. En este último caso la red cristalina forma un electrólito sólido. La mayoría de los minerales pertenecen a este grupo. A temperaturas normales las resistividades son muy altas, generalmente superiores a 107 Ωm. Son minerales dieléctricos el azufre, la blenda, la calcita, el cinabrio, el cuarzo, las micas y el petróleo entre otros. Entre estos minerales, además, figuran los más importantes constituyentes de las rocas, las cuales se comportarían como aisladoras si no fuera por la presencia de electrolitos. Electrolitos líquidos: sus condiciones de conductividad dependen del campo eléctrico aplicado, temperatura -como se ve en la gráfica-, concentración de las soluciones, tamaño de los iones. El agua pura es muy poco conductora a causa de su muy reducida disociación. La resistividad del agua destilada es de unos 105 Ωm por lo que puede considerarse como aislante. Las aguas que se encuentran en la naturaleza presentan, sin embargo, conductividad apreciable, pues siempre tienen disuelta alguna sal, generalmente NaCl, variando entre 0,2 (agua de mar) y 103 Ωm (agua dulce).

Magnitudes eléctricas medibles, historia: Son tres: permeabilidad magnética, constante dieléctrica y resistividad (o resistencia específica). * La Permeabilidad Magnética µ es la magnitud fundamental en la prospección magnética como ya se ha visto. * La Constante dieléctrica o Permitividad ε es un ordenador lineal (que depende del sistema cristalino) que vincula la magnitud de un campo eléctrico E con la inducción electrostática D. Su valor relativo depende de la composición química, la densidad y la estructura cristalográfica. Matemáticamente: Di = εij.Ej

(en el vacío ε vale 8,854 pF/m, en granitos unos 20 y en arcillas cerca de 100 pF/m)

Existen pocos métodos geoeléctricos basados en la valoración de la permitividad, de los cuales los más empleados son: -El Radar de Substrato o Georradar, que ha sido aplicado habitualmente a objetivos de muy poca profundidad (pocos metros), con objetivos estratigráficos, hidrogeológicos o ambientales, y muy utilizado en áreas de suelos congelados. -El Perfil Dieléctrico de Pozos, que en algunas cuencas ha sido muy utilizado como indicador de porosidades y tipos de fluidos. * La Resistividad ρ es la magnitud eléctrica más contrastante y más utilizada en los métodos de la geoelectricidad. Las medidas de resistividad eléctrica del subsuelo son habituales en las prospecciones geofísicas. Su finalidad es detectar y localizar cuerpos y estructuras geológicas basándose en su contraste resistivo, sea que tengamos una fuente de campo natural o artificial. 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Resistividad eléctrica de suelos: La resistividad eléctrica ρ de un material describe la dificultad que encuentra la corriente a su paso por él. De igual manera se puede definir la conductividad σcomo la facilidad que encuentra la corriente eléctrica al atravesar el material. La resistencia eléctrica que presenta un conductor homogéneo viene determinada por la resistividad del material que lo constituye y la geometría del conductor. Para un conductor rectilíneo y homogéneo de sección s y longitud l la resistencia eléctrica es: R = ρ l/s o bien, según la ley del alemán Georg Ohm de1830: I = V/R y por lo tanto R = V/I por lo que

ρ l/s = V/I

y ρ = (V/I).(s/l)

(s/l es la configuración geométrica del conductor, en este caso un cable) La unidad de resistividad en el Sistema Internacional es el ohmio por metro (Ω.m), ya que R se da en ohmios, y además I en amperios y V en voltios. La conductividad se define como el inverso de la resistividad: σ = 1// ρ La unidad de conductividad en el Sistema Internacional es el Siemens (S), por Werner von Siemens, alemán inventor de la dínamo hacia 1850, aunque suele referirse también como mho/m. Comportamiento eléctrico de las rocas: La resistividad es una de las magnitudes físicas con mayor amplitud de variación para diversos materiales. En las rocas se presenta un medio heterogéneo con por lo menos dos conductividades distintas, una de la matriz (dieléctrica, raramente semiconductora, según sea la mineralogía) y otra del espacio poral (electrolitos líquidos) donde los distintos parámetros de porosidad y permeabilidad importan. Pero también influyen dos parámetros físicos: presión y temperatura. De modo que la conductividad eléctrica depende de:

Matriz mineral (composición, y estado de agregación) Espacio Poral (volumen, configuración y fluidos) Presión y Temperatura

Como se mencionó, el agua pura es muy poco conductora (105 Ωm), pero las aguas que se encuentran en la naturaleza presentan conductividad debido a las sales disueltas. Así las aguas de lagos y arroyos de alta montaña varían entre 103 Ωm y 3 x 103 Ωm, las aguas subterráneas tienen resistividades de 1 a 20 Ωm, y las aguas marinas tienen una resistividad de unos 0,2 Ωm. En geoeléctrica el concepto de matriz incluye granos y matriz. Si la resistividad de las rocas dependiese únicamente de los minerales constituyentes, habrían de considerarse como aislantes en la inmensa mayoría de los casos, puesto que el cuarzo, los silicatos, la calcita, las sales, etc. lo son prácticamente. Sólo en el caso de que la roca contuviese minerales semiconductores o metales en cantidad apreciable podría considerarse como conductora, es decir, sólo lo serían las menas metálicas, cuya interpretación es igualmente compleja porque normalmente están rodeados de una ganga aislante. Afortunadamente todas las rocas tienen poros en proporción mayor o menor, los cuales suelen estar ocupados total o parcialmente por electrolitos, de lo que resulta que, en conjunto, las rocas se comportan como conductores iónicos, de resistividad muy variable según los casos. La resistividad de las rocas puede variar en margen amplísimo en función del contenido en agua, de la salinidad de ésta y del modo de distribución de los poros. 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

La resistividad de las rocas también depende de la temperatura a la que se encuentre, ya que ésta influye sobre la resistividad de los minerales (inversamente en metales que en semiconductores) pero además en los fluidos que hay en los poros. En las sedimentarias un descenso de la temperatura provoca un aumento de la resistividad y en el punto de congelación el agua pasa a ser un dieléctrico o mal conductor, tal como se grafica en la página 3. En cuanto a la presión, en rocas sedimentarias, o en general con conductividad iónica dominante, su incremento produce un incremento de resistividad por el efecto de deshidratación consecuente. Si, en cambio, las rocas tienen conductividad electrónica, el aumento de presión suele aumentar la conductividad. Por último, cabe mencionar que la resistividad de algunos minerales, y como consecuencia de las rocas que éstos forman, varía según la dirección de medida que se toma, es decir, que presentan anisotropía. En rocas sedimentarias, la estratificación puede producir anisotropía, aunque en general este efecto es débil dada la aleatoriedad de las orientaciones de los minerales en las rocas.

Los campos ondulatorios eléctrico y magnético se encuentran intrínsecamente vinculados como muestra esta imagen y lo demostró James Maxwell en 1861.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE CAMPO NATURAL

CORRIENTES TELÚRICAS Se trata de corrientes eléctricas naturales que circulan por la corteza terrestre, de amplitud y frecuencia variables a lo largo de las horas y también de un día a otro. Se originan por la inducción del campo magnético externo de la Tierra, el que interactúa con otros campos menores inducidos desde el interior terrestre, más la eventual interacción con las tormentas eléctricas troposféricas. Conforman ocho circuitos eléctricos principales, cuatro en cada hemisferio, más otros circuitos menores distribuidos geográficamente.

A fines de la década de 1930 los alsacianos Conrad y Marcel Schlumberger propusieron en Francia el empleo de las corrientes telúricas en prospección, dado éstas aparecían como ruidos en los registros realizados a partir de fuentes artificiales de corriente -con los que ellos ya habían empezado a trabajar algunos años antes-. Idearon entonces probar el trabajo de adquisición de información geoeléctrica a partir de esta fuente natural, y lo que era ruido pasó a ser señal. Estas corrientes son muy fluctuantes, caracterizándose por registrar desde casi cero hasta 10000 Hz, pero tienen baja amplitud. 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

En el trabajo de campo la metodología propuesta fue registrar con un par de electrodos móviles a cierta distancia mutua, midiendo la diferencia de potencial entre ellos, y disponer de otros dos pares de electrodos fijos en la base de arranque, uno N-S y otro E-O, a fin de tener un control permanente de las fluctuaciones naturales de estas corrientes telúricas y no confundir las variaciones temporales con el cambio en los valores de un lugar del subsuelo respecto a otro.

CORRIENTES MAGNETOTELÚRICAS La prospección con corrientes telúricas presenta a veces el inconveniente de medirlas cuando existe una fuerte actividad magnética de la fotosfera solar que afecta el campo magnético externo de la Tierra (figura de la derecha). En efecto, algunas veces puede ser tan intensa y variable que las denominamos tormentas magnéticas, dado que entonces las micropulsaciones del campo magnético exterior de la Tierra (de muy baja frecuencia, inferiores a 0,1 Hz) pueden tener picos de amplitud de hasta 500 nT. En este último caso directamente debe suspenderse toda adquisición de datos telúricos debido a su extremo nivel de ruido. Pero mucho más frecuentemente se dan registros en situaciones de variabilidad moderada que generan niveles de ruido que, si bien afectan los resultados, no los invalidan totalmente. Pensando en estos casos muy habituales el ruso Tikhonov en 1950 y el francés Cagniard en 1953 elaboraron las bases del método magnetotelúrico (MT), que en esencia consiste en medir no sólo componentes eléctricas del campo magnético, sino igualmente componentes magnéticas (con un magnetómetro) a fin de combinar las mediciones en conjuntos de datos más robustos. Debe tenerse presente que en este método medimos las mismas corrientes telúricas, pero además sus correlativos vectores magnéticos. 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Se componen funciones matemáticas llamadas impedancias eléctricas, desde donde se calculan amplitudes (o resistividades aparentes R) y fases P, denominándose TE (telúricos eléctricos) a los valores medidos parelalamente al rumbo predominante de las formaciones a mapear (es decir, sus resistividades RTE y fases PTE), y llamando TM (telúricos magnéticos) a los valores medidos perpendicularmente a dichos rumbos (RTM y PTM).

Arriba vemos una fotografía que muestra el trabajo de adquisición de datos. El ejemplo de la figura de abajo y siguientes corresponde a una prospección de la cuenca de Paraná en Brasil (Stanley et al.,1985) e ilustra esta metodología. Los objetivos, en este caso, son la detección de diques ígneos, así como la visualización de los espesores sedimentarios y las estructuras geológicas -potenciales reservorios y trampas- por debajo de los más de mil metros de coladas basálticas superpuestas de la formación Serra Geral, la cual actúa como un espejo que impide una adecuada iluminación sísmica por debajo ella.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Aquí otro ejemplo del método, empleado en este caso para estudios corticales profundos en un sector de las sierras pampeanas (Booker et al., 2002). Se interpretan zonas conductivas por fluidos de alta temperatura bajo cada una de los tres bloques de falla. En el sector oriental, el máximo conductivo se debe al relleno sedimentario de parte de la cuenca Chaco-Paranense.

Métodos Audio Magnetotelúricos: Son opciones del método MT que funcionan en el rango de las audiofrecuencias. Entre éstos, a su vez, existe la variante más convencional (AMT), que sigue un procedimiento de registro y cálculo análogo a lo descripto anteriormente, y dos variantes especiales, a saber: 10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Una de ellas se conoce como Afmag (Audiofrecuencias magnéticas, figura a la derecha) y es útil para la localización de los cambios de buzamientos en estructuras someras del subsuelo. Se registra de manera análoga a los métodos electromagnéticos de Inclinación de Campo (veáse en el Tema 8) pero en este caso la fuente no es un campo artificial, sino uno natural. La otra modalidad singular es el CSAMT (Controlled Source AMT), que opera como la mayoría de los métodos MT, excepto porque la fuente es artificial y por lo tanto controlada, a partir de dos pares de antenas ortogonales emitiendo desde una distancia de varios km, tal como puede apreciarse en el ejemplo de la página siguiente en un área termal (volcánica), en los Estados Unidos. (Se registró dentro del recuadro pequeño del mapa geológico.)

Otras Variantes del Método MT: También se puede trabajar en el rango de las Radiofrecuencias (RMT), en realidad aprovechando las emisiones radiales de origen artificial, y asimismo con Heliofrecuencias (HMT) dadas por la energía solar, tal como se resume en las figuras siguientes. 11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones: Los métodos MT tienen aplicaciones muy diversas, algunas de las cuales hemos ejemplificado, como mineralizaciones diversas (diamantes, ígneas metalíferas, etc), recursos hídricos, yacimientos geotérmicos y otras. Las corrientes magnetotelúricas se han utilizado para el mapeo de algunas cuencas sedimentarias con objetivos hidrocarburíferos, ya que pueden obtenerse buenas imágenes bajo rocas de alta impedancia acústica que pueden ser causantes de una mala señal para la sìsmica de reflexión. También para imágenes someras en áreas de alteración geoquímica por microfuga de hidrocarburos desde sus trampas.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

POTENCIAL ESPONTÁNEO (Self Potential) Se trata de tensiones eléctricas naturales producidas por diferencias en la actividad química del terreno: no dependen de ninguna propiedad física determinada. El fenómeno de potencial espontáneo (PE o SP) fue descubierto por Robert Fox en 1815, y fue aplicado por primera vez en prospección por Conrad Schlumberger en 1913 al realizar el primer hallazgo geofísico de un mineral no magnético, un yacimiento de sulfuros en Serbia. Origen de los Potenciales Espontáneos: De fondo: Vinculados sólo a conducción de tipo iónico pueden a su vez ser de dos tipos, -Por variaciones de concentración en los electrolitos del subsuelo (ácido húmico o salinidad), llamado potencial de difusión o electroquímico, o bien - Por filtración o capilaridad de los electrolitos que fluyen a través de los poros o membranas, sobre todo a niveles superficiales, como ejemplo el ascenso y descenso de la napa freática. De mineralización: Debido a las diferencias en la capacidad de oxidación de las aguas próximas al techo de los yacimientos que internamente poseen conductividad electrónica. De modo que tenemos un intercambio de cargas iónicas y electrónicas. La mineralización transporta electrones desde la parte inferior hacia la superior buscando el equilibrio electroquímico, por lo que esa parte alta se carga negativamente, generándose una pila. Típico en yacimientos de sulfuros, magnetita, grafito, etc. Medición del Potencial Espontáneo en Superficie: Equipo necesario: -Electrodos: deben ser impolarizables para evitar la acción electrolítica que enmascara la diferencia de potencial natural (electrodo de Calomelanos, o bien cobre sumergido en sulfato de cobre u otras alternativas). -Cable: con un buen recubrimiento aislante. -Voltímetro: de lectura directa: con una impedancia de entrada alta puede utilizarse un voltímetro electrónico de válvula (medidor de ph) de compensación (oposición): basado en equilibrar la tensión entre los electrodos de SP con una tensión conocida.

Trabajo de campo: Existen dos modalidades alternativas a) Un electrodo permanece fijo en una estación base, mientras el otro es transportado a diferentes puntos. Se miden los potenciales eléctricos naturales y la presencia de valores negativos intensos sobre zonas extensas pueden ser una indicación de interés prospectivo. 13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 6 Métodos Geoeléctricos de Campo Natural

Chelotti, L., Acosta, N., Foster, M., 2009

b) Los dos electrodos guardan una separación fija y son desplazados conjuntamente a lo largo del perfil de medición en pasos iguales a la separación mutua. En este caso lo que se mide son gradientes los cuales tienen la ventaja de que su alcance operacional es ilimitado. Cuando se miden gradientes, una lectura grande y positiva y otra grande y negativa separadas por un valor nulo es una buena indicación. Aplicaciones: En la modalidad de prospección superficial el potencial espontáneo ha sido utilizado fundamentalmente para el cateo de mineralizaciones metalíferas, pero también, aunque en menor grado, para estudios hídricos del subsuelo, evaluaciones medioambientales y más recientemente para yacimientos geotérmicos. La profundidad de investigación no suele ser mayor que pocos cientos de metros, en condiciones muy favorables, con mucho mejor información dentro de las primeras decenas de metros.

Veremos más adelante el registro y aplicaciones del PE en pozos petroleros. CUESTIONARIO BÁSICO - ¿Qué magnitudes eléctricas podemos medir en las rocas? - ¿Qué características de las rocas determinan sus propiedades eléctricas? - ¿Cómo se clasifican los distintos métodos geoeléctricos? - Expresar la ley de Ohm y definir resistividad aparente. - Dar los fundamentos del método Telúrico - Explicar las variantes del método Magnetotelúrico y comentar aplicaciones. - ¿Qué posibles orígenes tienen los potenciales espontáneos? - ¿Cómo se registran los potenciales espontáneos en superficie y qué aplicaciones podemos tener? BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.379-387). Librería de Ciencia e Industria. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.19-84). Editorial Paraninfo. - Herrero Ducloux, 1981. Memoria de los Primeros 10 años de la Unidad Geofísica. INCyTH. - Parasnis y Orellana, 1971. Geofísica Minera (p.165-205). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p.365-379). Alianza Editorial.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE INYECCIÓN DE CORRIENTE Se los denomina también Métodos de Resistividad, aunque no son los únicos que buscan calcular resistividades aparentes del subsuelo. Trabajan emitiendo un campo artificial de corriente contínua (de ahí en inglés DC, Direct Current) y registrando las diferencias de potencial resultantes. El procedimiento consiste esencialmente en la inyección en el terreno, mediante un par de electrodos, de corriente continua o de muy baja frecuencia (por ejemplo, 0,1 hertz, que en la práctica puede considerarse continua) y la determinación, mediante otro par de electrodos, de la diferencia de potencial. La magnitud de esta medida depende, entre otras variables, de la distribución de resistividades de las masas rocosas del subsuelo, de las distancias entre los electrodos y de la corriente inyectada. Dispositivos de Prospección: dependen de la disposición geométrica de los electrodos empleados (tetraelectródicos en línea, dipolares, de electrodos lineales, etc). El precursor fue el dispositivo de dos electrodos del británico Fred Brown en 1883. Modalidades Prospectivas: dependen del objetivo a prospectar y pueden ser Sondeos Eléctricos Verticales, Calicatas Eléctricas o Mapeo de Líneas Equipotenciales. Resistividad eléctrica del terreno El suelo es una mezcla de rocas, gases, agua y otros materiales orgánicos e inorgánicos. Esta mezcla hace que la resistividad del suelo, aparte de depender de su composición intrínseca, dependa, como ya se comentó, de otros factores externos como la temperatura, la humedad, presión, etc. que pueden provocar que un mismo suelo presente resistividades diferentes con el tiempo. Esto es lo que llamamos ruido metodológico, que a veces puede ser alto. De entre todos los factores, la humedad es el más importante para la aplicación de estos métodos; además de ser el factor que se puede alterar más fácilmente mediante la lluvia o el riego del suelo. Diferentes grados de humedad para un mismo terreno darían lugar a resistividades diferentes que podrían llevarnos a interpretaciones erróneas de los materiales constituyentes del substrato. Un caso particular a tener presente es la llamada Paradoja de los Suelos. En principio, cuanto más humedad mayor conducción, por vía iónica. Sin embargo la conductividad en terrenos desérticos en ocasiones puede ser mayor que en suelos similares en condiciones de clima más húmedo. La explicación reside en la gran concentración superficial de sales que a menudo ocurre en climas secos. En esos casos basta un mínima cantidad de humedad para que la conducción eléctrica sea muy efectiva. También una topografía accidentada puede generar ruido metodológico, ya que el flujo de corriente se concentra en los valles y se dispersa en las colinas. Como resultado se distorsionan las superficies equipotenciales produciendo falsas anomalías. En todos los casos es fundamental prever las posibles fuentes de error y corregirlos durante le proceso de los datos, muchas veces recurriendo a modelos teóricos de comparación. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

El objetivo de este tipo de prospección no es, sin embargo, dar una interpretación de los materiales constituyentes a partir de las resistividades aparentes medidas, sino obtener imágenes uni, bi, tri y hasta tetradimensionales de la distribución de la resistividad eléctrica del subsuelo, esto es, pozos, secciones horizontales o verticales, volúmenes e incluso el monitoreo de su variación en el tiempo, si fuera el caso. A partir de alguna de estas informaciones se podrán hacer interpretaciones geológicas o de otra índole, académicas o aplicadas. Medición de resistividades eléctricas en laboratorio

En general se pueden hacer en forma directa llevando muestras de afloramientos o de pozos y ubicándolas en un dispositivo muy simple. Se coloca el espécimen del modo que se grafica y se calcula: ρ = (V/I).(s/l) (donde s y l son la sección y longitud de la muestra) Adquisición de datos en el campo

La figura de abajo muestra el principio indirecto de medida de la resistividad del terreno mediante la metodología de prospección geofísica. Se inyecta una corriente I entre el par de electrodos AB y se mide la tensión ∆V entre el par de electrodos MN. Si el medio es homogéneo de resistividad ρ, la diferencia de tensión es: ∆V = ρa .I / 2Π Π (1/AM – 1/AN – 1/BM + 1/ΒΝ) (donde AM, AN, BM, BN son las distancias entre electrodos)

La resistividad viene dada por la expresión (1): ρa = (∆V/I). g donde g (equivalente de (s/l) en laboratorio) es un factor geométrico que sólo depende de la disposición de los electrodos y resulta aquí (2): g = 2Π Π.(1/AM – 1/AN – 1/BM + 1/ΒΝ) Dispositivo tetraelectródico para la medida de la resistividad del terreno: En la literatura anglosajona se habla de electrodos de Corriente y de Potencial. En la de origen francés se los llama electrodos de Emisión y de Recepción. En la nomenclatura rusa se denominan electrodos de Alimentación y Medición. Las líneas de corriente van de A a B. Las curvas equipotenciales resultan perpendiculares a las de corriente.

Si el medio es homogéneo, para una misma corriente de inyección, la resistividad medida ρ será independiente de la posición de los electrodos de inyección y detección cuando estos se intercambian. Esta propiedad se conoce con el nombre de principio de reciprocidad, que se cumple también para medios heterogéneos. No obstante, en la práctica no es conveniente colocar los electrodos M y N tan separados como suelen estar los A y B, pues al ser grande la distancia entre los primeros, la medida se vería afectada por las corrientes telúricas, parásitas industriales, etc. cuyo efecto aumenta proporcionalmente con la distancia entre M y N. Los cálculos anteriores se basan en la consideración de que el suelo es homogéneo e isótropo. Cuando el medio no es homogéneo, la resistividad aparente ρa y su valor dependen, además del factor geométrico g, de las resistividades de los diferentes materiales. A partir de la interpretación de las resistividades aparentes medidas en un terreno se podrán extraer conclusiones. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

En la figura de arriba se muestra una situación de subsuelo con masas rocosas de distinta resistividad. Se indican las líneas de flujo eléctrico y algunas relaciones físicas entre el campo eléctrico E, la densidad de corriente J y los demás parámetros vistos. A la derecha se ilustra la relación de Hubbert (estadounidense, 1940), análogo eléctrico de la ley de Snell, que condiciona la profundidad de investigación de estos métodos. Además pueden definirse dos Coeficientes: de Refracción: K = (ρ ρ2 - ρ1) / (ρ ρ2 + ρ1 ) y de Transmisión: T = 1- K Equipo básico de campo Se requerirá de una batería (de 45 a 90 voltios, a veces 2 ó 3 en serie) o bien, más raramente, de un generador (normalmente movido por un motor a explosión, de 200 W a 1 KW) que se hace funcionar a frecuencia mínima (alrededor de 0,1 hz).

Los electrodos empleados son cuatro (como vimos, dos de corriente y dos de potencial) y consisten en varillas de acero inoxidable de unos 70 cm de largo. Se los entierra unos 20 cm y se puede recurrir al riego con agua salada si no hay buen contacto eléctrico. Los electrodos de potencial podrían ser de tipo impolarizable, como los requeridos para mediciones del potencial 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

espontáneo, aunque esto sólo es recomendable en ciertos casos especiales donde la polarización en el contacto con el suelo altera significativamente las mediciones. Además serán necesarios un Amperímetro para medir la intensidad de corriente entregada por la batería y un Voltímetro (con lectura de milivoltios) para registrar las tensiones eléctricas. Y, por supuesto, cables para armar el circuito, que se enrollan como muestra la foto. El equipo debe calibrarse para compensar las corrientes telúricas. Si las mediciones son de gran precisión y las fluctuaciones de las corrientes naturales son muy grandes, tendremos que recurrir a la inyección de una mayor intensidad de corriente en el terreno y tal vez ampliar la distancia entre los electrodos de tensión. Sólo en muy raros casos convendrá suspender la adquisición de datos. Dispositivos tetraelectródicos lineales básicos En cualquier dispositivo electródico, si conocemos el factor geométrico g, la corriente eléctrica I inyectada por los electrodos A y B, y la diferencia de potencial ∆V entre los electrodos M y N, podemos calcular la resistividad aparente mediante la ecuación (1). Los dispositivos electródicos pueden ser lineales, dipolares, etc. Los tetraelectródicos lineales más utilizados son los siguientes: Dispositivo del estadounidense Frank Wenner, 1914: Los electrodos se disponen equidistantes sobre una línea en el orden AMNB

Dispositivo Wenner

El factor geométrico del dispositivo se deduce de (2) y resulta: g = 2Πa Dispositivo del alsaciano Conrad Schlumberger, 1914: Composición simétrica de los electrodos AMNB en línea, donde la distancia de los electrodos detectores MN es mucho menor que la de los inyectores AB.En la práctica, AB>5MN.

Dispositivo Schlumberger

El coeficiente del dispositivo deducido para este caso resulta: g = (L2– a2/4) Π /a Dispositivos Dipolares y Otros: Existe una enorme variedad de otros dispositivos (forma de distribución de electrodos en el campo), entre ellos los arreglos dipolares, donde el par de corriente y el par de potencial se mueven separadamente según distintas geometrías -y por lo tanto cada una con su propio factor geométrico- de acuerdo a la estrategia prospectiva definida. Puede incluso haber una gran distancia entre uno y otro par. 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Otras veces uno de los electrodos de corriente se deja fijo y muy alejado de los otros tres (se asume que en el infinito) y se denomina a estos dispositivos trielectródicos (aunque en rigor siguen siendo cuatro) o bien polo-dipolo (como si nos olvidásemos del polo que dejamos en el infinito). También están los llamados polo-polo, donde además de uno de los electrodos de corriente, hay uno de potencial también en el infinito. Existen diversos nombres particulares como variantes de cualquiera de los antedichos: semiSchlumberger, halfWenner, Lee y muchos otros, algunos de los cuales se esquematizan a la derecha.

dipolar axial

Arriba se ilustran diferentes arreglos dipolares en planta, entre los cuales se grafica el axial en sección. A la derecha imágenes de varios tipos distintos de dispositivos sobre móviles para un más rápido trabajo de registro. Y soluciones con arreglos electródicos mútiples se emplean para registros 3D, como en la foto de abajo.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

En estas figuras pueden apreciarse estrategias de adquisición geoeléctrica de corriente contínua hechas con dispositivos dipolares, en tierra y en el mar.

Tipos de Prospecciones Geoeléctricas La finalidad de una prospección geoeléctrica es conocer la forma, composición y dimensiones de estructuras o cuerpos inmersos en el subsuelo a partir de medidas en la superficie. Mediante la prospección geoeléctrica conseguimos trazar una cartografía de resistividades aparentes del subsuelo que nos darán información sobre las estructuras que subyacen en él. Las prospecciones geoeléctricas que se realizan se dividen generalmente en tres modalidades: - Mapeo de Líneas Equipotenciales (LE). - Sondeo Eléctrico Vertical (SEV). - Calicatas Eléctricas (CE) y Tomografías Eléctricas (TE). Mapeo de Líneas Equipotenciales En este caso la metodología, también llevada a cabo con distintos tipos de dispositivo, apunta a la obtención de las curvas equipotenciales sobre una superficie a prospectar, con profundidad de investigación constante y un objetivo de cobertura areal. En las figuras que siguen se observa una configuración ideal en perfil y planta, y luego el resultado de mapear las líneas en un área con una anomalía conductiva, donde éstas se distorsionan, lo que se realiza con un dispositivo dipolar u otros. Es una metodología simple empleada con fines hidrogeológicos, mineros, ambientales, etc.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Existe una técnica de mapeo de las líneas equipotenciales que se fundamenta en un dispositivo tetraelectródico singular: el método de Mise a la Masse (excitación de la masa) pergeñado por C. Schlumberger en 1920. En él se ubica uno de los electrodos de corriente en contacto directo con una masa mineralizada, si es necesario mediante una perforación. Ha sido usado principalmente para mapeos geoeléctricos de mineralizaciones metalíferas, como se ilustra a la derecha. Sondeo Eléctrico Vertical La finalidad del sondeo eléctrico vertical (SEV) es averiguar la distribución vertical en profundidad de las resistividades aparentes bajo el punto sondeado a partir de medidas de la diferencia de potencial en la superficie. Se utiliza, sobre todo, para detectar y establecer los límites de capas horizontales del subsuelo estratificado. A medida que A y B se separan, la corriente eléctrica va penetrando en las capas más profundas, pero debemos recordar la relación de Hubbert que ya 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

hemos visto y por lo tanto tener presente que existe una influencia variable y significativa de las resistividades de los varios medios atravesados. Pero la profundidad de penetración depende además obviamente de la separación de los electrodos inyectores AB. Si la distancia entre los electrodos AB aumenta, la corriente circula a mayor profundidad pero su densidad disminuye. Para un medio isótropo y homogéneo, el 50% de la corriente circula por encima de la profundidad AB/2 y el 70% por encima de una profundidad AB (Orellana, 1982). Sin embargo, no es posible fijar una profundidad límite por debajo de la cual el subsuelo no influye en el SEV, ya que la densidad de corriente disminuye de modo suave y gradual, sin anularse nunca. Podría pensarse que la profundidad de penetración es proporcional a AB. Sin embargo esto no es cierto en general puesto que lo dicho sólo es válido para un subsuelo homogéneo. Durante mucho tiempo, en prospección geoeléctrica en corriente continua, la profundidad de investigación ha sido considerada sinónimo de la profundidad de penetración de la corriente en función de la localización superficial de los electrodos de emisión más la particular sucesión de resistividades en subsuelo. Sin embargo, el efecto de una capa en los potenciales o campos observados en superficie no depende únicamente de la densidad de corriente que la atraviesa. Roy y Apparao (1971) definen la profundidad de investigación característica como la profundidad a la que una capa delgada de terreno (paralela a la superficie) contribuye con participación máxima a la señal total medida en la superficie del terreno. Los autores indican que la profundidad de investigación en parte viene determinada también por la posición de los electrodos detectores, y no sólo por la penetración o distribución de la corriente debida a los inyectores. Esto queda claro con un ejemplo: si se intercambian entre sí las posiciones de los electrodos de potencial con los de corriente, la distribución de las líneas de corriente cambia. Sin embargo, en virtud del principio de reciprocidad visto anteriormente, la resistividad aparente, y por lo tanto la profundidad de investigación, no cambia. Definiendo L como la distancia entre los dos electrodos extremos (sin considerar los situados en el infinito), los mismos autores determinan la profundidad de investigación de diversos dispositivos electródicos en un suelo homogéneo, siendo para el dispositivo polo-polo de 0,35L, para Schlumberger de 0,125L y para Wenner de 0,11L. Edwards (1977) sugiere que un valor más útil puede ser la profundidad a la cual la mitad de la señal medida en la superficie es debida a la porción de suelo superior a esa profundidad y la otra mitad de la señal a la porción de suelo inferior. Barker (1989) la define como la profundidad de investigación efectiva, y muestra con ejemplos la mayor utilidad de ésta sobre la utilizada por Roy y Apparao (1971). Las profundidades de investigación efectiva para los dispositivos Wenner, Schlumberger y Doble Dipolo son respectivamente de 0,17L, 0,19L y 0,25L (para este último la profundidad de investigación característica es de 0,195L), es decir ligeramente mayores que utilizando la definición. Experimentalmente, a partir de los dispositivos vistos en el apartado anterior, el SEV consiste en aumentar progresivamente la distancia entre los electrodos manteniendo un punto central fijo (punto de sondeo P). Ahora veremos cómo se aplica con los diferentes dispositivos. Sondeo Wenner: Dado el dispositivo Wenner AMNB con una separación interelectródica a, este sondeo consiste en el aumento progresivo del valor de a manteniendo un punto central fijo P. Para la representación de los datos se muestra en ordenadas el valor de la resistividad aparente medida, ρa en Ωm, y en abscisas el valor de a en metros para cada paso. 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Como se aprecia en la gráfica anterior, la distancia interelectródica pasa de a (AMNB) a na (A’M’N’B’), moviendo los cuatro electrodos en cada medición sucesiva. Sondeo Schlumberger: Dado el dispositivo Schlumberger AMNB con AB>>MN, el sondeo consiste en separar progresivamente los electrodos inyectores A y B dejando los electrodos detectores M y N fijos en torno a un punto central fijo P. La representación de este sondeo muestra en ordenadas ρa (Ωm) y en abscisas la distancia AB/2 (m). Los electrodos A y B se abren progresivamente mientras M y N están fijos. Cuando la distancia AB se hace tan grande que la diferencia de potencial MN es muy chica, entonces se mueven M y N, de modo que el intervalo b se hace suficientemente mayor -y por lo tanto también mayor la diferencia de potencial- y se recomienza a abrir A y B progresivamente, pero siempre repitiendo un par de puntos comunes a dichos empalmes. El método de cálculo es tal que da siempre resultados de ρ consistentes. Comparación de sondeos verticales Wenner versus Schlumberger: Como se dijo, en el dispositivo Wenner en cada punto han de moverse los cuatro electrodos, mientras que en Schlumberger sólo dos (A y B), excepto que se esté en un empalme. Esa es ya una ventaja operativa a favor del segundo. Pero además los empalmes pueden poner en evidencia situaciones como la representada en la figura de la derecha, esto es, saltos cuyo origen no se halla en el subsuelo sino en modificaciones del acople eléctrico superficial (variación litológica o en el contenido de humedad o de sales superficiales, que se reflejan en la conductividad), en esos primeros centímetros donde están clavados los electrodos y que normalmente no son objetivo de la prospección. Esta situación en Wenner puede ser interpretada como producto de cambios en las capas de interés. A la inversa, el dispositivo Wenner suele preferirse en relevamientos arqueológicos superficiales o de resistividades en afloramiento, dado que manejar distancias MN mayores atenúa ciertos canales preferenciales de la corriente eléctrica como venas o acumulaciones de minerales más conductivos que no son el objetivo de la prospección. También se lo puede usar sin problemas para objetivos más profundos cuando las condiciones del suelo son aceptablemente homogéneas. Procesamiento e Interpretación de un SEV: Sean las curvas registradas del dispositivo Wenner, Schlumberger u otro de los muchos que existen, el paso siguiente es procesar la información. Para esto se vuelcan los datos en gráficas como las recién vistas (ρ ρa en ordenadas versus a, AB/2 u otra distancia interelectródica de referencia, según sea el dispositivo, representada en abscisas) y luego se efectúa la superposición de la gráfica de campo con curvas patrones como las indicadas en la figura de la siguiente página. Desde la superposición se puede interpretar el número de capas sondeadas, así como calcular sus resistividades (ρ ρ1, ρ2, etc.) y el espesor de cada una de ellas, partiendo siempre de la asunción de 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

que no existen variaciones laterales de ρ en los estratos modelados y que la ρn (la que subyace a los niveles de interés) es infinita.

Ahora bien, si en verdad el dispositivo electródico está próximo a un contacto vertical, las líneas de corriente serán distorsionadas, por lo que la medición de MN se verá afectada por el otro medio, tanto más cuanto mayor sea la separación de los electrodos AB. Por lo tanto, la medida de la resistividad aparente en un SEV está realmente influida por la distribución de resistividades en un cierto volumen de terreno. Esto implica que para distancias AB grandes no se sabrá si la resistividad aparente es debida a cambios de estructuras en la profundidad o a las heterogeneidades laterales por contraste de resistividades (Orellana, 1982). Puede ocurrir que las curvas de resistividad aparente para dos casos diferentes de SEV sean idénticas si la relación entre profundidad a la que se encuentra un estrato y su resistividad permanece constante, lo que provoca una ambigüedad en la deducción del grosor de la capa y de su resistividad. En estos casos se puede recurrir a modelados análogos a los vistos en gravimetría y magnetometría, apoyados en información geológica, de pozos o de otros métodos geofísicos. Si es posible realizar Sondeos Paramétricos, éstos son de gran ayuda para ajustar la interpretación. Se trata de sondeos eléctricos verticales realizados allí donde existen pozos perforados, sean mineros, hidrogeológicos, petroleros, etc. y obtendremos así un ajuste preciso de las profundidades, lo cual nos permitirá interpretar más confiablemente otros puntos del área prospectada. De no ser así, el error metodológico suele estar en el orden del 10 y hasta el 20%. Aplicaciones Los SEV no son adecuados para detectar contactos verticales, fallas, diques, etc. y sí son aplicables cuando el objetivo tiene una posición horizontal y una extensión mayor que su profundidad. Tal es el caso del estudio de capas tectosedimentarias con objetivos hidrológicos, petrolíferos, etc. Se los suele clasificar en: SEV Cortos o Someros si la distancia AB es menor a 300 m. SEV Normales cuando AB es de entre 300 m y 3 km. SEV Largos o Profundos cuando AB va de 3 a 30 km. SEV Ultraprofundos si AB supera los 30 km. 10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Los Sondeos Eléctricos Verticales Cortos son los más comunes, empleados en hidrogeología, minería, etc. Suelen ser adecuados para trabajar a poca profundidad sobre topografías suaves como complemento de las calicatas eléctricas, con el objetivo de decidir la profundidad a la cual realizar el perfil de resistividades, como ocurre por ejemplo en Arqueología. Los SEV Normales son los más empleados en la exploración de cuencas sedimentarias a profundidades del orden de los cientos de metros, fundamentalmente con objetivos hidrogeológicos y mineros (por ejemplo mantos de carbón). Los SEV Profundos se han utilizado sobre todo en prospección de hidrocarburos. Los SEV Ultraprofundos tienen fines geocientíficos y han sido realizados especialmente en Rusia y países de la ex Unión Soviética (desde 1938). Abajo ejemplos de SEV Normal en España y Ultraprofundo en Sudáfrica.

El ejemplo que sigue es el resultado de interpolar la información brindada por cierto número de SEVs distribuidos dentro de un área de interés hidrogeológico estudiada en el sur de España.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Calicatas Eléctricas Es una modalidad de prospección en la cual se desplaza el dispositivo a lo largo de un perfil, con una separación constante de los electrodos, a fin de conocer la variación de resistividades a lo largo del mismo pero a una profundidad de investigación constante, es decir algo análogo a lo que sería una calicata minera, pero en este caso de tipo virtual en función de la información dada por el campo eléctrico. En CE se utilizan los dispositivos de Schlumberger, Wenner, Dipolares, de electrodos Lineales y otros similares a los usados en SEV, en general con las mismas ventajas y desventajas operativas. A la derecha tenemos un ejemplo de calicata en perfil y contraperfil. Una variante con mayor información que las CE convencionales son las Tomografías Eléctricas (TE), en las cuales se investiga a lo largo de una calicata con varias profundidades de interés a fin de generar una sección en la que se observan tanto los cambios laterales como verticales hasta cierta profundidad definida. Son algo así como una combinación de CE con SEV. La figura de abajo muestra este tipo de registros, así como la evaluación de la influencia de la topografía sobre distintos dispositivos alternativos que se han empleado en este caso.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Este es un caso de registro marino de TE, del modo ilustrado por los barcos vistos en la página 6.

Y aquí otro ejemplo de iluminación geoeléctrica de fracturas en una sección de TE en ambiente kárstico.

Un tipo especial de calicateo geoeléctrico es el que se realiza con dispositivos con electrodos de corriente lineales (cables tendidos en el terreno a bastante distancia y paralelos entre sí). Sucesivas calicatas paralelas se hacen en forma perpendicular a dichos electrodos lineales, entre uno y otro, como se ve en la figura. Conviene emplear esta técnica en terreno llano, con la ventaja de distribuir mejor la corriente en el subsuelo y facilitar la interpretación de las anomalías.

Los ejemplos de TE vistos hasta acá son bidimensionales, pero raramente, por su complejidad y costo, se puede hacer también registros tridimensionales de TE, como el ejemplo que se ilustra de España.

Las CE y TE son utilizadas para cateo y desarrollo minero, hidrogeología, arqueología, fundaciones, medioambiente, etc. 13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 7 Métodos Geoeléctricos de Corriente Contínua

Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones en la Prospección de Hidrocarburos Además del perfilaje de pozos -que se verá más adelante- los métodos geoeléctricos de corriente contínua desde superficie han sido utilizados en algún grado en la prospección e incluso desarrollo de yacimientos de hidrocarburos. Los principales ejemplos de aplicación tienen que ver, como se mencionó, con los SEV profundos realizados para la exploración de nuevas cuencas potencialmente hidrocarburíferas, especialmente en los países de la ex Unión Soviética. Otras aplicaciones someras modernas se vinculan a condiciones de suelo alterado por eventuales microfugas de hidrocarburos, configurando una herramienta prospectiva que en algunas áreas ha dado interesantes resultados. Los suelos pueden tener cementación carbonática subsuperficial (que da anomalías de alta resistividad) y también zonas más profundas de baja resistividad asociada a la presencia de pirita, magnetita y otros minerales conductivos generados por acción de las bacterias que biodegradan los hidrocarburos. El ejemplo de la figura corresponde a una TE donde las capas subsuperficiales muestran aumento de resistividad donde existen pequeñas acumulaciones de hidrocarburos provenientes de trampas profundas.

CUESTIONARIO BÁSICO - ¿Qué equipamiento de campo se requiere en los métodos de CC y que ruidos podemos tener? - ¿Cómo son las líneas equipotenciales y de corriente en planta y perfil ante una anomalía? - ¿Qué diferencias hay entre los dispositivos de Wenner y Schlumberger en operación y resultados para el método de SEV? - ¿Cómo se interpreta la información con las curvas patrón? - ¿Qué tipo de información brindan las CE y TE? - ¿Cómo pueden ser los dispositivos dipolares y cómo los de electrodos lineales? - ¿Qué aplicaciones brindan estos métodos de inyección de corriente? BIBLIOGRAFÍA - Cantos Figuerola, J. 1972. Tratado de Geofísica Aplicada (p. 391-419). Librería de Ciencia e Industria. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.19-84). Editorial Paraninfo. - Herrero Ducloux, 1981. Memoria de los Primeros 10 años de la Unidad Geofísica. INCyTH. - Parasnis y Orellana, 1971. Geofísica Minera (p.165-205). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Udías y Mezcúa, 1997. Fundamentos de Geofísica (p. 365-379). Alianza Editorial.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

APLICACIONES DE PERFILES ELÉCTRICOS EN POZOS Vamos a abordar aquí las aplicaciones geoeléctricas en pozos, de carácter muy específico e interrelacionadas. Constituyen servicios geofísicos casi siempre solicitados por la exploración y explotación de hidrocarburos, aunque también, en mucho menor proporción, como herramientas auxiliares en la búsqueda de aguas subterráneas, minería, geotermia o investigación cortical.

POTENCIAL ESPONTÁNEO (PE o SP) El SP (Spontaneous o Self Potential) constituye una de las más antiguas herramientas de perfilaje (H.Doll, 1929, U.S.A.) y consiste sólo de un electrodo de tensión móvil dentro del pozo y otro fijo en superficie, más el correspondiente milivoltímetro para medir dichas diferencias de potencial. El origen del fenómeno de potencial espontáneo en pozos fue estudiado en 1944 en Estados Unidos por Mounce y Rust mediante un recipiente circular con arcilla, agua dulce, una membrana permeable y agua salada.

Vieron que, en analogía a un pozo, pasa corriente del agua dulce a la arcilla y de ésta al agua salada: en sentido contrario viajan los cationes Na+ a través de la arcilla debido a las cargas acumuladas sobre su estructura laminar (potencial de membrana), no pudiendo ser atravesada por los aniones Cl- debido a su mayor tamaño. A su vez, pasa corriente del agua salada a la dulce a través de la membrana que representa la arenisca, entre la zona lavada y virgen donde en un caso típico hay mayor salinidad, dado que los Cl- tienen mayor movilidad que los Na+. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

A partir del estadounidense M. Wyllie (1949) el potencial espontáneo electroquímico Eq -que equivale al potencial de difusión en prospección superficial- se expresa como: Eq= -K log aw/am

(K depende del tipo de lodo, aw y am son las actividades electroquímicas del agua de formación y del filtrado de lodo respectivamente) Pero también puede existir un potencial espontáneo de origen electrocinético -equivalente al potencial de filtración en superficie- debido a la diferencia de presiones entre la columna de lodo (usualmente mayor) y el fluido formacional a través del revoque depositado sobre la capa permeable como residuo sólido del filtrado de lodo (es decir como consecuencia de dicha diferencia de presiones. Este potencial espontáneo electrocinético Ek puede expresarse como: Ek= K ∆P Rmf/u (K depende del lodo, ∆P es la diferencia de presiones, Rmf es la resistividad del filtrado de lodo y u la viscosidad del filtrado) Cuando Ek se anula, tenemos un potencial espontáneo estático denominado SSP. El potencial espontáneo frente a las arcilitas o lutitas generalmente tiende a seguir una secuencia de valores más o menos constante que define la llamada línea de arcillas o lutitas, y frente a formaciones permeables la curva de SP se aparta de dicha línea base. Cuando las capas de arenas tienen suficiente espesor, alcanzan una desviación pareja definiendo una línea de arenas. La deflexión de la curva frente a las capas permeables puede ser hacia la derecha o izquierda, dependiendo de las salinidades relativas de lodo y agua de formación. Cuando el filtrado del lodo es más dulce que el fluido formacional, la deflexión es hacia la izquierda (SP negativo, el más habitual), caso contrario hacia la derecha o positivo. No es importante el valor absoluto del potencial espontáneo sino el valor relativo respecto a la línea base de lutitas, cuya posición es fijada arbitrariamente por el ingeniero de perfilaje para que las desviaciones permanezcan dentro de la escala de graficación. Los valores medidos por la SP aumentan con la contraste de salinidades entre lodo y agua de formación, también con la resistividad de capas y con la diferencia de presión entre lodo y formación, y disminuyen con el aumento del radio de invasión del lodo, con la mayor arcillosidad de las capas permeables (más si la arcilla es montmorillonita, menos si es illita o clorita y menos aún si es caolinita) y también con la presencia de hidrocarburos y espesor de capa muy reducido. Arriba imagen de perfiles de SP y resistividad normal (corta y larga).

Obviamente, no hay SP si no hay contraste de salinidades, en cuyo caso puede evaluarse recurrir al perfil de rayos gamma como alternativa a éste.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Aplicaciones: El perfil de SP es utilizado para: -detectar estratos permeables -hacer correlación de capas -determinar valores de ρ del agua de formación (Rw) -dar una idea cualitativa del contenido de arcilla en cuerpos rocosos permeables La curva de potencial espontáneo puede presentar ruidos provocados por acoples magnéticos instrumentales, perturbaciones eléctricas vecinas, interferencias del cable de la herramienta y corrientes telúricas. Como en todos los demás perfiles de pozo, la resolución vertical tiene limitaciones, que para el SP se presentan en el modelo de la izquierda.

RESISTIVIDAD CON INYECCIÓN DE CORRIENTE E INDUCCIÓN EN POZOS Registros de Resistividad Los registros de pozo (inductivos o de inyección de corriente) pueden identificar muchas de las propiedades físicas de las rocas que perfora el trépano. Una de las propiedades más importantes es la resistividad. Las mediciones de resistividad, en conjunción con la porosidad y resistividad del agua, se usan en cálculos de la saturación de agua en el espacio poral de los reservorios, y en consecuencia en la eventual saturación de hidrocarburos. Antes de tratar las características y principios de los diversos instrumentos que se usan para medir la resistividad, vamos a recalcar algunos conceptos básicos de la resistividad del subsuelo. Conceptos Básicos aplicados a Reservorios Como vimos, la resistividad puede definirse como la capacidad que una sustancia tiene `de resistir a` o impedir el flujo de una corriente eléctrica. Es una propiedad física de la sustancia e independiente del tamaño o forma de la misma. En el registro de pozos se utilizan tanto el término resistividad como su inverso, conductividad. La unidad de resistividad que se usa en los registros es el ohmio-m. La conductividad eléctrica se expresa en mhos por metro o siemens, y con el objeto de evitar fracciones decimales en los registros eléctricos la conductividad se expresa en milimhos por metro (o, simplificadamente, milimhos). Por consiguiente la relación entre resistividad y conductividad es en la práctica: ρ (Ω.m) = 1000 / σ (milimhos.m) En las rocas de los yacimientos los minerales que componen la matriz (en análisis de perfiles el concepto de matriz incluye a los clastos y a las matriz propiamente dicha) no conducen corrientes 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

eléctricas y se llaman no conductores. Por consiguiente, el flujo de corriente en las rocas sedimentarias está asociado con el agua contenida dentro de los poros. Casi todas las aguas en los poros contienen algo de cloruro de sodio en solución (y otras sales) y por lo tanto la corriente la transportan los iones (cada uno tiene una carga eléctrica) de sal disuelta en el agua. En otras palabras, la conductividad es proporcional a la concentración de la sal en el agua. Aunque cada uno de los iones sólo puede transportar una cantidad definida de electricidad, un aumento en la temperatura de la formación produce una mayor velocidad en el movimiento de los iones, lo cual resulta en un incremento en la conductividad, como también se ha visto. La litología también afecta la resistividad de la formación. En general los carbonatos exhiben resistividades más altas que las rocas clásticas, debido primordialmente a la geometría de los poros. En el caso de los carbonatos el agua sigue vías mucho más tortuosas y por lo tanto reduce la conductividad. Si llamamos Ro a la resistividad de una formación saturada 100 % en agua y Rw a la resistividad del agua de formación, la relación entre Ro y Rw es una constante de proporcionalidad que recibe el nombre de Factor de Resistividad de la Formación (F). (A Ro y Rw deberíamos llamarlas ρo y ρw, respectivamente, ya que no son resistencias sino resistividades, pero éstas son las letras habitualmente empleadas en la jerga petrolera.) El concepto de F es muy importante en la comprensión del análisis de registros. F = Ro / Rw, por lo que obviamente: Ro = F . Rw Es evidente que la resistividad de una formación porosa está relacionada directamente con la resistividad del fluido que la satura (por ejemplo el agua de formación). El factor F se relaciona matemáticamente con la porosidad mediante la ecuación: F = am / Φ A continuación se presentan las relaciones matemáticas de la evaluación de la porosidad efectiva, así como su relación con el factor de formación, un concepto de suma relevancia en la evaluación de los reservorios de hidrocarburos.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Las constantes a y m son función de la litología. Valores típicos de estas constantes en el caso de una arenisca bien cementada o una caliza porosa serían: a = 1, m=2 Las soluciones a esta ecuación para varias porosidades ilustran la magnitud del cambio en la resistividad de la formación en función de cambios en la porosidad. Φ (%) 10 20 30

Φ 0.1 0.2 0.3

F 100 25 11

Continuando con el mismo ejemplo, un valor típico para Rw seria 0.05. Reemplazando en la ecuación del factor de formación obtenemos: Φ (%) 10 20 30

Rw 0.05 0.05 0.05

F 100 25 11

Ro 5.00 1.25 0.55

Hasta el momento sólo hemos considerado formaciones con el 100 % de saturación en agua. Es obvio que las resistividades aumentan a medida que disminuye la porosidad debido al decremento en el volumen de agua en la formación. El mismo efecto se observa cuando parte del agua de una formación ha sido desplazada por petróleo o gas. El petróleo y el gas se comportan igual que la matriz de la formación, o sea que no son conductores de corrientes eléctricas y, en consecuencia, cuando parte del agua de la formación es desplazada por sustancias no conductoras, como petróleo y gas, la conductividad disminuye con el consiguiente aumento de la resistividad. Llamando Rt a la resistividad real o verdadera de la formación podemos definir el índice de resistividad como la relación entre Rt y Ro: IR = Rt/Ro Los porcentajes de saturación en agua pueden determinarse a partir del índice de resistividad mediante la ecuación: n______ de donde: Sw = √Ro/Rt (G.Archie, 1941, U.S.A.) (Sw)n = 1 / IR, Se asume que el exponente de saturación n es igual a 2, a menos que se tenga información más específica respecto a las propiedades petrofísicas de los reservorios locales. En resumen las variables que afectan la resistividad de la formación son: -Porosidad (total y cómo se distribuye) -Saturación en agua -Concentración de sales en el agua -Litología (composición y agregación de la “matriz”) -Temperatura del reservorio (y en mucho menor medida su presión) Lo fundamental de los registros de resistividad se basa en la comparación de diversos valores y en la relación entre los diferentes parámetros. La resistividad real de la formación Rt se calcula mediante mediciones individuales o combinadas de la resistividad. Por consiguiente es de gran importancia para el analista familiarizarse con las características de los diversos instrumentos que miden ρ. A continuación se presenta un esquema generalizado de aplicación de la fórmula de Archie y de dónde podemos obtener los distintos datos requeridos. También se indica qué magnitudes aproximadas pueden pronosticar hidrocarburos o agua de formación, aunque esto último debe calibrarse en cada yacimiento en particular. 5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Cálculo de la Arcillosidad Es necesario determinar el contenido pelítico para calcular correctamente la porosidad que nos proporcionan los perfiles, la cual, a su vez, entra en la fórmula de Archie. Ante todo debe tenerse presente que pueden obtenerse porosidades desde los perfiles de densidad (o litodensidad), neutrónico (en sus distintas variantes), acústico y dieléctrico, aunque este último se usa poco. Si tenemos más de uno, normalmente elegimos el valor más bajo o conservador, ya que estas herramientas suelen calcular la porosidad φ por exceso. Además vamos a referir el contenido político o arcillosidad como un volumen Vsh (shale,lutita en inglés) involucrando alguna posible fracción limosa. A continuación las ecuaciones generales. Si la arenisca reservorio es limpia: ρb = (1 – φe). ρm – φe. ρf (ρm, ρf, ρb son las densidades de matriz, de fluido y la bruta medida por la herramienta) por lo que la porosidad efectiva φe = (ρm – ρb) / (ρm – ρf) Pero si la arenisca es arcillosa: ρb = (1 – φe − Vsh). ρm – φe. ρf – Vsh. ρa de donde φe = [(ρm – ρb) / (ρm – ρf)] – Vsh [(ρm – ρsh) / (ρm – ρf)] es decir que φe = φb – Vs. φsh (Vsh, ρsh, φsh son volumen, densidad y porosidad de lutitas, φb la porosidad bruta o bulk) 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

La porosidad efectiva puede calcularse a partir de porosidades brutas medidas por las herramientas de densidad, neutrónicas, acústicas o dieléctricas. La fórmula es análoga. Existe una variedad de alternativas para el cálculo de la arcillosidad, con la cual ajustar tales porosidades. Entre ellas se elige el menor valor dado que suelen dar por exceso. 1) con un perfil de rayos gamma, Vsh = (γi − γmín) / (γmáx − γmín) (γi, γmín, γmáx son los valores en la capa de interés, mínimo y máximo en el perfil. En casos particulares puede multiplicarse por alguna constante empírica válida para el área.) 2) con un perfil espectrométrico, Vsh = (Κi − Κmín) / (Κmáx − Κmín) o bien, con Th en lugar de K: Vsh = (Thi − Thmín) / (Thmáx − Thmín) 3) con un perfil neutrónico, Vsh = (φNi − φNmín) / (φNmáx − φNmín) (φNi, φNmín, φNmáx son las porosidades neutrónicas en la capa de interés, la mínima y la máxima leídas en el perfil) 4) con un perfil acústico (o sónico), Vsh = φSi / φSsh (φSi, φSsh son las porosidades acústicas en la capa de interés y en una capa de lutitas) 5) con un perfil de potencial espontáneo, Vsh = 1 − (SPi / SSP) (SPi es el potencial espontáneo en la capa de interés y SSP el valor de referencia estático) ½

6) con un perfil de resistividad, Vsh = (Rsh / Rt) (Rs, Rt son las resistividades de las lutitas y la profunda o verdadera en la capa de interés) 7) con Ábacos, a partir de datos de dos perfiles: Se puede representar φN vs φD, φN vs φS, ó φD vs φS. Por ejemplo, en una gráfica φN versus φD (derecha) la recta a 45º corresponde a una arenisca limpia, en tanto que la arcillosidad crece paralelamente hacia la derecha. Parecido es el ábaco de la izquierda, donde en las ordenadas se representa la densidad dada por el perfil neutrónico. Medición de la resistividad Debido a que la saturación en agua y en consecuencia la saturación en hidrocarburos se basa en los valores de la resistividad, la ρ de la formación (o su recíproca, la conductividad) es una de las mediciones más importantes en los registros de pozos. La mayor parte de los registros de resistividad presenta más de una clase de medición de ρ. Por lo general, estas diferentes mediciones se combinan con la información de otros instrumentos de registro a fin de obtener una visión total de la calidad de los reservorios, así como de los fluidos en cuestión.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Registros de Resistividad con Inyección de Corriente (continua) Su utilización fue anterior a la de los registros de inducción, desde que los hermanos Schlumberger en 1928 idearon bajar un dispositivo tetraelectródico a un pozo. En rigor comenzaron con una configuración Normal, donde se ubicaba uno de los electrodos de corriente y uno de los de potencial en la superficie -años después sobre el mismo cable de perfilaje- moviéndose con los otros dos dentro del sondeo para efectuar las mediciones de cada intervalo.

Más tarde se comenzó a emplear la configuración Lateral, donde queda lejos en el cable sólo un electrodo de corriente y los tres restantes (en la herramienta) se mueven a intervalos dentro del pozo. En estos circuitos la resistividad resultante es la suma de la contribución de cada zona como en los circuitos en serie: Rr=RmGm+RxoGxo+RiGi+RtGt (respectivamente las resistividades del lodo y zonas lavada, invadida y virgen, cada una afectada por un factor geométrico de contribución) La siguiente ilustración muestra las zonas con distinto grado de invasión del fluido de perforación en torno al pozo, desplazando parcial o totalmente el fluido original de formación. También se indican los nombres de algunas herramientas de perfilaje tradicionales para distintas profundidades de investigación.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Los sistemas convencionales de Lateroperfil (Laterolog) utilizan entonces un principio básico (distribución de la densidad de corriente) aplicando corriente a la formación que rodea a un relativamente pequeño electrodo fuente de esa corriente. La corriente circula desde el electrodo fuente a través del medio que rodea a éste y hacia un remoto electrodo de retorno de corriente en superficie. Se emplean dos electrodos adicionales ubicados dentro de la esfera de corriente y a distancias predeterminadas del electrodo fuente, para efectuar mediciones de potencial que pueden relacionarse con la resistividad de la formación a través de la cual circula la corriente. Investigan a mayor profundidad que los perfiles normales (más de 5 m, contra 1 y 3 m en los llamados normal corto y largo), pero dan curvas asimétricas, por lo que se corren combinados con los dos normales. Cuando se aplica este tipo de sistema de perfilaje en pozos con fluidos de perforación muy conductivos, de resistividades considerablemente distintas de las que tienen las formaciones que los rodean, la distribución simétrica de corriente descripta arriba se distorsiona y son afectadas las mediciones. Este efecto se hace más severo a medida que aumenta la conductividad del fluido y por lo tanto se reduce la corriente que penetra en la formación. Es por esto que se desarrollaron sistemas de Lateroperfil Enfocado (Focused Laterolog) en los que a una gran parte de la corriente de perfilaje se le impide que circule radialmente hacia fuera en todas direcciones, como ocurre con las disposiciones comunes, y se la confina en un volumen dado. Esto se logra colocando electrodos enfocadores a ambos lados de un electrodo de corriente de medición ubicado en el medio, como muestra la figura de la derecha. Así se evita que la corriente se escape hacia arriba y abajo dentro del pozo y se la obliga a circular sólo en dirección lateral normal al eje de la herramienta de perfilaje, como se ve en la figura, con el beneficio adicional de lograr un menor intervalo vertical de muestreo. Los perfiles de inyección de corriente funcionan bien en pozos que contienen fluidos de perforación conductivos (poco o muy salinos), pero no son corridos cuando el lodo es extremadamente dulce o es inverso (en base a hidrocarburos y no agua), ni cuando se perfora con aire. En estos últimos casos, al haber muy poca o nula conducción -es decir, mal contacto eléctrico- entre la herramienta y la roca, debemos recurrir a los perfiles de inducción. Perfil de Microrresistividad: Basado en el principio de inyección de corriente, es una herramienta que se corre montada en un patín que va siendo movido contra la pared del pozo. El objetivo es hacer mediciones de la resistividad a muy poca profundidad, esto es, en la zona lavada. Sus mediciones pueden verse afectadas por un pozo con mal calibre, registrando el valor de la resistividad del lodo -y no de la formación- allí donde existan cavernas. Perfil de Buzamiento (Dipmeter): Es otro perfil basado en la inyección de corriente contínua, con una herramienta (a la derecha) similar a la microrresistiva, pero en este caso multiplicada por cuatro. De modo que las lecturas de estos cuatro patines ortogonales se combinan en un procesamiento que toma en

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

cuenta la información giroscópica (de modo de tener en todo momento la orientación del conjunto), para entonces poder calcular datos de rumbo e inclinación de los estratos, tipos de estructuras sedimentarias, fracturas menores o fallas. Actualmente se suele correr una herramienta con seis patines (fotografía).

Ésta brinda mayor detalle, como puede verse a la derecha, donde en las pistas sucesivas vemos los vectores de rumbo y buzamiento (resultantes del proceso), el azimut de la herramienta, las curvas adquiridas, su imagen en colores y, adicionalmente, una imagen acústica. Perfil de Imágenes de Pozo: Siguiendo la misma lógica operativa del perfil de Buzamiento, se agregan más patines (hasta tener 48 ó más) y se consigue una densidad de muestreo radial tal que permite transformar esos numerosos perfiles microrresistivos en una imagen de pozo, función de la variación de resistividades. Un adecuado proceso y coloración asemejan a lo que podría verse en un testigo corona (figura a la izquierda), aunque obviamente un núcleo de roca da mucha más información que la visual. (Imágenes parecidas, que resultan complementarias de las resistivas, pueden obtenerse registrando curvas acústicas, como el ejemplo de arriba, tema que se verá más adelante.) Perfilaje Eléctrico Durante la Perforación: Llamado LWD (Logging While Drilling) consiste en registrar mientras se perfora, con herramientas de CC o EM que van por encima del conjunto de fondo y brindan datos de baja calidad, pero que permiten tomar decisiones inmediatas sobre ensayos, coroneo, entubamiento, etc. 10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Registros de Inducción eléctrica (corriente alterna) Miden la conductividad de la formación y son muy efectivos en las formaciones con porosidad de intermedia a alta. En los registros de inducción se hace circular una corriente alterna constante por una bobina transmisora aislada. El campo magnético alterno de la bobina induce una corriente alterna en la formación, la cual resulta en un campo magnético secundario que, a su vez, induce una corriente en una bobina receptora. La inversa de la resistividad medida es resultante de la contribución de cada zona en torno al pozo como en un circuito en paralelo: 1/Rr=1/RmGm+1/RxoGxo+1/RiGi+1/RtGt (respectivamente inversas de las resistividades del lodo y zonas lavada, invadida y virgen, cada una afectada por un factor geométrico de contribución) La corriente inducida en la bobina receptora y transmisora es un compromiso entre la profundidad de investigación y la resolución en la identificación de los estratos delgados mediante el instrumento de registro. A fin de enfocar la corriente en la formación es normal colocar bobinas adicionales arriba y debajo de la receptora y transmisora, lo cual deviene en los llamados perfiles de Inducción Enfocada (Focused Induction Log) que logra mayor profundidad de registro sin perder resolución vertical. Bajo condiciones favorables, es posible usar los valores obtenidos en el registro de inducción en la determinación de la resistividad real; sin embargo deben hacerse correcciones, para las que existen gráficos tales como estratos delgados, diámetros de pozo muy grandes, invasión extensa, etc. Cuando se perfora con lodos muy conductivos (salados) las mediciones de resistividad obtenidas son de muy poco o de ningún valor para la determinación de la resistividad real de la formación. Esto se debe a que se obtiene una respuesta muy notoria dada por la inducción electromagnética en el lodo (tipo cortocircuito) y en contraposición una respuesta muy débil, casi nula, de las formaciones rocosas. En consecuencia, los sistemas de inducción no son aplicables en pozos en que se den tales condiciones y se debe recurrir a herramientas de inyección de corriente continua. Registro de Inducción eléctrica Tridimensional: La herramienta de inducción tridimensional trabaja induciendo en la formación anillos de corriente ubicados en tres planos perpendiculares entre sí y mide las conductividades asociadas a cada uno de esos anillos o planos. La herramienta conductiva convencional trabaja con un solo anillo de corriente ubicado en un plano horizontal que, por ser paralelo o subparalelo a los planos de estratificación, hace que las corrientes se concentren en las láminas más conductivas. La presencia de arcilitas laminares en los cuerpos arenosos causa una caída de los valores de resistividad medida con cualquier herramienta inductiva convencional; a esa resistividad se la denomina Resistividad Horizontal por ser medida con anillos de corrientes horizontales. En la figura izquierda, inducción tridimensional (3DEX) y en la derecha inducción de alta definición (HDIL)

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

La herramienta, además de medir la resistividad horizontal, también mide la resistividad vertical, para lo cual utiliza los anillos de corrientes verticales; esta resistividad no se ve tan afectada por la presencia de arcilitas laminares de baja resistividad porque las corrientes de medición, al ser verticales, deben atravesar tanto las láminas de arcilita como las de arenisca. Haciendo una analogía con los circuitos eléctricos, tanto la resistividad horizontal como la vertical, se pueden expresar en función de las resistividades de las láminas de arcilita y de arenisca y del volumen porcentual de arcilita laminar. La diferencia entre ambas es que la expresión de la resistividad horizontal es una ecuación que se asemeja a la de las resistencias en paralelo, mientras que la de la resistividad vertical se asemeja a la de las resistencias en serie. Las siguientes son las ecuaciones:

1 − V shl 1 = Rh R sand

+

V shl R sh

R v = (1 − V shl ) R sand + V shl R sh

En estas dos expresiones Rh y Rv son medidas por la herramienta, Rsh se puede estimar de las arcilitas vecinas a la capa analizada con lo que quedan dos ecuaciones con dos incógnitas: Vshl y Rsand Aplicaciones Especiales de Geoeléctrica de Pozo: El primero es un ejemplo de adquisición de datos EM combinados pozo-superficie, en este caso desde un sondeo de poca profundidad en Japón, para modelar la respuesta de reservorios con agua de formación conductiva.

El segundo también es un caso combinado pozo-superficie. Se trata de un ejemplo de registros de potencial espontáneo y resistividad a partir de emitir un campo EM de muy baja frecuencia (0,1 Hz, prácticamente Corriente Continua) empleando la tubería del pozo como uno de los electrodos de corriente, en una modalidad particular del Método de Mise a la Masse. Estos registros se hicieron a intervalos de tiempo durante operaciones de inyección de agua y vapor, de modo que se hizo un seguimiento geoeléctrico del cambio temporal de las condiciones del reservorio (zonas fracturadas), en 12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

este caso como investigación piloto para monitoreo de explotaciones geotérmicas, en lo que constituye una técnica tetradimensional (espacio más tiempo).

Tomografía Eléctrica entre Pozos: Existen muchas variantes de este tipo de registros no convencionales, comúnmente obtenidos mediante perfiles de inducción dado que suele tener más penetración, aunque la inyección de corriente continua también se puede utilizar si el lodo es salado o si la profundidad del pozo es menor a cien metros (casos no petroleros), ya que en esta situación se evitan ruidos culturales. Se procede con emisión y recepción alternada entre pozos cercanos o entre un pozo y la superficie. La idea es generar imágenes continuas entre los sondeos, 2D ó 3D, cuya calidad depende de los contrastes de resistividad del subsuelo y la cercanía de los pozos. 13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

Perfil Dieléctrico: Es un registro que en algunas cuencas ha sido muy utilizado como indicador de porosidades y tipos de fluidos. A diferencia de los demás perfiles eléctricos de pozo, éste no se basa en medir cambios en la resistividad, sino en la magnitud de la constante dieléctrica o permitividad, la cual, como se mencionó, es muy sensible a los cambios en el contenido de agua, molécula dipolar por excelencia. El perfil en rigor mide el tiempo de propagación de las ondas electromagnéticas, el cual es proporcional a la permitividad, según la relación: V = 1 / (µ.ε µ.ε) (donde µ es la permeabilidad magnética y ε es la permitividad eléctrica) µ.ε 1/2 Es un perfil de muy buena resolución vertical (5 cm), que permite ver capas muy delgadas, registrándose a partir de un patín que va apoyado contra la pared del pozo, actualmente con dos emisores (arriba y abajo, con unos 20 cm entre uno y otro) y dos receptores (en el centro, a unos 5 cm entre sí). Una medida adicional es la atenuación del arribo comparando las amplitudes entre uno y otro receptor. Se registra dos veces, una desde cada transmisor, y se promedian los valores.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Temas 6(b), 7(b) y 8(b) Perfiles Eléctricos de Pozo, Cálculo de Saturación de Fluidos

Chelotti, L., Acosta, N., Foster, M., 2009

En la figura anterior, junto al perfil dieléctrico (en este caso el EPT, ya que hay otros) se grafican los perfiles de calibre del pozo, rayos gamma naturales (GR), potencial espontáneo (SP), resistividad del lateroperfil profundo (LLD) y esféricamente enfocada media (MSFL). También se corrió un perfil de Densidad (radioactivo) cuyas porosidades resultantes (φD) se grafican en comparación con las porosidades del perfile dieléctrico (φEPT), que dan resultados más confiables. Esto, a su vez, puede cotejarse contra valores de ρ. Con lodos de baja salinidad, como en este caso -que es lo más común-, la resistividad profunda generalmente da valores más bajos que la de alcance medio, ya que la conductividad del agua de formación es mayor que la de la zona invadida por lodo. Pero en presencia de hidrocarburos la relación se invierte y las curvas se cruzan.

CUESTIONARIO BÁSICO - ¿Qué causas puede tener el potencial espontáneo en pozos? - ¿Cómo se mide el SP en pozos y qué utilidades tiene? - ¿Qué parámetros afectan la resistividad en los reservorios? - ¿Cuándo se usan los perfiles inductivos y cuándo los de inyección de corriente en pozos petroleros? - Explicar la utilidad de las curvas resistivas (o conductivas) en pozos, profundidades de investigación e implicancias hidrocarburíferas. - ¿Cómo se calculan las saturaciones según el método de Archie? - Enumerar las alternativas para calcular arcillosidad desde perfiles de pozo. - ¿Qué tipos de perfiles avanzados se fundamentan en la medición de la resistividad? - Citar algunas aplicaciones no convencionales. - Dar el fundamento y la utilidad del perfil dieléctrico.

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.388-391). Librería de Ciencia e Industria. - Parasnis y Orellana, 1971. Geofísica Minera (p.93-110). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geohysicists. - Western Atlas, 1994. Introducción al Perfilaje de Pozos (varios capítulos).

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS ELECTROMAGNÉTICOS El electromagnetismo (EM) fue estudiado inicialmente por el escocés James Maxwell en 1861 (“On Physical Lines of Force”) y desarrollado experimentalmente por el alemán Heinrich Hertz en 1886. Como sabemos, las componentes eléctrica y magnética oscilan en forma perpendicular a la dirección de propagación del campo electromagnético y a su vez lo hacen en planos que son perpendiculares entre sí. Las cuatro ecuaciones vinculadas por Maxwell, todas a partir de integrales de superficie cerrada, son las siguientes: Ley de Maxwell (1861): ]Bds = 0 donde B es el flujo magnético (las líneas de inducción magnética son contínuas, no hay polos aislados) Ley de Gauss (1838): ]Dds = q donde D es la Inducción electrostática y q la carga (las líneas de campo eléctrico pueden ir de una a otra carga) Ley de Faraday-Lenz: ]Eds = -dB/dt donde E es el campo eléctrico y t el tiempo (1831) (un campo magnético variable produce un campo eléctrico) Ley de Ampère 1826): ]Hds = J+(dD/dt) donde H es el campo magn y J la dens de corriente (un campo eléctrico variable genera un campo magnético)

Recordando que D = ε.E y que B = µ.H ½ Maxwell descubrió además que la velocidad de la luz en el vacío está dada por: c=1/(εoµo) (recordamos que µo es la permeabilidad magnética y εo la constante dieléctrica, ambas en el vacío) Los métodos prospectivos fueron desarrollados inicialmente por la escuela sueca desde la década de 1920 (también rusos y otros) y se basan en establecer un campo electromagnético variable mediante el flujo de una corriente alterna por una bobina o un cable muy largo al que llamaremos transmisor o emisor. El campo generado se llama campo normal o primario. Este campo primario inducirá corrientes eléctricas alternas en cualquier conductor que encuentre en su camino de propagación: las corrientes de eddy o remolino, también conocidas como corrientes de Foucault (porque el francés León Foucault las estudió hacia 1850). La intensidad de estas corrientes fundamentalmente dependerá de la resistividad del conductor y de la frecuencia del campo primario, es decir, la intensidad será mayor cuanto menor sea la resistividad y cuanto más alta sea la frecuencia. Las corrientes inducidas en el conductor tienen una dirección tal que el campo electromagnético secundario que generan se opone al primario.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

La frecuencia de la corriente alterna primaria se elige de tal manera que el campo electromagnético inducido por la presencia de las corrientes de remolino o eddy en el suelo es insignificante cuando el subsuelo tiene una conductividad normal. Esto lleva a un límite superior cercano a los 5000 ciclos por segundos o Hertz para la frecuencia de operación, aunque en algunos casos se registra con frecuencias de hasta unos 50 KHz e incluso más. En cualquier caso, el campo resultante se mide con un receptor, que consiste en una bobina conectada a un amplificador electrónico sensible. Actualmente los métodos EM se aplican a muy variados objetivos, incluyendo la detección de acuíferos con distintas salinidades en temas hídricos o ambientales. Pero las áreas donde se originaron estos métodos son las que suelen presentar las mejores condiciones para su aplicación: topografía suave, encape superficial de alta resistividad y roca cristalina no alterada. Si en tal contexto existen mineralizaciones que se presentan como cuerpos tabulares casi verticales con más de un 25% de contenido de sulfuros metálicos, como en el Escudo Fenoscandio donde se comenzaron a aplicar estos métodos, entonces las conductividades anómalas pueden llegar a ser de hasta más de 1000 veces superior que la roca de caja, como se esquematiza en la figura de la izquierda. Naturalmente, no es necesario tener contrastes tan elevados en el emplazamiento u otra relación geométrica de variado origen que pueda ser de interés prospectivo. Pero sí es importante no tener un encape conductivo cuya muy alta respuesta minimice la de conductores más profundos.

En cada punto del espacio habrá una intensidad eléctrica y una magnética. En ausencia de conductores en el subsuelo, el campo electromagnético en cada punto oscilará a lo largo de una línea y se puede representar por un vector cuya magnitud dará la amplitud del campo, tal como vemos arriba a la derecha. La dirección del campo dependerá de la posición relativa del transmisor y del punto de observación. Por ejemplo, las líneas del campo debidas a una bobina fuente o emisora son diferentes de las orginadas en un cable largo emisor o fuente, como se ilustra aquí.

Los físicos franceses Jean B. Biot y Félix Savart hallaron hacia 1800 la relación que existe entre la intensidad I de una corriente rectilínea e indefinida (en la práctica un cable largo) y el campo magnético B creado por ella a una cierta distancia r: B = µo I / 2 Π r 2 En el caso de una bobina emisora se deduce que: B = µo I a / 2 Π r (a es el área de la bobina) Para detectar un campo electromagnético en el espacio, se puede utilizar una bobina receptora, consistente en una bobina con sus terminales conectados a un amplificador y de esto a un par de audífonos o cualquier otro sistema indicador de corriente alterna. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

El voltaje inducido en la bobina por el campo magnético alterno resulta proporcional a la componente de dicho campo que es ortogonal al plano de la bobina, tal como puede verse en la siguiente figura.

Por lo tanto habrá posiciones definidas de la bobina respecto al campo primario que harán que la señal sea máxima, mínima o intermedia. Así, cuando el vector campo primario es perpendicular al plano de la bobina, el ángulo θ será igual a 0º y en consecuencia la tensión inducida en la bobina será máxima, lo cual se manifestara con una señal de salida en el indicador (audífonos). Por otra parte cuando el ángulo θ sea igual a 90º, o sea cuando el vector campo primario este en el plano de la bobina, no habrá ninguna fracción del campo magnético atravesando la misma por lo que no se inducirá voltaje alguno y la señal en los audífonos será nula. Habrá un número infinito de posiciones de la bobina receptora para las cuales el ángulo θ será igual a 90º y la señal resultará nula. Esto es debido a que el vector campo primario continúa en el plano de la bobina (cuando ella se haga rotar alrededor del diámetro que coincide con la dirección del campo). En el caso en que un conductor esté presente el subsuelo y se genere un campo magnético alterno secundario, el vector campo resultante en cualquier punto describirá una elíptica en un plano definido y entonces decimos que el campo esta elípticamente polarizado. Dicho campo es equivalente a dos vectores perpendiculares oscilantes, uno a lo largo del eje mayor de la elipse y el otro a lo largo del eje menor. Al igual que antes, cuando el campo resultante coincida con el plano de la bobina. La señal será nula, pero a diferencia de antes en que el campo total en el espacio es el vector campo primario solamente, en este caso habrá una y sólo una posición de la bobina para la cual el voltaje inducido es cero: es aquella en que el plano de la elipse de polarización coincide con el plano de la bobina. Para encontrar el plano de polarización en el campo, se procede de la siguiente manera: se rota la bobina receptora alrededor de un eje vertical hasta que la señal sea mínima, luego se hace rotar alrededor de un eje horizontal hasta encontrar otra mínima y finalmente se hace rotar alrededor de un eje perpendicular a los otros dos hasta que la señal se anule. El plano de polarización queda definido por el rumbo y el buzamiento. El rumbo es la dirección de la línea de intersección de los planos de polarización y horizontal. El buzamiento es el ángulo formando por ambos planos. Sin embargo para conocer la orientación de la elipse de polarización dentro del plano es necesario por lo menos determinar la inclinación de uno de los ejes principales, el mayor o el menor. Para ello la bobina receptora se coloca perpendicular al plano de silencio y se hace rotar hasta la posición de máxima señal. En ese momento el eje mayor de la elipse coincide con la perpendicular al plano de la bobina. Se llama inclinación (tilt) del campo EM al ángulo formado por el eje mayor de la elipse de polarización y la horizontal. Y este concepto fue aprovechado por la primera técnica de prospección electromagnética usada: el Método de Inclinación de Campo. En éste se opera del modo arriba descripto, o sea buscando máximo sonido y máximo silencio en la bobina exploradora para así poder hallar la ubicación de la elipse de polarización y la inclinación de su eje mayor. También en el método Afmag, citado en el Tema 7, se registra de la misma forma, aunque en este caso aprovechando el campo natural de audiofrecuencias magnéticas. 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

El procedimiento del método de inclinación de campo queda graficado en la figura a la derecha.

Observador del campo electromagnético con la bobina exploradora.

Naturaleza de las Anomalías Electromagnéticas: Cuando hacemos fluir una corriente alterna por una bobina, se originará un campo EM primario que estará en fase con dicha corriente y que puede representarse por una sinusoide en la que P es su amplitud. Si este campo actúa sobre un conductor (ejemplo pirita), se inducirá un voltaje oscilante, el cual estará atrasado un cuarto de periodo (90°) con respecto al primario. A su vez la corriente inducida en el conductor está retrasada respecto del voltaje inducido, dependiendo este retraso de la resistencia del conductor. El campo EM secundario que se induce por la presencia de esta corriente alterna está en fase con dicha corriente, o sea que está retrasada respecto al voltaje. El campo resultante en un punto cualquiera será la suma del campo primario y del campo secundario, o sea, la curva resultante de la suma de la primera y la tercera. Este campo tendrá diferente amplitud que el campo primario y además estará retrasado una fracción α de periodos respecto de él.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En general podemos expresar que en el emisor será la intensidad: I = Io sen (wt) y en el receptor resultará: I = Io sen (wt+Φ Φ ), con la fase Φ>90º Π.f (frecuencia) Φ>90 y w = 2Π Diagrama Vectorial: Lo expresado precedentemente puede representarse mediante un diagrama vectorial, transformando la diferencia de fase en una relación de tiempo entre el campo primario, secundario y resultante, tomando convencionalmente el sentido contrario a las agujas del reloj para indicar un retraso relativo, como se ilustra.

En primer lugar consideramos al vector campo primario como un vector ubicado en el eje x siendo OA: P la amplitud del mismo durante una oscilación. La fem inducida en el conductor (corrientes de remolino o eddy) al estar retrasada 90° respecto al campo primario, podrá ser representada por un vector AB de la figura. Como la corriente inducida en el conductor esta retrasada respecto a la fem y a su vez el campo secundario esta en fase con dicha corriente, la representación del campo secundario corresponde al vector AC del diagrama siendo ϕ el ángulo de retraso de este respecto a la fem inducida. Además el vector AC representará la amplitud del campo secundario durante una oscilación. Hemos dicho anteriormente que la diferencia de fase entre fem y la corriente inducida dependen de la conductividad del cuerpo, siendo mayor cuanto más conductivo es el mismo. Por lo tanto: -Cuando el cuerpo es muy buen conductor, el ángulo ϕ se aproxima a 90º. El campo secundario está retrasado casi 180º respecto al campo primario -Si, en cambio, tiene baja conductividad ϕ tiene un valor cercano a cero. El retraso es, en este caso, muy próximo a 90º. El campo resultante estará retrasado un ángulo α respecto al primario pudiéndose observar que cuando el conductor es muy bueno el ángulo α tiende a cero. Utilizando este mismo diagrama vectorial podemos introducir los conceptos de componente real y componente imaginaria, de mucha importancia en los métodos de prospección más utilizados. La proyección del vector resultante R sobre el eje x es igual a R cos α . De la misma manera la proyección de S sobre X es S sen α . Tanto una como otra componente está en fase con el campo primario y se las denomina componente real o en fase. De igual modo la proyección de R y S sobre el eje y nos dará en cada caso una componente atrasada 90º con respecto al campo primario, a la que se denomina componente imaginaria o en cuadratura. Para el campo resultante esta componente es R sen α mientras que para el secundario es S cos ϕ. 5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Debe entenderse que el campo primario, el campo secundario y el campo resultante tienen una posición en el espacio y que lo expresado hasta ahora se refiere a cada una de sus respectivas posiciones en el tiempo. La elipse de polarización es el resultado de dos vectores oscilantes sobre un punto, que son el campo primario y secundario. En el tiempo decimos que el campo secundario está retrasado respecto al primario porque este último alcanza su amplitud máxima, una fracción de tiempo antes que el secundario. En el espacio cualquier vector campo podrá ser descompuesto en tres componentes, generalmente se utiliza la componente vertical en prospección EM. Cualquiera de estas componentes espaciales del campo EM secundario o del resultante podrá ser separada en dos componentes temporales, una real y otra imaginaria, o sea, una en fase y otra en cuadratura respecto al campo primario. En el diagrama vectorial se puede observar que cuanto mayor es el ángulo ϕ, mayor es la componente real del campo secundario y menor es su componente imaginaria. Pero como ϕ aumenta cuando aumenta la conductividad del conductor podemos entonces relacionar el valor del cociente Re/Im con al conductividad del cuerpo inductor del campo secundario, tendiendo este valor a infinito para un cuerpo de muy elevada resistividad y cero para uno altamente resistivo. De la misma manera podemos analizar la amplitud y el desfasaje del campo resultante: Si el conductor es muy resistivo: las corrientes inducidas en él serán débiles y en consecuencia el campo secundario tendrá una amplitud pequeña además el desfasaje será apenas superior a los 90º de retraso a la fem inducida. Por lo tanto el campo electromagnético resultante difiere muy poco del campo primario, tanto en amplitud como en fase. Si se trata de un muy buen conductor: el campo secundario tendrá una amplitud grande y su dirección será casi igual a la del campo primario, pero con sentido opuesto. Esto significa que el desfasaje será cercano a los 180º, o sea que cuando el campo primario alcance un valor máximo el secundario estará próximo al mínimo y viceversa. Debido a esto la amplitud del campo resultante disminuye notablemente aunque la diferencia de fase con el primario es otra vez muy pequeña. Cuando el cuerpo conductor tiene una conductividad media: el campo resultante será bastante menor en amplitud que el primario, pero el retraso o desfasaje será también considerable.

La importancia de estas consideraciones está dada por el hecho de que las posiciones relativas en el tiempo de los campos primario, secundario y resultante han servido de base para el desarrollo de los más modernos métodos EM. En algunos de ellos se miden la amplitud y el retraso del campo resultante, mientras que en otros se miden las componentes real e imaginaria del campo secundario. La mayoría de los métodos opera en la modalidad de Calicatas. Más adelante veremos Sondeos y otras variantes prospectivas.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS EM DE EMISOR FIJO Usualmente registrados bajo la modalidad de Calicata ElectroMagnética, cada método varía según el dispositivo empleado y otros detalles funcionales. Son estos, en el orden en que se fueron desarrollando:  De Inclinación de Campo, el método más antiguo arriba descripto.  De Bieler-Watson, el cual, en cada punto de medición, con la bobina receptora en posición horizontal se asume que capta la componente real y en posición vertical registra la imaginaria, cuyos resultados se comparan.  De los Dos Cuadros, con dos bobinas receptoras a cierta distancia entre sí, para comparación de amplitudes de la componente real entre una y otra.  De Sundberg o del Compensador para mediciones de las componentes real e imaginaria, que utiliza un compensador o puente de corriente alterna para tener tensiones de referencia y así conocer las magnitudes real e imaginaria en cada punto medido.  De Turam (Hedström, 1937 en Suecia) de dos cuadros con compensador para medición de la razón de amplitudes y la diferencia de fases, como se detalla abajo.  Detector de Metales (en VHF, muy alta frecuencia).  De Elipticidad de Alta Frecuencia (Whiteside, 1962 en Estados Unidos).

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Método de Turam: Método que mide el gradiente del campo EM y, como los otros, se registra como calicata. El dispositivo consiste en: Un emisor, que es un cable largo o bien un bucle rectangular de cable aislado con lados superiores a 1 km de longitud, en cualquier caso alimentado por una corriente alterna.. Un receptor que está compuesto por dos bobinas de inducción (exploradoras) llevadas a una separación constante (20 a 40 m) y conectadas a un compensador que mide la razón de amplitud y la diferencia de fase entre los campos recibidos por las dos bobinas. Éstas se calculan, respectivamente, como: RR=(B2/B1)/(ri+1/r1) y ∆P=Φ2− Φ1

Un compensador de corriente alterna es un sistema para medir componentes en fase y en cuadratura de un voltaje alterno inducido sobre una bobina receptora. Es muy similar al compensador de corriente continua, con la diferencia de que se debe disponer de dos tensiones ajustables y comparables con el voltaje inducido, estando esos dos voltajes con una diferencia de fase de 90°. Esto se puede lograr con un circuito apropiado con capacitores e inductancias. Los compensadores pueden calibrarse para medir la amplitud y fase del campo en el receptor, o bien los valores de las componentes Real e Imaginaria del mismo. La intensidad del campo primario depende del tamaño y forma del transmisor y de la ubicación del punto de observación. Si no hay conductores en la vecindad, la diferencia de tensión será cero y la razón de amplitudes será una función de la distancia desde el transmisor. Las observaciones deben corregirse usando la Ley de Biot y Savart (establecida hacia 1830 en Francia) que dice que el campo magnético debido a un cable largo disminuye en relación inversa a la 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

distancia desde el cable. En el conductor la razón de amplitudes alcanza un máximo mientras que las diferencias de fase alcanzan un máximo negativo. El método de Turam es muy efectivo en yacimientos superficiales, vetiformes masivos y de alto buzamiento, como el ejemplo de la figura adjunta. La profundidad de exploración se puede controlar en cierta medida mediante la variación de la distancia entre bobinas, así como mediante la variación de las frecuencias empleadas, según veremos con relación a los Sondeos EM.

Detector de Metales: Es un sistema de bobina receptora única, de fácil transporte, con la que se explora el terreno en el rango de las muy altas frecuencias (VHF, Very High Frequency de 30 a 300 MHz) con el objetivo de detectar mineralizaciones metalíferas, objetos de metal enterrados por acción humana o fracturas del terreno con presencia de agua. La bobina mide inclinación del campo resultante y calcula las componentes real e imaginaria del campo secundario. La fuente son las ondas de radio (en ese rango de frecuencias, esencialmente planares y horizontales por su lejana fuente, y su rebote en la ionosfera), lo cual hace de él un Método de Campo Natural, aunque algunas veces se recurre al refuerzo del campo radial disponible en el área con pequeñas antenas emisoras VHF dispuestas en las cuatro esquinas de la zona a prospectar, o bien un cable tendido en el suelo a lo largo de hasta un kilómetro, alternativas que van a mejorar las imágenes obtenidas. Adicionalmente se puede recurrir a un par de electrodos de potencial espontáneo para dar mediciones de resistividad que pueden asociarse a alteraciones en zonas donde hay presencia de oro, plata u otros metales. Elipticidad de Alta Frecuencia (H.F. Ellipticity): A partir de las ondas electromagnéticas dadas por una antena emisora de altas frecuencias, del orden de los 500 a los 2000 kHz, mide las tres componentes de los campos resultantes (polarizados elípticamente) para resolver sus vectores componentes H (magnético) y E (eléctrico), girando una bobina sobre los tres ejes del espacio y haciendo las determinaciones mediante un sistema de compensador electromagnético y detección electrónica. Puede trabajar con uno o varios receptores. MÉTODOS EM DE EMISOR Y RECEPTOR MÓVILES Surgidos durante la Segunda Guerra Mundial, esencialmente para prospección aérea, se registran en la modalidad de Calicata ElectroMagnética. El dispositivo general consta de una bobina emisora y otra receptora, pudiendo éstas situarse en distintas posiciones: – Coplanares horizontales – 0 Coplanares Verticales 0 I Coaxiles Verticales I 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Puede ir cada una en el extremo de cada ala del avión, también en la proa y en la cola del mismo, con soportes especiales, o bien uno sobre la máquina y el otro en un pequeño aeroplano arrastrado por un cable más atrás y abajo del avión. También pueden estar montados sobre helicópteros. Existen muchos métodos, de los cuales el más empleado ha sido el de Slingram. Método de Slingram: Este método, de bobinas coplanares horizontales, se caracteriza porque no sólo es móvil el dispositivo receptor sino que también lo es la fuente del campo primario, que está constituida por una bobina portátil de peso liviano. La bobina emisora es alimentada por la corriente alterna suministrada por un oscilador portátil de 1 a 2 vatios y de ella se toma una tensión fija de referencia que es introducida en un compensador. La tensión en el receptor se descompone en dos partes, una en fase y la otra desfasada 90° (un cuarto de periodo) respecto de la tensión de referencia. La magnitud de cada componente se determina por comparación con el voltaje de referencia. Este campo primario es muy sensible a pequeñas variaciones de distancia entre Tx y Rx, como así también a variaciones de la orientación de las bobinas. El emisor y el receptor, separados por una distancia fija, son desplazados conjuntamente en la dirección de la línea que determina, la cual puede ser paralela o perpendicular al rumbo supuesto para el conductor buscado, según la orientación del emisor (Tx) y del receptor (Rx). El trabajo de campo de los sistemas de emisor y receptor móviles es sencillo, la prospección no necesita ligarse rígidamente a una red de líneas estaqueadas y los sistemas permiten gran flexibilidad. Un equipo de dos o tres personas basta para las mediciones, llevando uno el oscilador sobre su espalda y el emisor (bobina) alrededor de su cintura, mientras otra persona lleva la bobina receptora y el compensador. En este, como en otros métodos EM, puede ser necesario proceder a una corrección por topografía, si ésta es significativa. Por ejemplo para bobinas coplanares horizontales la corrección de la componente real vale: CR = 300(h2/r2), siendo h la diferencia de cota y r la distancia entre bobinas. Por motivos prácticos se utilizan separaciones entre bobinas relativamente pequeñas (25 a 100 m) y generalmente no están vinculadas rígidamente entre sí; la distancia entre ellos se mantiene constante usando como cinta el cable de referencia. Se leen las componentes real e imaginaria del campo secundario en el receptor como porcentaje del campo primario, el cual es el campo existente en el receptor cuando el sistema se coloca en terreno neutral. Seleccionada la distancia entre Tx y Rx el sistema se coloca en terreno neutro y las agujas se colocan en cero, cuando no haya señal en el receptor significa que el campo primario ha sido compensado. Tras esto, los valores que se obtienen dan directamente el valor de las componentes del campo electromagnético. 10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En la posterior interpretación de los datos debe tenerse presente que las anomalías dispersas debidas a la conductividad de las formaciones próximas a la superficie pueden interferir con las anomalías de origen más profundo.

Arriba ejemplos de prospección con Slingram y abajo con Bobinas Verticales Coaxiales.

Conductivímetros: Son sistemas de bobinas móviles portátiles, coplanares horizontales o verticales de separación fija, que permiten registrar el campo electromagnético y obtener datos de resistividad eléctrica -o su inversa, la conductividad- y opcionalmente de susceptibilidad magnética a profundidades variables según la configuración del sistema, desde 1 hasta 60 m. 11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En este, como en algunos otros métodos EM, es posible entonces obtener valores de σ (o ρ) que surgen de la siguiente expresión analítica: Hs / Hp = V..σ2.w.µ µo. l / 4 de donde: σ = [(4 / V.w.µ µo. l).(Hs / Hp)] -2 (siendo l la distancia, Hs el campo magnético secundario y Hp el primario) Ejemplos Aeroelectromagnéticos: Al igual que en magnetometría, también los métodos EM se emplean principalmente desde el aire. Se trata de distintas variantes de los métodos de emisor y receptor móvil.

Arriba datos de helicóptero y correcciones por desniveles de vuelo. Abajo, ejemplos desde avión.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En este ejemplo referido a un yacimiento de hidrocarburos de Texas se evalúa con magnetometría y registros EM aéreos el impacto ambiental del escape de aguas de formación (salobres) hacia niveles someros (dulces) a través de encamisados antiguos con cemento en mal estado. Las figuras inmediata superior y derecha muestran la distinta penetración que se consigue variando la frecuencia del campo EM, y también en función de la conductividad del medio, lo que constituye una aplicación combinada de Calicata con el Sondeo de Frecuencias que se explica un poco más adelante.

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En el caso de arriba tenemos un relevamiento hecho sobre basurales donde se presentan los resultados en tres formas de cálculo distintas a partir de la misma información registrada, lo que revela la importancia de manejarla con diferentes algoritmos para hallar parámetros de representación evidentes de las anomalías que estamos tratando de evaluar. A la derecha se ilustra una adquisición de datos EM marinos para la evaluación de yacimientos de gas en forma de hidratos, junto con secciones de sísmica de reflexión.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

SONDEOS DE FRECUENCIAS Consisten en la emisión y recepción en posiciones fijas, variando la frecuencia de la fuente, de modo de iluminar en forma predominante zonas sucesivamente más profundas a medida que se utilizan más bajas frecuencias. Debemos recordar que las altas frecuencias generan respuestas muy intensas incluso de rocas poco conductivas, por lo cual el encape, aun siendo relativamente resistivo, puede dar una alta respuesta cuando se opera con muy altas frecuencias. Ergo, cuanto más se baje la frecuencia, más lograremos evitar respuestas poco profundas de conductores hasta de mediana conductividad y por lo tanto mejor se verán los niveles profundos que sean muy conductivos. La profundidad de penetración puede estimarse con la siguiente expresión: Z(m) = 503 Vρ ρ(Ωm) / f(Hz) Para, por ejemplo, 10 Ωm de resistividad del medio, con 10 Hz se obtiene una profundidad de investigación de unos 500 m, con 100 Hz se alcanzan 150 m y con 1000 Hz los 50 m. TOMOGRAFÍAS EM en el Dominio del Tiempo (en inglés abreviado TDEM) Método ideado por los estadounidenses Halliday y Resnick en 1974. Consiste en calicatas desde decenas hasta 3000 ó más metros de longitud con un procedimiento que a la vez permite sondear a gran profundidad. Puede hacerse con emisor fijo o móvil. Con Emisión Móvil: Se emplean uno o más transmisores y uno o más receptores (por ejemplo dos bobinas coplanares y dos coaxiales), generalmente en modalidad aérea (avión o helicóptero), y se opera transmitiendo un campo electromagnético primario y luego registrando su respuesta en los planos x, y, z en ventanas temporales (treinta o más) entre alrededor de 1 y 2000 ó más µs, información que proviene de distintas profundidades, según la demora en su registro. Usualmente se obtienen registros buenos desde decenas hasta cientos de metros de profundidad. Con Emisión Fija: Desde un bucle cuadrado sobre el terreno se aplican pulsos de corriente alterna de algunos µs que terminan en un campo magnético variante en el tiempo, lo que crea un campo secundario bajo el mismo bucle, que se introduce en el subsuelo con la misma forma del bucle, como se ve en la figura. Este campo secundario va decayendo y generando corrientes de eddy o remolino adicionales que se expanden como anillos de humo. Las mediciones se hacen en el centro del bucle en los intervalos de no emisión. La profundidad de investigación depende del tiempo transcurrido entre el corte y la medición y la intensidad de las respuestas procedentes de campos secundarios generados es proporcional a las corrientes de remolino de donde proceden y por lo tanto de la conductividad de las profundidades de las cuales provienen. Además del tiempo, también el tamaño del bucle, la frecuencia de la señal y la resistividad del suelo contribuyen a determinar la profundidad de investigación máxima, que en condiciones favorables puede superar los 2000 m.

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Procesamiento de los Datos: Se aplican correcciones metodológicas y luego los datos se invierten a través de un proceso en computadora -por ejemplo mediante una migración por continuación descendente, como en gravimetría, magnetometría o sísmica- que permite generar modelos de cuerpos conductivos, fallas, etc. Se puede calcular la conductividad (o su inversa, la resistividad), además de la susceptibilidad y la permeabilidad magnéticas, partiendo de la asignación de valores conocidos o estimados en uno o varios sectores de la calicata obtenida y calculando estas magnitudes en el resto de los puntos registrados en función de la variación de los parámetros electromagnéticos adquiridos. Estas tomografías pueden conformar cortes o secciones de muchos kilómetros de longitud y de una profundidad de cientos de metros -y hasta de un par de miles de metros con emisor fijo-. Además se pueden interpolar los datos en planta generando imágenes areales para distintas profundidades de interés con las magnitudes antes citadas e incluso proceso de datos en 3D. REGISTROS HERTZIANOS También conocido como Radiografías Hertzianas o Radiokip en Rusia. Es un método que ha sido empleado en galerías o perforaciones mineras, en curso de cateo o producción, para conseguir detectar metalizaciones entre ellas. El registro electromagnético se basa en la emisión de ondas de radio de fuentes lejanas, ya disponibles por las emisiones radiales preexistentes -en ese caso sería un método de “campo natural”- o bien generadas especialmente para tal fin. Lo que se mide, con un microvoltímetro, es el campo eléctrico secundario generado por dichos campos radiales. La intensidad de éstos (y por lo tanto sus diferencias de tensión medibles) es función proporcional de la presencia de cuerpos conductores emplazados en las rocas entre las galerías mineras, como también depende del rumbo de tales mineralizaciones, ya que producen una corriente más intensa si su orientación es aproximadamente coincidente con la del campo radial.

Aplicaciones de los Métodos EM Tal como se explicó, estos métodos están fundamentalmente dirigidos a la prospección de minerales conductivos o sus paragenéticos, pero los registros superficiales electromagnéticos tienen también otras diversas aplicaciones, como también hemos ido viendo. Tal como se explicó, estos métodos están fundamentalmente dirigidos a la prospección de minerales conductivos o sus paragenéticos, pero los registros superficiales electromagnéticos tienen otras diversas aplicaciones, como también hemos ido viendo. Sobre todo en la búsqueda de acuíferos (resistividades mayores a 10 Ωm suelen indicar acuíferos dulces y menores a ese valor, aguas de formación saladas), así como zonas de fractura, depósitos contaminantes, yacimientos arqueológicos, identificación de cavernas o conductos artificiales, fundaciones, vapor geotérmico, y en general todo aquello que genere un cambio en los registros electromagnéticos, principalmente a profundidades menores a los cien metros. En la búsqueda de hidrocarburos los métodos EM pueden dar respuestas diferentes en casos de reservorios con agua de formación (salada) frente a otras posiciones con hidrocarburos (más resistivos), pero no constituyen una herramienta de rutina por su baja resolución a grandes profundidades, salvo algunos casos favorables donde la metodología EM en el Domino del Tiempo da buenos resultados. Es por esto que sólo se la utiliza esporádicamente como complemento, algunas veces importante, de otras metodologías. Su principal ventaja respecto a los métodos de Inyección de Corriente (Continua) es que, al no necesitar contacto con el terreno, pueden operar en prospección aérea con la ventaja que representa poder hacer una rápida cobertura de grandes áreas exploratorias. 16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Es ampliamente conocido que los perfiles de inducción, que operan según los mismos principios que en prospección superficial, son herramientas muy aplicadas en la evaluación de pozos de exploración y desarrollo petrolero, como se verá más adelante. Radar de Substrato o Georradar (Ground Penetration Radar) Se diferencia de todos los otros métodos EM descriptos en que sus registros se fundamentan en las variaciones de la permitividad o constante dieléctrica ε, a diferencia de los anteriores que, como se explicó, se basan en los cambios de ρ. El radar (acrónimo de “RAdio Detection And Ranging”) fue empleado por primera vez por el británico Edward Appleton en 1924 para determinar la altura de la ionosfera. El sistema se basa en la emisión de ondas electromagnéticas en el rango de las microondas (VHF y UHF, Ultra High Frequency de 30 a 3000 Mhz) y la subsiguiente detección de sus reflexiones. Ha sido utilizado para navegación marina (detección de costas, otros barcos, etc) y también para navegación aérea (Radar Doppler, que se basa en el efecto de acortamiento o alargamiento de las ondas según el movimiento relativo del observador, análogo al sonido agudo de un vehículo acercándose y grave alejándose, fenómeno estudiado por el austríaco Christian Doppler hacia 1840). Los radares también se utilizan desde satélites para mediciones altimétricas aplicadas a diversos campos, entre ellos el estudio del geoide y las anomalías gravimétricas del mismo. Y también para obtener imágenes de la superficie terrestre, generalmente desde aviones, las cuales tienen aplicaciones geocientíficas y muchas otras. Las primeras aplicaciones del radar de substrato fueron realizadas en 1929 por Stern en Austria para medir espesores de glaciares, y sólo fueron reiniciadas después de que, a fines de la década de 1950, aviones estadounidenses se estrellaran contra el hielo de Groenlandia al leer sus radares de vuelo la base de los glaciares como si fueran su superficie. La expresión matemática básica de esta interacción física es: ε = (C. To / 2Z)2 (C es la velocidad de la luz, To el tiempo vertical de ida y vuelta de las ondas, Z la profundidad)

En prospección el Georradar ha sido empleado crecientemente desde hace tres décadas. Generalmente es aplicado a objetivos de muy poca profundidad (pocos metros) donde logra una altísima resolución (de pocos cm), aunque puede también a veces iluminar zonas a algunas decenas de metros con menor definición (en suelos arenosos secos, calizas, rocas ígneas o metamórficas). Las imágenes se obtienen con una antena emisora y otra receptora, la información se graba en computadora y se le efectúa un proceso de datos muy similar al que se aplica sobre los datos de sísmica de reflexión. El resultado son secciones con una escala vertical dada por tiempos de ida y vuelta de la onda electromagnética (en nanosegundos) donde se observan reflectores cuya amplitud es función de los contrastes de la constante dieléctrica entre las distintas capas del substrato. 17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

También se pueden hacer registros en pocitos de algunos metros para ajustar la puesta en profundidad, resultando radargramas de pozo análogos a la sísmica de pozos petroleros. Y también se puede hacer registros de volúmenes de información, comparables a los de la sísmica tridimensional. Dado que la permitividad es muy sensible al agua -ésta tiene un valor muy alto de la constante, debido el carácter fuertemente dipolar de sus moléculas- ha sido muy utilizado en áreas de suelos congelados para iluminar por debajo del hielo o del permafrost, aunque también en otros diversos ambientes geológicos, con fines de investigación estratigráfica (como el ejemplo siguiente), hidrogeológica, ambiental, minera, paleontológica, etc.

18

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS DE POLARIZACION INDUCIDA

Abreviado PI (IP, Induced Polarization en inglés) fue observado por Schlumberger hacia 1920 y estudiado por Müller en 1937. Es el fenómeno que se verifica al desconectar una batería colocada entre dos electrodos conectados al terreno. Se trata de un decrecimiento gradual de la tensión una vez desconectada la batería, fenómeno análogo al de un condensador eléctrico. Implica que algún movimiento de iones se vea impedido y la PI aparece como una posterior difusión de iones. Alternativamente se verifica una variación de resistividad cuando ésta es medida en un medio dado utilizando corrientes de distinta frecuencia. Existen dos modos de crear este fenómeno: A) Polarización de electrodos: cargas iónicas acumuladas en el limite electrolito-partícula metálica, las cuales crean una tensión que se opone al flujo, por lo que, cuando la corriente se interrumpe, queda un potencial residual debido a las cargas iónicas allí retenidas. Este potencial luego decrece continuamente al difundirse las cargas en los electrolitos de los poros. Abajo el análogo eléctrico de este proceso. B) Polarización de membrana: se produce debido a la presencia de partículas de arcilla, cuya superficie está cargada negativamente y por lo tanto atrae iones positivos de los electrolitos. Cuando se hace pasar una corriente los iones positivos se desplazan, y al interrumpirse se redistribuyen generando una tensión decreciente entre los dos electrodos en contacto con la arcilla.

PROSPECCIÓN MEDIANTE P. I. Normalmente se realizan calicatas con varias profundidades de interés, como en las tomografías eléctricas (TE). A partir del impulso dado a estos métodos hacia 1948 por la Newmont Exploration de los Estados Unidos, surgieron variantes prospectivas en dos dominios diferentes. 19

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

En el Dominio del Tiempo: Se aplica al terreno una corriente continua y se registra el decrecimiento de la tensión entre un par de electrodos de potencial después de haber cortado la inyección de corriente. Pueden medirse: - Milivoltio por voltio y tanto por ciento de PI: cociente entre la tensión residual V(t) en un instante determinado t después del corte de la corriente y la tensión normal V(o) mientras la corriente fluye, es decir: mVi / Vo o bien: mVi . 100 / mVo - Integral de tiempo normalizada: se registra la curva de descenso durante un cierto lapso de tiempo y se determina el área comprendida entre dos límites de tiempo (mV/seg) al dividir este resultado por el potencial normal Vo se obtiene la medida de la integral de tiempo de la PI, en algunos textos también llamada cargabilidad. - Cargabilidad: puede definirse de dos modos, como la integral arriba citada y expresada en la figura a la derecha, o bien como la relación: m = (Vo – Vi) / Vo

En el Dominio de la Frecuencia: En esta modalidad se mide la variación de la resistividad aparente del terreno con el cambio de frecuencia de la corriente aplicada. El pasaje del dominio del tiempo al dominio de la frecuencia y viceversa puede hacerse matemáticamente mediante el empleo de la Transformada de Laplace (desarrollada por el matemático y astrónomo francés Pierre Laplace hacia 1800). 20

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida 2009

Su expresión analítica es:

Chelotti, L., Acosta, N., Foster, M.,

y su inversa:

Aplicándola se puede mostrar la equivalencia de una resistencia y un condensador en función de sus condiciones iniciales, por lo que la P.I. en los dominios de la frecuencia y el tiempo equivalen. En la práctica en el Dominio de la Frecuencia se procede a determinar la resistividad a dos frecuencias: una de ellas muy baja y la otra más alta. Pueden medirse: - Efecto de frecuencia: la resistividad de las rocas decrece al aumentar la frecuencia aplicada. La medida de la PI debido a la frecuencia se define como la diferencia entre la resistividad con CC y con CA, dividido por la resistividad con CA, es decir: e.f. = (ρ ρcc – ρcA) / ρcA En la práctica, dado que se trabaja con un alternador (o sea, sólo CA), la ρcc es en verdad una ρcA pero de sólo 0,1 Hz, que en la práctica equivale a una ρcc. La ρcA suele ser de unos 10 Hz. - Factor metálico: es un parámetro ideado para corregir la influencia de la resistividad de la roca de caja. Se define como el efecto de la frecuencia dividido por la resistividad aparente en CC (de nuevo, en la práctica es una CA de 0,1 Hz). multiplicado por un factor numérico arbitrario para dar resultados no tan pequeños. La expresión matemática es: FM = 2Π.105 (ρ ρcc – ρcA) / (ρ ρcc . ρcA)

Acá vemos la técnica de atribución de los valores calculados en el dominio de la frecuencia:

Aplicaciones de la Polarización Inducida Son muchas las aplicaciones, incluyendo, entre otras: mineralizaciones metalíferas, hidrogeología, medioambiente, ingeniería civil y arqueología. 21

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

Podemos apreciar dos ejemplos mineros:

La prospección también puede hacerse desde barcos con electrodos arrastrados por el lecho de un río, lago o mar. En las últimas dos décadas ha surgido el interés en su aplicación en prospección de hidrocarburos, se lo ha empleado en pozos y también desde superficie, en algunos casos con una importante profundidad de investigación para inferir reservorios de petróleo y gas, como se aprecia aquí.

Arriba, ejemplo de PI en el dominio del tiempo, más método MT. A la derecha, en China, PI en el dominio de la frecuencia, más MT.

En algunas áreas los resultados son interesantes como complemento de otras metodologías, en especial cuando se lo emplea para hacer el mapeo de alteración geoquímica de suelos provocada 22

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

por hidrocarburos y sus elementos asociados, sobre áreas de entrampamiento, por ejemplo por presencia de pirita, magnetita y otros semiconductores generados como subproducto de la acción bacteriana en la biodegradación de petróleos. Acá se resumen las posibles aplicaciones de diversos métodos geoeléctricos para la localización de zonas de microfugas de hidrocarburos, a partir de los efectos creados geoquímicamente a poca profundidad.

Se ha utilizado el fenómeno de la polarización inducida ocasionalmente en perfiles de pozos desde las primeras experiencias hechas por el ruso Dakhnov, en 1959.

23

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 8 Métodos Electromagnéticos y de Polarización Inducida

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO - Indicar y justificar las condiciones ideales de uso de los métodos de CA en superficie. - ¿Cómo es el método electromagnético de inclinación de campo? - Graficar un diagrama vectorial indicando brevemente su significado. - Señalar las diferencias entre los métodos de Turam y Slingram. - ¿Qué parámetros permiten variar la profundidad de investigación? - Explicar brevemente la Calicata EM en el Dominio del Tiempo. - Comentar aplicaciones de los métodos electromagnéticos. - ¿Cuáles son los fundamentos y las aplicaciones del Georradar? - ¿Cuáles son las dos causas del fenómeno de polarización inducida? - ¿Cómo opera el método en los dominios del tiempo y la frecuencia? - ¿Cómo se adquieren y representan usualmente los datos de campo? - ¿Qué aplicaciones tiene el método de PI?

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.111-163, 311-329 y 422-429). Librería de Ciencia e Industria. - Parasnis y Orellana, 1971. Geofísica Minera (p.111-163, 206-225 y 314-328). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

24

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

PROSPECCIÓN RADIOMÉTRICA

Es conocido que la radiactividad es la facultad de emisión de radiaciones (alfa, beta, gamma) que poseen los núcleos de determinados elementos químicos inestables llamados radiactivos, que al hacerlo transmutan en otros elementos (diferente cantidad de protones o número atómico Z, por lo que también difiere el número másico A) o bien en otros isótopos del mismo elemento (igual Z pero distinta cantidad de neutrones, por lo que sólo difiere A), que pueden resultar inestables o estables. La radiactividad fue descubierta por el francés Henry Becquerel en 1896 en sales de Uranio que velaban una placa fotográfica en la oscuridad. La polaca Marja Sklodowska y su esposo, el francés Pierre Curie, en 1899 descubrieron otros dos elementos radiactivos: el Polonio (por la patria de Marja) y el Radio (del latín radius, rayo, y de ahí las palabras radiactividad, radiometría). Son radiactivos todos los elementos naturales de número atómico alto, a partir del polonio (Po, Z=84), aunque también algunos isótopos del bismuto (83Bi214), del plomo (82Pb210, 82Pb214) y muchos otros entre los de menor número atómico, hasta inclusive el tritio (1H3). La actividad radiactiva es el número de átomos que se desintegran por segundo, es una característica específica de cada sustancia. La unidad de actividad es el Curie = 37 .109 desintegraciones/segundo.gr Período de Semidesintegración y Vida Media Las modificaciones de un determinado elemento radiactivo dependen del número de átomos desintegrados y de la proporción entre cantidad de sustancia transformada y existente. Siendo No el número de átomos de la sustancia radiactiva existentes en un instante to y N los presentes en un instante posterior t la velocidad de desintegración será: - dN = λ.N, donde λ es la constante de desintegración, dt es decir el descenso de radiactividad por unidad de tiempo de modo que: dN = - λdt, e integrando: lnN = -λ λ.t + K N Podemos calcular el valor de K, dado que en el instante inicial, cuando N = No y t = to: K = ln No Entonces: - λ.t = lnN – lnNo = ln N y tomando el período de semidesintegración t½, o sea el tiempo No necesario para que la cantidad de átomos iniciales se reduzca a la mitad, resulta: - λ t½ = ln 1 = -0,693, de modo que t½ = 0,693 2 λ La vida media ϖ es la inversa de la constante λ, es decir que: t½ = 0,693 ϖ 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Equilibrio Radiactivo y Dataciones En una serie de isótopos que van desde un elemento radiactivo inicial a uno estable final puede definirse el equilibrio radiactivo al cabo de un tiempo suficiente para que se haya llegado a formar los primeros átomos estables. La cantidad de átomos de un isótopo en una serie que se encuentra en equilibrio radiactivo resulta inversamente proporcional al tiempo de vida media de dicho isótopo radioactivo: N1 = N2 = ... = Nn t1 t2 tn La cantidad de granos de un compartimiento en un reloj de arena múltiple, una vez alcanzado el equilibrio, resulta inversamente proporcional al diámetro del cuello que les permite caer. Lo mismo pasa en un atascamiento de tránsito, aunque no sea la clase de vida media que quisiéramos tener. Por lo tanto, la proporción de isótopos radioactivos transmutados desde la formación de la roca o fósil que los contiene es proporcional al tiempo t transcurrido. La expresión analítica que da cuenta de ello es: n-1 -t = 1 ln (1 + Nn + Σ N) Ν1 n=2 Y este es el fundamento de la Geocronología. λ1 Tipos de Radiaciones Alfa (α): constituidas por núcleos de helio (2 protones, 2 neutrones), de naturaleza corpuscular, tienen carga eléctrica positiva. Dada su masa, su poder de penetración es bajo, pero por lo mismo su poder de ionización es alto. Beta (β): son simplemente electrones (carga negativa y masa reducida) los cuales conservan el carácter corpuscular. Debido a su tamaño poseen alto poder de penetración pero bajo poder de ionización (un décimo que las partículas α). Gamma (γ): de tipo electromagnético, no tienen ni carga ni masa, su poder ionizante es muy reducido pero no nulo (un centésimo que las partículas α), la capacidad de penetración es mucho más elevada. Su emisión es el resultado de un reajuste energético. Rayos Cósmicos: llegan desde el Sol o desde el espacio exterior y son de dos tipos: unos formados por electrones y fotones (gran energía) y otros por mesotones (de carga negativa y masa considerable). Ernest Rutherford en 1900 hizo el descubrimiento de los tres tipos de radiación terrestre, según la experiencia de desviación dada por un imán entre el bloque de plomo donde estaba el elemento radiactivo y la placa fotográfica (figura a la derecha). Observó el distinto

grado de desviación de los tres tipos de partículas radiactivas. El gráfico de la izquierda ilustra la capacidad de penetración de las radiaciones: máxima en las Gamma, media en las Beta, mínima en las Alfa.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Series Radiactivas A la derecha algunas de las series radiactivas más relevantes para prospección (caso de las tres primeras) o para geocronología (todas ellas, aunque no es tan usada la del torio). Se indica la radiación emitida en cada etapa. Además del 92U238, también el 235 92U es radiactivo y tiene una serie con varios isótopos intermedios, pero existe sólo un 1% respecto al primero, por lo cual en general no es tan importante en actividades exploratorias. Efectos de las Radiaciones Son tres, que aquí se describen. Producción de Pares de Iones: cuando una partícula radiactiva penetra en un medio gaseoso puede chocar con alguno de los átomos que lo componen, generándose entonces un par de iones primarios de signo contrario: el electrón arrancado (anión) y el resto del átomo (catión, con una carga positiva que ahora no está compensada). Mediante dos electrodos, con una diferencia de potencial a fin de otorgarles suficiente energía cinética, se produce una avalancha de pares de iones secundarios, que será acusada en los receptores. Naturalmente, la radiación α es la más efectiva para producir ionización, siendo menor la producción de pares de iones en el caso de las β y mucho menor en el caso de las γ. Efecto Fotoeléctrico: los rayos γ pueden considerarse como fotones o cuantos de luz, cuando un fotón incide sobre la superficie de un metal le transmite íntegramente energía a los electrones en la superficie del mismo. Estos electrones podrán escapar atravesando la energía potencial que poseían. Como la energía del fotón depende de la frecuencia, existirá un valor límite de ésta (llamado umbral de frecuencia fotoeléctrico) a partir del cual con frecuencia inferior no habrá emisión de electrones. Según el alemán Max Planck (1890) la energía de un fotón está dada por: Efi = h.f (siendo f la frecuencia ondulatoria y h, la constante de Planck, igual a 6,62 .10-27 erg/s) Albert Einstein en 1905 estableció que también podemos expresar que: Efi = φ + ½ mfi.vfi2 (donde mfi y vfi son la masa y la velocidad del fotón incidente, siendo mfi casi despreciable, y φ es el trabajo de extracción, es decir, la energía disponible para intentar extraer un electrón de la superficie a impactar) 3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Pero además puede expresarse que: φ = h.fo (siendo fo el umbral de frecuencia fotoeléctrico, esto es, la frecuencia mínima para conseguir la extracción de un electrón, o sea producir efecto fotoeléctrico) Efecto Compton: Fue descubierto por el estadounidense Arthur Compton en 1923, cuando, haciendo incidir un haz de rayos de gran frecuencia sobre la superficie de ciertos materiales, comprobó una difusión de éstos, cuya frecuencia resulta modificada respecto del haz incidente. La modificación de la frecuencia en los rayos difundidos se interpreta como un choque elástico entre el fotón y el electrón. En el choque el fotón pierde una cantidad de energía y desaparece, al tiempo que se crea otro de menor frecuencia. Volviendo a la fórmula de Einstein, puede escribirse que: Efi = φ + ½ mfi.vfi2 = h.fo + h.f’ El segundo término es ahora la energía de un nuevo fotón, que también podría expresarse como: h.f’ = ½ mfe.vfe2 (donde mfe y vfe son la masa y la velocidad del fotón emergente) El efecto Compton es el responsable de la fluorescencia, que ocurre cuando se hace incidir un haz de rayos UV (fuera del espectro visible), los que al chocar generan radiaciones de menor frecuencia que en muchas sustancias llegan a ser visibles. Aquí imágenes de minerales fluorescentes: desde la izquierda, calcita (CO3Ca, no radiactiva), zircón con torio (ZrSiO4[ThO2]), pechblenda o uraninita (UO2) y berilo (Be3Al2(SiO3)6) a la derecha.

Aparatos Detectores Los primeros aparatos usados en prospección fueron los siguientes: -El Electroscopio, que se descarga tanto más rápidamente cuanto mayor es la radiación ambiente que ioniza el aire. -Placas Fotográficas, en las que el bromuro de plata (AgBr) se reduce a plata negra según la intensidad de la radiación. -El Spintariscopio inventado por el inglés William Crookes (1903), caja cerrada con una placa de cristales hexagonales de blenda (ZnS, hexagonal) en la que se introducía la muestra, que si era radiactiva hacía que la blenda emitiera destellos que eran visualizados desde el ocular. -La Camara de Ionización (fotografía a la derecha), que comenzó a emplearse en 1913 y en cuyo gas interior (aire, metano, argón u otro) se produce el desplazamiento de iones hacia el ánodo y cátodo si existe radiación ionizante. Los aparatos más modernos se describen brevemente a continuación: -Contador Geiger-Müller: Desarrollado en 1928 por los alemanes H. Geiger y W. Müller a partir de la cámara de ionización, pero, a diferencia de ésta, opera con tensiones más altas, de entre 800 y 4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

1000V (véase el siguiente gráfico de la derecha). Tiene una entrada de radiaciones al tubo -como se esquematiza a la izquierda- las cuales colisionan con los átomos del gas contenido (metano y argón). Esto produce la expulsión de electrones en avalancha, registrados como una sola pulsación independiente de la energía inicial de la radiación, no siendo posible la distinción de tipos. Asegura respuestas en presencia de niveles bajos de radiación.

-Contador proporcional: Similar al anterior, trabaja a menor voltaje (500 a 800 V), por lo cual se produce un menor efecto multiplicador de electrones. La producción de pares de iones depende esencialmente de la energía de la radiación captada, por lo que puede distinguir tipos variables de radiación, siempre que no sean de muy baja intensidad. La ventana de ingreso de las radiaciones consiste en una interfaz que permite entrar sólo la radiación deseada, sea α, β ó γ . Si, por ejemplo, se desea prospectar radiación beta, se impide la entrada de las otras dos al tubo y el aparato recibe el nombre de betámetro. -Centellómetro o destellómetro (scintillation counter): Ideado en 1947 a partir del spintariscopio de Crookes. Posee un fotocátodo, un tubo fotomultiplicador, una cámara de destellos y un registrador electrónico. El fotocátodo consiste de cristales de átomos de cierta sustancia llamada fósforo, que puede ser inorgánico como yoduros (NaI, CsI u otros, casi siempre activados con Tl), u orgánico como antraceno, naftaleno, etc. Estos átomos, en los que al llegar una determinada radiación se excitan algunos de sus electrones, ceden energía para volver a su estado normal, emitiendo radiación EM en la frecuencia de la luz visible: los destellos característicos del efecto Compton, que pueden visualizarse en la cámara de destellos (véase la figura a la derecha). Pero además emiten electrones hacia el interior del llamado tubo fotomultiplicador: un sistema amplificador de señal que consiste en una sucesión de ánodos con potencial eléctrico creciente, en cada uno de los cuales, ante la llegada de cada electrón, se emiten múltiples electrones secundarios, lo cual genera un efecto en cascada, hasta el último ánodo, desde

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

donde se realiza el registro electrónico de la pulsación resultante de la radiación detectada. Como en los contadores proporcionales, también en los centellómetros una interfaz absorbente a la entrada del dispositivo permite seleccionar el tipo de radiaciones a prospectar; por ejemplo para detectar radiación γ se filtran las α y β. Los centellómetros comenzaron a utilizarse en prospección aérea en la década de 1950, sobre todo en Canadá, junto con magnetómetros y en algunas ocasiones dispositivos electromagnéticos de emisor y receptor móviles. -Emanómetro: es un centellómetro modificado para la detección del gas radón y sus isótopos, utiliza un fósforo, que suele ser SZn activado con Ag. Tiene una trampa neumática para la captura de los gases emanados del suelo, canalizados por un pequeño tubo que manualmente se hinca en el terreno. -Berilómetro: consta de un centellómetro y un emisor de antimonio radioactivo (51Sb124) cuyos rayos α y γ, en caso de alcanzar minerales de berilio, los excitan y producen la emisión de neutrones que son detectados. -Espectrómetro de rayos Gamma: Ideado por Pringle, Roulston y Brownell en 1949 en Canadá, fue efectivamente desarrollado hacia 1960 en ese mismo país. Permite identificar los isótopos emisores de los rayos γ midiendo la energía con que éstos arriban al aparato. Actualmente existen dos tipos principales de espectrómetros: Los más convencionales (fotografía adjunta) están construidos sobre la base de un centellómetro de NaI (Tl) al que se ha acoplado un sistema electrónico de analizador multicanal que formatea la sucesión de pulsos arribados según el número de cuentas/segundo en ordenadas y canales o ventanas Wn de muestreo (que se corresponde con energía en MeV) en abscisas (figura de abajo). Los de mayor resolución -y costo- poseen un detector de un material semiconductor, también llamado de estado sólido (alguna aleación de cadmio o preferentemente germanio puro). Con la llegada de rayos γ al detector (que allí pueden producir efecto fotoeléctrico, efecto Compton o ionización) se provoca un movimiento de electrones de la banda de valencia a la banda de conducción del semiconductor, lo que en presencia de un campo eléctrico genera un desplazamiento hacia el ánodo, resultando en una variación de tensión que es registrada y formateada por el analizador multicanal. Los canales de muestreo pueden ser 512, 1024,… hasta 16384, según sea la capacidad de resolución del aparato. Así, visualizando los picos en el espectro, se consigue identificar a los tres elementos radiactivos comúnmente prospectados por su abundancia, a través de la radiación del isótopo más fácilmente identificable en su correspondiente serie, esto es: - 92U238, a través del 83Bi214, con una ventana energética situada entre 1,66 y 1,86 MeV - 90Th232 a través del 81Tl208, con una energía de 2,41 a 2,81 MeV - 19K40, a través de sí mismo ya que es el único isótopo radiactivo de su serie, 1,37 a 1,57 MeV Además, como ruido pueden detectarse los rayos cósmicos en valores superiores a 3 MeV, aunque siempre se intenta minimizarlos a través de pantallas de plomo, especialmente cuando se hace adquisición aérea.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Lámpara Ultravioleta: Consta de un electrodo caliente que por emisión termoiónica desprende electrones a gran velocidad, los que en su trayectoria alcanzan electrones corticales de átomos de mercurio presentes, desplazándolos de sus órbitas, como se ilustra a la derecha. Cuando éstos vuelven a su posición primitiva, emiten radiaciones ultravioletas que alcanzan los átomos del mineral fluorescente, los cuales emiten por efecto Compton ondas de frecuencias comprendidas en el espectro visible. Radiactividad de las Rocas A pesar de su escaso espesor, la Corteza genera el 17% de la radiactividad total del planeta, dado que es la envoltura con mayor proporción de elementos radiactivos. El Núcleo, pese a su gran volumen, sólo alcanza el 20%. El restante 63% corresponde a la emisión del Manto. La cuantía y distribución de las radiaciones es variable por estar en relación con la mayor o menor distribución de los elementos que las emiten, lo cual va a depender de la composición mineralógica de las rocas aflorantes (o, si fuera el caso, atravesadas por una calicata, una galería o un sondeo). Sobre los cuerpos de agua la detección radiactiva se hace mínima, casi nula, y por esto se miden allí los valores de fondo (background) en cada región a prospectar. Como se mencionó arriba, los tres elementos más abundantes, con períodos de semidesintegración del orden de la edad de la Tierra, son el 92U238 (4,5.109 años), el 90Th232 (1,4.1010 años) y 19K40 (1,2.109 años). Los tres citados, pero sobre todo el uranio y el torio (frecuentemente en forma de óxidos), son generalmente más abundantes en las rocas ígneas, variables en las metamórficas y más escasos en las sedimentarias (las arenas de monacita, con ThO2, son una de las excepciones). Las rocas calcáreas tienen niveles radiactivos normalmente muy bajos (salvo fracturas con depósitos de sales de uranio u otros casos excepcionales). En cambio se registra una radiactividad habitualmente mayor entre las rocas clásticas debido al potasio, que es normalmente más abundante en arcilitas (o en areniscas feldespáticas), así como por la presencia minoritaria de torio, siendo variable la relación Th/K según los tipos de arcillas. Los ambientes depositacionales reductores producen la insolubilización del ión uranilo (UO2++, soluble en ambientes oxidantes) y a la vez permiten la preservación de la materia orgánica, que después podrá eventualmente transformarse en carbón o hidrocarburos. Por lo tanto el uranio es indicador de roca madre o de combustibles fósiles, que en el caso del petróleo puede migrar hacia reservorios de ambiente oxidante. Otros elementos radiactivos pueden tener importante participación en casos particulares. A la derecha, cuadro indicativo de la presencia de uranio y torio en distintos sedimentos, rocas y fluidos. Prospección Radiométrica Las actividades prospectivas por métodos radioactivos utilizando alguno de los aparatos detectores arriba mencionados puede realizarse tanto en la modalidad más antigua, terrestre, con un mallado 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

acorde a las dimensiones del objetivo, ya sea regional o local. Pero también puede hacerse desde aviones o helicópteros (Aerorradiometría), algo que se inició durante la década de 1950, eficaz por la rapidez de cobertura de grandes áreas. Los recaudos en este caso serán similares a los de otras metodologías aéreas (aerogravimetría, aeromagnetometría, aeroelectromagnetismo y otras), es decir, habrán de procurarse altitudes de vuelo constantes y tan bajas como se pueda -desde aviones generalmente un mínimo de 100 metros, según el tipo de avión, relieves y regulaciones áereas locales-, seguir líneas rectas y paralelas, otras perpendiculares para vinculación, y velocidades de vuelo lentas para un mejor muestreo -para aviones no es posible menos de 100 km/hora-. Las figuras siguientes muestran un mapeo terrestre a escala de detalle y datos de aerorradiometría de dos zonas distintas, donde se correlacionan ppm de U (desde muestras) contra conteo radiométrico.

Los objetivos de este método, además de la propia búsqueda de yacimientos de elementos radiactivos, pueden referirse a la prospección de otros elementos no radiactivos de interés económico pero que se hallen asociados paragenéticamente con los que sí lo son (véase el cuadro adjunto), aunque en la determinación de los sectores de interés a partir del mapeo de valores debe tenerse presente la posible dispersión de elementos radiactivos en un área mayor a la del yacimiento. En la página siguiente se resume una aplicación aérea en la provincia de Chubut, en la que se coteja con datos terrestres y además se presenta una curva que manifiesta la detección variable de uranio (mediante Bi radiactivo) según que el suelo esté húmedo o seco, en función del clima. Esto se debe a que el terreno húmedo impide el normal escape del radón, que forma parte de la serie del 92U238, y éste se acumula dando una señal que lleva a sobrevaluar el contenido en uranio del área cateada.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

En relación a los hidrocarburos, en primer lugar sabemos que el K está en arcillas, feldespatos, etc. y es un indicador litológico importante. También el Th, ya que permite identificar tipos de arcillas, tal como se hace en los perfiles radiactivos de pozos. Pero además el U, como se explicó, está asociado al petróleo y a su roca madre. Siempre que hay hidrocarburos hay aumento de radiactividad debida al uranio, la cual suele magnificarse en zonas de falla o áreas de microfugas de hidrocarburos hacia la superficie. El mapeo de este tipo de anomalías suele ser una interesante herramienta prospectiva, muchas veces complementado con metodologías geoquímicas: -muestreo microbiológico -detección de gases: helio producido por el decaimiento radiactivo del uranio y otros elementos, radón que como vimos es un isótopo de la serie del uranio, metano o propano escapados de los reservorios, etc. -bacterias de la biodegradación -suelos con alteraciones (caolinita, carbonatos, yoduros, pirita, magnetita, etc.) -cambios geobotánicos, y otros. Ya hemos visto que distintos métodos permiten detectar en forma indirecta algunas de estas alteraciones: micromagnetometría, inyección de corriente, electromagnetismo, polarización inducida. Otros registros, como la detección de gases, se puede hacer indirectamente con la prospección radiométrica, en forma aérea o terrestre, por ejemplo con un emanómetro. Una herramienta moderna que permite detectar fluorescencia desde el aire, puede emplearse tanto en tierra como sobre cuerpos de agua, lo cual es un caso especial donde la radiometría sí funciona sobre lagos o mares. Lo que intenta detectarse es la respuesta de hidrocarburos microfugados desde sus 9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

reservorios profundos bajo el lecho y llevados en forma de burbujas hasta la superficie del agua. La técnica, ilustrada seguidamente, requiere de la eliminación de ruidos culturales (contaminación), así como los causados por la posible presencia de algas fluorescentes y otros.

A continuación se esquematizan algunos de los posibles caminos de microfuga y filtración ascendente del gas y el petróleo. Esto puede ocurrir en forma directamente vertical o más compleja, a través de las propias rocas reservorio, cuando éstas inclinan, por zonas de falla o bordes de cuerpos emplazados que resultan permeables, o simplemente atravesando las rocas sello, que muy frecuentemente no son perfectamente sellantes.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9 Prospección Radiométrica

Chelotti, L., Acosta, N., Foster, M., 2009.

Arriba, un plano resultante de una prospección aeroespectrométrica sobre rocas con presencia de hidrocarburos escapados de los reservorios, en Sudán. La detección del 83Bi214 (ventana energética de 1,66 a 1,86 MeV) es indicación clara de la presencia de uranio, en este caso asociado al ambiente reductor en el que el ión uranilo fue precipitado: la cocina del petróleo.

CUESTIONARIO BÁSICO - ¿Qué son el período de semidesintegración y la vida media? - ¿En qué consiste esencialmente la geocronología a partir de la radiactividad? - ¿Qué tipos de radiaciones pueden medirse en prospección como señal o como ruido y qué efectos pueden producir? - Citar los tres elementos radiactivos más usados en prospección y los isótopos de sus respectivas series que son medidos en la práctica. - ¿Qué aparatos detectores son utilizados en exploración? - ¿En qué tipos de rocas podemos medir valores altos de los distintos elementos radiactivos? - Comentar las aplicaciones petroleras del método.

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.447-470). Librería de Ciencia e Industria. - Coppens, R., 1963. La Radiactividad de las Rocas. EUdeBA. - Fowler, C., 1990. The Solid Earth (p.191-217). Cambridge University Press. - Lowrie, W., 1997. Fundamentals of Geopysics (p.165-178). Cambridge University Press. - Parasnis y Orellana. 1971. Geofísica Minera (p.296-303). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

RADIOMETRÍA DE POZO

Existen diversas herramientas radiométricas de pozo desarrolladas a partir de la primera aplicación para detectar rayos gamma naturales (por la compañía Well Surveys de Estados Unidos en 1935). La profundidad de investigación es escasa, promediando los 15 cm. Se registra con Contadores o bien con Centellómetros, adaptados a las herramientas de pozo. Las herramientas de densidad van en patines contra la pared y el resto centralizadas. Los distintos tipos de perfiles neutrónicos y de rayos gamma naturales pueden correrse a pozo entubado, los dos de densidad sólo a pozo abierto. Aquí una síntesis de los más ampliamente utilizados y luego información adicional de cada uno. EMITE RAYOS GAMMA NATURALES

____

RECIBE

γ indiscriminados

(unidades API: 1/100 lutita Texas)

Alternativo del SP para distinción de capas permeables Vs arcillas (con alto % de K39 más K40 radiact). ESPECTROMÉTRICO de γ Naturales

____

γ en 3 ventanas de Energía:

Para distinción de mineralogías: calizas, ígneas, UO2 en M.O. e H.C, relación Th/K en arcillas, etc. DENSIDAD (fuente de Cs

137

a 0,66MeV)

γ

Para obtener densidades y calcular porosidades. 60

LITODENSIDAD (fuente de Co , 1,17-1,33MeV)

γ

γ

1 0n epit.

-µ µxδb

Φ = (δm - δb)/(δ δ m - δ f) (Conteo γ por efectos Compton (Porosidad Φ, densidad de y Fotoel , coef. atómico másico µ, matriz δm , fluido δf y Intens. emisión, dist. fuente-receptor x) muestreada δb)

γa

Cγ = Io. e

2 niveles de E

Para obtener densidades, porosidades y además para estimar litologías mediante diagramas (crossplots). NEUTRÓNICO TERMAL (fuente: 226 88Ra =>> α,γ =>> 4Be9 9 4 12 1 4Be + 2He -> 6C +0n )

40

K a 1,46 MeV 214 238 Bi (serie U ) a 1,76MeV 208 232 Tl (serie Th ) a 2,61MeV

Σ = k. Pef. δe δe = δb (2Z/A) (Σ, sección de captura, (dens. electrónica, Pef, factor fotoeléctrico) Nºatóm. y másico)

1 0n termal

(aprox.0,002 eV) (unidades API: 1/1000 caliza Indiana)

Para calcular porosidades, usualmente en combinación con el pefil de Densidad, el cruce de ambos suele indicar presencia de gas (neutr. menor, densidad mayor).En arcillas sólo sube el neutrónico. NEUTRÓNICO EPITERMAL

1 0n epit.

1 0n epitermal

(0.1 a 100 eV)

También para cálculo de porosidades, utilizado en litologías complejas por su mejor respuesta ya que los 0n1 con más E son menos afectados por las variaciones de Σ.y los cálculos de Φ son más valederos 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica NEUTRÓNICO-GAMMA

Chelotti, L., Acosta, N., Foster, M., 2009

γ

1 0n epit

Es otro perfil para calcular porosidades. Los Cl del agua de Fm emiten γ propios y hacen sobrestimar Φ, pero capturan muchos 0n1 por lo que Φ se subestima en los perfiles neutrón-neutrón. -

1

1

NEUTRÓNICO PULSANTE pulsos de 0n 0n en vent de t. 2 3 1 (fuente,acelerador H =>>H =>>0n ) (1000/s a 16MeV) (a 500 y 800µs, se comparan las Se obtienen valores de Σ curvas de descenso)

y curvas de arcillosidad

Cn2 = Cn1. e

-Σ Σvnt2-1

(Vn, veloc. neutrón, t2-1 interv de t) Σ aumenta con Φ y con ClNa -28 2 Valores de Σ (en barn=10 m ): areniscas 8-13, arcilitas 20-40 calizas 8-10, agua dulce 22, petróleo 22

PERFILES DE RAYOS GAMMA NATURALES Existen dos tipos básicos de perfiles de radiación natural: el tradicional perfil de Rayos Gamma y el perfil Espectrométrico de la misma radiación γ. Ninguno de ambos posee emisor, sólo receptor. El Perfil de Rayos γ Naturales Totales o indiscriminados (Gamma Ray, o simplemente GR) fue desarrollado hacia 1935 por la compañía Well Surveys de los Estados Unidos (después Dresser Atlas, luego Western Atlas y hoy Baker Atlas). Es un perfil que registra la radiación gamma natural en su conjunto, cuyo conteo se grafica en una pista de la hoja de perfiles en unidades API que se han definido como 1/100 del valor medido en una lutita bituminosa de Texas que da una muy fuerte emisión natural. El perfil de Rayos Gamma aumenta su conteo en función del aumento de uno o varios de los tres elementos radiactivos más comunes en la Tierra (19K40, 90Th232 y 92U238). Como ya se mencionó, el potasio está presente en mayor porcentaje en rocas ígneas ácidas, en arcillas, areniscas feldespáticas y metamórficas derivadas de estos grupos. El torio también está principalmente presente en rocas ígneas félsicas y en arcillas, así como en arenas monacíticas y metamórficas silíceas en general. Y el uranio además de estar en varias rocas ígneas y metamórficas, se asocia con depósitos sedimentarios propios de ambientes reductores: carbones, lutitas bituminosas, petróleo, así como fracturas con depósitos de bitumen. De todas estas opciones, la causa más habitual de aumento de rayos gamma en secuencias sedimentarias es la presencia del potasio en las arcillas (sobre todo K39 no radiactivo, pero también K40 emisor de radiación γ), por lo que el perfil de GR se emplea como indicativo de capas impermeables (arcillosas) versus permeables (si no son areniscas muy feldespáticas), constituyendo un perfil alternativo al Potencial Espontáneo (SP) cuando éste no da buenas respuestas (por bajo contraste de salinidad entre el lodo y el agua de formación).

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

La otra variante es el Perfil Espectrométrico de Rayos γ Naturales, que fue introducido en la industria durante la década de 1960. No emite, sino que sólo detecta la radiación gamma natural, pero, a diferencia del anterior, discrimina esta radiación en ventanas de energía, como ya fue explicado. La radiación menos energética corresponde al K40, centrada en 1,46 MeV, la siguiente es la que corresponde con el 83Bi214 (de la serie del U238) en torno a los 1,76 MeV, luego la del 208 81Tl (perteneciente a la serie del Th232) alrededor de 2,61 MeV, y más allá cae la radiación cósmica (ruido a los fines de la prospección geofísica) con unos 3 MeV. Esta herramienta se emplea para la distinción de mineralogías, por ejemplo calizas (generalmente pobres en elementos radioactivos) o rocas ígneas (con relativa abundancia de ellos). También para definir tipos de arcilla en función de la relación Th/K, utilizando gráficas específicas, y para detectar la presencia del uranio asociado con la materia orgánica.

Perfiles de rayos γ naturales: de izquierda a derecha, curvas de K+Th, Total (dejando en sombreado verde la diferencia correspondiente al U) y en el sector derecho las pistas individuales de K, U y Th

PERFILES DE DENSIDAD El Perfil de Densidad básico (en inglés Density Log, también llamado Gamma-Gamma) fue desarrollado por Dresser Atlas en 1954 y permite obtener valores de densidad y calcular porosidades a partir de ellos. La herramienta posee una fuente radiactiva, por ejemplo 55Cs137 que emite radiación γ a 0,66 MeV, y luego registra la radiación que logra retornar al detector. Esta última nos permite obtener una densidad muestreada en cada punto, que es proporcional a la densidad electrónica de la formación. Emisor y detector van sobre un patín apoyado en la pared del pozo. En rigor, desde hace muchos años se utilizan dispositivos de densidad compensada, que poseen dos detectores situados a distintas distancias del emisor, a fin de generar un promedio de lecturas para compensar los eventuales errores que podrían generarse por la interposición de lodo entre detector y roca, sobre todo en casos de cavernas. La velocidad del perfilaje debe ser baja (alrededor de 500 m/hora) para tener un conteo representativo resultante de promedios estadísticos, lo que aumenta su costo, y la profundidad de lectura es corta (de unos 15 cm).

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Las relaciones matemáticas empleadas son:

Cγ = Io. e

-µ µxδb

(Conteo γ por efectos Compton y Fotoeléctrico a partir de la Intensidad inicial de emisión, coeficiente atómico másico µ, la distancia fuente-receptor x y la densidad muestreada δb en cada punto de interés) Φ = (δm - δb) / (δ δm - δf) (Porosidad Φ a partir de las densidades de matriz, de fluido y muestreada en cada punto de interés) La porosidad calculada puede resultar errónea si hay un cambio litológico imprevisto. Si, por ejemplo, se calcula en base a una columna litológica clástica con cierta δm y aparece una intercalación de una caliza con porosidad secundaria, tal vez el resultado del numerador dé cero cuando con una adecuada densidad de matriz hubiese dado un cierto valor positivo y un resultado final distinto de cero. O bien, si existe una intercalación de lutitas con materia orgánica, su densidad será menor -por la presencia de cierta proporción de carbono en lugar de silicio- y supondremos que hay una porosidad interesante que en verdad no es tal. Otro caso particular está dado por los lodos densificados con baritina, que luego dan altas lecturas en las zonas de fracturas donde el BaSO4 se depositó. Una herramienta especial nos permite obtener el llamado Perfil de Litodensidad (Lithodensity Log), que utiliza una fuente con mayor rango de emisión energética, por ejemplo 27Co60 que emite rayos gama entre 1,17 y 1,33 MeV. De modo que luego se registra la radiación gamma que llega al detector en dos niveles de energía diferenciados, lo que permite estimar litologías en base a estos datos mediante el uso de diagramas (crossplots) diseñados a tal fin. Esto se agrega a los cálculos de densidad y porosidad, como en el perfil más básico. Las demás características de la herramienta y la profundidad de investigación son similares al caso anterior. Puede entonces calcularse: Σ = k. Pef. δe (Σ Σ es la sección eficaz de captura, k una constante, Pef el factor fotoeléctrico y δe la densidad electrónica) Y donde, a su vez,

δe = δb (2Z / A) (o sea que la densidad electrónica es función de la densidad muestreada δb y los números atómico Z y másico A)

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

PERFILES NEUTRÓNICOS Existen cuatro variedades de perfiles neutrónicos y todos ellos nos permiten calcular la densidad y la porosidad de las formaciones atravesadas por el sondeo, usualmente en combinación con el Perfil de Densidad antes descripto. Todos ellos poseen dispositivos de compensación de lecturas análogos a los que tienen los perfiles de densidad, su velocidad de perfilaje es baja y su profundidad de investigación también de unos 15 cm. La información registrada suele indicarse en unidades API: 1/1000 de una caliza radiactiva de Indiana (Estados Unidos). El Perfil Neutrónico Termal (Neutron Thermal Log) fue desarrollado por Dresser Atlas hacia 1938 y posee una fuente de 226 88Ra (alternativamente 94Pu239 ó 95Am246) emitiendo radiación α y γ, la cual bombardea átomos de 4Be9, por lo que éstos a su vez emiten una nube de neutrones (0n1) de energías intermedias (termales) y se transforman en átomos de 6C12: α,γ =>> 4Be --> 6C12+0n1

226 88Ra >> 9 4 4Be + 2He

=

9

Los neutrones son emitidos en el rango de energía epitermal (0.1 a 100 eV) y se registra en un rango energético menor (termal, en el orden de los 0,002 eV). Se lo emplea para calcular porosidades, basándose en el conteo de neutrones recibidos que disminuye con el aumento del llamado Índice de Hidrógeno. Este índice es función de la presencia de los átomos de hidrógeno (contenidos en el agua o los hidrocarburos), los cuales frenan a los neutrones enviados por tener una masa semejante. Es decir, a mayor cantidad de hidrógeno, menor conteo de neutrones y mayor porosidad. La pérdida de energía viene dada por: -∆E = 4Z/(1+Z) 2 El hidrógeno da cociente 1 (100%), pero otros elementos dan valores sensiblemente menores, tanto menos cuanto mayor sea el número atómico: un neutrón se amortigua más al chocar contra un protón (de similar masa) que contra un núcleo grande. Es habitual combinar el Perfil Neutrónico con el Perfil de Densidad -Perfilaje Sinergético-, donde el cruce de ambos suele indicar la presencia de gas (pista de

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

ΦN y ΦD en la figura siguiente). Esto es así porque en las capas gasíferas el neutrónico mide menos dado que disminuye el conteo de neutrones: el índice de hidrógeno es menor ya que existe una menor densidad de éste en el gas que en el agua o el petróleo. Pero, en cambio, el perfil de Densidad mide más porque por defecto se asigna en la fórmula de porosidad una densidad de fluido correspondiente al agua de formación (mayor que la del gas, de alrededor de 1,1), densidad que aparece restando en este caso por exceso en el denominador. Frente a las arcillas, en cambio, sólo sube la medida del perfil neutrónico, ya que el agua poral aumenta el índice de hidrógeno y por lo tanto el conteo de neutrones. También debe tenerse presente que los iones Cl- de las aguas del subsuelo capturan muchos neutrones, reforzando el efecto del hidrógeno, razón por la que finalmente resulta sobrestimada la porosidad formacional. El ejemplo presentado muestra curvas de SP y acústico; inducción profunda, media y enfocada; Th, U, K y factor fotoeléctrico; rayos γ totales, calibre del pozo y diámetro de trépano; porosidades D y N, e interpretación integrada.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

El Perfil Neutrónico Epitermal (Epithermal Neutron Log) es una alternativa, desarrollada una década más tarde, que emite energía como en el mismo nivel energético del anterior, pero que, a diferencia de aquel, registra también en el rango de las energías epitermales. Usado también para el cálculo de porosidades, utilizado en litologías complejas por su mejor respuesta ya que los neutrones con más energía son menos afectados por las variaciones de Σ y los cálculos de porosidad Φ son más valederos. Sin embargo, debe tenerse en cuenta que, tanto en este perfil como en el anterior, los iones Cl- de las aguas del subsuelo capturan muchos neutrones, razón por la que finalmente resulta subestimada la porosidad formacional. También esta variante del Neutrónico se combina con el Perfil de Densidad en el Perfilaje Sinergético. El Perfil Neutrónico-Gamma (Neutron-Gamma Log) emite neutrones epitermales, como los anteriores, pero recibe radiación γ que emite la formación como consecuencia del bombardeo de neutrones. Es otro perfil empleado para calcular porosidades, pero debe tenerse presente que los iones Cl- del agua de las formaciones emiten rayos γ propios y en consecuencia hacen sobrestimar la porosidad, al igual que resulta de los dos perfiles neutrón-neutrón. El Perfil Neutrónico Pulsante (Pulsed Neutron Log) desarrollado en 1963, tiene una fuente constituida por un acelerador de átomos de deuterio con los que se bombardea un blanco de tritio, a partir del cual se produce la emisión de pulsos de neutrones (unos mil por segundo a energías del orden de los 16 MeV). 2 3 1 H =>> H =>> 0n Se registran neutrones en una ventana temporal entre dos “compuertas” (tiempos de registro, usualmente entre unos 500 y 800µs) obteniéndose la correspondiente curva de descenso para cada punto muestreado a lo largo del pozo. El conteo de neutrones responde a la siguiente ecuación: -Σ Σv t Cn2 = Cn1. e n 2-1 (el conteo en un instante 2 se relaciona con el obtenido en un instante 1 según una exponencial decreciente donde Σ es la sección eficaz de captura, Vn la velocidad de los neutrones y t2-1 el intervalo de tiempo elegido) Se obtienen valores de la sección eficaz de captura (Σ Σ, que es la probabilidad de la interacción, función del átomo considerado y de la energía involucrada). Para los niveles de energía usuales en estos registros, en areniscas Σ varía entre 8 y 13 barn (1barn=10-28m2), en arcilitas de 20 a 40, en calizas de 8 a 10, y en reservorios de agua dulce o petróleo es de unos 20-25 barn. Este valor aumenta a medida que se incrementa la porosidad y asimismo con el aumento de la salinidad. Es un perfil especialmente indicado para correr a pozo entubado, lo cual puede hacerse junto con el perfilaje de calidad de la cementación. Pueden registrarse datos a dos profundidades de investigación distintas (G1 y G2 en la ilustración a la derecha, en cuentas por segundo), una de ellas mucho más larga que la convencional en perfiles radiactivos, lo cual brinda datos comparables con los de herramientas de resistividad (pista izquierda del ejemplo) y la convierte en una excelente información para la correlación entre pozos. La curva del tiempo de degradación termal τ (en microsegundos) surge de hacer: τ = 4,55 / Σ Es una excelente información para poder distinguir hidrocarburos de agua de formación , como se puede ver en

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

el ejemplo que sigue, adquirido en dos fechas distantes, con un cambio de la interfaz agua/petróleo producto de la explotación del recurso. A partir de los perfiles neutrónicos pulsantes también es posible obtener curvas de arcillosidad.

Ejemplo de Aplicación No Convencional: Se trata de la cuantificación de la compactación en un campo petrolífero del Mar del Norte, en algunos pozos testigo donde un cañón ha introducido tiempo atrás balas radiactivas a intervalos prefijados. Allí se procede a bajar cada cierto número de meses la herramienta de perfilaje con detectores de la radiación gamma: la fuerte señal de las balas indica inequívocamente su ubicación en profundidad, la cual se va modificando entre cada medición y la siguiente en función del grado de compactación que va ocurriendo por extracción de los fluidos del yacimiento.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

Evaluación Mineralógica Espectrométrica METODOLOGÍA

Cada uno de los elementos radioactivos presentes en las arcillas emite rayos gamma con un nivel de energía característico del elemento. Las herramientas espectrométricas, como el SPECTRALOG (SL, de Baker), clasifican los rayos γ naturales en ventanas de energía. De este modo identifican y cuantifican los tres elementos radioactivos principales presentes en la formación: torio, uranio y potasio. Dicho de otro modo, el nivel de energía de la radiación determina de qué elemento proviene y la cantidad de rayos por segundo determina la cantidad de dicho elemento presente en la formación. Por otro lado, los diferentes minerales de arcilla se caracterizan por un valor determinado de la relación Th/K. Entonces, a través de dicha relación se pueden clasificar y estimar porcentajes de abundancia de cada uno de dichos minerales. En la figura de abajo se puede ver cómo se ubican los diferentes tipos de arcillas en un diagrama torio-potasio. Los programas utilizados asumen que un determinado mineral puro es graficado sobre una única línea (valor único de relación Th/K) ubicada en el centro del sector que corresponde a dicho mineral (figura). Los puntos verdaderos (mediciones dadas por la herramienta) en general quedarán entre medio de dos líneas, y lo que hace el programa es calcular la proporción de cada uno de los minerales correspondientes a esas dos líneas en base a las distancias del punto a cada una de ellas. Existe la posibilidad de eliminar determinados componentes, de los cuales se tiene la certeza de que no se hallan presentes dentro de la formación analizada. Los programas también utilizan el factor fotoeléctrico, provisto por la herramienta de Lito-Densidad, a fin de discriminar entre sí a Relación Torio-Potasio para identificar tipos de arcillas aquellas arcillas que tienen valores similares de relación Th/K, como es el caso de la Esmectita y los Niveles Arcillosos Mezclados o “Mixed Layer Clays”. LIMITACIONES de las DETERMINACIONES

En la figura anterior se puede ver que todas las líneas correspondientes a los distintos minerales de arcilla convergen en el origen (cero de torio y cero de potasio). En este punto caería una arenisca cuarzosa limpia. Obviamente, cuanto más limpia sea la arenisca, tanto más se va a acercar al origen,

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

donde convergen todas las líneas. Esto hace que cualquier error de medición, aun pequeño, cause incertidumbre en la determinación del tipo de arcilla porque todas se juntan en el punto 0, 0. Dicho de otro modo, cuanto más limpia es la arena tanto mayor es la incertidumbre en la determinación del tipo de arcilla. Este hecho hay que tenerlo en cuenta si se quiere calibrar con corona pues normalmente éstas son sacadas en areniscas. Sin embargo en la Cuenca Golfo San Jorge hay un error más importante: las areniscas generalmente son lítico feldespáticas y por lo tanto presentan niveles de radioactividad natural en muchos casos similares y aún mayores que los de las arcilitas. El espectro de esta radioactividad de las areniscas, al ser analizado según un modelo diseñado para las arcillas, da resultados erróneos. Por todo lo antes mencionado, los resultados en las areniscas deben ser tomados con precaución. El tipo de arcilla presente en las mismas se debería inferir de las arcilitas vecinas. EJEMPLO DE ANÁLISIS DE RESULTADOS

En todo el intervalo registrado no se observan grandes variaciones en las curvas de Torio y Potasio, la misma observación se puede hacer mediante el diagrama o crossplot general (Fig. 6.1) donde se ve una única nube de puntos. Esto en principio permite inferir que no existen grandes variaciones del tipo de arcilla a lo largo de la columna. De los tres componentes radioactivos, la curva que muestra más variaciones es la de Uranio pues presenta zonas de valores altos que se dan siempre que el GR (registro de rayos gama naturales indiscriminados) presenta valores altos. Ejemplos: 385 a 400 mbbp, 640 a 675 mbbp, 1095 a 1100 mbbp, etc. Entonces se puede afirmar que el Uranio es el único elemento que causa los valores de GR anormalmente altos. Por encima de los 700 mbbp no se registró el perfil de Lito-Densidad, razón por la cual en este intervalo no se puede diferenciar entre Esmectita y Mixed Layer Clays. Por eso en la presentación gráfica aparece el componente llamado Mixed Layer./Esmectita: una combinación indefinida de ambos. Sin embargo, extrapolando el tramo que tiene todos los perfiles, se podría inferir que lo que más abunda dentro de esa combinación indefinida son los niveles arcillosos mezclados (Mixed Layer Clays). Análisis por unidades formacionales: Con el objeto de poder ver pequeñas variaciones en los tipos de arcillas asociadas a las formaciones perfiladas se desglosó el diagrama general en las siguientes unidades formacionales: Bajo Barreal Superior desde tope de registro hasta 925 mbbp Bajo Barreal Inferior desde 925 hasta 1258 mbbp Sección Tobácea desde 1258 hasta 1425 mbbp. Castillo desde 1425 mbbp hasta fondo del pozo En la figura anterior y en todas las que siguen se observa el mismo diagrama general, con la diferencia

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

de que las unidades formacionales se han codificado por colores. No se indican restricciones (constrains) en ningún caso. Se hicieron cuatro diagramas separados, uno por cada unidad, como se ve:

Estos diagramas confirman que las nubes de puntos correspondientes a las distintas formaciones caen todas en la misma zona; la excepción podría ser Castillo (en la última figura) pero no se puede asegurar ni negar pues el pozo penetra muy poco en dicha formación y la nube de puntos correspondiente se hace dispersa debido a la poca cantidad de datos. 11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 9(b) Radiometría de Pozo, Evaluación Mineralógica Espectrométrica

Chelotti, L., Acosta, N., Foster, M., 2009

APLICACIONES PRÁCTICAS DE LA INTERPRETACIÓN DE TIPOS DE ARCILLAS EN RESERVORIOS DE ARENISCAS: Diseño de sistemas de estimulación con ácidos Con la determinación de las propiedades litológicas y mineralógicas y con el reconocimiento de los distintos modelos litológicos que componen los materiales intersticiales finos y los clastos de los reservorios arenosos es posible establecer una metodología de trabajo a emplear en operaciones de estimulación ácida cuyo objetivo sea la remoción de partículas arcillosas que obturan gargantas porales (daño de formación). Una vez determinados los componentes de la roca es posible establecer un criterio que permita optar por un sistema de estimulación que no afecte la calidad del reservorio, establecer de antemano el comportamiento y la respuesta de los modelos frente a una estimulación ácida. Generalmente los sistemas de estimulación de este tipo están compuestos por combinaciones de HCl-FH. En reservorios con alto contenido de caolinita, para poder utilizar HCl-FH, sería importante también emplear agentes quelantes y secuestrantes de Fe, como EDTA, ácido cítrico o acético. La presencia de caolinita permite inferir migración de finos, siendo ésta la principal responsable de estos procesos migratorios. Para su eliminación se utiliza ácido HF, el cual disuelve la caolinita y genera ácido fluorosilícico. Al2Si2O5(OH)4 + 24HF => 2H2SiF6 + 9H2O + 2H3AlF6 Caolinita Ac Fluorosilícico Ac Fluoroalumínico Se debe tener cuidado con los subproductos como el Fluosilicato de Sodio o de Potasio, dado que el ácido fluorosilicico sigue reaccionando con los otros minerales presentes en la roca o con los cationes presentes en agua de inyección. 2 Na+ + H2SiF6 => Na2SiF6 + 2 H+ 2 K+ + H3AlF6 => K2AlF6 + 3H+ No se aconseja la utilización de ClNa en conjunción con el lodo ácido o “mud acid” (HCl-HF) ya que produce precipitados gelatinosos insolubles. Se recomienda para la estimulación la utilización de estabilizadores de arcilla en base a cationes multivalentes como aluminio o circonio. -Reservorios que con componentes en la matriz principalmente esmectíticas producen un intercambio catiónico, por ejemplo con aguas de inyección, pudiendo llegar a expandirse y reducir considerablemente el volumen poral. En caso de inyección de agua para recuperación secundaria se recomienda el monitoreo continuo mediante estudios de compatibilidad de agua dados los inconvenientes que ocasionaría la dilución de agua de inyección debido a mezclas con aguas de distinta salinidad. La presencia de importantes cantidades de illita, la cual posee propiedades migratorias, generalmente ocasiona obturamientos de gargantas porales. CUESTIONARIO BÁSICO - ¿Qué información da el perfil de rayos gamma totales y cuándo se los utiliza? - Describir los datos aportados por el perfil espectrométrico y sus aplicaciones. - ¿Qué perfiles de densidad y neutrónicos pueden correrse en pozos petroleros, qué emiten y reciben, y qué información brinda cada uno? - Comentar la utilidad del perfil sinergético. - ¿Cómo tipificamos las arcillas mediante los diagramas de Th/K, y qué limitaciones puede haber? - Comentar las aplicaciones prácticas en pozos de la determinación de arcillas atravesadas. BIBLIOGRAFÍA - Western Atlas, 1994. Introducción al Perfilaje de Pozos (varios capítulos). - Schlumberger, 1972. Interpretación de Perfiles (varios capítulos). - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

PROSECCIÓN GEOTÉRMICA Los primeros aprovechamientos de aguas termales para calefacción y baños públicos datan de los tiempos de Griegos y Romanos. Los hamams (baños turcos) fueron popularizados en Anatolia durante el Imperio Otomano y desde el siglo XVIII se explotaron en Italia los soffioni (venteos de vapor de agua hirviente) para la obtención de ácido bórico y amoníaco. El Conde de Rumford (Benjamin Thompson) hacia 1800 y James Joule hacia 1850, ambos en Gran Bretaña, fueron los primeros en comprender los procesos calóricos de la materia. A partir de datos de perforaciones es conocido el hecho de que la temperatura se incrementa en alrededor de 3,3ºC cada 100 metros a medida que se profundiza, lo cual fue medido en un pozo por primera vez por el Lord Kelvin (William Thomson, británico) en 1869. Este valor medio se va reduciendo en función del incremento de profundidad, como resultado de lo cual se estima una temperatura de unos 1400ºC en la base de la litosfera y del orden de los 5000ºC en el centro de la Tierra. El gradiente de temperatura terrestre es conocido como gradiente geotérmico (de thermós, caliente en griego): G = dT/dz o bien, integrando: G = Tf-Ts / z (si tenemos las temperaturas de superficie y fondo de pozo y su profundidad z) G puede variar significativamente en la corteza según las condiciones geológicas presentes, sobre todo en continentes (por tipos de roca, fenómenos de oxidación, yacimientos radiactivos, acuíferos en movimiento, glaciaciones, cercanía de lagos, tasa de sedimentación o erosión, etc.) yendo desde 0,05 hasta 0,55ºC/m y en sectores de actividad volcánica puede ser bastante superior. Es más homogéneo en los fondos marinos. También varía con la profundidad, definiendo una geoterma (curva de gradiente geotérmico) característica de cada lugar, cuya mensura se denomina geotermometría. A partir de los estudios pioneros del escocés James Maxwell (1871) en relación con la segunda ley de la termodinámica, puede definirse el flujo total de calor que asciende hacia la superficie en cada sitio como una cantidad denominada flujo calórico o térmico: Q = k .dT/dz es decir, el producto del gradiente geotérmico por una constante k (que recibe el nombre de conductividad térmica) cuya magnitud varía según la constitución de las rocas y sus contenidos porales. Despejando, k = Q .dz/dT Entonces, si se toma un gradiente de temperatura igual a 1, resulta k = Q, lo que en unidades del SI significa que la conductividad térmica es la cantidad de calor que fluye en un segundo a través de un área de un metro cuadrado en un lugar en el que el gradiente es de 1ºC/m. De hecho las unidades en el SI quedan finalmente en: ºC/m para G, W/ºCm para k, W/m2 para Q También se utiliza para Q el HFU (Heat Flow Unit) = 40 mW/m2 (recordar que W = J / s y que J = N. m) En el sistema CGS, G se da en ºC/cm, k en ucal/ºC cm s, y Q en ucal/cm2 s (una caloría es la cantidad de calor requerida para elevar en 1ºC 1gr de agua, o bien 4,186 J).

Flujo Térmico en la Tierra Sólida Si bien la energía solar recibida es cuatro órdenes de magnitud mayor que la energía geotérmica total, la mayor parte es vuelta a irradiar (albedo) y, si bien la porción retenida es todavía muy significativa, ésta sólo controla 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

los procesos a nivel de la atmósfera e hidrósfera. La razón por la que su influencia en la corteza terrestre resulta despreciable es la muy baja conductividad térmica de las rocas. Las variaciones diurnas de temperatura afectan sólo hasta unos 20 cm (menos de 1ºC a 1 m de profundidad), las variaciones estacionales influyen hasta pocos metros bajo tierra y a pocas decenas de metros los cambios llegan con más de un año de retraso. Es por esto que el gradiente geotérmico obedece casi exclusivamente al flujo térmico del calor interno del planeta y su propagación se efectúa por conducción, convección o advección. La propagación por conducción (interacción electromagnética a nivel molecular) ocurre en el núcleo interno y en la corteza terrestre, aunque también en el núcleo externo y manto. Los procesos de convección (movimiento masivo de las moléculas mismas por calentamiento o enfriamiento) son los encargados de incrementar en varios órdenes de magnitud la propagación térmica en el núcleo externo (de comportamiento fluido) y en el manto (plástico) con un sistema convectivo muy eficiente hasta los 670 km de profundidad y otro mucho más viscoso y lento en el manto inferior. La advección es un modo especial de convección, cuando una región es levantada por eventos tectónicos y acerca a la superficie rocas cuyas temperaturas corresponden a zonas más profundas, las cuales toman un largo tiempo en equilibrar sus valores térmicos. (El proceso de propagación térmica por radiación electromagnética sólo se da en las envolturas fluidas de la Tierra en las que domina la energía solar, esto es, atmósfera e hidrósfera, donde suceden también la convección y la advección). A la derecha, gráfica de temperatura estimada del interior terrestre. La curva solidus indica la temperatura de fusión, que naturalmente se cruza con la de temperatura estimada en el núcleo externo. Abajo el mapa de flujo térmico superficial a escala global, donde se han omitido detalles de cada región de la Tierra.

Las causas del calor interno del planeta son: -El calor original, en progresiva disminución, debido a la energía de la acreción gravitacional durante la formación del planeta, a lo que se sumó el posterior movimiento de elementos pesados, como el hierro, hacia el centro de la Tierra, fenómeno bautizado como “la catástrofe del hierro”. Representa el 20% del total actual. -El flujo térmico debido a la desintegración de minerales radiactivos (principalmente U, Th y K), que se estima haya sido 3 ó 4 veces superior en tiempos primigenios, correspondiendo el 17% del total a emisión cortical y sólo el 20% a emisión desde el núcleo de la Tierra. Actualmente es responsable de más del 70% del calor total producido. -La energía térmica provocada por el hundimiento por densidad diferencial posterior a la permanente cristalización gradual de minerales del núcleo. -La energía generada por el efecto de frenado gravitacional con la Luna y en menor medida con el Sol (mareas terrestres) que produjo el incremento del período de rotación de la Tierra. 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

Medición del Gradiente Geotérmico Pueden utilizarse termómetros de mercurio (con registro de temperatura máxima), pero lo más común es el uso de termistores (diafragma termoneumático con lectura dada por una célula fotoeléctrica). Los fondos marinos usualmente están cubiertos por sedimentos blandos por lo cual, salvo casos excepcionales, no se utiliza un equipo de perforación especial, sino sondas que se dejan caer libremente por su propio peso y penetran algunos metros, para así obtener al menos dos datos de temperatura, uno en el extremo inferior y otro más arriba, y de ello calcular un gradiente. La sonda de Maurice Ewing (a la derecha) es una de las más conocidas. (Ewing y Heezen en 1953 descubrieron la Dorsal Centroatlántica.) En continentes se pueden hacer mediciones en pozos perforados a tal fin, los que por motivos de costos normalmente son de escasa profundidad. Es usual taladrar pozos a una profundidad de entre 2 y 5 metros en forma manual o más raramente perforar decenas de metros con equipos especiales. En ellos se suele introducir una delgada sonda de acero (1 a 2 cm de diámetro) por la que se bajan los termistores a diferentes profundidades, rellenándose el espacio anular remanente con los sedimentos del lugar. Debe esperarse suficiente tiempo para que las temperaturas alcancen su máximo, equivalente al estado de terreno virgen, o bien hacerse las correcciones que correspondan. En todos los casos el incremento de confiabilidad en los valores puede conseguirse con la repetición de las mediciones, además de los lógicos recaudos de buen funcionamiento de la técnica utilizada. Otra opción, válida tanto en continentes como en mares, es valerse de perforaciones que se realizan con otros fines, sea hidrológicas, mineras, petroleras, etc. El caso más habitual es el de los pozos petroleros donde se pueden tener datos de temperaturas de ensayos de formación, o bien desde los perfilajes, a veces en varios tramos, e incluso mediante un registro corrido en el sondeo a tal fin. Ensayos: Arrojan valores similares a los del terreno virgen, dado que se aisla un tramo de pozo a fin de permitir el aporte de fluidos formacionales que luego de un corto tiempo salen con la temperatura original, ya sin la disminución provocada por el lodo de perforación. Perfilaje: Las temperaturas de fondo de pozo que se obtienen en cada carrera con un termómetro (con registro de máxima) siempre miden por defecto, dado el enfriamiento que el lodo ha producido en el pozo durante la perforación. Si bien durante el perfilaje la circulación se ha detenido, toma muchas horas volver a los valores de terreno virgen a lo largo del pozo. Es por esto que en cada carrera sucesiva se verá un incremento de temperatura mientras no se baje la sarta de perforación para volver a circular lodo.

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

En este caso se puede graficar temperatura de fondo versus tiempo transcurrido desde que se paró de circular y construir aproximadamente la curva de recuperación térmica que tiende asintóticamente al valor original en roca virgen (figura precedente). Así, para obtener el gradiente geotérmico debemos restar a esa temperatura original estimada la temperatura media anual del lugar y dividir por la profundidad del pozo. Pero si en cambio tenemos sólo un valor de temperatura de perfilaje (porque sólo se hizo una carrera) entonces para tener un gradiente aproximado corresponde dividir por la temperatura al momento del perfilaje (si es que se tiene el dato) dado que el valor de fondo está más influenciado por la temperatura a la que se enfría el lodo en superficie que la media anual. Pero este resultado dará un gradiente menor al real (en el orden de los 0,005”C/m en menos). Datos por Tramos: Si un pozo se ha perforado en dos o tres tramos (con entubación y reducción de diámetro de trépano en cada parte) seguramente se habrán hecho carreras de perfilaje en cada uno de esos tramos y por lo tanto se tendrán temperaturas de dos o tres fondos distintos y con ellas se podrán calcular dos o tres gradientes desde superficie hasta cada una de tales profundidades, o bien los gradientes para cada tramo individual. Si se hacen estos cálculos usualmente se comprobará que el gradiente puede variar de un tramo a otro, lo cual es función de diversos factores litológicos, hidrodinámicos, etc. Esto dará una geoterma característica del sitio donde se ha perforado el sondeo. Perfil de Temperatura: También pueden efectuarse perfilajes de temperatura, los cuales van arrojando valores a pequeños intervalos de profundidad y así se obtendrá toda una curva de variación del gradiente con la profundidad, aunque estos valores también estarán afectados por el enfriamiento debido al lodo de perforación.

Medición de la Conductividad Térmica Pueden obtenerse valores de conductividad térmica de tablas para distintas litologías en diferentes condiciones de yacencia, pero el margen de error puede ser grande. También se pueden tomar valores de áreas aledañas si la columna litológica es suficientemente parecida. Lo más recomendable es obtener muestras de las rocas –al menos de las más representativas o abundantes en la zona en estudio- y calcular en laboratorio su conductividad térmica con dispositivos como el del inglés C. Lees (1892), mejorado por el australiano A. Beck (1957), que se esquematiza en la siguiente figura a la izquierda.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

En los continentes y también en el fondo del mar pueden utilizarse sondas tipo aguja que pueden atravesar sedimentos duros, se le transmite una predefinida cantidad de calor y se mide el aumento de temperatura mediante un termistor incorporado a la aguja, como se ve en la figura anterior a la derecha. A continuación una lista de valores de conductividad térmica de ciertas rocas, sedimentos, minerales y fluidos, variables pero notoriamente más bajos que el valor de referencia citado: el cobre.

Cálculo del Flujo Calórico Una vez obtenidos datos de gradiente de temperatura y de conductividad térmica se puede calcular el flujo térmico o calórico, sea como estimación general o bien con valores mapeables. La representatividad de los resultados estará en función de la abundancia y certidumbre de los datos utilizados. A escala global, debido al ascenso mantélico que las genera, las dorsales oceánicas son las regiones de mayor flujo calórico, como se ilustra en la figura a la derecha. Pero otras regiones también son relevantes, como las zonas de convergencia entre placas tectónicas y los puntos calientes (hot spots) en los que ascienden lavas desde zonas profundas del manto terrestre. Sobre los continentes en general el flujo térmico es menor, pero existen numerosas zonas en las que éste es muy significativo.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

Anomalías Geotérmicas Las anomalías de alto flujo térmico pueden tener un origen químico, radiométrico, mecánico o más frecuentemente magmático, pero la presencia de vías preferenciales de propagación del calor –como rocas permeables o fracturas abiertas- también influyen en la magnitud relativa de su manifestación subsuperficial. Existen yacimientos geotérmicos abiertos (con aguas termales superficiales, fumarolas, geisers u otras manifestaciones volcánicas) y yacimientos cerrados, a los que sólo se alcanza mediante perforaciones de las cuales se obtiene agua caliente o vapor. La estructura y geodinámica terrestre definen dos clases de regiones que determinan sendas formas principales de explotación de la energía geotérmica. La primera corresponde a regiones donde la corteza posee un comportamiento relativamente estable, como el que ofrecen las plataformas continentales. En ellas existen áreas semitérmicas que presentan concentración de calor con flujos que tienen gradientes del orden de los 30 a los 50º C por kilómetro de profundidad. Si en estas regiones hay estructuras favorables y se las perfora adecuadamente, se pueden obtener fluidos de moderada temperatura, de unos 50 a 100º C. Los reservorios están constituidos por formaciones permeables -con buena porosidad primaria o con procesos secundarios de fisuración o disolución- que contienen agua líquida o vaporizada, usualmente cargada de sales y distintos gases. Se los conoce como yacimientos cerrados o de baja entalpía (bajo intercambio energético). Abarcan vastas zonas del planeta y casi siempre se trata de cuencas sedimentarias vinculadas con zonas fracturadas por donde ascienden a las aguas que se calentaron por efecto de anomalías térmicas de origen profundo. La segunda clase abarca las zonas activas, ubicadas en los límites de placas, divergentes, convergentes o transcurrentes. El emplazamiento de cámaras magmáticas a niveles poco profundos de la corteza permite la concentración de flujo de

calor, incrementándose el gradiente geotérmico hasta valores muy altos, con temperaturas de 150 a 300º C a profundidades de 500 a 2000 m. Conforma los yacimientos abiertos o de alta entalpía y, aunque sólo se limita a ciertos sectores de la corteza, su interés económico es mayor, dada la alta transferencia de calor y su accesibilidad. De este tipo son las manifestaciones geotérmicas como las del parque nacional de Yellowstone en los Estados Unidos. La propagación del calor acumulado puede alcanzar zonas de gran contenido hídrico y producir la consiguiente transferencia energética a la masa ácuea, dando origen a la conformación de reservorios naturales. Las profundidades de interés van de 500 a 2000 metros y el rango de temperaturas entre 150 y 300º C. El aprovechamiento de estos flujos térmicos deriva en distintas aplicaciones prácticas rentables. Pero, incluso si esto último no ocurre, la sola variación del gradiente geotérmico puede ser indicación de diversas situaciones de interés prospectivo. 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

Prospección Geotérmica En primera instancia, las anomalías térmicas pueden estudiarse con objetivos académicos a fin de obtener un mejor entendimiento de la geología y pueden con ello llegar a contribuir indirectamente a diversas aplicaciones prácticas. Pero también puede buscarse una aplicación directa. Debe tenerse presente que para muchos fines prospectivos es suficiente con un mapeo de gradientes geotérmicos relativos, es decir que, como en otros métodos geofísicos, se puede prescindir de valores absolutos, dado que lo más significativo es disponer de los datos de variaciones térmicas areales (o verticales en un pozo). En otras palabras, los errores del método pueden no invalidar el trabajo siempre que sean más o menos constantes o la magnitud de su variación esté por debajo de las diferencias de magnitud de interés prospectivo. Un campo geotérmico es un sistema natural que permite la extracción de aguas a alta temperatura y se compone de una fuente térmica, un reservorio, una recarga hídrica y un sello. Las aplicaciones económicas se valen de perforaciones para el aprovechamiento industrial de sus minerales disueltos, calefacción, explotaciones turísticas (balneología), generación de energía eléctrica, uso energético de reservorios de roca seca y caliente, etc. La primera central geotérmica comenzó a funcionar en 1913 en Larderello (Toscana, Italia) y los Estados Unidos hicieron lo propio años más tarde en la zona de geyseres de California. También Filipinas, México, Japón y Nueva Zelanda tienen importantes aprovechamientos. E Islandia (foto siguiente a la derecha) se encuentra en un 99% calefaccionada geotérmicamente. En Argentina, en el campo geotérmico Copahue (foto a la izquierda), fue puesta en funcionamiento en 1988 una central piloto que genera energía eléctrica mediante el empleo de vapor de agua del subsuelo. Hay tres pozos perforados y se calefaccionan las viviendas y la calle principal del poblado. Corresponde a un área de alta entalpía.

En la prospección de campos geotérmicos pueden emplearse métodos electromagnéticos de corrientes naturales (magnetotelúricos), en función de modelos de conductividad eléctrica contrastante entre las rocas con fluidos líquidos y aquellas con vapor. También se puede recurrir a la sismicidad natural -si, como suele suceder, el yacimiento geotérmico se encuentra emplazado en un área sísmicamente activa-. En este caso la indicación de su existencia viene dada por la atenuación de las ondas cuando éstas deben atravesar reservorios de vapor, tal como se puede ver en el

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

modelo de la figura a la derecha, en California, que fue construido en base a este tipo de información. Luego, en exploración avanzada, suelen hacerse pozos de gradiente a unos 100 metros de profundidad para definir el área de mayor interés. La anomalías geotérmicas también pueden tener vinculación con la presencia de ciertas mineralizaciones de interés prospectivo, además de los minerales que pueden contener sus aguas. En el caso de los yacimientos petrolíferos, éstos suelen relacionarse con incrementos geotérmicos, debido a que las vías migratorias de los hidrocarburos son también eficientes conductos de calor. Un mapeo geotérmico puede ayudar a decidir dónde perforar en busca de petróleo y gas.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

El ejemplo de la página precedente muestra la coincidencia aproximada entre la ubicación del área de yacimiento de San Sebastián y la zona de máximo térmico superficial (obtenido de datos de sondeos de sólo 2 metros, corregidos por la curva de variación estacional con la profundidad, como puede verse). También, en un yacimiento en producción, pueden establecerse vínculos térmicos entre los reservorios de los distintos pozos, lo cual puede contribuir en un proyecto de recuperación secundaria u otras operaciones. El valor de gradiente geotérmico actual es asimismo un dato importante para retroproyectar los datos geohistóricos y ajustar los modelados geoquímicos de maduración y expulsión de los hidrocarburos desde las rocas madre hacia las rocas reservorio, en el sentido del ruso Nikolai Lopatin (1971). Las figuras siguientes ilustran información de un modelado para la zona central del flanco norte de la cuenca Golfo San Jorge. Se grafica la temperatura y reflectancia de vitrinita en un pozo, el mapa de gradiente en una zona en torno al mismo y la historia de madurez allí calculada.

En la página siguiente los mapas resultantes de un modelado geohistórico a escala de toda la cuenca, más el mapa de distribución de facies sedimentarias de la Fm Pozo D-129 (generadora) y su coetánea Fm Matasiete.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

Las dos últimas figuras muestran un corte sur-norte en el flanco norte central, con la cronología (timing) de generación y expulsión de hidrocarburos y el modelo geológico-térmico a tiempo actual.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 10 Prospección Geotérmica

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO - Definir geoterma, conductividad térmica y flujo calórico. - ¿De qué modos podemos medir gradientes y conductividades térmicas? - ¿Cuál es el origen del calor terrestre, cómo se transmite y cómo varía hacia el centro del planeta? - ¿Qué son los yacimientos geotérmicos abiertos y cerrados? - Citar aplicaciones prospectivas de los datos geotérmicos. - ¿Qué beneficios nos dan los datos geotérmicos en exploración y desarrollo petrolero?

BIBLIOGRAFÍA - Fowler, C., 1990. The Solid Earth (p.219-274). Cambridge University Press. - Lowrie, W., 1997. Fundamentals of Geophysics (p.178-202). Cambridge University Press. - Poirier, J., 2000. Introduction to the Physics of the Earth Interior (p.230-243). Cambridge University Press. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Smith, P., 1975. Temas de Geofísica (p.112-182). Editorial Reverté. - Vericat Raga, J., 1962. Introducción a la Geofísica (p.61-79). Ediciones Omega.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

SISMOLOGÍA E INTERIOR TERRESTRE Las ondas sísmicas (del griego seismos, sacudida) son perturbaciones elásticas que se propagan de un punto a otro a través de un medio. La mayoría se originan naturalmente por la liberación de energía provocada por los desplazamientos bruscos sobre superficies de falla provocados por la movilidad de la corteza y manto superior de la Tierra, mucho más frecuentes en límites corticales entre placas tectónicas -principalmente si éstos son convergentes o transcurrentes-. También generan sismicidad los movimientos de magma (intrusivos o extrusivos), deslizamientos superficiales, impactos de meteoritos, movimientos de masas de agua superficiales o profundas, abruptos cambios de fase, vientos potentes y diversas causas humanas. Esta liberación de energía se conoce como sismo o terremoto (del latín, movimiento de tierra), el lugar donde sucede en el subsuelo se llama foco o hipocentro y su proyección a la superficie se conoce como epicentro. La energía se desplaza en forma de frentes de onda (figura siguiente a la izquierda), pero por practicidad suelen referirse los rayos sísmicos, esto es, las infinitas trayectorias normales a los frentes de onda, como se ve a la derecha. Cuando sucede bajo el mar puede a veces producir maremotos o tsunamis (en japonés tsu, 津, puerto; nami, 波, ola), debidos al desplazamiento de la masa de agua en el fondo marino, con velocidades superficiales de 700900 km/h y un máximo de 10 m de altura en mar abierto y de hasta más de 40 m al llegar a la costa. En las imágenes, línea costera antes y después del tsunami de Banda Aceh (Indonesia) en 2004. Los sismos fuertes van seguidos de réplicas, que son sismos menores cuya intensidad y frecuencia van reduciéndose a lo largo de las semanas. Son causados por movimientos de ajuste en el subsuelo. Las ondas sísmicas también pueden ser generadas artificialmente de modos muy diversos, lo cual es rutina en los trabajos de prospección sísmica. 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

MAGNITUDES ELÁSTICAS En un medio elástico la deformación desaparece cuando se le quita la fuerza que la produce. La Tierra se comporta como un medio elástico para la propagación de las ondas sísmicas, hecho observado por vez primera por el inglés Williams Hopkins en 1847, dado el rango de amplitudes y frecuencias involucrado (con altas velocidades y corta longitud de onda). Para formular una teoría para la propagación de ondas en un medio, necesitamos antes formular una relación entre esfuerzo y deformación. Para pequeñas deformaciones, la ley de Hooke dice que la deformación es linealmente proporcional al esfuerzo: Esfuerzo = E x Deformación (siendo E la constante de proporcionalidad) Las constantes elásticas más importantes son cuatro: 1-Módulo de Young (por Thomas Y., inglés, 1810), es la constante de la Ley de Hooke, la que vincula el esfuerzo y la deformación: E = (∆F/A) / ( ∆L/Lo) (donde ∆F/A es la fuerza por unidad de área, ∆L el cambio de longitud del cuerpo y Lo la longitud original) 2-Módulo de Poisson (por Simeon P., francés, 1831), relación entre la deformación transversal ∆W/W y la longitudinal ∆L/Lo: σ = -(∆W/Wo) / (∆L/Lo)

3-Módulo de Lamé (por Gabriel L., francés, 1850), de corte, cizalla o rigidez (shear modulus), resistencia al cambio de forma sin cambio de volumen: µ = (∆F/A) / ϑ (donde ∆F/A es la fuerza tangencial por unidad de área y ϑ es la tangente del ángulo de desplazamiento) 4-Módulo de Incompresibilidad o volumétrico (bulk modulus), resistencia al cambio de volumen sin cambio de forma: K = ∆P / (∆V/Vo) (donde ∆P es el cambio de presión, ∆V es el cambio de volumen y Vo es el volumen inicial) Para un medio isotrópico (donde las propiedades son las mismas medidas en cualquier dirección) hay solamente dos constantes elásticas independientes: la de Lamé y la de Incompresibilidad. ONDAS SÍSMICAS Amplitud A, fase φ, período T (o su inversa, la frecuencia f) y longitud de onda λ (o su inversa, el número de onda K) son elementos básicos de toda forma ondulatoria. La amplitud de una onda seno en un punto i es: Ai = Ao sen (ω.t – K.x) (siendo Ao la amplitud original, con la pulsación ω = 2Π.f y la constante de propagación K = 2Π /λ λ) Otra relación matemática fundamental de onda es: V = f .λ λ

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Hay varios tipos de ondas sísmicas, cualquiera sea su origen: 1) Ondas Internas (body waves): Generadas en el hipocentro, se propagan a través del interior del planeta. Su existencia fue predicha matemáticamente por Simeon D. Poisson en 1831 en conjunto con su teoría fundamental sobre ondas elásticas. Fueron confirmadas por el inglés Richard Oldham en 1897, quien además propuso la existencia del núcleo terrestre. Pueden ser:  Longitudinales, primarias o compresionales (push-pull waves u ondas P): el movimiento de las partículas está en la misma dirección que la propagación de la onda. Poseen altas velocidades y son las más utilizadas en prospección sísmica. Típicamente transitan de 400 a 900 m/s en la capa meteorizada, de 1800 a 4500 m/s a en cuencas sedimentarias, 5000 o más en rocas ígneas poco profundas, 1500 en al agua y 331,6 m/s en el aire (velocidad del sonido o Mach 1, por Ernst Mach que la estudió en Austria hacia 1880). Su velocidad es: _________________ Vp = √ (K+ (4/3)µ) / δ ( δ es la densidad)  Transversales, secundarias, de corte o cizalla (shear waves u ondas S): el movimiento de las partículas es perpendicular a la dirección de propagación de la onda. Vs ≈ 0,7 Vp, y resulta de: _______

Vs = √ µ / δ

2) Ondas Superficiales (surface waves): Se generan al llegar las ondas P y S a la superficie. Su amplitud es aún mayor que la de las ondas S, lo que las convierte en las más destructivas durante los terremotos, y su velocidad es aproximadamente 0,9 Vs. Pueden ser:  Rayleigh (por Lord R, llamado John Strutt, inglés que las predijo en 1885) o Ground Roll (en la jerga sísmica): polarizadas verticalmente, poseen un movimiento elíptico y retrogrado.  Love (predichas por el inglés Augustus L. en 1911): vibran de manera transversal, polarizadas horizontalmente.  Stonley (por Robert S., inglés, 1925) u Ondas Tubo (tube waves): se propagan en el límite entre dos medios de muy diferente densidad, sobre todo en el contacto sólido-fluido, con movimiento elíptico retrógrado. Típicas en pozos petroleros. Ahora podemos reformular los módulos elásticos a partir de Vp y Vs: Volumétrico: K = δ.Vp2 – 4/3 Vs2 Lamé: µ = δ.Vs2 Poisson: σ – (Vp/Vs)2 – 2

Young: E = 3Kµ / 3K+µ = 2µ (1 + σ)

2

2 (Vp/Vs) – 2

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

A continuación se adjuntan tablas de valores representativos de módulos elásticos y velocidades sísmicas.

LEYES DE PROPAGACIÓN DE ONDAS La propagación de las ondas está regida por las siguientes leyes fundamentales: - Principio de (Pierre) Fermat (francés, 1670): todo rayo en un medio sigue la trayectoria que invierte menor tiempo. - Principio de (Christiaan) Huygens (holandés, 1670): Cada punto de un frente de ondas se convierte en emisor de un nuevo frente de ondas en todas direcciones. Todos estos nuevos frentes se integran en uno único mientras el medio de propagación sea homogéneo. En un medio isótropo el frente de ondas es esférico. Si el medio es anisótropo el frente de onda se deforma. Y si encuentra heterogeneidades genera difracciones. - Ley de (Willebrord) Snell (holandés, 1621): los rayos incidente y refractado y la normal a la superficie en el punto de incidencia están en un mismo plano. La relación entre los senos de los ángulos incidente (i) y de refracción (r) medidos entre los rayos y la normal es constante entre dos medios e igual a la relación de velocidades de la onda entre uno y otro medio, constante que conocemos como índice de refracción n. n = sen i / sen r sen i / sen r = V1 / V2 Esta ley es muy importante, ya que los métodos sísmicos se basan en que la velocidad de las ondas elásticas es diferente para rocas diferentes. FACTORES QUE AFECTAN LA PROPAGACIÓN DE ONDAS Los principales factores que afectan la propagación de las ondas sísmicas en un medio son: • Absorción o Atenuación inelástica: Es la pérdida de energía de la onda debida a la fricción entre granos de la roca y que se convierte en calor. Está en relación directa con la compactación y resulta: Ai = Ao.e-q.r (siendo Ao la amplitud o intensidad inicial, r la distancia recorrida y q el coeficiente de absorción, en dB/λ) • Divergencia esférica: es la distribución de la energía inicial focal (teóricamente puntual) en una superficie cuasi-esférica cada vez mayor. Representa la disminución exponencial de la relación energía/área.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

• Difracciones: análogamente a los fenómenos ópticos, son consecuencia del Principio de Huygens y se producen por heterogeneidades laterales (fallas, cambios bruscos de buzamiento, terminaciones rocosas subhorizontales, etc.).

• Dispersión: los cambios de la frecuencia producen variaciones en la velocidad de las ondas, ya que existe una dependencia física. Una gran disminución de frecuencia produce una pequeña reducción de la velocidad. (Es el mismo efecto que sufre la luz cuando separa sus colores en un prisma: para cada frecuencia, distinta velocidad y, por lo tanto, distinto ángulo de refracción.) • Desperdigamiento (Scattering): el choque de las ondas con partículas menores produce ondas pequeñas que propagan energía en todas direcciones. • Conversión de modo de ondas: Cuando una onda P que viaja a través de un medio llega a una interfaz con un ángulo de incidencia menor que 90 grados, parte de su energía es reflejada, parte es transmitida y otra parte se convierte en ondas S. Los ángulos con que cada rayo de onda P y S reflejada y transmitida viajará por el medio están dados por la ley de Snell.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

IMPEDANCIA ACÚSTICA Y COEFICIENTES DE PROPAGACIÓN El inglés Cargill Knott en 1899 desarrolló la teoría sobre reflexión y refracción sísmica. La Impedancia acústica Z es la dificultad que opone un medio al paso de las ondas sísmicas y resulta del producto entre la velocidad de propagación de la onda y la densidad del medio: Z=V.δ La magnitud de los contrastes de impedancia entre dos medios adyacentes se mide en términos de coeficientes de reflexión y refracción (o transmisión) y nos da información de las interfaces del subsuelo. El coeficiente de reflexión para incidencia vertical CRi+1 = (Zi+1 - Zi) / (Zi+1 + Zi) en una interfaz es: El coeficiente de transmisión o refracción vertical está dado por: CTi+1 = 1 - CRi+1 = 2Zi / (Zi+1 + Zi) Pueden calcularse los coeficientes de reflexión para casos no verticales mediante la ecuación aproximada de Hilterman (1990): CR = [(Zi+1 - Zi) / (Zi+1 + Zi)] cos2θ θ + 2,25 ∆σ . sen2θ θ (donde θ es el ángulo de incidencia y σ el módulo de Poisson) Pero el abordaje riguroso de todos los casos posibles, a partir de los cálculos de Cargill Knott, fue desarrollado desde 1907 por Emil Wiechert en Alemanía, con ecuaciones a las que el también alemán Karl Zoeppritz dio forma definitiva en 1909, siendo las más generalmente empleadas para expresar las relaciones entre las energías reflejadas y refractadas cuando ocurre la partición de la energía involucrando ondas P y S. Son las siguientes: (Ap1 -1) sen2θp1+ (Vp1/Vs1) As1.cos2θs1 = -(δ δ2Vs22Vp1/ δ1Vs12Vp2) Ap2. sen2θp2 + (δ δ2Vs2Vp1/ δ1Vs12) As2.cos2θs2 (Ap1 +1) cos2θs1- (Vs1/Vp1) As1. sen2θs1 = (δ δ2Vp2/ δ1Vp1) Ap2. sen2θs2 + (δ δ2Vs2/ δ1Vp1) As2. sen2θs2

(donde A son las amplitudes, θ los ángulos de emergencia y V las velocidades para las ondas p y s en los medios 1 -reflexiones- y 2 -refracciones-, y δ las densidades en los medios 1 y 2) Los cuatro gráficos adjuntos representan los resultados de la partición de la energía para distintos ángulos, dada una cierta relación entre las impedancias acústicas de los medios en contacto.

MEDICIÓN DE LOS SISMOS Sismógrafos y Sismómetros: Los sismógrafos son instrumentos ideados para graficar sismos y así poder evaluar su intensidad, duración, características de las ondas, distancia de origen, etc. En rigor llamamos sismógrafo a la parte graficadora del instrumento y sismómetro al mecanismo que se mueve en relación al suelo durante un sismo, proporcionalmente a su magnitud.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Pero el primer aparato referido en la historia fue un sismoscopio (no graficaba ni mensuraba el sismo, sólo daba la dirección del movimiento) y fue ideado en China por Chang Heng en el año 132. Como se ve a la derecha, el mecanismo era tal que una bola caía desde la boca de uno de los dragones hacia la de alguno de los ocho sapos distribuidos alrededor de la vasija. Mucho más tarde, hacia el siglo XVII en Europa se aplicó esta idea llegada desde China, pero en forma menos artística y más pragmática: recipientes con canaletitas, conteniendo mercurio, hacían las veces de sismoscopios. El primer prototipo de sismómetro lo debemos al francés Jean de Hautefeuille, en 1703. Y en 1761 el inglés John Mitchell construyó un sismoscopio de péndulo, base del sistema moderno.

En 1855 el italiano Luigi Palmieri ideó un sismómetro que incluía un sistema eléctrico y un reloj que permitían conocer el instante inicial y el tiempo total del sismo. En 1875 otro italiano, Filippo Cecchi, construyó el primer sismómetro con dos péndulos, uno N-S y otro E-O, sistema que se siguió aplicando desde entonces. En 1892 el inglés John Milne junto con Ewing, Gray y Omori desarrollaron en Japón el primer sismómetro vinculado a un sistema de graficación tipo tambor (figura arriba a la derecha), que constituyó el modelo base de todos los sismógrafos modernos En 1906 el ruso Boris Galitzin incorporó un sistema de registro galvanométrico en papel fotosensible. En 1925 Wood y Anderson desarrollaron en California un sismógrafo (figura siguiente) cuyo sismómetro funcionaba con un sistema de torsión. Y sucesivos avances técnicos se produjeron en los años siguientes, especialmente desde el advenimiento de los registros digitales. Escalas de Medición: La energía liberada en sismos naturales puede medirse alternativamente con dos escalas: Escala de Mercalli (por Giusseppe M., italiano, 1885): da una magnitud que para un mismo terremoto es variable geográficamente en función de la percepción del evento, va de 1 a 12, grado 1 prácticamente imperceptible, grado 12 destrucción total. Está basada en las escalas previas del también italiano Rossi y del suizo Forel.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Escala de Richter (por Charles R., estadounidense, 1935, quien la desarrolló con la colaboración de Beno Gutenberg sobre el modelo de sismógrafo de Wood y Anderson): da una magnitud que es función de la energía liberada en el foco del terremoto. Cada punto es diez veces mayor al anterior o una décima del posterior en la escala, que resulta de: M = log A + 3 log (8∆ ∆t) - C A (mm) es la amplitud máxima de la onda S, ∆t (s) es la diferencia de tiempo entre el primer arribo de las ondas S y el primero de las ondas P, y C es una constante de ajuste para cada tipo de sismógrafo. En la actualidad se utiliza en realidad una escala que se denomina de Momentos Sísmicos, en la que la magnitud de un terremoto resulta de mensurar parámetros como el desplazamiento del plano de falla durante el evento, la extensión de dicho plano y el tiempo de duración del sismo. El resultado es muy parecido al de la escala de Richter.

Para calcular la distancia desde un observatorio al foco de un movimiento sísmico, se parte de medir los tiempos de arribo de las primeras ondas P y S, que se sabe son iguales al cociente entre distancia y velocidad:

tp = r / Vp

y

ts = r / Vs

por lo que: ts - tp = r/Vs - r/Vp

y entonces: r = (ts – tp) / (1/Vs - 1/Vp)

Las figuras de arriba esquematizan la determinación geográfica de un hipocentro a partir de datos registrados en tres observatorios sismológicos. La figura de la derecha expresa la nomenclatura gráfica para distintos tipos de movimientos sísmicos de planos de fallas. TECTÓNICA DE PLACAS Y RIESGO SÍSMICO El meteorólogo alemán Alfred Wegener publicó en 1915 “Die Entstehung der Kontinente und Ozeane”. Su teoría de la deriva continental (inspirada por los hielos de Groenlandia, donde años más tarde falleció) fue documentada desde 1927 por el sudafricano Alexander Du Toit y el inglés Arthur Holmes. En base a esto más el mapeo de los fondos oceánicos impulsado por la Guerra Fría, en 1960 en los Estados Unidos Robert Dietz, Bruce Heezen, Harry Hess, Maurice Ewing y Tuzo Wilson propusieron la Tectónica de Placas, concepto fundamental de la moderna concepción geológica y geofísica de la corteza y el manto terrestre. 8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

El siguiente planisferio muestra la distribución de la sismicidad, la cual está predominantemente concentrada sobre límites convergentes entre placas tectónicas corticales.

Aquí algunos sismos relevantes en la historia en escala de Momentos (entre paréntesis eventos estimados): 9,5 Valdivia, Chile, 1960 (>>9,0 Thera, Grecia, -1400) (>>9,0 Krakatoa, Indonesia, 1883) 9,2 Banda Aceh, Indonesia, 2004 9,2 Prince William, Alaska, 1964 9,1 Andreanof, Alaska, 1957 (>9,0 Lisboa, Portugal, 1755) (≈9,0 Assam, India, 1897) 9,0 Kamchatka, Rusia, 1952 8,8 Pacífico, Ecuador, 1906 8,7 Kuriles, Rusia, 1958

Abajo, mapa de riesgo sísmico de la Argentina y gráfico del “Gran Terremoto Argentino” de 1894.

---------------------------------------------------------

(8,2 Jáchal, San Juan, Arg., 1894) 7,4 Caucete, San Juan, Arg., 1977

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Arriba, fotografía aérea de la falla de San Andrés y a la derecha mapa (en escala de Mercalli) del potente terremoto de 1906.

A la izquierda histograma de distribución de energía sísmica total acumulada por año (en ergios) según su rango de magnitud M. Debe tenerse presente que los sismos de menor magnitud ocurren con mucho mayor frecuencia, aunque sin embargo no logran acumular tanta energía como los de mayor envergadura. DISCONTINUIDADES INTERNAS DE LA TIERRA El estudio de los arribos de las ondas sísmicas a distintos observatorios sismológicos del mundo en ocasión de cada terremoto a lo largo de más de un siglo ha permitido elaborar un modelo bastante preciso del interior de nuestro planeta. Se conviene en hacer la siguiente clasificación de terremotos: -de origen superficial, hasta 70 km de profundidad, en el dominio frágil de la litosfera, -intermedios, de 70 a 250 km, en el dominio principalmente plástico del manto superior, dentro del cual se sumergen las cortezas oceánicas subductadas, -profundos, de 250 a 670 km, en el manto medio, donde todavía las placas oceánicas no han sido totalmente asimiladas al manto. Por debajo de los 670 km no ocurren más sismos, lo que se interpreta como un cambio de fase y quizás también composicional, con posible enriquecimiento de hierro y sílice, más un pasaje a otro sistema convectivo independiente para el manto inferior. Estas tres categorías representan, respectivamente, el 85, 12 y 3% del total, como se evidencia en el histograma de la derecha.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Los límites entre las zonas con distinta composición mineralógica o distinto estado fisicoquímico se denominan discontinuidades y han sido detectados a partir de la alteración del curso de las ondas sísmicas de cuerpo (P y S), tanto por los cambios de velocidad como por la refracción y reflexión que dichos límites ocasionan en los frentes de onda (o su correlativa visualización mediante rayos). En las figuras siguientes puede visualizarse la nomenclatura empleada para las trayectorias sísmicas, así como la conformación de zonas de sombra (con pocos arribos sísmicos desde un foco dado) y de puntos cáusticos (aquellos donde los rayos se concentran).

Esta es una brevísima síntesis del hallazgo de las discontinuidades principales de la Tierra, debajo de los límites con la atmósfera e hidrósfera: -Andrija Mohorovicic, croata, 1909, límite Corteza (rocas silíceas) - Manto (silíceas más densas), a una profundidad desde menos de 5 km (bajo la hidrósfera, en corteza oceánica) hasta más de 70 km (bajo la atmósfera en corteza continental). -Beno Gutenberg, alemán, 1912 (a partir de los estudios del inglés R. Oldham en 1906), límite Manto-Núcleo (composición metálica, mayoritariamente hierro), a unos 2900 km bajo el nivel del mar. -Emil Wiechert, alemán, 1936 (basado en la investigación de la danesa Inge Lehman), límite entre los Núcleos Externo e Interno (similar composición, en estado fluido y sólido, respectivamente), a unos 5100 km de profundidad. La sismología y otras informaciones geofísicas han permitido construir las siguientes gráficas del interior de nuestro planeta.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Tanto las ondas P como las S incrementan en general su velocidad con la profundidad, pero ambas disminuyen esta magnitud al atravesar la Astenósfera (capa plástica del Manto Superior, desde 100 ó 200 km hasta 400 km bajo el nivel del mar). Luego las ondas P alcanzan su valor máximo en la base del Manto Inferior (unos 14600 m/s) y disminuyen mucho al entrar al núcleo externo, para volver a aumentar en el núcleo interno. Las ondas S no atraviesan en absoluto el núcleo terrestre y esto sólo puede explicarse por una composición fluida, dado que sus oscilaciones en dirección perpendicular a la de avance necesariamente se anulan cuando el esfuerzo de corte es nulo, siendo ésta la principal evidencia del estado físico del núcleo externo de la Tierra. APLICACIONES DE LA SISMOLOGÍA Naturalmente la sismología, en tanto rama de la geofísica pura, es empleada como herramienta indirecta -como es siempre la geofísica- para el conocimiento del interior de nuestro planeta. Es la mejor de todas las herramientas geofísicas y, de hecho, nos ha brindado la mayor parte del conocimiento que tenemos sobre la Tierra por dentro, sea desde sismogramas convencionales, sea a partir de imágenes elaboradas de velocidades sismológicas (mapas o cortes) para distintas profundidades mantélicas. Pero también puede dar aplicaciones prácticas de tipo prospectivo. Esto es así en áreas de frecuente sismicidad donde la información que se puede obtener es abundante. En esos casos, si se dispone de una adecuada red de sismógrafos portátiles y un razonable tiempo de espera para obtener una cantidad crítica de datos, pueden estudiarse los tiempos de arribo, amplitudes, frecuencias y otros parámetros de las ondas. Entonces, a partir de esos estudios pueden sacarse conclusiones sobre aspectos geológico-económicos del subsuelo.

La investigación de riesgo sísmico y eventual predicción estadística de la sismicidad futura (con todo el impacto humanitario y económico que esto conlleva) es el primer objetivo de los estudios sismológicos, lo cual se ilustra con este ejemplo de modelado de datos en Japón. También la evaluación de áreas de vapor geotérmico o yacimientos de gas (ver figura de la siguiente página), a través de los cuales las ondas compresionales resultan fuertemente atenuadas (no en cambio las de corte, que pasan sin atenuarse), permitiendo entonces planificar la explotación más adecuada.

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

Por último, algunos ejemplos de mapas y cortes a escala global de la variación de las velocidades de las ondas transversales a creciente profundidad en el manto terrestre. Este tipo de datos resulta indispensable para poder hacer modelados de la geodinámica en el manto superior, lo cual permite, a su vez, entender mejor la tectónica de las placas de la corteza y los fenómenos sísmicos asociados en cada región.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 11 Sismología e Interior Terrestre

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO -Citar las tres leyes fundamentales que rigen la propagación de ondas. -Graficar los tipos de ondas generados cuando una onda P que viaja en un medio de velocidad V1 incide con un ángulo determinado en una capa de velocidad V2. -¿Cuáles son las causas de los terremotos y cómo son registrados?, ¿qué ondas tienen mayor amplitud? -¿Puede un sismo de valor alto en escala de Richter percibirse suavemente?, ¿y si es alto en la escala de Mercalli? - Definir los cuatro coeficientes elásticos más importantes. -¿Qué factores afectan la propagación de las ondas sísmicas? - Expresar matemáticamente los coeficientes de reflexión y refracción o transimisión. - ¿Cuáles son las principales discontinuidades de nuestro planeta?, ¿qué evidencian las ondas transversales? - Mencionar aplicaciones de la sismología.

BIBLIOGRAFIA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.183-203). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.76-118). Cambridge University Press. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists. - Udías y Mezcua, 1997. Fundamentos de Geofísica (p.141-269). Alianza Editorial.

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFRACCIÓN La aplicación prospectiva del método de sísmica de refracción fue iniciada por Ludger Mintrop en Alemania en 1914, el método fue aprovechado para fines bélicos (estimación de la distancia de emplazamiento de los cañones enemigos) y, tras la Primera Guerra Mundial, Mintrop y su equipo comenzaron a aplicarlo con éxito en la exploración petrolera del Golfo de México y otras latitudes. Pero la primera aplicación documentada de este método es aún anterior y tuvo lugar en el observatorio sismológico de Zagreb (Croacia) donde, tras un sismo muy fuerte ocurrido en 1909, se estudiaron los tiempos de llegada de las ondas sísmicas a otros observatorios de países cercanos. Se observó entonces que, a partir de cierta distancia, las primeras ondas llegaban anticipadamente respecto a lo esperado en su viaje por el camino más corto (a no mucha profundidad dentro de la Tierra). La conclusión del trabajo fue que, a partir de dicha distancia particular, las primeras ondas en llegar eran las que habían descendido, se habían refractado con el ángulo crítico en una interfaz de fuerte contraste de impedancias acústicas y había viajado por dicha interfaz pero con la velocidad del medio infrayacente. Para finalmente ascender y llegar hasta cada observatorio lejano anticipándose al más lento viaje de las ondas directas (que iban con la velocidad del medio más cercano a la superficie), según se esquematiza en las siguientes figuras. El sismólogo era Andrija Mohorovicic’ y esa interfaz fue la primera de importancia encontrada en el interior terrestre: la discontinuidad corteza-manto que ahora conocemos abreviadamente como “el Moho”.

Abajo, hipocentro, algunas trayectorias de rayos directos y otras refractándose en el Moho y eventualmente emergiendo. Arriba gráfica tiempo-distancia: la recta de la izquierda conecta puntos en los que el primer arribo sísmico es el directo; la recta de la derecha, aquellos donde el primer arribo es el que viaja por el Moho y emerge.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

Prospección Sísmica de Refracción: El método se basa en el registro de los frentes de onda, generados por una fuente artificial de energía, leyendo en los registros los tiempos de los primeros arribos (first breaks). Éstos pueden deberse a la onda directa o bien a aquellas ondas que se refractan en el subsuelo con el ángulo crítico, viajan por la interfaz con la velocidad del medio infrayacente y retornan hacia la superficie como ondas frontales (head waves). El método se aplica siempre que se encuentren medios con impedancias acústicas (Z=ρ.V) contrastantes, con la condición esencial -dada por la Ley de Snell- de que el segundo medio sea de mayor velocidad de tránsito que el primero. La figura a la derecha muestra tres ángulos de incidencia alternativos: en (a) hay reflexión y refracción en profundidad; en (b) hay reflexión y refracción crítica (por la interfaz); en (c) sólo reflexión. Véase la condición matemática del caso (b) y el detalle gráfico de la generación de la onda frontal que permite el registro mediante este método prospectivo. La profundidad de investigación a la que se puede prospectar es aproximadamente 1/3 de la longitud del tendido de los sismómetros en superficie. El objetivo es determinar espesores de las capas del subsuelo, sus buzamientos y las velocidades de propagación de las ondas sísmicas en cada una de ellas. El instrumental necesario para emplear este método consiste básicamente en alguna fuente de energía (de impacto, explosivo, vibrador, cañón de aire, etc.), receptores o sismómetros (geófonos en tierra, hidrófonos en el mar, en ambos casos de muy pequeño tamaño) y un sismógrafo donde acondicionar, grabar y graficar la información. El tópico relativo al instrumental empleado se aborda con algún detalle en el Tema 13. Los datos de sísmica de refracción adquiridos en el campo se representan mediante el trazado de una dromocrona (del griego dromos, carrera, y chronos, tiempo), una gráfica tiempo-distancia con rectas como las dibujadas por Mohorovicic’, con el suficiente número de puntos para cada tramo correspondiente a cada una de las interfaces refractoras buscadas. En las gráficas dromocrónicas se registran las primeras llegadas de las ondas P a los receptores (primer arribo o first break) y se representan en función del tiempo y la distancia. Esto nos define puntos, cada uno de los cuales nos indica la existencia de medios con impedancias acústicas diferentes. La pendiente de estas rectas representa la inversa de la velocidad en cada medio. La base del método es la extensión a las ondas sísmicas de la Ley de Snell. Se trabaja con los primeros arribos de los frentes de onda sísmicos, los cuales incluyen a los siguientes tipos de ondas compresionales o P:  Directas  Reflejadas  Frontales, refractadas con el ángulo crítico  Aéreas, que viajan a la velocidad del sonido en el aire Y otras, entre las cuales es importante un tipo de onda superficial, las de Rayleigh (ground roll) Aquí el caso más sencillo de dos medios horizontales con velocidades constantes: E: R: V1 : V2 : ER = x EAR: EBCR: ED = h

punto de emisión o fuente punto de recepción o registro velocidad en el medio 1 velocidad en el medio 2 recorrido directo recorrido reflejado recorrido refractado crítico espesor del medio 1

El tiempo de llegada para la onda directa es: t = x / V1 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

Su representación gráfica en función de x será una línea recta que pasa por el origen, que es el punto correspondiente a la fuente, con la pendiente 1 / V1. El tiempo de llegada para la onda reflejada es: t = (EA / V1) + (AR / V1) = 2 EA / V1 y EA = h² + (x / 2 )² siendo h el espesor del medio con V1, por lo que: t = (2 / V1) . (h² + x² / 4) que resulta ser la ecuación de una hipérbola (curva de trazos en la siguiente figura) El tiempo de llegada para la onda refractada es: t = (EB / V1) + (BC / V2) + (CR / V1) = 2 (EB / V1) + (BC / V2) si DB = CF = h .tg ic, resulta que BC = x – 2h .tg ic, siendo por otra parte EB = h / cos ic Entonces puede escribirse que: t = (2h / V1 cos ic) + (x / V2) - (2h .tg ic / V2) Empleando las conocidas relaciones de: tg ic = sen ic / cos ic y sen² ic + cos² ic = 1 y sabiendo que: sen ic = V1/ V2 llegamos a la expresión final: t = [2h (V2² - V1²)1/2 / V2.V1] + [x / V2] que representa la ecuación de una recta con pendiente 1/V2. De hecho, si derivamos dt/dx = 1/V2 Esta es la representación en un grafico tiempo versus distancia: En este ejemplo la onda reflejada llega más tarde que la onda directa. En general la velocidad de la onda directa es baja debido a que transita por la capa meteorizada, pero la onda reflejada que aquí se representa es la que rebota en la base de esa misma capa, y por lo tanto se mueve con igual velocidad que la de la onda directa. También se representan las trazas sísmicas y sus ruidos. En la expresión final de tiempo arriba escrita, podemos hacer x = 0, o sea tomar la ordenada al origen (que se denomina tiempo de intercepción, to) y entonces despejamos la profundidad: h = to. V2.V1 / (V2² - V1²)1/2 Es muy importante tener presente que el tiempo de intercepción resulta gráficamente de la prolongación de la recta 1/V2 hasta el eje de ordenadas, con lo cual eliminamos uno de los términos de la expresión final antes citada, justamente el que contiene x, y simplificamos los cálculos. Pero este artilugio matemático, si bien útil, no tiene realidad física, debido a que en la práctica 1/V2 es una semirrecta que parte desde el punto de la distancia crítica (T en la dromocrona de arriba, correspondiente a una distancia R) y a su izquierda no hay trayectoria refractada posible dado un cierto ángulo de incidencia crítico para el caso que se considere. Definimos consecuentemente la distancia critica como la mínima distancia a la cual podemos poner un sismómetro para que reciba la onda frontal (head wave). Para su cálculo igualamos las ecuaciones que corresponden a la onda directa y reflejada, con lo cual obtenemos: xc = 2h . tg ic y finalmente podemos llegar a: xc = 2h / [(V2 / V1)2 – 1]1/2 de donde también podemos despejar la profundidad h.

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

La primera trayectoria de onda refractada que puede existir es aquella en la que, tras incidir en el medio 2 con el ángulo crítico, el recorrido por la interfaz es infinitesimal, generándose de inmediato la trayectoria frontal, caso que resulta prácticamente igual al de una trayectoria reflejada en ese mismo punto. En la gráfica es el camino PBR, que resulta tangente en T a la hipérbola de la onda reflejada (curva de trazos). De una dromocrona podemos entonces obtener los siguientes datos:  Las velocidades correspondientes a cada medio.  La profundidad o espesor desde la superficie. Y hemos visto como, tanto con xc como con to, podemos obtener h (profundidad), utilizando la ecuación que corresponda en cada caso. Pueden obtenerse ambas y promediarse o bien sólo aquella que nos parezca más confiable en función de los datos registrados. La xc suele ser una medición más exacta que el to, pero esto no siempre es así. A la derecha un ejemplo con tres medios superpuestos, donde: t = [2h1(V3² -V1²)1/2/ V3.V1] + + [2h2(V3² -V2²)1/2/ V3.V2] + [x /V3] h2 = {to2 – [2h1(V3² -V1²)1/2/ V3.V1]} V3.V2/ / 2 (V3² - V2²)1/2 xc = 2[h1.V1/(V3² -V1²)1/2 + h2.V2/(V3² -V2²)1/2]

Abajo sismograma o registro de campo resultante de un caso similar. Si generalizamos para casos de muchas capas horizontales, resulta: n-1

t = (x /Vn) + (2 /Vn) Σ hi (Vn² -Vi²)1/2/ Vi i=1

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

 Resolución de capas inclinadas Sean dos estratos de velocidades V1 y V2 separados por un contacto inclinado (figura de la derecha, parte inferior). Para definir el contacto bastará situar dos puntos del mismo. Si establecemos que la velocidad y la pendiente del refractor son constantes, la única manera de determinar las incógnitas que se presentan es mediante la adquisición de un perfil y contraperfil, como se esquematiza desde A hacia D y desde D hacia A. En la figura superior vemos las dromocronas resultantes del perfil y del contraperfil, dibujadas especularmente. Allí resulta que la pendiente de V1 es la misma, pero la de V2 difiere entre la obtenida en el perfil, que va en el sentido ascendente de la interfaz refractora (V2a), y la del contraperfil, en sentido descendente (V2d). Ambas velocidades son aparentes, no reales, y la V2a es mayor que la V2d. Además vemos que los puntos de cruce también difieren: en sentido ascendente tardamos más en llegar a él, dado que en el punto A la profundidad es mayor que en D. Con las notaciones de la figura escribimos ahora las ecuaciones del tiempo en los puntos de recepción, en los sentidos ascendente (a) y descendente (d): T2a = (AB/V1) + (BC/V2) + (CD/V1) T2d = (DC/V1) + (CB/V2) + (BA/V1) Naturalmente, el viaje total es el mismo y, como se ve en la figura, T2a = T2d Las velocidades aparentes en uno y otro sentido serán: V2a = V1 / sen (i – α) V2d = V1 / sen (i + α) Como V2 = V1 /sen i entonces V2a > V2 > V2d (cuando α = 0 las tres serían iguales)

α = ángulo de buzamiento i = áng. de incidencia y emergencia

Con los datos obtenidos de las dromocronas (V1, V2a, V2d, inversas de sus coeficientes angulares) podemos calcular i1 y α1, ya que tenemos dos ecuaciones y dos incógnitas, resultando: i = [arc sen (V1/V2a) + arc sen (V1/V2d)] / 2 α = [arc sen (V1/V2d) - arc sen (V1/V2a)] / 2 En las ecuaciones de los tiempos ascendentes y descendentes hacemos x=0 y tenemos:

to2a (i) = 2 Z1.cos i / V1 to2d (i) = 2 z1.cos i / V1

to2a y to2d se obtienen de las dromocronas prolongando las rectas hasta la ordenada al origen, V1 se calcula también desde la gráfica, i es un dato calculado previamente, Z1 y z1 son las incógnitas a despejar. Después, con α podemos calcular las profundidades: H1 = Z1 / cos α h1 = z1 / cos α

El perfil y el contraperfil deben registrarse en la dirección de máximo buzamiento si se quiere obtener su valor real. En caso de no conocerse tal dirección -y siempre que ese dato sea necesario en función del objetivo del trabajo- deben realizarse dos perfiles y contraperfiles con rumbos perpendiculares entre sí y luego se podrá calcular la inclinación real a partir de las inclinaciones o buzamientos aparentes.  Generalización para dos o más refractores Para el cálculo de dos refractores se calcula previamente el primer refractor con las formulas correspondientes, de esta manera se conocerá la V1, la pendiente α, las profundidades y el ángulo límite. Puede hacerse una simplificación, haciendo que el ángulo de buzamiento del primer estrato sea igual a cero. Para más refractores se prosigue del mismo modo. 5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

CASOS ESPECIALES  Capa de baja velocidad intercalada: Es la primera de dos situaciones en las que una capa puede resultar omitida (hidden layer). En este caso la Ley de Snell indica que no hay refracción crítica y esta inversión de velocidades no puede detectarse (figura a la derecha). La capa es ignorada y el espesor total desde su base hasta la superficie resulta sobredimensionado.  Capa delgada sobre un medio infrayacente mucho más veloz: En este caso la capa delgada puede resultar omitida si el camino refractado críticamente por la base de la capa (con la velocidad mucho mayor de la infrayacente) resulta de menor tiempo que el camino por su techo, en cuyo caso este último nunca es primer arribo y por lo tanto no resulta visible (figura de abajo a la izquierda). La capa es ignorada y el espesor total desde su base hasta la superficie resulta subdimensionado.

 Cambio lateral de velocidad En este caso, como ocurre con las capas buzantes, la verificación surge de hacer perfil y contraperfil. Pero ahora las velocidades no son aparentes sino reales, sólo que no proceden de estratos más profundos sino de la misma profundidad. La dromocrona muestra en uno de los sentidos una velocidad más lenta a continuación de una más rápida, y al revés en el sentido contrario (véase la última figura a la derecha en la página anterior).  Caso de una falla Si el refractor conserva la misma inclinación a ambos lados de la falla, las dromocronas se componen de dos rectas paralelas separadas un cierto intervalo de tiempo ∆t; de esta manera las fallas se deducen por la simple observación de las dromocronas conjugadas por los desplazamientos casi paralelos que se notan en ellas. 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

PRINCIPIOS GENERALES DE INTERPRETACIÓN 

Ley de Snell

 Regla de las Velocidades Aparentes: Las velocidades obtenidas de las dromocronas no son reales sino aparentes cuando la capa buza, variables según el sentido y la magnitud del buzamiento.  Principio de Reciprocidad: es una consecuencia directa del principio de Fermat o del mínimo recorrido y establece que el tiempo de propagación de la onda sísmica de un punto A a otro B es el mismo que el de B hasta A.  Principio del tiempo interceptado en el origen: si prolongamos las dromocronas correspondientes al perfil y contraperfil hasta que corten al eje de tiempos, los tiempos interceptados en el origen son iguales.  Principio del Paralelismo: conocida la dromocrona correspondiente a dos puntos conjugados de tiro, permite reconstruir la dromocrona que se obtendría desde un punto de tiro intermedio cualquiera sin necesidad de efectuar el disparo.  Métodos de interpretación: utilizan los tiempos de llegada desde puntos de explosión conjugados y reconstrucción de los recorridos de los rayos refractados (situación del refractor por puntos). Algunos de ellos son: -Tiempos de Retraso (Delay times) o Método de Gardner. -Por frentes de ondas. -Método de Sumación, en el que nos independizamos de la velocidad de la capa sub-meteorizada, como se ve en la siguiente figura. Es un método muy empleado para mapear el espesor de la capa meteorizada, lo cual, entre otras aplicaciones, es muy empleado como método auxiliar de la sísmica de Reflexión, para obtener información con la cual hacer las Correcciones Estáticas, tópico que abordaremos en el Tema 15.

 Corrección de Cota: es una necesidad en la mayoría de los casos y se realiza, relevamiento topográfico mediante, en base a las consideraciones trigonométricas deducidas de una situación de campo como la que se esquematiza a la derecha. Para hacerlo debe elegirse un plano de referencia (datum).  Capa Irregular: cuando la interfaz tiene buzamiento muy variable. El abordaje es más complejo, aunque sobre los mismos principios. 7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

 Dromocronas Verticales (Upholes): Consisten en registros realizados desde pozos perforados a tal fin, con el objetivo de definir con la mayor precisión posible la posición y velocidad de la capa meteorizada y de la sub-meteorizada, tal como muestra la siguiente figura. Se las suele aplicar como complemento de los registros típicos hasta acá vistos obtenidos sólo desde superficie -llamados dromocronas horizontales-, sobre todo como complemento para las correcciones de la Sísmica de Reflexión.

APLICACIONES DE LA SÍSMICA DE REFRACCIÓN Fue el primer método aplicado en prospección sísmica y ha dado muchos buenos resultados en todo el mundo, desde los primeros domos salinos en Texas. Una de las aplicaciones más importantes ha sido la de conocer la profundidad del basamento ígneo o metamórfico de las cuencas sedimentarias, donde la velocidad de tránsito es mucho mayor que en las rocas suprastantes. Incluso es útil para mapear las cuencas, destacando sus depocentros, áreas marginales, estructuras mayores y principales fallas, a veces en combinación con datos obtenidos a partir de métodos potenciales (gravimetría, aeromagnetometría, S.E.V. profundos). Dentro de una cuenca se puede también hacer la determinación de las velocidades interválicas y puede entonces obtenerse una ley de velocidades, es decir, una sucesión de datos de velocidad de las capas -o de los tiempos de tránsito de las ondas a medida que las atraviesan- en función de su profundidad. Esto puede hacerse a escala de todo el espesor de cuenca, a una escala menor e incluso con un detalle de pocos metros de profundidad, según sea el objetivo planteado. Tiene la limitación de que no todas las interfaces pueden seguirse claramente sobre un perfil y que todas las capas deben tener velocidades crecientes a mayores profundidades. Si esto no ocurre se produce la omisión de capas y se determinan espesores por exceso de otras, tal como vimos antes. Aquí un caso en correspondencia con una perforación para evaluar el emplazamiento de un supercolisionador.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

A la derecha otro ejemplo para aplicaciones geotécnicas, en el que vemos ya el resultado final de la interpretación realizada, donde las velocidades altas se asocian con la presencia de niveles de basaltos a distintas profundidades y con variable extensión lateral.

Otras numerosas aplicaciones del método de sísmica de refracción existen a muy diferentes escalas para hidrogeología (basamentos o techo y base de acuíferos) o para prospección en actividades mineras, ya sea en rocas ígneas, metamórficas o sedimentarias. Un caso de empleo para espesores aluvionales se ejemplifica en las figuras siguientes.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

También se recurre a los métodos de refracción para arqueología (ruinas enterradas), ingeniería civil (fundación de diques, puentes), trabajos medioambientales y otros. Puede aplicarse también en el mar, emitiendo energía desde una fuente sumergida desde un barco y registrándola en hidrófonos conectados por cable o bien en sonoboyas (con sonar para medir profundidad) que enviarán la información por radio cuando los perfiles son muy largos, tal como muestra la siguiente ilustración.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

El siguiente es un ejemplo complejo a través de la cordillera californiana, donde se atraviesa una falla compresional que desplaza una interfaz bastante inclinada.

Pero el mayor empleo mundial de la sísmica de refracción, lejos, ha sido en el cálculo del espesor y velocidad de la capa meteorizada para con esos datos poder aplicar las correcciones estáticas de la sísmica de reflexión profunda. En el mapa de la página siguiente, correspondiente a un prospecto de sísmica reflectiva tridimensional, se han localizado los emplazamientos de las dromocronas horizontales (segmentos de puntos blancos), que eventualmente podrán resolverse por sumación u otros métodos, y también sitios en los que se registrarán dromocronas verticales (puntos rojos) que, si bien tienen el mayor costo de la perforación, proveen una información más precisa y confiable desde donde extender las interpretaciones para una cobertura areal.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 12 Sísmica de Refracción

Chelotti, L., Acosta, N., Foster, M., 2009

Estos trabajos son especialmente utilizados con fines de prospección y desarrollo de yacimientos de hidrocarburos.

CUESTIONARIO BÁSICO - ¿Qué discontinuidad se descubrió con sismología de refracción?, ¿cómo? - ¿Qué información debemos leer en las dromocronas para poder calcular profundidades y qué datos alternativos tenemos? - ¿Cómo procedemos cuando sospechamos que existe buzamiento de capas? - Citar y explicar las limitaciones del método. - Si se quiere registrar una capa horizontal que se encuentra a aproximadamente 800 m, ¿cual debe ser la longitud aproximada del tendido de receptores? - ¿Qué es una dromocrona vertical? - ¿Qué aplicaciones no petroleras tiene la sísmica de refracción? - Citar las aplicaciones del método en la prospección de hidrocarburos.

BIBLIOGRAFIA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.204-234). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.119-1329. Cambridge University Press. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.85-104 y 133-145). Editorial Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

INSTRUMENTAL SÍSMICO Y MEDIOAMBIENTE Ya sea que se trabaje en prospección sísmica con el método refracción o bien con el de reflexión, que se verá en los siguientes temas, se requiere de alguna fuente de energía artificial, de receptores o sismómetros apropiados y de un sismógrafo donde grabar y eventualmente graficar los datos a fin de controlar su calidad. En general el equipamiento de sísmica de refracción es más sencillo que el necesario para la adquisición de campo de la sísmica de reflexión, sobre todo si ésta tiene objetivos que no son someros. Veamos sucintamente las alternativas de instrumental sísmico en tierra y mar, y luego las consideraciones medioambientales relativas a la adquisición de los datos. FUENTES DE ENERGÍA: Fuentes impulsivas: Cualquiera sea el tipo de fuente, las impulsivas se caracterizan por generar una forma de onda u ondícula (wavelet) de fase mínima, llamada así porque tiene un adelanto de fase: es asimétrica, ya que está más cargada de energía en la proa de la forma ondulatoria, como se ve en la parte izquierda de la ilustración. Si el trabajo es somero y no se requiere de mucha energía, puede recurrirse a fuentes por caídas de pesos, desde una maza de unos 5 a 7 kg sobre un disco metálico grueso, hasta bochas metálicas de más de medio metro de diámetro cayendo de una altura de uno a tres metros. Actualmente existen dispositivos de aceleración del peso en caída, denominados golpeadores (thumpers), muy utilizados en sísmica de refracción. Aquí, ejemplos ilustrativos.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

Pero cuando se necesita mayor energía pueden utilizarse explosivos plásticos (cartuchos con la mezcla explosiva de nitroglicerina, nitrato de amonio, etc. y detonadores eléctricos a base de fulminato de mercurio) y es conveniente realizar un pozo por debajo de la capa meteorizada (weathering), lo que obedece a motivos ambientales así como de eficiente propagación de la energía. A veces, antiguamente, se detonaban cargas en superficie, lo que por seguridad y medioambiente ya no se hace. La perforación se hace con equipos montados sobre camiones, que se rebaten durante el transporte, con capacidad de 100 ó más metros de profundidad (fotografía superior izquierda) o bien con equipos portátiles (para mucho menor profundidad) en zonas de difícil accesibilidad (imagen inferior izquierda). Allí se baja el explosivo, con un cable hasta el disparador (blaster), y esto da lugar a una onda impulsiva, como se ve en las fotografías a la derecha, donde el soplado al aire debería ser mucho menor que el aquí mostrado, tanto por razones de aprovechamiento de la energía en subsuelo como de riesgo laboral, cosa que se logra tapando y apisonando adecuadamente el pozo luego de colocada la carga.

También puede recurrirse al sistema de Pozos Múltiples: varios pozos adyacentes perforados a poca profundidad (esquema adjunto), que en conjunto pueden tener menor costo que uno profundo y algunas veces permite resultados comparables. Es una alternativa empleada cuando se recurre a las perforadoras portátiles o en afloramientos de roca dura. Una variante superficial actualmente poco usada es el cordón detonante, una soga con material explosivo que se extiende una cierta cantidad de metros sobre la superficie, en forma lineal o circular. Otro tipo de fuente impulsiva son los dinos (dinoseis), muy empleados entre 1970 y 1980 pero hoy prácticamente en desuso. Provocan una explosión de gas (una mezcla de propano y oxígeno, análoga a la de un motor de combustión interna) dentro de un tanque apoyado en el terreno, como se ilustra a la derecha.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

En el mar desde 1964 mayoritariamente se utilizan cañones de aire (air guns), sumergidos a los lados o a popa del barco, que generan un salida brusca de aire comprimido hacia el medio ácueo para provocar el pulso sísmico omnidireccional, como se ve en la primera ilustración adjunta. Abajo, popa de un barco sismográfico, cañón de aire sobre la cubierta y equipo compresor de aire.

También pueden emplearse: -Cañón de agua (water gun) que provoca un desplazamiento brusco de un volumen de agua. -Vaporchoc o vaporchoque de inyección súbita de vapor dentro del agua, el cual enseguida implosiona. -Flexichoc o flexichoque una fuente de aire comprimido con expansión rápida tipo fuelle. -Sparker o electropercutor, que acciona por golpe eléctrico. -Aquapulse o acuapulso, un equivalente marino de los dinos, detona propano y oxígeno en una cámara de combustión interna. -Explosivos detonados en cilindros o esferas a tal fin (como maxipulse y flexotir).

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

Fuentes vibratorias: Caracterizadas por generar una forma de onda (ondícula) de fase cero (figura en la primera página), es decir, simétrica y centrada en la interfaz reflectiva, la cual es el resultado de la emisión de un barrido de frecuencias y su posterior correlación cruzada con la respuesta generada en el terreno, cuestión sobre la que se volverá en el Tema 15. Por lo tanto se trata de fuentes controladas. Los camiones vibradores, vibros o vibroseis (fotos siguientes) son las fuentes más utilizadas en tierra desde la década de 1980, son seguros y producen un barrido controlado de frecuencias que inicia con valores bajos (de entre alrededor de 6 y 12 Hz) que va aumentando gradualmente (según una función lineal o logarítmica, elegida en base a pruebas de campo) hasta llegar a unos 100 a 140 ó más Hz al cabo de unos 6 a 16 ó más segundos (tiempo de barrido), según sea el caso.

Los martillos neumáticos son la alternativa vibratoria portátil cuando la complejidad del terreno (topografía abrupta, selva densa, etc) no permiten la llegada de los camiones vibradores. A la derecha vemos una fotografía de una de estas fuentes. Existen también prototipos de vibradores horizontales para generar mayor proporción de ondas S, en tierra o muy raramente sumergido en el fondo del agua.

RECEPTORES O SISMÓMETROS: Los geófonos (esquema a la derecha) son transductores mecánico-eléctricos en los cuales la vibración del suelo hace oscilar un imán que se encuentra dentro de un campo eléctrico generado por una bobina. De esta manera se produce una FEM representativa del frente de onda. Los geófonos van conectados en ristras mediante cables eléctricos que son transportados en rollos por camiones llamados tiracables o eventualmente carros (fotografía de arriba) en lugares de difícil acceso para vehículos pesados.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

La frecuencia natural de resonancia está en torno a los 14 Hz y los geófonos deben ser amortiguados para que provean una respuesta apropiada a los impulsos del terreno. Algunos de estos receptores electromagnéticos tienen base plana en lugar de puntiaguda (imagen superior derecha) para aquellos sitios en los que no pueden clavarse (roca muy dura o veredas y calles en registros dentro de ciudades). En casos especiales, cuando se desea registrar ondas S, se utilizan geófonos triaxiales (arriba, interior de uno de ellos), también muy comunes en sísmica de pozo, que obtienen las componente de la vibración en x, y, z, a diferencia de los geófonos convencionales que sólo registran la componente vertical de la vibración sísmica. En el mar se utilizan hidrófonos, que funcionan por piezoelectricidad debido a las variaciones de presión de las ondas sísmicas compresionales en el agua (esquema abajo). No registran ondas transversales porque éstas no pueden transmitirse a través de los fluidos. Estos receptores son arrastrados a lo largo de una o varias líneas (streamers) que se desenrollan desde la popa (fotografía a la derecha) para ir semisumergidas detrás del barco sismográfico. (Una línea permitiría registrar secciones sísmicas individuales, también llamadas bidimensionales ó 2D. Varias líneas paralelas, lo usual en la actualidad, permiten registrar datos para la sísmica de reflexión 3D.)

Cada una de estas líneas tiene un alma de acero, cables eléctricos y una funda impermeable. Además lleva reguladores de profundidad llamádos pájaros (birds) entre los grupos de hidrófonos y una boya de cola, como

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

se ilustra en la figura siguiente.

Abajo a la derecha, fotografía de un barco sismográfico llevando varias líneas de hidrófonos o streamers.

Ahora bien, en trabajos especiales en los que se requiere el registro de las ondas S en el mar o un lago, se deben bajar hasta el lecho geófonos triaxiales (como en tierra), que pueden ser llevados a lo largo de cables sumergidos (figura derecha) o bien ir conectados separadamente a sonoboyas (figuras de la izquierda). 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

SISMÓGRAFO: Operado por un “observador” o dos, es el sistema de registro de los datos, donde llegan los cables con la información proveniente de los sismómetros (geófonos o hidrófonos). Puede ir montado dentro de un camión, sobre un barco o hasta en versiones portátiles dentro de una valija especial. Antiguamente eran analógicos, se hicieron digitales hacia 1960 y siguieron tecnificándose. Tienen una serie de dispositivos de acondicionamiento electrónico de la señal (filtros, amplificadores, etc), un osciloscopio para monitorear la respuesta de los receptores, una computadora desde donde se opera y donde son visualizados y archivados los registros, también una impresora, un sistema de radioseñal para las fuentes de energía y, si éstas fueran vibratorias, una caja electrónica controladora de sus parámetros. Abajo, esquemas del sistema de información que llega a un sismógrafo en una versión tradicional (izquierda) y moderna para sísmica de reflexión 3D (derecha) en la que se indican las cajas electrónicas (RSX) que, por grupos de receptores, acondicionan la señal (ganancia, filtrado, etc.) y la envían telemétricamente al sismógrafo.

Arriba, caja electrónica telemétrica. A la izquierda, fotografías de un sismógrafo antiguo, con el detalle de la pantalla abajo, y de un equipo sismográfico más moderno.

7

Cátedra de Geofísica Aplicada Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

Las siguientes figuras muestran el interior de un sismógrafo marino y el exterior de uno terrestre.

Abajo, fotografía de un sismógrafo portátil. Usualmente manejan hasta 48 canales y en general sus aplicaciones son a pequeña escala).

GEOGRAFÍA DEL ÁREA A PROSPECTAR Arriba tres imágenes del relevamiento topográfico en prospección terrestre, un trabajo imprescindible previo a la adquisición de los datos sísmicos, sean éstos de refracción o reflexión, clásicamente realizado con teodolito y plancheta y actualmente mediante posicionadores satelitales. La profundidad de agua se mide con un sonar. Los trabajos de registro sísmico de campo pueden tener muy variados desafíos, más allá de los casos típicos de adquisición marina o terrestre. Existen innumerables posibles complejidades topográficas, biogeográficas y medioambientales, entre la cuales el trabajo en zonas transicionales intermareales, como es el caso de la Patagonia, con gran amplitud de mareas, lo que requiere moverse con gomones o disparar durante la bajamar, a veces con explosivos en perforaciones hechas con equipos portátiles, si la playa es fangosa (dominada por acción de marea). O bien pueden presentarse casos de áreas pantanosas, como muestran estas dos imágenes.

8

Cátedra de Geofísica Aplicada Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

Aquí fotografías de campamentos sísmicos. Uno convencional, en topografía operativamente favorable, y otro menos confortable, pero beneficiado por el paisaje.

MEDIOAMBIENTE Y SEGURIDAD LABORAL: Hasta finales de la década de 1980 la conciencia medioambiental era muy pobre a nivel de empresas y también de Estados y la seguridad en el trabajo sólo se limitaba a principios muy básicos. Esto fue cambiando para mejor desde entonces, aunque todavía el cumplimiento de estos ítems suele no ser óptimo. El terreno o el lago o mar donde se trabaje debería quedar igual después que antes de la tarea prospectiva. Esto es en rigor imposible, aunque se intenta minimizar el impacto ambiental. Deben tomarse medidas como no arrojar residuos de ningún tipo (ver fotografías abajo), procurar suprimir el uso de explosivos, minimizar los vuelos en áreas de numerosa avifauna, o directamente no registrar en áreas críticas de reservas donde pudiera afectarse de algún modo el ecosistema, por ejemplo si la contaminación acústica de los cañones de aire u otras fuentes altera el comportamiento de los cetáceos u otras especies. También debe abrirse la menor cantidad posible de picadas en el campo, para lo cual se suele recurrir a helicópteros, y, cuando la picada es inevitable, no remover todo el espesor edáfico para facilitar la futura recuperación de la cubierta vegetal (como se ilustra).

9

Cátedra de Geofísica Aplicada Tema 13 Instrumental Sísmico y Medioambiente

Chelotti, L., Acosta, N., Foster, M., 2009

Cuando se trabaja en zonas pobladas, se debe reducir la potencia de vibración a valores acordes con la seguridad de las edificaciones más débiles, según sea la localización de los vibros respecto a éstas. Lógicamente, todo trabajo requiere de la solicitud de permisos de los superficiarios, sean éstos particulares o el mismo Estado, en este último caso incluyendo aguas territoriales. En prospección terrestre se abona un canon por servidumbre, legalmente estipulado, en compensación por los inconvenientes causados a través un desarrollo cuidadoso y reglamentado por ley. Eventualmente puede haber casos en los que el propietario no deba percibir el pago del canon, si la tarea de relevamiento tiene una magnitud y modalidad tal que el impacto es prácticamente nulo. Así como, en casos de alto impacto, el monto normal de servidumbre puede no satisfacer al superficiario y éste puede reclamar judicialmente un pago mayor o bien poner limitaciones extraordinarias previas a la ejecución de las labores de campo. En términos de seguridad e higiene también se deben seguir rigurosos protocolos para no correr riesgos personales ni hacérselos correr a terceros, muy especialmente si se trabaja con explosivos, pero también respecto a las pendientes y características del terreno a transitar, o a las condiciones de navegación segura (clima, tránsito de otros buques, etc.) y demás circunstancias del entorno laboral. Asimismo deben emplearse la indumentaria (cascos, botines de seguridad, etc.) y los demás implementos apropiados (por ejemplo salvavidas en operaciones marinas), debe disponerse de equipamiento y personal entrenado para primeros auxilios -en grupos medianos o grandes un paramédico- y deben practicarse rutinas de extinción de incendios, evacuación segura y otras alternativas, según sea el ámbito de trabajo específico.

CUESTIONARIO BÁSICO - ¿Cuáles son los dos tipos básicos de ondículas y a qué fuentes corresponden en general? - ¿Qué distintos tipos de fuentes de energía sísmica pueden utilizarse en mar y en tierra? - Explicar brevemente el principio de funcionamiento de los geófonos e hidrófonos y cómo se conectan entre sí. - ¿Qué elementos tiene y qué hace un sismógrafo? - Comentar situaciones no convencionales en cuanto a fuentes de energía, sismógrafos y transportes. - ¿Cuáles son las consideraciones a tener acerca del impacto ambiental y la seguridad laboral?

BIBLIOGRAFÍA - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.204-2349. Librería de Ciencia e Industria. - Griffiths y King, 1972. Geofísica Aplicada para Ingenieros y Geólogos (p.85-104 y 133-145). Edit.Paraninfo. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

ADQUISICIÓN SÍSMICA DE REFLEXIÓN El método sísmico de reflexión, al igual que el de refracción, parte de producir microsismos artificiales por medio de una explosión, impacto, vibración, implosión en agua, etc. Pero en esta variante prospectiva -la más usada de todas las que existen en geofísica- no basta con registrar el tiempo de primer arribo en cada traza, como en sísmica de refracción. Aquí se debe registrar bien toda la traza, hasta el tiempo de ida y vuelta de la energía sísmica calculado para cubrir los objetivos de interés. Se graban entonces las amplitudes y tiempos de llegada de las ondas reflejadas en las diversas interfaces geológicas del subsuelo. Esto se hace por medio de receptores o sismómetros (geófonos en tierra, hidrófonos en el mar) convenientemente ubicados, desde los cuales es enviada la información a un sismógrafo donde se la graba y grafica. Posteriormente se debe pasar por una serie de etapas de procesado de la información obtenida en los sucesivos registros, para llegar finalmente a secciones o volúmenes de información sísmica que deberán ser interpretados en términos neocientíficos, petroleros, etc. Si bien ideadas por el canadiense Reginald Fessenden en 1917, las primeras aplicaciones en sísmica de reflexión fueron conducidas por John Karcher, en la prospección petrolera en Oklahoma (Estados Unidos) a partir de 1920. CONCEPTOS BÁSICOS: La ecuación que rige el comportamiento de un evento reflejado corresponde a una hipérbola e involucra tiempo t en ordenadas, distancia horizontal x en abscisas y las incógnitas velocidad v y profundidad h.

t = SA/v + AG/v t = 2 SA/v SA2 = h2 + (x/2)2 _________ SA = V h2 + (x2/4) _________ t = (2/v) V h2 + (x2/4) ecuación de una hipérbola t2 - x2 = 1 4h / v2 4h2 2

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

En la figura siguiente se esquematiza a la izquierda un emisor de una serie de trayectorias de rayos refractados y eventualmente reflejados en interfaces a distintas profundidades, más el directo, que convergen en una estación receptora. El registro de campo esquemático muestra su arribo a sucesivos tiempos dobles (de ida y vuelta, two way time o TWT) que, verticalizados mediante simples cálculos trigonométricos, representan los To que se representan usualmente en una Ley de Velocidad, esto es, una relación tiempo-profundidad, concepto semejante al de las dromocronas en sísmica de refracción, pero que en este caso representa la demora en bajar y subir por caminos virtualmente verticales. La figura de la derecha muestra, a su vez, las ondículas resultantes de una reflexión en una sucesión de impedancias normal o inversa: la forma de onda es esencialmente la misma en el primer caso e inversa en el segundo, además de que su amplitud variará según sea el coeficiente de reflexión -o sea, el contraste de impedancias acústicas entre los dos medios- en cada caso.

EVOLUCIÓN HISTÓRICA: Durante los primeros tiempos, básicamente la década de 1920, se empleó el método de Buzamientos (véase la figura) calculados a partir de datos obtenidos desde disparos aislados en distintas direcciones. En 1927 fue desarrollado en Estados Unidos el primer sismógrafo con amplificadores de válvulas y en 1930 se hicieron los primeros trabajos en Argentina, hechos por YPF con un sismógrafo todavía mecánico. Durante la década de 1930 comenzó a prospectarse con el método de Correlación, en el que se empezó a trabajar con datos registrados a la largo de una misma línea sísmica generando secciones dibujadas a mano, como puede apreciarse en la figura adjunta.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Más tarde, desde mediados de los años 40, se inició la aplicación del método de Perfil Continuo, en el que para cada punto emisor hay varios puntos de recepción hacia delante y atrás, generando una serie de registros cercanos y continuos a lo largo de la línea sísmica. La grabación de los registros era galvanométrica, pero su representación en secciones seguía siendo manual, como puede apreciarse en el ejemplo de abajo, registrado por una comisión sismográfica de la empresa Yacimientos Petrolíferos Fiscales.

En 1956 el estadounidense Harry Mayne propuso el método de Apilamiento o Suma (Stacking), también conocido como de Recubrimiento Múltiple (Multiple Fold), Punto Común Profundo o PCP (Common Depth Point o CDP), y el correspondiente procesamiento de la información en computadora, cuyo desarrollo (en el Massachussets Institute of Technology) fue fundamental para hacer posible la aplicación práctica del método. Ya sea en sísmica bidimensional o en la más moderna tridimensional, cada punto en el subsuelo resulta registrado varias veces a partir de distintas posiciones de fuente y receptores, de lo que resulta el apilamiento, que en los primeros años era de 6 veces (en la jerga suma de 6, ó de 600%), fue aumentando con el progreso tecnológico y actualmente suele ser de 48 (4800%) o más para trabajos de sísmica 3D, mientras que en trabajos de adquisición 2D suele recurrirse a 96 (9600%) o más, es decir que en general se emplea un mayor recubrimiento cuando los datos se adquieren sólo en líneas separadas, ya que en las secciones resultantes no hay control de información lateral como sí ocurre en un volumen sísmico (tridimensional).

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

El principio de aplicación del método de Punto Común Profundo es el mismo ya sea en adquisición marina como terrestre. Se lo esquematiza en la figura de la izquierda.

La figura de la derecha representa trayectorias de rayos desde una fuente hasta receptores hacia uno y otro lado en un caso de horizonte reflector inclinado. Además se ilustra la hipérbola de reflexión resultante y las fórmulas (obtenidas de deducciones trigonométricas) para calcular los tramos iluminados (AB y AC), así como el ángulo φ de buzamiento de la interfaz, la velocidad media Vm entre el horizonte y la superficie topográfica y la profundidad Z perpendicular a la capa. Puede verse que la longitud superficial total con receptores es mayor que la longitud total iluminada en el subsuelo. ETAPAS EN LA ADQUISICIÓN DE SÍSMICA DE REFLEXIÓN: A continuación un esquema básico generalizado de las etapas del trabajo completo de adquisición sísmica de reflexión, que en cada caso particular tendrá sus propias variantes en las formulaciones cronológicas y tópicos específicos relativos al área del programa o proyecto. 

Planeamiento Sísmico general.



Planeamiento Legal y Ambiental.



Solicitud de Permisos de los Superficiarios



Licitaciones de Servicios contratados (de operaciones sísmicas, transportes, comedor, enfermería, etc.)



Levantamiento Topográfico, ya comentado muy brevemente en el Tema 13.



Apertura de picadas, sector de campamento, etc.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

 Sísmica de Refracción, que en prospección terrestre casi siempre se registra como dromocronas horizontales y/o verticales para conocer el espesor y velocidad de la capa meteorizada para el cálculo de las correcciones estáticas, según lo comentado en el Tema 12. En casos de baja complejidad de esta capa superficial o bien de bajo presupuesto pueden hacerse los cálculos directamente desde los registros de reflexión sísmica, pero en general esto no es recomendable porque, al no estar registrados con esa finalidad, el margen de error es mayor y las correcciones estáticas pueden resultar críticamente imprecisas.  Pruebas de ruido y señal, que consisten en ensayos preliminares, con distintas variantes en la fuente y magnitudes del dispositivo de receptores, mediante los cuales se hace un diagnóstico de las perturbaciones que se van a producir durante la adquisición rutinaria. La finalidad es determinar los parámetros más apropiados para maximizar la relación señal/ruido en función de los objetivos buscados y criterios de amortización presupuestaria, es decir la relación costo/beneficio.  Adquisición de rutina, en la que debe cuidarse la correcta respuesta instrumental, junto con los costos, la seguridad y el medioambiente. Debe procurarse el registro de buenas amplitudes de la señal, pero sobre todo de altas frecuencias, siempre el parámetro más huidizo. Esto es así porque el subsuelo configura un severo filtro corta-altos frente al viaje del frente de ondas por el subsuelo, es decir que reduce la amplitud de altas frecuencias, tanto más cuanto mayor sea el viaje de ida y vuelta. Es esencial no empeorar las cosas por evitables limitaciones instrumentales. -Un recaudo al que suele recurrirse es el Filtro Ranura (Notch Filter), que elimina una frecuencia específica que constituye un ruido identificable, por ejemplo alta tensión en torno a los 55 Hz. Las amplitudes de los registros sísmicos, así como de los acústicos, se expresan en decibeles: A (db) = 10 log A salida /A entrada (Un decibel es un décimo de bel o belio, llamado así por Alexander G. Bell, escocés que inventó el teléfono en 1876 en los Estados Unidos.) La diferencia entre las ondas sísmicas compresionales y las acústicas o sónicas (sinónimos) es sólo el rango de frecuencias, que en el primer caso no sobrepasan en mucho los 100 ciclos por segundo (Hz), mientras que en el segundo caso llegan a valores del orden de los 30 000 Hz. .

Abajo puede verse un cronograma específico de adquisición sísmica 3D (incluyendo luego el tiempo de Procesamiento y de una Interpretación básica del programa) en un ejemplo de prospección terrestre de gran envergadura en el noroeste argentino. La palabra Grabación se refiere a la adquisición de rutina.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

PARÁMETROS DE CAMPO: .

Tipo y Potencia de la Fuente (Source Type and Power): Según pruebas de calidad de señal, criterios logísticos y de relación costo/beneficio. Podemos discernir potencia y número de cañones de aire (habitualmente dos), o cantidad de vibradores y tipo de barrido (lineal o logarítmico, duración total -de unos 6 a 16 segundosy límites de frecuencia, 8 a 120 hz como valores frecuentes), o parámetros varios según el tipo de fuentes utilizadas, las que siempre habrán de enviar cada disparo al unísono. Si fuera el caso de explosivos, deben definirse la profundidad (idealmente bajo la base de la capa meteorizada), tipo de explosivo y cantidad de carga (100 gramos hasta más de un kg) o la cantidad, separación y profundidad de pozos múltiples, si en lugar de uno fueran varios en cada disparo (por ejemplo tres pozos a cinco metros y con 200 gr de nitroglicerina cada uno), en todos los casos con la ya comentada activación mediante detonadores eléctricos. En las figuras siguientes se comparan secciones sísmicas finales procesadas a partir de registros de campo realizados con distintas fuentes: martillo neumático (Mini Sosie) y explosivo. En este caso resulta claro que las primeras tienen mayor detalle, es decir mayor resolución sísmica, pero debe prestarse atención a las condiciones particulares de la comparación: seguramente la sísmica en base a explosivo podría mejorarse con mayor carga por pozo, mayor profundidad de pozos, etc. y en tal caso habría que evaluar el costo de una y otra alternativa, así como las ventajas operativas en uno y otro caso.

b) Dispositivo (Pattern) de Receptores, Que se define también según pruebas y siguiendo los siguientes criterios: -Mínimo Apartamiento (Near Offset): distancia superficial horizontal semejante a la profundidad mínima de interés prospectivo y suficiente para

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

alejarse de la zona del registro en la que son máximos los ruidos superficiales (ondas directa, refractadas críticas, aérea, ground roll, etc), es decir la zona de arreglos de receptores más próximos a la fuente, como se indica en la figura siguiente, donde para un registro de campo dado se resuelve la distancia hasta la primera traza o hilo. Valores comunes en sísmica petrolera son de entre 600 a 1000 metros de mínimo apartamiento.

-Máximo Apartamiento (Far Offset): distancia horizontal semejante a la profundidad máxima de interés prospectivo y no tan grande como para tener mucha conversión de modo a ondas S -producto de una reflectividad muy oblicua-, si no fueran éstas lo que deseamos obtener en los registros. Valores habituales para sísmica de prospección petrolera son del orden de los 2500 a 3500 metros. Esto, combinado con el apartamiento mínimo, define una ventana prospectiva, usualmente referida como “la sábana corta” (Tim, 1968): si se quiere tapar más los pies se destapa la cabeza, y viceversa. -Longitud del Arreglo (Array Length): longitud horizontal para que la señal no difiera más de medio ciclo entre su arribo al primer y al último receptor del arreglo y tal que difiera en más de medio ciclo para la fracción de ruidos superficiales todavía presentes, es decir supervivientes al criterio ya adoptado para el mínimo apartamiento. Valores de longitud habituales del arreglo de receptores son de 30 a 50 m, magnitud que representa la distancia horizontal entre el primer y último receptor de una estación receptora, también llamada estaca, canal, hilo o traza. En otras palabras, todos esos receptores a lo largo de los 30, 40 ó 50 metros en los que están desplegados -y conectados eléctricamentefuncionan como un conjunto de oídos que escuchan en simultáneo y refieren lo percibido al unísono como si todos hubiesen estado en el punto medio o estaca central de dicho arreglo. Podríamos teóricamente definir velocidades aparentes que resultan de dividir la longitud el arreglo L por la diferencia de tiempo entre el arribo de un dado frente de onda (proveniente de una reflexión o de un ruido) al primero y al último receptor de dicho arreglo. Es decir que: Vap = L / ∆t La Vap resulta igual a la velocidad real en los arribos horizontales (como las ondas directa o aérea), crece cuando los arribos son oblicuos y se llega a hacer infinita para arribos verticales desde el subsuelo (que casi siempre serán señales, es decir reflexiones). O sea, cuanto mayor Vap, más probabilidad de que se trate de una señal. En la figura de la página siguiente esto está representado abajo a la izquierda, junto con algunas relaciones matemáticas, definiéndose el valor L deseable como la mitad de la longitud de onda aparente λap del ruido superficial a suprimir. Esto es así porque el muestreo en un instante dado será hecho en contrafase entre los primeros y los últimos receptores del arreglo (unos escucharán una amplitud positiva mientras los otros una negativa) con lo cual su registro resultará prácticamente cancelado. Mientras que para una señal, proveniente de una trayectoria muy vertical, todos los receptores del arreglo escucharán casi lo mismo, en fase, ya sea pico o valle de la forma de onda, y su registro se verá reforzado.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

En la figura tenemos arriba un espectro de distribución de las amplitudes de la señal y ruidos en función de sus frecuencias, que aparecen en gran parte superpuestos, lo que nos está indicando la dificultad de discernir unos y otros componentes del registro a partir de este parámetro. El espectro a su derecha, en cambio, muestra que, si los separamos en términos de longitud de onda aparente, podemos discriminar señal de ruido, que es lo que se está llevando a la práctica gracias al establecimiento de una longitud L de cada arreglo de receptores. A su vez puede definirse una frecuencia espacial K o número de onda (inversa de la longitud de onda) que al resultar de calcularlo con una velocidad aparente resulta también en un número de onda aparente: Vap = F / Kap (donde f es la frecuencia). Las gráficas F-K (F en ordenadas, K en abscisas) expresan rectas de velocidades que parten del origen de coordenadas y permiten diferenciar señal de ruido, como se ilustra también en la anterior figura a la derecha. La figura siguiente muestra tres secciones sísmicas resultantes de pruebas de campo obtenidas en un área en los Estados Unidos con tres arreglos diferentes, a saber: 340, 85 y 170 pies, respectivamente. El primero (izquierda) resulta en una sección limpia (poco ruidosa) pero con baja definición de la señal, de modo que se ha eliminado el ruido pero también parte del dato deseado (reflexiones). El segundo (centro) da una sección con mucho mejor señal (de mayor amplitud) pero muy ruidosa (efecto visual de picoteo). El tercero ofrece una aceptable combinación de señal buena y ruido bajo. Ergo, estirar o acortar el arreglo es una decisión crítica para permitir la adquisición de señal y de ruido en fase o en contrafase en cada caso.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

-Distancia entre Grupos (Group Interval): distancia superficial aproximadamente doble a la distancia del muestreo espacial horizontal deseado para los puntos comunes profundos que actúan como reflectores en el subsuelo. Con valores usuales del orden de los 50 a 100 metros en sísmica para prospección petrolera. -Distancia entre Receptores (Seismometers Spacing): separación horizontal que es función de los ruidos dominantes (cercanos o lejanos), según pruebas. Usualmente menor (2 a 3 metros) para ruidos locales, como viento, movimiento de matas o perturbación ácuea si los hubiera, y mayor (4 a 5 metros) para ruidos lejanos, como ruidos de motores, microsismos naturales, etc. Seguidamente vemos el tipo de graficaciones que se realizan para visualizar la atenuación de los ruidos para distintas alternativas de distancia y peso de los receptores dentro de un mismo arreglo L. Las curvas representan la función general sen x / x, con valores de K y L propios del arreglo que se está evaluando y el sector de amplitudes de respuesta más bajas indica los valores de x / λ donde se produce la mayor atenuación de ruido. A la izquierda un arreglo de 42 sismómetros con distancia x entre ellos de 5 m pero con pesos variables (los receptores centrales de cada arreglo escuchan más que los más marginales) y a la derecha arreglo de igual cantidad de sismómetros pero con peso uniforme (todos escuchan con la misma sensibilidad) pero distancia x variable entre ellos (los más centrales están más juntos, los más marginales más separados entre sí).

-Intervalo de Muestreo Temporal (Time Sampling Interval): ha de ser tal que no limite el valor de la frecuencia máxima, o sea que no tenga valores coligados (aliasing). Esto surge de la ecuación del estadounidense Wyman Nyquist (fines de los años‘50) según la cual: ∆t = ½ fmáx Donde ∆t es el intervalo temporal de muestreo y fmáx es la frecuencia máxima que se desea cosechar. Usualmente el intervalo empleado ha sido de 4 ms (con lo cual se está sobradamente cubierto, para frecuencias de hasta 125 hz) y en los últimos años la sísmica petrolera y otras se muestrean cada 2 ms dada la evolución en las capacidades de computación, a fin de tener un muestreo fino de altas frecuencias por si fueran útiles para fines de estratigrafía sísmica detallada.

A la derecha un registro de campo, donde la franja central es todo ruido y se suprimirá. Este es un ejemplo cuasi-simétrico, con la fuente en la parte central y tendidos de receptores hacia uno y otro lado. En sísmica marina sólo se puede obtener registros asimétricos, por la imposibilidad de tener receptores delante de la fuente.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA 2D Y 3D: En sísmica bidimensional o 2D los parámetros arriba comentados se determinan a lo largo de las líneas predefinidas, usualmente en un mallado ortogonal donde los dos juegos de líneas son aproximadamente uno perpendicular y el otro paralelo al rumbo dominante de las estructuras geológicas del área prospectada. El distanciamiento entre líneas es función del objetivo, generalmente unos 4 km de lado para mallados regionales en etapas iniciales de exploración, unos 2 km de lado para etapas de exploración intermedia y cerca de 1 km para una etapa de exploración avanzada en zonas mejor localizadas. El distanciamiento entre arreglos de receptores es en sísmica para prospección petrolera del orden de los 80 metros (40 en subsuelo), aunque puede variar significativamente según la profundidad y magnitud de los objetivos. En cuanto al recubrimiento, cuanto más, mejor; la limitación es el costo, relacionado con las facilidades tecnológicas: como ya se comentó, en los primeros tiempos era de 600% y en la actualidad suele ser de 9600%. Arriba un ejemplo de mapeo sísmico (curvas isócronas, en segundos) de un horizonte guía en subsuelo a partir de un programa de sísmica 2D en la cuenca Neuquina. Existen dos mallados con orientaciones diferentes. Una sísmica de detalle superior al mallado citado para exploración avanzada ha sido el de la sísmica 2D Swath (2D Múltiple, por franjas o aradas), que se utilizó en algunos países en yacimientos antes de la 3D. Consistía en trabajar con tres líneas receptoras paralelas por cada una emisora -coincidente con la receptora central- a fin de registrar tres líneas por vez distantes en el orden de 600 m en superficie y 300 en subsuelo, como se ilustra.

Sin embargo esta etapa de prospección avanzada de la 2D Swath -generalmente con fines de desarrollo de yacimientos- ha sido reemplazada por la adquisición de sísmica tridimensional o 3D, un concepto ideado en los Estados Unidos por G. Walton en 1972 y aplicado por E. Tegland y otros desde 1976. Su empleo se hizo rutinario en los países desarrollados desde fines de la década de 1980 y en la Argentina desde mediados de los ’90, casi siempre en los prospectos petroleros que poseen un generoso presupuesto (resultante de un aún más generoso retorno probable de la inversión). En la 3D se registra un volumen de información, muestreada en un fino mallado rectangular en subsuelo (las más de las veces cuadrado) de pocas decenas de metros de lado, 25 a

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

30 metros como valores más habituales, que se denomina bin. Es un área análoga a un pixel fotográfico. En sísmica 3D terrestre las líneas receptoras (de geófonos) suelen ser perpendiculares a las líneas de fuente (habitualmente vibros), como se ilustra en las figuras siguientes, aunque existen otras variantes. Las líneas receptoras (en el ejemplo N-S) son casi siempre perfectamente rectas y se diagraman ortogonalmente a la estructuración geológica principal del área. Las líneas fuente (aquí E-O) suelen ser sinuosas ya que los camiones vibradores circulan por donde la topografía se los permite, aunque siempre procurando la mayor cercanía posible a las ideales trayectorias rectas, ya que seguir esas rectas permitirá al final un más homogéneo recubrimiento de datos reflejados en las sucesivas interfaces del subsuelo. La sucesión de varios disparos o emisiones entre líneas receptoras consecutivas se denomina Salvo. El conjunto de salvos sucesivos entre dichas líneas receptoras constituye un Swath (Arada o franja de registros). El sector del proyecto de líneas receptoras habilitadas para la escucha de cada disparo (registro) se denomina Plantilla o Template y en el proceso de los datos deben computarse numerosísimas trayectorias de rayos con sus trayectorias azimutales y sus verdaderas posiciones, frecuentemente no ideales. En la figura de la derecha se indica el recubrimiento, máximo en la mayor parte del prospecto (36 ó 3600%) y

menor, hasta hacerse nulo, en las zonas de borde, donde ya no hay grupos receptores escuchando en superficie. La cobertura superficial es siempre mayor que el área iluminada en el subsuelo, como ya vimos, y se elaboran modelos en computadora previamente a la adquisición para elegir las mejores alternativas viables. A la izquierda, perspectiva esquemática que muestra cómo una línea de registro de datos sísmicos (en este caso de reflexión, pero también en las de refracción) es recta en la superficie topográfica pero puede resultar quebrada o sinuosa en el subsuelo. Esto no puede precisarse cuando hemos adquirido información sísmica 2D, pero sí en el caso de la sísmica 3D. Esta última puede darnos, como resultado del procesamiento de los datos, no sólo imágenes en sección vertical sino también secciones horizontales (time slices), cuya localización en profundidad está dada por el tiempo sísmico de ida y vuelta verticalizado (To) y que resultan de gran ayuda en la interpretación.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda un ejemplo de sección horizontal de un volumen sísmico.

En la adquisición de sísmica 3D marina las varias líneas receptoras (streamers, con boyas en los extremos, arreglos de hidrófonos y pájaros o birds intercalados para sumersión controlada a profundidades de algunos metros, como ya hemos visto) van paralelas a las líneas emisoras (cañones de aire u otras fuentes) dado que todo es arrastrado simultáneamente por el barco sismográfico en trayectorias del tipo de las que se ilustra en el esquema de arriba a la derecha, e incluso en casos singulares de navegación en espiral en torno a domos salinos de sección subcircular. La repetición de la adquisición de sísmica 3D a intervalos de tiempo de meses o incluso años entre una y otra ha dado lugar a la llamada sísmica 4D, que será abordada en el Tema 18. A la derecha puede verse una gráfica que sintetiza los progresos históricos de la sísmica de reflexión.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 14 Adquisición Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO: - Enumerar las etapas del trabajo de campo. - ¿Qué diferencia a las ondas de sonido de las sísmicas P? - ¿Con qué criterios se establecen en un tendido el apartamiento cercano y el lejano? - ¿Cómo definimos el largo del arreglo y las distancias entre arreglos y entre receptores? - ¿Cómo se evita tener un muestreo aliado de frecuencias? - ¿Qué ventajas tiene la sísmica 3D? - Explicar los factores a tener en cuenta para registrar una sísmica 3D en tierra y mar.

BIBLIOGRAFIA - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales. - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.235-305). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.133-147). Cambridge University Press. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

“Lo que Natura non da, Processing non presta” clásico adagio de los analistas

PROCESAMIENTO SÍSMICO A la adquisición de la sísmica de reflexión le sigue el procesamiento de dichos datos (a cargo de los Procesadores o Analistas), pero siempre debe recordarse que es crítico optimizar los parámetros de registro para después poder encarar un mejor proceso de la información. Los datos adquiridos durante semanas o meses en un determinado proyecto en tierra o mar -como el registro simétrico acá graficado- deben procesarse a fin de obtener secciones sísmicas (bidimensionales ó 2D) o un volumen (tridimensional ó 3D) que luego han de interpretarse en términos geológicos, petroleros u otros. Fue en los Estados Unidos en 1935 cuando Frank Rieber ideó el procesamiento de los datos -en ese entonces sólo posible con técnicas fotográficas-, pero éste comenzó a aplicarse recién desde 1953 con el desarrollo de la cinta magnética y las primeras computadoras en el MIT (Massachussets Institute of Technology). Como fuera referido en el Tema 14, en 1956 el estadounidense Harry Mayne patentó el método de Punto Común Profundo o Apilamiento (Common Depth Point o Stacking), en cuyos registros inicialmente se registraban 6 trazas por PCP (cobertura o fold de 600%) y ahora se registran usualmente 48 (4800%) en sísmica tridimensional y 96 (9600%) en sísmica bidimensional. La tecnología ha hecho enormes avances y actualmente suele hacerse un procesado rápido de campo para control de calidad, pero el procesamiento fino se hace en un centro informático donde los analistas requieren de uno o varios meses para obtener un resultado confiable. CONCEPTOS BÁSICOS Un frente de onda sísmico producido por una fuente impulsiva es inicialmente un pulso de gran amplitud que contiene un gran espectro de frecuencias en ese pico instantáneo (spike). Matemáticamente puede describirse mediante la función Delta de Dirac (descubierta por el inglés Paul Dirac, hacia 1930). Se puede imaginar la función δ(x) como una función que tiene un valor infinito en x = 0 y tiene un valor nulo en cualquier otro punto, de tal modo que su integral es uno, es decir:

Luego del disparo, a medida que el frente de onda avanza, va disminuyendo su amplitud -y perdiendo altas frecuencias- y se va estirando según la forma de una ondícula de fase mínima, con un valle y pico principales y eventualmente otro valle y pico más pequeños, como se ilustra a la derecha. (El caso de la ondícula de vibrador -fase cero- lo veremos luego.)

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda vemos algunas formas de onda típicas que podemos registrar, todas ellas resultantes de la mutación de la delta de Dirac. Ahora bien, cada traza sísmica es esencialmente una serie de valores de amplitud a lo largo del tiempo (de ida y vuelta sísmico). Representa el resultado del arribo de señales, esto es, sucesivas respuestas reflectivas provenientes de interfaces de muy variada magnitud (desde límites formacionales hasta laminación sedimentaria, tanto mayor su amplitud cuanto mayor sea el contraste de impedancias acústicas) que se interfieren entre sí y a la vez son interferidas por diversos tipos de ruidos, sean éstos superficiales o profundos. Las señales sísmicas son el resultado de la convolución del frente de onda generado en la fuente con los sucesivos coeficientes de reflexión correspondientes a interfaces en el subsuelo. Puede pensarse la convolución como el proceso mediante el cual la forma de onda (ondícula) se modifica al reflejarse, modificación que es proporcional a la magnitud y signo del coeficiente de reflexión. Como vimos en el Tema 14, la ondícula se invierte cuando hay inversión de velocidad, es decir, coeficiente de reflexión negativo. Además la amplitud reflejada es directamente proporcional al módulo de dicho coeficiente. De modo que, como resultado de la convolución, la señal que llega trae en su impronta la información de los contrastes de impedancia acústica del subsuelo. Matemáticamente, una convolución es un operador (simbolizado ∗) que transforma dos funciones F y G (en nuestro caso, respectivamente, la ondícula y la serie de coeficientes de reflexión) en una tercera función S (la señal registrada) que en cierto sentido representa la magnitud en la que se superponen F y una versión trasladada e invertida de G. La expresión formal se lee en la figura adjunta e indica que la convolución es la integral de una serie de productos donde la función G(t) se va desplazando temporalmente respecto a la función F(t) para, a través de todo el proceso de convolución, dar finalmente la función S(t). Debe, sin embargo, recordarse que el patrón de interferencia resultante en la traza en este caso idealizado sólo resulta de los coeficientes de reflexión, mientras que en la vida real la preparación resultante de esta receta resulta abundantemente condimentada con variopintos ruidos superficiales y profundos.

Pero, además de la interferencias que producen los ruidos y la propia señal en sí misma, el registro convolucional de las reflexiones -dado por una traza- siempre es significativamente afectado por pérdidas de amplitud y de frecuencia.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

La siguiente figura a la izquierda muestra los principales factores que afectan la amplitud de las ondas sísmicas en su tránsito por el subsuelo, en general ya mencionados en el Tema 12.

La figura de arriba a la derecha ilustra la comentada atenuación de las frecuencias sísmicas, tanto mayor cuanto más altos son sus valores y cuanto más distancia ha debido viajar la onda por el subsuelo. Hemos visto ya en el Tema 14 los principales ruidos superficiales. Vemos ahora un esquema de los principales ruidos de origen profundo. La mayoría consisten en reflexiones múltiples, es decir eventos entretenidos por ciertas interfaces del subsuelo, que por lo tanto llegan más tarde a los receptores, superponiéndose en los registros de campo con señales procedentes de lugares más profundos, como se ve abajo.

Una vez obtenidos los registros de campo, como el ilustrado en la primera página, con señales y ruidos, sigue la tarea de procesarlos digitalmente, mediante programas específicos en computadoras con capacidad suficiente. Un instrumento matemático fundamental para este fin es la Transformada de Fourier (publicada por el francés Joseph Fourier en 1822) que en sísmica permite pasar del dominio del tiempo (la traza, o sea una serie de valores de amplitud a lo largo del tiempo) al dominio de la frecuencia (el espectro de frecuencia donde vemos en ordenadas las amplitudes de señal y ruido indiscriminadamente, correspondientes a cada frecuencia registrada con su escala desplegada en abscisas). La transformación se realiza aproximando la forma de la traza con una integración de una serie de funciones armónicas (seno, coseno) o Serie de Fourier, de amplitudes variables, para poder entonces pasar al cálculo y representación del espectro de frecuencia (expresable también como una integración, pero ahora de diferenciales de frecuencia).

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Arriba puede verse simplificadamente cómo un fragmento de traza sísmica -en el dominio del tiempo, s(t)- puede ser pensado como la suma de funciones armónicas (en este caso sólo tres, en casos reales muchísimas) mediante la aplicación de una Serie de Fourier y puede verse como, Transformada mediante, puede ser luego representada en el dominio de la frecuencia -S(f)- según un espectro de amplitudes versus frecuencias. También se leen las expresiones matemáticas correspondientes y se visualiza un ejemplo de traza sísmica típica en función de sus tiempos de arribo y de sus frecuencias integrantes. La figura de la izquierda muestra la representación en uno y otro dominio de una frecuencia simple, un impulso unitario (fuente), un ruido blanco (llamado así porque contiene todas las frecuencias), un ruido blanco sísmico ideal (con todas las frecuencias en amplitud pareja dentro del rango sísmico) y una traza sísmica (conteniendo señal y ruido). Más a la izquierda caso real de traza (en amarillo) y las armónicas que se obtienen en su descomposición.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

SECUENCIA DE PROCESAMIENTO En la siguiente lista se indican: con una I los pasos imprescindibles del proceso, con una C los muy comúnmente realizados, aunque no sean imprescindibles, y con una O los ocasionales, a los que se recurre para objetivos específicos, no rutinarios. El orden en que aquí se citan es el más usual, pero algunos pasos no imprescindibles pueden hacerse en un orden distinto. I) Demultiplexeo (reordenamiento de la información) -- los registros de campo son grabados en formato SEG B I) Recuperación de Ganancias (por divergencia esférica, etc) I) Correlación cruzada (sólo en datos de vibro) C) Edición de Trazas (eliminación de trazas ruidosas o muertas) I) Correcciones Estáticas (efectos de topografía y capa meteorizada o Weathering) C) Deconvolución Aguda (Spike, tiende a agudizar las formas de onda) I) Agrupamiento por Familias de Trazas de PCP (CDP Gathers) I) Corrección Dinámica o por Retardo Normal (Normal Move Out), que incluye el Análisis de Velocidad. I) Apilamiento o Suma (Stack), eventualmente antecedido por el Enmudecimiento frontal (Mute) -- en esta etapa ya se tiene una sección sísmica, en formato SEG Y C) Filtrados Varios (de frecuencias, de velocidades, etc) C) Migración (corrección de las deformaciones por buzamientos y eliminación de difracciones) O) Migración antes de apilamiento (Pre-Stack) O) Retardo Buzante (Dip Move Out) en lugar de NMO antes de apilamiento O) Deconvolución Predictiva (para eliminar reflexiones múltiples) O) Estáticas Residuales (para ajuste fino de estáticas) O) Realce de Frecuencias (para conseguir una mayor resolución sísmica) O) Corrimiento de Fase (generalmente a fase cero para una mejor interpretación) O) Verdadera Amplitud (para optimizar las relaciones de amplitud entre distintos eventos) O) Conversión a profundidad (se pasa de escala vertical en tiempo a profundidad) I)Demultiplexeo: Reordenamiento secuencial de los datos de campo (figura a la derecha), convirtiendo el formato provisorio inicial (secuenciando el número de canales o trazas de cada muestra sucesiva) en formato de matriz traspuesta (secuenciando el número de muestras de cada traza sucesiva). Consiste en modificar la secuencia de valores de amplitud muestreados a fin de facilitar la visualización de los registros de campo y el subsiguiente procesado de los datos. Es un proceso realizado automáticamente apenas después de grabar tras cada disparo. Los registros quedan así en el llamado formato SEG B.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

I) Recuperación de ganancias o amplitudes: proceso de corrección por el efecto de la pérdida de amplitudes debido a la divergencia cuasiesférica del frente de ondas y las pérdidas por el comportamiento parcialmente inelástico del subsuelo (atenuación), el desperdigamiento (scattering) y la partición de la energía. Se hace un análisis iterativo para obtener la curva de ganancia óptima que mediante una curva logarítmica creciente recupera la pérdida total expresada con una curva exponencial decreciente, como se ilustra a la derecha. Una alternativa más lenta, y por lo tanto costosa, es hacer un proceso de recuperación de Verdadera Amplitud, que en rigor no lo es, ya que verdadera amplitud es la que se ha registrado de campo, con primeros arribos de gran amplitud y arribos posteriores decreciendo exponencialmente. Llamamos Verdadera Amplitud a la que se hubiese obtenido si la divergencia esférica y demás fenómenos de pérdida de energía no hubieran sucedido. Y esto se hace mediante cálculos de áreas relativas involucradas en el viaje del frente de onda según sea la profundidad y distancia fuente-receptor de los eventos registrados. Sólo se realiza cuando otros procesos o análisis posteriores lo ameritan: inversión de trazas, método AVO, estudios sismoestratigráficos u otros. I) Correlación cruzada de vibros: se hace la comparación entre el barrido (sweep) de campo (grabado en la cinta) y cada una de las trazas del registro. Es un conjunto de multiplicaciones entre traza y barrido (desplazado en el tiempo muestra a muestra) que finalmente se integra, como se expresa matemáticamente en el recuadro.

La operación de correlación cruzada se aplica a los valores digitales de la traza registrada. El tiempo total de registro de campo es la suma de los ocho o doce segundos del barrido más los cuatro o cinco segundos de la ventana temporal de interés. Como puede verse en la figura de la página anterior, cada trayectoria reflejada a distinta profundidad, genera un arribo que se extiende por un intervalo de tiempo de varios segundos, dado que,

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

al tener un barrido de frecuencias transitando el subsuelo, en cada interfaz se van reflejando progresivamente desde las bajas hasta las altas frecuencias del barrido. Consecuentemente llegan a una dada estación receptora los barridos reflejados parcialmente superpuestos desde esas distintas interfaces localizadas a distintas profundidades. La aplicación de la función de correlación cruzada permite ordenar matemáticamente la información de modo que todas las frecuencias resulten aplicadas simultáneamente para cada evento reflejado como si la fuente hubiese sido impulsiva. Pero con una diferencia en la traza o sismograma obtenido: la ondícula generada no es de fase mínima -como en las fuentes impulsivas- sino de fase cero, resultante de la autocorrelación del barrido (la correlación consigo mismo), concepto que fue definido hacia 1970 por el estadounidense John Klauder. C) Edición de Trazas: supresión de trazas ruidosas (por mal acople de los receptores, ruidos de motores, etc.) o muertas (generalmente por problemas de cables), cuya participación en las siguientes etapas del proceso sería nula o incluso negativa (en el Apilamiento). I) Correcciones Estáticas: son correcciones en tiempo debido a la topografía (existencia de desniveles entre fuente de energía y receptores) y a las variaciones de velocidad y espesor de la capa meteorizada (de baja velocidad o weathering). Se establece un plano horizontal de referencia (datum) por debajo de ésta, que es el nuevo cero de los tiempos, como se ilustra abajo. Al tiempo total se le restan los tiempos que tarda el frente de onda en recorrer la capa meteorizada hacia abajo y hacia arriba. Se hace una corrección por emergencia y otra por incidencia, única para cada estaca o estación, de modo tal que se aplica la estática calculada a cada una de las trazas de un registro individual. Otras veces se emplea un plano en el aire, por encima de la topografía, y matemáticamente se rellena ese espacio con una velocidad semejante a la que se estimó para la primera capa de alta velocidad (la que infrayace a la meteorizada: submeteorizada o subweathering). La velocidad de la capa meteorizada (del orden de 400 a 1200 m/s) suele variar lateralmente, mientras que la capa infrayacente (de unos 1700 a 2000 m/s) generalmente varía menos. Los problemas que ocasiona dicha capa superficial se resumen en la figura de más abajo. El espesor de la capa meteorizada se calcula por sísmica de refracción, con dromocronas horizontales (suele aplicarse la técnica de Sumación, expuesta en el Tema 12) y/o dromocronas verticales (en pozos o upholes). Estos últimos son más costosos y por lo tanto generalmente se hacen unos pocos en puntos estratégicos para el control fino de las dromocronas horizontales. Si los registros de sísmica de reflexión son lo suficientemente detallados para niveles someros, pueden usarse para el cálculo de dromocronas horizontales, evitándose la adquisición de sísmica de refracción, aunque esto raramente sucede debido a su muy distinta profundidad de interés y consecuentemente su escasa confiabilidad. En el mar o lagos sólo debe considerarse su variación de profundidad, más el efecto de marea. No existe bajo el agua una capa de baja velocidad como en tierra. La velocidad en el agua promedia los 1500 m/s y la capa de sedimentos de fondo, embebidos en agua, tienen una velocidad algo mayor.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

C) Deconvolución Aguda (Spike) o Filtrado Inverso: El concepto de deconvolución se refiere a las operaciones matemáticas empleadas en restauración de señales para recuperar datos que han sido modificados por un proceso físico llamado convolución. De modo que, conocidas la imagen convolucionada S (en nuestro caso la traza) y la función portadora G (la ondícula), más un modelo físico del ruido ε, se obtendría la distribución de información original F (los coeficientes de reflexión). Pero la resolución de esta ecuación es un complejo filtrado inverso en la práctica, debido a una dificultosa estimación del ruido, para lo cual se emplean elaborados algoritmos iterativos que sin embargo nunca logran un resultado cercano al ideal. En concreto, lo que se tiende a hacer con la deconvolución aguda es minimizar el efecto de la convolución -o sea, el efecto del informante-, pero no se puede suprimir del todo para llegar a la información pura. El ideal de remover la forma de onda para obtener las series de coeficientes queda lejos de poder alcanzarse debido a la presencia de diversos tipos de ruidos y su consecuente magnificación al intensificarse este proceso iterativo de deconvolución. De todos modos este filtrado inverso permite concentrar o colapsar la energía de cada evento reflejado, mejorando la resolución vertical, ya que con el estrechamiento de la ondícula se consigue agudizar la respuesta de los eventos reflejados, tal como se grafica a continuación.

En la práctica el analista sísmico busca un razonable punto medio entre la agudización de los reflectores y el aumento del ruido. A la izquierda un caso real en el que se puede apreciar que la sección sísmica final (resultante de aplicar toda la secuencia de procesado, hasta el apilamiento o suma inclusive) da como producto una sección con mejor definición de reflectores pero también más ruidosa cuando se ha aplicado la deconvolución aguda, una corrección que, como se indicó, no es obligatoria aunque sí muy frecuente.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

I) Agrupamiento por Familia de Trazas (Gathers): Las trazas de los distintos registros de campo (esquema en amarillo) deben ser agrupadas en función del punto de rebote en el subsuelo, esto es, reunir las trazas correspondientes a una misma serie vertical de Puntos Comunes Profundos (PCP o CDP) aunque pertenezcan a distintos puntos de emisión y recepción, como se ve en el esquema de la parte derecha. Cada familia de trazas presenta un aspecto hiperbólico, análogo al de los registros de campo, dado por el creciente distanciamiento (x) que se refleja en los tiempos de tránsito (T), crecientes a medida crecen en el subsuelo las trayectorias de viaje y su oblicuidad.

I) Correcciones Dinámicas o por Retardo Normal (Normal Move Out, NMO): necesarias para horizontalizar las hipérbolas y dejar en fase los picos y valles correlacionables entre las distintas trazas de cada familia de punto común profundo. Hay que llevar todos los registros a tiempos de ida y vuelta (TWT) correspondientes a x = 0 (To) y para eso se deben calcular las diferencias de tiempo (∆T) entre cada trayectoria oblicua y la normal a la capa, lo que constituye la corrección por Retardo Normal (NMO), tal como se expresa matemáticamente en el gráfico adjunto. Para diferentes tiempos, la velocidad que nos anula el retardo es diferente. Para cada tiempo se aplica una velocidad media Vm tal que el cálculo anule el retardo. Son velocidades crecientes a mayor tiempo y configuran la llamada Ley de Velocidad de Apilamiento (stacking) que logra optimizar a la familia o gather y atenúa las reflexiones múltiples, dado que estas últimas provienen de una profundidad menor a la de las reflexiones simples (igualmente llamadas primarias, sean de onda P o S, aunque casi siempre se trabaja con las primeras). Es decir, al provenir las múltiples de una profundidad menor, tienen una velocidad media VmM de corrección menor -y por lo tanto una curvatura hiperbólica mayor- a la VmS, que es la velocidad media que corrige a las reflexiones simples con las cuales tienden a superponerse. Existe, por lo tanto, una diferencia de tiempo ∆T entre uno y otro alineamiento hipérbólico, tal como puede

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

verse en la figura adjunta. El ∆T de corrección dinámica apropiado para la reflexión simple resulta entonces insuficiente para la múltiple y, consecuentemente, sus eventos siguen quedando un poco desfasados, con un retardo o move out residual, como se aprecia en la figura inmediata inferior.

Asimismo, puede verse que un ruido superficial, de alineamiento recto como la onda de Rayleigh (ground roll), también queda desfasado tras la corrección por retardo normal

Entonces, las velocidades medias que nos anulan el retardo (crecientes con el tiempo) permiten obtener la Ley de Velocidad que mejor corrige dinámicamente los datos, algo que en la práctica resulta de un Análisis de Velocidades interactivo, de prueba y error, que generalmente no difiere más del 5% de la que se podría obtener con precisos datos de sísmica de pozo. Con esa ley podemos luego calcular los espesores (Z) de cada capa, así como sus velocidades interválicas. Para ello debe saberse que las velocidades medias reales -que se han intentado aproximar con el Análisis de Velocidades de Apilamiento- no resultan adecuadamente aproximadas por medias aritméticas, sino por las raíces de las medias cuadráticas (Vrmc, o Vrms en inglés), dado que las trayectorias de rayos no son totalmente verticales -en cuyo caso sí una media aritmética funcionaría-. Aquí sus expresiones analíticas:

Desde las sucesivas Vrmc estimadas interactivamente podemos obtener la sucesión de velocidades interválicas Vi, eventualmente con intervalos de variable espesor en el subsuelo. (A cada espesor le corresponde un cierto intervalo de tiempo de ida y vuelta vertical, llamado ∆T, que no debe confundirse con los ∆t vistos para la corrección de retardo normal. I) Apilamiento (Stacking): Es la culminación de la corrección dinámica, tal como se ve en la figura superior derecha. Al haber conseguido dejar en fase las reflexiones simples o primarias y desfasados los ruidos superficiales -que hubieran sobrevivido a las estrategias de adquisición- y también desfasados los ruidos profundos (esencialmente ondas múltiples varias) al sumar o apilar lo que se está haciendo es atenuar ruidos y resaltar la señal, es decir, obtener una traza suma que consigue mejorar la relación Señal/Ruido, la esencia del método de stacking o apilamiento. Las reflexiones múltiples se suelen atenuar a 1/3 ó 1/4 de la amplitud de la reflexión simple, aunque en ciertos

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

casos en que las velocidades de eventos simples y múltiples se asemejan, estos últimos pueden llegar a sobrevivir al apilamiento y podría entonces propender a confusiones en la interpretación. De ser así, existe una alternativa posterior en la secuencia de procesamiento sísmico para lograr su eliminación, la Deconvolución Predictiva, que luego citaremos. Existe una operación complementaria previa al Apilamiento, llamada Enmudecimiento Frontal (Mute), empleado para eliminar la porción más somera de las trazas con mayor apartamiento de una Familia, con una función de corte gradual en rampa. En esos tiempos superficiales de trazas lejanas a la fuente, multiplicamos sus amplitudes por cero, evitando así apilar porciones de trazas con baja frecuencia que contribuirían negativamente a la suma, como se ilustra a la derecha. En esta etapa del procesamiento sísmico de reflexión ya se tiene una sección sísmica -o un cubo- interpretable, en un formato digital denominado SEG Y. (Este y otros formatos sísmicos fueron desarrollados en la Society of Exploration Geophysicists de los Estados Unidos.) Una sección o cubo sísmico está constituido de trazassuma, cada una de las cuales es una serie temporal (To) de valores de amplitud, muestreados cada 4 ó 2 ms. C) Filtrados: Los ruidos se pueden separar de la señal haciendo uso de filtros de frecuencias, de velocidades, de coherencia u otros. Siempre debe evitarse perder parte de la señal (o al menos minimizar la pérdida) en el afán de suprimir ruidos que, en caso de no ser eliminados, podrían dar imágenes sísmicas procesadas de confusa interpretación. Filtrado de Frecuencias: este tipo de filtro permite eliminar aquellos ruidos cuyas frecuencias difieren de las que contiene la señal sísmica. Se aplica en forma de trapecio con dos rampas como corta-bajos y corta-altos para suprimir bajas y altas frecuencias temporales respectivamente. En los extremos izquierdo y derecho del espectro (en el dominio transformado de Fourier) las frecuencias son suprimidas totalmente, mientras que en la zona central son preservadas totalmente y en las rampas se las va cortando gradualmente desde cero a cien por ciento, lo cual se hace así para evitar la aparición del Fenómeno de Gibbs (descripto en 1899 por el estadounidense J. Willard Gibbs, uno de los pioneros de la termodinámica) que generaría un corte abrupto tipo cajón, esto es, ruido por el problema de sobrepaso residual de las formas de onda de las series de Fourier.

En la figura inmediata superior se ven los espectros de frecuencias de la contribución teórica de la señal y del ruido, el espectro conjunto, que es el realmente registrado, y la forma del filtro trapezoidal, con rampas que en este ejemplo se ubican entre 8/14 y 60/80 Hz. A la derecha algunas magnitudes medidas usualmente durante la adquisición y el procesamiento de la sísmica de reflexión. La palabra octava es lo que en música se denomina nota. (Los tonos musicales son armónicos de una nota, o sea sus múltiplos de frecuencia.)

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

A la derecha un ejemplo real de aplicación de un Filtro Pasabanda sobre una sección sísmica vieja, de escaso recubrimiento (1200%), cuya regular calidad mejora cuando se reduce la entrada de altas frecuencias, que evidentemente están mayormente constituidas por ruido. Filtrado de velocidades: se basan en representar la información sísmica en gráficas F/K (frecuencia / número de onda), lo que se realiza a través de la aplicación de una doble transformada de Fourier: primero de la traza (amplitud/tiempo) al espectro de frecuencias (amplitud/frecuencia) y luego a la gráfica F/K. Entonces pueden eliminarse ruidos que aparecen como eventos lineales de velocidades distintas a la de la señal. Hecho lo cual, se realiza el camino matemático inverso para volver a la traza sísmica. En la figura a la derecha puede apreciarse el sector de aplicación del filtro de velocidades junto con los sectores del filtro de frecuencias y del filtrado que ejerce el arreglo de recepción en el campo. Los valores negativos en abscisas se refieren a frentes de onda que han arribado con sentido opuesto. Filtrado de Coherencia: la supresión de ruido se realiza en función de algoritmos de coherencia o semblanza que se aplican a partir de la comparación de trazas sucesivas, de donde se deducen tendencias de alineamientos de eventos, considerados como ruidos presuntos que han de suprimirse. Sin embargo, la aplicación de este tipo de filtrado ha de ser cuidadosa, ya que se corre el riesgo de eliminar también parte de la señal. C) Migración: Es la etapa del procesado de la sección sísmica que permite llevar cada PCP a su verdadera posición respecto de los puntos de emisión y recepción, algo que no es necesario hacer cuando las interfaces del subsuelo son horizontales, pero que se torna tanto más importante cuanto mayores son los buzamientos, tal como se ilustra a la derecha. Esto es crítico en la localización de un pozo.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Es por eso que resulta importante migrar, sobre todo cuando hay altos buzamientos y, en verdad, desde hace dos décadas, con la reducción de costos que trajeron los progresos informáticos, la migración ha pasado a ser una etapa rutinaria del procesamiento sísmico. Al migrar se deben determinar los ∆x y ∆y para cada PCP que no esté sobre un plano horizontal. Una forma manual de realizarla, que se empleó en viejas épocas, es la que se ilustra a la derecha, útil a los fines de entender geométricamente de qué se trata. La figura de abajo ilustra un caso extremo, que sin embargo es frecuente en áreas plegadas, donde una interfaz geológica de un sinclinal puede generar tres reflectores sísmicos, dos en X y uno en forma de anticlinal profundo (efecto de foco enterrado), con las nefastas consecuencias intepretativas que esto podría acarrear. Un ejemplo real puede verse hacia la derecha, donde la sección sísmica migrada logra reconstruir apropiadamente la configuración estructural que estaba muy distorsionada en la versión no migrada.

Otra forma de entender lo que hace el proceso de migración es ver cómo éste opera sobre las ficticias hipérbolas de difracción que están siempre presentes en toda sección sísmica no migrada. La primera figura de la página siguiente muestra cómo son asignados los puntos de tales curvas de difracción, a partir de puntos de emisión desde cada uno de los cuales sale un rayo que llega a un punto difractor, que a su vez genera rayos en todas direcciones que van a parar a todos los puntos receptores. Esas localizaciones erróneas, en los puntos medios entre emisión y recepción, son la consecuencia de asumir capas horizontales y ausencia de puntos difractores. Entonces la migración lo que hace es mover cada uno de esos puntos, llevándolos al lugar desde donde en realidad proviene tal energía. De hecho, una forma manual de migrar es trabajar de este modo con los eventos

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

difractados que se observan sobre la sección sísmica no migrada, tal como se ilustra.

Con sísmica 2D suele haber cierta incertidumbre en los parámetros de migración debido al desconocimiento de las componentes de buzamiento laterales a la línea de adquisición sísmica, por lo que las imágenes sísmicas finales pueden resultar desenfocadas. Esto es algo que no ocurre con sísmica 3D al disponerse de una visualización completa del espacio circundante, tal como se ilustra en las secciones a la derecha que son modelos sintéticos que reproducen el resultado que daría la estructura que se esquematiza abajo.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Ya sea para sísmica bi o tridimensional, hay varios métodos de migración, de los cuales los más conocidos son: Métodos Manuales: a) en tiempo, por Envolventes o bien por Difracciones (el que más se usó en los primeros tiempos del método de Stacking, como hemos ilustrado) b) en profundidad por Envolventes o bien por Rayos Sìsmicos. Métodos Automáticos: a) en tiempo, - por el método de difracción o integral de Kirchhoff (una aproximación de índole estadística), - mediante integración de diferencias finitas por ecuación de onda (de tipo determinístico, por continuación descendente), más preciso pero más lento que el anterior, - en el dominio de las frecuencias por doble transformada de Fourier (también determinístico y por ecuación de onda), con mejores resultados que los anteriores en altos buzamientos, b) en profundidad, - por trazado de rayos, más costoso pero con buena resolución de cambios laterales de velocidad. O) Migración antes de suma (pre-stack): Es una variante sólo utilizada en situaciones tectónicas complejas dado su costo, debido a que el proceso de migración se aplica a cada una de las trazas que van a formar la familia de PCP, en lugar de hacerse sobre la traza suma o apilada. El método aplicado en migración pre-stack puede ser cualquiera de los mismos arriba citados para migración convencional después de suma o post-stack. Al hacer la migración sobre cada traza individual de la familia, se consigue una mejor traza-suma y en definitiva un mejor resultado en la sección a interpretar. El fundamento de esta ventaja puede visualizarse en el gráfico de abajo, donde se observa cómo los rebotes de las distintas trayectorias fuente-receptor que han de conformar la familia de trazas de PCP en rigor no provienen de un único punto sobre el horizonte reflector si éste inclina. Es decir, si se apila antes de migrar, se está apilando eventos que no coinciden bien y por lo tanto la traza apilada no es tan buena y la posterior migración tampoco lo será. En cambio, si primero se migra, el posterior apilamiento resultará mejor.

Arriba puede verse un ejemplo extremo de cuánto puede llegar a cambiar una imagen procesada de sísmica de reflexión (en este caso 3D en el Golfo de México) si se aplica migración antes de suma. Otras veces la diferencia con la migración después de suma no es tan evidente, pero siempre la hay.

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

O) Correcciones Dinámicas o por Retardo Buzante (Dip Move Out, DMO): Consiste en calcular el Retardo Buzante (DMO) en lugar del Retardo Normal (NMO), por convolución aplicada a familias adyacentes de Punto Común Profundo, lo que consigue un corrimiento más correcto de los ∆t entre las trazas de cada familia al estimar un posicionamiento más correcto en el subsuelo, contemplando el buzamiento del horizonte reflector, cosa que no hace la corrección por Retardo Normal. Puede recurrirse al DMO como una opción más económica a la migración, aunque menos efectiva. Otras veces se lo aplica como complemento previo a la migración antes de suma, a fin de optimizarla. O) Deconvolución Predictiva: Proceso utilizado para predecir la presencia de reflexiones múltiples y eliminarlas cuando éstas hubieran sobrevivido al Apilamiento. El algoritmo tiene la forma de una deconvolución que busca la repetición de formas reflectoras a tiempos múltiplos enteros del más somero, que se considera el de la reflexión simple. A la derecha, el esquema operativo de la corrección aplicada y, abajo, un ejemplo clásico de múltiples en el espesor de agua de un mar o lago, conocido como reverberación o ringing. Su presencia en la sección sísmica podría causar errores de interpretación. La deconvolución predictiva las suprime.

O) Correcciones Estáticas Residuales: Opción de ajuste fino de las correcciones estáticas, si éstas no hubieran sido muy buenas por las carencias en los datos de las estáticas de campo. Es un proceso que se hace por comparación de trazas aledañas, donde el algoritmo busca eventuales saltos de tiempo constante a lo largo de toda una traza respecto a sus vecinas y, de haberlo, los corrige. En la aplicación de esta opción cosmética debe cuidarse de lograr la mejora en la consistencia en el colgado de los tiempos de las trazas sin atenuar los rasgos estratigráficos o estructurales del área registrada. A la izquierda un ejemplo de este proceso correctivo opcional.

16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

O) Realce de Frecuencias: Es otra opción para mejorar el aspecto de la sísmica, en este caso buscando obtener una mejor resolución de los eventos. Para ello se emplean algoritmos que permiten recuperar altas frecuencias casi perdidas ya desde el registro de campo, lo cual tiene el alto riesgo de intercalar falsos horizontes si el proceso se aplica en exceso. La figura de la derecha es un ejemplo de esta aplicación. O) Corrimiento de Fase: Otra opción cosmética, para correr la fase de las trazas sísmicas, de fase mínima a fase cero -lo más habitual- o bien a la inversa. El primer caso suele hacer más fácilmente interpretables las secciones sísmicas. Al revés, sólo se hace si una sísmica de vibro debe ser comparada con sísmica aledaña que está registrada con una fuente impulsiva. Abajo vemos un modelo sintético del efecto que produce el corrimiento de fase.

O) Recuperación de Verdaderas Amplitudes: Es un proceso aplicado sólo en casos particulares -figura a la derecha- en los que el objetivo no es la mejor visualización, sino la aplicación posterior de otros procesos especiales, tales como la Inversión de Traza o el método AVO, que se explican en el Tema 18. Debe tenerse presente que las verdaderas amplitudes son en verdad aquellas que se han registrado, afectadas por divergencia esférica y un sinnúmero de etcéteras. Lo que acá definimos como verdadera amplitud es una amplitud lo más parecida posible a la que se hubiese registrado si divergencia esférica y etcéteras no ocurriesen. Para hacerlo el método consiste en optimizar la recuperación de ganancias con este criterio que es más analítico que visual y que requiere de mucho más tiempo de trabajo en el centro de cómputos. O) Conversión a Profundidad: Existen varios métodos para pasar la escala vertical de la sísmica de reflexión de tiempos de ida y vuelta verticalizados a profundidades. Puede hacerse con datos de leyes de velocidad obtenidos en pozos (cuántos más en el área de trabajo, mejor) o bien con datos obtenidos desde el procesamiento. En este último caso lo más efectivo es hacerlo migrando los datos en profundidad.

17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Si el proceso está poco controlado es preferible manejarse con la sísmica en tiempo y calcular las profundidades en los puntos de interés prospectivo. Un exceso de confianza en una sísmica con escala vertical métrica podría derivar en interpretaciones y prospectos de profundidad errónea. El ejemplo siguiente, en el Flanco Norte de la Cuenca Golfo San Jorge, obtenido por migración por trazado de rayos en profundidad antes de suma, muestra cómo se altera la escala vertical en términos relativos. Las secuencias más altas, del Terciario, se ven más delgadas en la escala Z, mientras que lo contrario ocurre con las secuencias profundas de la Fm Pozo D-129, rocas madres del Cretácico, más delgadas en escala de To. Se debe recordar que las velocidades sísmicas crecen con la profundidad.

18

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 15 Procesamiento Sísmico de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Los cubos sísmicos -en rigor volúmenes de variadas formas- pueden registrarse en forma aledaña y luego procederse a la Fusión (Merge) de los mismos, así como a la vinculación de sísmica 3D con 2D preexistente, parcialmente superpuesta, mediante el reproceso de esta última, más antigua, con los parámetros de la 3D. Una vez finalizado el procesamiento de la sísmica de reflexión, las secciones individuales o bien los volúmenes, resultantes de un proyecto, ingresan a la fase de Interpretación en términos geológicos, petroleros o de otras aplicaciones diversas.

CUESTIONARIO BÁSICO: - ¿Qué cosas le sucede a la onda sísmica durante su viaje por el subsuelo? - ¿Cuál es el objetivo del procesado sísmico de reflexión? - Esquematizar los pasos esenciales del procesamiento de la sísmica de reflexión y explicar cuál es el objetivo de cada uno de dichos pasos. - Mencionar las etapas no imprescindibles pero muy comunes del procesado. - Explicar la metodología vista en clase para corrección estática. - ¿Qué ventajas da el uso de la transformada de Fourier? - ¿Cuál es el significado de la convolución y cuál el de la deconvolución en el procesado sísmico? - ¿Qué utilidad tiene el proceso de migración y en qué consiste hacerlo antes de suma? - Citar etapas ocasionales del proceso y su eventual utilidad.

BIBLIOGRAFÍA - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales. - Cantos Figuerola, J., 1972. Tratado de Geofísica Aplicada (p.235-305). Librería de Ciencia e Industria. - Fowler, C., 1990. The Solid Earth (p.133-147). Cambridge University Press. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

19

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

PROSPECCIÓN ACÚSTICA Y SÍSMICA DE POZO

La acústica (del griego ἀκουστικός, auditivo) es la ciencia del sonido (del latín, sonitus). Los griegos Pitágoras en 550 a.C. y Aristóteles en 350 a.C. hicieron los primeros estudios sobre la naturaleza del sonido. Posteriormente, en el año 20 a.C., el arquitecto romano Vitruvio realizó algunas observaciones sobre fenómenos acústicos y aventuró hipótesis ingeniosas en relación con la reverberación y la interferencia. Muchos siglos después, en 1636, el matemático francés Marin Mersenne realizó medidas cuantitativas en relación con el sonido al hallar el tiempo de retorno de un eco y calcular con sólo un 10% de error el valor de la velocidad del sonido, así como la frecuencia de vibración de distintas cuerdas en relación con sus notas y tonos. Años después, en 1660, el irlandés Robert Boyle demostró que el sonido no se propaga en el vacío. Y el inglés Isaac Newton fue 1687 el primero en publicar un tratamiento matemático de los fenómenos acústicos, y durante el siglo XVIII los matemáticos franceses Jean d'Alembert y Joseph Lagrange así como los suizos Johann Bernoulli y Leonhard Euler contribuyeron al conocimiento del sonido, cuyo tratamiento matemático completo requiere del análisis armónico, desarrollado por el matemático francés Joseph Fourier en 1822 y aplicado luego en física por el alemán Georg Ohm hacia 1830. Posteriormente, en 1878, el inglés John Strutt (Lord Rayleigh) publicó “The Theory of Sound” con nuevas aportaciones al tema. Ondas sísmicas y ondas sonoras o acústicas difieren sólo en el rango de frecuencias involucradas: usualmente no mucho más de 100 Hz para las primeras y hasta 20 000 ó 30 000 Hz para las segundas (con más de 20 000 Hz caen fuera del espectro audible humano y son denominadas ultrasonidos, y debajo de 15 ciclos/s, subsonidos). .

.

.

Sonar Lateral y de Substrato Fue Leonardo Da Vinci en 1490 el primero en emplear las ondas de sonido en el agua para, a través de un tubo sumergido, detectar la cercanía de barcos. Siglos después, tras el desastre del Titanic (1912), Lewis Richardson patentó en Inglaterra el primer ecolocalizador subácueo y fue el canadiense Reginald Fessenden, mediante un oscilador de 500 hz, quien primero utilizó esta técnica para localizar témpanos, en 1913. Este desarrollo fue mejorado en varios países durante la Primera Gran Guerra para detección y navegación submarina. El sonar (acrónimo de SOund Navigation And Ranging) es una herramienta acústica (sónica) empleada en lagos o mares para navegación, posicionamiento, comunicaciones y localización de cardúmenes. Emite ondas de ultrasonido y registra su tiempo de reflexión (viaje de ida y vuelta) que en base a la velocidad de las ondas en el agua (1500 m/s) permite el cálculo automático de distancias, tal como lo hacen ballenas y delfines. En el ámbito de las geociencias y también en otras disciplinas se utiliza el sonar para la obtención de imágenes acústicas en el fondo de cuerpos de agua. Se basa en la emisión de ondas de sonido y la recepción de sus reflexiones, las cuales tendrán una variación debida al tiempo de viaje (función de la distancia) y una variación de amplitudes, según los coeficientes de reflexión de las superficies reflectantes.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Existen dos modalidades en uso: El Sonar Lateral (Side-scan Sonar) utilizado comercialmente desde la década de 1960, aunque había sido inventado hacia 1950 por el alemán Julius Hagemann (trabajando para la Marina estadounidense). Este sistema obtiene dos imágenes, una a cada lado del aparato emisor-receptor (el pescado o fish), las cuales permiten graficar las características acústicas del fondo marino o lacustre. Se emplean para geomorfología y sedimentología del lecho, búsqueda de barcos hundidos, etc. A la derecha esquema de adquisición de datos, imagen de un cono volcánico y batimetría mapeada.. Abajo, imagen doble de óndulas en un lecho arenoso, y una embarcación naufragada.

El Sonar de Substrato (Sub-bottom Sonar), de más reciente desarrollo, permite generar secciones acústicas verticales, de forma análoga a como lo hace la sísmica 2D o asimismo el Georradar, en este caso de poca profundidad bajo el lecho (raramente más de 100 metros) pero de gran resolución, es decir, mucho detalle, ya que permite discriminar capas de hasta unos 10 cm de espesor mínimo. Estas secciones permiten hacer estudios sedimentológicos o eventualmente estratigráficos de detalle, como también búsqueda de restos arqueológicos, etc. Abajo el pescado registrador y a la derecha una sección que muestra estratificación delgada.

Perfiles Acústicos de Pozo Una de las tareas fundamentales que realiza un intérprete sísmico es la de volcar la información obtenida de la perforación de un pozo sobre la sección o volumen sísmico que pasa por donde el pozo fue perforado. Su objetivo es obtener una relación clara entre los eventos sísmicos y geológicos. Esto le permite valerse de la sísmica de reflexión –2D ó 3D, registrada desde la superficie– para extrapolar lateralmente la información del pozo y elaborar mapas más confiables. Los perfiles sónicos (acústicos) y la sísmica de pozo son los métodos para lograr este objetivo. Mediciones Básicas con el Perfil Acústico o Sónico: La medición básica registrada por el perfil acústico es el tiempo de tránsito (los microsegundos que tomó en transitar la onda acústica un pie vertical de formación), que es una magnitud reciproca de la velocidad. La

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

siguiente formula puede usarse para convertir tiempo de transito acústico en velocidad:

v = 3,048.105 / ∆t

(∆t es el tiempo de tránsito acústico en microsegundos/pie y v es la velocidad en m /segundo) El tiempo de tránsito registrado por un perfil sónico en un pozo está normalmente dentro del rango de 50 a 200 microsegundos /pie. Esto corresponde a velocidades en el orden de 6000 a 1500 m/s. Además de la curva del ∆t suelen indicarse los tiempos de tránsito integrados -es decir, la sumatoria por tramos- con marcas cada diez milisegundos al borde de la pista del perfil acústico. Una Ley de Velocidad de Pozo es una gráfica de profundidad (usualmente en ordenadas, con la boca de pozo arriba) versus tiempos de viaje de las ondas acústicas o bien de las sísmicas (en abscisas, normalmente desde izquierda a derecha). Es una información de uso cotidiano y, en su versión más económica, se la puede construir a partir de los tiempos de tránsito integrados que da un perfil sónico. La utilización de sísmica de pozo es una opción más cara, que veremos más adelante. Sistemas de Perfilaje Acústico: a) Receptor dual Se trata de una herramienta que emplea un transmisor monopolar (de onda P) y dos receptores. Este sistema mide sólo el tiempo empleado en el intervalo D, como se A ve en la figura a la derecha. Esto se logra tratando a T-R1 y T-R2 como dos B mediciones separadas de receptor simple y calculando su diferencia. Para T-R2 el tiempo registrado es la suma de los tiempos empleados para atravesar los intervalos A, B, D, E. similarmente el tiempo registrado para T-R1 C D representa los intervalos A, B y C. Si los intervalos C y E son iguales, la diferencia entre las dos mediciones es D. El espaciamiento entre R1 y R2 es siempre igual a la distancia representada por D, aun cuando sus posiciones E relativas con respecto a D pueden variar ligeramente debido a cambios en la refracción provocadas por cambios de velocidad en la formación. El único problema serio de un sistema de receptor dual es su comportamiento cuando los intervalos de tiempo desde los dos receptores hasta la formación son desiguales. Esto puede ser a causa de la inclinación de la herramienta dentro del sondeo o porque los transductores receptores pasan frente a una caverna. En cualquiera de estos casos el sistema indicará un tiempo de viaje erróneo a través de la formación porque C es significativamente diferente a E. En ausencia de estos fenómenos el sistema de receptor doble funciona bien y da resultados válidos de tiempo de tránsito de la formación. b) Sistemas compensados Para superar las dificultades causadas por diferentes tiempos de tránsito en el lodo hasta los dos receptores se ha desarrollado un sistema dual que efectivamente compensa esos errores, al promediar las lecturas en sentidos opuestos. El sistema usa transmisores y receptores dispuestos como se muestra aquí a la derecha. En este instrumento los transmisores superior e inferior (cada uno monopolar) simétricamente dispuestos disparan alternativamente. Los dos receptores envían a la superficie dos tandas de datos para ser promediados y de allí obtener el tiempo de tránsito en la formación. Cuando se encuentra un ensanchamiento o un adelgazamiento del pozo, o cuando la herramienta de alguna manera se inclina en el pozo, se eliminan los errores introducidos a causa de la diferencia de tiempo de transito en el lodo de cada uno de los sistemas de transmisor simple-receptor dual. Una inspección de A-A`, B-B` y C-C` muestra que los promedios de estas diferencias son iguales.

A

B C` C B`

A`

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Ejemplo Práctico El perfil de abajo nos indica que para la profundidad X1 una señal acústica (similar a la de sísmica de refracción-reflexión) tarda Y1 µs en recorrer 1 pie, y en la posición X2 tarda Y2 µs en recorrer 1 pie. Si se desea averiguar cuánto tarda la señal en atravesar la profundidad X1 – X2 será: T = [(Y2 + Y1) / 2] . (X2 – X1) Donde (Y2 + Y1) / 2 es el promedio de las mediciones en el segmento X1 – X2 Para el tramo X3 – X2 será: T = [(Y3 + Y2) / 2] . (X3 – X2) Y así sucesivamente para cada uno de los tramos en forma individual. Si quisiéramos saber el tiempo total que tarda la señal acústica en ir de X1 a X3 sería: T X1-X2 + TX3-X2 = TX3-X1 (Y2+Y1)/2 . (X2-X1) + (Y3+Y2)/2 . (X3-X2) = T X3-X1 Σ (Y n +1 + Yn / 2) . (X n+1 – Xn) = T X3-X1 K ∆x

T tot = K . ∆x

Ejemplo de integración del acústico: PROF. (mbbp)

∆T(µ µs/ft)

∆T medio

∆T(s/m)

V(m/s)

Prof-Tiempo(s)

200

100.50

100.6

0.000330052

3029.821074

0.0000503

200.1524

100.70

100.8

0.000330709

3023.809524

0.0001007

200.3048

100.90

100.8

0.000330709

3023.809524

0.0001511

200.4572

100.70

100.5

0.000329724

3032.835821

0.00020135

200.6096

100.30

100.1

0.000328412

3044.955045

0.0002514

200.762

99.90

100.3

0.000329068

3038.88335

0.00030155

200.9144

100.70

100.975

0.000331283

3018.568953

0.000352038

201.0668

101.25

101.525

0.000333087

3002.216203

0.0004028

201.2192

101.80

102.075

0.000334892

2986.039677

0.000453838

201.3716

102.35

102.625

0.000336696

2970.036541

0.00050515

201.524

102.90

102.9

0.000337598

2962.099125

0.0005566

A la derecha, tramo de perfil acústico, en el Flanco Sur de la cuenca Golfo San Jorge. El acústico, sirve para correlación entre pozos, análogamente a otros perfiles. Pero también es un perfil clásico de porosidad, porque en rocas porosas, fisuradas o con fluidos la velocidad es menor, al igual que frente a lutitas con materia orgánica. En cambio, resulta mayor en rocas más compactas, muy cementadas o con fuerte diagénesis. X1

X2

X3

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Perfil de Cemento: Imagen sónica del caño que entuba el sondeo y de las rocas de la pared, con el objetivo de discernir la presencia o eventual ausencia de cemento entre ambas. El fin es el de evaluar la efectividad de la operación de cementación para posteriormente definir sobre bases firmes las capas a punzar para evaluar potenciales capas productivas u otros trabajos de terminación. del pozo. En la figura siguiente de la izquierda se ven imágenes típicas antes y después de la inyección de cemento, en este segundo caso con una cementación muy pobre en el extremo derecho.

Imágenes Acústicas de pozo: Se obtienen con una herramienta de perfilaje acústico múltiple. Se registran numerosos perfiles sónicos (24 ó más) en todo el perímetro del pozo a fin de mapear cilíndricamente la variación de los tiempos de tránsito y de ahí las velocidades, e incluso las impedancias acústicas, de las rocas de la pared de pozo en todo el tramo de interés. Son imágenes alternativas o eventualmente complementarias de las obtenidas por el perfilaje de microrresistividad, vistas en el Tema 6,7,8b. Arriba a la derecha un ejemplo, comparado con la fotografía de un testigo-corona. Perfil Sónico Dipolar: Es un registro acústico con una herramienta de dos polos: emisores vecinos que generan ondas flexurales, asimilables a las ondas S, de modo que estas ondas pueden registrarse bien (ya que resultan pobres con fuentes monopolares). Además se registran las ondas P (de fuente monopolar) y las ondas de Stonley (o Tubo), generadas a partir de las P en el límite sólido-fluido, que al atenuarse dan información sobre fracturas atravesadas.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Tal como puede verse en la figura precedente, los tradicionales transmisores monopolares permiten generar en las formaciones geológicas más compactas o rápidas los tres tipos de ondas que resultan de interés: compresionales, transversales y Stonley (ondas Tubo, aquí referidas como Fluid waves). Pero en formaciones lentas (poco consolidadas, porosas o muy fisuradas, en muchos casos reservorios) las ondas de corte reducen notablemente su amplitud. Es por esto que se desarrolló la herramienta dipolar, que genera una onda flexural, que se comporta como onda S pero tiene gran amplitud. La figura de abajo a la izquierda ilustra esquemáticamente estos transmisores. Disponer simultáneamente de las velocidades de las ondas primarias y secundarias permite hacer inferencias sobre los tipos de rocas y eventualmente la presencia de fluidos, dado que se puede proceder al cálculo de los módulos elásticos: Volumétrico: K = δ.Vp2 – 4/3 Vs2

Lamé: µ = δ.Vs2

Poisson: σ – (Vp/Vs)2 – 2 2

Young: E = 3Kµ / 3K+µ = 2µ (1 + σ)

2 (Vp/Vs) – 2

En la figura de la derecha podemos ver un registro de imágenes microrresistivas, junto con el calibre, el rayo gamma y la información que brindan las ondas de Stonley, a fin de identificar la presencia de fracturas que atraviesan el sondeo.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

También se ha diseñado una herramienta acústica dipolar doble (cross-dipole acoustic system), que posee dos dipolos orientados perpendicularmente entre sí, lo que da la posibilidad de registrar las ondas S en dos acimutes, tal como se esquematiza a la izquierda. Las ondas de corte viajan más rápido paralelamente a las fracturas y se ralentizan cuando deben atravesarlas. A la derecha se puede apreciar su potencial empleo para averiguar la orientación de las fracturas naturales, así como las hidráulicas y también el ovalamiento del pozo en función del campo de esfuerzos presente en el subsuelo.

A la izquierda la presentación de un perfil acústico dipolar a los fines de la ingeniería de la perforación, que muestra en las sucesivas pistas los datos del calibre del pozo, módulos elásticos, esfuerzos, caídas de la presión, densidad de lodo y litología.

Sismograma Sintético Como ya vimos en el Tema 15, cada sismograma registrado, conocido como traza sísmica S(t), resulta de la convolución de los coeficientes de reflexión F(t) con la ondícula G(t): S(t) = F (t) * G(t) Donde t es el tiempo empleado por la onda sísmica para recorrer el camino desde la fuente hasta las sucesivas interfaces reflectoras y desde ellas hasta los receptores. Un sismograma o traza sintética consiste en la imitación informática de ese proceso real. Para ello se debe disponer de la serie de coeficientes de reflexión, es decir de la sucesión de impedancias acústicas que permiten

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

calcularlos. Y éstas pueden obtenerse a partir de perfiles de pozo de velocidad (sónico o acústico) y densidad (obtenido usualmente con una herramienta radiactiva o en casos específicos con gravímetro). En la práctica el dato siempre imprescindible es la velocidad -principal factor de la impedancia-, mientras que puede prescindirse del dato real de densidad en cuencas sin grandes contrastes litológicos, como es el caso de la cuenca Golfo San Jorge. En este caso se podría asignar una densidad (δ δ) media constante o bien aproximar mediante la b fórmula de Gardner et al (1974): δ = a .V (V es la velocidad de cada capa, a y b magnitudes empíricas; por ejemplo, a=0,3 y b=1/4 en clásticas) En cuencas como la Neuquina estas asunciones de la densidad podrían llevar a grandes errores, ya que se intercalan litologías muy diversas (clásticas, carbonáticas, evaporitas, etc.) no siendo válida una relación lineal entre densidad y velocidad. En cualquier caso, habiendo calculado la serie de coeficientes de reflexión, luego se procede a convolucionar con una ondícula (ya sea analítica o bien extraída de datos reales de sísmica de superficie) y se obtiene una traza sísmica en la posición del pozo, o sea que se aplica un proceso que simula la generación de una traza en subsuelo, como se ilustra a la izquierda. Esta traza sintética -habitualmente repetida unas 5 a 9 veces a los fines visuales- se correlaciona luego con la sísmica de superficie en el lugar del pozo y así se pueden identificar los eventos geológicos a través de los perfiles de pozo y analizar su existencia en la sísmica.

De izquierda a derecha: perfil sónico, serie de coeficientes de reflexión, perfil de resistividad, ondícula analítica, sección sísmica y sismograma sintético intercalado (en rojo)

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Sísmica de Pozo Nos vamos a referir ahora a los registros sísmicos reales en pozos. Un sismograma sintético, como vimos, si bien útil, no es verdadera sísmica. En sísmica de pozo generalmente la fuente se halla en superficie y un receptor (geófono, foto a la izquierda) dentro del pozo se va ubicando a profundidades previamente definidas desde el fondo hasta la superficie. Prueba de Velocidad (Checkshot Survey): Es el tipo de registro sísmico de pozo más antiguo y básico. En él las posiciones o estaciones de anclaje de la herramienta a distintas profundidades se definen observando los cambios de tendencia del perfil acústico previamente registrado en el mismo pozo, de forma tal de dividir al sónico en zonas donde el carácter del perfil es más o menos constante. En los raros casos en que el perfil sónico no ha sido registrado, puede recurrirse a un perfil de resistividades profundas, que suelen tener cierta proporcionalidad general con los perfiles de velocidad. Se hacen varios disparos de la fuente -o sea, varios registros- por cada profundidad de anclaje de la herramienta (que contiene al receptor) y luego se suman las señales para aumentar la relación señal/ruido. Se mide el tiempo de arribo de la onda directa a cada profundidad y se obtiene así una ley tiempo/profundidad, llamada Ley de Velocidad sísmica de pozo, tal como la ilustrada a la derecha mediante la curva que nos da las velocidades medias -calculables en cada punto en base a las escalas vertical y horizontal superior-. En este gráfico también se representan las velocidades interválicas computadas, cuya escala está en la horizontal inferior. Calibración del Perfil Sónico: Un sismograma sintético procesado sin ajuste sísmico será mucho mejor que no tener ninguno, pero casi siempre presentará efectos distorsivos por una o varias de las siguientes causas: -Cambios laterales de velocidad en la inmediatez del pozo, los que darán unas lecturas para el perfil sónico -el cual lee a menos de un metro desde la pared del pozo- que serán distintas que las de la sísmica de pozo -la cual promedia valores a varios metros de distancia-. Debido a esto, la traza sintética puede aparecer acortada o alargada en distintos tramos respecto a las trazas sísmicas de superficie del entorno del sondeo, dependiendo tales diferencias de cuán importantes sean esas variaciones laterales y en qué sentido se produzcan. -Condición del pozo, que hace que allí donde está más deteriorado (por la invasión del lodo, expansión de arcillas, cavernas, etc) dará lecturas de velocidad más bajas para el perfil acústico que para la sísmica, dado que esta última promedia a distancias mayores donde la alteración se torna insignificante. Por esta razón en los tramos de pozo en peor condición las velocidades acústicas son más lentas que las sísmicas. Esto generalmente se da en la parte más somera del sondeo, donde las rocas son menos competentes y la exposición a la circulación de lodo ha sido más prolongada. -Dispersión de ondas, es decir la dependencia de la velocidad registrada con la frecuencia de la fuente. Dado que la herramienta acústica emite energía a 20000 ó 30000 Hz y la sísmica a no más de 100 ó 140 Hz, las velocidades sísmicas resultan más lentas. Este fenómeno se da a lo largo de todo el pozo, pero se hace visible en los sectores donde la condición de pozo es buena -dado que no es contrarrestado por el efecto anteriormente explicado-, normalmente la parte más profunda del sondeo. La calibración del perfil sónico se logra ajustándolo con el registro de tiempo de primer arribo de la onda sísmica (onda directa) de la Prueba de Velocidad. El método clásico de calibración consiste en aplicarle al acústico las correcciones indicadas por una curva de deriva (o drift) obtenida a partir del análisis de las diferencias entre los tiempos registrados mediante la Prueba de Velocidad y los tiempos de tránsito integrado DERIVA = T sísmico – T sónico integrado del perfil sónico:

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

La figura adjunta muestra los métodos de corrección de la deriva, por ∆t mínimo si ésta es negativa y por desplazamiento en bloque si es positiva. En este último caso se corre toda la curva en forma pareja para compensar la diferencia de tiempo entre acústico integrado y sísmica, por efecto de la dispersión. Pero, si la deriva es negativa, el corrimiento es proporcional, como se aprecia, dado que se asume un efecto variable dado por las condiciones también variables del sondeo. El resultado es una sucesión de velocidades con la cual se puede construir una serie de coeficientes de reflexión y finalmente una traza sintética que correlacionará mejor con la sísmica de superficie, evitándose los efectos distorsivos antes explicados.

Arriba un caso en que la velocidad y la densidad tienen comportamiento inverso, típicamente una evaporita. En la figura de la izquierda, caso de sismogramas sintéticos procesados con una densidad constante y con la que mide el perfil. Corresponde a un pozo de la cuenca del Golfo San Jorge y puede observarse que la densidad real sólo es importante en una interfaz a unos 1250 m

A la derecha un sismograma sintético procesado alternativamente con una ondícula de polaridad normal (PN) o reversa (PR), siguiendo la. convención americana. En el primer caso, un aumento de la impedancia. se corresponde con un pico. En el segundo, con un valle. (En la. convención europea es a la inversa.) El procesado alternativo con las dos

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

polaridades es una práctica común, de modo que en la interpretación sísmica se pueda cotejar el sismograma con las secciones de sísmica de superficie (2 ó 3D) en una u otra polaridad según corresponda. A la izquierda correlación de perfiles de pozo y litologías interpretadas, con el sismograma sintético y una angosta franja de una sección sísmica real. Y a la derecha un detalle de traza sintética procesada alternativamente con frecuencias máximas de 50 y 125 Hz. El segundo caso da mayor resolución y se acerca, sin llegar, a la posibilidad de inferir sísmicamente las capas mas espesas de la formación Comodoro Rivadavia. Sin embargo, la que vale es la que se equipara con las frecuencias realmente cosechadas desde la sísmica de superficie, de menores frecuencias lamentablemente. ,

Otra posibilidad es la de generar sismogramas sintéticos de ondas S, a partir de un perfil acústico dipolar, como se grafica seguidamente en escalas de tiempo y profundidad.

Con todo, el sismograma sintético sigue siendo un producto artificial, con limitaciones inherentes al modelo teórico que le da origen. Estos modelos toman datos de velocidad y densidad de perfiles de pozo que, aun corregidos, pueden no coincidir con lo que ve una onda sísmica al atravesar el subsuelo. Además suponen estratificación horizontal -aunque podría hacerse un modelo de capas buzantes con una inversión de tiempo bastante mayor-, computan incidencia vertical del rayo sísmico -también podría simularse incidencia inclinada-, suponen conocer el tipo de ondícula -que puede realmente conocerse si se la extrae de la sísmica de superficie-

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

y además están limitados por la extensión del pozo -en rigor por la extensión del registro acústico en el pozo-, es decir sólo son capaces de suministrar información de los estratos atravesados por el sondeo pero no de los ubicados debajo de él. Es, en suma, de importantísima ayuda para la puesta en profundidad de la sísmica de superficie, pero no es lo más. Perfil Sísmico Vertical (VSP): Para superar las limitaciones de una traza sintética, se puede recurrir a un VSP -a un costo bastante mayor- que analiza no sólo el primer arribo de la onda directa sino todo el tren de ondas y donde los geófonos están colocados equiespaciados entre 15 y 30 metros a lo largo del pozo. Este intervalo de muestreo espacial mínimo dependerá de la frecuencia máxima esperada y de la velocidad mínima esperada en la zona de interés. Según el teorema de muestreo de Nyquist, que ya hemos citado en el Tema 14, para evitar el coligamiento o aliasing espacial, dados ciertos valores de velocidad mínima (Vmín) y frecuencia máxima (Fmax), la separación entre geófonos deberá ser: ∆Z(m) < Vmín(m/s) / 2 Fmax(Hz) El campo de ondas sísmicas presentes en el VSP se divide en ondas descendentes (down) y ascendentes (up), con sus correspondientes múltiples, lo cual puede ser visualizado en la figura de la izquierda.

Arriba medidas típicas de un pozo en el cual se sumerge un cañón de aire en agua o lodo de perforación, para ser empleado como fuente en tierra, donde, sin embargo, la fuente más común es el vibro. Todas las otras fuentes conocidas son utilizables en mar o tierra, según sea el caso. Abajo se ilustra un típico espectro de frecuencias registrado, el cual se va monitoreando durante la adquisición y naturalmente siempre resulta más rico en altas frecuencias en la porción más somera del pozo.

En la figura de la izquierda vemos cómo las reflexiones múltiples, tanto las ascendentes como las descendentes, aparecen como descolgadas en el registro debido a sus trayectorias, como quedan esquematizadas.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Registro real de VSP El campo de ondas ascendentes es separado del descendente y luego se efectúa un procesamiento de los datos semejante, aunque algo más simple, que el de sísmica superficial. Al visualizar el conjunto de trazas se pueden identificar fácilmente las reflexiones múltiples que pudieran haberse producido en el subsuelo, lo cual es un dato de suma utilidad para identificarlas en la sísmica de superficie, si estuvieran presentes, y eventualmente eliminarlas en un posterior reproceso de esta última. Abajo se ilustra comparativamente la familia de trazas de superficie que corresponde a la locación del pozo y la familia de trazas del VSP, distinguiéndose, entre otras, una reflexión simple (S) y su correspondiente múltiple (M) que no es tan evidente en los datos superficiales.

Las trazas de la familia del pozo (las registradas durante el VSP) luego son sumadas y se obtiene una única traza sísmica real apilada en la posición del pozo, la cual abarca desde la última posición del geófono (la más superficial), normalmente la número 40, ya que ése es el número mínimo de estaciones recomendadas para poder conseguir una buena traza suma. Y que además llega no sólo hasta la primera posición de recepción (la más profunda) sino hasta muchos metros por debajo del fondo del sondeo: mil o más, teóricamente tanto como se desee, asumiendo que la calidad se deteriora con la profundidad. El tramo superior del pozo, si no queda cubierto por el Perfil Sísmico Vertical, se completa con algunas estaciones de Prueba de Velocidad para poder calibrar el perfil sónico y ajustar el sismograma sintético, que siempre habrá de ser útil en ese tramo somero en el que se carece de una traza real de pozo. Esto se ilustra en la

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

figura superior. Un VSP tiene generalmente mayor resolución que la sísmica de superficie, porque las ondas viajan menos y por lo tanto tienen menor atenuación de sus altas frecuencias. Esta no es una ventaja para la correlación entre ambas sísmicas y, de hecho, se puede aplicar un filtro cortaaltos sobre la traza del VSP para asemejarla a las trazas de superficie. Pero esta mejor resolución de pozo puede ser útil para algún eventual proceso especial de la sísmica superficial (inversión de trazas, realce de las frecuencias, etc.). De modo que, al igual que una Prueba de Velocidad, el VSP también permite construir una Ley de Velocidad, pero además provee un sismograma real de pozo, la visualización por debajo del mismo y adicionalmente datos de reflexiones múltiples. Si el pozo abierto tiene mal calibre puede que el Perfil Sísmico Vertical sólo pueda registrarse a pozo entubado, por los problemas de anclaje de la herramienta en las cavernas. Pero entonces es más factible que aparezcan en los registros las ondas Tubo (de Stonley), las cuales en este caso son ruidos que pueden invalidar un VSP. Éstas pueden atenuarse bajando el nivel de lodo del pozo (en el tramo de cañería guía) o bien ubicando la fuente tal que haya una zanja o pileta entre ésta y la boca de pozo. Pero si el problema no se soluciona, se tendrá que desistir de registrar el VSP y alternativamente conformarse con una Prueba de Velocidad (Checkshot), si los primeros arribos están libres de ruido. Esto último servirá para tener un mejor sismograma sintético, siempre que se tenga el perfil acústico, lo cual es el caso más habitual. A la derecha un VSP intercalado en la sección sísmica de superficie.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Registros Sísmicos Apartados: Existe toda una variedad de registros con apartamientos, que permiten obtener angostas secciones sísmicas hacia los lados de los pozos perfilados -es decir, varias trazas apiladas- a fin de tener información con la que resolver problemáticas estratigráficas o estructurales cuando no existe sísmica de superficie con tales rumbos o bien cuando la sísmica existente no es de buena calidad. El más típico es el VSP Apartado (Offset VSP). En él se aleja la fuente a una posición fija a cientos de metros de la boca de pozo, como se esquematiza arriba, y se registran las usuales 40 estaciones o más como en el caso de un VSP sin apartamiento. La sección sísmica resultante se ilustra a la derecha del esquema. Otro caso es el VSP Recorrido (Walkaway) en el que se recurre a varias posiciones de fuente a distintas distancias de la boca de pozo, pero se limita el número de posiciones de geófono a unas pocas dentro del sondeo. Otros son el Sobrecorrido (Walkabove), el Horizontal, el Multiazimut y otros, cuyas configuraciones de adquisición se esquematizan a la derecha. Sísmica de Pozo durante la Perforación: También se puede registrar sísmica como parte de la técnica de perfilaje simultáneo (LWD, logging while drilling). Se puede operar ya sea con el trépano haciendo las veces de fuente y un geófono triaxial en la superficie -procedimiento que genera una ondícula muy mala- o bien, la mayoría de las veces, con un geófono ubicado dentro del conjunto de fondo en la misma columna de perforación y una fuente convencional en la superficie (vibro, cañón de aire u otra). Si bien este segundo caso es mejor, los registros obtenidos durante la perforación nunca son de buena calidad. La razón de su empleo es que permite predecir las formaciones a ser atravesadas para ajustar al máximo el momento de detener la perforación para operaciones críticas. Como ejemplos típicos, entre otros: - ensayos a pozo abierto - coroneo de reservorios - entubamiento previo a una zona sobrepresionada o a la entrada a un diapiro para cambiar la composición o densidad del lodo en función de las condiciones geológicas o de reservorios que se intenta atravesar sin dañar.

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

Registros de ondas S En cualquiera de las modalidades de los VSP se puede optar por adquirir, además de las ondas longitudinales, también las transversales, alargando el tiempo de registro y procesando la información de los canales horizontales del geófono de pozo, que desde hace muchos años es rutinariamente triaxial (son tres geófonos en x,y,z). No es necesario cambiar la fuente de energía, ya que las ondas S igual se producen desde tales fuentes convencionales en tierra -no en el mar-, y además también se generan ondas S en el subsuelo por conversión de modo de las P. Abajo podemos ver los registros de campo de ambos tipos de ondas y los VSP Apartados de ondas P (P-P), de ondas S creadas en subsuelo por conversión de modo (P-S) y de ondas S que partieron como tales desde la fuente sísmica.

Tomografías Sísmicas de Pozo: Del griego tomos, sección, y gráphein, dibujar, consisten en técnicas no convencionales de adquisición que procuran el registro de pozo de las más altas frecuencias posibles para una resolución de mucho detalle. Esto puede hacerse con una técnica pozo-superficie (tipo VSP Recorrido), o bien entre dos o más pozos, con la fuente desplazándose dentro de uno de ellos y los receptores dentro del otro u otros. En cualquiera de los dos casos es determinante el distanciamiento fuente-receptores para poder obtener las altas frecuencias que se buscan, lo que significa pozos poco profundos si se emplea la técnica pozo-superficie (máximo 1000 metros) o pozos cercanos entre sí en la técnica pozo-pozo (máximo 200 metros), aunque a mayores distancias también puede hacerse con resultados menos óptimos. Pero además se requiere de una geología favorable, con buenos contrastes de impedancia acústica entre las capas de interés, donde se realiza un procesamiento muy cuidado para maximizar la relación señal/ruido y se emplea una modelización iterativa en base a otros datos de pozo.

16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 16 Prospección Acústica y Sísmica de Pozo

Chelotti, L., Acosta, N., Foster, M., 2009

La figura siguiente ilustra la aplicación de las tomografías sísmicas.

CUESTIONARIO BÁSICO - ¿Qué tipos de registros se obtienen con el sonar lateral y con el de substrato? - Explicar brevemente los distintos tipos de herramientas acústicas de pozo y sus aplicaciones. - ¿Qué pasos deben seguirse para obtener un sismograma sintético? - Señalar los motivos por los que los tiempos integrados del acústico no coinciden con los que da la sísmica y explicar qué es la calibración de un sónico. - ¿Por qué en una Prueba de Velocidad sólo interesan los tiempos de primer arribo y en un VSP importa todo el tren de ondas? - Indicar las ventajas de un Perfil Sísmico Vertical convencional. - ¿Qué variantes de un VSP permiten obtener más de una traza apilada?, ¿qué información útil pueden brindar? - ¿Para qué puede servir registrar sísmica durante la perforación? - ¿Para registrar sísmica de onda S, qué tipos de fuentes pueden emplearse y cómo se trabaja? - Comentar brevemente las técnicas de tomografía sísmica de pozos. BIBLIOGRAFÍA - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p. 67-71 y 102-108). Yac. Petrolíferos Fiscales. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists. - Varios Autores, 1996. Sísmica de Pozo y Perfil Sónico. Western Atlas. - Varios Autores, 1990. Sísmica de Pozo. Schlumberger.

17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

“L’essentiel est invisible pour les yeux” Le Petit Prince, Antoine de Saint-Exupéry

INTERPRETACIÓN SÍSMICA Registrados y procesados los datos sísmicos, llega la hora del intérprete, como en todo otro método geofísico. Hasta aproximadamente 1990 se interpretaba con lápices de color sobre secciones impresas en blanco y negro o en los tonos gris azulado o castaño de las copias heliográficas. Después llegaron las computadoras, preferentemente a doble pantalla, para interpretación interactiva en secciones o cubos en color. De hecho, el avance informático permitió el desarrollo de la sísmica 3D, que sólo fue viable cuando se dispuso de la ferretería y la librería computacional que hoy nos son familiares y hasta imprescindibles para todo tipo de tareas en variadísimos campos de la cultura. Las máquinas más potentes para interpretar son las estaciones de trabajo (workstations) que funcionan sobre sistema operativo Unix, de las cuales Sun y Spark han sido las más usadas (fotografía izquierda), con varios paquetes de programas disponibles para alquilar en un mercado en permanente evolución. Pero también se puede disponer de licencias de softwares de varias empresas que los han desarrollado sobre PC, para Windows o Linux (sistema operativo DOS), con menos capacidades pero más amigables que los primeros, y en muy rápida evolución.

Por último, se han construido salas de visualizacion tridimensional (foto superior derecha) en las que se puede navegar dentro de un volumen sísmico, sobre todo para fines de presentación de proyectos ante quienes no están familiarizados con la sísmica, ya que un intérprete con una mínima experiencia visualiza mentalmente las tres dimensiones del prospecto que lo ocupa. Además todavía hoy suele recurrirse a secciones en papel, las más de las veces como un complemento práctico cuando se hace una interpretación de sísmica regional en dos dimensiones.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Conceptos Básicos de la Interpretación Cualquiera sea el soporte de la información, las estrategias generales de interpretación no varían demasiado. En áreas enteramente nuevas, sin pozos, asignar las interfaces reflectivas a determinados límites formacionales o secuenciales es sumamente especulativo: como en los espejismos, cuesta saber de dónde viene cada imagen. Es por esto que resulta fundamental contar con datos de acústica y/o sísmica de pozo, para posicionarse con certidumbre al menos en esa unidimensionalidad del sondeo, para después extenderse con algún grado de confianza en el To espacio bi o tridimensional que provee la información X sísmica disponible, tal como se ilustra a la derecha. Aun así, suele decirse que hay tantas interpretaciones como intérpretes, lo que en verdad no es correcto: hay más. Porque cada intérprete es capaz de dar más de una interpretación. Sólo una mayor y mejor cantidad de información geofísica, geológica, de pozos, ingeniería petrolera u otras puede ayudar a acotar el espectro interpretativo, como cuando aplicamos un filtro pasabanda. No obstante lo cual, haber eliminado posibles interpretaciones extremas no nos libera del ruido escondido dentro del rango aceptado, y hay que convivir con él. Ergo, nada garantiza que la más sólida de las interpretaciones no pueda acabar en pozo papa. Pero, como los fracasos deben reciclarse en enseñanzas, tras el prospecto fallido se reinterpretará esta suerte de música subterránea a partir de la nueva partitura que desde lo profundo arrojan los datos decepcionantemente descubiertos. Aunque claro, también se aprende desde los éxitos, seguramente menos, pero con mejor onda. Interfaces reflectoras: Si la buena onda es sísmica, debe tenerse siempre presente que los horizontes reflectores representan contrastes de impedancia acústica, tanto mayores cuanto mayor sea la diferencia en el producto de la densidad y velocidad de cada medio respecto al que se encuentra al otro lado de la interfaz, como ya hemos visto, y en tal caso mayor será la amplitud resultante. Los cambios litológicos de cualquier origen casi siempre implican contrastes en las impedancias acústicas, aunque hay algunos casos en que esto no sucede. También debe recordarse que, incluso en el mejor de los mundos, hay ruidos remanentes en las secciones o cubos sísmicos que podrían propender a interpretaciones erróneas. Y debe recordarse que la escala vertical normalmente es de tiempos sísmicos, no de distancias, y entre lo uno y lo otro no existe una relación lineal. En las cuencas sedimentarias los reflectores tienden a seguir líneas de tiempo geológico, es decir, superficies de sedimentación contemporánea y no líneas-roca, que es lo que suele interpretarse como correlativo cuando se tienen datos puntuales de pozos. Si lateralmente cambia el tipo de roca -por cambios en las condiciones del ambiente sedimentario dentro de un mismo tiempo geológico dado-, cambiarán entonces lateralmente las impedancias acústicas y, por lo tanto, la amplitud y, en general, el aspecto o carácter de la reflexión: su amplitud, pero también quizás su frecuencia, y eventualmente también el modo en que se interfiere con otras reflexiones supra o infrayacentes. La continuidad lateral mayor o menor será resultante de cuán estables lateralmente sean las condiciones sedimentarias en un tiempo geológico dado: un fondo marino con ocasionales cañones de turbidez, una superficie de llanura cortada por canales, un talud con deltas intercalados, una plataforma con arrecifes, un lago continental de fondo parejo, un desierto con dunas en avance y muchos etcéteras. Los contrastes verticales, a su vez, serán indicativos de los cambios en las condiciones de depositación a través del tiempo, sea con energía estable que resultará en reflexiones débiles por los bajos contrastes de impedancias acústicas, o bien energía cambiante en el medio sedimentario y consecuentemente reflectores fuertes (por ejemplo intercalación de arenas de cursos enérgicos con arcillas de planicies de inundación de baja energía del medio de transporte, en este caso el agua en movimiento). Una superficie sísmica de reflexión (lo que llamamos horizonte, nivel guía, reflector o, en inglés, marker) en su expresión geológica actual normalmente muestra el resultado de unos rasgos de sedimentación originales alterados estructuralmente por la tectónica posterior. De modo que mapear un reflector es ver el final de una

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

larga historia. Si se quisiera ver el paleorrelieve, a nivel de una determinada interfaz reflectora, se debería poder quitar todos los efectos tectónicos posteriores con algún modelo razonablemente certero. Pero una forma de aproximarse a ese objetivo es aplanar un reflector suprayacente que se vea bien, es decir ponerlo perfectamente horizontal, lo que se denomina aplanamiento o flattening. Esta técnica resultará válida siempre que en ese intervalo de tiempo entre ambos reflectores no haya ocurrido algún evento que modifique sensiblemente la estructura. Como puede verse en el ejemplo adjunto, con el aplanamiento de un reflector somero, una estructura compresiva por inversión tectónica puede restituirse aproximadamente a un tiempo previo a su origen, o al menos previo a su última fase de compresión.

.

Ahora bien, debe advertirse que no siempre los reflectores responden a líneas-tiempo. Puede darse que correspondan a líneas-roca cuando existen especiales configuraciones estratigráficas, por ejemplo arenas no coetáneas pero amalgamadas en patrones de fuerte continuidad lateral o crecimientos arrecifales con pasaje lateral a sedimentación clástica. También serán reflectores extemporáneos los contactos con intrusiones ígneas o diapíricas, los planos de falla subhorizontales y otros. Mapeo de sísmica de reflexión: El mapa sísmico básico es el plano isócrono (figura izquierda), constituido por curvas de igual tiempo de ida y vuelta de las ondas sísmicas en sentido vertical. Pero no debe olvidarse que se puede tener muchas distorsiones propias del método respecto a lo que sería ver la imagen en escala vertical en profundidades (metros o pies) en lugar de tiempos sísmicos (segundos o milisegundos). Otra posibilidad de mapeo es hacer un plano isocronopáquico (pachys, grueso en griego), es decir el equivalente de los mapas isopáquicos pero en magnitud de tiempo sísmico de ida y vuelta, lo cual se obtiene a partir de la operación de resta entre dos grillas correspondientes a dos isócronos previamente elaborados.

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Sección horizontal, Flanco Norte de la cuenca Golfo San Jorge.

Arriba mapa de amplitudes, abajo isocronopáquico de la Fm Springhill, mar adentro de la cuenca Austral, Tierra del Fuego.

Chelotti, L., Acosta, N., Foster, M., 2009

La confiabilidad de un mapa isócrono o isocronopáquico es función, entre otras variables, de la dimensionalidad de la sísmica de reflexión registrada. Como ya hemos visto, la sísmica 2D, por su menor costo, todavía suele emplearse cuando el presupuesto es bajo, con objetivos y escalas muy diversos. Pero también en las primeras etapas de la exploración petrolera, con mallados de entre 2 y 4 km (paralelo y perpendicular a la principal estructuración del área). Aunque en etapas posteriores, una vez probado el potencial hidrocarburífero, o frente a la necesidad de un conocimiento preciso del subsuelo con diversos fines, se registra sísmica 3D que, además de la muy alta densidad de datos, permite una mejor migración y eventualmente aplicar ciertas técnicas especiales no viables en la sísmica bidimensional. Como sea, mapear desde una 2D significa interpolar valores dentro de cada rectángulo del mallado sísmico, mientras que mapear una 3D es seguir una imagen prácticamente continua de todo un volumen. Entre las ventajas más comunes de visualización que da una 3D están las secciones verticales tanto de líneas (inlines, en la dirección de los receptores) como de traversas (crosslines, líneas ortogonales a las anteriores, que en tierra suele ser la dirección de las fuentes de energía) o en cualquier otro azimut que se elija, incluso trayectorias quebradas, por ejemplo pasando por pozos que se quiere correlacionar, a lo que se agrega la visualización de secciones horizontales (time slices) donde se representan las amplitudes sísmicas de las trazas de todo o parte del volumen a cualquier To específico que sea de interés, como se ejemplifica en la figura superior a la izquierda. En cambio, los mapas de amplitud (horizon slices o seiscrops) muestran la variación de amplitud sobre superficies guía, que han debido ser previamente interpretadas con sumo detalle sobre toda el área de interés en una 3D. Permiten visualizar las variaciones sobre un nivel estratigráfico a través del cambio de sus amplitudes. Es el ejemplo de la figura central a la izquierda. El objetivo general de la interpretación de sísmica de reflexión es generar un modelo geológico estructural y estratigráfico que permita obtener una descripción detallada con finalidades diversas de acuerdo al campo de aplicación considerado.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

En la prospección y desarrollo petroleros los objetivos principales se refieren a la posición estructural, morfología y distribución espacial de los reservorios que componen un intervalo definido de la columna estratigráfica en un área determinada. Pero también, naturalmente, de la roca madre y de las vías de migración de los hidrocarburos. Modelo en perspectiva de un plano de falla, mapa de amplitudes de una secuencia reservorio y localización de pozos perforados (flanco N, CGSJ)

Resolución Sísmica La resolución sísmica es un asunto relevante a tener presente. Es el espesor geológico mínimo que podemos identificar, que corresponde a un cuarto de la longitud de onda sísmica (1/4 λ), recordando que λ = V / f (V es la velocidad y f la frecuencia a la profundidad considerada). El ancho mínimo resoluble o resolución horizontal resulta de la zona o radio de Fresnel (por el francés Augustin Fresnel, 1820) y es función del mismo 1/4 λ, siendo: r = V. (To / 4f)1/2

La figura de la izquierda ilustra arriba el concepto de la resolución vertical a partir de 1/4 λ y abajo el ancho de la resolución horizontal, con ejemplos numéricos. La figura de la derecha también muestra abajo la resolución

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

horizontal de una sección esquemática no migrada, donde se ve que ya en 1/4 λ el horizonte reflector se confunde con la hipérbola de difracción y su amplitud ha disminuido sensiblemente, mientras que arriba se aprecia que el rechazo vertical de una falla también resulta casi invisible cuando es menor a 1/4 λ. Un caso especial es el fenómeno de resonancia o sintonía (tuning), producido por la interferencia constructiva de ondas entre la amplitud principal de la ondícula y los lóbulos laterales (figura a la derecha). Suele permitir la visualización de espesores menores a 1/4 de la longitud de onda, hasta 1/8 λ e incluso algo menores, no porque podamos ver las respuestas individuales de techo y base, sino porque la fuerte amplitud nos permite inferir la presencia de la capa con un espesor delgado inferior a ¼ λ.

Etapas de la Interpretación Sísmica Estructural Evaluación geológica general: Se realiza una primera aproximación tendiente a definir el modelo estructural al cual responde el área a los efectos de conocer la relación del mismo con la sedimentación. Resulta de vital importancia determinar la posible existencia de un control estructural en los procesos sedimentarios. La principal tarea es reconocer las principales fallas del área a fin de delimitar los bloques a estudiar en detalle.

Arriba, correlación de primer orden y esquema de la correlación entre pozos. Derecha, correlación regional.

Correlación regional de pozos: - Delimitación de bloques principales y correlación de niveles guía o marcadores (markers) regionales, donde se define la posición exacta de las fallas en los pozos delimitando correctamente los bloques que componen

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

el área. De esta manera se determina el modelo evolutivo de las fallas en profundidad y la ubicación de las mismas. - Confección de cortes (cross-sections) regionales (longitudinales y transversales a las principales estructuras reconocidas en el área). Correlación estratigráfica de pozos: - Elección de bloques a estudiar y secuencias a interpretar mediante correlación estratigráfica: se correlacionan en películas en escala 1:1000, o en pantalla, todas las arenas seleccionando para el control de correlación una serie de horizontes guía locales más los regionales. Esta correlación se realiza por grillas con pozos nodos y control de cierre. - Confección de cortes estructurales cruzados a escala conveniente. - Cortes estratigráficos de detalle (capa a capa) a escala apropiada. - Diagramas estratigráficos de paneles. Correlación de segundo orden (estratigráfica) y corte estratigráfico

CORTE ESTRATIGRAFICO 1209

1069

294.85 m

73.495 m

m

1210

SP (mV) -80.0

ILD 20.0

0.0

TOPE-B

342.0 m SP (mV)

30.0

981

-80.0

ILD.DF (ohm.m)

20.0

0.0

30.0

TOPE-B

285.83 m SP (mV) -80.0

ILD (ohm.m) 20.0

0.0

88.558 m

SP (mV) 30.0

-80.0

ILD (ohm.m) 20.0

0.0

A485

A485

TOPE-B

TOPE-B

m 30.0

B95

B115

B115

-355

-355 B140

B165

-380

-380 B190

B220

B232

B232

-405

B260

B260

B280

B290

-430

B230

-405

B237

B260 B285 B300

B310

-430 B330

B340 B342

B342 B342

-455

-455

B400 B400 B403 B403

B403

B407 B407

-480

-480

TOPE-C

TOPE-C TOPE-C

Carga de datos: Es una etapa imprescindible antes de la interpretación sísmica. Incluye la carga de: - planimetría de sísmica y de pozos - archivos SEG Y de la sísmica procesada, incluyendo sísmica de pozo - archivos de perfiles geológicos de pozo - datos geológicos, de los cuales los relevantes son: topes y bases de capas ( en metros bajo boca pozo y metros bajo nivel mar), espesores útiles y permeables, valores de porosidad medidos por perfil, puntos de corte de fallas en cada pozo (en mbbp y mbnm) - datos de ingeniería de perforación y de terminación, etc. También se debe construir los sismogramas sintéticos que hagan falta. Interpretación sísmica: Lo más conveniente es partir del punto con mejores datos de correlación sísmico-geológica, por ejemplo un pozo con VSP o con una Prueba de Velocidad convencional o con un sismograma sintético, ahí elegir dos o tres reflectores continuos con importante significación geológica y/o prospectiva, y desde ahí ir llevando el picado o rayado de los reflectores, con colores y nombres distintivos, en dirección a algún otro pozo con atado de datos entre sísmica y geología, si lo hay. Durante este avance se van interpretando las fallas, al menos las de mayor rechazo en una primera etapa, en general sin asignarles nombres o números identificatorios hasta una etapa posterior, a menos que se tenga

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

pronta certeza de cuál es cuál entre línea y línea. Este gradual avance de la interpretación es conveniente hacerlo en sísmica 2D cerrando rectángulos de la malla, para ir con mayor certidumbre, dado que si al terminar la vuelta se llega un reflector arriba o uno abajo del punto de partida, significa que habrá que revisar dónde se ha cometido un error. En cambio, en sísmica 3D se van interpretando líneas (inlines) paralelas y cercanas, cada dos o cuatro líneas, por comparación de cada una con la siguiente, y a la vez se va controlando con dos o tres traversas que las cruzan en ciertos sectores estratégicos, por ejemplo en Sección sísmica sin y con interpretación de horizontes y fallas. el bloque alto y el bloque bajo respecto a una falla importante que es perpendicular a las líneas que se está rayando. También se puede controlar con secciones horizontales y visualizaciones en perspectiva. Las líneas intermedias pueden completarse en una etapa posterior con alguna opción de seguimiento automático de horizontes, la cual en casos favorables se puede emplear desde el principio de la interpretación, aunque siempre se deben controlar sus resultados y corregir todo lo que haga falta. Con el avance de la interpretación se podrá nominar las fallas, agregar las más pequeñas, rayar reflectores adicionales y eventualmente recurrir al cálculo y visualización de atributos sísmicos, etc. Por último, o en forma progresiva, se podrá hacer el grillado y curveo de mapas isócronos y otros. Para ello deben dibujarse previamente los polígonos de falla en planta, para cada nivel guía que se desee mapear, de modo que las curvas o contornos se ajusten al esquema de bloques geológicos interpretado.

Sección sísmica interpretada y mapa isócrono al tope de una de las formaciones.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Cuando se interpretan datos combinados de sísmica 2D de distintas generaciones de adquisición o cubos adyacentes con distintos parámetros de registro o información combinada 2D-3D se debe efectuar al ajuste de los planos de referencia entre unos y otros, a fin de homogeneizarlos, para lo cual se pueden hacer los corrimientos en tiempo de unos respecto a otros o bien recurrirse a programas de atado diferencial (mistie), si los corrimientos no fueran de tiempos constantes. También debe tenerse presente que podría ser necesario invertir la polaridad de la sísmica entre una y otra generación de datos, para homogeneizarla, y no hay que olvidar que siempre habrá corrimiento de fase entre datos de fuentes impulsivas y vibratorias. Caracterización final de los bloques: Comparación y ajuste del modelo estructural con la interpretación obtenida desde un mallado de sísmica 2D, o bien de un cubo de sísmica 3D. Finalmente se ajustan todas las correlaciones con las interpretaciones de sísmica. Se comparan interpretaciones de líneas 2D de rumbos apropiados, o bien de secciones en líneas (inlines) y traversas (crosslines) de sísmica 3D con los cortes generados por correlación de pozos. Se comparan los isócronos con mapas estructurales preexistentes hechos sólo con datos de pozos. También se pueden construir mapas estructurales nuevos a partir de los isócronos siempre que se cuente con adecuados controles de velocidad (relación tiempo-profundidad) en varios pozos estratégicamente situados en el área mapeada. En este caso lo más recomendable es construir un mapa de isovelocidades a cada nivel de interés (ver en el Tema 18, pag. 5) y luego efectuar en cada caso la operación de producto entre grillas: valores de velocidad por valores de tiempo darán valores de profundidad, que entonces se mapearán como un estructural.

Engaños Sísmicos (Pitfalls): La interpretación de secciones de reflexión (incluso en sus versiones horizontales de 3D) debe partir de la premisa de que las imágenes sísmicas que se perciben no son cortes geológicos, ni los isócronos mapas estructurales, sino sólo aproximaciones a éstos. Las consecuencias de ignorarlo son las metidas de pata en las trampas sísmicas. Cuando se observa una sección vertical procesada puede tenerse problemas significativos si ésta no ha sido migrada, sobre todo si se está en un área de regulares o altos buzamientos: los reflectores sísmicos no estarán en su verdadera posición relativa y además se tendrán difracciones sobre planos de falla y toda geología que presente variaciones laterales significativas (intrusiones, diapiros, arrecifes, lentes arenosas, etc.), como muestra la figura de la derecha, en cuyo caso se deberá ser cauto y eventualmente intentar al menos algunas migraciones manuales de los reflectores de mayor interés. Afortunadamente cada vez hay menos sísmica sin migrar para ser interpretada, ya que los costos de migración han disminuido mucho y generalmente hasta la sísmica antigua se reprocesa para poder verla migrada. Pero en casos de geología complicada (faja plegada, intrusiones de complejo emplazamiento, etc.) una migración convencional puede no ser suficiente y sólo se tendrá cierta certeza de una correcta interpretación cuando el proceso

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

migratorio se haya realizado antes de apilamiento. A su vez, como ya vimos, existe diferencia según sea el algoritmo utilizado (Kirchhoff, Ecuación de Onda, Trazado de Rayos, etc.), y esto es también válido para las etapas previas del procesado sísmico: recuperación de amplitudes, estáticas, dinámicas, deconvolución, filtrados, etc., que pueden realizarse con distintos criterios y variables márgenes de error, lo cual redunda en el producto final resultante para interpretar. Pero, aún si todo hubiese sido realizado del modo más atinado -que casi siempre tiene como condición necesaria, aunque no suficiente, un presupuesto generoso-, no se tiene que olvidar que la símica normalmente está representada en escala de tiempos, no de profundidades. De modo que la imagen resultante es función de las variaciones de velocidad, en general crecientes con la profundidad pero además variables lateralmente según sea la geología iluminada por las ondas sísmicas. Una sección sísmica refleja la geología como un espejo deformante a una persona reflejada frente a él: piernas cortas, cabeza muy alargada, un brazo más corto que el otro, etc., y lo mismo va a pasar con las secciones horizontales y con los mapas o cualquier otra información interpretada. Sólo si la sísmica ha sido pasada a profundidad por un método muy sólido, por ejemplo abundantes y representativos datos de sísmica de pozo, o bien una consistente migración por trazado de rayos, entonces se podrá tener una cierta confianza de la equivalencia entre imagen sísmica e imagen geológica, pero incluso en estos casos se debe ser cauto porque algunas deformaciones estructurales, aunque sutiles, estarán todavía presentes. Y no debe olvidarse que la sísmica no puede ver nada que se aproxime a la vertical. Todo aquello que incline más de 45º será prácticamente invisible. A lo sumo, si el espesor de tales eventos subverticales es significativo, se podrá ver una zona de ruido que va a alertar sobre algo que existe pero no se puede ver. Otras veces, cuando los espesores son de pocas decenas de metros, ni siquiera podrá intuirse que tales emplazamientos existen. La limitación en cuanto a la resolución sísmica de intervalos delgados es otro de los significativos problemas de visualización, como se ha explicado antes. Así, existe un variado menú de engaños sísmicos posibles cuando alguien se larga a rayar -o sea, a interpretarsísmica de reflexión. Algunos de los más frecuentes se deben a: -Falta de Migración o Migración Inadecuada, que puede generar buzamientos erróneos, falsas estructuras, difracciones y cambios laterales de velocidad no corregidos. En la figura siguiente, un ejemplo en el que en la sección no migrada (izquierda) las difracciones llevan a una interpretación errónea, que cambia en la sección migrada (derecha) con la incorporación de fallas en un esquema de pilares (horsts) y bloques hundidos (grabens).

-Recuperación de Amplitudes Excesiva, donde la tendencia a ecualizar en exceso hace indistinguibles secuencias de bajos contrastes internos respecto a otras que contienen altos contrastes acústicos. Recuperar en Verdadera Amplitud es la mejor opción para poder realizar interpretaciones sismoestratigráficas o para poder aplicar adecuadamente inversión de trazas o método AVO, que veremos en el Tema 18. -Estáticas Imprecisas, que pueden dar tirones o empujones de velocidad (pull up, push down) resultantes de emplear velocidades o espesores por exceso o por defecto para la capa meteorizada. Resultan entonces intervalos temporales respectivamente por defecto o por exceso para dicha capa superficial, lo que a su vez levanta o empuja las trazas generando falsos anticlinales o falsos sinclinales a lo largo de toda la sísmica.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

En las siguientes figuras se esquematizan y presentan casos reales de falsas estructuras por problemas no corregidos debidos a velocidades subsuperficiales lateralmente cambiantes. A la izquierda forma anticlinal y a la derecha sinclinal, en ambos casos con preservación de la curvatura a lo largo de toda la sección sísmica.

-Ruidos en general, que no han podido ser removidos durante la adquisición ni tampoco en el procesamiento de los datos, por lo cual pueden dificultar la interpretación de la geología e incluso generar falsas interpretaciones. Las reflexiones múltiples son un caso típico cuando no se ha recurrido a toda la batería de remedios disponible para eliminarlas. En la figura a la derecha vemos el modelo geológico con su correspondiente imagen sísmica.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda caso real de una sección sísmica en la que se presentan reflexiones múltiples por reverberación en el fondo marino. Se repite el reflector del lecho marino y también un reflector fuerte dentro de la antiforma..

-Variaciones laterales de velocidad (a profundidad actual constante), generadas sobre todo por cuestiones estructurales (sobrecorrimientos, fallas gravitacionales o transcurrentes, pliegues por inversión tectónica, diapirismo, intrusiones, u otras muchas posibilidades) como en menor medida también por cuestiones estratigráficas (crecimientos arrecifales, lentes arenosas, etc). El resultado es similar al de las estáticas erróneas (tirones y empujones de velocidad), aunque en estos casos no hay nada que corregir en el proceso convencional. Si el fenómeno ocurre bajo una superficie de falla recibe el nombre alternativo de Sombra de Falla (Fault Shadow), que se grafica a continuación.

En ocasiones la sombra de falla produce una sucesión de pequeños anticlinales y sinclinales. Sólo se puede entender este tipo de problemas haciendo modelos de sísmica sintética hasta encontrar la probable geología causante de tales levantamientos o hundimientos en la sísmica, o bien pueden ser corregidos, al menos parcialmente, con migración por trazado de rayos, preferentemente antes de suma, tal como aquí se ilustra.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

-Deconvolución, Filtrados o Procesos Cosméticos variados, que pueden alterar, a veces significativamente, la forma como se visualizan rasgos sutiles de la sísmica. Un cambio lateral de carácter, como el ilustrado abajo, puede modificarse con las distintas opciones a las que se recurra o no durante el procesamiento. En este caso ambas secciones tienen igual proceso, lo que varía es la interpretación realizada.

- Zonas poco iluminadas por los frentes de onda, lo que puede ser debido al alto buzamiento de las capas, como en la figura de la derecha, en la que un dique ígneo denunciado por el perfil magnético prácticamente no se ve en la sísmica, excepto por muy sutiles indicios. También ocurren zonas pocos iluminadas en capas subyaciendo fuertes contrastes de impedancia acústica (de gran amplitud) que actúan como espejos bajo los cuales muy poca energía logra pasar. Es el caso de diapirismo evaporítico, carbón o lentes gasíferas, en este último caso sólo si se registran ondas P, ya que las S son indiferentes al fluido poral. También bajo intrusiones ígneas, como el filón de la sección de abajo, con un tirón de velocidad combinado con poca energía en los estratos infrayacentes y un combamiento anticlinal real por encima de la intrusión, causado por inyección forzada.

Sección sísmica con intrusión ígnea concordante en el Tc. basal de Santa Cruz Sur, cuenca Austral.

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Interpretación Sismoestratigráfica: La interpretación sísmica más básica es siempre la de tipo estructural, sin embargo muchas veces de gran complejidad. Pero una etapa habitualmente posterior de la interpretación es la de tipo estratigráfico. Sólo en áreas tectónicamente muy estables puede comenzarse directamente con el análisis sismoestratigráfico sin una previa evaluación del marco estructural. En este tipo de estudios se toman como base los conceptos geológicos de relaciones estratigráficas: paralelas o divergentes, formas progradacionales sigmoides u oblicuas, formas monticulares, en abanico, valles cavados, truncación erosiva, solapo u onlap, sublapo o downlap, topelapo o toplap, etc. Pero también la observación de las relaciones de amplitud entre reflectores individuales o secuencias sísmicas: con o sin reflexiones internas, con reflexiones de aspecto caótico o estratificado, con amplitud reflectiva fuerte o débil, con una continuidad lateral grande o pequeña, con sucesión de reflexiones de bajo o de alto contraste, etc. Las siguientes figuras muestran estas relaciones geométricas fundamentales de la sismoestratigrafía.

Si se quiere avanzar hasta un trabajo de sismoestratigrafía secuencial será mucho más factible en cuencas marinas, o al menos continentales con vinculación al mar, que en cuencas cerradas donde las variaciones globales no hayan ejercido una influencia mensurable. El otro factor importante es la tectónica, esencialmente la tasa de subsidencia o algún eventual pulso de levantamiento que generará erosión.

14

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Arriba, un ejemplo de variadas geometrías de secuencias sedimentarias en una sección sísmica regional. Como sabemos, una secuencia es la unidad fundamental de la estratigrafía secuencial, corresponde al registro sedimentario de un ciclo (del orden de 2 a unos 5 millones de años) y está limitada por discordancias o sus correlativas concordancias, pudiendo subdividirse en cortejos sedimentarios (system tracts) y en parasecuencias (relativas a paraciclos de menos de un millón de años) limitadas por superficies de inundación o bien de erosión, según sea la escuela tomada como referencia. Las secuencias se agrupan en supersecuencias y éstas en megasecuencias (registro de megaciclos, de más de 40 m.a.).

15

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

Recordando siempre el concepto de líneas-tiempo inherente a las reflexiones en las cuencas sedimentarias, pueden entonces buscarse superficies de máxima inundación o de máxima erosión, más los arreglos sedimentarios internos de cada secuencia que permitirán definir los cortejos sedimentarios transgresivos, de nivel alto o de nivel bajo, referidos a ciclos de distinto orden según la particular historia tectosedimentaria.

16

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

La figura de la derecha presenta un ejemplo de sección sísmica y abajo su interpretación: un cortejo sedimentario de nivel bajo suprayaciendo a uno de nivel del mar alto e infrayaciendo a otro de carácter transgresivo.

Una herramienta práctica cuando se trabaja en áreas con variables inclinaciones tectónicas es el aplanamiento (flattenning) ya comentado. Su aplicación posibilita independizarse de los buzamientos y la observación de los cambios de potencia resulta más fácilmente interpretable. La elaboración de mapas isopáquicos es otro modo de ver gráficamente las variaciones de espesor. Ahora bien, siendo la sísmica de reflexión en la gran mayoría de los casos el mejor método geofísico para visualizar cuencas sedimentarias, existe no obstante una limitación concreta ya explicada: la resolución sísmica. No está permitido ver capas de menor espesor que un cuarto de la longitud de onda presente a la profundidad de interés. Con la excepción de tener resonancia sísmica o capas de alto contraste acústico que, aunque delgadas, podrían detectarse debido a su fuerte amplitud, aunque naturalmente sin poder conocerse su exacto espesor: sólo se sabrá que se encuentran por debajo del cuarto de longitud de onda, a condición de que se haya podido aseverar la existencia de tales capas mediante el descarte de otras posibles causas de sus amplitudes. Cuando se dispone de información sísmica tridimensional, las secciones horizontales (time slices) o, mejor aún, los mapas de amplitud (horizon slices o seiscrops) resultan recursos prácticos para ver los cambios sobre un nivel estratigráfico a través del cambio de amplitudes o cualquier otro atributo sísmico que muestre diferencias interpretables en términos geológicos -o eventualmente incluso petroleros-. Ejemplos son el seguimiento de canales, abanicos, variaciones de fluidos y otros, como se ejemplifica en la figura a la derecha, del centrooeste de la cuenca del Golfo San Jorge. Los Atributos Sísmicos (usualmente disponibles en la estación de trabajo) como amplitud o espesor de valle, frecuencia, fase, velocidad y otros pueden ser de gran ayuda en la interpretación de rasgos sismoestratigráficos en relación a los cambios litológicos y la visualización de geometrías sedimentarias. Eventualmente puede recurrirse asimismo a otros métodos específicos de sísmica de reflexión -si fuera aconsejable para la resolución de cuestiones geológicas, petroleras u otras- ya sea Procesos Especiales o bien Registros Especiales que requieren de una nueva adquisición de datos de campo. Todos ellos serán tratados en el Tema 18. Pero, en definitiva, las certezas sólo llegan cuando el trépano horada los objetivos prospectados.

17

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 17 Interpretación Sísmica de Reflexión

Chelotti, L., Acosta, N., Foster, M., 2009

CUESTIONARIO BÁSICO - Definir resolución sísmica horizontal y vertical. - ¿Qué es la sintonía sísmica y qué utilidad brinda? - ¿Cuáles son los posibles significados de las interfaces reflectivas? - Definir mapa isócrono e isocronopáquico, ¿qué utilidad tienen? - Explicar la aplicación de la técnica de aplanamiento de reflectores. - Citar la información previa necesaria para una interpretración sísmica estructural. - ¿Qué pasos sucesivos se deben seguir en la interpretración? - ¿Qué tipos de estructuras puede mostrar la sísmica? - ¿Qué diferentes tipos de problemas puede ocasionar la falta de migración? - ¿Què otros tipos de engaños sísmicos pueden presentarse? - Explicar cómo realizar una interpretación sismoestratigráfica. - ¿Qué tipo de información nos dan las secciones horizontales y los mapas de amplitud? - ¿Cuáles son las ventajas de la sísmica 3D sobre la 2D? ¿Y desventajas? - Comentar las posibles conclusiones de una interpretación de índole petrolera.

BIBLIOGRAFÍA: - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p. 1-36). Yacimientos Petrolíferos Fiscales. - Brown, A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists.

18

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

PROCESOS SÍSMICOS ESPECIALES Existen muy diversas modalidades especiales de adquisición y procesamiento de los datos sísmicos de reflexión que, como todos los temas antes abordados, dan para escribir varios tomos. Empero, vamos a realizar un abordaje fugaz de cada uno, sólo a los efectos de aprehender unos pocos conceptos básicos que nos permitan identificar sus fundamentos y potencialidades. Presentamos entonces este breviario a partir de un encasillamiento práctico a los fines didácticos, clasificando estos variados métodos en: Atributos de las Trazas, Procesos Especiales, Registros Especiales, Sísmica Somera y Sísmica Ultraprofunda., aunque seguramente existen diversos encasillamientos alternativos. Vamos a ver aquí los dos primeros de estos cinco ítems.

ATRIBUTOS SÍSMICOS Se denomina así a las características propias de las trazas o sismogramas individuales. El atributo fundamental es la amplitud (desplegada en función del tiempo de ida y vuelta), que es lo que muestra una visualización símica convencional (2D ó 3D). Éste puede visualizarse en forma de hilo (wiggle) con o sin relleno negro en el hemiciclo positivo (hacia la derecha en la convención americana), o bien en escalas de colores (elegidos a piacere) en función de la magnitud de tales amplitudes (variable intensity). Pero también es posible calcular, mediante distintos algoritmos, otros atributos como, por ejemplo, frecuencia, velocidad o atributos de traza compleja. El número de atributos que se puede calcular y representar es prácticamente ilimitado, la mayoría de los cuales resulta de la combinación de otros más básicos, que se describen seguidamente. ATRIBUTOS DE AMPLITUDES En toda sísmica convencional puede hacerse el mapeo de las variaciones de la intensidad normal sobre un mismo nivel guía previamente interpretado con la mayor justeza posible, habiendo rayado con precisión a lo largo de los máximos o mínimos de las trazas. Este método en sísmica 2D es muy limitado ya que sólo sigue las variaciones de ampitud sobre secciones individuales y su interpolación en una mapa se vuelve incierta. Pero, como ya fue comentado en en Tema 17, esto es ideal para sísmica 3D, generando los denominados mapas de amplitud (horizon slices o seiscrops) que reflejan detalladamente la variación de los contrastes de impedancia acústica a lo ancho del área prospectada. A la derecha, mapa de amplitudes costa afuera de Tierra del Fuego.

1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

ATRIBUTOS DE FRECUENCIAS A partir de las trazas sísmicas procesadas existen algoritmos que permiten calcular magnitudes relativas a la variación de frecuencia, tanto lateral como verticalmente sobre las secciones o volúmenes sísmicos, a saber: -Porcentaje de energía de determinada banda de frecuencia, respecto a la energía total. -Frecuencias medias o bien modales (pico del espectro de frecuencias, como el ejemplo de la figura adjunta: un mapa de frecuencias). -Ancho espectral, es decir la diferencia entre la máxima y la mínima frecuencia cosechadas. La información así obtenida puede desplegarse en secciones verticales y horizontales (estas últimas si se dispone de sísmica 3D). Esto es útil para evaluar la calidad de adquisición y procesado de los datos, para los que las condiciones superficiales (topografía y capa meteorizada) son críticos. Incluso con el mejor tratamiento posible de las estáticas, un espesor grande o un muy alto grado de incompetencia de la capa meteorizada darán como resultado una fuerte caída en el contenido de altas frecuencias a lo largo de toda la sísmica bajo tales sectores del área prospectada. Pero, una vez descartado que los cambios en el espectro de frecuencia se deban a las cuestiones antedichas, pueden hacerse aproximaciones al entendimiento de aspectos geológicos del subsuelo, ya que los cambios del espectro pueden indicar variaciones litológicas (en rocas más densas en general se registra mayor frecuencia), pero también pueden denunciar cambios en la condición de los reservorios, tanto más porosos o más fisurados o eventualmente con más gas (hidrocarburos o CO2) cuanto menor sea la frecuencia registrada. ATRIBUTOS DE TRAZA COMPLEJA Son atributos cuyo cálculo está disponible en todos los programas de interpretación sísmica. Se los obtiene a partir de pensar la traza como un fasor, según lo propuesto en los Estados Unidos por Turhan Taner junto a Koehler y Sheriff en 1979, a partir del siguiente concepto.

Un número complejo se define como:

donde: ,

θ = arc tg (y/x), A = (x2 + y 2)1/2

Por lo tanto, la función traza sísmica en el espacio complejo es: Allí el fasor avanza en el tiempo t, cambiando continuamente su frecuencia, su amplitud A y su fase γ, describiendo una suerte de tirabuzón donde la traza efectivamente registrada f(t) pertenece al plano real y su correlato en el plano imaginario da la serie en cuadratura fc(t). El proceso de generación de los datos imaginarios a partir de los reales se realiza mediante la Transformada de Hilbert (desarrollada para funciones holomorfas por el prusiano oriental David Hilbert en 1905), que es un operador lineal que toma una función real s(t), la convoluciona con una respuesta impulsiva h(t)=1/πt y genera una función H(s)(t) en el mismo dominio (t):

considerando la integral como el valor principal (lo que evita la singularidad t = τ) Se obtiene entonces la traza imaginaria H(s)(t), lo que permite describir la función compleja de la señal. Así, el fasor desplegado en el espacio complejo posibilita obtener relaciones que de otro modo no serían evidentes, como: -Envolvente de las amplitudes, A, en el espacio complejo (reflection strenght). -Fase instantánea, γ(t), es decir la posición angular del fasor en los instantes muestreados. -Polaridad aparente, resultante de dar al fasor un valor positivo o negativo.

2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

-Fase promedio, esto es, el promedio angular (de –π a +π) para una ventana temporal definida. -Frecuencia instantánea, dγ(t)/dt, esto es, la velocidad de cambio de la fase en función del tiempo. -Frecuencia promedio, para una dada ventana de tiempo. -Otros, como Coseno de Fase, Derivada de Frecuencia, Cociente de Amplitudes, etc.

Intrusión cóncava en la Cuenca Austral, Santa Cruz, desplegada con cuatro atributos de la traza sísmica: arriba, secciones en amplitud normal y frecuencia instantánea; abajo, envolvente de la amplitud y fase instantánea

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Las variaciones de frecuencia observadas con atributos de traza compleja pueden dar información más o menos equivalente a la que se puede obtener con los atributos más convencionales explicados antes. Los atributos de fase y de polaridad instantánea son útiles para el seguimiento de rasgos estratigráficos o en general geometrías de las capas o su interrupción por emplazamientos geológicos diversos, sin importar las variaciones de amplitud o frecuencia. Ahora bien, como se mencionó, las variaciones de amplitud son el rasgo más evidente de la sísmica. Pueden mapearse en forma convencional pero se consigue resaltarlas más cuando se recurre a un atributo de traza compleja como la envolvente de la amplitud. Las amplitudes anómalas (o manchas brillantes en sentido amplio) indicarán fuertes contrastes de impedancia acústica y pueden deberse a mantos de carbón, rocas intrusivas, calizas masivas y muchos otros etcéteras. Así como también pueden deberse a la resonancia sísmica en capas que se acuñan (como en la figura a la derecha). Pero, inversamente, también hay amplitudes anómalas originadas por un muy bajo contraste local de impedancias (manchas oscuras) y hay anomalías por cambio de fase lateral, debido a Sección vertical mostrando sintonía sísmica. cambios geológicos diversos. Respecto a los fluidos de la formación, las ANOMALÍAS DE AMPLITUD pueden ser tanto Manchas Brillantes como Manchas Oscuras o Cambios de Fase (Bright Spots, Dim Spots, Phase Changes), dependiendo de cómo la presencia de los distintos fluidos modifica la impedancia acústica de la roca reservorio. Un sumario y ejemplos de estos conceptos se ilustran seguidamente.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

ATRIBUTOS DE VELOCIDADES Pueden calcularse a partir de datos de velocidad de procesamiento, usualmente del análisis de velocidades de la corrección dinámica, o menos habitualmente de una migración en profundidad (por trazado de rayos), caso este último que brinda valores mucho más confiables. Se pueden hacer cálculos de: -Velocidades medias (en rigor Vrmc) hasta sucesivos horizontes, -Velocidades interválicas, en ventanas temporales definidas, -Variaciones de velocidad respecto a las velocidades medias, y otros. Habitualmente se visualizan en secciones verticales, pero pueden visualizarse en secciones horizontales de sísmica 3D o interpolarse mapas a distintas profundidades de interés a partir de un mallado de sísmica 2D, como en la figura a la derecha. Los cambios de velocidad guardan relación con variaciones en la composición litológica, así como con la porosidad y tipos de fluidos (líquidos o gaseosos): -Rocas ígneas y metamórficas en general tienen más velocidad que las sedimentarias. Dentro de estas últimas, las carbonáticas y las evaporiticas suelen ser de mayor velocidad que las clásticas. Mineralogía, diagénesis y porosidad hacen variar estos valores. -Reservorios con mejor condición petrofísica (más porosos, más fisurados, con menor cantidad de matriz y cemento) suelen registrar velocidades más bajas. Los fluidos, cuanto menos densos, dan menores valores de velocidad sísmica. Las ANOMALÍAS DE VELOCIDAD (muy baja) permiten detectar Zonas Sobrepresionadas y Manchas Dulces (Sweet Spots), en este último caso debido a la presencia de gas. Esto último se ilustra en la siguiente figura, donde la sección de presión poral resulta de la conversión de los datos de velocidad en función de parámetros de relación velocidad/presión obtenidos desde datos de perfiles de pozo.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

INVERSIÓN DE TRAZAS Es un postproceso que puede ser también considerado como un atributo especial de velocidades, o bien de impedancias acústicas. Resulta de un procesamiento por el cual se obtienen secciones o volúmenes sísmicos cuyas trazas se han invertido a través de una secuencia de pasos -véase a la derecha- grosso modo opuesta a la de un sismograma (sintético en computadora o real en subsuelo). Así, se obtienen pseudoimpedancias o, si se cuenta con un perfil de densidades de pozo, entonces se pueden llegar a generar pseudosónicos. En ciertos casos de litologías más o menos homogéneas se puede asumir densidad constante o bien proporcional a la velocidad: la ya vista fórmula de Gardner, donde δ = a.Vb .

A cada perfil así obtenido se le debe adicionar una componente de baja frecuencia (hasta 5 u 8 Hz, como se ve en la figura a la izquierda) extraída de perfiles acústicos reales y se lo debe cotejar con estos mismos perfiles acústicos de pozo en una versión filtrada a frecuencias máximas del rango de la sísmica (hasta 40, 60 u 80 Hz, según sea el caso). De ese cotejo surgirán ajustes al proceso hasta lograr resultados similares a los reales de los pozos del área de trabajo. Una inversión de traza se puede hacer en forma rápida a partir de la sísmica procesada convencionalmente, pero es preferible hacerla partiendo de sísmica procesada en Verdadera Amplitud para que los resultados sean más reales y, sobre todo, las impedancias o velocidades obtenidas guarden una mejor variación relativa a distintas profundidades. 6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

A la izquierda se ilustran trazas magnificadas, coloreadas según los valores de velocidad. Al centro una sección de pseudoimpedancias del suroeste de la cuenca Golfo San Jorge (con acústicos de pozos) y a la derecha un ejemplo de Perú donde se compara la sección sísmica invertida (arriba) con la versión normal.

La figura a la derecha corresponde a una inversión en 3D. También puede hacerse el trabajo mediante una técnica geoestadística que procura mejorar la definición de capas delgadas mediante una correlación estadística con datos de pozos. Y existe un proceso en base a redes neurales que logra el mejor ajuste con los verdaderos datos de pozo.

PROCESOS ESPECIALES Se incluye en este rubro una amplia variedad de procesamientos del conjunto de las trazas sísmicas, de los mapas resultantes de su interpretación y hasta de perfiles de pozo vinculados a la sísmica. MODELADO SÍSMICO Es básicamente una técnica de interpretación de la información sísmica, fabricando la mejor imitación posible. El modelado más básico es el sismograma sintético de pozo: una sola traza. El procedimiento consiste en realizar el modelo geológico de capas (con sus buzamientos, fallas, etc.) que interpretamos como más probable en el subsuelo, al que se asigna valores de velocidad y densidad en función del mejor conocimiento disponible. Este modelo es iluminado mediante un programa de trazado de rayos, con una ondícula elegida, a fin de generar secciones sísmicas sintéticas que habremos de comparar con la información real procesada. De hecho, hemos presentado ya muchos ejemplos de sísmica modelada: en la página 4, referido a una mancha brillante, en el Tema 15 (pag. 14 y 17), en el Tema 16 (pag. 5, 6 y 12) y, naturalmente, los varios sismogramas sintéticos del Tema 16. También se pueden simular cubos sísmicos, ya sea para modelado de sísmica tridimensional de pozo o bien de superficie, aunque se hace menos habitualmente que en 2D debido a su mucho mayor tiempo de proceso. En cualquier caso, el modelo se irá ajustando sucesivamente hasta lograr la mayor similitud posible con la sísmica verdadera, instancia en la que podremos considerar probable -nunca totalmente segura- la interpretación aproximada a través del modelado sísmico.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Acá puede verse el modelado de la intrusión de la cuenca Austral, con dos salidas, con o sin filtro de velocidad.

CUBOS DE VARIANZA Llamados también cubos de coherencia o semblanza fueron ideados en los Estados Unidos por Bahorich y Farmer en 1996. Sólo son posibles en sísmica 3D, como resultado de la aplicación de algún algoritmo de estimación de similitud entre trazas sucesivas, mediante una ventana temporal fija, para finalmente obtener un volumen sísmico en el que podemos desplegar las secciones horizontales a fin de visualizar las variaciones laterales producidas por rasgos estructurales o a veces también estratigráficos. Las magnitudes estadísticas más comúnmente calculadas para su construcción son la varianza y la semblanza. La Varianza es la medida del ancho de la probabilidad de distribución de una variable muestreada al azar -mientras que la covarianza involucra más de una variable-, y resulta de hacer el cuadrado de la Desviación Normal o Standard (σ σ). De manera que: _ donde G es la media de la distribución para N muestras considerando en este caso 2 trazas, una de las cuales es la Gk, centradas a un tiempo t con una ventana de búsqueda de + d. El resultado varía entre 0 (total similitud) y 1 (máxima varianza). La Semblanza (S) es una medida de coherencia:

donde el coeficiente está calculado para N muestras a lo largo de las trazas Gk y Hk centradas a un tiempo t con una ventana de búsqueda de + d. El resultado varía entre 0 (máxima diferencia) y 1 (perfecta semblanza)

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

La presentación más habitual es la de blanco (buena continuidad), grises (regular) y negro (discontinuidad), aunque puede recurrirse a diversas escalas cromáticas. A la derecha una sección horizontal de un cubo de coherencia en el flanco norte de la cuenca Golfo San Jorge (Chubut), con indicación de la nomenclatura de fallas, que se ven definidamente en negro. CUBOS Y MAPAS DE BUZAMIENTO Y AZIMUT En sísmica tridimensional, de forma análoga a los cubos de varianza, se puede obtener cubos con información de buzamiento y azimut de las capas, los que resultan de un algoritmo de cálculo que compara trazas sucesivas utilizando una ventana temporal con un ángulo de búsqueda. También pueden calcularse directamente a partir de mapas isócronos previamente elaborados desde sísmica 2D ó 3D. En este caso se calcula por derivación, que permite obtener los gradientes, desde donde surgen los mapas de inclinación real (ángulo y azimut de máximos gradientes, como en la figura a la derecha) o eventualmente de rumbos estratigráficos (direcciones de gradiente nulo). Obviamente estos procesamientos facilitan luego la interpretación estructural, tectosedimentaria y de geometrías secuenciales. MAPAS RESIDUALES Y REGIONALES Se los computa en forma similar a otros métodos geofísicos, como hemos visto en los métodos potenciales. En este caso se parte de mapas isócronos, sobre los que se aplica el algoritmo elegido (Griffin, Derivada Segunda, Fourier, Continuación) o incluso una técnica manual, para distinguir mejor los efectos superficiales de otros profundos. También pueden trabajarse las componentes regional y residual sobre secciones verticales. A la derecha un ejemplo a partir de un mapeo en sísmica tridimensional.

9

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

MÉTODOS GEOESTADÍSTICOS Daniel Krige desarrolló en Sudáfrica (yacimiento minero de Witwatersrand) en la década de 1950 un método de mapeo que se conoce como Kriging, luego perfeccionado por Georges Matheron en Francia durante la década siguiente. En él se estima estadísticamente la ubicación de una magnitud variable en función de su variabilidad geográfica, por lo que constituye un procedimiento muy empleado de mapeo. Ahora bien, si se establece la correlación estadística entre dos magnitudes variables, que puede visualizarse en diagramas de interrelación (crossplots), entonces puede vincularse esta relación con la variable geográfica, lo que se denomina Cokriging. Los métodos geoestadísticos, cuando aplicados a sísmica, vinculan alguna variable sísmica (amplitud de pico o valle, espesor entre cruces por cero, frecuencia instantánea o cualquiera otra) con alguna variable geológica, petrolera, minera, etc. (espesor de reservorio, porosidad, producción del intervalo, relaciones litológicas u otra que sea de interés). Es muy conveniente disponer de algunos datos completos de pozos que deliberadamente no se incluyan en el proceso geoestadístico, para luego poder utilizarlos como un control de calidad. La visualización areal de tales magnitudes estimadas, así como su error probable, pueden ser de gran utilidad para estudios geocientíficos, localización de futuros sondeos u otras aplicaciones. Un ejemplo específico es el de inversión geoestadística de trazas, donde los datos de pozo permiten obtener trazas con el doble de resolución vertical que la que se cosecha de campo. En este caso los datos puntuales efectivamente registrados en pozos son acústicos ajustados por prueba de velocidad, o bien perfiles sísmicos verticales con elevado registro de frecuencias. Y los datos disponibles en todas partes son las trazas, con menores frecuencias. Naturalmente, el producto final ha de estar sujeto a verificación para descartar posibles resultados ficticios. Las siguientes figuras (del flanco Norte de la cuenca Golfo San Jorge) muestran la semejanza general que existe entre la distribución de arenas de una secuencia, resultante de la interpolación de datos de pozos (sin control sísmico) y el mapeo de la envolvente de las amplitudes, que dada la resolución sísmica, en verdad puede involucrar más de una secuencia. Estas semejanzas se verifican mediante distintos gráficos de interrelación entre variables geológicas (en abscisas) y sísmicas (en ordenadas), como los abajo ilustrados y muchos otros.

10

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Abajo vemos mapas de porosidades resultantes de un procesamiento geoestadístico, en los que se aprecia la variación significativa que ocurre en los resultados dependiendo de la orientación preferencial y la distancia de correlación impuestos al algoritmo, así como el número de datos (pozos) involucrados.

REDES NEURALES Se trata de programas que poseen una configuración tipo red de entrenamiento, utilizados en muy variados campos, surgidos en los Estados Unidos a partir del concepto original de Pitts y McCulloch (1943) y sus aplicaciones propuestas por John Hopfield (1982) y otros. En el caso de la sísmica de reflexión, se vincula los datos sísmicos con otros datos geofísicos, geológicos o de pozos para generar sintéticamente cierto tipo de información a partir de aquellos datos efectivamente registrados. Para esto se debe generar un aprendizaje en algunos sitios donde sí se ha registrado ese tipo de información más los mismos datos extra que fueron efectivamente registrados. Pueden, por ejemplo, generarse perfiles acústicos a partir de otros perfiles (resistividad, potencial espontáneo, etc.) si en la zona existen otros pozos donde se dispone de los acústicos junto a los otros perfiles para efectuar en ellos el aprendizaje del programa, como se ejemplifica en la siguiente figura.

11

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Aprender o entrenar una red significa aproximar por iteraciones sucesivas un algoritmo de cálculo que produce como resultado, en este caso, un acústico a partir de datos de otros perfiles. El algoritmo tendrá en cuenta la variación de una magnitud respecto a las otras, que irá cambiando con la profundidad (z) y con la posición geográfica (x, y). Para controlar la calidad del proceso debe reservarse siempre al menos un pozo donde se cuenta con todos los datos sin que entre en el proceso neural, para así poder controlar el grado de certeza de tal aprendizaje, una vez concluído. Otro ejemplo es la generación de secciones o cubos sísmicos de porosidad, en este caso mediante la interacción de trazas invertidas (pseudosónicos) con información de porosidad registrada en distintos pozos dentro del área en estudio, tal como se esquematiza a la izquierda. La red neural generará entonces un aprendizaje en el que virtualmente se obtendrá un pozo con datos de porosidad en cada lugar donde exista una traza sísmica, obviamente dentro del rango de resolución que ésta habilite. MÉTODO A.V.O. (Amplitud Versus Oblicuidad, Amplitude Versus Offset) Ideado por el estadounidense Bill Ostrander (1982) es un procesamiento especial que requiere volver a las familias de trazas de PCP antes del apilamiento en aquellos lugares donde las anomalías de amplitud sugieran la posible presencia de reservorios con hidrocarburos, sobre todo gas. A la profundidad del objetivo se visualiza la variación de amplitud con la oblicuidad de los rayos o, lo que es lo mismo, con el apartamiento de la fuente al grupo receptor para cada sismograma. Esto es algo que en realidad ocurre siempre, tal como hemos visto en el Tema 11: las fórmulas de Zoeppritz o la aproximación de Hiltermann proveen los verdaderos valores del coeficiente de reflexión para los distintos ángulos considerados que se apartan de la vertical. Pero en presencia de fluidos, sobre todo gas, el coeficiente de reflexión aumenta a medida que el ángulo de incidencia va siendo menos perpendicular a la interfaz entre el reservorio y las rocas impermeables que le supra e infrayacen, en una magnitud que en la práctica prospectiva es sólo visible para hidrocarburos ligeros dentro del rango de los ángulos de las reflexiones sísmicas cosechadas (usualmente hasta unos 30º). Existe en estos casos un efecto de amortiguamiento que se reduce con la oblicuidad del rebote y que es más notable en el caso de los fluidos de formación menos densos. Es decir, la amplitud aumenta sensiblemente con la oblicuidad cuando hay gas o, a veces también, con petróleos livianos tipo condensado, como se ilustra seguidamente.

12

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18 Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Suelen hacerse procesamientos separados con apilamiento y migración sólo de las trazas cercanas (near offset) y por otro lado de las trazas lejanas (far offset) de mayor oblicuidad, para poder sacar conclusiones comparando ambas secciones o cubos sísmicos. Esto puede verse a continuación, donde, entre otras, se resalta una fuerte amplitud diferenciada en el sector inferior derecho de la sección sísmica de mayor oblicuidad.

Una variante es el método AVA (Amplitud Versus Azimut) aplicable en medios anisótropos donde las amplitudes varían con el azimut de los registros.

CUESTIONARIO BÁSICO: - ¿Qué son los atributos sísmicos y cuál es el más básico? - ¿Cómo y para qué se calculan los atributos de frecuencia? - ¿Cómo se obtienen los atributos de traza compleja? - ¿Para qué pueden servir la envolvente de amplitud, la polaridad aparente y la fase y frecuencia instantáneas? - Explicar las manchas brillantes, las oscuras y los cambios de fase. - ¿Qué aplicaciones tienen los atributos de velocidad?. - Señalar las etapas en un proceso de inversión de trazas. - ¿Qué es un modelado sísmico? - ¿Qué aplicaciones tiene el cubo de coherencia? - Definir mapas de buzamiento y azimut, así como residuales y regionales: ¿cuál es la utilidad de cada uno? - Explicar en qué consiste la geoestadística mediante sísmica. - ¿Para qué pueden emplearse las redes neurales en sísmica? - ¿En qué se fundamenta el método AVO y qué aplicación principal tiene? BIBLIOGRAFÍA - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales. - Brown A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

13

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

REGISTROS SÍSMICOS ESPECIALES Dentro del tema de los métodos especiales, vamos a abordar ahora las adquisiciones especiales de sísmica reflectiva con principal aplicación a la prospección de hidrocarburos, para luego transbordar a las aplicaciones de sísmica de reflexión somera y de sísmica de reflexión ultraprofunda.

ADQUISICIONES ESPECIALES Se trata de métodos especiales de sísmica de reflexión que requieren de un nuevo programa de registro de datos de campo, más sus consiguientes procesamiento e interpretación. SÍSMICA DE POZO Ítem que comprende una variedad de registros especiales ya explicados en el Tema 16. ADQUISICIÓN DE ONDAS S Las ondas S, (secundarias, de corte, cizalla o transversales) pueden ser registradas a partir de fuentes convencionales, emisoras mayormente de ondas P (primarias, compresionales o longitudinales), pero también de ondas S en menor proporción. Además debe recordarse que buena parte de la energía convierte en las interfaces reflectivas su modo de propagación de P a S. También pueden emplearse fuentes especiales mayormente emisoras de ondas S (explosiones rápidamente consecutivas en pozos alineados, vibradores de movimiento horizontal en tierra firme o en fondos marinos o lacustres, y otras), aunque esto ocurre en rarísimas ocasiones. Abajo esquemas de dos opciones.

Como ya fuera comentado en el Tema 13, la adquisición en tierra se hace con geófonos triaxiales, que registran las componentes x, y, z, donde x, y componen las ondas S y z representa las ondas P. Se los llama Registros 3C (de tres componentes). 1

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

En el mar o lagos debe disponerse de los mismos geófonos triaxiales adaptados al medio subácueo del lecho y se utilizan además los hidrófonos convencionales que repiten el registro de la onda P, por lo cual se los denomina Registros 4C (de cuatro componentes). Ya sean registros 3 ó 4C, dada cierta profundidad de interés máximo, el tiempo de escucha ha de ser naturalmente mayor que cuando sólo se registran las ondas compresionales. Asimismo debe tenerse presente que, según la Ley de Snell, el ángulo de reflexión cambia al cambiar las velocidades, tal como se esquematiza en la figura de la derecha. El gráfico siguiente abajo expresa las relaciones de velocidad entre ondas P y S.

A la derecha, comparación de una sección real de ondas P con su correspondiente de ondas S, junto con perfiles de pozo, todo en escala de profundidades z para que pueda visualizarse sin desfasaje. Las amplitudes varían entre una y otra al variar los coeficientes de reflexión, debido a que las impedancias relativas difieren entre cada capa y la siguiente, porque las velocidades relativas entre P y S fluctúan tanto por litología como por fluidos. Debe tenerse presente, además, que las ondas secundarias tendrán una dada dirección inicial de oscilación, a la que llamaremos x, pero luego pueden escindirse en dos direcciones ortogonales a la primera y a su vez entre sí, digamos y, z a las cuales podremos referir como Sv (dirección vertical, también llamada Sz) y Sh (dirección horizontal, en este caso Sy). Esta escisión depende del carácter anisotrópico del subsuelo, típicamente debido a estratificación o bien fracturación paralela. También sucede que, una vez polarizada la onda transversal en dos componentes perpendiculares de vibración, éstas a su tiempo pueden modificarse según las distintas 2

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

direccionalidades de las anisotropías que encuentren en su tránsito por el subsuelo. Estos sucesos se ilustran en las siguientes figuras, incluyendo un eventual registro de pozo.

Las ondas S tienen variadas aplicaciones, de las cuales la más relevante es la identificación de reservorios gasíferos (técnica desarrollada por los estadounidenses James Robertson y William Pritchett en 1985) que resultan muy reflectivos con ondas longitudinales pero de reflectividad normal ante las ondas transversales, dado que estas últimas no se transmiten por el fluido poral y por lo tanto para ellas apenas se modifica el coeficiente de reflexión (sólo por el pequeño cambio en la densidad total de la roca). A la derecha vemos las respuestas diferenciadas para carbón y reservorios acuíferos y gasíferos. Una segunda aplicación muy frecuente es la visualización de la geología por debajo de esos mismos reservorios gasíferos, dado que, en el caso de las ondas de cizalla, la energía continúa propagándose normalmente en profundidad, con una mínima pérdida de amplitud. En cambio las ondas compresionales sufren una fuerte reducción de intensidad por debajo de estos reservorios debido a la fuerte reflectividad antes mencionada. A la izquierda puede apreciarse que la sección sísmica superior, registrada con ondas P, muestra dos reflexiones someras de gran amplitud, repetidas como múltiples, y más abajo una notable falta de información en dos sectores. La sección inferior, de ondas S en cambio, da amplitudes normales en la subsuperficie y una muy buena visualización a todo lo ancho de la línea sísmica.

3

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

Las relaciones de velocidad entre ondas P y S suelen permitir la identificación de fluidos, siendo la relación de Poisson una magnitud significativa. Asimismo permiten en muchos casos la discriminación de distintas litologías a partir del cálculo de los módulos elásticos (puede consultarse la tabla del Tema 11, pág. 4), como igualmente ocurre desde datos de acústica y de sísmica de pozo. Abajo gráficas típicas de respuestas alternativas entre las ondas compresionales y de cizalla.

SISMICA REPETITIVA (4D o Time Lapse) Esta técnica fue desarrollada gracias al trabajo de muchos investigadores, entre ellos el equipo liderado en Estados Unidos por el israelí Amos Nur hacia 1980, a la que dieron forma completa los estadounidenses Terry Fulp y Robert Greaves en 1987. Consiste en repetir el registro de sísmica 3D manteniendo los parámetros de adquisición originales y procesando luego también con la misma secuencia y parámetros utilizados la primera vez. La idea es tener dos juegos de datos comparables, que han sido obtenidos tras un cierto intervalo de tiempo. El objetivo es la visualización de los cambios producidos en los reservorios por la explotación de los hidrocarburos, por lo que se repite el registro tras un intervalo que puede ser de meses o, más habitualmente, de años. Es una metodología muy útil -y costosa- para monitorear la eficiencia del mallado de pozos productivos y eventualmente de los inyectores, si se tratara de un proyecto de recuperación secundaria. Normalmente no sólo se observa un cubo en relación al otro utilizando distintos atributos sísmicos, sino que, adicionalmente, se calcula la diferencia de esos atributos entre los dos cubos para obtener volúmenes representativos de la diferencia entre tales magnitudes sísmicas e indicativo de las variaciones de fluidos que se intenta detectar.

4

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

El método puede usarse también entre sísmicas 2D sucesivas, pero esto casi nunca se hace dado que no se aprovecha la estrategia en toda su potencialidad, además de que un yacimiento que amerita un monitoreo sísmico en el tiempo también seguramente amerita sísmica tridimensional.

Arriba a la izquierda puede verse una sección sísmica que va mostrando los cambios en el reservorio en forma previa, simultánea y posterior al venteo de gas. Hacia la derecha volumen sísmico en un tiempo inicial y otro tras cierto lapso en producción, más el cubo de la diferencia entre el primero y el segundo, donde se resaltan los acuñamientos en el sector derecho, principalmente el más profundo. A la izquierda el monitoreo de un proyecto de recuperación secundaria en un yacimiento de Nigeria, tras nueve años.

5

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFLEXIÓN SOMERA Existen variadísimas aplicaciones de la sísmica de reflexión a diferentes profundidades, además de la modalidad profunda, a nivel de cuencas, sobre la que hemos hecho énfasis y que se ha empleado sobre todo en la prospección de hidrocarburos. Cabe recordar que más del 90% de la sísmica en todo el mundo tiene fines petroleros. Allí se han hecho las mayores inversiones y progresos técnicos impulsados por las empresas petroleras y de servicios. De la inversión total, un 90% corresponde al gasto en adquisición, un 9% al procesamiento de los datos y el 1% al costo de interpretación. Los dispositivos de investigación de sísmica somera, de corto espaciamiento superficial y con escaso número de receptores, poseen menores requerimientos de potencia de la fuente y la mayoría de las veces son realizados con sismógrafos portátiles. Por lo demás, la metodología, aunque algo más simple, es esencialmente la misma que hemos estudiado para la sísmica de reflexión profunda convencional. La resolución puede ser bastante superior, dado que a poca profundidad disminuye mucho el efecto de filtrado cortaalto que ejerce el terreno. Esto permite, de ser conveniente, la utilización de barridos de muy altas frecuencias cuando se emplean fuentes vibratorias, dado que el gasto extra en este caso sí vale la pena. Los programas someros pueden tener aplicaciones en minería, hidrogeología, ingeniería civil (fundaciones), arqueología, medioambiente (a veces relativas a las consecuencias de la actividad petrolera) y otras. Abajo secciones sísmicas de la cuenca Austral (sur de Santa Cruz, laguna Potrok Aike) mostrando secuencias sedimentarias pleistocenas vinculadas a freatomagmatismo, con datos adicionales de densidad y susceptibilidad magnética obtenidas a partir de perforaciones.

6

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

SÍSMICA DE REFLEXIÓN ULTRAPROFUNDA Los dispositivos para la investigación sísmica ultraprofunda poseen un muy largo espaciamiento superficial, requieren de fuentes de energía relativamente potentes y de un procesamiento muy cuidadoso para minimizar ruidos y maximizar la visualización de las reflexiones provenientes a tiempos largos y frecuencias casi siempre muy bajas. Estos registros suelen tener objetivos netamente científicos, como investigación de corteza profunda y manto superior, aunque no pocas veces con implicancias indirectas relativas a la prospección, en términos de conocer la historia tectónica profunda para poder entonces comprender mejor los emplazamientos más someros, desarrollo de cuencas, fajas plegadas, etc. hacia donde se dirigen determinados estudios geocientíficos aplicados. Abajo se ilustra una sección ultraprofunda de muy alta calidad, procesada a partir de una adquisición marina en Canadá, sobre la continuación septentrional de la faja plegada de los Apalaches. En ella, además de las amplitudes, se indica el grado de correlación y de buzamiento en tonalidades variables.

Una opción de sísmica ultraprofunda de bajo presupuesto -desarrollada en Estados Unidos por Okaya y Jarchow en 1989 y utilizada en argentina por Alberto Cominguez desde 1990- es la de reutilizar los registros de vibradores de prospección petrolera rutinaria para hacer un reproceso distinto del convencional, con las bajas frecuencias cosechadas a tiempos largos, es decir grandes profundidades, para obtener imágenes que, si bien de muy pobre calidad, pueden dar importantes indicios sobre la geología profunda. El complemento de otros métodos geofísicos, especialmente gravimetría y detección de sismicidad natural, podrá conducir a modelos bastante confiables sobre la geodinámica cortical.

7

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

La sección sísmica ya interpretada que se adjunta es un ejemplo de esta técnica especial de correlación cruzada, en este caso obtenida en la cuenca Noroeste de Argentina.

CUESTIONARIO BÁSICO: - Puntualizar los recaudos para registrar las ondas S y sus características en el subsuelo. - Comentar las posibles aplicaciones de las ondas transversales. - ¿Qué beneficios puede brindar la sísmica 4D? - Ejemplificar aplicaciones de sísmica de reflexión somera. - ¿Qué objetivos puede tener la sísmica ultraprofunda?, ¿cómo se la puede generar?

BIBLIOGRAFÍA - Bocaccio P. y otros, 1996. Apuntes de Sísmología y Sismica (p.1-36). Yacimientos Petrolíferos Fiscales. - Brown A., 1991. Interpretation of Three Dimensional Seismic Data. Society of Exploration Geophysicists. - Sheriff, R., 1991. Encyclopedic Dictionary of Exploration Geophysics. Society of Exploration Geophysicists. - Sheriff, R., 1985. Geophysical Exploration and Interpretation. Society of Exploration Geophysicists.

8

Cátedra de Geofísica Aplicada, U.N.P.S.J.B., Chubut, Argentina. Tema 18(b) Métodos Sísmicos Especiales

Chelotti, L., Acosta, N., Foster, M., 2009

POSDATA: Hasta acá llegamos con el programa de la materia. La temática, aunque muy variada, dista de agotar las vertientes de la ciencia geofísica, tanto por el número de tales vertientes como por el gran caudal que ellas aportan, siempre renovado y además creciente a través del tiempo, como el conocimiento científico en general. De modo que éste puede considerarse sólo un primer acercamiento a uno y otro manantial del saber geofísico, ojalá refrescante, que seguirá surgiendo de las entrañas del subsuelo mientras se requiera de él, ya sea por curiosidad científica o por necesidades aplicadas. Y bueno es recordar que en la sequedad del golfo San Jorge el perito Francisco Pascasio pronosticó un particular escenario: éste, que nos tiene empleando la geofísica para hurgar en la búsqueda de los recursos no renovables de la madre tierra.

9

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF