El metodo gravimetrico y su aplicación en la prospeccion geofisica
Definición: ¿Que es el metodo gravimetrico geofísico?
Son métodos geofísicos de prospección por medio del cual se pueden detectar alteraciones de la densidad de los materiales que se encuentran bajo la superficie terrestre a través de la magnitud de las variaciones de la gravedad y la interpretación de los mismos.
Tabla de Contenido
Si estás interesado en el tema de prospeccion geofisica y metodos gravimetricos, ingrese aquí |
Somos consultores con Master en Ingeniería Geotécnica, USA, ofrecemos un servicio de primer nivel en:
- Geotecnia
- Mecánica de Suelos y Rocas
- Estabilización de Taludes y Geofísica
Ofreciendo a nuestros clientes diseños seguros y económicos.
Video del Metodo gravimetrico
Plantillas (XLSX) Excel para Cálculos de Gravimetria geofisica
Historia de la gravimetria geofísica y la concepción del metodo
Galileo Galilei fue el primer científico en intentar explicar el comportamiento de los cuerpos en movimiento dentro del campo gravitacional de la Tierra; más la exploración por gravedad moderna comenzó durante el primer tercio del siglo XX, cuando Jean Richer en 1672, observó que el reloj de péndulo que había creado en París para marcar los segundos, tenía una pérdida entre un minuto y medio a dos minutos al día cuando estaba en Cayenne, Francia.
Es de conocimiento general que el tiempo de desplazamiento de un péndulo simple trabaja en función de su longitud por acción de la gravedad; por lo que Richer concluyó que, si la longitud del péndulo no se alteraba, estas alteraciones en el tiempo correspondían a que el campo gravitacional terrestre era diferente en París y en Cayenne. Así poco a poco, se fue incursionando en esta área, un ejemplo importante fue el de Henry Cavendish y Eötvös, quienes, utilizando la balanza de torsión de Coulomb diseñada para indagar en campos magnéticos y eléctricos, obtuvieron pruebas concretas de las alteraciones de la densidad a profundidad en la corteza terrestre.
Esto dio inicio al primer descubrimiento geofísico de petróleo y gas, gracias a la gravimetria geofísica, en el domo de Nash en la costa de Texas, Estados Unidos. Este fue el resultado de un estudio de balance de torsión que logro ofrecer un esquema histórico del desarrollo temprano de los metodos geofisicos de exploracion por gravedad.
La continua evolución de los instrumentos a partir de ese primer descubrimiento puede ser respaldada por distintas documentaciones recreadas de operaciones de campo, las técnicas de procesamiento de datos y los métodos de interpretación, los cuales proporcionaron una comprensión precisa de la utilidad de gravedad y métodos magnéticos.
Con el paso del tiempo, el estado de la literatura geofísica, ha permitido que la sofisticación matemática opaque la utilidad geológica, más gracias a la progresión constante de la instrumentación (equilibrio de torsión, un gran número de gravimetros terrestres, gravimetros submarinos, gravimetros de bordo y aéreos, gravimetros de pozo, versiones modernas de gravimetros absolutos y gradiómetros de gravedad) se ha logrado la adquisición de datos de gravedad en casi todos los entornos desde el interior de los pozos de sondeo y los pozos de las minas en cortezas poco profunda de la tierra hasta la superficie ondulada de la tierra, el fondo, la superficie del mar, hasta el aire e incluso en la luna.
Esto ha requerido una progresión similar en métodos mejorados para corregir efectos no deseados (terreno, marea, deriva, elevación y movimiento inducido) y el aumento paralelo en la precisión de los datos de posicionamiento.
Una de las agradables sorpresas en la historia reciente de la exploracion geofisica gravimetrica ha sido la marcada mejora en los datos de gravedad adquiridos a bordo de los buques sísmicos 3D. En combinación con mejores sistemas de control, travesías sísmicas poco espaciadas y barcos más grandes y estables, la calidad de los datos de gravedad marina adquiridos en la superficie del mar ahora supera la precisión de la gravedad bajo el agua; una afirmación que no se podría haber hecho en 1980. Y, por consiguiente, la instrumentación y el procesamiento de datos del sistema de posicionamiento global (GPS) moderno han aumentado significativamente la precisión.
Los intérpretes de gravedad han podido aprovechar estas mejoras en la adquisición y procesamiento de datos debido a la amplia disponibilidad de estaciones de trabajo y computadoras personales de bajo costo, aunque importantes contribuciones tempranas siguen siendo relevantes en la actualidad.
Los fundamentos de la interpretación son los mismos hoy que hace 25 años, pero el GPS y las computadoras pequeñas y potentes han revolucionado la velocidad y la utilidad del metodo gravimetrico. Con la disponibilidad de software que se ejecuta en computadoras portátiles en lugar de mainframes o estaciones de trabajo basadas en UNIX, los datos se adquieren automáticamente e incluso se procesan e interpretan de forma rutinaria en el campo durante la adquisición de datos. La información ahora se puede transmitir desde el campo a través de un enlace satelital, almacenarse en servidores de datos centralizados y recuperarse en la Web. En la exploración de hidrocarburos, los modelos sísmicos derivados de la migración de profundidad antes del apilamiento se utilizan habitualmente como entrada para el modelado de gravedad, y este último se utiliza para perfeccionar aún más los modelos de profundidad y velocidad sísmicas.
Fundamentos básicos del metodo gravimetrico en geofísica
- Leyes de Newton
Todo el mundo está familiarizado con la fuerza de atracción que posee la Tierra, la cual es la responsable que todos los cuerpos existentes sean atraídos hacia su centro. La persona que descubrió que cada masa atrae a otra fue Isaac Newton, quien en 1687 formuló su descubrimiento en la ecuación llamada Ley de Gravitación de Newton
donde F denota la fuerza gravitacional, γ la constante gravitacional universal equivalente a 6.673 10ˉ¹¹ N (m/kg) ², m son los pesos de los cuerpos que atraen y r es la distancia entre ellos. Esta ecuación nos permite calcular una fuerza gravitacional que la Tierra ejerce sobre una roca al ser atraída a la superficie de la Tierra al sustituir los pesos de los cuerpos correspondientes:
donde ME es el peso de la Tierra, mr es el peso de la roca y RE es el diámetro de la Tierra.
Podemos ver que no es conveniente usar y medir la fuerza gravitacional, ya que depende de los pesos (masas) de ambos cuerpos ME y mr, por lo que dividiendo ambos lados de la ecuación anterior por mr obtenemos
Dado que la fuerza se calcula como aceleración del peso, podemos transformar esta ecuación en:
definiendo la aceleración causada por la Tierra: La aceleración g se denominará «aceleración debida a la gravedad» o «aceleración de la gravedad«. El valor de g en la superficie de la Tierra es 9.80665 m/s2, que a menudo se simplifica a 10 m/s2. La unidad de aceleración de la gravedad, 1 cm / s2, también se conoce como galileo o Gal, en honor a Galileo Galilei, quien fue el primero en medir su valor. Los gravimetros modernos son capaces de realizar lecturas con una precisión de 0,001 mGal (0,01 µm/s2).
- Unidades
En gravimetría, la unidad básica es el Gal el cual equivale a 1 cm/s2, en unidades cgs (centímetros, gramos, segundos). Dado que en exploracion geofisica esta unidad es extremadamente grande, se hace uso de un submúltiplo, el mGal que equivale a 10ˉ⁶ Gal.
El objetivo de lograr la unificación de las unidades dio origen al sistema SI (sistema internacional), el μm/s2, denominado unidad gravimétrica, el cual corresponde numéricamente a 0.1 mGal. En prospeccion geofisica, sin embargo, esta unidad no se ha tenido una gran aceptación, por lo que se continúa haciendo uso tanto del mGal, como el μGal.
- Campo gravitacional de la Tierra y reducción de datos
Dado que la Tierra no es una circunferencia homogénea perfecta, la aceleración gravitacional no es constante en toda su superficie. La magnitud de esta se ve influenciada por cinco factores: latitud, elevación, topografía del terreno, mareas de tierra y variaciones de densidad en el subsuelo.
Dentro de la exploración geofísica, el último factor es el de real interés, ya que suele ser mucho menor que los cambios de latitud y altitud.
Corrección de latitud.
El motivo de la corrección de latitud es doble. En primer lugar, se debe a que la fuerza centrífuga de la Tierra se suma a la fuerza gravitacional (suma vectorial). Esto disminuye la fuerza gravitacional con un aumento del radio de rotación. Por lo tanto, la fuerza gravitacional más pequeña está en el ecuador (fuerza centrífuga máxima) y la más grande está en el polo. En segundo lugar, la fuerza gravitacional se ve además afectada por el hecho de que la Tierra no es esférica sino elipsoidal. Esto disminuye aún más la fuerza gravitacional en el ecuador. Ambos efectos podrían ser eliminados por la Fórmula Internacional de Gravedad:
Está claro que la fuerza centrífuga cambia solo en la dirección N – S, no en la O – E.
Como hemos visto en la ley de la gravedad de Newton, la gravedad disminuye con el cuadrado de la distancia. Por lo tanto, si levantamos el gravimetro de la superficie, la gravedad cambiará. Para poder comparar los datos medidos en diferentes elevaciones, tenemos que reducirlos a un dato común. Esta corrección de los efectos topográficos tiene varios pasos.
Corrección al aire libre.
Este es el primer paso para reducir los efectos de la topografía. Simplemente corrige el cambio en la elevación del medidor de gravedad, considerando que solo hay aire (por lo tanto, aire libre) entre el medidor y el datum seleccionado. Para obtener el cambio en la aceleración de la gravedad con la altura podemos diferenciar la siguiente ecuación:
Al levantar el medidor de gravedad (por ejemplo, extender su trípode), los valores de gravedad medidos disminuyen en 0.3086 mGal/m. Por lo tanto, para medir con una precisión de 0.01 mGal tenemos que medir la elevación del medidor de gravedad con una precisión de 3 cm. La corrección al aire libre varía ligeramente con la latitud:
Claramente, las partes sin² λ y h² son muy pequeñas y podrían descuidarse terminando así con la relación mencionada anteriormente.
Corrección de Bouguer.
La corrección de Bouguer elimina de los datos un efecto de la colocación de rocas entre el punto medido y el datum de referencia. Este efecto fue ignorado durante las correcciones al aire libre. Por lo tanto, si se agrega una losa con una densidad promedio de rocas circundantes, la corrección de Bouger quedará de la siguiente manera:
donde ρ es la densidad de la losa de Bouguer.
La corrección al aire libre y de Bouguer a menudo se combina en una corrección de elevación.
Corrección de terreno.
La corrección de Bouguer asumió en un principio que la losa era infinita en la dirección horizontal. Esto no es cierto, debido a la topografía y a la curvatura de la Tierra, más la corrección para la curvatura de la Tierra se utiliza en estudios geofísicos a gran escala. Sin embargo, la corrección de la topografía es de gran importancia, por ejemplo: La colina sobre la losa de Bouguer con su propia fuerza de gravedad tira en la dirección opuesta a la Tierra, por lo tanto, disminuye la aceleración medida. De manera similar, un valle también disminuye este valor, porque al calcular la corrección de Bouguer, ya hemos restado la losa de Bouguer (con una superficie plana) y no contabilizamos las masas faltantes del valle. Por lo tanto, siempre se agrega la corrección geofísica del terreno.
Hay varios métodos para calcular las correcciones geofísicas del terreno. En cualquiera, se necesita conocer en detalle del relieve a cierta distancia de la estación. El método común es dividir los alrededores de las estaciones de gravedad en zonas, estimar la altitud promedio en cada una y calcular el efecto de gravedad de las zonas.
Corrección de mareas.
La corrección de las mareas explica el efecto de la gravedad del Sol, la Luna y los grandes planetas. Los medidores de gravedad modernos calculan los efectos de la marea automáticamente. Para los instrumentos geofísicos más antiguos, se debe calcular las correcciones por sí mismo.
Corrección de deriva.
Esta corrección tiene como objetivo eliminar los cambios causados por el propio instrumento. Si el gravimetro estuviera en un lugar y tomara lecturas periódicas, las lecturas no serían las mismas. Esto se debe en parte a la fluencia del sistema de medición del gravimetro, pero en parte también a las variaciones reales: distorsión de la marea de la Tierra sólida, cambios en el nivel del agua subterránea, etc.
Las densidades de las rocas, naturalmente, dependen de la composición mineral de la roca en particular. Sin embargo, no solo la composición mineral, sino también otros factores influyen en las densidades. Uno de los factores que principalmente influyen en las densidades de rocas, en particular en la sedimentaria, es la porosidad.
El aumento de la porosidad en la roca disminuye la densidad, ya que el aire (o cualquier otro medio que llene los poros: agua, gas, aceite, etc.) tiene una densidad menor que cualquiera de los minerales. Otros factores también son la meteorización de rocas, fracturas y juntas, etc.
Las densidades necesarias para la interpretación de datos geofísicos (por ejemplo, para las anomalías de Bouguer) podrían medirse en laboratorio (teniendo en cuenta que los valores de laboratorio podrían diferir de la realidad principalmente debido al cambio del medio que llena los poros en la naturaleza y en el laboratorio) o podría estimarse a partir de las mediciones de gravedad.
El estudio geofisico de las anomalías gravimétricas
Los perfiles de gravedad a menudo se caracterizan por una tendencia regional suave superpuesta a información de frecuencia mucho más alta que generalmente se conoce como «anomalía gravitacional». Desafortunadamente, al igual que con otros problemas, la solución ante estas anomalías no es única, es decir, muchas distribuciones diferentes de masa pueden producir el mismo campo gravitacional, e incluso la fuerte suposición de que la anomalía gravitatoria es causada por una sola masa perturbadora bidimensional de la densidad uniforme, no conduce a una interpretación inequívoca. No obstante, se puede obtener una interpretación geofísica significativa si se utilizan datos sísmicos, y quizás datos geológicos de perforaciones o pozos, para restringir suficientemente el rango de modelos posibles.
Los intentos de inversión originales se basaron en métodos de prueba y error en los que la forma de una estructura inicial se perturbaba hasta que su atracción gravitacional, calculada mediante retículas, coincidía con el campo observado. Los modelos más recientes se han centrado en la automatización del esquema de perturbación, donde el cuerpo perturbador generalmente se aproxima mediante un conjunto de prismas rectangulares de densidad constante, donde luego se calcula su campo gravitacional. Los residuos entre los campos geofisicos calculados y observados se utilizan para ajustar las alturas de estos rectángulos; la cantidad de los ajustes se calcula resolviendo un conjunto linealizado de ecuaciones normales.
Aunque las desventajas de esta técnica son numerosas, el modelo final consiste en una serie de prismas rectangulares en lugar de una curva suave que sería más razonable geológicamente; y se requieren dos tipos de esquemas de iteración, dependiendo de si se supone que la superficie superior o inferior del cuerpo perturbador es conocida y fija, para asegurar la estabilidad y la convergencia probables.
Aunque las desventajas de esta técnica son numerosas, el modelo final consiste en una serie de prismas rectangulares en lugar de una curva suave que sería más razonable geológicamente; y se requieren dos tipos de esquemas de iteración, dependiendo de si se supone que la superficie superior o inferior del cuerpo perturbador es conocida y fija, para asegurar la estabilidad y la convergencia probables. Los ejemplos publicados que utilizan este método se caracterizan por una lenta convergencia e inestabilidad del esquema de iteración cuando aumenta el número de parámetros geofisicos, es decir, el número de rectángulos. Para cuerpos enterrados, la convivencia del método de iteración también requiere que la profundidad de enterramiento del prisma rectangular sea mayor que su ancho.
En 1972, los teóricos Dyrelius y Vogel aumentaron la estabilidad y la velocidad de convergencia mediante el uso de un método alternativo para calcular algunas de las cantidades linealizadas en las ecuaciones normales y evitar que el esquema de iteración hiciera grandes ajustes en las alturas de los rectángulos, al suponer que el centro de masa y la masa total del modelo fuesen la misma que la calculada a partir de la anomalía observada por la fórmula de Gauss. Sin embargo, su método se aplicó sólo cuando la superficie superior de los prismas rectangulares coincidía con el plano de observación, por lo que se desconoce la eficacia de su método cuando el cuerpo perturbador está enterrado en profundidad.
Una de las técnicas de inversión que mejor se ha podido ajustar es el método de Parker, donde es posible incluir fácilmente un gran número de puntos del modelo (más de cien) y aún mantener las propiedades numéricas deseadas de estabilidad y convergencia relativamente rápida. La inversión se halla a través de un esquema iterativo fundamentado en la reordenación del algoritmo, cuyo esquema cuantifica la transformada de Fourier de la anomalía gravitacional como la adición de las transformadas de Fourier de la topografía perturbadora. Dado que las transformadas de Fourier se pueden calcular rápidamente, este método es mucho más eficaz desde el punto de vista computacional que calcular el campo gravitacional geofísico dividiendo el modelo en un conjunto de prismas cuyas contribuciones se calculan por separado y se suman. De hecho, es esta velocidad con la que se ejecuta el algoritmo de avance lo que permite presentar este método de inversión como uno práctico.
Las anomalías gravimétricas y su relación con los fenómenos sísmicos
Aunque con frecuencia se observan perturbaciones de la gravedad inducidas por fenomenos geofisicos sismicos, la modelización numérica de este fenómeno continúa siendo un desafío. La precisión de sus mediciones de gravedad utilizando gravimetros geodésicos permiten detectar alteraciones gravimetricas con un rango de ±0,005 mGal (1 mGal = 10-5ms-1) en función a esfuerzos tectónicos que originan redistribución de masas.
Sin embargo, aun se observa una falta de herramientas numéricas confiables y versátiles, donde los datos de gravedad inducida puedan ser aprovechados de tal manera que se pueda llegar a delimitar los parámetros de la fuente de un fenómeno sísmico, de un desplazamiento vertical de la superficie topográfica o hasta de variaciones de densidad en el interior de la corteza terrestre.
Las variaciones del campo gravitatorio relacionadas con el fenomeno geofisico sísmico son complejas funciones temporales resultantes de una superposición de cambios debidos a deformación elástica, viscoelástica y migración de fluidos. En la actualidad se pueden encontrar distintos modelos para explicar la evolución del campo gravitatorio y los cambios topográficos en fuentes sismogénicas. Los dos modelos más aceptados fueron el resultado de analizar los cambios de gravedad desde la deformación en un semi-espacio homogéneo y elástico, y estos son:
- a) fuente por dilatación, donde la deformación conlleva a la expansión de un volumen de roca en el subsuelo que permite la disminución de su densidad y la elevación topográfica de la estación gravimétrica
- b) fuente por deslizamiento de falla, donde la deformación geofísica origina un deslizamiento de rocas en el subsuelo y variaciones topográficas en la dirección de la deformación.
Para (a) el cambio gravimetrico es producido directamente al gradiente de aire libre por cambios en la altimétrica de la estación (dgz≈-0,309.dz mGal). En (b) se contrarrestan las alteraciones de la masa del deslizamiento con el gradiente de aire libre, para una falla de empuje, se acepta dgz≈-0,200.dz en mGal.
Las anomalías gravimétricas y su relación con la geotermometria
La geotermometría aplicado a la interpretación de las anomalías de las densidades del subsuelo sobre el campo gravitatorio terrestre es un campo de actividad floreciente en la geología metamórfica. Sin embargo, no siempre está claro que los científicos sean lo suficientemente críticos en sus estudios.
La geotermometría ante las anomalías gravimétricas deben basarse en una comprensión detallada de las relaciones minerales y texturales en cada roca, así como en presiones y temperaturas calculadas basadas en minerales que probablemente no se encuentran en equilibrio, por lo pueden llegar a ser muy engañosas, debido a que los resultados pueden parecer razonables.
Es por esto, que estas dos ciencias en combinación para la obtención de datos es muy inexacta, por lo que no se deben realizar cálculos sin algún tipo de cálculo de propagación de errores o sin alguna estimación de las incertidumbres sobre las presiones y temperaturas calculadas, dado que los resultados pueden ser insignificantes, fortuitamente buenos o explicablemente malos.
En esta relación, cabe destacar que las temperaturas y presiones de formación, a menos que sean «inusuales», no son muy interesantes en sí mismas.
Aplicación del metodo gravimetrico
Las mediciones de gravedad podrían, obviamente, aplicarse en cualquier lugar donde se espere suficiente contraste de densidad. Sin embargo, existen situaciones y condiciones de campo adecuadas e inadecuadas.
Una de las escenas donde sobresale la gravedad es un mapeo geológico regional. Esto se debe al hecho de que el medidor de gravedad es fácilmente portátil, no necesita cables ni alambres y una o dos personas son suficientes para operarlo. Por tanto, no existe ningún problema logístico en la medición de travesías largas. Otra ventaja es el gran alcance de profundidad, por lo que es común modelar estructuras a una profundidad de varios kilómetros.
Otro campo donde las medidas de gravedad son indispensables es el mapeo de vacíos (cavidades). No hay muchos metodos geofisicos que puedan detectar directamente los vacíos (el segundo es el radar de penetración terrestre). Por lo tanto, el metodo gravimetrico se usa a menudo para explorar en cuevas, minas antiguas y galerías, o diferentes vacíos y cavidades debajo de las carreteras.
Una aplicación muy común del metodo gravimetrico es el mapeo de las cuencas sedimentarias para la prospección de petróleo. Si se conocen las densidades de los sedimentos (por ejemplo, de los pozos de sondeo), no solo se podría cartografiar la extensión lateral sino también la profundidad de las cuencas. Otro ejemplo de la prospección de petróleo es el mapeo de domos de sal, ya que a menudo forman depósitos de petróleo y gas.
Este conjunto de ejemplos del metodo gravimetrico se profundizarán mediante a su evolución a continuación:
A medida que el número de cuadrillas de equilibrio de torsión comenzó a disminuir en la década de 1940, fueron reemplazadas en gran medida por cuadrillas de gravímetro, cuya producción en estaciones por día experimentó un marcado aumento. En las últimas siete décadas, se han adquirido más de 10 millones de estaciones en casi todas las masas continentales del planeta.
Las operaciones de gravedad se han realizado en hielo polar, en selvas (donde muchas estaciones se han ubicado en tocones de árboles cortados con motosierras), en marismas (en trípodes extendidos), en topografía muy accidentada como el Cinturón de Overthrust y, por supuesto, en cientos de valles desde la provincia de Cuenca y Cordillera de Nevada hasta la cuenca del Amazonas en América del Sur.
La precisión del gravimetro generalmente no es el factor limitante para producir interpretaciones significativas de las anomalías reducidas finales. Los errores resultantes de la determinación de la posición (especialmente las elevaciones), las correcciones del terreno y el ruido geológico requieren el mayor cuidado y, por lo general, más gastos en el componente topográfico de las operaciones del personal de campo.
La adquisición de datos de gravedad en el lecho marino y el fondo de los lagos fue una extensión natural de las operaciones terrestres y un componente importante de los presupuestos de exploración por gravedad a mediados del siglo XX.
Al principio, los medidores terrestres y un operador fueron bajados en campanas de buceo en puntos estacionarios en el agua. Las operaciones se llevaron a cabo de noche porque las posiciones se adquirieron triangulando sobre fuentes de luz instaladas en puntos separados de la costa. Estos primeros esfuerzos pronto fueron reemplazados por instrumentos operados a distancia y sistemas de radionavegación.
Aunque la precisión de las mediciones de gravedad bajo el agua puede acercarse a la de los sistemas de gravedad terrestre, los errores en la posición de la ubicación del medidor y en las correcciones del terreno resultantes limitaron su precisión. Además, el alto costo de la adquisición de gravedad submarina y las precisiones de navegación mejoradas recientemente de los datos de gravedad marina han hecho que las operaciones submarinas estén casi extintas.
Operaciones en la superficie del mar
Si bien la historia de la instrumentación gravitacional dinámica explica en gran medida el asombroso éxito de esta disciplina, la evolución en las operaciones de campo jugó un papel importante y complementario. Los institutos de investigación oceanográfica operan gravímetros marinos desde la década de 1950. En 1962, Carl Bowin de la Institución Oceanográfica Woods Hole implementó el primer sistema de gravedad marina con un sistema de adquisición digital automatizado. En la exploración de petróleo y gas, el punto de inflexión en términos de prospecciones a escala se produjo en 1965 en la primera prueba de campo del entonces nuevo instrumento L&R de plataforma estabilizada (LaFehr y Nettleton, 1967). Incluso trabajando en una embarcación muy pequeña con los datos de posicionamiento inferiores (según los estándares actuales) pero de suma importancia y la necesidad de comprender y corregir los efectos de acoplamiento cruzado direccional y dependiente del estado del mar, los operadores pudieron producir resultados de calidad de exploración. Los instrumentos L&R anteriores se balanceaban libremente en cardanes y no requerían correcciones de acoplamiento cruzado. Debido a que el instrumento estaba montado sobre una plataforma estabilizada, una interacción concomitante entre las aceleraciones verticales y horizontales produjo efectos de movimiento no deseados, acuñados por LaCoste como acoplamiento cruzado. Este efecto y su corrección fueron significativos en todos los medidores LaCoste posteriores hasta la llegada del medidor de línea recta (consulte Historia de la instrumentación de gravedad).
Operaciones aerotransportadas
Al revisar la historia de la gravedad dinámica, conviene recordar el escepticismo inicial que soportaron los primeros defensores de las operaciones marítimas y aéreas. Incluso uno de los pioneros más destacados de la tecnología de exploración por gravedad, L. L. Nettleton, comentó a principios de la década de 1960 que era imposible obtener datos con calidad de exploración en entornos en movimiento. Razonó que las aceleraciones causadas por el movimiento del sensor son matemáticamente indistinguibles de las aceleraciones causadas por los contrastes de densidad del subsuelo. (Por supuesto, no tenía forma de saber el impacto que tendría la tecnología GPS en la identificación y eliminación de efectos de movimiento). Otro pionero prominente, Sigmund Hammer, mantuvo puntos de vista similares hasta que se le presentó a los datos de gravedad en el aire que volaban sobre una gran cúpula de sal poco profunda, en el Golfo de México.
Estaba tan emocionado por el potencial del método que llamó a su artículo resultante «La gravedad aerotransportada está aquí», lo que generó discusiones intensas y clamorosas.
Los importantes cambios en la gravedad marina provocados por la adquisición y el procesamiento de GPS modernos también revolucionaron las operaciones aéreas. El alta constante de amortiguación le da al sensor del medidor L&R una constante de tiempo de 0.4 ms. A principios de la década de 1970, se tomó una muestra de la salida altamente filtrada del gravímetro y se registró a intervalos de 1 minuto. En algún momento alrededor de 1980, una mejor grabación digital y el deseo de ajustar las correcciones de acoplamiento cruzado llevaron al muestreo de 10 s, que fue el estándar hasta principios de la década de 1990. La electrónica de control mejorada ha ayudado a optimizar la sensibilidad inherente de los sensores de gravedad, y el GPS ha proporcionado correcciones precisas para el movimiento de barcos y aviones. En la actualidad, el muestreo de 1 Hz es común para la adquisición de gravedad marina, y el muestreo de 10 Hz es común para la gravedad aérea.
Perfilaje Gravimetrico de Pozos
La adquisición de datos de gravedad en pozos se discutió ya en 1950 cuando Neal Smith sugirió que el muestreo de grandes volúmenes de roca podría mejorar la información sobre la densidad de la roca.
Luego, Hammer en 1950 informó sobre la determinación de la densidad mediante mediciones de gravedad subterráneas. Aunque se invirtió una cantidad considerable de esfuerzo en tiempo y dinero en el desarrollo inicial de las mediciones de fondo de pozo, esta actividad no se convirtió en una empresa comercial viable hasta la llegada del instrumento L&R en las décadas de 1960 a 1970. Durante esta era, los datos adquiridos por el Servicio Geológico de los Estados Unidos y Amoco Corp., confirmaron la evaluación realizada previamente por Smith y dieron como resultado que L&R diseñara y construyera una nueva herramienta con dimensiones y especificaciones más adecuadas para el petróleo y la exploración y explotación de gas.
Técnicas de gravedad derivadas de satélites
La era moderna de la altimetría de radar satelital, que comenzó con Seasat en 1978, marcó el comienzo de una edad de oro para la obtención de imágenes y el mapeo del geoide marino global y su primera derivada vertical, el campo gravitatorio marino en aire libre. El advenimiento de una base de datos de gravedad marina global de dominio público con cobertura uniforme y calidad de medición proporcionó una mejora significativa en nuestra comprensión de la tectónica de placas. Esta base de datos representa la primera vista detallada y muestreada continuamente de las características de la gravedad marina en los océanos del mundo, lo que permite un mapeo consistente de características estructurales a gran escala en toda su extensión espacial.
La comprensión del campo gravitatorio marino en aire libre continúa mejorando a medida que las nuevas generaciones de satélites adquieren datos adicionales del altímetro del radar.
Adquisición de los datos gravimetricos geofisicos (en campo)
El siglo XX fue testigo de una tremenda expansión tanto en la ciencia como en las aplicaciones de la exploracion geofisica gravitacional, como lo demuestra la proliferación del número de estaciones gravitatorias. En 1900, solo había alrededor de 2000 estaciones de gravedad en todo el mundo, todas representando medidas de péndulo.
A principios de la década de 1930, con el desarrollo del equilibrio de torsión y luego los sensores de resorte-gravedad, la recopilación de datos de gravedad se volvió mucho más fácil con una resolución mejorada, lo que condujo a nuevas aplicaciones en los sectores de minería, petróleo, ingeniería civil, militar y académico. Estos primeros éxitos impulsaron el desarrollo de nuevas configuraciones de instrumentos de gravedad, como instrumentos de gravedad marinos, submarinos, de fondo oceánico, perforados y aerotransportados, que a su vez inspiraron aún más aplicaciones nuevas de técnicas de gravedad en esos diversos sectores.
Hoy en día, para lograr la adquisición de datos gravimétricos, es necesario realizar una planificación para la exploracion geofisica donde se determinará en base a la geología superficial y del subsuelo si la información a recabar estará sujeto al objetivo perseguido, precisando a la vez, la calidad de los resultados.
Por lo que para aplicar el metodo gravimetrico se debe cumplir con un suficiente contraste de densidades entre el medio y el cuerpo en cuestión; de lo contrario las variaciones de gravedad no podrán ser atribuidas a una estructura, o accidente geológico del subsuelo.
También es importante tomar en cuenta la profundidad del cuerpo en estudio y las dimensiones del mismo, dado que, si este se encuentra a mucha profundidad y la estructura geofisica es compleja, la anomalía gravimétrica estará influenciada por efectos de estos cuerpos superficiales arrojando datos poco fiables.
Procesamiento e Interpretación de los datos gravimetricos
Un primer paso común antes de la interpretación de datos gravimetricos es convertir los datos observados en una forma diferente mediante técnicas de filtrado. El objetivo puede ser apoyado bajo la aplicación de otras técnicas geofisicas, facilitando la comparación con otros conjuntos de datos, mejorando las anomalías de gravedad de interés u obteniendo información preliminar sobre la ubicación de la fuente o el contraste de densidad.
La mayoría de las técnicas de filtrado e interpretación se aplican tanto a datos magnéticos como a gravedad, por ende, es común hacer referencia a artículos que describan técnicas geofisicas para filtrar datos magnéticos cuando se procesan datos de gravedad y viceversa.
Separación regional-residual
Las anomalías geofisicas de interés se superponen comúnmente en un campo regional causadas por fuentes más grandes que la escala de estudio o demasiado profundas para ser de interés. En esta situación, es importante realizar una separación regional-residual, un primer paso crucial en la interpretación de datos. Históricamente, este problema se ha abordado utilizando un enfoque gráfico simple (seleccionando manualmente puntos de datos para representar un campo regional uniforme) o utilizando varias herramientas matemáticas para obtener el campo regional. Muchos de los métodos históricos todavía son de uso común en la actualidad.
Continuación ascendente-descendente
En la mayoría de los casos, los datos de anomalías de gravimetria geofisica se interpretan en, o cerca de la superficie de observación original. En algunas situaciones, sin embargo, es útil mover los datos a otra superficie para interpretarlos o compararlos con otro conjunto de datos. Un ejemplo podría involucrar datos de gravedad terrestre o de la superficie del mar que continúan hacia arriba para compararlos con los datos de gravedad o magnéticos aerotransportados o satelitales.
Los datos gravimetricos medidos en un plano determinado se pueden transformar matemáticamente en datos medidos en una elevación mayor o menor, atenuando o enfatizando las anomalías de longitud de onda más corta.
Filtros basados en derivados
Las derivadas verticales primera y segunda se calculan comúnmente a partir de datos gravimetricos para enfatizar anomalías de longitud de onda corta que resultan de fuentes poco profundas. Se pueden calcular tanto en el dominio del espacio geofísico como en el de la frecuencia utilizando operadores estándar.
Desafortunadamente, estos operadores amplifican el ruido de frecuencia más alta, por lo que generalmente se requiere una reducción especial de la respuesta de frecuencia para controlar el ruido.
Las derivadas horizontales, que se pueden calcular fácilmente en el dominio del espacio, son ahora el método más común para detectar los bordes del objetivo, aunque existen otras formas de filtro que se puede usar para resaltar fallas, como lo es el filtro de Goussev, que es la diferencia escalar entre el gradiente total y el gradiente horizontal.
Señal analítica
La señal analítica, aunque se usa ampliamente en magnetismo, se usa poco ante la aplicación de metodos gravimetricos, principalmente debido a la naturaleza más escasa de los datos de gravedad, lo que hace que el cálculo de derivadas sea menos confiable. Para los datos de perfil magnético, las derivadas horizontales y verticales encajan naturalmente en las partes reales e imaginarias de una señal analítica compleja. En dos dimensiones, la amplitud de la señal analítica es la misma que el gradiente total. Los resultados obtenidos para los datos magnéticos pueden extenderse a los datos de gravedad si se utiliza como entrada la derivada horizontal del campo de gravedad.
Filtrado emparejado
Si se conoce el espectro de la señal esperada, el filtrado adaptado puede ayudar a localizar la señal en un conjunto de datos geofísicos. El filtro combinado tiene el mismo espectro que la señal deseada. En los metodos gravimetricos de campo potenciales, el filtrado combinado se ha utilizado principalmente para separar los datos en componentes de anomalías que representan diferentes profundidades de fuente.
Ondícula o wavelets
La transformada de ondículas está emergiendo como una técnica geofisica de procesamiento importante en métodos de campo potencial y ha contribuido significativamente al procesamiento e inversión de datos tanto magnéticos como gravitacionales. El concepto de transformada de ondícula continua se introdujo inicialmente en el procesamiento de datos sísmicos, mientras que una forma de transformada de ondícula discreta se ha utilizado durante mucho tiempo en la teoría de la comunicación. Estos se unificaron a través de una explosión de desarrollos teóricos en matemáticas aplicadas. El análisis de campo potencial, en particular los métodos magnéticos, se ha beneficiado enormemente de estos desarrollos.
En función con la interpretación de datos gravimetricos el resultado final es un mapa de propiedades físicas. Actualmente no se dispone de una solución general para este problema, pero se utilizan algunas soluciones aproximadas en diversas aplicaciones como, por ejemplo:
La construcción de terrazas, el cual es un metodo geofisico de filtrado iterativo que aumenta gradualmente las pendientes de las anomalías hasta que se vuelven verticales y, al mismo tiempo, aplana el campo entre gradientes. El mapa resultante es similar a un paisaje en terrazas; de ahí el nombre que se le aplica a esta técnica.
Cuando se representa como un mapa de colores y se ilumina desde arriba, un mapa en terrazas se asemeja a un mapa geológico en el que el esquema de color refleja los contrastes de densidad relativa. El mapa de terrazas se puede refinar aún más en un mapa de densidad mediante el modelado directo iterativo y la escala de los valores de las terrazas.
Otra de las soluciones aplicables para la interpretación de datos gravimetricos es el mapeo de densidad, el cual representa una forma especial de inversión en la que los datos magnéticos se invierten en el dominio de la frecuencia para proporcionar la susceptibilidad magnética aparente de un sótano representado por un gran número de prismas verticales infinitos. Los mapas resultantes proporcionan una mejor interpretación geológica en el área de estudio. Este método geofísico con el tiempo se extendió al dominio del espacio resolviendo un gran sistema de ecuaciones que relacionan los datos observados con fuentes magnéticas en el suelo.
Métodos e Instrumentos de medición de gravedad
Los sensores de gravedad se dividen en una de dos categorías: absoluta o relativa. Un instrumento de gravedad absoluta mide el valor local de la gravedad cada vez que realiza una medición.
Un instrumento de gravedad relativa mide la diferencia de gravedad entre las mediciones. Un instrumento relativo es todo lo que se requiere para la mayoría de los propósitos de exploracion geofisica. En general, los instrumentos de gravedad absoluta suelen ser mucho más caros, son mucho más grandes, tardan mucho más en realizar una medición de alta precisión y requieren más conocimiento y habilidad para su uso que los instrumentos de gravedad relativa.
El avance histórico de la instrumentación por gravedad ha sido impulsado por una combinación de mayor precisión, tiempo reducido para cada medición, mayor portabilidad y un deseo de automatización y facilidad de uso. Se han propuesto o construido cientos de diseños diferentes de sensores de gravedad y gradiómetros de gravedad desde que se realizaron las primeras mediciones de gravedad.
Dado el tamaño relativo y la importancia de la exploración por gravedad en comparación con la exploración sísmica, es impresionante darse cuenta de que se encuentran disponibles alrededor de 40 sensores y gradiómetros de gravedad comerciales diferentes y se han propuesto alrededor de 30 diseños diferentes de sensores y gradiómetros de gravedad. Aun así, solo seis tipos generales de gravedad y sensores de gradiometría de gravedad se han utilizado ampliamente para la exploracion geofisica en diferentes momentos: el péndulo, el gravimetro de caída libre, el gradiómetro de gravedad con equilibrio de torsión, el gravimetro de resorte, el gravimetro de cuerda vibrante, y el gradiómetro de gravedad de disco giratorio. Estos instrumentos se han adaptado en varias ocasiones para topografía terrestre, de perforación, marina, submarina, del fondo del océano, aerotransportada, espacial y lunar.
Tipos de gravimetros geofísicos
Péndulos
Durante más de dos milenios, la teoría de la gravedad ampliamente aceptada, como la describió Aristóteles (384–322 a. C.), fue que la velocidad de un cuerpo en caída libre es proporcional a su peso. Luego, en 1604, Galileo Galilei, utilizando planos inclinados y péndulos, descubrió que la caída libre es una aceleración constante independiente de la masa.
En 1656, Christian Huygens desarrolló el primer reloj de péndulo y demostró que se puede usar un péndulo simple para medir la gravedad absoluta, g. Para hacer una medición absoluta de g con una precisión especificada, el momento de inercia I, la masa, la longitud h y el período del péndulo deben conocerse con el mismo grado de precisión. Una precisión deseable sería mejor que 1 ppm del campo de gravedad terrestre.
Hasta principios del siglo XX, era prácticamente imposible medir h o I con gran precisión. En consecuencia, antes del siglo XX, el uso de un péndulo para realizar una medición absoluta dio como resultado precisiones de aproximadamente 1 Gal (10-2 m / s2). Sin embargo, es más fácil utilizar un péndulo como un instrumento de precisión relativa mucho más alta midiendo, con el mismo péndulo, la diferencia de gravedad entre dos ubicaciones.
Los péndulos se utilizaron como instrumentos relativos a lo largo de los siglos XVIII y XIX cuando los científicos comenzaron a mapear la dependencia de la posición de la gravedad alrededor de la Tierra. En 1817, Henry Kater inventó el péndulo reversible mostrando que, si el período de oscilación era el mismo en cada uno de los puntos de apoyo de un péndulo que podía colgarse de cualquiera de los dos puntos, entonces la distancia que separaba estos puntos de suspensión era igual a la longitud de un péndulo simple que tiene el mismo período. Así, el problema se redujo a medir el período común y la distancia que separa los dos apoyos.
Durante los siguientes 100 años, varias mejoras incrementales del péndulo reversible culminaron con la revisión sustancial de Helmert de la teoría de los péndulos reversibles que llevó su precisión de medición de gravedad absoluta a aproximadamente 1 mGal.
Gravimetro de caída libre
Los gravimetros de caída libre han avanzado rápidamente desde que se desarrollaron por primera vez en 1952. El método implica medir el tiempo de vuelo de un cuerpo en caída sobre una distancia medida, donde las medidas de tiempo y distancia están vinculadas directamente a estándares aceptados internacionalmente.
El metodo geofisico requiere una medición muy precisa de un período de tiempo corto, que solo fue posible con la introducción del reloj de cuarzo en la década de 1950. Los primeros instrumentos de caída libre usaban un interferómetro de Michelson de luz blanca, un sistema de grabación fotográfica, un reloj de cuarzo y un cuerpo que caía, típicamente una varilla de 1 m de largo hecha de cuarzo, acero o invar (aleación de hierro, niquel y manganeso, con un poco de carbono y cromo). El valor final de la gravedad se obtuvo promediando de 10 a 100 gotas de varios metros. Estos primeros instrumentos tenían una resolución bruta de más de 1 mGal.
Actualmente, los únicos gravimetros geofisicos de caída libre disponibles comercialmente son fabricados por Micro-g Solutions, Inc., y son capaces de una resolución de aproximadamente 1 μGal, que rivaliza con la sensibilidad de los mejores gravimetros de resorte relativos. Sus desventajas son que siguen siendo más grandes, más lentos y mucho más caros que los gravimetros relativos.
Gradiómetro de gravedad con equilibrio de torsión
A partir de 1918 y hasta aproximadamente 1940, el gradiómetro de gravedad con equilibrio de torsión tuvo un uso extensivo en la exploración petrolera. Fue utilizado por primera vez para la prospección de petróleo por Schweydar en 1918 sobre un domo de sal en el norte de Alemania y luego en 1922 sobre el domo de sal de Spindletop en el este de Texas. La sensibilidad, precisión y portabilidad relativa del equilibrio de torsión lo convirtió en la tecnología de exploracion geofisica gravimétrica más útil de su época. En 1930, alrededor de 125 de estos instrumentos se estaban utilizando en la exploración petrolera en todo el mundo.
En general, los gradiómetros de gravedad, incluido el balance de torsión, son más sensibles a los cambios de masa del sensor cercano que los sensores de gravedad. Como consecuencia, los gradiómetros de gravedad tienen una ventaja significativa sobre los gravimetros en la detección de efectos topográficos en ambientes terrestres y aéreos o efectos batimétricos en ambientes marinos. Pero si existen cambios de masa cerca de un gradiómetro, esta sensibilidad puede enmascarar las señales de gradiente de gravedad de estructuras más profundas.
Hoy en día, los gradiómetros de gravedad modernos se combinan con mapas batimétricos o de terreno de alta resolución para aprovechar la sensibilidad de la herramienta a las masas cercanas.
Gravimetros de primavera
Los gravimetros de resorte miden el cambio en la posición de equilibrio de una masa de prueba que resulta del cambio en el campo gravimetrico entre diferentes estaciones de gravedad. Esta medición se puede realizar de una de estas tres formas:
1) Mediante la desviación de la posición de equilibrio (normalmente se realiza de forma mecánica midiendo la desviación de un haz de luz reflejado en un espejo montado o conectado a la masa de prueba).
2) A través de la magnitud de una fuerza de restauración (típicamente usando un sistema de retroalimentación capacitiva pero también funciona un sistema magnético) usada para regresar la posición de equilibrio a su estado original.
3) Por medio del cambio en una fuerza (típicamente retroalimentación capacitiva) requerida para mantener la posición de equilibrio en algún punto nulo predefinido.
Gradiometría gravimétrica
A medida que los objetivos se hicieron más pequeños y se caracterizaron por firmas de gravedad más sutiles, surgió un nuevo interés en mapear los gradientes de gravedad directamente en el campo. El beneficio de este enfoque fue la resolución espacial mejorada y la sensibilidad de la señal de gradiente en comparación con el componente vertical del campo de gravedad. A partir de la década de 1950, se utilizaron gravímetros de resorte para determinar pequeñas diferencias de gravedad para aproximar los gradientes de gravedad horizontal y vertical.
Para medir el gradiente vertical, se puede utilizar un trípode especialmente diseñado para realizar mediciones de diferencia de gravedad con separaciones de hasta 3 m. Con este metodo gravimetrico se puede lograr una precisión de 10 a 30 EU. Las diferencias de gravedad vertical también se han medido en edificios y torres altas con diversos grados de éxito. Los gradientes de gravedad horizontal se pueden aproximar utilizando datos de gravedad tomados a lo largo de un perfil horizontal geofísico con un espacio entre estaciones de 10 a 50 m y corrigiendo los ajustes de altura. Aunque estos métodos nunca se practicaron de manera extensa, todavía se utilizan hoy en día.
Gravimetro de cuerda vibrante
Los primeros gravimetros de cuerda vibrante fueron desarrollados por Gilbert en 1949 para su uso en submarinos y más tarde se adaptaron para su uso en aplicaciones marinas, terrestres y de perforación. Estos gravimetros tienen la ventaja de ser, en general, físicamente más pequeños que los gravimetros de resorte, pero con un rango dinámico mayor. Los gravimetros de cuerda utilizan la oscilación transversal de una cuerda elástica suspendida verticalmente con una masa en el extremo. La cuerda está hecha de un material conductor de electricidad que oscila a su frecuencia de resonancia en un campo magnético. Esta configuración genera un voltaje oscilante de la misma frecuencia que se amplifica y se usa en un sistema de retroalimentación para excitar aún más la cuerda.
Instrumentos de gravedad de pozo
Los medidores de gravedad de pozo (BHGM) se desarrollaron por primera vez a fines de la década de 1950 en respuesta a la necesidad de la industria petrolera de contar con datos precisos de gravedad de fondo de pozo para obtener la densidad aparente de la formación en función de la profundidad.
El primer instrumento para medir la gravedad en un pozo fue desarrollado por Esso para la exploración de petróleo. Usó un sensor de filamento vibratorio, donde la frecuencia de vibración estaba relacionada con la tensión en el filamento, y la frecuencia cambiaba a medida que variaba la gravedad. Este instrumento tenía una resolución de aproximadamente 0,01 mGal con un tiempo de lectura de aproximadamente 20 min.
Estaba controlado termostáticamente para operar hasta 125 ° C, pero solo podía operar a menos de 4 ° de la vertical. Poco tiempo después, L&R miniaturizó y adoptó su medidor G terrestre en una sonda de registro para producir su BHGM. El L&R BHGM puede realizar mediciones rutinarias de la gravedad del pozo con una resolución de 5 a 20 μGal y, con cuidado, a 1 μGal. Por lo tanto, el L&R BHGM puede detectar muchos contactos importantes de fluidos detrás de la tubería porque la mayoría de los contactos gas-agua y gas-petróleo se pueden resolver entre 2 y 5 μGal, y la mayoría de los contactos aceite-agua se pueden resolver entre 0,7 y 3 μGal.
Instrumentos de gravedad submarinos
En la década de 1940, se realizaron extensas mediciones de la gravedad del fondo marino para la exploracion geofisica de petróleo en el Golfo de México utilizando campanas de buceo especialmente diseñadas desarrolladas por Robert H. Ray Company. Las operaciones de buceo eran peligrosas; por lo tanto, se crearon gravimetros submarinos de control remoto. Los gravimetros submarinos constan de un sensor de gravedad, una carcasa de presión, un control remoto y una unidad de visualización en la embarcación, una conexión de cable electrónico y un cabrestante con una cuerda o cable para subir y bajar el sistema. Además, el sistema nivela, sujeta / desenclava, reajusta y lee el sensor de forma remota. El sensor debe estar fuertemente amortiguado para operar en el fondo del océano.
Instrumentos de gravedad de plataforma móvil
Se pueden cubrir grandes áreas rápidamente utilizando sensores de gravedad conectados a plataformas móviles como camiones, trenes, aviones, helicópteros, embarcaciones marinas o submarinos. En tales sistemas, las aceleraciones grandes e inquietantes son el resultado del movimiento y el impacto del vehículo en función de:
1) condiciones externas como el viento, el estado de la mar y la turbulencia.
2) el tipo y modelo de plataforma.
3) el sistema de navegación.
4) el tipo y configuración de los gravimetros.
Gradiómetros de gravedad de disco giratorio
Desde la Segunda Guerra Mundial, la instrumentación gravitacional y la proliferación de datos gravitacionales globales han sido fuertemente impulsadas por diversas necesidades de defensa nacional. Hoy en día, hay dos gradiómetros de gravedad disponibles comercialmente: el FTG de Bell Aerospace (ahora Lockheed Martin) y el Falcon de BHP Billiton. Ambos son un resultado directo de los desarrollos de gradiometría de gravedad de la Marina de los EE. UU. El FTG se utiliza para estudios geofisicos terrestres, marinos, submarinos y aéreos y el Falcon se utiliza solo para estudios aéreos.
Errores de instrumentación en la medición gravimétrica
Los errores en la medición gravimétrica pueden provenir de 2 fuentes: del propio instrumento o de alguna fuente externa.
Cuando los errores provienen del propio sistema, generalmente corresponden a errores en la lectura, nivelación del instrumento, voltaje, propiedades y calibración.
Los errores en la lectura generalmente pueden provenir de dos factores
El primero es a la sensibilidad con la que el sistema emite información referente a la posición de equilibrio de la masa geofisica de estudio, dado que esta información debido a la sensibilidad puede estar levemente desplazada, concluyendo así en una lectura errónea.
El segundo factor, es su conversión, ya que se deben aplicar ajustes matemáticos para convertir esta lectura a valores gravimetricos.
Otro aspecto a tomar en cuenta que puede llegar a generar un error en la lectura de instrumentos es la existencia de espacios en los tornillos de ajuste, por lo que normalmente se recomienda siempre girar el tornillo de lectura respetando un mismo sentido.
Otro error importante es el cambio de propiedades elásticas del sistema. Para evitar esto es necesario siempre hacer una aproximación suave y precisa.
El voltaje de la batería del gravimetro también puede influir en su lectura, dado que una disminución de esta puede provocar un descenso en la temperatura que generará un cambio en la física del gravimetro, produciendo errores no lineales.
La precisión de la nivelación del instrumento dependerá de la calibración, así como de la precisión con la que se realice el centrado, por lo que los errores generados en la tabla de calibración afectarán la medición de la gravedad. La mejor manera de controlar estos errores es a través de la re-calibración periódica del gravimetro.
Cuando los errores son ocasionados por errores externos, se refieren cambios externos como la temperatura, la presión y los posibles movimientos del instrumento.
Los cambios de temperatura que se originan externas al gravimetro, repercuten en las mediciones de la gravedad aun cuando la parte sensorial del gravimetro se encuentre aislada, dado que, debido a las condiciones de lectura, no es posible obtener un aislamiento perfecto.
Las variaciones de la presión atmosférica afectan al instrumento dado que este no se encuentra sellado de forma correcta, más estas alteraciones pueden llegar a deformar el área donde se halla contenida la parte sensorial provocando lecturas erróneas.
Los errores de las lecturas de gravedad también pueden ser generadas por movimientos bruscos. Dado que estos dispositivos son tan sensibles que pueden terminar indefensos en un momento dado, por lo que se recomienda el testeo del gravimetro antes de su utilización.
Modelado gravimetrico mediante el analisis de elementos finitos
Durante el paso del tiempo y debido a la acción y fuerza de la naturaleza, uno de los objetivos principales que ha tenido el ingeniero ha sido el intentar entender y utilizar los mecanismos de la naturaleza al servicio del hombre, para ello no se han escatimado esfuerzos en investigaciones, ensayos que han evolucionado hasta lo que hoy en día se denominan como medios de gran alcance y fiabilidad en función del logro de ese objetivo.
Y, ha sido en busca de esa meta, que desde hace algún tiempo se ha utilizado el Método de los Elementos Finitos (MEF) para estudiar el comportamiento de sólidos con formas complejas y delimitados por distintas solicitaciones externas. Pero este método puede ser aplicado a distintos problemas de ingeniería, lo cual permite la obtención de datos con una mayor precisión, minimizando la incertidumbre del comportamiento de distintos materiales, todo gracias a su flexibilidad, ya que al dividir el dominio computacional en pequeños elementos (operación de mallado), es posible asociar a cada elemento diferentes propiedades físicas como parámetros elásticos o densidades. Dado que se pueden usar elementos más pequeños o curvilíneos para adaptarse a todo tipo de rugosidad, se pueden considerar formas complejas del dominio o fuentes computacionales.
Este ha sido un paso realmente significativo dentro del campo de la mecánica de suelos, ya que el ingeniero regularmente debe basarse en el uso de técnicas que en la mayoría de los casos están sujetos a datos empiricos, lo cual arroja un resultado donde el criterio y la experiencia tienen un papel muy importante, lo que desencadena en muchas ocasiones como método de compensación la aplicación de factores de seguridad muy altos, que pueden llegar a conducir al sobrediseño, o en caso contrario, a soluciones inseguras.
Para realizar el modelado mediante el analisis de elementos finitos, primero se comienza subdividiendo el todo a través de la discretización, el cual limita el modelo físico real, que cuenta con infinitos grados de libertad, para así obtener un modelo matemático válido ajustado y aportar al problema una solución factible con un número finito de grados de libertad.
De esta forma se obtiene un medio continuo a varias subdivisiones finitas, conformadas por pequeños tramos denominados elementos, cuyo comportamiento estará limitado por ciertos parámetros finitos definidos. Estos elementos a su vez se encuentran interconectados por nodos, los cuales son los puntos nodales de borde. Sin embargo, para alcanzar la obtención de una solución numérica, sólo deben de tomarse en cuenta los grados de libertad definidos en las entidades puntuales de la discretización, es decir, en los nodos.
Selección de las funciones de aproximación
Este método de elementos finitos, permite la obtención de soluciones que se asemejan a los diferentes problemas que puedan presentarse, esto debido que el medio de obtención de datos es extremadamente complejo, donde existen tantas variables que es imposible hallar una solución exacta, es por esto que se aplican método de interpolación, donde al tomar en cuenta un mayor
número de consideraciones, se puede obtener una mayor aproximación en respuesta a la problemática.
Funciones de Interpolación Lineal
Estas funciones permiten interpolar el campo de desplazamiento desconocido dentro de un elemento. Éstas se definen de forma tal que Ni=1 en el nodo i, y será cero en cualquier otro nodo.
Por ejemplo, si se está en presencia de un caso de un cuadrilátero con i= 1, 2, 3 y 4,
entonces El en el nodo 1, N1= 1
En el nodo 2, N1=0
En el nodo 3, N1=0
En el nodo 4, N1 = 0
Por lo que:
La interpolación estará regida por los siguientes casos:
Donde αi corresponde a los coeficientes del plano de interpolación y Φ representa la función incógnita.
Otra forma de realizar la interpolación, es a través de una expresión que contenga varias funciones de forma Ni:
Elementos Isoparamétricos y ajustes de formas
En algunos casos, formas como los cuadriláteros y los triángulos no son suficientes para representar el problema físico, es por esto la necesidad de transformar estas formas en otras que correspondan al eje cartesiano y al eje curvilíneo ξ,η y ζ, de forma tal que este pueda asociarse de tal forma que corresponda a un sistema de coordenadas global.
Para cualquier que sea el caso: bidimensional o tridimensional, se tiene la matriz N que corresponde a las funciones de formas y la cual interpola la geometría; y se tiene la matriz N’ que interpola las variables nodales. Si estos valores se encuentran directamente relacionados a los mismos nodos que determinan la geometría del elemento, entonces se tendrá que N= N’, es decir, que ambas matrices son iguales y, por consiguiente, los elementos son isoparamétricos. La aplicación de esto permite simplificar las ecuaciones que deberán procesar los programas de elementos finitos.
Otro caso también puede provenir de la cantidad de nodos utilizados para definir la variación Φ, ya que, si estos resultan ser inferiores a los necesarios para determinar la geometría, entonces estaremos en presencia de elementos superparamétricos o, por el contrario, si la variación Φ se define con más nodos de los empleados para definir la geometría del elemento, estos se denominarán subparamétricos
Derivación de las ecuaciones de los elementos.
Una vez determinada las funciones de aproximación, se continua con la formulación del problema, planteando las ecuaciones para encontrar las deformaciones, esfuerzos y fuerzas actuantes en función al método de los desplazamientos bajo el principio de trabajos virtuales.
Método de los desplazamientos
Una vez conformada la malla, se procede a determinar los desplazamientos en cada uno de los nodos para cada elemento. Luego de obtenido este paso, entonces será factible relacionar las fuerzas con los desplazamientos a través de las fuerzas aplicadas en los nodos, donde la expresión resultante será:
La función de desplazamientos en el caso de tener un elemento triangular de nodos 1, 2 y 3 estará determinada por:
Donde los desplazamientos u se aproximan a un vector û.
El valor de aᵉ, corresponde a los desplazamientos nodales para el elemento seleccionado (e). Se utilizará N el cual tendrá la función de asegurar que, al posicionar las coordenadas en la ecuación anterior, se logren adquirir los desplazamientos en los nodos correspondientes.
Entonces, dado que Ni (xi,yi) = I , donde I representa la matriz unidad; mientras que para los demás nodos Ni= 0. Es posible expresarlo que Ni = Ni I
Relación entre los desplazamientos y las deformaciones
Los desplazamientos estarán determinados por las cantidades primarias en cualquier punto del elemento. Las deformaciones estarán representadas con la siguiente relación:
Donde, L es un operador lineal
En cuanto a las tensiones, para el caso de un comportamiento lineal, se representarán con la siguiente expresión:
Donde Ɛ0 representa las deformaciones iniciales existentes dentro del elemento, σ0 son todas las tensiones iniciales medibles y D es la matriz de elasticidad donde estarán contenidas las propiedades del material.
Una vez determinado este punto, se pueden hallar las fuerzas que actúan en los nodos que corresponden a las fuerzas distribuidas sobre el elemento y las tensiones ejercidas en el entorno. Estas fuerzas se conocen como qᵉi, las cuales estarán conformadas por el mismo número de componentes que el desplazamiento del nodo, o lo que sería igual a:
Para ambos con dos componentes.
Energía Potencial total
El principio de trabajo virtual puede ser representado de la siguiente manera ante problemas de elasticidad lineal:
Esto puede ejemplificarse de forma sencilla con una barra prismática con una longitud definida por L, la cual estará expuesta a una fuerza de atracción P. Si la carga es aplicada de forma lenta, no ocurra ningún efecto, estas cargas se conocen como cargas estáticas, las cuales, de llegar a alcanzar su valor máximo de P, se alargará hasta L+δ
Durante dicho proceso, la carga P se mueve lentamente sobre la longitud δ originando una cierta cantidad de trabajo, que puede ser representado como:
Así mismo, en este caso, la fuerza varía su magnitud (de F= 0 a F=P).
Para lograr obtener el valor de trabajo final ante estas condiciones, se utiliza un diagrama de cargas/desplazamiento, para conocer la forma en que esta fuerza varía, donde si el trabajo producido por las cargas es igual al área bajo la curva, las deformaciones serán producidas y, por ende, aumentará la energía en la barra.
Generalmente, el principio de los trabajos virtuales, cumple para las condiciones de equilibrio, pero dentro de un rango de deformaciones unitarias pequeño, por lo que es necesario aplicar una ecuación que permita que esto se logre cumplir ante cualquier variación de desplazamiento:
Donde, II es la Energía Potencial Total, U corresponde a la energía de deformación y W es la energía potencial de las cargas externas.
Esta ecuación indica que II debe ser estacionaria para cualquier cambio en los desplazamientos y, por ende, estar en equilibrio. Esta energía potencial es mínima, condición que se busca al aplicar el método de elementos finitos, siempre que este corresponda a una cierta condición de desplazamientos o fuerzas. Por lo general el resultado será un valor aproximado de la energía potencial total superior a la mínima.
Acoplamiento del sistema para la conformación de la ecuación general
Dada la aplicación de condiciones de compatibilidad de los desplazamientos de los nodos es posible la unión entre cada uno de los elementos, lo que permite la conformación de una ecuación general donde puedan converger todos los elementos del problema. Esta condición es viable siempre que los desplazamientos en los nodos no superen los valores normales, dado que cuando estos desplazamientos sean muy grandes, la conexión entre los nodos y la ecuación resultante de este deberá ser reducida o simplificada a través del cambio de coordenadas.
El acoplamiento de los nodos estará expresado a través de:
Donde la matriz de rigidez general con todos los grados de libertad del problema estará representada por K y las cargas generales resultantes de la diferencia entre las cargas externas nodales y todas las fuerzas equilibrantes corresponderán a P
El procedimiento acoplamiento consistirá en ir sumando cada una de las submatrices de los nodos, a la matriz general, siempre determinando que las matrices deban poseer un igual número de componentes de fuerzas.
La ecuación que define estas tensiones, será:
.
Donde la matriz S corresponde al tensor de esfuerzos, σp+ σε0 son tensiones producidas por cargas distribuidas y fuerzas de rigidez iniciales. La matriz tensorial resultante, permitirá conocer los esfuerzos principales de tracción o compresión actuantes que generará un par de tres matrices denominadas autovalores y un par de raíces complejas conocidas como autovectores, que serán los valores de dirección de los planos donde actúan esos esfuerzos principales.
Cómputo de las cantidades primarias y secundarias
Método de los Residuos Ponderados o Equilibrados
Este método comienza con la selección de funciones de aproximación que logren complacer las condiciones del problema; para luego aplicar las mismas en las ecuaciones diferenciales que rigen el conjunto. Con esto se procede a integrar equilibradamente sobre todo elemento, donde esta operación arroja un cierto residuo, que produce desequilibrio y, por consiguiente, es necesario minimizar a cero.
Método de aproximación de Galerkin
Existen varios métodos de aproximación fundamentados en los residuos ponderados, donde para el analisis de elementos finitos interesa esencialmente uno de ellos, el Método de Galerkin.
El enfoque entre la diferencia entre el Método de Galerkin y los otros métodos derivados de los Residuos Ponderados, viene dado por las funciones utilizadas para determinar el residuo. Estas funciones Wi se seleccionan a partir de las funciones base utilizadas para hallar la solución aproximada, sintetizando así el proceso que resulta de aplicar el Método de Elementos Finitos.
Procedimiento para desarrollar el Método de Galerkin
- El procedimiento parte con una solución aproximada (u) de la siguiente manera:
Donde Ni(x) corresponde a un número finito de funciones bases y Ci a coeficientes desconocidos.
- El Residuo se representa como:
Donde D son las condiciones de contorno, D(u) = 0; L es un operador diferencial y f una función cualquiera.
- Se obtiene la función arbitraria equilibrada Wi a través de:
Se elige la función equilibrada W para la función base Ni
De esta ecuación proceden todos los coeficientes y a través de esta se podrá determinar la ecuación aproximada a la solución planteada, la cual arrojará los valores de desplazamientos de los nodos en los elementos por medio de los cuales se hallarán las deformaciones y esfuerzos derivados de esos desplazamientos.
Diseño inicial de las súper mallas (mallas de elementos finitos)
Debido a la evolución de la tecnología, hoy en día en posible contar con excelentes programas de gran potencia que logran aplicar no solo este metodo de elementos finitos para analisis estructural, sino también para otras soluciones de ingeniería, asi como en otras ciencias. Sin embargo, en el caso de la ingeniería enfocada en el estudio geofisico y de mecánica de suelos y rocas, estos programas posibilitan la sintesis del trabajo del ingeniero al posibilitar la autogeneración de la malla de elementos finitos, a partir de una mucho más general y sencilla de insertar en el programa llamada súper malla.
La súper malla básicamente contiene lo necesario y esencial, es decir, la cantidad de elementos indispensables y requeridos para lograr representar el escenario que se presenta en sitio donde se encuentra la masa de suelo que va ser o ha sido perturbada, y que es de interés para su estudio.
En la súper malla deben estar presentes todos los nodos para su análisis y estructuración, por lo que se debe tener cuidado con el diseño, desde los nodos y su implementación, hasta la sección de suelo a analizar.
Generalmente se estima que la súper malla debe corresponder a una extensión 25 % mayor que el área donde se están generando los desplazamientos nodales y las cantidades secundarias, con el fin de evitar que en los bordes de la súper malla se presenten desplazamientos horizontales alejados del problema a resolver. Los desplazamientos verticales nodales deben resultar muy pequeños o nulos, al igual que los excesos de presión de poros.
La forma de hacer este diseño, es partiendo de una idea general de lo que se desea obtener, separando en etapas el proceso, iniciando con una primera etapa llamada in situ, que muestra al suelo tal y como se encuentra sin ninguna perturbación y se continuaran con las distintas etapas antes de llegar a la última fase, donde se podrán observar cada componente implementado, y es a esta representación que se le deben añadir las coordenadas de los súper nodos (por tratarse de la súper malla), en los límites de cada estrato, tomando en cuenta el agregar un nodo en caso tal de que se prevea colocar alguna carga que pueda influir sobre el suelo. También se deberán agregar nodos en los niveles de cada estrato para definir adecuadamente la geometría del problema.
Constitución del modelo del suelos y selección de parámetros
Una vez obtenida la malla la posición de cada una de las zonas de los distintos materiales (suelos o rocas), el paso siguiente será la consignación de las propiedades específicas para cada zona. Es lo que en el método de los elementos finitos se denomina proceso en dos partes
Lo primero se necesita comprender para aplicar el método de los elementos finitos es que el modelo constitutivo que se utilice, debe ser capaz de imitar el comportamiento in situ arrojado por los instrumentos, condiciones tales como las iniciales del caso, aplicación de solicitaciones externas, determinación presiones de poro, obtención de los desplazamientos de los nodos, vectores de movimientos en cada fase del análisis, influencia de excavaciones realizadas en los suelos, cargas en puntales, momentos y fuerzas cortantes en elementos de soporte y la ubicación del punto de cedencia.
Método de elementos finitos aplicado a problemas de deslizamiento
Los grandes deslizamientos son solo uno de los tantos problemas que afronta la mecánica de rocas, dado que los materiales en cuestión son de origen natural, la teoría de la elasticidad lineal aplicada que determina la proporcionalidad directa entre tensiones y deformaciones designada por el módulo de elasticidad, terminan constituyendo tan sólo una aproximación muy pobre al comportamiento real del medio en cuestión.
Generalmente los problemas geotécnicos exigen considerar las tensiones iniciales que actúan sobre el dominio de cálculo. Estas tensiones son de difícil determinación, ya que deben su origen a diversos procesos de glaciación, erosión, tectónica, que se han ido creando a lo largo de las distintas eras geológicas. Otro factor que puede llegar a modificar el dominio de estudio son las excavaciones, por ende, es otro punto a considerar ante la aplicación de ecuaciones, por todas estas razones, la aplicación de Métodos de los Elementos Finitos en Geotecnia es una herramienta que permite satisfacer estas particularidades geofisicas y a su vez, permite resolver problemas no lineales y dependientes del tiempo, cuya solución estará contemplado en base a procedimientos iterativos.
Modelo constitutivo de las juntas
El modelo empleado para las juntas, corresponde a un modelo simple pero general de rotura normal y tangencial. La orientación de una junta puede ser expresada a través de un vector unitario n normal al plano medio. Las dos variables mecánicas son las tensiones en el plano de rotura y el desplazamiento relativo entre las dos caras de la junta, tanto de apertura como de deslizamiento, así se definen los componentes normales σN y uNcr cuyos módulos son σN y uNcr y tienen la misma dirección que n, en tanto que los componentes tangenciales se representarán como σT y uTcr, con módulos σT y uTcr y direcciones tσ y tu, ortogonales a n.
En dos dimensiones, se pueden determinar los vectores normales a n de forma única que tσ = tu = t. Por ende, los componentes normales y tangenciales de las tensiones y de los desplazamientos relativos los cuales serán determinados por la expresión de sus módulos, en caso de tensiones normales (tracción o compresión) o en el caso de desplazamientos (apertura o clausura).
Se entiende entonces que una discontinuidad alcanza el punto de rotura en el plano de normal n cuando las tensiones en el espacio σN – σT tocan la superficie, denominada superficie de rotura, la cual estará definida por la función F(σN , σT)=0. La expresión de dicha función se manifiesta a través de una relación hiperbólica entre las variables, debido a las fuerzas traccionales existentes y se representarán de la siguiente manera:
donde tan ϕ, c y χ son parámetros directamente relacionados al ángulo de fricción, la cohesión y la resistencia a tracción uniaxial, respectivamente.
Por lo que se podrá reconocer dos situaciones límite para el inicio de la rotura de la junta. El primer tipo de rotura se define como el Modo I, se produce cuando la interfase alcanza la superficie de rotura a lo largo del eje horizontal. El segundo se conoce como el Modo II asintótico (Modo IIa), aparece cuando se logra asintóticamente la superficie de rotura. A medida que la rotura avanza, las tensiones disminuyen y la superficie de rotura se simplifica de manera que el punto tensional actual se mantiene sobre dicha superficie, La configuración inicial de la superficie de rotura estará expresada por la curva etiquetada con “0”, mientras que su forma final dependerá del modo específico de rotura.
Una vez se conforme la grieta en su totalidad, la única condición cinemática existente sugiere que ambas caras de la junta rota pueden separarse la una de la otra, pero tomando en cuenta la rugosidad presente sobre las mismas.
La evolución de la superficie de rotura para ambos modos se contempla como un procedimiento donde el tan ϕ permanece constante y la evolución de c y χ está regida por un solo parámetro, el cual concuerda con el trabajo consumido durante la formación de la rotura, Wcr, representado de la siguiente manera:
Estas expresiones refieren que, bajo tracción, todo el trabajo disoluto en la fractura será directamente proporcional al proceso de rotura, mientras que, en compresión la única contribución viene del trabajo tangencial una vez descontada la fricción básica.
El uso de una magnitud que cuantifique la energía, como la variable que conduzca la evolución de la superficie de rotura ofrece una ventaja frente a otras variables basadas en la deformación más estándares en Plasticidad, además de hacer un uso más sencillo y efectivo de la energía de fractura como parámetro del modelo. A medida que Wcr asciende durante el proceso de rotura, se presume que los parámetros c y χ deberán descender hasta unos valores c0 y χ0 a cero cuando Wcr = GIf y Wcr = GIIaf, respectivamente, donde GIf y GIIaf son las energías de rotura en los Modos I y IIa. Esto infiere que la resistencia a tracción del modelo χ se perderá en el momento en que la energía consumida en los procesos de fractura alcance GIf, y, por otro lado, significa que la región bajo la curva σ – u en tracción pura resultante de los cálculos será equivalente a GIf.
Las variables de c y χ se supondrán lineales en función a una escala intermedia expresada como:
donde ξ = Wcr/GIf y α = αχ para el parámetro χ, y ξ = Wcr/GIIaf y α = αc para el parámetro c. Esta definición proporciona una familia de curvas descendentes para c y χ dependientes de los valores de los parámetros αχ y αc. En el caso que α = 0, se concebirán funciones linealmente en descendencia, S(ξ)=ξ.
El efecto de las irregularidades de los planos de rotura produce que las tracciones tangenciales generadoras de deslizamientos entre ambos lados de la grieta, induzcan alguna apertura a las mismas llamada dilatancia. La cantidad de esta dilatancia se puede definir en la misma representación gráfica que la superficie de rotura, arrojando la dirección de las deformaciones inelásticas en la grieta de cada punto de la superficie cargada. El ángulo de dicha dirección con el eje vertical puede considerarse como el ángulo de dilatancia generado por el modelo. De hecho, la dirección paralela al eje vertical no implicaría dilatancia por completo, mientas que la dirección paralela al eje normal indicaría sólo apertura normal de la rotura y nunca deslizamiento tangencial. En términos tradicionales, la dirección de las deformaciones inelásticas se considera en cada punto perpendicular a una superficie, denominada potencial plástico, determinada por Q = constante, Las ecuaciones de las derivadas de Q son:
Procesos iterativos
A través del analisis de elementos finitos, el proceso iterativo de mejor aplicación para asegurar la convergencia cuadrática es el método de Newton-Raphson. Esta metodología radica en una solución aproximada a la exacta a través de la función continua a solucionar en un punto cualquiera del módulo, y dado que en el proceso iterativo jamás se hallará valor exacto de esta solución, se tendrá que fijar una distancia suficientemente cercana a la solución exacta, que se definirá como tolerancia, y se considerará como el valor exacto (asumiendo por tanto un error). En caso tal de que esta tolerancia no sea respetada, entonces se establecerá un número máximo de iteraciones.
Por lo que si se realiza un cálculo en el que la solución exacta se diferencie mucho del punto de partida, el método puede que termine de como divergente, un hecho que resulta muy habitual. Con el propósito de evitar este problema, se puede aplicar la carga de manera consecutiva por incrementos evitando calcular la matriz tangente a final de cada iteración, ya que muchas veces el logro de esta por métodos numéricos es complejo y puede traer problemas de convergencia.
Dentro de los parámetros y características comunes a todo el proceso, se podrá lograr la obtención del tipo de análisis, tipo de elemento, dependencia del tiempo, reglas de integración, número de materiales, parámetros del análisis no lineal, ensamblaje de elementos, coordenadas de los nodos, propiedades materiales y definiciones geométricas.
Una vez alcanzado esto, se podrán lograr alcanzar la definición de los pasos de carga, los números de puntos con cargas aplicadas, número de superficies con cargas aplicadas, consideración de la carga gravitatoria y termales y, finalmente, la definición de las cargas aplicada, ya sean gravitatorias, puntuales, distribuidas o termales.
Mediante el proceso de cálculo, los datos arrojados indicarán tanto los desplazamientos de los nodos, como las reacciones sobre los mismos y las tensiones en los distintos tipos de elementos que encontramos en el modelo
Preguntas Frecuentes
¿Qué es un gravimetro?
Un gravimetro, o medidor de gravedad, es un dispositivo sensible para medir variaciones en el campo gravitacional de la Tierra, útil en la prospección de petróleo y minerales. Este consiste en un peso suspendido de un resorte donde las variaciones de la gravedad provocan variaciones en la extensión del resorte. Se han desarrollado varios esquemas mecánicos y ópticos diferentes para medir esta desviación, que en general es muy pequeña.
¿Cómo se utiliza el gravimetro?
Un gravimetro funciona a través de un tipo de acelerómetro que se encarga de medir la constante aceleración descreciente de la gravedad, mediante la detección de variaciones en la aceleración gravitatoria causados por distintos contrastes en la densidad del subsuelo. La gravedad regularmente se mide en unidades de aceleración. El proceso de medición más común mediante un gravimetro es la toma de lecturas en dos o más lugares donde se conocen los valores absolutos o relativos de la gravedad.
Es importante señalar que el gravimetro debe estar correctamente calibrado antes de comenzar el levantamiento gravimetrico.
¿Qué es la anomalia de Bouguer?
La anomalía de Bouguer es la forma del campo gravitacional más comúnmente utilizada para la investigación de problemas geofísicos en tierra, y se define como el valor de gravedad medido respecto del valor de gravedad normal o esperado. Este recibe su nombre del matemático francés Pierre Bouguer, quien fue el que descubrió y demostró que la atracción gravitacional se reduce con la altitud.
Cabe destacar que es muy importante tener en cuenta que diferentes modelos del subsuelo pueden producir similares anomalías geofisicas, lo que hace necesario una evaluación detallada de todos los antecedentes geológicos, geoquímicos, de pozos y de otros métodos geofísicos.
¿Qué es una anomalia en geofisica?
Una anomalía en geofísica se entiende como la desviación o variación estructural de los fenómenos relacionados con la composición histórica y evolutiva de la Tierra, así como de los agentes geofísicos que la han conformado y modificado. Gracias a estas anomalías es posible realizar un registro para procesar y graficar la respuesta dada por los diferentes campos físicos en las áreas de potencial interés exploratorio o para el desarrollo de los recursos.
La determinación de estas en geofisica se debe realizar evaluando la información previa de las áreas a explorar, y así iniciar en donde las condiciones geológicas y económicas sean más convenientes.
¿Qué es la gravedad observada?
La gravedad observada se entiende como la diferencia entre la gravedad en el punto de observación y la gravedad en uno de los puntos de referencia en una red de gravedad (regional, nacional o mundial). La determinación de la gravedad observada se realiza mediante los puntos que están sobre la superficie de la Tierra y se basa en el hecho de que existen diversas unidades geológicas que contienen distintas densidades, siendo estas el indicador geofísico básico de las mismas.
¿Qué es la gravedad absoluta?
Es el valor de la gravedad determinado en un punto, por medio de la observación directa (péndulos verticales) o ponderado a partir de procedimientos indirectos (instrumentos de caída libre y gravimetros). Esta puede ser calculada haciendo uso de un reflector de esquina en caída libre dentro de una pequeña cámara de vacío, cuya posición es medida con un interferómetro láser.
¿Cuál es el valor de la gravedad de la Tierra?
La gravedad de la tierra es un fenómeno físico que se manifiesta como una fuerza de atracción entre todos los cuerpos entre sí. Esta fuerza de gravedad se define mediante la Ley de Gravitación Universal la cual expresa que:
Su símbolo es por la letra “g” y se mide en gal, el cual equivale a 1 cm./seg2, por ende, el valor de la gravedad de la Tierra corresponde a: 9,807 m/s².
Fuentes
- Finite element analysis in geotechnical engineering.
- Comparison of advanced numerical methods for geomechanical problems with large deformations.
- Aplicación del Método de los Elementos Finitos en la Simulación de Cimentaciones Superficiales.
- Métodos de análisis y validación de datos gravimétricos.
- The finite element method for the global gravity field modelling.
- Finite element method for solving geodetic boundary value problems.
- Introduction to geophysics–lecture notes.
- Curso de prospección gravimétrica.
- Numerical analysis of slope stability based on the gravity increase method.
- High-resolution global gravity field modelling by the finite volume method.
- Historical development of the gravity method in exploration.
- The inversion and interpretation of gravity anomalies.
- Geothermometry and geobarometry: a discussion.
- Theory of the Bouguer anomaly.