Nuevas estrategias para la inversión sparse de datos sísmicos prestack

Resumen   Abstract   Índice   Conclusiones


Pérez, Daniel Omar

2016-A
Descargar PDF  


 
Resumen

Resumen

 

Uno  de los  objetivos centrales  de  la inversión  de datos  sísmicos

prestack  consiste  en  determinar contrastes  entre  las  propiedades

físicas de las rocas del subsuelo a partir de la información contenida

en la variación en función del  ángulo de incidencia de las amplitudes

de las  ondas sísmicas  reflejadas en  las interfaces  geológicas.  La

inversión de  datos sísmicos prestack  es un problema mal  planteado y

mal condicionado, en el sentido de que pequeñas cantidades de ruido en

el   dato  llevan   a  grandes   inestabilidades  en   las  soluciones

estimadas. Además, debido a la naturaleza de los datos observados, que

son ruidosos, incompletos y de banda limitada, coexiste el problema de

la  no-unicidad  de  las  soluciones.  Dichos  problemas  apremian  la

utilización  de  regularizaciones  y   restricciones  con  el  fin  de

estabilizar  el  proceso  de  inversión y  promover  al  mismo  tiempo

soluciones con alguna característica deseada.  Las soluciones ralas, o

sparse, son deseables  debido a que permiten  obtener reflectores bien

definidos y  de esa forma  superar el  problema de la  baja resolución

observada  en  las  soluciones  obtenidas  por  medio  de  métodos  de

inversión convencionales.

En este trabajo  de tesis presentamos tres  nuevas estrategias basadas

en la  utilización de  diferentes regularizaciones que  estabilizan el

problema de inversión y promueven  soluciones sparse a partir de datos

sísmicos  prestack.  En  la primera  estrategia se  procede a  estimar

soluciones sub-óptimas del problema de inversión regularizado mediante

la norma l0 por medio de  la utilización del algoritmo de optimización

global Very  Fast Simulated  Annealing (VFSA).  La  segunda estrategia

consta de  dos etapas:  primero se resuelve  el problema  de inversión

regularizado mediante la norma l1  por medio de un eficiente algoritmo

de  optimización conocido  como Fast  Iterative Shrinkage-Thresholding

Algorithm  (FISTA)  y luego  se  realiza  un  paso correctivo  de  las

amplitudes estimadas utilizando mínimos  cuadrados. Estas dos primeras

estrategias permiten estimar con éxito soluciones sparse utilizando la

aproximación  de  Shuey  de  dos  términos,  modelo  que  describe  la

variación con el ángulo de incidencia de los coeficientes de reflexión

sísmica.  La  tercera estrategia utiliza como  regularización la norma

l2,1,  permitiendo  incorporar  información  a  priori  por  medio  de

matrices  de  covarianza  o  de  escala.   En  este  caso  se  estiman

soluciones  sparse de  los  parámetros  de la  aproximación  de Aki  &

Richards de tres términos y, si  la información a priori disponible es

adecuada, es posible obtener también  una estimación de tipo blocky de

los parámetros elásticos del subsuelo.

 

 
Abstract

Abstract

 

One of the  principal objectives of the inversion  of prestack seismic

data is to determine the  contrast between rock physical properties in

the subsurface from the analysis of the variation of the amplitudes of

the reflected  waves as a  function of the  angle of incidence,  for a

plane wave that  arrives at an interface that  separates two different

media.  The  inversion of  prestack seismic data  is an  ill-posed and

ill-conditioned problem,  meaning that small  amounts of noise  in the

data can lead to huge  instabilities in the estimated solutions. Also,

due the  nature of the observed  data, which is noisy,  incomplete and

band-limited,  there  also  exists  non-uniqueness  in  the  estimated

solutions. This  problems require  the utilization  of regularizations

and constraints with the objective  of stabilize the inversion process

and promote solutions  with a given desirable  characteristic. In this

sense, sparse  solutions are  desirable because  they lead  to sharply

resolved  reflectors that  overcome the  band-limitation of  classical

methods.

 

In this  thesis we present  three new strategies  based on the  use of

different regularization terms to  stabilize the inversion problem and

promote sparse  solutions from  prestack seismic  data.  In  the first

strategy we  estimate sub-optimal  solutions of the  inversion problem

regularized using  the l0  norm, by means  of the  global optimization

algorithm known as  Very Fast Simulated Annealing  (VFSA).  The second

strategy  is  a  two-step  procedure:   first  we  solve  the  problem

regularized by the  the l1 norm using an efficient  algorithm known as

Fast Iterative Shrinkage-Thresholding Algorithm (FISTA) and then, in a

second step, we apply a debiasing procedure to estimate the amplitudes

of the solutions using least-squares.  This two first strategies allow

us to successfully estimate sparse  solutions using the two-term Shuey

approximation,  model that  describes  the variations  of the  seismic

reflection  coefficients  with  the  angle of  incidence.   The  third

strategy uses the l2,1 mixed  norm as regularization term, allowing us

to incorporate a priori information  to the inversion process by means

the use  of covariance and scale  matrices.  In this case  we estimate

sparse  solutions using  the three-term  Aki &  Richards approximation

and,  if the  a  priori  information is  appropriate,  is possible  to

estimate blocky solutions of the physical parameter of the subsurface.

 


 
Índice

Índice general

 

Resumen                                                                                vii

1. Introducción                                                                         1

   1.1. Antecedentes . . . . . .   . . . . . . . . . . . . . . . . . . . . . . . . . .  2

   1.2. Motivación y alcances . .  . . . . . . . . . . . . . . . . . . . . . . . . . .  4

   1.3. Objetivos . . . . . . . .  . . . . . . . . . . . . . . . . . . . . . . . . . .  4

   1.4. Organización de la tesis   . . . . . . . . . . . . . . . . . . . . . . . . . .  5

2. Problema inverso: regularización y optimización                                     11

   2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

   2.2. Formulación clásica del problema inverso . . . . . . . . . . . . . . . . . . . 13

   2.3. Problemas de inversión lineales . . . . . . . . . . . . . .  . . . . . . . . . 15

        2.3.1. Problemas sobredeterminados . . . . . . . . . . . . . . . . . . . . . . 16

        2.3.2. Problemas subdeterminados . . . . . . . . . . . . . . . . . . . . . . . 18

        2.3.3. Problemas mal planteados y mal condicionados. . . . . . . . . . . . . . 20

   2.4. Problemas de inversión no lineales . . . . . . . . . . . . . . . . . . . . . . 22

   2.5. Algoritmos de optimización . . . . . . . . . . . . . . . . . . . . . . . . . . 23

        2.5.1. Algoritmos de optimización local . . . . . . . . . .  . . . . . . . . . 23

        2.5.2. Algoritmos de optimización global . . . . . . . . . . . . . . . . . . . 25

   2.6. Formulación Bayesiana del problema inverso . . . . . . . . . . . . . . . . . . 26

        2.6.1. Teorema de Bayes . . . . . . . . . . . . . . . . . .  . . . . . . . . . 27

        2.6.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . .  . . . . . . . . . 28

   2.7. Sumario . . . . . . . . . . . . . . . . . . . . . . . . . .  . . . . . . . . . 30

3. Problema directo: de Zoeppritz a los datos sísmicos prestack                        31

   3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

   3.2. Las ecuaciones de Zoeppritz . . . . . . . . . . . . . . . . . . . . . . . . .  32

        3.2.1. Deducción de las ecuaciones de Zoeppritz . . . . . . . . . . . . .  . . 33

   3.3. Sobre las reïflectividades . . . . . . . . . . . . . . . . . . . . . . . . . . 38

   3.4. Aproximaciones de las ecuaciones de Zoeppritz . . . . . . . . . . . . . . . . .39

        3.4.1. Aproximación de Aki y Richards . . . . . . . . . . . . . . . . . . . . .40

        3.4.2. Aproximación de Shuey . . . . . . . . . . . . . . . . . . . . . . . . . 41

        3.4.3. Comparación entre la aproximación de Aki y Richards y la apro-

               ximación de Shuey . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

        3.4.4. Otras aproximaciones . . . . . . . . . . . . . . . . . . . . . . . . . .44

   3.5. AVA y anisotropía  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

   3.6. Problema directo en AVA . . . . . . . . . . . . . . . . . . . . . . . . . . . .45

   3.7. Sumario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .51

4. Inversión de datos sísmicos prestack por mínimos cuadrados                          53

   4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

   4.2. Datos sintéticos 1D . . . . . . . . . . . . . . . . . . . . . . . . .  . . . . 54

   4.3. Inversión por mínimos cuadrados . . . . . . . . . . . . . . . . . . . .  . . . 54

   4.4. Inversión por mínimos cuadrados amortiguados . . . . . . . . . . . . . . . . . 56

   4.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5. Inversión sparse mediante Simulated Annealing y mínimos cuadra-

   dos                                                                                 61

   5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

   5.2. Teoría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

   5.3. Sobre Very fast simulated annealing .    . . . . . . . . . . . . . . . . . . . 64

   5.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

        5.4.1. Datos sintéticos 1D . . . . . .   . . . . . . . . . . . . . . . . . . . 66

        5.4.2. Datos sintéticos 2D . . . . . .   . . . . . . . . . . . . . . . . . . . 72

        5.4.3. Datos de campo . . . . . . . .    . . . . . . . . . . . . . . . . . . . 75

   5.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

 6. Inversión sparse mediante regularización con la norma l1                           79

   6.1. Introducción . . . . . . . . . . . . . . . . . . .  . . . . . . . . . . . . .  79

   6.2. Teoría . . . . . . . . . . . . . . . . . . . . . .  . . . . . . . . . . . . .  81

        6.2.1. Formulación bayesiana del problema . . . .  . . . . . . .  . . . . . .  83

   6.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . .  . . . . . .  86

        6.3.1. Datos sintéticos 1D . . . . . . . . . . . . . . . . . . .  . . . . . .  86

        6.3.2. Datos sintéticos 2D . . . . . . . . . . . . . . . . . . .  . . . . . .  96

        6.3.3. Datos de campo . . . . . . . . . . . . .  . . . . . . . .  . . . . . .  99

   6.4. Conclusiones . . . . . . . . . . . . . . . . . . .  . .. . . . .  . . . . . . 102

7. Inversión sparse mediante regularización con la norma l2,1                         103

   7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103

   7.2. Teoría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104

   7.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .109

        7.3.1. Datos sintéticos 1D . . . . . . . . . . . . . . . . . . . . . . . . . .109

        7.3.2. Datos sintéticos 2D . . . . . . . . . . . . . . . . . . . . . . . . . .115

        7.3.3. Datos de campo . . . . . . . . . . . . . . . . . . . . . . .  . . . . .120

   7.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .123

8. Conclusiones                                                                       125

   8.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .125

   8.2. Discusión . . . .  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .129

   8.3. Contribución . .   . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .130

   8.4. Trabajos a futuro  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .131

   8.5. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .132

A. Very fast simulated annealing                                                      133

   A.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .133

   A.2. Simulated annealing . . . . . . . . . . . .  . . . . . . . . . . . . . . . . .134

        A.2.1. Función de generación de modelos  . . . . . . . . . . . . . . . . . . .135

        A.2.2. Función de aceptación . . . . . . . . . . . . . . . . . . . . . . . . .137

        A.2.3. Esquema de enfriado . . . . . . . . . . . . . . . . . . . . . . . . . .137

   A.3. Very fast simulated annealing . . . . . .  . . . . . . . . . . . . . . . . . .138

        A.3.1. Descripción del algoritmo . . . . . . . . . . . . . . . . . . . . . . .138

        A.3.2. Temperatura inicial . . . . . . . . . . . . . . . . . . . . . . . . . .139

B. ISTA y FISTA                                                                       141

   B.1. Algoritmo ISTA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141

        B.1.1. Iteracijón de Landweber . . . . . . . . . . .  . . . . . . . . . . . . 142

        B.1.2. Función umbral . . . . . . . . . . . . . .  . . . . . . . . . . . . . .143

        B.1.3. Iterative shrinkage-thresholding algorithm  . . . . . . . . . . . . . .144

   B.2. Algoritmo FISTA . . . . . . . . . . . . . . . . .  . . . . . . . . . . . . . .145

Bibliografía                                                                          147

 


 
Conclusiones

 El  tema central  de  esta  tesis fue  la  resolución  de un  problema
fundamental para  la detección  de hidrocarburos y  la caracterización
litológica: la  inversión de  datos sísmicos  prestack.  Debido  a que
este es  un problema mal planteado  y mal condicionado se  requiere la
utilización  de  regularizaciones  y   restricciones  con  el  fin  de
estabilizar  el  proceso  de  inversión, mitigar  el  problema  de  la
no-unicidad  y,  a  la  vez,  darle  a  la  solución  estimada  alguna
característica  deseada   de  acuerdo   a  la  información   a  priori
disponible.   Más   precisamente,  en  esta  tesis   se  desarrollaron
estrategias   para  estimar   soluciones   de  tipo   sparse  de   las
reflectividades  asociadas  a  las  aproximaciones  de  Shuey  de  dos
términos, de Aki y Richards de  tres términos y, cuando la información
disponible lo  permitió, soluciones tipo  blocky de las  velocidades y
densidades.  Con este fin se utilizaron como término de regularización
diferentes normas  matemáticas que promueven soluciones  sparse.  Esto
condujo a funciones  de costo que debieron  ser minimizadas utilizando
algoritmos  de   optimización  global  y  local   dependiendo  de  las
características que presentaron dichas funciones.
 
Conclusiones
 
A continuación se enunciarán las principales conclusiones obtenidas de
las pruebas  realizadas sobre datos  sintéticos y datos de  campo para
cada una  de las  estrategia propuestas, y  que constituyen  el aporte
central de esta tesis.
 
Capítulo  5: Inversión  sparse-spike  mediante  Simulated Annealing  y
mínimos cuadrados
 
En  el capítulo  5  se  presentó la  primera  estrategia para  obtener
soluciones  sparse  a  partir   de  datos  sísmicos  prestack.   Dicha
estrategia  fue desarrollada  para  obtener soluciones  sparse de  los
atributos  intercept y  gradient de  la aproximación  de Shuey  de dos
términos.   La  estrategia planteada  se  basa  en estimar  soluciones
sub-óptimas del  problema de inversión regularizado  mediante la norma
l0.   Esta  regularización  conduce  a  un  problema  de  optimización
NP-hard.   Este tipo  de problemas  son los  más costosos  de resolver
desde un punto de vista  computacional, y muchas veces son remplazados
por  problemas regularizados  utilizando la  norma l1.   La estrategia
propuesta consiste en determinar las posiciones en tiempo de un número
fijo y  pequeño de coeficientes  de reflexión  por medio de  VFSA.  En
cada iteración del  VFSA la amplitud de los  coeficientes de reflexión
se determina resolviendo  un problema de mínimos  cuadrados de pequeña
dimensión.  La  utilización de un  número limitado de  coeficientes de
reflexión  estabilizó el  problema de  inversión, permitiendo  obtener
soluciones  sparse con  sentido físico  que honran  al dato  observado
incluso en presencia de niveles de ruido significativos.
Una desventaja  de la estrategia  propuesta es que, previo  a utilizar
VFSA, se debe establecer el mínimo número de coeficientes de reflexión
Ls necesarios para ajustar el  dato observado con una dada tolerancia.
Obtener esta información puede  ser costoso computacionalmente, ya que
se  debe  resolver  el  problema varias  veces  utilizando  diferentes
valores del Ls  y construir una curva-L que permita  discriminar el Ls
óptimo de acuerdo  a algún criterio adecuado. En este  caso se utilizó
el criterio de la discrepancia, que  es de utilidad cuando se tiene un
estimado del nivel de ruido en el  dato.  A partir de este análisis se
concluyó que si  el número Ls de coeficientes  de reflexión utilizados
no es mucho  mayor que el verdadero, la estabilidad  de las soluciones
no  se  ven afectadas  significativamente.   Sin  embargo utilizar  un
número menor lleva a soluciones que no honran el dato observado.
Una ventaja del  método de inversión propuesto es que,  al ser VFSA un
algoritmo  estocástico, fue  posible estimar  la incertidumbre  de las
soluciones aprovechando el gran número de soluciones que se pusieron a
prueba durante  el proceso  de inversión. Sobre  dato sintético  1D la
estrategia  propuesta  demostró  ser  robusta en  presencia  de  ruido
aleatorio.   Se   obtuvieron  muy  buenos  resultados   en  todas  las
magnitudes  invertidas,  estimándose  con precisión  la  ubicación  en
tiempo de  los coeficientes  de reflexión  y la  respuesta AVA  de los
mismos.   Los pequeños  valores de  las desviaciones  estándar de  las
magnitudes invertidas resaltan la  consistencia de las soluciones. Las
pruebas sobre datos sintéticos 2D  demostraron la capacidad del método
para resolver reflectores cercanos y para obtener soluciones con buena
continuidad  lateral a  pesar de  que no  se impuso  ninguna clase  de
condición  en este  sentido  durante la  inversión.   Se observó  que,
cuando la  ondícula utilizada es  exacta, la estrategia  propuesta fue
capaz de resolver reflectores cuya  separación se encuentra cercana al
espesor  de  tuning.  Sobre  datos  de campo  el  método  mostró  buen
comportamiento a pesar de los  problemas que implica trabajar con este
tipo de datos.   Los reflectores más importantes  fueron recuperados y
se obtuvieron imágenes de alta resolución del intercept y del gradient
con buena  continuidad lateral  que honran al  dato observado  con una
precisión aceptable.
Como parte  del estudio  del comportamiento  del método  propuesto, se
realizó un  análisis de  las soluciones  estimadas cuando  la ondícula
utilizada en la inversión es inexacta. De este análisis se vio que una
incorrecta estimación de la ondícula conducen a soluciones sparse que,
si  bien  ajustan al  dato  observado,  se  alejan de  las  soluciones
esperadas. Se  propone entonces, como  parte del proceso  de inversión
realizar un pequeño ajuste de  la ondícula utilizada. Este ajuste debe
ser realizado sólo si se cuenta  con un valor aproximado del número de
coeficientes de  reflexión Ls, de  otra forma el proceso  de inversión
podría no converger a una solución aceptable.
En general  la estrategia propuesta demostró  ser robusta, permitiendo
estimar soluciones sparse de la  aproximación de Shuey de dos términos
que honran al  dato observado en presencia de altos  niveles de ruido,
tanto  para  datos  sintético  como   para  datos  de  campo.   Dichas
soluciones son muy favorables en  relación a aquellas obtenidas con el
método de mínimos cuadrados analizado en  el capítulo 4, donde la baja
resolución de  las soluciones estimadas dificultan  su interpretación.
Sin embargo, el alto costo computacional como consecuencia de utilizar
un algoritmo de  optimización global hace que  la estrategia propuesta
sea poco práctica para ser utilizada sobre grandes volúmenes de datos.
 
Capítulo 6: Inversión sparse mediante regularización con la norma l1
 
En  el  capítulo 6  presentamos  la  segunda estrategia  para  obtener
soluciones sparse a partir de  datos sísmicos prestack.  La estrategia
se basa en regularizar el problema  de inversión mediante el uso de la
norma l1,  problema conocido como LASSO,  y en ajustar, en  un segundo
paso correctivo, las amplitudes  estimadas mediante mínimos cuadrados.
La  norma l1  y el  misfit  se relacionan  a través  del parámetro  de
compensación  mu.   Para resolver  el  LASSO  utilizamos el  algoritmo
FISTA.   Este algoritmo  sólo realiza  multiplicaciónes de  matrices y
vectores y no  requiere invertir matrices, por lo que  es económico en
términos de costo computacional.  Al igual que la estrategia propuesta
en  el capítulo  5,  el  método apunta  a  obtener simultáneamente  la
localización en tiempo de los reflectores más importante y los valores
de los atributos  intercept y gradient de la aproximación  de Shuey de
dos  términos,  pero  con un  costo  computacional  significativamente
menor.
Como se  vio en los ejemplos  numéricos, resolver el LASSO  no permite
obtener  una adecuada  solución del  gradient, aunque  si se  obtienen
soluciones  del intercept  aceptables.  Esto  sucede debido  a que  el
gradient tiene una  fuerte dependencia con el nivel  de ruido presente
en la dato y el valor del parámetro mu utilizado para llevar a cabo la
inversión.    Este  comportamiento   fue  estudiado   utilizando  dato
sintético 1D, donde se vio que  la calidad de la solución estimada del
gradient decrece a medida  que el nivel de ruido en  el dato aumenta y
el  valor de  mu disminuye.   El uso  de las  soluciones obtenidas  al
resolver el LASSO  como información a priori para  realizar un segundo
paso correctivo  mediante mínimos  cuadrados, demostró ser  una opción
apropiada para obtener atributos sparse que honran al dato observado.
Una de  las ventajas de la  estrategia de dos etapas  presentada, a la
que llamamos  FISTA+LS, es que  permite obtener soluciones  sparse del
gradient sin el uso de información a priori, o el uso de una matriz de
covarianza o escala que aporte información sobre las amplitudes de los
atributos.  Además, como  la función de costo a  minimizar al resolver
el LASSO es una función convexa  no es necesario empezar el proceso de
inversión desde una modelo inicial  cercano a la solución óptima.  Por
otro  lado,  al  utilizar  FISTA+LS   la  elección  del  parámetro  de
compensación mu se vio facilitada debido  a que existe un amplio rango
de  valores que  conducen  a  una solución  similar.   En las  pruebas
numéricas dicho parámetro  mu fue estimado utilizando  el principio de
discrepancia, por medio de la construcción de una curva de Pareto.  Se
vio  que la  curva de  Pareto correspondiente  a FISTA+LS  presenta un
quiebre  en los  valores  de  mu óptimos,  a  diferencia  de la  curva
obtenida al  resolver el LASSO,  que muestra un  comportamiento suave.
Esta característica permite  una estimación más sencilla  de mu cuando
el nivel de ruido en el dato  no es conocido como sucede, por ejemplo,
al trabajar con datos de campo.
En  pruebas   sobre  datos   sintéticos  1D   con  niveles   de  ruido
significativo  el  método  propuesto  probó  ser  robusto  y  estable,
ofreciendo soluciones sparse muy precisas, comparables a las obtenidas
con VFSA pero a un costo computacional menor.  A pesar de que FISTA no
es  un método  de  optimización estocástico,  se  realizó un  análisis
estadístico, utilizando  datos con  diferentes realizaciones  de ruido
aleatorio, con  el fin  de estudiar la  estabilidad de  las soluciones
estimadas  por FISTA+LS  frente al  ruido  en el  dato.  Los  pequeños
valores  de las  desviaciones  estándar de  las magnitudes  invertidas
resaltan la  consistencia de  las soluciones.   Las pruebas  con datos
sintéticos 2D demostraron que el método es capaz de obtener soluciones
sparse que honran al dato  y presentan buena continuidad lateral.  Sin
embargo, algunos reflectores cercanos, como  los que se observan en el
pinch-out ubicado a los  0.2 s entre los gathers #40  y #60, no fueron
resueltos correctamente.  Pruebas  en datos de campo  mostraron que la
técnica  propuesta es  capaz de  ofrecer imágenes  del intercept  y el
gradient que honran  el dato observado con precisión.   Debido al bajo
costo computacional  del algoritmo  utilizado es posible  trabajar con
volúmenes grandes de datos.
 
Capítulo 7: Inversión sparse mediante regularización con la norma l2,1
 
En el capítulo 7 presentamos  una estrategia de inversión para obtener
soluciones sparse utilizando la aproximación de Aki y Richards de tres
términos.  El método  propuesto apunta a obtener  soluciones sparse de
Ralpha,  Rbeta y  Rrho, y  si la  información a  priori disponible  es
suficiente,  estimar soluciones  blocky  de  los parámetros  elásticos
alpha, beta y rho.  Como término de regularización utilizamos la norma
mixta l2,1.  Esta norma, que es  una extensión de la norma l1, permite
estimar soluciones  sparse con  estructura.  La razón  por la  cual se
optó por incorporar dicha norma  como término de regularización es que
permite  obtener   soluciones  sparse/blocky   y,  al   mismo  tiempo,
restringir los valores  de las amplitudes de  los parámetros estimados
utilizando información a  priori.  A diferencia de lo  analizado en el
capítulo 6,  donde para estimar  soluciones sparse del intercept  y el
gradient  no  se necesitó  de  información  a  prior, al  utilizar  la
aproximación de  Aki y Richards  de tres términos esta  información es
necesaria  si  se pretende  obtener  una  correcta estimación  de  las
amplitudes de Ralpha, Rbeta y Rrho.  Dicha información se incorpora al
proceso  de inversión  por medio  de una  matriz de  covarianza o  una
matriz  de escala.   Estas matrices  deben ser  estimadas previo  a la
inversión utilizando, por ejemplo,  información de pozo.  Una correcta
estimación de dichas  matrices es crucial para  obtener soluciones que
honren  al dato  observado  y, al  mismo tiempo,  a  la información  a
priori.
Al igual que en el capítulo 6 la función de costo obtenida es convexa,
porque la norma l2,1 también lo es, por lo que no es necesario empezar
el proceso de inversión desde una modelo inicial cercano a la solución
óptima para estimar el minimizador de la función. Además la función de
costo puede ser minimizada utilizando FISTA con pequeños ajustes en la
función  umbral. La  estrategia  de inversión  propuesta es  versátil,
permitiendo  sumar  a  la  función   de  costo  un  término  adicional
conteniendo  información  sobre  la  tendencia de  baja  frecuencia  y
recuperarla  al  estimar  soluciones   blocky  de  las  velocidades  y
densidades.
El  método propuesto  fue  probado en  datos sintéticos  1D  y 2D  con
significativos niveles de  ruido, y en datos de campo  2D.  Sobre dato
sintético 1D  se vio que,  dada la  información a priori  adecuada, el
método es capaz de obtener soluciones blocky de los parámetros físicos
que  presentan  una  correcta   estimación  de  las  magnitudes.   Los
resultados obtenidos superaron a aquellos estimados utilizando mínimos
cuadrados y utilizando la norma l1 como regularización.  En este caso,
la inversión  llevada a cabo  utilizando la  norma l1 no  consistió en
utilizar un método de dos etapas como en la estrategia planteada en el
capítulo 6, sino que se optó por estabilizar las amplitudes utilizando
una matriz de escala.
En las  soluciones estimadas utilizando  la norma l2,1 se  observa que
cuando  se  dispone  de  suficiente información  a  priori  como  para
construir la  matriz de  covarianza completa los  resultados obtenidos
superan en calidad a aquellos  estimados utilizando sólo una matriz de
escala.  Sin embargo, estos últimos igual son aceptables, mostrando un
marcado  comportamiento  blocky  y  una  correcta  estimación  de  las
amplitudes.  Sobre datos sintéticos 2D  se mostró que la estrategia es
capaz de conseguir  soluciones blocky con buena  continuidad lateral y
correcta  estimación de  las  amplitudes,  a la  vez  que fue  posible
obtener  soluciones sparse  de las  reflectividades que  honran a  las
verdaderas.  Del análisis  llevado a cabo utilizando la norma  l1 y la
norma l2,1, usando en ambos casos sólo la matriz de escala, se vio que
las soluciones estimadas  utilizando la norma mixta  l2,1 superaron en
calidad a aquellas  obtenidas utilizando la norma l1.  Esto  se debe a
que la norma l2,1 restringe mejor  el espacio de posibles soluciones y
distribuye   de  manera   más   equilibrada  la   energía  entre   las
reflectividades Ralpha, Rbeta y Rrho.
Las pruebas sobre  datos de campo se realizaron sólo  con el propósito
de estimar reflectividades Ralpha, Rbeta y  Rrho, debido a la falta de
información a priori  necesaria para estimar soluciones  blocky de los
parámetros elásticos.  La inversión, realizada sobre 400 angle-gather,
muestra que  la estrategia  propuesta es  capaz de  estimar soluciones
sparse  de las  tres  reflectividades, que  honran  al dato  observado
correctamente y presentan una buena continuidad lateral.  Al igual que
en  la estrategia  desarrollada  en el  capítulo  anterior, el  método
propuesto es económico  en términos de costo computacional  y de fácil
aplicación debido al algoritmo de optimización utilizado.