Factores que influyen en el error de deformación geométrica en imágenes de teledetección
1. Deformación causada por la geometría de la imagen del sensor
Los métodos generales de imagen geométrica de los sensores incluyen proyección central, proyección panorámica, proyección oblicua y proyección paralela. Entre estos diferentes tipos, la proyección central de la fotografía vertical en áreas planas y la proyección paralela en condiciones verticales no tienen distorsión geométrica porque la imagen de la proyección central mantiene una relación similar con la escena del suelo, mientras que los resultados de la proyección panorámica y la proyección oblicua producen distorsión de la imagen. Generalmente, las imágenes de proyección central y proyección paralela (proyección ortográfica) de la fotografía vertical se utilizan como imágenes de referencia. Al compararlas con las imágenes de proyección central o proyección ortográfica, se pueden obtener las reglas de deformación de la proyección panorámica y la proyección oblicua. Por tanto, la teoría del análisis de fotografías aéreas es la base para el análisis de diversas imágenes de teledetección.
2. El proceso general de corrección geométrica de imágenes digitales de teledetección.
El propósito de la corrección geométrica de imágenes digitales de teledetección es corregir la deformación geométrica de la imagen original y generar una nueva imagen que cumpla con ciertos requisitos de proyección cartográfica o expresión gráfica. Los pasos generales de la corrección geométrica se muestran en la Figura 5-1.
Figura 5-1 El proceso general de corrección de imágenes digitales por teledetección
(1) Trabajo de preparación
Incluyendo datos de imágenes, datos de mapas, resultados de estudios geodésicos, nave espacial Recopilación y análisis de parámetros orbitales y parámetros de actitud del sensor, selección y medición de los puntos de control requeridos, etc. Si la imagen es una imagen de película, será necesario escanearla y digitalizarla.
(2) Entrada de imagen digital original
Las imágenes digitales de detección remota se leen en la computadora usando un programa especial de acuerdo con el formato prescrito.
(3) Establecer una función de transformación de corrección
La función de transformación de corrección se utiliza para establecer la relación matemática entre las coordenadas de la imagen y las coordenadas del terreno (o mapa), es decir, entre las coordenadas de entrada. relación de transformación de coordenadas de la imagen y la imagen de salida. Los métodos de corrección varían según el modelo matemático utilizado, incluyendo generalmente el método polinómico, *método de ecuación lineal, método de interpolación de campos aleatorios, etc. El coeficiente de correlación en la función de transformación de corrección se puede resolver utilizando datos de puntos de control, o se puede formar directamente utilizando parámetros de órbita de satélite, parámetros de actitud del sensor, elementos de orientación internos y externos de imágenes aéreas, etc.
(4) Determinar el rango de la imagen de salida.
Una definición incorrecta del rango de la imagen de salida dará como resultado que la imagen corregida no se incluya completamente en el rango y también hará que la imagen de salida tenga demasiados espacios en blanco, como se muestra en la Figura 5-2. Si el rango de imagen de salida definido es apropiado, todas las imágenes corregidas se incluyen en el rango definido y el área de la imagen en blanco puede ser lo más pequeña posible, como se muestra en la Figura 5-3.
Figura 5-2 El rango de límites de la imagen de salida es inapropiado
Entonces, ¿cómo podemos obtener el rango de límites de imagen apropiado?
Proyecte las cuatro esquinas de la imagen original Aibi ci d en el sistema de coordenadas del mapa de acuerdo con la función de transformación de corrección para obtener ocho valores de coordenadas (cuatro pares de coordenadas) y encuentre la suma máxima de X e Y respectivamente. Valor mínimo para determinar el rango de la imagen de salida.
(5) Transformación de posición geométrica de píxeles
La transformación de posición geométrica de píxeles consiste en transformar la imagen digital original píxel a píxel a la posición correspondiente de la imagen de salida según la función de transformación de corrección seleccionada. . El método de conversión se divide en corrección directa y corrección indirecta (o soluciones directa e inversa), como se muestra en la Figura 5-4.
Los dos métodos no solo consideran diferentes puntos de partida de las coordenadas de la imagen, sino que también asignan diferentes valores de escala de grises a los píxeles de la imagen corregidos.
En el método directo, el método para obtener píxeles corregidos se denomina reconstrucción en escala de grises, mientras que el método indirecto se denomina remuestreo en escala de grises. En la práctica, se suelen utilizar métodos indirectos para corregirlo.
Figura 5-3 Rango de límite de imagen de salida apropiado
Figura 5-4 Esquema de corrección del método directo y el método indirecto
(6) Remuestreo de escala de grises de píxeles p>
Dado que las imágenes digitales son muestras discretas del mundo objetivo continuo o de las fotografías, cuando queremos conocer el valor de gris de los puntos que no son de muestreo, necesitamos interpolar desde los puntos de muestreo (píxeles conocidos), lo cual es así. llamado remuestreo. Al remuestreo, la función de remuestreo puede expresar la influencia (peso) de los valores de escala de grises de varios píxeles cercanos (puntos de muestreo) en el punto de muestreo.
Si el valor de coordenadas de cualquier píxel en la matriz de imágenes de salida en la posición correspondiente en la imagen original es un número entero, entonces el valor en escala de grises del píxel en la imagen original se asigna directamente al valor en escala de grises de el píxel de la imagen de salida correspondiente. De lo contrario, debemos usar la escala de grises de unos pocos píxeles cerca de ese punto en la imagen original y considerar la extensión de la imagen de cada píxel cercano para calcular la escala de grises del píxel correspondiente en la imagen de salida usando un método apropiado. El remuestreo en escala de grises también se realiza píxel a píxel.
Según el teorema de muestreo, cuando el intervalo de muestreo δX es menor que (1/2)f1, la fórmula del valor de gris de cualquier punto (caso unidimensional) es Identificación y extracción de información de alteración p>
Donde: g(k, δx) es el valor de muestreo, que se calcula con precisión, es decir, la convolución del valor de la función de muestreo y la función sinc. Ésta es una situación ideal. Dado que la función sinc se define en el campo infinito e incluye el cálculo de funciones trigonométricas, esta operación es más complicada. Por conveniencia, a menudo se reemplaza por algunas funciones aproximadas como la función del núcleo de convolución, como funciones trigonométricas y funciones spline cúbicas. Los métodos más simples son el método del píxel vecino más cercano y el método del doble píxel. Los métodos de remuestreo de píxeles en escala de grises más utilizados son los siguientes.
1) Método de interpolación bilineal. El núcleo de convolución de la interpolación bilineal es una función trigonométrica, expresada como
w(x)=1 -|, 0≤| el núcleo de convolución de la función sinc. Como se muestra en la Figura 5-5, si algún píxel p (x, y) está ubicado entre cuatro píxeles pi, j, pi, j+1, pi+1, j, pi+1, j+1, entonces la escala de grises de un píxel se interpola bilinealmente.
xg(x, y)=gy, x=(1 - dx)(1 - dy)gi, j+ dx(1 - y)gi, j+1+(1-dx)dygi+ 1 , j+ dxdygi+1, j+1 (5-3)
¿Dónde dx=x-INT(x)? Dy=y-INT(y), donde INT es la parte entera.
Figura 5-5 Método de interpolación bilineal
2) Método de convolución bicúbica. Uso de la función spline cúbica:
Identificación y extracción de información de alteración de objetivos de detección remota hiperespectrales en Asia Central
Para el núcleo de convolución, está más cerca de la función sinc, que requiere 16 originales píxeles. Participar en el cálculo (Figura 5-6). En este momento,
Figura 5-6 Método de convolución bicúbica
Identificación y extracción de información de alteración de objetivos de detección remota hiperespectrales en Asia Central
Fórmula
p>ωij=ω(Xj)ω(yi)
ω(x1)=-dx +2dx2-dx3
ω(x2)=1 -2dx2+ dx3
ω(x3)=dx +dx2+dx3
ω(x4)=-dx2+dx3
ω(y1)=-dy +2dy2 - dy3
ω(y2)=1 -2dy2+dy3
ω(y3)=dy +dy2+dy3
ω(y4)=-dy2 - dy3
dx=x -INT(x), dy=y -INT(y)
gij=g(xj, yi)
3) Método reciente de píxeles vecinos. Tome directamente el valor de gris del píxel n (xn'yn) más cercano al punto p (x, y) como valor de remuestreo.
g(P′)= g(N)(5-6)
Fórmula
XN=INT(x +0.5)
yN=INT(y +0.5)
El método de píxeles adyacentes es el más simple de los tres métodos anteriores. Tiene una velocidad de cálculo rápida pero poca precisión. Método de convolución bicúbica: el error de muestreo es menor que el método de interpolación bilineal, pero la carga de trabajo de cálculo es grande y requiere mucho tiempo, por lo que el método de interpolación bilineal generalmente se usa con más frecuencia.
Figura 5-7 Método de remuestreo de dos píxeles
4) Método de remuestreo de dos píxeles. A partir del análisis de espectro, los métodos de interpolación bilineal y bicúbica anteriores son filtrados de paso bajo, que filtran los componentes de alta frecuencia en la señal y suavizan (difuminan) la imagen. A medida que la capacidad de la computadora y la capacidad de la memoria externa continúan aumentando, se recomienda duplicar un píxel de la imagen digital original en las direcciones X e Y y luego volver a muestrear la imagen ampliada 1x. Como se muestra en la Figura 5-7, equivale a rotar una línea recta con una escala de grises de 100. La Figura 5-7(b) es el resultado de la interpolación bilineal de la imagen original. La Figura 5-7(a) es el resultado de la interpolación bilineal de la imagen (c). Como se puede ver en la figura, remuestreo: el remuestreo de imágenes de dos píxeles puede mantener mejor la "claridad" de la imagen.
El remuestreo no solo es necesario en la corrección geométrica de imágenes digitales de teledetección, sino que también tiene amplias aplicaciones en el procesamiento de imágenes digitales de teledetección.
(7) Genera la imagen digital corregida.
Escriba los datos de la imagen de salida obtenidos mediante la transformación de posición geométrica píxel por píxel y el remuestreo en escala de grises en el archivo de imagen de salida corregido en el formato requerido (o el formato de archivo de imagen comúnmente utilizado en la aplicación).