Red de conocimientos turísticos - Guía para elegir días propicios según el calendario chino - Factores que influyen en el error de deformación geométrica en imágenes de teledetección

Factores que influyen en el error de deformación geométrica en imágenes de teledetección

Los errores de deformación geométrica de las imágenes de teledetección se pueden dividir en errores estáticos y errores dinámicos. El error estático se refiere a varios errores de deformación cuando el sensor está estacionario con respecto a la superficie del suelo durante la toma de imágenes. Los errores dinámicos son principalmente errores de deformación de imágenes causados ​​por la rotación de la Tierra durante el proceso de obtención de imágenes. Los errores estáticos se pueden dividir en errores internos y errores externos. El error interno se debe principalmente a la desviación de los indicadores técnicos y de rendimiento del propio sensor con respecto al valor nominal. Cambia con la estructura del sensor, y el error es pequeño y no se analizará en este libro. Por ejemplo, en el caso de las cámaras aéreas con marco, existen errores como cambios en la distancia focal de la lente, desviaciones del punto principal de la imagen y distorsión óptica de la lente. Para los escáneres multiespectrales (MSS), existen diferencias en el tiempo de visualización entre el primer y el último punto de la línea de exploración, diferencias en el tiempo de visualización para la misma línea de exploración en diferentes bandas, velocidad de rotación desigual del espejo de exploración, no linealidad y no paralelismo del Línea de escaneo, detección fotoeléctrica. El error de desalineación del instrumento no se analiza en este libro. El error de deformación externa se refiere al error causado por factores distintos al propio sensor en condiciones normales de funcionamiento. Por ejemplo, errores de deformación causados ​​por cambios en la orientación externa (posición, actitud) del sensor, medio sensor irregular, curvatura de la tierra, relieve del terreno, rotación de la tierra y otros factores.

1. Deformación causada por la geometría de la imagen del sensor

Los métodos generales de imagen geométrica de los sensores incluyen proyección central, proyección panorámica, proyección oblicua y proyección paralela. Entre estos diferentes tipos, la proyección central de la fotografía vertical en áreas planas y la proyección paralela en condiciones verticales no tienen distorsión geométrica porque la imagen de la proyección central mantiene una relación similar con la escena del suelo, mientras que los resultados de la proyección panorámica y la proyección oblicua producen distorsión de la imagen. Generalmente, las imágenes de proyección central y proyección paralela (proyección ortográfica) de la fotografía vertical se utilizan como imágenes de referencia. Al compararlas con las imágenes de proyección central o proyección ortográfica, se pueden obtener las reglas de deformación de la proyección panorámica y la proyección oblicua. Por tanto, la teoría del análisis de fotografías aéreas es la base para el análisis de diversas imágenes de teledetección.

2. El proceso general de corrección geométrica de imágenes digitales de teledetección.

El propósito de la corrección geométrica de imágenes digitales de teledetección es corregir la deformación geométrica de la imagen original y generar una nueva imagen que cumpla con ciertos requisitos de proyección cartográfica o expresión gráfica. Los pasos generales de la corrección geométrica se muestran en la Figura 5-1.

Figura 5-1 El proceso general de corrección de imágenes digitales por teledetección

(1) Trabajo de preparación

Incluyendo datos de imágenes, datos de mapas, resultados de estudios geodésicos, nave espacial Recopilación y análisis de parámetros orbitales y parámetros de actitud del sensor, selección y medición de los puntos de control requeridos, etc. Si la imagen es una imagen de película, será necesario escanearla y digitalizarla.

(2) Entrada de imagen digital original

Las imágenes digitales de detección remota se leen en la computadora usando un programa especial de acuerdo con el formato prescrito.

(3) Establecer una función de transformación de corrección

La función de transformación de corrección se utiliza para establecer la relación matemática entre las coordenadas de la imagen y las coordenadas del terreno (o mapa), es decir, entre las coordenadas de entrada. relación de transformación de coordenadas de la imagen y la imagen de salida. Los métodos de corrección varían según el modelo matemático utilizado, incluyendo generalmente el método polinómico, *método de ecuación lineal, método de interpolación de campos aleatorios, etc. El coeficiente de correlación en la función de transformación de corrección se puede resolver utilizando datos de puntos de control, o se puede formar directamente utilizando parámetros de órbita de satélite, parámetros de actitud del sensor, elementos de orientación internos y externos de imágenes aéreas, etc.

(4) Determinar el rango de la imagen de salida.

Una definición incorrecta del rango de la imagen de salida dará como resultado que la imagen corregida no se incluya completamente en el rango y también hará que la imagen de salida tenga demasiados espacios en blanco, como se muestra en la Figura 5-2. Si el rango de imagen de salida definido es apropiado, todas las imágenes corregidas se incluyen en el rango definido y el área de la imagen en blanco puede ser lo más pequeña posible, como se muestra en la Figura 5-3.

Figura 5-2 El rango de límites de la imagen de salida es inapropiado

Entonces, ¿cómo podemos obtener el rango de límites de imagen apropiado?

Proyecte las cuatro esquinas de la imagen original Aibi ci d en el sistema de coordenadas del mapa de acuerdo con la función de transformación de corrección para obtener ocho valores de coordenadas (cuatro pares de coordenadas) y encuentre la suma máxima de X e Y respectivamente. Valor mínimo para determinar el rango de la imagen de salida.

(5) Transformación de posición geométrica de píxeles

La transformación de posición geométrica de píxeles consiste en transformar la imagen digital original píxel a píxel a la posición correspondiente de la imagen de salida según la función de transformación de corrección seleccionada. . El método de conversión se divide en corrección directa y corrección indirecta (o soluciones directa e inversa), como se muestra en la Figura 5-4.

Los dos métodos no solo consideran diferentes puntos de partida de las coordenadas de la imagen, sino que también asignan diferentes valores de escala de grises a los píxeles de la imagen corregidos.

En el método directo, el método para obtener píxeles corregidos se denomina reconstrucción en escala de grises, mientras que el método indirecto se denomina remuestreo en escala de grises. En la práctica, se suelen utilizar métodos indirectos para corregirlo.

Figura 5-3 Rango de límite de imagen de salida apropiado

Figura 5-4 Esquema de corrección del método directo y el método indirecto

(6) Remuestreo de escala de grises de píxeles

Dado que las imágenes digitales son muestras discretas del mundo objetivo continuo o de las fotografías, cuando queremos conocer el valor de gris de los puntos que no son de muestreo, necesitamos interpolar desde los puntos de muestreo (píxeles conocidos), lo cual es así. llamado remuestreo. Al remuestreo, la función de remuestreo puede expresar la influencia (peso) de los valores de escala de grises de varios píxeles cercanos (puntos de muestreo) en el punto de muestreo.

Si el valor de coordenadas de cualquier píxel en la matriz de imágenes de salida en la posición correspondiente en la imagen original es un número entero, entonces el valor en escala de grises del píxel en la imagen original se asigna directamente al valor en escala de grises de el píxel de la imagen de salida correspondiente. De lo contrario, debemos usar la escala de grises de unos pocos píxeles cerca de ese punto en la imagen original y considerar la extensión de la imagen de cada píxel cercano para calcular la escala de grises del píxel correspondiente en la imagen de salida usando un método apropiado. El remuestreo en escala de grises también se realiza píxel a píxel.

Según el teorema de muestreo, cuando el intervalo de muestreo δX es menor que (1/2)f1, la fórmula del valor de gris de cualquier punto (caso unidimensional) es Identificación y extracción de información de alteración

Donde: g(k, δx) es el valor de muestreo, que se calcula con precisión, es decir, la convolución del valor de la función de muestreo y la función sinc. Ésta es una situación ideal. Dado que la función sinc se define en el campo infinito e incluye el cálculo de funciones trigonométricas, esta operación es más complicada. Por conveniencia, a menudo se reemplaza por algunas funciones aproximadas como la función del núcleo de convolución, como funciones trigonométricas y funciones spline cúbicas. Los métodos más simples son el método del píxel vecino más cercano y el método del doble píxel. Los métodos de remuestreo de píxeles en escala de grises más utilizados son los siguientes.

1) Método de interpolación bilineal. El núcleo de convolución de la interpolación bilineal es una función trigonométrica, expresada como

w(x)=1 -|, 0≤| el núcleo de convolución de la función sinc. Como se muestra en la Figura 5-5, si algún píxel p (x, y) está ubicado entre cuatro píxeles pi, j, pi, j+1, pi+1, j, pi+1, j+1, entonces la escala de grises de un píxel se interpola bilinealmente.

xg(x, y)=gy, x=(1 - dx)(1 - dy)gi, j+ dx(1 - y)gi, j+1+(1-dx)dygi+ 1 , j+ dxdygi+1, j+1 (5-3)

¿Dónde dx=x-INT(x)? Dy=y-INT(y), donde INT es la parte entera.

Figura 5-5 Método de interpolación bilineal

2) Método de convolución bicúbica. Uso de la función spline cúbica:

Identificación y extracción de información de alteración de objetivos de detección remota hiperespectrales en Asia Central

Para el núcleo de convolución, está más cerca de la función sinc, que requiere 16 originales píxeles. Participar en el cálculo (Figura 5-6). En este momento,

Figura 5-6 Método de convolución bicúbica

Identificación y extracción de información de alteración de objetivos de detección remota hiperespectrales en Asia Central

Fórmula

p>

ωij=ω(Xj)ω(yi)

ω(x1)=-dx +2dx2-dx3

ω(x2)=1 -2dx2+ dx3

ω(x3)=dx +dx2+dx3

ω(x4)=-dx2+dx3

ω(y1)=-dy +2dy2 - dy3

ω(y2)=1 -2dy2+dy3

ω(y3)=dy +dy2+dy3

ω(y4)=-dy2 - dy3

dx=x -INT(x), dy=y -INT(y)

gij=g(xj, yi)

3) Método reciente de píxeles vecinos. Tome directamente el valor de gris del píxel n (xn'yn) más cercano al punto p (x, y) como valor de remuestreo.

g(P′)= g(N)(5-6)

Fórmula

XN=INT(x +0.5)

yN=INT(y +0.5)

El método de píxeles adyacentes es el más simple de los tres métodos anteriores. Tiene una velocidad de cálculo rápida pero poca precisión. Método de convolución bicúbica: el error de muestreo es menor que el método de interpolación bilineal, pero la carga de trabajo de cálculo es grande y requiere mucho tiempo, por lo que el método de interpolación bilineal generalmente se usa con más frecuencia.

Figura 5-7 Método de remuestreo de dos píxeles

4) Método de remuestreo de dos píxeles. A partir del análisis de espectro, los métodos de interpolación bilineal y bicúbica anteriores son filtrados de paso bajo, que filtran los componentes de alta frecuencia en la señal y suavizan (difuminan) la imagen. A medida que la capacidad de la computadora y la capacidad de la memoria externa continúan aumentando, se recomienda duplicar un píxel de la imagen digital original en las direcciones X e Y y luego volver a muestrear la imagen ampliada 1x. Como se muestra en la Figura 5-7, equivale a rotar una línea recta con una escala de grises de 100. La Figura 5-7(b) es el resultado de la interpolación bilineal de la imagen original. La Figura 5-7(a) es el resultado de la interpolación bilineal de la imagen (c). Como se puede ver en la figura, remuestreo: el remuestreo de imágenes de dos píxeles puede mantener mejor la "claridad" de la imagen.

El remuestreo no solo es necesario en la corrección geométrica de imágenes digitales de teledetección, sino que también tiene amplias aplicaciones en el procesamiento de imágenes digitales de teledetección.

(7) Genera la imagen digital corregida.

Escriba los datos de la imagen de salida obtenidos mediante la transformación de posición geométrica píxel por píxel y el remuestreo en escala de grises en el archivo de imagen de salida corregido en el formato requerido (o el formato de archivo de imagen comúnmente utilizado en la aplicación).