Red de conocimientos turísticos - Conocimientos sobre calendario chino - Comparación de varios métodos de clasificación de datos de teledetección

Comparación de varios métodos de clasificación de datos de teledetección

Existen muchos métodos de clasificación temática de datos de teledetección comúnmente utilizados. Desde la perspectiva de los métodos de toma de decisiones de clasificación, se pueden dividir en clasificadores estadísticos, clasificadores de redes neuronales y clasificadores de sistemas expertos. En términos de si se requieren datos de entrenamiento, se pueden dividir en clasificadores supervisados ​​y clasificadores no supervisados.

1. Métodos de clasificación estadística

Los métodos de clasificación estadística se dividen en métodos de clasificación no supervisados ​​y métodos de clasificación supervisados. Los métodos de clasificación no supervisados ​​no necesitan seleccionar píxeles de categorías conocidas para entrenar al clasificador, mientras que los métodos de clasificación supervisados ​​necesitan seleccionar una cierta cantidad de píxeles de categorías conocidas para entrenar al clasificador para estimar los parámetros en el clasificador. Los métodos de clasificación no supervisados ​​no requieren ningún conocimiento previo y no introducirán errores ideológicos debido a la selección de muestras de entrenamiento. Sin embargo, las categorías naturales obtenidas mediante la clasificación no supervisada a menudo no coinciden con las categorías de interés en la investigación. En consecuencia, la clasificación supervisada generalmente requiere que las categorías de clasificación se definan de antemano, y la selección de datos de entrenamiento puede carecer de representatividad, pero también se pueden descubrir errores de clasificación graves durante el proceso de entrenamiento.

1. Clasificador no supervisado

El método de clasificación no supervisado es generalmente un algoritmo de agrupación. Los métodos de clasificación de agrupamiento no supervisado más utilizados son el método de agrupamiento de K-medias (Duda y Hart, 1973) y el algoritmo iterativo de análisis de datos autoorganizado (ISODATA). Se puede encontrar una descripción de su algoritmo en la literatura general sobre reconocimiento de patrones estadísticos.

Generalmente, los resultados de clasificación obtenidos mediante métodos de agrupamiento simples tienen baja precisión, por lo que los métodos de agrupamiento por sí solos rara vez se utilizan para la clasificación temática de datos de teledetección. A través del análisis de conglomerados de datos de teledetección, podemos comprender inicialmente la distribución de cada categoría y obtener la probabilidad previa de cada categoría en la clasificación supervisada de máxima verosimilitud. El vector medio y la matriz de covarianza de las clases finales se pueden utilizar en el proceso de clasificación de máxima verosimilitud (Schowengerdt, 1997).

2. Clasificador supervisado

El clasificador supervisado es el clasificador más utilizado en la clasificación temática de datos de teledetección. En comparación con los clasificadores no supervisados, los clasificadores supervisados ​​​​necesitan seleccionar una cierta cantidad de datos de entrenamiento para entrenar al clasificador, estimar los parámetros clave en el clasificador y luego usar el clasificador entrenado para clasificar píxeles en varias categorías. El proceso de clasificación supervisada generalmente incluye cuatro pasos: definir categorías de clasificación, seleccionar datos de entrenamiento, entrenar clasificadores y clasificación final de píxeles (Richards, 1997). Cada paso tiene un impacto significativo en la incertidumbre de la clasificación final.

Los clasificadores supervisados ​​se dividen en clasificadores paramétricos y clasificadores no paramétricos. Los clasificadores paramétricos requieren que los datos se clasifiquen para cumplir con una determinada distribución de probabilidad, mientras que los clasificadores no paramétricos no requieren la distribución de probabilidad de los datos.

Los clasificadores comúnmente utilizados en la clasificación de datos de teledetección incluyen el clasificador de máxima verosimilitud, el clasificador de distancia mínima, el clasificador de distancia de Mahalanobis, el clasificador de K-vecino más cercano (K-NN) y el clasificador de paralelepípedo. El Capítulo 3 presenta en detalle los clasificadores de máxima verosimilitud, distancia mínima y distancia de Mahalanobis. A continuación se ofrece una breve introducción al clasificador K-NN y al clasificador paralelepípedo.

El clasificador K-NN es un clasificador no paramétrico. La regla de decisión de este clasificador es clasificar los píxeles en categorías representadas por los vectores de características de los datos de entrenamiento más cercanos a sus vectores de características en el espacio de características (Schowengerdt, 1997). Cuando K = 1 en el clasificador, se denomina clasificador 1-NN. En este momento, la categoría de los datos de entrenamiento más cercana al píxel a clasificar se utiliza como categoría del píxel. Cuando k > 1, la categoría con el mayor número de píxeles en los k últimos datos de entrenamiento del píxel a clasificar se utiliza como categoría del píxel, o el recíproco de la distancia euclidiana entre el píxel a clasificar y su k Los vectores de características de píxeles vecinos se pueden calcular como Peso; utilice la categoría de los datos de entrenamiento con el valor de peso más grande como categoría del píxel a clasificar. Hardin, (1994) analiza en profundidad el clasificador K-NN.

El método de clasificación paralelepípedo es un algoritmo de clasificación no paramétrico sencillo. Este método determina el rango de valores de brillo para varios tipos de píxeles calculando los límites superior e inferior del histograma de los datos de entrenamiento para cada banda. Para cada categoría, los límites superior e inferior de cada banda forman juntos una caja multidimensional o paralelepípedo. Entonces hay m paralelepípedos en m categorías.

Cuando el valor de brillo de un píxel a clasificar cae dentro de una clase específica del paralelepípedo, el píxel se clasifica en la clase representada por el paralelepípedo. El clasificador paralelepípedo se puede representar mediante el problema de clasificación de datos de teledetección de dos bandas en la Figura 5-1. Las elipses en la figura representan la distribución del valor de brillo de cada categoría estimada a partir de los datos de entrenamiento, y los rectángulos representan el rango de valores de brillo de cada categoría. El brillo del píxel se encuentra dentro del rango de brillo de la categoría en la que se clasifica.

Figura 5-1 Diagrama esquemático del método de clasificación de paralelogramo

3. Evaluación de clasificadores estadísticos

El rendimiento de varios clasificadores estadísticos en la clasificación de datos de teledetección es diferente Esto no solo está relacionado con el algoritmo de clasificación, sino también con las características de distribución estadística de los datos, la selección de muestras de entrenamiento y otros factores.

Los algoritmos de agrupamiento no supervisados ​​no requieren características estadísticas de los datos clasificados, pero debido a que los métodos de clasificación no supervisados ​​no consideran ningún conocimiento previo, la precisión de la clasificación es generalmente baja. Más a menudo, el análisis de conglomerados se considera un análisis exploratorio antes de la clasificación no supervisada, que se utiliza para comprender la distribución y las características estadísticas de cada categoría en los datos clasificados y para proporcionar orientación para la definición de la categoría, la selección de datos de entrenamiento y el proceso de clasificación final en la clasificación supervisada. . Proporcionar conocimientos previos. En aplicaciones prácticas, los métodos de clasificación supervisada generalmente se utilizan para clasificar datos de teledetección.

El método de clasificación de máxima verosimilitud es el método de clasificación más utilizado en la clasificación de datos de teledetección. El método de clasificación de máxima verosimilitud pertenece al método de clasificación paramétrico. La clasificación de máxima verosimilitud (clasificación de máxima verosimilitud) se considera el método de clasificación con la mayor precisión de clasificación cuando hay suficientes muestras de entrenamiento, existe cierto conocimiento de la distribución de probabilidad previa de la categoría y los datos están cerca de la distribución normal. Sin embargo, cuando los datos de entrenamiento son pequeños, los sesgos en las estimaciones de los parámetros de media y covarianza pueden afectar seriamente la precisión de la clasificación. Swain y Davis (1978) creen que en la clasificación de máxima verosimilitud del espacio espectral N-dimensional, las muestras de datos de entrenamiento de cada categoría deben alcanzar al menos 10 × N y, si es posible, es mejor alcanzar más de 100 × N. Además, en muchos casos, la distribución estadística de los datos de teledetección no cumple con el supuesto de distribución normal, lo que dificulta determinar la probabilidad previa de cada categoría.

El clasificador de distancia mínima puede considerarse como un método de clasificación de máxima verosimilitud que no considera la matriz de covarianza. Cuando hay menos muestras de entrenamiento, la precisión de la estimación de la media generalmente es mayor que la precisión de la estimación de la matriz de covarianza. Por lo tanto, cuando las muestras de entrenamiento son limitadas, no es necesario calcular la matriz de covarianza, solo estimar la media de las muestras de entrenamiento. Por lo tanto, el algoritmo de máxima verosimilitud degenera en el algoritmo de mínima distancia. Dado que no se tiene en cuenta la covarianza de los datos, la distribución de probabilidad de las clases es simétrica y la varianza de la distribución de características espectrales de cada clase se considera igual. Obviamente, cuando hay suficientes muestras de entrenamiento para garantizar una estimación precisa de la matriz de covarianza, la precisión del resultado de la clasificación de máxima verosimilitud es mayor que la de la distancia mínima. Pero cuando hay menos datos de entrenamiento, la precisión de clasificación de distancia mínima puede ser mayor que la precisión de clasificación de probabilidad máxima (Richards, 1993). Además, el algoritmo de distancia mínima no tiene requisitos sobre las características de distribución de probabilidad de los datos.

Cuando las matrices de covarianza de todas las categorías son iguales, el clasificador de distancia de Mahalanobis puede considerarse como un clasificador de máxima verosimilitud. Dado que se supone que las matrices de covarianza de todas las clases son iguales, en comparación con el método de máxima verosimilitud, se pierde la información de la diferencia en las matrices de covarianza entre clases, pero en comparación con el método de distancia mínima, mantiene una cierta sensibilidad direccional a través de la covarianza. matriz (Richards, 1993). Por lo tanto, el clasificador de distancia de Mahalanobis puede considerarse como un clasificador entre el clasificador de máxima verosimilitud y el clasificador de mínima distancia. Al igual que la clasificación de máxima verosimilitud, el clasificador de distancia de Mahalanobis requiere que los datos sigan una distribución normal.

Un problema importante del clasificador K-NN es que se requiere un gran conjunto de datos de entrenamiento para garantizar la convergencia del algoritmo de clasificación (Devil y Kittler, 1982). Otro problema del clasificador K-NN es que el error en la selección de la muestra de entrenamiento tiene un gran impacto en los resultados de la clasificación (Cortijo y Blanca, 1997). Al mismo tiempo, la complejidad computacional del clasificador K-NN aumenta con la expansión del rango de vecinos más cercanos.

Sin embargo, debido a que el clasificador K-NN considera la relación espacial dentro de la vecindad de píxeles, hay menos "fenómeno de sal y pimienta" en los resultados de la clasificación en comparación con otros clasificadores espectrales.

Las ventajas del método de clasificación paralelepípedo son que es simple, rápido y no depende de ningún requisito de distribución de probabilidad. Sus deficiencias son: en primer lugar, los píxeles que quedan fuera del rango de valores de brillo de todas las categorías solo pueden clasificarse como categorías desconocidas, en segundo lugar, es difícil distinguir las categorías de píxeles que se encuentran en las áreas superpuestas de varios rangos de brillo (Figura 5-1). .

Las características de varios métodos de clasificación estadística se pueden resumir en la Tabla 5-1.

2. Clasificador de redes neuronales

La mayor ventaja de las redes neuronales en la clasificación de datos de teledetección es que pueden tratar datos de entrada de múltiples fuentes por igual. Aunque estos datos de entrada tienen distribuciones estadísticas completamente diferentes, los pesos de las conexiones entre la gran cantidad de neuronas en cada capa de la red neuronal son opacos y, por lo tanto, difíciles de controlar para los usuarios (Austin, Harding y Kanellopoulos et al., 1997). .

La clasificación de datos de teledetección de redes neuronales se considera una de las áreas de investigación más candentes en la clasificación de datos de teledetección (Wilkinson, 1996; Kimes, 1998). Los clasificadores de redes neuronales también se pueden dividir en clasificadores supervisados ​​y no supervisados. clasificadores. Dado que los clasificadores de redes neuronales no tienen requisitos sobre la distribución estadística de datos clasificados, son clasificadores no paramétricos.

La red neuronal más utilizada en la clasificación de datos de teledetección es el perceptrón multicapa (MLP). La estructura de red de este modelo se muestra en la Figura 5-2. La red consta de tres capas: capa de entrada, capa oculta y capa de salida. La capa de entrada sirve principalmente como interfaz de entrada para datos de entrada y redes neuronales, y no tiene ninguna función de procesamiento en sí misma. Las capacidades de procesamiento de la capa oculta y la capa de salida están incluidas en cada nodo; La estructura de entrada es generalmente un vector de características de los datos que se van a clasificar, generalmente un vector multiespectral de píxeles de entrenamiento, y cada nodo representa una banda espectral. Por supuesto, el nodo de entrada también puede ser la información del contexto espacial del píxel (como la textura) o un vector espectral de períodos múltiples (Paola y Schowengerdt, 1995).

Tabla 5-1 Comparación de varios clasificadores estadísticos

Figura 5-2 Estructura de red neuronal del perceptrón multicapa

Para la capa oculta y la capa de salida El proceso de procesamiento de los nodos entre ellos es una función de activación. Suponiendo que la función de excitación es f(S), para los nodos de la capa oculta, hay:

Investigación de incertidumbre sobre información de teledetección

Donde pi es la entrada del nodo de la capa oculta ; Hj es la capa oculta. La salida del nodo w es el peso entre las neuronas que conectan cada capa.

Para la capa de salida, existe la siguiente relación:

Investigación sobre la incertidumbre de la información de teledetección

donde hj es la entrada de la capa de salida Ok; es la salida de la capa de salida.

La función de excitación se expresa generalmente como:

Investigación sobre la incertidumbre de la información de detección remota

Después de determinar la estructura de la red, es necesario entrenar la red para realizar Se basa en La capacidad de los nuevos datos de entrada para predecir los resultados de salida. El algoritmo de entrenamiento de retropropagación es el más utilizado. Este algoritmo ingresa datos de entrenamiento desde la capa de entrada a la red, genera aleatoriamente el peso de conexión de cada nodo, lo calcula de acuerdo con la fórmula en (5-1) (5-2) (5-3) y compara la salida de la red. con el resultado esperado (categoría de datos de entrenamiento) se comparan y se calcula el error. La red de retropropagación utiliza este error para ajustar los pesos de conexión entre nodos. El método para ajustar el peso de la conexión es generalmente la regla delta (Rumelhart et al., 1986):

Investigación sobre la incertidumbre de la información de teledetección

donde eta es la tasa de aprendizaje δk; es la tasa de cambio de error; α es el parámetro de impulso.

El proceso de propagación hacia adelante y hacia atrás de dichos datos se repite hasta que el error de la red se reduce al nivel preestablecido y finaliza el entrenamiento de la red. En este momento, los datos a clasificar se pueden ingresar a la red neuronal para su clasificación.

Además del modelo de red neuronal de perceptrón multicapa, también se utilizan otros modelos de red para la clasificación de datos de teledetección.

Por ejemplo, la red autoorganizada de Kohonen se utiliza ampliamente en el análisis de agrupamiento no supervisado de datos de teledetección (Yoshida et al., 1994; Schaale et al., 1995); red de teoría de resonancia adaptativa (Silva, S y Caetano, M. 1997). , mapeo ART difuso (Fischer, M.M y Gopal, s.1997), función de base radial (Luo, 1997).

Hay muchos factores que afectan a la precisión de la clasificación de datos de teledetección basada en redes neuronales. Foody y Arora (1997) creen que la estructura de la red neuronal, la dimensionalidad de los datos de teledetección y el tamaño de los datos de entrenamiento son factores importantes que afectan la clasificación de las redes neuronales.

La estructura de la red neuronal, especialmente el número de capas y el número de neuronas en cada capa, es el tema más crítico en el diseño de redes neuronales. La estructura de la red no solo afecta la precisión de la clasificación, sino que también afecta directamente el tiempo de entrenamiento de la red (Kavzoglu y Mather, 1999). Para las redes neuronales utilizadas para la clasificación de datos de teledetección, el número de neuronas en la capa de entrada y la capa de salida está determinado por la dimensión de la característica y el número total de categorías de datos de teledetección. Por lo tanto, el diseño de la estructura de la red aborda principalmente el número. de capas ocultas y el número de neuronas de capas ocultas. Generalmente, una estructura de red demasiado compleja es buena para describir datos de entrenamiento, pero tiene una precisión de clasificación baja, lo que constituye el fenómeno de "sobreajuste". Sin embargo, las estructuras de red simples no pueden aprender bien los patrones en los datos de entrenamiento y, por lo tanto, tienen una precisión de clasificación baja.

La estructura de la red generalmente se determina mediante experimentos. Hirose et al. (1991) propusieron un método. Este método comienza con una estructura de red pequeña, agrega una neurona oculta cada vez que el entrenamiento de la red cae en un óptimo local y luego entrena nuevamente, y así sucesivamente hasta que el entrenamiento de la red converge. Este enfoque puede dar como resultado una estructura de red demasiado compleja. Una solución es restar la última neurona cuando se considera que la red converge hasta que la red ya no converge, y luego la última red convergente se considera la estructura óptima. La desventaja de este método es que requiere mucho tiempo. La poda es otra forma de determinar la estructura de una red neuronal. A diferencia del método de Hirose et al. (1991), el “método de poda” comienza a partir de una estructura de red grande y luego elimina gradualmente las neuronas consideradas redundantes (Sietsma y Dow, 1988). La ventaja de comenzar con una red grande es que aprende rápidamente y no es sensible a las condiciones iniciales ni a los parámetros de aprendizaje. El proceso de “poda” se repite hasta que la red ya no converge y la red convergente final se considera óptima (Castellano, Fanelli y Pelillo, 1997).

La cantidad de muestras de datos de entrenamiento utilizadas para el entrenamiento de redes neuronales varía según las diferentes estructuras de red, categorías y otros factores. Pero el requisito básico es que los datos de formación describan adecuadamente las categorías representativas. Foody et al. (1995) creen que el tamaño de los datos de entrenamiento tiene un impacto significativo en la precisión de la clasificación de la teledetección, pero en comparación con los clasificadores estadísticos, los datos de entrenamiento de las redes neuronales pueden ser menores.

El impacto de la dimensión de datos de las variables categóricas en la precisión de la clasificación es un problema común en la clasificación de datos de teledetección. Muchos estudios han demostrado que la separabilidad entre categorías generales y la precisión de la clasificación final aumentará con el aumento de la dimensionalidad de los datos. Después de alcanzar un cierto punto, la precisión de la clasificación disminuirá con el aumento continuo de la dimensionalidad de los datos (shahani y Landgrebe, 1994). Este es el famoso fenómeno Hughes. Generalmente, es necesario eliminar bandas con alta correlación de información mediante la selección de características, o eliminar información redundante mediante el análisis de componentes principales. La dimensionalidad de los datos de clasificación también tiene un impacto significativo en la precisión de la clasificación de las redes neuronales (Battiti, 1994), pero el fenómeno de Hughes no es tan grave como el de los clasificadores estadísticos tradicionales (Foody y Arora, 1997).

Kanellopoulos (1997) cree que un modelo de ANN eficaz debe considerar los siguientes puntos a través de la práctica a largo plazo: estructura de red neuronal adecuada, algoritmo de aprendizaje optimizado, preprocesamiento de datos de entrada, evitar oscilaciones y utilizar métodos de clasificación híbridos. . Entre ellos, los modelos híbridos incluyen una combinación de varios modelos de redes neuronales artificiales, una combinación de redes neuronales artificiales y clasificadores tradicionales, y una combinación de redes neuronales artificiales y procesadores de conocimiento.

En tercer lugar, otros cuantificadores

Además de los clasificadores estadísticos y clasificadores de redes neuronales mencionados anteriormente, existen muchos clasificadores que se utilizan para la clasificación de imágenes de teledetección. Por ejemplo, el clasificador difuso es un clasificador para situaciones en las que la categoría básica cambia continuamente y no hay límites obvios. Determina la membresía difusa de cada tipo de píxel mediante un mecanismo de inferencia difusa. Los clasificadores difusos generales incluyen el método de agrupamiento difuso de C-medias, el método de clasificación difuso supervisado (Wang, 1990), el modelo de píxeles mixtos (Foody y Cox, 1994; Settle y Drake, 1993) y varios métodos de redes neuronales artificiales (Kanellopoulos et al. People, 1992; Paola y Schowengerdt, 1995). Dado que el resultado de la clasificación difusa es el grado de pertenencia difusa del píxel que pertenece a cada categoría, también se denomina "clasificador suave", mientras que el método de clasificación tradicional se denomina "clasificador duro".

El otro es el clasificador de contexto, que es un clasificador que considera de manera integral las características espectrales y espaciales de la imagen. Los clasificadores espectrales generales sólo consideran las características espectrales de los píxeles. Sin embargo, en imágenes de teledetección, los píxeles adyacentes generalmente tienen autocorrelación espacial. Los píxeles con una fuerte autocorrelación espacial generalmente tienen más probabilidades de pertenecer a la misma categoría. Tener en cuenta las características espectrales y espaciales de los píxeles al mismo tiempo puede mejorar la precisión de la clasificación de imágenes y reducir el "fenómeno de sal y pimienta" en los resultados de la clasificación. Este fenómeno será más evidente cuando el espacio espectral entre categorías se superponga (Cortijo et al., 1995). Este "fenómeno de sal y pimienta" se puede eliminar mediante el filtrado de clasificación posterior al procesamiento, o se puede resolver agregando información que indique la relación de vecindad de los píxeles durante el proceso de clasificación.

La información contextual se puede añadir de diferentes formas durante el proceso de clasificación. Uno es agregar información de textura de la imagen a las características de clasificación; el otro es la tecnología de segmentación de imágenes, incluido Ketting y Landgrebe (1976), el método de detección de bordes y el método de campo aleatorio de Markov. Rignot y Chellappa (1992) utilizaron el método de campo aleatorio de Markov para clasificar imágenes SAR y lograron buenos resultados. Paul Smits (1997) propuso un método de campo aleatorio de Markov que preserva los detalles de los bordes y lo aplicó a la clasificación de imágenes SAR. Crawford (1998) combinó el método de clasificación jerárquica y el método de campo aleatorio de Markov para clasificar imágenes SAR y logró una mayor precisión. Cortijo (1997) utilizó una clasificación espectral no paramétrica para clasificar imágenes de teledetección y luego utilizó el algoritmo ICM para modificar la clasificación inicial.

div>