Red de conocimientos turísticos - Conocimientos sobre calendario chino - Varias bases de datos comúnmente utilizadas para el reconocimiento de expresiones faciales

Varias bases de datos comúnmente utilizadas para el reconocimiento de expresiones faciales

El reconocimiento de expresiones faciales permite a las computadoras reconocer varias expresiones en rostros humanos y luego analizar las emociones e intenciones representadas por las expresiones. El reconocimiento de expresiones faciales se puede utilizar en la detección de mentiras, el diagnóstico auxiliar médico, la interacción persona-computadora y otros campos. En comparación con el reconocimiento facial, las características de las expresiones faciales son más sutiles y se ven más afectadas por varios factores. Actualmente, la investigación sobre el reconocimiento de expresiones faciales se realiza en bases de datos. Estas son algunas de las bases de datos más comunes.

1: Base de datos de expresiones faciales femeninas japonesas (JAFFE)

Un conjunto de datos completo de unidades de acción y expresiones específicas. "

3: GEMEP-FERA 2011

.eu/

Estos datos se presentaron en la Conferencia Internacional IEEE de 2011 sobre reconocimiento automático de rostros y gestos y talleres (FG 2011 ).

Esta base de datos tiene una gran cantidad de emoticonos pero se pueden encontrar pocas descripciones detalladas en la siguiente literatura:

M.F. , M. Pantic y K. Scherer, "Metaanálisis del primer desafío de reconocimiento de expresiones faciales", Sistemas, hombre y cibernética, Parte B: Cibernética, IEEE Transactions on, vol. / p>

4: AFEW_4_0_EmotiW_2014

http://cs.anu.edu. Esta base de datos se utilizó como base para ACM 2014 ICMI TheSecond Emotion Recognition In The Wild (Segundo concurso de reconocimiento de emociones salvajes). La primera competencia se llevó a cabo el año pasado y la base de datos proporciona videoclips sin procesar extraídos de películas con expresiones faciales únicas que, a diferencia de las bases de datos anteriores, se produjeron en la naturaleza y no en un laboratorio. Por lo tanto, la parte más difícil es la detección de rostros. Para obtener información detallada, consulte la siguiente literatura:

A.Dhall, R. Goecke, J. Joshi, M.Wagner y T. Gedeon, "Emotion RecognitionIn The Wild Challenge2013", en Proceedings. de la 15ª Conferencia Internacional sobre Reconocimiento de Emociones en la Naturaleza 2013, "en Actas de la 15ª Conferencia Internacional sobre Reconocimiento de Emociones en la Naturaleza 2013, vol. II, págs."

5: GENKI-4K

http://mplab.ucsd.edu/wordpress/?page_id=398

Esta base de datos se utiliza especialmente para el reconocimiento de sonrisas. La base de datos completa tiene un total de 4000 imágenes, ****. , divididos en dos tipos: "sonrientes" y "no sonrientes".

La base de datos contiene un total de 4.000 imágenes, divididas en "sonrientes" y "no sonrientes". Los rostros de las imágenes no están escenificados, sino espontáneos. La proporción de rostros en cada imagen es de todos los tamaños. diferentes, y hay poses, cambios de iluminación, rotación de la cabeza, etc. Esta base de datos es mucho más difícil que las expresiones faciales posadas.

Para obtener información detallada, consulte la siguiente literatura:

WhitehillJ, Littlewort G, Fasel I, et al.

6: UNBC-McMaster Shoulder Pain Base de datos de archivo de expresiones

http://www.pitt.edu/~emotion/um-spread.htm

Esta base de datos se utiliza para el reconocimiento de expresiones de dolor. La base de datos publicada actualmente contiene 25. sujetos, 200 secuencias de vídeo. La duración de cada secuencia de video varía de docenas a cientos de fotogramas, cada imagen tiene 66 puntos de referencia faciales, intensidad del DOLOR (0-15) y número de unidades de acción facial, y cada secuencia de video también tiene el OPI del DOLOR general.

Para obtener más información, consulte la siguiente literatura:

Lucy, P., Cohn, J. F., Prkachin, K. M., Solomon, P., amp Matthews, I. ( 2011).Datos dolorosos: Conferencia internacional IEEE sobre reconocimiento automático de rostros y gestos (FG2011).

7: Base de datos bimodal de gestos faciales y corporales (FABO)

http://www.eecs.qmul.ac.uk/~hatice/fabo.html

En comparación con otras bases de datos, esta base de datos tiene más gestos. En la actualidad, los intentos de utilizar la multimodalidad para la computación emocional han logrado grandes avances en el análisis emocional utilizando información de voz, expresiones faciales, lenguaje corporal, etc. y más atención. Esta base de datos considera las emociones humanas en términos tanto de expresiones faciales como de movimientos corporales. Esta base de datos considera las emociones humanas tanto de las expresiones faciales como de los movimientos corporales, pero las etiquetas reales de esta base de datos son muy engorrosas. Para obtener información específica, consulte:

GunesH, Piccardi M. A bimodal face and body. Base de datos de gestos para el análisis automático del comportamiento afectivo no verbal humano[C]//Reconocimiento de patrones, 2006.ICPR 2006.18ª Conferencia Internacional sobre.IEEE, 2006, 1: 1148-1153.

Todos los derechos reservados. Este artículo es una publicación de blog original y no puede reproducirse sin el permiso del blogger.

Varias bases de datos comúnmente utilizadas para el reconocimiento de expresiones faciales

Etiqueta: reconocimiento facial interacción persona-computadora

oter>