Cómo funcionan las cámaras digitales.
Artículo de Lens:
La luz en la naturaleza tiene muchos colores, pero en resumen, estas luces pueden considerarse como combinaciones de diferentes intensidades de los tres colores básicos: rojo, azul y verde. . La luz puede considerarse simplemente como una "onda electromagnética" y los diferentes colores de luz tienen diferentes longitudes de onda.
El color es un estado del propio objeto. Muchas veces decimos de qué color es algo. Sin embargo, estrictamente hablando, el color de los objetos ante nuestros ojos está causalmente relacionado con las condiciones de iluminación ambiental. Diferentes objetos reflejan diferentes espectros, por lo que experimentamos diferentes colores en nuestros ojos. Pero esta conclusión se basa en el uso de luz blanca. Si utiliza diferentes colores de fuentes de luz, los resultados definitivamente serán diferentes. Por ejemplo, lo que normalmente llamamos tela roja se convertirá en tela blanca ante nuestros ojos si es iluminada por una fuente de luz roja. Cuando los rayos de luz que contienen varios colores pasan a través del filtro de color, solo pueden pasar una gran cantidad de rayos de luz del mismo color, y el filtro absorberá otros rayos de luz y los convertirá en energía térmica.
La función de la lente es enfocar la luz y la luz en el periodo fotosensible. El dispositivo fotosensible de una cámara digital es muy pequeño y la luz externa a veces no puede producir suficiente intensidad para que el dispositivo fotosensible obtenga suficiente información de la fuente de luz. La lente refracta la luz reflejada desde un objeto externo hacia el dispositivo fotosensible a través de su forma específica. Un estado de trabajo similar es un poco como quemar hormigas con una lupa al sol cuando éramos niños.
La lente se compone de muchas lentes, y la mayoría de las lentes tienen diferentes formas, por lo que cada lente no necesariamente juega el mismo papel en la lente. En términos generales, el uso de múltiples grupos de lentes puede acercar la imagen de la lente al mundo real sin reducir la transmitancia de la lente.
Mencionamos arriba la "transmitancia de la lente". En pocas palabras, es la cantidad de luz que puede transmitir la lente. Las lentes se componen de muchas lentes con superficies lisas que a su vez reflejan la luz. Esto reducirá la cantidad total de luz que ingresa a la lente y afectará la imagen del dispositivo fotosensible CCD/CMOS. Las cámaras digitales actuales generalmente utilizan una película especial en la lente para reducir el reflejo de la lente tanto como sea posible. Debido a que el recubrimiento sólo puede reducir el reflejo de un determinado color de luz, es imposible permitir que toda la luz entre en la lente. Por lo tanto, nuestro recubrimiento general se enfoca principalmente en reducir el reflejo de la luz verde, porque el ojo humano es muy sensible a la luz verde. También hay un recubrimiento para mejorar la resistencia al desgaste de la lente y hacer que sea menos probable que la lente del objetivo se raye.
El objetivo principal del uso de múltiples lentes es corregir la "distorsión" causada por una sola lente. Debido a que hay muchos tipos de luz que pasan a través de la lente, el índice de refracción de la luz misma en la misma lente es diferente. Después de pasar a través de la lente, se producirá una aberración debido a la interferencia de la lente. Existen muchos tipos de aberraciones, como la aberración esférica, el halo, la pérdida de luz, etc. Podemos ver que algunas fotografías tomadas con teléfonos móviles o cámaras baratas tienen un pequeño círculo en el centro. Debido a que se utiliza una lente, el fenómeno de difracción de la lente no se puede corregir, lo que produce aberración. También se produce distorsión de la imagen, que también se debe a que el camino óptico no está corregido.
Después de determinar el objeto a fotografiar, apuntamos la lente de la cámara al objeto objetivo. En este momento, la lente objetivo o el grupo de lentes objetivo ajustará la distancia entre él y el dispositivo fotosensible de acuerdo con la señal de control del sistema de enfoque automático (completado por el controlador central de la cámara, que se presentará más adelante), de modo que la La imagen del objeto cae exactamente sobre el CCD/CMOS. Esto da como resultado una imagen clara. Un indicador muy importante de una lente es su distancia focal. La distancia focal es la distancia desde el centro del "ocular" de la lente (la última lente) hasta el punto donde convergen los rayos de luz que pasan. Algunas cámaras digitales ahora tienen sus propios lentes que pueden cambiar la distancia focal. Este tipo de lente cambia la distancia entre los elementos dentro de la lente, lo que permite que la lente de la cámara acerque o aleje objetos como un telescopio.
Sin embargo, dado que el estado de funcionamiento óptimo de este tipo de lente es la distancia focal normal, después de hacer zoom, la imagen se deformará o distorsionará debido a algunas formas físicas inmutables de la propia lente.
En el camino de la luz, se debe controlar la intensidad de la luz para adaptarse a los diferentes entornos de disparo. Este "control de la luz" se logra mediante la apertura. La apertura es un conjunto de "válvulas" dentro de la lente, formadas por varios materiales opacos que rodean un círculo. La cantidad de luz que pasa a través de la lente se puede controlar cambiando el diámetro de este círculo. Las principales funciones de la apertura son: 1. Ajuste la luz y controle el flujo de luz; 2. Reducir la apertura puede reducir la aberración residual de la lente 3. Reducir la apertura puede aumentar la profundidad de campo, uniformar la luz incidente y evitar oscurecer las cuatro esquinas de la imagen; 4. El uso de una apertura grande puede reducir la profundidad de campo y desenfocar las imágenes desenfocadas para resaltar el sujeto. En términos generales, la profundidad de campo se refiere a si la escena detrás del objeto objetivo se puede visualizar con claridad. La apertura generalmente está representada por f, como F8/F5.6, etc. Cuanto mayor sea el valor de este último, menos luz se podrá transmitir y menor será la apertura.
El control de apertura es generalmente automático, es decir, el controlador central proporciona el número de apertura óptimo a esta velocidad de obturación y sensibilidad a través del sistema de medición, y luego controla la apertura para cambiar el valor. En algunas cámaras, también hay un modo manual donde el usuario puede cambiar el número de apertura por sí mismo.
Sensor CCD/CMOS;
El sensor CCD/CMOS es uno de los componentes más importantes de una cámara digital, y también es la diferencia fundamental entre las cámaras digitales y las cámaras de película tradicionales. . El nombre completo de CCD es dispositivo de carga acoplada, que se traduce como "dispositivo óptico de carga acoplada". El nombre completo de CMOS es semiconductor de óxido metálico complementario, que significa "semiconductor de óxido metálico complementario". Los principios de funcionamiento de CCD y CMOS tienen un punto de conexión * * *, que consiste en utilizar fotodiodos como elementos de conversión de señales fotoeléctricas.
Como se mencionó anteriormente, la cantidad total de luz de diferentes colores que pasa a través de un determinado filtro de color es diferente. Cuando instalamos un filtro verde en un fotodiodo, éste debe dejar pasar la luz verde, pero su profundidad puede ser diferente debido al color de la luz incidente. Por tanto, utilizamos cuatro fotodiodos para obtener la luz reflejada del objeto. La unidad r puede obtener una luz roja; la unidad b puede obtener una luz azul; la unidad g puede obtener una luz verde. El color de la luz original se puede obtener procesando la señal de cuatro unidades (dos unidades G de 50).
El sensor CCD tiene una característica de funcionamiento importante: la salida del sensor CCD es una señal de corriente continua. En el diseño de CCD, no hay un amplificador de señal configurado a su alrededor como CMOS, pero se configura un búfer para conectar una señal a una salida de señal de corriente que cambia continuamente de acuerdo con un cierto ciclo de reloj. En la salida, el procesador de imágenes determina la ubicación física de la señal en función del período de la señal del reloj.
El fotodiodo es un componente analógico que puede emitir una señal de corriente o tensión constante y continua en respuesta a señales luminosas recibidas de diferentes intensidades. Cuantificar estas señales, es decir, "digitalizar", significa clasificar las señales de corriente o las señales de tensión según sus diferentes intensidades. Por ejemplo, la salida de señal de voltaje cuando el fotodiodo recibe (un cierto valor) luz de intensidad máxima se establece en el nivel 255; el tiempo de iluminación cuando no hay luz es 1; De esta manera, hay 256 niveles entre los valores máximo y mínimo, y el procesador de imágenes utiliza un método de "redondeo" similar para clasificar la intensidad de la señal, convirtiendo así en última instancia la señal analógica de corriente/voltaje que cambia continuamente en una señal digital discreta y estable. . Las cámaras digitales actuales generalmente se calculan basándose en el hecho de que la señal de salida de cada fotodiodo se puede cuantificar en 256 niveles. En este estado, los tres fotodiodos pueden tener 256*256*256 colores. Debido a que 256 es esencialmente un número binario de 8 bits y 256 colores es un canal de 8 bits, una cámara digital de este tipo tiene 8 bits * 8 bits * 8 bits = 24 bits.
Un sensor CMOS es también un fotodiodo que convierte señales luminosas en señales eléctricas. La diferencia es que CMOS emite una señal de voltaje. El sensor dispone de un amplificador independiente para cada fotodiodo.
Esto se debe a que el sensor está hecho de materiales que no pueden impedir que los electrones se muevan libremente sobre él como un CCD, por lo que las señales del sensor CMOS interfieren mucho entre sí, lo que resulta en muchas interferencias parásitas. Para amplificar lo más posible la señal de voltaje extremadamente débil y fácilmente interferida emitida por el fotodiodo, se debe instalar un amplificador cerca del fotodiodo para amplificarla antes de emitirla, de modo que incluso si se interfiere, el impacto será débil. Sin embargo, es difícil que los parámetros de estos amplificadores sean completamente consistentes y las diferencias en sus parámetros conducen a algunas diferencias en los resultados finales del cálculo. Esta es también la razón. Vemos que muchas imágenes de cámaras con sensores CMOS o cámaras digitales de gama baja tienen mucho ruido blanco o manchas de otros colores. Esto se debe a la interferencia mutua de señales, provocando que el amplificador no amplifique la señal correctamente.
En las cámaras digitales, el ajuste de la sensibilidad se consigue cambiando el aumento del amplificador del fotodiodo. Por ejemplo, cuando no hay suficiente luz, podemos aumentar el factor de amplificación del amplificador de señal para que el posterior convertidor analógico a digital pueda obtener una señal de voltaje/corriente de salida más alta. Esto da como resultado una imagen con una señal de brillo más fuerte que sin ajustar la ampliación.
En las cámaras digitales de uso general, los sensores generalmente se fabrican de acuerdo con los principios anteriores. Como máximo, se realiza algún trabajo en la disposición de los fotodiodos.
Controlador central:
El centro es el cerebro de la cámara digital. Todas las acciones de la cámara digital, como la autoprueba de encendido, el manejo de errores, etc., son. emitido por el controlador central. El controlador central es un DSP (procesamiento de señal digital) programable. Hay un FLASH de pequeña capacidad periféricamente o internamente, que se encarga de almacenar algunas declaraciones del programa. Con base en estas declaraciones del programa, el controlador central responde a varias operaciones de la cámara, como juzgar la intensidad de la luz del entorno, ajustar la ampliación del amplificador del fotodiodo, usar o no el flash, qué velocidad de obturación y apertura usar, etc. .
Procesador de imágenes:
En el procesador de imágenes, además de calcular el color de cada píxel, también se debe ordenar según un determinado ciclo de reloj para formar una imagen completa. En algunos casos, una imagen debe comprimirse en un formato determinado para hacerla más pequeña. El procesador de imágenes es esencialmente un procesador DSP programable. De hecho, la calidad de los algoritmos del procesador de imágenes tiene un gran impacto en la calidad de las imágenes procesadas.
Después de cuantificar la señal de voltaje/corriente, el procesador de imagen debe calcular el color del píxel. Por ejemplo, el valor obtenido en unidades R es 255, en unidades G 153 y en unidades B 51. Luego, el procesador de imágenes sustituye los tres valores anteriores de acuerdo con su propio algoritmo definido y obtiene un color con un valor R de 255, un valor G de 153 y un valor B de 51.
En el proceso de procesamiento de imágenes se suele utilizar el algoritmo de "cálculo de interpolación". La llamada interpolación consiste en agregar algunos datos entre datos discretos para que este conjunto de datos discretos pueda ajustarse a una función continua. Usando la interpolación, podemos estimar el valor de la función en otros lugares a través del valor de la función en puntos finitos, es decir, a través de datos limitados, para obtener una descripción matemática completa. En términos generales, cuando aumentamos los valores de píxeles de una imagen, utilizamos un algoritmo de interpolación. Hay tantos píxeles en la imagen, pero podemos usar software para calcular el valor medio de dos píxeles e insertarlo entre los dos píxeles. Este método realmente no aumenta los detalles de resolución de la imagen, pero los píxeles calculados por interpolación generalmente no están lejos de la situación real y aún es útil en algunas situaciones (por ejemplo, si desea ampliar la imagen pero no desea aliasing de mosaico). Hoy en día, algunos anuncios de cámaras afirman que la cantidad máxima de píxeles que pueden disparar sus productos, debe prestar atención a si son píxeles válidos, si es solo interpolación, no significa mucho, porque teóricamente el cálculo de la interpolación puede ser infinito.
De esta forma, las imágenes resultantes se ordenan según la posición física de los fotodiodos resultantes, de modo que se obtiene la imagen completa sin comprimir y se almacena en la memoria RAM dinámica de acceso aleatorio. Si no hay ningún requisito de compresión, se escribirá en el almacenamiento FLASH o se transferirá a otros dispositivos a través de la interfaz.
Al comprimir imágenes, JPG es el formato de compresión preferido para las cámaras digitales porque JPG tiene una relación de compresión muy alta y puede configurar la calidad de la imagen de acuerdo con los requisitos de capacidad del usuario.
En realidad, la relación de capacidad de una imagen TIFT con contenido complejo y una JPG con el mismo contenido pero la diferencia es difícil de detectar a simple vista puede alcanzar aproximadamente 5:1 o incluso más.
El método de compresión JPG se puede dividir aproximadamente en tres pasos (tenga en cuenta que la transformación de coseno discreto apunta a un valor entre R, G y B, en lugar de los valores procesados de R, G y B). , entonces la transformada de coseno discreta Los coeficientes son códigos de componentes de color, que van de 1 a 255): 1. Transformada de coseno discreta (DCT), elimina la imagen. 2. Cuantificar la imagen. La cuantificación es una disposición estructural específica basada en las características fisiológicas del ojo humano, y la tabla de cuantificación es una tabla estandarizada que determina estas disposiciones. 3. Codificación: comprime estadísticamente los datos en sí para minimizar el flujo de datos de la imagen comprimida; En el proceso de transformación de coseno discreta, la imagen primero se divide en 8 * 8 bloques de imagen pequeños y luego se realiza la transformación DCT en cada bloque de imagen. La transformación DCT es una transformación ortogonal con las siguientes características: primero, no hay distorsión y todo el proceso es reversible; segundo, la correlación se puede eliminar; tercero, la energía se redistribuye y concentra en la esquina superior izquierda de la imagen; Distribución de triángulo invertido. Tome un bloque de imagen pequeño de 8 * 8 como ejemplo. ** Contiene 8*8=64 valores de muestra. Después de la transformación DCT, todavía son 64 valores de muestra, lo que no puede lograr el propósito de comprimir la velocidad del código. Sin embargo, al cuantificar y redondear, la tabla de cuantificación se ajusta a las características del ojo humano, es decir, se establece una cuantificación fina para el componente de baja frecuencia en la esquina superior izquierda de la imagen y una cuantificación gruesa para las partes restantes. , es decir, los componentes de alta frecuencia. En este momento, la mayoría de los coeficientes en la cuadrícula son cero; luego, después de leer los datos en forma de Z mediante un escaneo en zigzag, solo la parte frontal de esta cadena de datos es más grande y el resto es más pequeño, o incluso cero; . En este momento, la codificación de ejecución cero puede comprimir eficazmente la velocidad digital. En algunos lugares con fuerte contraste, como algunos bordes, encontraremos que los píxeles de esos bloques no están alineados en absoluto, también hay algunos fenómenos de "halo" y "fantasma" que aparecen durante el proceso de cuantificación de pequeños bloques de imágenes; Pero si la relación de compresión es baja, estas distorsiones son muy pequeñas y generalmente no las notaremos. Después de la cuantificación, la imagen debe codificarse, es decir, una serie de datos se ponen en cola y los datos se comprimen sin pérdidas utilizando el principio de probabilidad. La codificación de Huffman es el método de codificación más utilizado en codificación y es un tipo de codificación estadística. En términos generales, la codificación de longitud de palabra variable se refiere a la codificación de Huffman. La codificación de Huffman debe acordarse de antemano y almacenarse en una tabla de codificación para facilitar la comparación posterior. Sólo decodificando podemos descubrir correctamente lo que representa la codificación. El método específico consiste en poner en cola una cadena de datos de acuerdo con la probabilidad de aparición del símbolo y luego agregar las dos probabilidades mínimas como la nueva probabilidad y la probabilidad restante para poner en cola nuevamente, y así sucesivamente, hasta que la suma final de probabilidades sea 1. Cada vez, a "0" y "1" se les dan dos probabilidades aditivas. Cuando se leen, comienzan desde el símbolo y continúan hasta el último "1". Los "0" y "1" que se encuentran en la ruta están ordenados desde el bit más bajo hasta el más alto. Esta es la codificación de Huffman. símbolo. Los números binarios generados de esta manera son los datos sustanciales de JPEG. Pero a menudo no solo transferimos imágenes, sino que también organizamos el flujo y el empaquetado de datos. La organización del flujo de datos consiste en combinar varios códigos de marca y datos de imagen codificados en datos cuadro por cuadro para facilitar la transmisión, el almacenamiento y la decodificación por parte del decodificador. El empaquetado es la interpretación de los números binarios producidos por la codificación para que el decodificador pueda decodificar correctamente la imagen. El paquete general también incluye algunos datos sobre la cámara cuando se tomó la foto, como el modelo de cámara/apertura/obturador/resolución/fecha. Estos datos luego pueden transferirse al circuito de interfaz, escribirse en FLASH o transferirse a otros dispositivos de procesamiento externos.
Memoria:
La memoria suele ser un periférico en una cámara digital. Sólo contiene un chip FLASH de pequeña capacidad, que no es suficiente para tomar fotografías de alta resolución. Las memorias comunes incluyen CF (Compact Flash), SM (Smart Media), MMC (Multi Media Card), SDC (Secure Digital Card), MSD (Memory Stick Duo), micro disco duro de IBM, etc. Pero por lo general, salvo los productos de IBM, estas memorias utilizan FLASH como elemento de almacenamiento. Veamos cómo la memoria flash almacena datos de su microestructura interna.
Sabemos que el almacenamiento de números binarios se logra principalmente mediante un simple cambio. Lo mismo ocurre con la memoria flash. En su interior hay una serie de "interruptores" que no temen los cortes de energía. El encendido y apagado de estos "interruptores" representan un número binario 0, 1, por lo que una serie de interruptores puede representar muchos números binarios y luego, al convertir estos números binarios, podemos obtener los datos significativos que normalmente vemos.
El chip FLASH consta de muchos conjuntos de tubos MOS de puerta aislada dispuestos en un orden determinado. El "encendido/apagado" del chip FLASH se realiza principalmente a través de estos transistores MOS. La capa inferior del transistor MOS de puerta aislada es la unión NP de un transistor. Hay un polisilicio flotando en la unión NP y está rodeado por una capa de óxido de campo.
Cuadrícula. La "flotación" de esta puerta flotante forma una zanja conductora entre la fuente y el drenaje del transistor MOS. Si hay suficiente carga en la puerta flotante sin depender de la fuente de alimentación, la fuente y el drenaje del transistor MOS se pueden encender y el propósito de guardar datos se puede lograr incluso en caso de un corte de energía. La aplicación de un voltaje directo entre la fuente y la puerta del tubo MOS hace que la carga en la puerta flotante se difunda hacia la fuente, haciendo que la fuente y el drenaje no sean conductores si se aplica un voltaje directo entre la fuente y la puerta U-1; pero al mismo tiempo, se aplica un voltaje directo U-2 entre la fuente y el drenaje, y U-2 siempre es menor que U-1, entonces la carga en la fuente se difundirá hacia la compuerta y cargará la compuerta flotante, por lo que La fuente y el drenaje se pueden conectar. Dado que la compuerta flotante es "flotante" y no hay circuito de descarga, la carga en la compuerta flotante no puede difundirse a otros lugares durante mucho tiempo cuando se apaga la energía, de modo que la fuente y el drenaje permanecen "encendidos/apagados".
De esta forma, el controlador se conecta al procesador gráfico a través de una determinada interfaz. Después de recibir el comando de escritura, las fuentes de alimentación de fuente y puerta, fuente y drenaje de un tubo MOS se controlan para que se enciendan o apaguen, de modo que el tubo MOS se encienda o apague, logrando así el propósito de almacenar datos.
A través del análisis anterior, tenemos una comprensión general de los principios de funcionamiento de cada parte de la cámara digital. Aunque algunos productos en el mercado afirman utilizar muchas de las llamadas nuevas tecnologías, su rendimiento es mejor que el de otros productos. Sin embargo, los principios básicos de funcionamiento de las cámaras digitales siguen siendo los mismos. La mayoría de esas nuevas tecnologías son pequeñas "mejoras" y en realidad no cambian los principios básicos de funcionamiento de las cámaras digitales.
La popularidad de las cámaras digitales es una buena noticia para la gente moderna. La aparición de cámaras y videocámaras digitales ha permitido que más personas disfruten del placer del arte. El arte ya no es dominio exclusivo de quienes tienen costosas cámaras SLR y fuertes recursos financieros. Con la llegada de los recortes de precios, cada vez más personas están empezando a utilizar cámaras digitales de alta calidad para grabar las fugaces historias que les rodean a alta velocidad y alta calidad. Son estas historias aleatorias las que mantienen el sabor de nuestra era en la memoria de las personas para siempre. Tenemos que decir: la tecnología ha cambiado el mundo.