Colección de citas famosas - Consulta de diccionarios - 1. Conocimientos básicos de colección de vídeos.

1. Conocimientos básicos de colección de vídeos.

El término "espacio de color" tiene su origen en el "espacio de color" occidental, también conocido como "gama de color". En la ciencia del color, la gente ha establecido una variedad de modelos de color, basados ​​en unidimensionales y dos. -dimensional y tridimensional Incluso las coordenadas espaciales de cuatro dimensiones pueden representar un determinado color. El rango de color que este sistema de coordenadas puede definir es el espacio de color. Los espacios de color que utilizamos habitualmente incluyen principalmente RGB, CMYK, Lab, etc.

El modelo de color es un modelo matemático abstracto que describe el color a través de un conjunto de valores numéricos. (Por ejemplo: normalmente los tres modos de luz de colores primarios (RGB) usan triples y el modo de separación de cuatro colores de impresión (CMYK) usa cuádruples)

El modo Laboratorio fue anunciado por la Comisión Internacional de Iluminación (CIE ) en 1976 Un modo de color.

El modo RGB es un modo de color aditivo para pantallas luminosas y el modo CMYK es un modo de color sustractivo para impresión reflectante de color. El modo Lab no depende de la luz ni de los pigmentos. Es un modo de color determinado por la organización CIE que teóricamente incluye todos los colores visibles para el ojo humano, compensando las deficiencias de los dos modos de color RGB y CMYK. Como puede ver en el canal Lab, esta combinación de colores producirá colores brillantes.

En cuanto a la expresión de la gama de colores, comparación del número de colores: Lab > RGB > CMYK, lo que significa que el modo Lab define la mayor cantidad de colores, y está relacionado con la luz y el equipo, y la velocidad de procesamiento. es lo mismo que el modo RGB es igualmente rápido, el modo CMYK es varias veces más rápido.

El modelo RGB es una expresión de información de color de uso común. Utiliza el brillo de los tres colores primarios: rojo, verde y azul para representar cuantitativamente los colores.

El espacio del modelo RGB es un cubo unitario. Cada punto del cubo corresponde a un color diferente, que puede representarse mediante un vector desde el origen hasta el punto. Los tres valores de coordenadas son las proporciones de rojo, verde y azul respectivamente. En los sistemas digitales esta unidad de espacio está discretizada, normalmente cada componente está representado por un número entero de 8 bits, por lo que cada píxel requiere 24 bits.

Modelo RGB---gama de colores (sRGB, Adobe RGB, CMYK)

Modelo RGB---disposición interna

Formato RGB común: RGBA32, BGRA32 , RGB24

El modelo de color YUV aprovecha el hecho de que la visión humana es más sensible al brillo que a la crominancia para obtener ventajas sobre el modelo de color RGB, y se utiliza ampliamente en sistemas de televisión en color. El modelo de color YUV separa la información de brillo de la información de croma y utiliza diferentes frecuencias de muestreo para el brillo y la croma de la misma imagen de cuadro. En el modelo de color YUV, la información de brillo Y y la información de crominancia U\V son independientes entre sí. El componente de la señal Y es una imagen en escala de grises en blanco y negro. Los componentes de la señal U y V son imágenes monocromáticas en color. Similar al conocido RGB, YUV también es un método de codificación de colores, que se utiliza principalmente en sistemas de televisión y campos de video analógicos. Separa la información de brillo (Y) y la información de color (UV). Se puede mostrar una imagen completa sin información UV. Es solo blanco y negro. Este diseño resuelve el problema de compatibilidad entre televisores en color y televisores en blanco y negro. Además, YUV no requiere que se transmitan tres señales de vídeo independientes al mismo tiempo como RGB, por lo que la transmisión YUV ocupa muy poco ancho de banda.

Hay dos tipos principales de formatos YUV: plano y empaquetado

Para el formato YUV de plano, la Y de todos los píxeles se almacena primero de forma continua, seguida de la U de todos los píxeles. , seguido de V para todos los píxeles. Para el formato YUV empaquetado, Y, U y V de cada píxel se almacenan en una cruz continua.

YUV se divide en tres componentes. "Y" representa el brillo (Luminancia o Luma), que es el valor de gris mientras que "U" y "V" representan la crominancia (Crominancia o Croma), que se utiliza; para describir el color y la saturación de imágenes y se utiliza para especificar el color de los píxeles.

Los formatos YUV comunes incluyen YUY2, YUYV, YVYU, UYVY, AYUV, Y41P, Y411, Y211, IF09, IYUV, YV12, YVU9, YUV411, YUV420, etc. Entre ellos, se divide el YUV420 más común. en dos tipos: YUV420P y YUV420SP.

Los formatos de muestreo comúnmente utilizados para YUV son: YCbCr 4:2:0, YCbCr 4:2:2, YCbCr 4:1:1 y YCbCr 4:4:4.

La representación de YUV se llama representación A:B:C:

4:4:4 significa muestreo completo. Cada Y corresponde a un conjunto de componentes UV, y un YUV ocupa. 8 +8+8 = 24 bits 3 bytes, píxeles de 24 bits

4:2:2 significa muestreo plano 2:1, muestreo vertical completo, un grupo por cada dos componentes UV Y***s, un YUV ocupa 8+4+4 = 16 bits 2 bytes

4:2:0 significa muestreo horizontal 2:1, muestreo vertical 2:1, píxeles de 12 bits

p>

4:1: 1 significa muestreo horizontal 4:1, muestreo vertical completo, píxeles de 12 bits

No entraré en detalles sobre cada método de muestreo aquí.

Modelo YUV --- Gama de colores (diferentes estándares: YIQ, PAL, YCbCr)

La recolección de audio y video se basa principalmente en equipos de recolección de hardware de audio y video.

El sensor de imagen de adquisición de vídeo (CCD o CMOS, etc.) se utiliza en el proceso de adquisición y procesamiento de imágenes para convertir imágenes en señales eléctricas.

Las pastillas y los micrófonos (sensores de sonido) se utilizan en el proceso de recolección y procesamiento del sonido para convertir los sonidos en señales eléctricas.

Equipo de adquisición física: cámara USB, cámara SOC, tarjeta de captura

Zoom digital

El zoom digital es un cambio hacia arriba en la dirección vertical del dispositivo fotosensible, lo que le da a las personas un efecto de zoom. Cuanto más pequeña sea el área del dispositivo fotosensible, más visualmente verá el usuario sólo una parte de la escena. Sin embargo, dado que la distancia focal no cambia, la calidad de la imagen es peor de lo normal (a excepción de la tecnología pureeview)

Zoom óptico

El zoom óptico utiliza la lente, el objeto y el enfoque causado. por cambios de posición. Cuando el plano de imagen se mueve en dirección horizontal, la visión y la distancia focal cambiarán y el paisaje distante se volverá más claro, dando a las personas la sensación de un objeto progresivo.

Distancia focal

La distancia focal, también llamada distancia focal, es una medida de la concentración o divergencia de la luz en un sistema óptico. Se refiere a la distancia desde el centro de la lente. al foco donde se acumula la luz. También es la distancia desde el centro óptico de la lente hasta el plano de imagen, como la película, CCD o CMOS de una cámara. De hecho, si reemplaza "distancia focal" con otra palabra, todos la entenderán completamente: "campo de visión". Por lo tanto, una lente de distancia focal corta tiene un campo de visión amplio, también llamado lente gran angular; una lente de distancia focal larga tiene un campo de visión pequeño y una lente de distancia focal estándar tiene un campo de visión igual al de nuestros ojos; ver.

Enfoque

Enfocar también se llama apuntar y enfocar. El enfoque es el proceso de cambiar la distancia del objeto y la posición de la distancia a través del mecanismo de enfoque de la cámara para aclarar la imagen del sujeto.

Latencia (retraso de adquisición, retraso general)

Retraso general: el tiempo desde la adquisición hasta el renderizado y visualización de la imagen.

La recopilación de software consiste en recopilar datos de vídeo a través de la recopilación de software, y la recopilación de pantalla es común.

Captura de pantalla

Android MediaProjection

Después de la versión de Android 5.0, continúe usando el método MediaProjection para obtener la transmisión de video en pantalla.

El uso y los principios específicos son los siguientes

iOS - ReplayKit