Colección de citas famosas - Consulta de diccionarios - Principio de detección comprimida

Principio de detección comprimida

La idea central es combinar compresión y muestreo. Primero se adquiere una proyección lineal no adaptativa de la señal (medidas), y luego se reconstruye la señal original a partir de las mediciones según el algoritmo de reconstrucción correspondiente. La ventaja de la detección comprimida es que la cantidad de datos de medición de proyección es mucho menor que la obtenida con los métodos de muestreo tradicionales, lo que rompe el cuello de botella del teorema de muestreo de Shannon y permite recopilar señales de alta resolución.

La representación escasa de la señal significa que cuando la señal se proyecta sobre la base de transformación ortogonal, los valores absolutos de la mayoría de los coeficientes de transformación son pequeños y el vector de transformación resultante es escaso o cercano a escasa, que se considera la simplicidad de la señal original. Ésta es una condición a priori para la detección comprimida, es decir, la señal debe ser escasa bajo ciertas transformaciones. Por lo general, la base de transformación se puede seleccionar de manera flexible de acuerdo con las características de la señal en sí, como la base de transformada de coseno discreta, la base de transformada rápida de Fourier, la base de transformada de wavelet discreta, la base de curva, la base de Gabor y el diccionario redundante, etc. Al codificar mediciones, primero se selecciona una matriz de proyección estable. Para garantizar que la proyección lineal de la señal pueda mantener la estructura original de la señal, la matriz de proyección debe satisfacer la condición isométrica restringida (RIP), y luego la señal original se multiplica por la matriz de medición para obtener la medición de proyección lineal. de la señal original. Finalmente, se utiliza un algoritmo de reconstrucción para reconstruir la señal original a partir de las mediciones y la matriz de proyección. El proceso de reconstrucción de señales generalmente se transforma en un problema de optimización de la norma mínima L0. Los principales métodos de solución incluyen el método de la norma mínima L1, el método de series de búsqueda coincidentes, el método de variación total mínima, el método de umbral iterativo, etc.

El teorema de muestreo (también conocido como teorema de muestreo y teorema de muestreo) es la regla que se sigue en el proceso de muestreo de señales de banda limitada. Fue propuesto por primera vez por el ingeniero de telecomunicaciones estadounidense H. Nyquist en 1928, por lo que se denomina teorema de muestreo de Nyquist. En 1948, Shannon, el fundador de la teoría de la información, explicó claramente este teorema y lo citó formalmente como un teorema, por lo que en muchas literaturas también se le llama teorema de muestreo de Shannon. Esta teoría gobierna la adquisición, procesamiento, almacenamiento y transmisión de casi todas las señales/imágenes, es decir, la frecuencia de muestreo es no menos del doble de la frecuencia más alta (esta frecuencia de muestreo se llama frecuencia de muestreo de Nyquist). La adquisición, el almacenamiento, la fusión, el procesamiento y la transmisión de información bajo la guía de esta teoría se ha convertido en uno de los principales obstáculos en el desarrollo posterior del campo de la información, principalmente en dos aspectos:

(1) Recopilación de datos y procesamiento. Para una única señal/imagen (amplitud), en muchas aplicaciones prácticas (por ejemplo, comunicaciones de banda ultraancha, procesamiento de señales de banda ultraancha, imágenes de terahercios, resonancia magnética nuclear, detección espacial, etc.). ), el hardware de muestreo de Nyquist es caro e ineficiente y, en algunos casos, incluso imposible de implementar. Para superar las limitaciones del teorema de muestreo de Nyquist, se han desarrollado algunas teorías, ejemplos típicos de las cuales incluyen la teoría de Landau, la teoría de muestreo no uniforme de Paplis y la teoría mejorada de muestreo de señales de tasa de innovación de Vitelli. Para datos multicanal (o multimodales) (por ejemplo, redes de sensores, formación de haces, comunicaciones inalámbricas, exploración espacial, etc.), el costo del hardware es elevado, la redundancia de información y la eficiencia de la extracción efectiva de información son bajas, etc.

(2) Almacenamiento y transmisión de datos. La práctica común es obtener primero los datos según el método Nyquist, luego comprimir los datos obtenidos y finalmente almacenar o transmitir los datos comprimidos. Evidentemente, este método provoca un enorme desperdicio de recursos. Además, para garantizar la transmisión segura de información, la tecnología de cifrado habitual consiste en codificar la señal de alguna manera, lo que trae ciertos problemas a la transmisión y recepción segura de información.

En resumen, la teoría de Nyquist-Shannon no es la única y óptima teoría del muestreo. Estudiar cómo superar los métodos de adquisición, procesamiento, fusión, almacenamiento y transmisión de información respaldados por la teoría de muestreo de Nyquist-Shannon es la clave para promover un mayor desarrollo en el campo de la información. Como todos sabemos, (1) la frecuencia de muestreo de Nyquist es una condición suficiente para una recuperación precisa de la señal, pero de ninguna manera es una condición necesaria. (2) Además del ancho de banda que puede utilizarse como información previa, la mayoría de las señales/imágenes en aplicaciones prácticas tienen una gran cantidad de estructura. Según la teoría bayesiana, la utilización de esta información estructural puede reducir en gran medida la cantidad de recopilación de datos. (3) La teoría de Johnson-linden Strauss muestra que las mediciones de K 1 son suficientes para recuperar con precisión K señales dispersas en un espacio n-dimensional con una probabilidad abrumadora.

D. Donoho (Académico de la Academia Nacional de Ciencias), E. Candes (Fundador de Ridgelet, Curvelet) y el científico chino T. Tao (ganador de la Medalla Fields en 2006, nombrado mejor del mundo). Los científicos más inteligentes) y otros han propuesto una nueva teoría rectora para la adquisición de información, a saber, Compressed Sensing o Compressed Sensing (CS) o Compressed Sensing. La teoría establece que las señales comprimibles se pueden muestrear muy por debajo del criterio de Nyquist y la señal original aún se puede recuperar con precisión. Una vez que se propuso esta teoría, atrajo gran atención en los campos de la teoría de la información, el procesamiento de señales/imágenes, las imágenes médicas, el reconocimiento de patrones, la exploración geológica, las imágenes ópticas/de radar, las comunicaciones inalámbricas y otros campos. diez en 2007 por "American Technology Review" Progreso tecnológico. La investigación sobre la teoría de la CS todavía está en su infancia, pero ha demostrado una gran vitalidad y ha desarrollado la teoría de la CS distribuida (propuesta por Baron et al.), la teoría de la CS de 1 bit (propuesta por Baraniuk et al.) y la teoría de la CS bayesiana. (propuesta por Carin et al.), teoría CS de dimensión infinita (propuesta por Elad et al.), teoría CS deformada (propuesta por Meyer et al.), etc., y se han convertido en puntos críticos de investigación en el campo de las matemáticas.