Quién publicó la teoría de la comunicación de los sistemas de seguridad en 1949
En 1949, Shannon publicó "Teoría de la comunicación de los sistemas de seguridad".
Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático estadounidense y fundador de la teoría de la información. Recibió una licenciatura de la Universidad de Michigan en 1936. Recibió su maestría y doctorado en el Instituto de Tecnología de Massachusetts en 1940 e ingresó a los Laboratorios Bell en 1941.
Shannon propuso el concepto de entropía de la información, sentando las bases de la teoría de la información y las comunicaciones digitales. Sus principales artículos incluyen la tesis de maestría de 1938 "Análisis simbólico de circuitos de relés y conmutadores", los "Principios matemáticos de la comunicación" de 1948 y la "Comunicación bajo ruido" de 1949. El Premio Shannon, creado en memoria de Claude Elwood Shannon, es el premio más importante en el campo de la teoría de la comunicación y también se conoce como el "Premio Nobel en el campo de la información".
Logros de Claude Elwood Shannon
Una característica importante de la teoría de Shannon es el concepto de entropía. Demostró que la entropía es igual al grado de incertidumbre de la relación de precios de la información. La entropía fue alguna vez un concepto introducido por Boltzmann en la segunda ley de la termodinámica. Podemos entenderla como el grado de desorden del movimiento molecular. Shannon amplió el concepto de entropía en física estadística al proceso de comunicación de canales, creando así la disciplina de la "teoría de la información".
La "entropía" definida por Shannon también se llama "entropía de Shannon" o "entropía de información", es decir, i marca todas las muestras posibles en el espacio de probabilidad, lo que indica la probabilidad de que ocurra la muestra, y K es la unidad de suma. Elija cualquier constante relevante. Se puede ver claramente que la definición de "entropía de la información" y la definición de "entropía termodinámica" (fórmula de Boltzmann) sólo difieren en una determinada constante de proporcionalidad.
La entropía se refiere al grado de caos de un sistema. Tiene importantes aplicaciones en cibernética, teoría de la probabilidad, teoría de números, astrofísica, ciencias de la vida y otros campos, y también está extendida en diferentes disciplinas más específicas. La definición de es un parámetro muy importante en varios campos. La entropía fue propuesta por Rudolf Clausius y utilizada en termodinámica. Claude Elwood Shannon introdujo por primera vez el concepto de entropía en la teoría de la información.