Un chico me envía mensajes de texto todos los días.
Muchas ventas se aprovechan de la psicología humana. Envían algunos mensajes a los clientes todos los días, como un simple saludo, y lo cumplen. Poco a poco, los clientes se acostumbrarán a su presencia y su relación se estrechará de forma invisible.
Hay un nuevo objetivo.
No te preocupes, aunque la información es incierta, todavía hay formas de cuantificarla. Según el concepto de información, las personas pueden concluir que la información tiene las siguientes características:
1. Cuanto mayor es la probabilidad P (x) de un mensaje, menor es la cantidad de información y, por el contrario, menor es la información. probabilidad de ocurrencia, mayor es la cantidad de información. Se puede ver que la cantidad de información (usamos I para representarla) es inversamente proporcional a la probabilidad de que ocurra el mensaje.
2. Cuando la probabilidad es 1, todos saben todo lo que pasó, por lo que la cantidad de información es 0.
3. Cuando un mensaje consta de varios mensajes pequeños independientes, la información contenida en este mensaje debe ser igual a la suma de la información contenida en cada mensaje pequeño.
De acuerdo con estas características, si se representa mediante una función matemática logarítmica, puede expresar la relación entre la cantidad de información y la probabilidad de ocurrencia del mensaje: I=-loga(P(x)). ¿De esta forma no se puede cuantificar la información? Dado que la información se puede cuantificar, entonces debemos darle una unidad, ¿verdad? El peso de una persona se mide en kilogramos y la altura de una persona se mide en metros. Entonces, ¿en qué unidad se debe medir la cantidad de información? Normalmente, la cantidad de información se mide en bits, lo cual es más conveniente porque la cantidad de información en una forma de onda binaria es exactamente igual a 1 bit.