Red de conocimientos turísticos - Evaluación hotelera - La naturaleza, ubicuidad, dependencia y oportunidad del disfrute de la información.

La naturaleza, ubicuidad, dependencia y oportunidad del disfrute de la información.

A continuación se incluyen ejemplos de características de la información:

Unosidad de la información: durante la crisis financiera de 2008, los mercados bursátiles mundiales en general cayeron.

Dependencia de la información: La baliza encendida por los soldados no es el mensaje en sí. El significado que contiene es que hay una invasión de enemigos extranjeros. Esta es la baliza es sólo un portador para expresar. y transmitir información.

Disfrute de la información: Bernard Shaw tiene una vívida metáfora del disfrute de la información. Tú tienes manzanas, yo tengo manzanas. Si intercambias, cada uno de nosotros todavía tendrá una manzana. Si tienes una idea, yo también tengo una idea. Cuando interactuamos entre nosotros, todos tenemos dos mentes, si no más.

Este ejemplo muestra que la información no se verá reducida por el * * * disfrute como las sustancias, sino que se puede deducir del * * * disfrute. . Puntualidad de la información: Por ejemplo, las previsiones meteorológicas sólo son útiles durante unas horas y luego dejan de ser válidas "no se puede ver el antiguo almanaque";

Datos ampliados:

Características de la información

No te preocupes, aunque la información es incierta, hay formas de cuantificarla. Según el concepto de información, las personas pueden concluir que la información tiene las siguientes características:

1. Cuanto mayor sea la probabilidad P(x) de que el mensaje sea grande. Se puede ver que la cantidad de información (usamos I para representarla) es inversamente proporcional a la probabilidad de que ocurra el mensaje.

2. Cuando la probabilidad es 1, todos en el mundo saben lo que pasó, por lo que la cantidad de información es 0.

3. Cuando un mensaje consta de varios mensajes pequeños independientes, la información contenida en este mensaje debe ser igual a la suma de la información contenida en cada mensaje pequeño.

Según estas características, si se expresa mediante una función logarítmica matemática, puede expresar la relación entre la cantidad de información y la probabilidad de ocurrencia del mensaje: I=-loga(P(x)).

¿En este caso la información no se puede cuantificar? Dado que la información se puede cuantificar, entonces debemos darle una unidad, ¿verdad? El peso de una persona se mide en kilogramos y la altura de una persona se mide en metros. Entonces, ¿en qué unidad se debe medir la cantidad de información?

Por lo general, la cantidad de información se mide en bits, lo cual es más conveniente, porque la cantidad de información en una forma de onda binaria es exactamente igual a 1 bit.

Enciclopedia Baidu - Funciones informativas

Enciclopedia Baidu - Información