La definición matemática del milagro. Una breve introducción a la teoría de la información. Parte 2

Cuando tiramos un dado esperamos que el resultado sea un número entre 1 y 6. Si jugamos a la ruleta apostaremos a un numero entre 0 (o doble cero) y 36. Si tiramos una moneda intentaremos adivinar si sale cara o seca. La acción de tirar el dado, una moneda o girar la ruleta resulta en una evento que nos otorga información.

Shannon en su trabajo sobre la teoría de la información define a una fuente de información como cualquier sistema que emite mensajes. Los mensajes revelan la naturaleza de la fuente y de acuerdo a estos se puede caracterizar a la misma.

Esta definición es bastante amplia. Entran en ella cuasares, logs de interacciones entre usuarios de redes sociales, el caudal en un río, un libro... y muchas cosas más. Esta variedad de fuentes de información tienen diferentes características y su estudio nos permite armar modelos sobre como se comportan y se comportarán.




El tiro de la moneda, del dado y el giro de la ruleta tiene un resultado incierto. Por eso se las conoce como fuentes aleatorias. La ley de los grandes números - adaptada el estudio de una fuente de información - afirma que en una sucesión infinita de mensajes aleatorios conforme se suceden, convergen hacia los valores promedios esperados de ocurrencia de cada uno de ellos. Por ejemplo a medida que vamos tirando una moneda la probabilidad de ocurrencia observada de cara y seca tienden a 0,5 (o 50%).

Existe la falsa creencia (falacia del apostador) que luego de una gran cantidad de repetición de un resultado en un juego de azar (color en la ruleta, la ausencia de un numero en la lotería) aumenta la probabilidad de que ocurra un determinado mensaje. Por ejemplo si luego de salir una gran cantidad de veces un número par en la ruleta es mayor la probabilidad de que salga un número impar. Pero la teoría de los grandes números funciona con infinitos resultados y no con un conjunto acotado. Es decir que si salió todo el día cara en una moneda, tiene la misma probabilidad de salir en la próxima tirada "cara" que si salió solo 1 vez antes "cara".

La falacia anterior es suponer que la fuente tiene memoria, es decir que la aparición de cierto mensaje depende de un conjunto de mensajes que salieron antes. Esto ocurre en ciertos casos, por ejemplo en el idioma castellano la probabilidad de aparición de la letra "e" es grande si las últimas letras que leemos son "q" y "u".

Del otro lado de una fuente aleatoria se ubica una fuente determinística, cuyo resultado se sabe con certeza conociendo los primeros resultados obtenidos (estado inicial). Un ejemplo es la sucesión de fibonacci. Otros ejemplos, el paso del tiempo (días de la semana, horas del día) o un semáforo donde las luces se encienden en un orden determinado.

Una fuente determinística, conocida su mecánica y su estado inicial no otorga información en un nuevo mensaje. Simplemente ya se conoce que va a venir.

Las fuentes aleatorias además tienen un caso especial que es conocido como fuente aleatoria caótica (o no estructurada). Las fuentes caóticas emiten mensajes sin ninguna relación una con otro. No hay patrones ni relaciones entre mensajes. Los juegos de azar son un buen ejemplo. Cada mensaje no depende ni se relaciona con ningún mensaje anterior. Estas fuentes se dicen que son de información pura.

Por otra lado están las fuentes estructuradas, donde existe una interrelación entre los mensajes emitidos. Un ejemplo podría ser un dado trucado donde una cara tiene más chances de salir que las otras o una filmaciòn donde cada imagen esta en gran parte condicionada por la anterior.

Una fuente de información también puede emitir mensajes en forma continua o discreta (acotada en el tiempo). Los valores posibles de los mensajes también se pueden analizar de la misma forma, puede ser discretos (un numero finito de valores posibles) o continuos.

Al clasificar una fuente de información se utilizan las características anteriores y se construye un modelo sobre la misma. Con este modelo se define que información se obtiene al ocurrir un determinado mensaje en un determina contexto.

En una fuente aleatoria y caótica, por ejemplo, cualquier nuevo mensaje es pura información. Todo mensaje es una novedad.

Una fuente aleatoria y estructurada permite la construcción de un modelo. Si recibimos un mensaje por fuera de los valores posibles del modelo (un mensaje con probabilidad 0),  ese mensaje nos entrega información infinita (la definición de información de Shannon indica que la cantidad de información es inversamente proporcional a su probabilidad).

Esa información infinita es el evento inesperada e imposible. El milagro.

Tiro una moneda. Tengo un modelo de cara o seca con probabilidad 0.5 y sale canto (probabilidad 0). Canto no era un mensaje que sea posible. por lo tanto se considera en mi modelo la ocurrencia de un milagro.

Es necesario cambiar el modelo para tener en cuenta ese nuevo caso. Si no se cambia, la única forma de explicarlo es el milagro. Es decir que un milagro solo ocurre si no nos permitimos reformular el modelo que explica un sistema.

El milagro ocurre cuando nuestro modelo para representar los mensajes que nos otorga un sistema no es completo. Si no nos permitimos cambiar el modelo o tratar de explicarlo... quedará en un milagro inexplicable.


La yapa...

Comentarios