TEORÍA MATEMÁTICA DE LA COMUNICACIÓN
La teoría matemática de la comunicación, tiene varios conceptos a considerar, comenzando por:
La creación de funciones matemáticas que nos muestre la probabilidad con la que suceden las cosas, la cual podemos considerar partiendo de n sucesos posibles, o lo que es lo mismo, una serie de elementos i sonde i=1, 2, 3,…, N, ahora a cada uno de estos sucesos se le asocia una probabilidad determinada, por tanto obtenemos una segunda serie, denominada serie de probabilidades y definida por p1, p2, p3,…, pN , ahora si pacemos a el concepto principal, la creación de una función que nos permita comprender la cantidad de información, o viéndolo de otro modo, la cantidad de incertidumbre que se produce en cierta serie de sucesos. A lo que tenemos H (p1, p2, p3,…, pN); debemos considerar además que cuando las probabilidades de los sucesos sean iguales, entonces h sea directamente proporcional a N. Ahora de una manera mas concreta, podemos utilizar la función logaritmo, en base dos, de tal manera que nos represente ciertas unidades de información, entonces de forma general tenemos I(i)=log(i), pero si lo que deseamos es obtener un cierto promedio, entonces tenemos que utilizar la probabilidad en el suceso determinado, y utilizar pi*I(i) o mas comúnmente -pi*log(pi), una ves realizado las operaciones para cada suceso, si sumamos estas cantidades, obtendremos el promedio que buscábamos a el cual le asignaremos el nombre de entropía. La entropía queda asociada entonces a las probabilidades que tiene cada suceso, de cierta manera comprobable, mientras que las probabilidades de los sucesos sean mas cercanas entre si, la entropía será mayor, por tanto, mientras mas distante sea la relación de las probabilidades, la entropía será mas pequeña, por esto ultimo, decimos que podemos asociar la definición de entropía con la de desorden, ya que los sistemas con a mayor entropía mayor desorden tendrán. Además también, mientras mayor sea la entropía menor será la incertidumbre, por tanto mas grande será la información obtenida, por tanto como la entropía nos hace referencia a una medida de de la información, basadas en las probabilidades del sistema. Ahora con todo lo que hemos obtenido, podemos hacer diversos análisis en los distintos lenguajes como el español o el ingles, y entonces hacer una función de relación y las probabilidades, obtener la incertidumbre, la entropía, y comprender en cierta manera matemática el comportamiento de los lenguajes.
No hay comentarios:
Publicar un comentario