C5-Medidas de información

Algunas cuestiones sobre medidas de información

Varias medidas cuantitativas de información resultan de utilidad en el análisis de sistemas de comunicaciones digitales. En este apartado se plantearán varias cuestiones teóricas relacionadas con este tipo de medidas. 

 

La entropía de una variable aleatoria discreta puede interpretarse como una medida de la incertidumbre que se tiene sobre los posibles valores de su realización. Indique cuáles son los valores mínimo y máximo que puede tomar la entropía y en qué circunstancias se obtienen esos valores mínimo y máximo. 

 

Explique cómo se relaciona la entropía conjunta de dos variables aleatorias discretas con la entropía de cada una de las variables. ¿Es la entropía conjunta la suma de la entropía de cada una de las variables aleatorias?

 

Indique cuáles son son valores máximo y mínimo que puede tomar la información mutua entre dos variables aleatorias discretas, y explique en que casos se obtienen dichos valores máximo o mínimo. 

 

¿Puede ser una entropía condicional mayor que la entropía marginal sobre la misma variable aleatoria? Es decir, ¿es posible que H(X|Y) > H(X)?