Com relação à teoria da informação, julgue os itens seguintes.
Tomado sobre um conjunto de variáveis aleatórias, o valor da entropia de cada uma dessas variáveis é sempre maior ou igual a zero e pode medir a quantidade de informação que cada variável comporta. Se duas dessas variáveis — X e Y — são independentes, a entropia de XY é sempre inferior à entropia de X.