Considere que as variáveis aleatórias X e Y, dependentes de determinado parâmetro R, sejam mutuamente independentes e que IX(R) e IY(R) sejam as medidas de quantidade de informação de Fisher associadas a X e Y, respectivamente. Considere, ainda, que IX,Y(R) seja a medida conjunta correspondente. A respeito dessas medidas, julgue os próximos.
A medida conjunta IX,Y(R) pode ser maior que a soma IX(R) + IY(R), dependendo das distribuições de probabilidade de X e Y.
2. A respeito das expressões das entropias de ordem q de Shannon e de Rényi associadas a X, e sabendo que ambas utilizam o logaritmo neperiano, julgue os itens a seguir.
1 e 0 < p < 1, julgue os itens subsequentes.
1 e 0 < p < 1, julgue os itens subsequentes.
1 e 0 < p < 1, julgue os itens subsequentes.

