- Est-ce que l'information mutuelle conditionnelle est symétrique?
- Pourquoi l'information mutuelle est-elle symétrique?
- Lorsque les informations mutuelles sont égales à l'entropie?
- Qu'est-ce que l'entropie conditionnelle dans la théorie de l'information?
Est-ce que l'information mutuelle conditionnelle est symétrique?
Les informations mutuelles sont symetrici (x; y) = i (y; x) \ . Cela découle directement de la définition, EQ.
Pourquoi l'information mutuelle est-elle symétrique?
Les informations mutuelles (MI) entre deux variables aléatoires capturent la quantité d'informations que l'entropie est obtenue sur une variable aléatoire en observant l'autre. Étant donné que cette définition ne précise pas quelle est la variable aléatoire observée, nous pouvons soupçonner qu'il s'agit d'une quantité symétrique.
Lorsque les informations mutuelles sont égales à l'entropie?
Ils ne le font que s'ils sont constants.. En effet, s'ils sont pleinement identiques, leurs informations mutuelles seront égales à l'entropie de l'un des deux: i (x, x) = h (x). Cette entropie n'est nulle que dans le cas de données constantes, sinon elle peut avoir d'autres valeurs.
Qu'est-ce que l'entropie conditionnelle dans la théorie de l'information?
Dans la théorie de l'information, l'entropie conditionnelle quantifie la quantité d'informations nécessaires pour décrire le résultat d'une variable aléatoire étant donné que la valeur d'une autre variable aléatoire est connue.