« Entropie croisée » : différence entre les versions
Contenu supprimé Contenu ajouté
Fonctionnalité de suggestions de liens : 1 lien ajouté. |
Correction de la relation CE <-> H, DL |
||
Ligne 4 :
L'entropie croisée pour deux distributions <math>p</math> et <math>q</math> sur le même [[espace probabilisé]] est définie de la façon suivante :
<center><math>\mathrm{H}(p, q) = \mathrm{E}_p[-\log q] = \mathrm{H}(p)
où <math>H(p)</math> est l'[[entropie de Shannon|entropie]] de <math>p</math>, et <math>D_{\mathrm{KL}}(p || q)</math> est la [[divergence de Kullback-Leibler]] entre <math>q</math> et <math>p</math>.
|