« Entropie croisée » : différence entre les versions

Contenu supprimé Contenu ajouté
Tlemonnier0 (discuter | contributions)
Fonctionnalité de suggestions de liens : 1 lien ajouté.
Correction de la relation CE <-> H, DL
Ligne 4 :
L'entropie croisée pour deux distributions <math>p</math> et <math>q</math> sur le même [[espace probabilisé]] est définie de la façon suivante :
 
<center><math>\mathrm{H}(p, q) = \mathrm{E}_p[-\log q] = \mathrm{H}(p) +- D_{\mathrm{KL}}(p \| q)\!</math>,</center>
 
où <math>H(p)</math> est l'[[entropie de Shannon|entropie]] de <math>p</math>, et <math>D_{\mathrm{KL}}(p || q)</math> est la [[divergence de Kullback-Leibler]] entre <math>q</math> et <math>p</math>.
Ce document provient de « https://fr.wikipedia.org/wiki/Entropie_croisée ».