Entropie différentielle
L'entropie différentielle est un concept de la théorie de l'information qui étend le concept de l'entropie de Shannon aux lois de probabilités continues.
Définition
Pour une variable aléatoire X avec une distribution de probabilité f et définie sur un ensemble , on définit l'entropie différentielle h(x) par :
Entropie différentielle pour plusieurs distributions
Dans le tableau qui suit, est la fonction gamma, est la fonction digamma, est la fonction bêta, et γ est la constante d'Euler-Mascheroni.
| Distribution | Fonction de distribution de probabilités | Entropie |
|---|---|---|
| Loi uniforme continue | ||
| Loi normale | ||
| Loi exponentielle | ||
| Loi de Cauchy | ||
| Loi du χ² |
| |
| Distribution Gamma | ||
| Loi logistique | ||
| Statistique de Maxwell-Boltzmann | ||
| Distribution de Pareto | ||
| Loi de Student | ||
| Distribution de Weibull | ||
| Loi normale multidimensionnelle | ||
Voir aussi
- Portail des mathématiques
- Portail de l’informatique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons – Attribution – Partage à l’identique. Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.