Définition entropie



Illustration(s) et photo(s) pour définir le mot entropie

Citations Synonymes Définition
Entropie (Nom commun)
[ɑ̃.tʁɔ.pi] / Féminin
  • (Physique) Quantité physique qui mesure le degré de désordre d’un système.
  • (Communication) Manque d'information.
  • (Fantastique) Type de magie laissant au hasard la puissance des sorts lancés.
Informations complémentaires

L'entropie est une mesure de la désorganisation ou du chaos dans un système. Elle est généralement associée à la thermodynamique et est définie comme la mesure de la distribution d'énergie dans un système. Plus un système est désorganisé, plus son entropie est élevée. L'entropie est souvent utilisée pour décrire les processus irréversibles dans lesquels l'énergie se transforme en chaleur. Elle est également utilisée en physique, en informatique, en biologie et dans d'autres domaines pour décrire les changements dans les systèmes au fil du temps. L'entropie est une propriété importante de la nature et est fondamentale pour comprendre le fonctionnement de nombreux systèmes.

En thermodynamique, l'entropie est souvent associée au deuxième principe de la thermodynamique, qui stipule que dans un système isolé, l'entropie ne peut que croître ou rester constante. Cela signifie que l'énergie tend naturellement à se disperser et à se dissiper dans un système au fil du temps. L'entropie est également utilisée pour décrire l'information dans un système, en particulier en informatique et en théorie de l'information. En général, l'entropie mesure la quantité de désordre ou d'incertitude dans un système et peut être utilisée pour prédire la probabilité d'un événement ou d'un résultat spécifique.


Entropie