Entropie vient du mot grec "ἐντροπία" ou "entropie" qui est la grandeur physique thermodynamique ou partie de la physique qui étudie l'action mécanique de la chaleur et les autres formes d'énergie qui permettent de mesurer cette partie de l'énergie stockée dans un système qui ne on utilise.
La mesure d'entropie permet d'établir l'ordre qu'un système a dans une demande écrite donnée, par rapport à celui qui l'a effectuée ou aurait pu le faire dans une autre. Ainsi, la différence d'entropie pourrait être déterminée pour la formation ou la constitution d'un système à partir de ses composants désagrégés, et également pour tout processus qui peut se produire dans un système déjà constitué.
L' entropie est une fonction d'état, où une grandeur physique microscopique caractérise l'état d'un système d'équilibre de nature et de valeur extensives, l'entropie décrit le réversible des systèmes physiques étudiant l'action mécanique de la chaleur et les autres formes d'énergie.
L' entropie de formation d'un composé chimique où la différence de l'entropie dans le processus de formation des éléments constitutifs est spécifiée, mais s'il y a une plus grande entropie de formation, ce sera plus favorable.
Dans la théorie de l'information, l' entropie est la mesure du manque de sécurité ou de confiance qui existe avant un ensemble de messages où un seul sera reçu et c'est une mesure de l'information qui est nécessaire pour réduire ou éliminer le manque de sécurité ou de confiance.