Contrôles de Particules
Contrôles d'Énergie
Contrôles de Simulation
Qu'est-ce que l'Entropie ?
L'entropie est une mesure du désordre du système. En mécanique statistique, l'entropie représente le nombre d'états microscopiques possibles. Plus il y a de micro-états, plus le système est désordonné et plus l'entropie est élevée.
Formule d'Entropie de Boltzmann
- S - Entropie
- kB - Constante de Boltzmann (1,38×10⁻²³ J/K)
- Ω - Nombre de micro-états
Entropie de l'Information
- H - Entropie de l'information (incertitude)
- pi - Probabilité de l'événement i
Deuxième Loi de la Thermodynamique
Système Isolé
L'entropie d'un système isolé ne diminue jamais : ΔS ≥ 0
- Processus réversible : ΔS = 0
- Processus irréversible : ΔS > 0
Système Ouvert
Les systèmes ouverts peuvent réaliser une réduction locale d'entropie par une entrée d'énergie externe
Implications
- Le temps a une direction (flèche du temps)
- Mort thermique (l'univers atteint l'équilibre thermique)
- La vie et les structures ordonnées nécessitent une entrée continue d'énergie
Possibilité de Réduction d'Entropie
Bien que l'entropie d'un système isolé ne diminue jamais, les systèmes ouverts peuvent réaliser une réduction locale d'entropie. La clé est l'entrée d'énergie ou d'information externe.
Réfrigérateur/Clim
Consomme de l'électricité, réduit l'entropie intérieure, mais l'entropie totale (y compris les environs) augmente
Systèmes Vivants
Maintient un état de faible entropie par le métabolisme, excrète des déchets à haute entropie
Croissance Cristalline
Libère de la chaleur, réduit l'entropie du système, mais l'entropie environnementale augmente davantage
Traitement de l'Information
Effacer l'information nécessite de l'énergie (principe de Landauer), augmente l'entropie
Perspective Clé
Coût de la Réduction d'Entropie : Pour diminuer l'entropie du système, de l'énergie doit être consommée, ce qui augmente l'entropie environnementale. L'entropie universelle totale augmente toujours ; le coût de l'ordre local est un plus grand désordre global.
Applications Pratiques
Thermodynamique
- Limite d'efficacité des moteurs thermiques (cycle de Carnot)
- Conception de réfrigérateurs
- Direction des réactions chimiques
Théorie de l'Information
- Compression de données
- Cryptographie
- Capacité du canal de communication
Cosmologie
- Entropie des trous noirs (entropie de Bekenstein-Hawking)
- Évolution de l'univers
- Big Bang
Biologie
- Métabolisme
- Évolution
- Écosystèmes