Partikelsteuerungen
Energiesteuerungen
Simulationssteuerungen
Was ist Entropie?
Entropie ist ein Maß für die Unordnung des Systems. In der statistischen Mechanik repräsentiert die Entropie die Anzahl der möglichen Mikrozustände. Je mehr Mikrozustände, desto ungeordneter das System und desto höher die Entropie.
Boltzmann-Entropieformel
- S - Entropie
- kB - Boltzmann-Konstante (1,38×10⁻²³ J/K)
- Ω - Anzahl der Mikrozustände
Informationsentropie
- H - Informationsentropie (Unsicherheit)
- pi - Wahrscheinlichkeit des Ereignisses i
Zweiter Hauptsatz der Thermodynamik
Isoliertes System
Die Entropie eines isolierten Systems nimmt niemals ab: ΔS ≥ 0
- Reversibler Prozess: ΔS = 0
- Irreversibler Prozess: ΔS > 0
Offenes System
Offene Systeme können durch externe Energiezufuhr lokale Entropieverringerung erreichen
Implikationen
- Zeit hat eine Richtung (Zeitpfeil)
- Wärmetod (Universum erreicht thermisches Gleichgewicht)
- Leben und geordnete Strukturen erfordern kontinuierliche Energiezufuhr
Möglichkeit der Entropieverringerung
Obwohl die Entropie eines isolierten Systems niemals abnimmt, können offene Systeme lokale Entropieverringerung erreichen. Der Schlüssel ist externe Energie- oder Informationszufuhr.
Kühlschrank/Klimaanlage
Verbraucht Strom, reduziert Innenentropie, aber Gesamtentropie (einschließlich Umgebung) nimmt zu
Lebende Systeme
Erhält niedrigen Entropiezustand durch Stoffwechsel, scheidet hochentropische Abfälle aus
Kristallwachstum
Gibt Wärme ab, reduziert Systementropie, aber Umweltentropie nimmt mehr zu
Informationsverarbeitung
Information löschen erfordert Energie (Landauers Prinzip), erhöht Entropie
Wichtige Erkenntnis
Kosten der Entropieverringerung: Um die Systementropie zu verringern, muss Energie verbraucht werden, was die Umweltentropie erhöht. Die universelle Gesamtentropie nimmt immer zu; die Kosten lokaler Ordnung sind größere globale Unordnung.
Praktische Anwendungen
Thermodynamik
- Grenzwirkungsgrad von Wärmekraftmaschinen (Carnot-Kreislauf)
- Kühlschrankdesign
- Richtung chemischer Reaktionen
Informationstheorie
- Datenkompression
- Kryptographie
- Kommunikationskanalkapazität
Kosmologie
- Schwarze Loch Entropie (Bekenstein-Hawking-Entropie)
- Universumentwicklung
- Urknall
Biologie
- Stoffwechsel
- Evolution
- Ökosysteme