|
|
Zeile 1: |
Zeile 1: |
| <noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | | <noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> |
|
| |
|
| == Motivation: == | | == Motivation == |
| Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte |
| <math>\left\langle M(x) \right\rangle </math> | | <math>\left\langle M(x) \right\rangle </math> |
Zeile 12: |
Zeile 12: |
|
| |
|
|
| |
|
| == Methode: == | | == Methode == |
| Vorurteilsfreie Schätzung ( Jaynes , 1957): | | Vorurteilsfreie Schätzung ( Jaynes , 1957): |
|
| |
|
Zeile 47: |
Zeile 47: |
| . | | . |
|
| |
|
| == Informationstheoretisches Prinzip ( Jaynes) == | | == Informationstheoretisches Prinzip== |
| | (nach (Jaynes 1922-1998)) |
|
| |
|
| Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | | Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: |
Zeile 60: |
Zeile 61: |
| \end{align}</math> | | \end{align}</math> |
|
| |
|
| == Variation: ==
| | <u>Variation</u>: <math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math> |
|
| |
|
| <math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>
| |
|
| |
|
| | Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander ! |
|
| |
|
| Es gilt: von den N Variationen
| | :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> |
| <math>\delta {{P}_{i}}</math> | |
| sind nur N-m-1 unabhängig voneinander !
| |
|
| |
|
| | Lagrange- Multiplikator <math>\lambda =-\left( \Psi +1 \right)</math> |
|
| |
|
| <math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | | :<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math> |
|
| |
|
|
| |
|
| Lagrange- Multiplikator | | Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> |
|
| |
|
| | | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! |
| <math>\lambda =-\left( \Psi +1 \right)</math> | |
| | |
| | |
| | |
| <math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math>
| |
| | |
| | |
| Lagrange- Multiplikator
| |
| | |
| | |
| <math>{{\lambda }_{n}}</math>
| |
| | |
| | |
| == Anleitung ==
| |
| Wähle | |
| <math>\Psi ,{{\lambda }_{n}}</math> | |
| so, dass die Koeffizienten von | |
| <math>\left( m+1 \right)\delta {{P}_{i}}</math> | |
| ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | |
|
| |
|
| Somit: | | Somit: |
|
| |
|
| | | :<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math> |
| <math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math> | |
|
| |
|
|
| |
|
| Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !) | | Vorsicht: Auch Summe über <math>\nu</math> (Einsteinsche Summenkonvention!) |
|
| |
|
|
| |
|
| <math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | | :<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> Die {{FBverallgemeinerte kanonische Verteilung}} |
|
| |
|
| | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! |
|
| |
|
| == Die verallgemeinerte kanonische Verteilung == | | ===Kontinuierliche Ereignismenge=== |
| | |
| Die Lagrange- Multiplikatoren
| |
| | |
| | |
| <math>\Psi ,{{\lambda }_{n}}</math>
| |
| sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
| |
| | |
| <u>'''Kontinuierliche Ereignismenge !'''</u>
| |
|
| |
|
|
| |
|
Zeile 146: |
Zeile 119: |
|
| |
|
|
| |
|
| '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}} | | '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' |
| | {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}} |
|
| |
|
| Eigenschaften der verallgemeinerten kanonischen Verteilung | | ==Eigenschaften der verallgemeinerten kanonischen Verteilung== |
|
| |
|
| hier: noch rein informationstheoretisch, | | hier: noch rein informationstheoretisch, |
Zeile 154: |
Zeile 128: |
| später: wichtige Anwendungen in der Thermodynamik | | später: wichtige Anwendungen in der Thermodynamik |
|
| |
|
| == Legendre- Transformation: ==
| | {{FB|Legendre- Transformation}}: |
| | |
| Sei
| |
| <math>\Psi (t)</math>
| |
| eine Bahn !
| |
| | |
| Dann ist
| |
| <math>M:=\frac{d\Psi (t)}{dt}</math>
| |
| | |
| | |
| die Geschwindigkeit.
| |
| | |
| Aus
| |
| <math>\Psi (M)</math>
| |
| kann die Bahn
| |
| <math>\Psi (t)</math>
| |
| noch nicht rekonstruiert werden, jedoch aus
| |
| | |
|
| |
|
| <math>I(M)=\Psi (t)-M(t)t</math> | | Sei <math>\Psi (t)</math> eine Bahn ! |
|
| |
|
| | Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. |
|
| |
|
| | Aus <math>\Psi (M)</math> kann die Bahn <math>\Psi (t)</math> noch nicht rekonstruiert werden, jedoch aus |
| | :<math>I(M)=\Psi (t)-M(t)t</math> |
| mit t=t(M): | | mit t=t(M): |
|
| |
|
| |
|
|
| |
|
Zeile 209: |
Zeile 168: |
| . | | . |
|
| |
|
| == Anwendung auf die verallgemeinerte kanonische Verteilung: == | | === Anwendung auf die verallgemeinerte kanonische Verteilung: === |
|
| |
|
| <math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | | <math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> |
Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD
|
Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD.
|
Motivation
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte
von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von
auf die Wahrscheinlichkeitsverteilung
Methode
Vorurteilsfreie Schätzung ( Jaynes , 1957):
unbiased guess; Prinzip des maximalen Nichtwissens:
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
- ( Minimum der Shannon- Information
= Maximum des Nichtwissens
liefert Gleichverteilung
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
Annahme:
Jedes Elementarereignis
hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
gilt Gleichverteilung über den
.
Informationstheoretisches Prinzip
(nach (Jaynes 1922-1998))
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Also:
Nebenbed.:
Variation:
Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander !
Lagrange- Multiplikator
Lagrange- Multiplikator
Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
Somit:
Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)
- Die Vorlage:FBverallgemeinerte kanonische Verteilung
Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
Kontinuierliche Ereignismenge
unter der Nebenbedingung
Durchführung einer Funktionalvariation:
Vergleiche: A. Katz, Principles of Statistial Mechanics
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Legendre- Transformation:
Sei eine Bahn !
Dann ist die Geschwindigkeit.
Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
hieraus folgt
eingesetzt in
durch Eisnetzen gewinnt man
Jedenfalls:
heißt legendre- Transformierte von
.
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
Also gilt:
und
sind durch
vollständig parametrisiert.
Nebenbemerkung
Die Verteilung
bzw.
wirkt auf dem Raum der Zufallsvariablen
(diskret) bzw.
(kontinuierlich).
sind Parameter.
sind Erwartungswerte
Beispiel:
( Phasenraumelement)
mit
als Phasenraum der kanonisch konjugierten Variablen
mikrokanonisch Verteilungsfunktion
als mittlere Energie
Shannon- Information:
Aus
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
Variable
neue Variable
Legendre- Transformierte von
!
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen
entwickeln:
Vergleiche oben
also folgt:
negativ semidefinit, für alle
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von
bei Variation von
bzw.:
In Matrixschreibweise:
Wegen
Somit:
ist symmetrisch
Aus
folgt:
Also: negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Also sind
und
konvex !
Zusammenhang mit der Korrelationsmatrix
ist Korrelationsmatrix ( siehe oben)
2. Kumulante
mit Kumulantenerzeugender
Suszeptibilität !
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
Also:
Fluktuations/ Dissipations- Theorem:
Fluktuationen: Zufällige Schwankungen um den Mittelwert
Dissipation: Systematische Änderung der Mittelwerte !
Korrektur einer Verteilung durch Zusatzinformationen
Sei
die Verteilung, die
unter Kenntnis der Nebenbedingungen
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
Jetzt:
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung !!
Also:
mit neuen Lagrange- Multiplikatoren
Mit
folgt:
Da nun die Mittelwerte
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
Siehe auch
< references />