|
|
Zeile 13: |
Zeile 13: |
|
| |
|
| == Methode == | | == Methode == |
| Vorurteilsfreie Schätzung ( Jaynes , 1957): | | Vorurteilsfreie Schätzung (Jaynes, 1957): |
| (unbiased guess; Prinzip des maximalen Nichtwissens) | | (unbiased guess; Prinzip des maximalen Nichtwissens) |
|
| |
|
| * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. |
| ** ( Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | | ** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) |
| * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | | * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: |
|
| |
|
Zeile 31: |
Zeile 31: |
| <u>'''Annahme:'''</u> | | <u>'''Annahme:'''</u> |
|
| |
|
| Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | | Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. |
|
| |
|
| == Informationstheoretisches Prinzip== | | == Informationstheoretisches Prinzip== |
| (nach (Jaynes 1922-1998)) | | (nach (Jaynes 1922-1998)) |
|
| |
|
| Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | | Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: |
|
| |
|
| Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | | Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> |
Zeile 50: |
Zeile 50: |
|
| |
|
|
| |
|
| Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander ! | | Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander! |
|
| |
|
| :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | | :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> |
Zeile 61: |
Zeile 61: |
| Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | | Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> |
|
| |
|
| <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar! |
|
| |
|
| Somit: | | Somit: |
Zeile 73: |
Zeile 73: |
| {{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | | {{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} |
|
| |
|
| Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt! |
|
| |
|
| ===Kontinuierliche Ereignismenge=== | | ===Kontinuierliche Ereignismenge=== |
Zeile 117: |
Zeile 117: |
| {{FB|Legendre- Transformation}}: | | {{FB|Legendre- Transformation}}: |
|
| |
|
| Sei <math>\Psi (t)</math> eine Bahn ! | | Sei <math>\Psi (t)</math> eine Bahn! |
|
| |
|
| Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | | Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. |
Zeile 152: |
Zeile 152: |
|
| |
|
| heißt legendre- Transformierte von | | heißt legendre- Transformierte von |
| :<math>\Psi (t)</math> | | :<math>\Psi (t)</math>. |
| .
| | |
|
| |
|
| === Anwendung auf die verallgemeinerte kanonische Verteilung: === | | === Anwendung auf die verallgemeinerte kanonische Verteilung: === |
Zeile 181: |
Zeile 181: |
|
| |
|
| {{Beispiel|'''Beispiel:''' | | {{Beispiel|'''Beispiel:''' |
| :<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> ( Phasenraumelement) | | :<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> (Phasenraumelement) |
|
| |
|
| mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | | mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen |
Zeile 211: |
Zeile 211: |
|
| |
|
|
| |
|
| Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | | Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: |
|
| |
|
|
| |
|
Zeile 221: |
Zeile 221: |
|
| |
|
|
| |
|
| :<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math> ! | | :<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math>! |
|
| |
|
| Es folgt: | | Es folgt: |
Zeile 362: |
Zeile 362: |
| '''Nebenbemerkung:''' | | '''Nebenbemerkung:''' |
|
| |
|
| Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex ! | | Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! |
|
| |
|
| == Zusammenhang mit der Korrelationsmatrix == | | == Zusammenhang mit der Korrelationsmatrix == |
|
| |
|
| :<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix ( siehe oben) | | :<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix (siehe oben) |
|
| |
|
| :<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> 2. Kumulante | | :<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> 2. Kumulante |
Zeile 383: |
Zeile 383: |
|
| |
|
|
| |
|
| Suszeptibilität ! | | Suszeptibilität! |
|
| |
|
| Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! |
|
| |
|
| Also: | | Also: |
Zeile 397: |
Zeile 397: |
| ;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert | | ;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert |
|
| |
|
| ;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte ! | | ;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte! |
|
| |
|
| == Korrektur einer Verteilung durch Zusatzinformationen == | | == Korrektur einer Verteilung durch Zusatzinformationen == |
Zeile 408: |
Zeile 408: |
| & m=1,...,m \\ | | & m=1,...,m \\ |
| \end{align}</math> | | \end{align}</math> |
| : minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | | : minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!) |
|
| |
|
| '''Jetzt:''' | | '''Jetzt:''' |
|
| |
|
| Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | | Zusatzinformationen (zusätzliche Mittelwerte beobachtet): |
|
| |
|
| :<math>\begin{align} | | :<math>\begin{align} |
Zeile 428: |
Zeile 428: |
|
| |
|
|
| |
|
| unter dieser Nebenbedingung !! | | unter dieser Nebenbedingung!! |
|
| |
|
| Also: | | Also: |
Zeile 481: |
Zeile 481: |
|
| |
|
|
| |
|
| da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! |
|
| |
|
|
| |
|
Zeile 490: |
Zeile 490: |
|
| |
|
|
| |
|
| Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! |
|
| |
|
| ==Siehe auch== | | ==Siehe auch== |
|
| |
|
| <references /> | | <references /> |
Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD
|
Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD.
|
Motivation
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte
von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von
auf die Wahrscheinlichkeitsverteilung
Methode
Vorurteilsfreie Schätzung (Jaynes, 1957):
(unbiased guess; Prinzip des maximalen Nichtwissens)
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
- (Minimum der Shannon- Information = Maximum des Nichtwissens liefert Gleichverteilung)
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
Annahme:
Jedes Elementarereignis hat gleiche a-priori- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse gilt Gleichverteilung über den .
Informationstheoretisches Prinzip
(nach (Jaynes 1922-1998))
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Also:
Nebenbed.:
Variation:
Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander!
Lagrange- Multiplikator
Lagrange- Multiplikator
Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar!
Somit:
Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)
: verallgemeinerte kanonische Verteilung
|
Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt!
Kontinuierliche Ereignismenge
unter der Nebenbedingung
Durchführung einer Funktionalvariation:
Vergleiche: A. Katz, Principles of Statistial Mechanics
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Legendre- Transformation:
Sei eine Bahn!
Dann ist die Geschwindigkeit.
Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
hieraus folgt
eingesetzt in
durch Eisnetzen gewinnt man
Jedenfalls:
heißt legendre- Transformierte von
- .
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
|
Also gilt:
- und sind durch vollständig parametrisiert.
Nebenbemerkung
Die Verteilung bzw. wirkt auf dem Raum der Zufallsvariablen (diskret) bzw. (kontinuierlich).
- sind Parameter.
- sind Erwartungswerte
Beispiel:
- (Phasenraumelement)
mit als Phasenraum der kanonisch konjugierten Variablen
- mikrokanonisch Verteilungsfunktion
- als mittlere Energie
|
Shannon- Information:
Aus
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren:
- Variable
- neue Variable
- Legendre- Transformierte von !
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung!
|
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen
entwickeln:
Vergleiche oben
also folgt:
negativ semidefinit, für alle
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von bei Variation von :
bzw.:
In Matrixschreibweise:
Wegen
Somit:
- ist symmetrisch
Aus folgt:
Also: negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Also sind und konvex!
Zusammenhang mit der Korrelationsmatrix
- ist Korrelationsmatrix (siehe oben)
- 2. Kumulante
- mit Kumulantenerzeugender
Suszeptibilität!
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!!
Also:
|
Fluktuations/ Dissipations- Theorem:
- Fluktuationen
- Zufällige Schwankungen um den Mittelwert
- Dissipation
- Systematische Änderung der Mittelwerte!
Korrektur einer Verteilung durch Zusatzinformationen
Sei die Verteilung, die unter Kenntnis der Nebenbedingungen
- minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!)
Jetzt:
Zusatzinformationen (zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung!!
Also:
mit neuen Lagrange- Multiplikatoren
Mit
folgt:
Da nun die Mittelwerte
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden!
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info!
Siehe auch