Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>


== Motivation: ==
== Motivation ==
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
<math>\left\langle M(x) \right\rangle </math>
<math>\left\langle M(x) \right\rangle </math>
Zeile 12: Zeile 12:




== Methode: ==
== Methode ==
Vorurteilsfreie Schätzung ( Jaynes , 1957):
Vorurteilsfreie Schätzung ( Jaynes , 1957):


Zeile 47: Zeile 47:
.
.


== Informationstheoretisches Prinzip ( Jaynes) ==
== Informationstheoretisches Prinzip==
(nach (Jaynes 1922-1998))


Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:
Zeile 60: Zeile 61:
\end{align}</math>
\end{align}</math>


== Variation: ==
<u>Variation</u>: <math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>


<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>


Es gilt: von den  N Variationen  <math>\delta {{P}_{i}}</math>  sind nur N-m-1  unabhängig voneinander !


Es gilt: von den  N Variationen
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
<math>\delta {{P}_{i}}</math>
sind nur N-m-1  unabhängig voneinander !


Lagrange- Multiplikator <math>\lambda =-\left( \Psi +1 \right)</math>


<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
:<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math>




Lagrange- Multiplikator
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math>


 
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
<math>\lambda =-\left( \Psi +1 \right)</math>
 
 
 
<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math>
 
 
Lagrange- Multiplikator
 
 
<math>{{\lambda }_{n}}</math>
 
 
== Anleitung ==
Wähle  
<math>\Psi ,{{\lambda }_{n}}</math>
so, dass die Koeffizienten von  
<math>\left( m+1 \right)\delta {{P}_{i}}</math>
´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !


Somit:
Somit:


 
:<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math>
<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math>




Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)
Vorsicht: Auch Summe über <math>\nu</math> (Einsteinsche Summenkonvention!)




<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> Die {{FBverallgemeinerte kanonische Verteilung}}


Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math>  sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !


== Die verallgemeinerte kanonische Verteilung ==
===Kontinuierliche Ereignismenge===
 
Die Lagrange- Multiplikatoren
 
 
<math>\Psi ,{{\lambda }_{n}}</math>
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
 
<u>'''Kontinuierliche Ereignismenge !'''</u>




Zeile 146: Zeile 119:




'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}
'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
{{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}


Eigenschaften der verallgemeinerten kanonischen Verteilung
==Eigenschaften der verallgemeinerten kanonischen Verteilung==


hier: noch rein informationstheoretisch,
hier: noch rein informationstheoretisch,
Zeile 154: Zeile 128:
später: wichtige Anwendungen in der Thermodynamik
später: wichtige Anwendungen in der Thermodynamik


== Legendre- Transformation: ==
{{FB|Legendre- Transformation}}:
 
Sei
<math>\Psi (t)</math>
eine Bahn !
 
Dann ist
<math>M:=\frac{d\Psi (t)}{dt}</math>
 
 
die Geschwindigkeit.
 
Aus
<math>\Psi (M)</math>
kann die Bahn
<math>\Psi (t)</math>
noch nicht rekonstruiert werden, jedoch aus
 


<math>I(M)=\Psi (t)-M(t)t</math>
Sei <math>\Psi (t)</math> eine Bahn !


Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit.


Aus <math>\Psi (M)</math> kann die Bahn <math>\Psi (t)</math>  noch nicht rekonstruiert werden, jedoch aus
:<math>I(M)=\Psi (t)-M(t)t</math>
mit t=t(M):
mit t=t(M):




Zeile 209: Zeile 168:
.
.


== Anwendung auf die verallgemeinerte kanonische Verteilung: ==
=== Anwendung auf die verallgemeinerte kanonische Verteilung: ===


<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>

Version vom 1. September 2010, 14:56 Uhr




Motivation

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von auf die Wahrscheinlichkeitsverteilung


Methode

Vorurteilsfreie Schätzung ( Jaynes , 1957):

unbiased guess; Prinzip des maximalen Nichtwissens:

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
  • ( Minimum der Shannon- Information

= Maximum des Nichtwissens

liefert Gleichverteilung
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:



Annahme:

Jedes Elementarereignis

hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse


gilt Gleichverteilung über den 

.

Informationstheoretisches Prinzip

(nach (Jaynes 1922-1998))

Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:

Nebenbed.:

Variation:


Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander !

Lagrange- Multiplikator


Lagrange- Multiplikator

Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !

Somit:


Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)


Die Vorlage:FBverallgemeinerte kanonische Verteilung

Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !

Kontinuierliche Ereignismenge


unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

ANMERKUNG Schubotz: Siehe auch [1]

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn !

Dann ist die Geschwindigkeit.

Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus

mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von .

Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:



Also gilt:


und 

sind durch 

vollständig parametrisiert.

Nebenbemerkung

Die Verteilung

bzw. 

wirkt auf dem Raum der Zufallsvariablen 

(diskret) bzw. 

(kontinuierlich).


sind Parameter.


sind Erwartungswerte 


Beispiel:


 ( Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus



Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:


 Variable


 neue Variable  


 Legendre- Transformierte von 

!

Es folgt:



wegen:



Zusammengefasst:



Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!

Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von


bei Variation von



bzw.:



In Matrixschreibweise:



Wegen



Somit:


 ist symmetrisch

Aus



folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind



und



konvex !

Zusammenhang mit der Korrelationsmatrix

 ist Korrelationsmatrix ( siehe oben)


 2. Kumulante


 mit Kumulantenerzeugender



Suszeptibilität !

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen: Zufällige Schwankungen um den Mittelwert

Dissipation: Systematische Änderung der Mittelwerte !

Korrektur einer Verteilung durch Zusatzinformationen

Sei


die Verteilung, die 

unter Kenntnis der Nebenbedingungen



minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)

Jetzt:

Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):



Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung !!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !

Siehe auch

< references />

  1. ST7,5.4.13