Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>


===Verallgemeinerte kanonische Verteilung===
== Motivation: ==
 
====Motivation:====
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
<math>\left\langle M(x) \right\rangle </math>
<math>\left\langle M(x) \right\rangle </math>
Zeile 14: Zeile 12:




====Methode:====
== Methode: ==
Vorurteilsfreie Schätzung ( Jaynes , 1957):
Vorurteilsfreie Schätzung ( Jaynes , 1957):


Zeile 49: Zeile 47:
.
.


====Informationstheoretisches Prinzip ( Jaynes)====
== Informationstheoretisches Prinzip ( Jaynes) ==


Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:
Zeile 69: Zeile 67:




====Variation:====
== Variation: ==


<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>
<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>
Zeile 98: Zeile 96:




====Anleitung====
== Anleitung ==
Wähle  
Wähle  
<math>\Psi ,{{\lambda }_{n}}</math>
<math>\Psi ,{{\lambda }_{n}}</math>
Zeile 117: Zeile 115:




====Die verallgemeinerte kanonische Verteilung====
== Die verallgemeinerte kanonische Verteilung ==


Die Lagrange- Multiplikatoren
Die Lagrange- Multiplikatoren
Zeile 155: Zeile 153:




'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}


Eigenschaften der verallgemeinerten kanonischen Verteilung
Eigenschaften der verallgemeinerten kanonischen Verteilung
Zeile 163: Zeile 161:
später: wichtige Anwendungen in der Thermodynamik
später: wichtige Anwendungen in der Thermodynamik


====Legendre- Transformation:====
== Legendre- Transformation: ==


Sei  
Sei  
Zeile 218: Zeile 216:
.
.


====Anwendung auf die verallgemeinerte kanonische Verteilung:====
== Anwendung auf die verallgemeinerte kanonische Verteilung: ==


<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
Zeile 492: Zeile 490:
konvex !
konvex !


====Zusammenhang mit der Korrelationsmatrix====
== Zusammenhang mit der Korrelationsmatrix ==


<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>
Zeile 531: Zeile 529:
Dissipation: Systematische Änderung der Mittelwerte !
Dissipation: Systematische Änderung der Mittelwerte !


====Korrektur einer Verteilung durch Zusatzinformationen====
== Korrektur einer Verteilung durch Zusatzinformationen ==


Sei
Sei
Zeile 563: Zeile 561:




====Prinzip der vorurteilsfreien Schätzung====
== Prinzip der vorurteilsfreien Schätzung ==


Suche Minimum des Informationsgewinns
Suche Minimum des Informationsgewinns
Zeile 616: Zeile 614:


<math>\begin{align}
<math>\begin{align}
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
  & keine\ddot{A}nderung \\  
  & keine\ddot{A}nderung \\  
Zeile 634: Zeile 632:


Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
==Siehe auch==
< references />

Version vom 1. September 2010, 14:42 Uhr




Motivation:

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von auf die Wahrscheinlichkeitsverteilung


Methode:

Vorurteilsfreie Schätzung ( Jaynes , 1957):

unbiased guess; Prinzip des maximalen Nichtwissens:

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
  • ( Minimum der Shannon- Information

= Maximum des Nichtwissens

liefert Gleichverteilung
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:



Annahme:

Jedes Elementarereignis

hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse


gilt Gleichverteilung über den 

.

Informationstheoretisches Prinzip ( Jaynes)

Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:



Nebenbed.:



Variation:


Es gilt: von den N Variationen

sind nur N-m-1  unabhängig voneinander !



Lagrange- Multiplikator




Lagrange- Multiplikator



Anleitung

Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !

Somit:



Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)



Die verallgemeinerte kanonische Verteilung

Die Lagrange- Multiplikatoren


sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !

Kontinuierliche Ereignismenge !



unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

ANMERKUNG Schubotz: Siehe auch [1]

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn !

Dann ist


die Geschwindigkeit.

Aus kann die Bahn

noch nicht rekonstruiert werden, jedoch aus



mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von .

Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:



Also gilt:


und 

sind durch 

vollständig parametrisiert.

Nebenbemerkung

Die Verteilung

bzw. 

wirkt auf dem Raum der Zufallsvariablen 

(diskret) bzw. 

(kontinuierlich).


sind Parameter.


sind Erwartungswerte 


Beispiel:


 ( Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus



Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:


 Variable


 neue Variable  


 Legendre- Transformierte von 

!

Es folgt:



wegen:



Zusammengefasst:



Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!

Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von


bei Variation von



bzw.:



In Matrixschreibweise:



Wegen



Somit:


 ist symmetrisch

Aus



folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind



und



konvex !

Zusammenhang mit der Korrelationsmatrix

 ist Korrelationsmatrix ( siehe oben)


 2. Kumulante


 mit Kumulantenerzeugender



Suszeptibilität !

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen: Zufällige Schwankungen um den Mittelwert

Dissipation: Systematische Änderung der Mittelwerte !

Korrektur einer Verteilung durch Zusatzinformationen

Sei


die Verteilung, die 

unter Kenntnis der Nebenbedingungen



minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)

Jetzt:

Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):



Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung !!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !

Siehe auch

< references />

  1. ST7,5.4.13