Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Zeile 92: Zeile 92:




<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math>
:<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math>




Zeile 98: Zeile 98:




<math>\begin{align}
:<math>\begin{align}
   & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\  
   & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\  
  & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle  \\  
  & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle  \\  
Zeile 106: Zeile 106:


Durchführung einer Funktionalvariation:  
Durchführung einer Funktionalvariation:  
<math>\delta \rho (x)</math>
:<math>\delta \rho (x)</math>
:




<math>\begin{align}
 
:<math>\begin{align}
   & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\  
   & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\  
  & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\  
  & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\  
Zeile 120: Zeile 120:


'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
{{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}
 
{{AnMS|Siehe auch {{Quelle|St7B|5.4.13|Kap 5.4.3 S46}}}}


==Eigenschaften der verallgemeinerten kanonischen Verteilung==
==Eigenschaften der verallgemeinerten kanonischen Verteilung==

Version vom 1. September 2010, 15:01 Uhr




Motivation

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von auf die Wahrscheinlichkeitsverteilung


Methode

Vorurteilsfreie Schätzung ( Jaynes , 1957):

unbiased guess; Prinzip des maximalen Nichtwissens:

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
  • ( Minimum der Shannon- Information

= Maximum des Nichtwissens

liefert Gleichverteilung
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:



Annahme:

Jedes Elementarereignis

hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse


gilt Gleichverteilung über den 

.

Informationstheoretisches Prinzip

(nach (Jaynes 1922-1998))

Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:

Nebenbed.:

Variation:


Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander !

Lagrange- Multiplikator


Lagrange- Multiplikator

Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !

Somit:


Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)


Die Vorlage:FBverallgemeinerte kanonische Verteilung

Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !

Kontinuierliche Ereignismenge


unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

ANMERKUNG Schubotz: Siehe auch [1]

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn !

Dann ist die Geschwindigkeit.

Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus

mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von .

Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:



Also gilt:


und 

sind durch 

vollständig parametrisiert.

Nebenbemerkung

Die Verteilung

bzw. 

wirkt auf dem Raum der Zufallsvariablen 

(diskret) bzw. 

(kontinuierlich).


sind Parameter.


sind Erwartungswerte 


Beispiel:


 ( Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus



Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:


 Variable


 neue Variable  


 Legendre- Transformierte von 

!

Es folgt:



wegen:



Zusammengefasst:



Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!

Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von


bei Variation von



bzw.:



In Matrixschreibweise:



Wegen



Somit:


 ist symmetrisch

Aus



folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind



und



konvex !

Zusammenhang mit der Korrelationsmatrix

 ist Korrelationsmatrix ( siehe oben)


 2. Kumulante


 mit Kumulantenerzeugender



Suszeptibilität !

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen: Zufällige Schwankungen um den Mittelwert

Dissipation: Systematische Änderung der Mittelwerte !

Korrektur einer Verteilung durch Zusatzinformationen

Sei


die Verteilung, die 

unter Kenntnis der Nebenbedingungen



minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)

Jetzt:

Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):



Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung !!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !

Siehe auch

  1. Brandes,T, Thermodynamik und Statistische Physik, Vorlesung, TU-Berlin, Wintersemester 2006/2007, Gleichung 5.4.13 (Kap 5.4.3 S46)