Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Die Seite wurde neu angelegt: „ <math>\rho \left( x \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)</math> <math>{{M}^{\nu }}</math> mikroskopische Obeservable <math>\left\…“
 
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>


<math>\rho \left( x \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)</math>
===Verallgemeinerte kanonische Verteilung===


<math>{{M}^{\nu }}</math> mikroskopische Obeservable
====Motivation:====
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte
<math>\left\langle M(x) \right\rangle </math>
von Mikroobservablen M(x), interpretiert als Zufallsvariable.


Rückschlüsse von
<math>\left\langle M(x) \right\rangle </math>
auf die Wahrscheinlichkeitsverteilung
<math>\rho (x)?</math>


<math>\left\langle {{M}^{\nu }} \right\rangle =\sum\limits_{i=1}^{N}{{{P}_{i}}M_{i}^{\nu }}=\int{d{{x}^{d}}\rho \left( x \right){{M}^{\nu }}\left( x \right)}</math> mittelwert von mikroskopiser Observabele
 
====Methode:====
Vorurteilsfreie Schätzung ( Jaynes , 1957):
 
unbiased guess; Prinzip des maximalen Nichtwissens:
 
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
* ( Minimum der Shannon- Information
<math>I\left( \rho (x) \right)</math>
= Maximum des Nichtwissens
<math>S\left( \rho (x) \right)</math>
liefert Gleichverteilung
* '''Jetzt: '''Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
 
 
<math>\begin{align}
  & {{M}_{i}}^{n} \\
& n=1,2,...,m \\
& \Rightarrow \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\
& n=1,...,m \\
& m<<N \\
\end{align}</math>
 
 
<u>'''Annahme:'''</u>
 
Jedes Elementarereignis
<math>{{A}_{i}}</math>
hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
 
 
<math>\left\langle {{M}^{n}} \right\rangle </math>
gilt Gleichverteilung über den
<math>{{A}_{i}}</math>
.
 
====Informationstheoretisches Prinzip ( Jaynes)====
 
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:
 
Also:
 
 
<math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>
 
 
Nebenbed.:
 
 
<math>\begin{align}
  & \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\
& \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\
& n=1,...,m \\
\end{align}</math>
 
 
====Variation:====
 
<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>
 
 
Es gilt: von den  N Variationen
<math>\delta {{P}_{i}}</math>
sind nur N-m-1  unabhängig voneinander !
 
 
<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
 
 
Lagrange- Multiplikator
 
 
<math>\lambda =-\left( \Psi +1 \right)</math>
 
 
 
<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math>
 
 
Lagrange- Multiplikator
 
 
<math>{{\lambda }_{n}}</math>
 
 
====Anleitung====
Wähle
<math>\Psi ,{{\lambda }_{n}}</math>
so, dass die Koeffizienten von
<math>\left( m+1 \right)\delta {{P}_{i}}</math>
´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
 
Somit:
 
 
<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math>
 
 
Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)
 
 
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
 
 
====Die verallgemeinerte kanonische Verteilung====
 
Die Lagrange- Multiplikatoren
 
 
<math>\Psi ,{{\lambda }_{n}}</math>
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
 
<u>'''Kontinuierliche Ereignismenge !'''</u>
 
 
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math>
 
 
unter der Nebenbedingung
 
 
<math>\begin{align}
  & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle  \\
& n=1,...,m \\
\end{align}</math>
 
 
Durchführung einer Funktionalvariation:
<math>\delta \rho (x)</math>
:
 
 
<math>\begin{align}
  & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\
& \int_{{}}^{{}}{{{d}^{d}}x{{M}^{n}}(x)\delta \rho (x)}=0 \\
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho -\Psi +{{\lambda }_{n}}{{M}^{n}} \right)\delta \rho (x)}=0 \\
& \Rightarrow \rho (x)=\exp (\Psi -{{\lambda }_{n}}{{M}^{n}}) \\
\end{align}</math>
 
 
'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
 
Eigenschaften der verallgemeinerten kanonischen Verteilung
 
hier: noch rein informationstheoretisch,
 
später: wichtige Anwendungen in der Thermodynamik
 
====Legendre- Transformation:====
 
Sei
<math>\Psi (t)</math>
eine Bahn !
 
Dann ist
<math>M:=\frac{d\Psi (t)}{dt}</math>
 
 
die Geschwindigkeit.
 
Aus
<math>\Psi (M)</math>
kann die Bahn
<math>\Psi (t)</math>
noch nicht rekonstruiert werden, jedoch aus
 
 
<math>I(M)=\Psi (t)-M(t)t</math>
 
 
mit t=t(M):
 
 
 
<math>\begin{align}
  & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\
& M:=\frac{d\Psi (t)}{dt} \\
& \Rightarrow \frac{dI}{dM}=-t \\
\end{align}</math>
 
 
hieraus folgt
<math>M(t)</math>
 
 
eingesetzt in
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math>
 
 
durch Eisnetzen gewinnt man
<math>\Psi (t)</math>
 
 
Jedenfalls:
 
 
<math>I(M)=\Psi (t)-M(t)t</math>
 
 
heißt legendre- Transformierte von
<math>\Psi (t)</math>
.
 
====Anwendung auf die verallgemeinerte kanonische Verteilung:====
 
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
 
 
Normierung:
 
 
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>
 
 
Also gilt:
 
 
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
und
<math>{{P}_{i}}</math>
sind durch
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
vollständig parametrisiert.
 
'''Nebenbemerkung'''
 
Die Verteilung
<math>{{P}_{i}}</math>
bzw.
<math>\rho \left( x \right)</math>
wirkt auf dem Raum der Zufallsvariablen
<math>{{M}_{i}}^{n}</math>
(diskret) bzw.
<math>x\in {{R}^{d}}</math>
(kontinuierlich).
 
 
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
sind Parameter.
 
 
<math>\left\langle {{M}^{n}} \right\rangle </math>
sind Erwartungswerte
<math>\left\langle {{M}^{n}} \right\rangle \in R</math>
 
 
'''Beispiel:'''
 
 
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math>
  ( Phasenraumelement)
 
mit
<math>\Gamma </math>
als Phasenraum der kanonisch konjugierten Variablen
 
 
<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math>
mikrokanonisch Verteilungsfunktion
 
 
<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math>
als mittlere Energie
 
'''Shannon- Information:'''
 
 
<math>\begin{align}
  & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle  \\
\end{align}</math>
 
 
Aus
 
 
<math>\begin{align}
  & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ 
& \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{e}^{-\Psi }} \\
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\sum\limits_{i}^{{}}{{}}\left( {{M}_{i}}^{n} \right)\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\
& \exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{P}_{i}} \\
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\sum\limits_{i}^{{}}{{}}\left( {{M}_{i}}^{n} \right){{P}_{i}} \\
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\left\langle {{M}^{n}} \right\rangle  \\
\end{align}</math>
 
 
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
 
 
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math>
  '''Variable
<math>{{\lambda }_{n}}</math>
'''
 
 
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math>
  neue Variable 
<math>\left\langle {{M}^{n}} \right\rangle </math>
 
 
 
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math>
  Legendre- Transformierte von
<math>\Psi </math>
!
 
Es folgt:
 
 
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math>
 
 
wegen:
 
 
<math>\begin{align}
  & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle  \\
& \Rightarrow \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}} \\
\end{align}</math>
 
 
Zusammengefasst:
 
 
<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math>
 
 
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!
 
Betachte Variation:
 
 
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math>
 
 
dann:
 
 
<math>\begin{align}
  & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\
& \Psi \to \Psi +\delta \Psi  \\
& {{P}_{i}}\to {{P}_{i}}+\delta {{P}_{i}} \\
\end{align}</math>
 
 
'''Informationsgewinn:'''
 
 
<math>\begin{align}
  & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\
& \Rightarrow K\left( P+\delta P,P \right)=\left( \Psi +\delta \Psi  \right)-\left( {{\lambda }_{n}}+\delta {{\lambda }_{n}} \right)\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\left( \Psi -{{\lambda }_{n}}{{M}^{n}}_{i} \right) \\
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\left( \Psi -{{\lambda }_{n}}{{M}^{n}}_{i} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right){{M}^{n}}_{i}=\Psi -{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right) \\
& \Rightarrow K\left( P+\delta P,P \right)=\left( \Psi +\delta \Psi  \right)-\left( {{\lambda }_{n}}+\delta {{\lambda }_{n}} \right)\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right)-\Psi +{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right) \\
& =\delta \Psi -\delta {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right) \\
\end{align}</math>
 
 
Wir können die variierten Funktionen für kleine Variationen
<math>\delta {{\lambda }_{n}}</math>
entwickeln:
 
 
<math>\begin{align}
  & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\
& \Rightarrow K\left( P+\delta P,P \right)=\delta \Psi -\delta {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle  \right)=\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}-\left\langle {{M}^{n}} \right\rangle  \right)\delta {{\lambda }_{n}}+\left( \frac{1}{2}\frac{\partial }{\partial {{\lambda }_{m}}}\frac{\partial \Psi }{\partial {{\lambda }_{n}}}-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \right)\delta {{\lambda }_{n}}\delta {{\lambda }_{m}} \\
& \frac{\partial \Psi }{\partial {{\lambda }_{n}}}=\left\langle {{M}^{n}} \right\rangle \Rightarrow \left( \frac{1}{2}\frac{\partial }{\partial {{\lambda }_{m}}}\frac{\partial \Psi }{\partial {{\lambda }_{n}}}-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \\
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}-\left\langle {{M}^{n}} \right\rangle  \right)=0 \\
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}} \\
& K\left( P+\delta P,P \right)\ge 0 \\
\end{align}</math>
 
 
Vergleiche oben
 
also folgt:
 
 
<math>\begin{align}
  & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\
\end{align}</math>
 
 
negativ semidefinit, für alle
<math>\delta {{\lambda }_{m}}</math>
 
 
Definiere Suszeptibilitätsmatrix:
 
 
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math>
 
 
Diese Matrix beschreibt die Änderung von  
<math>\left\langle {{M}^{m}} \right\rangle </math>
 
 
bei Variation von
<math>{{\lambda }_{n}}</math>
:
 
 
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math>
 
 
bzw.:
 
 
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math>
 
 
In Matrixschreibweise:
 
 
<math>\begin{align}
  & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle  \\
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\
\end{align}</math>
 
 
Wegen
 
 
<math>\begin{align}
  & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right)=\left\langle {{M}^{n}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right)={{\eta }^{nm}} \\
\end{align}</math>
 
 
Somit:
 
 
<math>{{\eta }^{nm}}</math>
  ist symmetrisch
 
Aus
 
 
<math>K\left( P+\delta P,P \right)\ge 0</math>
 
 
folgt:
 
 
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math>
 
 
Also:  negativ- semidefinite quadratisceh Form:
 
 
<math>\begin{align}
  & \Rightarrow {{\eta }^{nn}}\le 0 \\
& {{{\tilde{\eta }}}_{nn}}\le 0 \\
\end{align}</math>
 
 
'''Nebenbemerkung:'''
 
Also sind
 
 
<math>I\left( \left\langle {{M}^{n}} \right\rangle  \right)</math>
 
 
und
 
 
<math>-\Psi \left( {{\lambda }_{n}} \right)</math>
 
 
konvex !
 
====Zusammenhang mit der Korrelationsmatrix====
 
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>
  ist Korrelationsmatrix ( siehe oben)
 
 
<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math>
  2. Kumulante
 
 
<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math>
  mit Kumulantenerzeugender
 
 
<math>\begin{align}
  & \Gamma \left( \alpha  \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda  \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\
& \ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=-\Psi \left( \lambda -\alpha  \right) \\
& \Rightarrow \Gamma \left( \alpha  \right)=\Psi \left( \lambda  \right)-\Psi \left( \lambda -\alpha  \right) \\
& \Rightarrow {{Q}^{mn}}=-{{\left. \frac{{{\partial }^{2}}\Psi \left( \lambda -\alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}=-\frac{{{\partial }^{2}}\Psi \left( \lambda  \right)}{\partial {{\lambda }_{m}}\partial {{\lambda }_{n}}}=-{{\eta }^{mn}} \\
\end{align}</math>
 
 
Suszeptibilität !
 
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
 
Also:
 
 
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math>
 
 
Fluktuations/ Dissipations- Theorem:
 
Fluktuationen: Zufällige Schwankungen um den Mittelwert
 
Dissipation: Systematische Änderung der Mittelwerte !
 
====Korrektur einer Verteilung durch Zusatzinformationen====
 
Sei
 
 
<math>{{P}^{0}}</math>
die Verteilung, die
<math>I\left( P \right)</math>
unter Kenntnis der Nebenbedingungen
 
 
<math>\begin{align}
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle  \\
& m=1,...,m \\
\end{align}</math>
 
 
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
 
'''Jetzt:'''
 
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
 
 
<math>\begin{align}
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle  \\
& \sigma =1,...,s \\
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\
\end{align}</math>
 
 
====Prinzip der vorurteilsfreien Schätzung====
 
Suche Minimum des Informationsgewinns
 
 
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math>
 
 
unter dieser Nebenbedingung !!
 
Also:
 
 
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math>
 
 
mit neuen Lagrange- Multiplikatoren
<math>\xi ,{{\xi }_{\sigma }}</math>
 
 
 
<math>\begin{align}
  & \Rightarrow 1+\xi =-\Xi  \\
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\
& \Rightarrow {{P}_{i}}={{P}_{i}}^{0}\exp \left( \Xi -{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right) \\
\end{align}</math>
 
 
Mit
 
 
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
  folgt:
 
 
<math>\begin{align}
  & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}\ln {{P}_{i}}^{0}=I({{P}^{0}}) \\
& -{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}=-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}-{{P}_{i}}^{0} \right)\ln {{P}_{i}}^{0} \\
& \ln {{P}_{i}}^{0}=\Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \\
& -\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}-{{P}_{i}}^{0} \right)\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)=\left\langle {{M}^{n}} \right\rangle  \\
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right)={{\left\langle {{M}^{n}} \right\rangle }_{0}} \\
\end{align}</math>
 
 
Da nun die Mittelwerte
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math>
nicht durch die Zusatzinfo geändert werden muss gelten:
 
 
<math>\begin{align}
  & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\
& keine\ddot{A}nderung \\
& \Rightarrow {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=0 \\
& \left\langle {{M}^{n}} \right\rangle ={{\left\langle {{M}^{n}} \right\rangle }_{0}} \\
\end{align}</math>
 
 
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
 
 
<math>\begin{align}
  & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\
\end{align}</math>
 
 
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !

Version vom 31. August 2010, 22:44 Uhr




Verallgemeinerte kanonische Verteilung

Motivation:

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von auf die Wahrscheinlichkeitsverteilung


Methode:

Vorurteilsfreie Schätzung ( Jaynes , 1957):

unbiased guess; Prinzip des maximalen Nichtwissens:

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
  • ( Minimum der Shannon- Information

= Maximum des Nichtwissens

liefert Gleichverteilung
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:



Annahme:

Jedes Elementarereignis

hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse


gilt Gleichverteilung über den 

.

Informationstheoretisches Prinzip ( Jaynes)

Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:



Nebenbed.:



Variation:


Es gilt: von den N Variationen

sind nur N-m-1  unabhängig voneinander !



Lagrange- Multiplikator




Lagrange- Multiplikator



Anleitung

Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !

Somit:



Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)



Die verallgemeinerte kanonische Verteilung

Die Lagrange- Multiplikatoren


sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !

Kontinuierliche Ereignismenge !



unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn !

Dann ist


die Geschwindigkeit.

Aus kann die Bahn

noch nicht rekonstruiert werden, jedoch aus



mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von .

Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:



Also gilt:


und 

sind durch 

vollständig parametrisiert.

Nebenbemerkung

Die Verteilung

bzw. 

wirkt auf dem Raum der Zufallsvariablen 

(diskret) bzw. 

(kontinuierlich).


sind Parameter.


sind Erwartungswerte 


Beispiel:


 ( Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus



Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:


 Variable


 neue Variable  


 Legendre- Transformierte von 

!

Es folgt:



wegen:



Zusammengefasst:



Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!

Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von


bei Variation von



bzw.:



In Matrixschreibweise:



Wegen



Somit:


 ist symmetrisch

Aus



folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind



und



konvex !

Zusammenhang mit der Korrelationsmatrix

 ist Korrelationsmatrix ( siehe oben)


 2. Kumulante


 mit Kumulantenerzeugender



Suszeptibilität !

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen: Zufällige Schwankungen um den Mittelwert

Dissipation: Systematische Änderung der Mittelwerte !

Korrektur einer Verteilung durch Zusatzinformationen

Sei


die Verteilung, die 

unter Kenntnis der Nebenbedingungen



minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)

Jetzt:

Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):



Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung !!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !