Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
*>SchuBot
K Interpunktion, replaced: , → , (16), ( → ( (7)
 
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt)
Zeile 3: Zeile 3:
== Motivation ==
== Motivation ==
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
<math>\left\langle M(x) \right\rangle </math>
:<math>\left\langle M(x) \right\rangle </math>
von Mikroobservablen M(x), interpretiert als Zufallsvariable.
von Mikroobservablen M(x), interpretiert als Zufallsvariable.


Rückschlüsse von  
Rückschlüsse von  
<math>\left\langle M(x) \right\rangle </math>
:<math>\left\langle M(x) \right\rangle </math>
auf die Wahrscheinlichkeitsverteilung  
auf die Wahrscheinlichkeitsverteilung  
<math>\rho (x)?</math>
:<math>\rho (x)?</math>




== Methode ==
== Methode ==
Vorurteilsfreie Schätzung ( Jaynes , 1957):
Vorurteilsfreie Schätzung (Jaynes, 1957):
(unbiased guess; Prinzip des maximalen Nichtwissens)
(unbiased guess; Prinzip des maximalen Nichtwissens)


* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
** ( Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung)
** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung)
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen:
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen:


Zeile 31: Zeile 31:
<u>'''Annahme:'''</u>
<u>'''Annahme:'''</u>


Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>.
Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>.


== Informationstheoretisches Prinzip==
== Informationstheoretisches Prinzip==
(nach (Jaynes 1922-1998))
(nach (Jaynes 1922-1998))


Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:


Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>
Zeile 50: Zeile 50:




Es gilt: von den  N Variationen  <math>\delta {{P}_{i}}</math>  sind nur N-m-1  unabhängig voneinander !
Es gilt: von den  N Variationen  <math>\delta {{P}_{i}}</math>  sind nur N-m-1  unabhängig voneinander!


:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
Zeile 61: Zeile 61:
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math>
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math>


<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar!


Somit:
Somit:
Zeile 73: Zeile 73:
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}}
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}}


Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math>  sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math>  sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt!


===Kontinuierliche Ereignismenge===
===Kontinuierliche Ereignismenge===
Zeile 117: Zeile 117:
{{FB|Legendre- Transformation}}:
{{FB|Legendre- Transformation}}:


Sei <math>\Psi (t)</math> eine Bahn !
Sei <math>\Psi (t)</math> eine Bahn!


Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit.
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit.
Zeile 126: Zeile 126:




<math>\begin{align}
:<math>\begin{align}
   & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\  
   & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\  
  & M:=\frac{d\Psi (t)}{dt} \\  
  & M:=\frac{d\Psi (t)}{dt} \\  
Zeile 134: Zeile 134:


hieraus folgt  
hieraus folgt  
<math>M(t)</math>
:<math>M(t)</math>




eingesetzt in  
eingesetzt in  
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math>
:<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math>




durch Eisnetzen gewinnt man  
durch Eisnetzen gewinnt man  
<math>\Psi (t)</math>
:<math>\Psi (t)</math>




Zeile 148: Zeile 148:




<math>I(M)=\Psi (t)-M(t)t</math>
:<math>I(M)=\Psi (t)-M(t)t</math>




heißt legendre- Transformierte von  
heißt legendre- Transformierte von  
<math>\Psi (t)</math>
:<math>\Psi (t)</math>.
.
 


=== Anwendung auf die verallgemeinerte kanonische Verteilung: ===
=== Anwendung auf die verallgemeinerte kanonische Verteilung: ===


<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>




Zeile 163: Zeile 163:


{{Gln|
{{Gln|
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\sum_i \exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>}}
:<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\sum_i \exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>}}




Zeile 169: Zeile 169:




<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und  <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert.
:<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und  <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert.


'''Nebenbemerkung'''
'''Nebenbemerkung'''
Zeile 181: Zeile 181:


{{Beispiel|'''Beispiel:'''
{{Beispiel|'''Beispiel:'''
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math>  ( Phasenraumelement)
:<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math>  (Phasenraumelement)


mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen
mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen




<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> mikrokanonisch Verteilungsfunktion
:<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> mikrokanonisch Verteilungsfunktion




<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie
:<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie
}}
}}
'''Shannon- Information:'''
'''Shannon- Information:'''




<math>\begin{align}
:<math>\begin{align}
   & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
   & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
  & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle  \\  
  & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle  \\  
Zeile 211: Zeile 211:




Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren:




<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math>  '''Variable''' <math>{{\lambda }_{n}}</math>
:<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math>  '''Variable''' <math>{{\lambda }_{n}}</math>




<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math>  neue Variable  <math>\left\langle {{M}^{n}} \right\rangle </math>
:<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math>  neue Variable  <math>\left\langle {{M}^{n}} \right\rangle </math>






<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math>  Legendre- Transformierte von <math>\Psi </math> !
:<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math>  Legendre- Transformierte von <math>\Psi </math>!


Es folgt:
Es folgt:




<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math>
:<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math>




Zeile 232: Zeile 232:




<math>\begin{align}
:<math>\begin{align}
   & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\  
   & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\  
  & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle  \\  
  & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle  \\  
Zeile 242: Zeile 242:


{{Gln|
{{Gln|
<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math>
:<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math>


Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}}
Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}}
Zeile 249: Zeile 249:




<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math>
:<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math>




Zeile 255: Zeile 255:




<math>\begin{align}
:<math>\begin{align}
   & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\  
   & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\  
  & \Psi \to \Psi +\delta \Psi  \\  
  & \Psi \to \Psi +\delta \Psi  \\  
Zeile 265: Zeile 265:




<math>\begin{align}
:<math>\begin{align}
   & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\  
   & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\  
  & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\  
  & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\  
Zeile 276: Zeile 276:


Wir können die variierten Funktionen für kleine Variationen  
Wir können die variierten Funktionen für kleine Variationen  
<math>\delta {{\lambda }_{n}}</math>
:<math>\delta {{\lambda }_{n}}</math>
entwickeln:
entwickeln:




<math>\begin{align}
:<math>\begin{align}
   & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
   & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
  & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
  & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
Zeile 296: Zeile 296:




<math>\begin{align}
:<math>\begin{align}
   & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\  
   & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\  
  & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\  
  & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\  
Zeile 308: Zeile 308:




<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math>
:<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math>




Zeile 320: Zeile 320:




<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math>
:<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math>




Zeile 326: Zeile 326:




<math>\begin{align}
:<math>\begin{align}
   & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle  \\  
   & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle  \\  
  & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\  
  & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\  
Zeile 335: Zeile 335:




<math>\begin{align}
:<math>\begin{align}
   & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\  
   & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\  
  & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\  
  & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\  
Zeile 343: Zeile 343:


Somit:
Somit:
<math>{{\eta }^{nm}}</math>  ist symmetrisch
:<math>{{\eta }^{nm}}</math>  ist symmetrisch


Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt:
Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt:
Zeile 354: Zeile 354:




<math>\begin{align}
:<math>\begin{align}
   & \Rightarrow {{\eta }^{nn}}\le 0 \\  
   & \Rightarrow {{\eta }^{nn}}\le 0 \\  
  & {{{\tilde{\eta }}}_{nn}}\le 0 \\  
  & {{{\tilde{\eta }}}_{nn}}\le 0 \\  
Zeile 362: Zeile 362:
'''Nebenbemerkung:'''
'''Nebenbemerkung:'''


Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle  \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex !
Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle  \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex!


== Zusammenhang mit der Korrelationsmatrix ==
== Zusammenhang mit der Korrelationsmatrix ==


<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>  ist Korrelationsmatrix ( siehe oben)
:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>  ist Korrelationsmatrix (siehe oben)


<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math>  2. Kumulante
:<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math>  2. Kumulante




<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math>  mit Kumulantenerzeugender
:<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math>  mit Kumulantenerzeugender




<math>\begin{align}
:<math>\begin{align}
   & \Gamma \left( \alpha  \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\  
   & \Gamma \left( \alpha  \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\  
  & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda  \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\  
  & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda  \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\  
Zeile 383: Zeile 383:




Suszeptibilität !
Suszeptibilität!


Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!!


Also:
Also:
{{Gln|
{{Gln|


<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> |Fluktuations-Dissipations-Theorem}}
:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> |Fluktuations-Dissipations-Theorem}}




Zeile 397: Zeile 397:
;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert
;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert


;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte !
;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte!


== Korrektur einer Verteilung durch Zusatzinformationen ==
== Korrektur einer Verteilung durch Zusatzinformationen ==
Zeile 408: Zeile 408:
  & m=1,...,m \\  
  & m=1,...,m \\  
\end{align}</math>
\end{align}</math>
: minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
: minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!)


'''Jetzt:'''
'''Jetzt:'''


Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
Zusatzinformationen (zusätzliche Mittelwerte beobachtet):


:<math>\begin{align}
:<math>\begin{align}
Zeile 425: Zeile 425:




<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math>
:<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math>




unter dieser Nebenbedingung !!
unter dieser Nebenbedingung!!


Also:
Also:




<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math>
:<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math>




mit neuen Lagrange- Multiplikatoren  
mit neuen Lagrange- Multiplikatoren  
<math>\xi ,{{\xi }_{\sigma }}</math>
:<math>\xi ,{{\xi }_{\sigma }}</math>






<math>\begin{align}
:<math>\begin{align}
   & \Rightarrow 1+\xi =-\Xi  \\  
   & \Rightarrow 1+\xi =-\Xi  \\  
  & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\  
  & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\  
Zeile 451: Zeile 451:




<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
:<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
   folgt:
   folgt:




<math>\begin{align}
:<math>\begin{align}
   & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\  
   & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\  
Zeile 468: Zeile 468:


Da nun die Mittelwerte  
Da nun die Mittelwerte  
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math>
:<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math>
nicht durch die Zusatzinfo geändert werden muss gelten:
nicht durch die Zusatzinfo geändert werden muss gelten:




<math>\begin{align}
:<math>\begin{align}
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
Zeile 481: Zeile 481:




da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden!




<math>\begin{align}
:<math>\begin{align}
   & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  
   & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\  
Zeile 490: Zeile 490:




Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info!


==Siehe auch==
==Siehe auch==


<references />
<references />

Aktuelle Version vom 13. September 2010, 00:57 Uhr




Motivation

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte

von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von

auf die Wahrscheinlichkeitsverteilung


Methode

Vorurteilsfreie Schätzung (Jaynes, 1957): (unbiased guess; Prinzip des maximalen Nichtwissens)

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
    • (Minimum der Shannon- Information = Maximum des Nichtwissens liefert Gleichverteilung)
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:


Annahme:

Jedes Elementarereignis hat gleiche a-priori- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse gilt Gleichverteilung über den .

Informationstheoretisches Prinzip

(nach (Jaynes 1922-1998))

Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:

Nebenbed.:

Variation:


Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander!

Lagrange- Multiplikator


Lagrange- Multiplikator

Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar!

Somit:


Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)


: verallgemeinerte kanonische Verteilung


Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt!

Kontinuierliche Ereignismenge


unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

ANMERKUNG Schubotz: Siehe auch [1]

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn!

Dann ist die Geschwindigkeit.

Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus

mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von

.


Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:




Also gilt:


und sind durch vollständig parametrisiert.

Nebenbemerkung

Die Verteilung bzw. wirkt auf dem Raum der Zufallsvariablen (diskret) bzw. (kontinuierlich).

sind Parameter.


sind Erwartungswerte


Beispiel:
(Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus


Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren:


Variable


neue Variable


Legendre- Transformierte von !

Es folgt:



wegen:



Zusammengefasst:


Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung!


Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen

entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von bei Variation von :



bzw.:



In Matrixschreibweise:



Wegen



Somit:

ist symmetrisch

Aus folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind und konvex!

Zusammenhang mit der Korrelationsmatrix

ist Korrelationsmatrix (siehe oben)
2. Kumulante


mit Kumulantenerzeugender



Suszeptibilität!

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen
Zufällige Schwankungen um den Mittelwert
Dissipation
Systematische Änderung der Mittelwerte!

Korrektur einer Verteilung durch Zusatzinformationen

Sei die Verteilung, die unter Kenntnis der Nebenbedingungen

minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!)

Jetzt:

Zusatzinformationen (zusätzliche Mittelwerte beobachtet):

Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung!!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte

nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden!



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info!

Siehe auch

  1. Brandes,T, Thermodynamik und Statistische Physik, Vorlesung, TU-Berlin, Wintersemester 2006/2007, Gleichung 5.4.13 (Kap 5.4.3 S46)