Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
*>SchuBot K Interpunktion, replaced: , → , (16), ( → ( (7) |
||
(12 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | <noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | ||
== Motivation | == Motivation == | ||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | ||
<math>\left\langle M(x) \right\rangle </math> | :<math>\left\langle M(x) \right\rangle </math> | ||
von Mikroobservablen M(x), interpretiert als Zufallsvariable. | von Mikroobservablen M(x), interpretiert als Zufallsvariable. | ||
Rückschlüsse von | Rückschlüsse von | ||
<math>\left\langle M(x) \right\rangle </math> | :<math>\left\langle M(x) \right\rangle </math> | ||
auf die Wahrscheinlichkeitsverteilung | auf die Wahrscheinlichkeitsverteilung | ||
<math>\rho (x)?</math> | :<math>\rho (x)?</math> | ||
== Methode | == Methode == | ||
Vorurteilsfreie Schätzung ( Jaynes , 1957): | Vorurteilsfreie Schätzung (Jaynes, 1957): | ||
(unbiased guess; Prinzip des maximalen Nichtwissens) | |||
unbiased guess; Prinzip des maximalen Nichtwissens | |||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | ||
* ( Minimum der Shannon- Information | ** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ||
<math>I\left( \rho (x) \right)</math> | * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | ||
= Maximum des Nichtwissens | |||
<math>S\left( \rho (x) \right)</math> | |||
* '''Jetzt: '''Zusätzlich zur Normierung der | |||
:<math>\begin{align} | |||
<math>\begin{align} | |||
& {{M}_{i}}^{n} \\ | & {{M}_{i}}^{n} \\ | ||
& n=1,2,...,m \\ | & n=1,2,...,m \\ | ||
Zeile 37: | Zeile 31: | ||
<u>'''Annahme:'''</u> | <u>'''Annahme:'''</u> | ||
Jedes Elementarereignis | Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | ||
<math>{{A}_{i}}</math> | |||
== Informationstheoretisches Prinzip== | |||
(nach (Jaynes 1922-1998)) | |||
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | |||
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält: | |||
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | |||
Nebenbed.: | Nebenbed.: | ||
:<math>\begin{align} | |||
<math>\begin{align} | |||
& \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\ | ||
& \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
Zeile 66: | Zeile 47: | ||
\end{align}</math> | \end{align}</math> | ||
<u>Variation</u>: <math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math> | |||
Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander! | |||
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | |||
<math>\ | Lagrange- Multiplikator <math>\lambda =-\left( \Psi +1 \right)</math> | ||
:<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math> | |||
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | |||
< | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar! | ||
Wähle | |||
<math>\Psi ,{{\lambda }_{n}}</math> | |||
so, dass die Koeffizienten von | |||
<math>\left( m+1 \right)\delta {{P}_{i}}</math> | |||
´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | |||
Somit: | Somit: | ||
:<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math> | |||
Vorsicht: Auch Summe über <math>\nu</math> (Einsteinsche Summenkonvention!) | |||
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | |||
<math> | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt! | ||
===Kontinuierliche Ereignismenge=== | |||
:<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | |||
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | |||
Zeile 132: | Zeile 84: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | ||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | ||
Zeile 140: | Zeile 92: | ||
Durchführung einer Funktionalvariation: | Durchführung einer Funktionalvariation: | ||
<math>\delta \rho (x)</math> | :<math>\delta \rho (x)</math> | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | ||
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | ||
Zeile 153: | Zeile 105: | ||
'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle| | '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' | ||
{{AnMS|Siehe auch {{Quelle|St7B|5.4.13|Kap 5.4.3 S46}}}} | |||
Eigenschaften der verallgemeinerten kanonischen Verteilung | ==Eigenschaften der verallgemeinerten kanonischen Verteilung== | ||
hier: noch rein informationstheoretisch, | hier: noch rein informationstheoretisch, | ||
Zeile 161: | Zeile 115: | ||
später: wichtige Anwendungen in der Thermodynamik | später: wichtige Anwendungen in der Thermodynamik | ||
{{FB|Legendre- Transformation}}: | |||
Sei | Sei <math>\Psi (t)</math> eine Bahn! | ||
<math>\Psi (t)</math> | |||
eine Bahn ! | |||
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | |||
Aus <math>\Psi (M)</math> kann die Bahn <math>\Psi (t)</math> noch nicht rekonstruiert werden, jedoch aus | |||
:<math>I(M)=\Psi (t)-M(t)t</math> | |||
mit t=t(M): | mit t=t(M): | ||
:<math>\begin{align} | |||
<math>\begin{align} | |||
& \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | ||
& M:=\frac{d\Psi (t)}{dt} \\ | & M:=\frac{d\Psi (t)}{dt} \\ | ||
Zeile 195: | Zeile 134: | ||
hieraus folgt | hieraus folgt | ||
<math>M(t)</math> | :<math>M(t)</math> | ||
eingesetzt in | eingesetzt in | ||
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | :<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | ||
durch Eisnetzen gewinnt man | durch Eisnetzen gewinnt man | ||
<math>\Psi (t)</math> | :<math>\Psi (t)</math> | ||
Zeile 209: | Zeile 148: | ||
<math>I(M)=\Psi (t)-M(t)t</math> | :<math>I(M)=\Psi (t)-M(t)t</math> | ||
heißt legendre- Transformierte von | heißt legendre- Transformierte von | ||
<math>\Psi (t)</math> | :<math>\Psi (t)</math>. | ||
. | |||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | === Anwendung auf die verallgemeinerte kanonische Verteilung: === | ||
:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
Normierung: | Normierung: | ||
{{Gln| | |||
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math> | :<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\sum_i \exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>}} | ||
Zeile 230: | Zeile 169: | ||
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | :<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert. | ||
<math>{{P}_{i}}</math> | |||
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
'''Nebenbemerkung''' | '''Nebenbemerkung''' | ||
Die Verteilung | Die Verteilung <math>{{P}_{i}}</math> bzw. <math>\rho \left( x \right)</math> wirkt auf dem Raum der Zufallsvariablen <math>{{M}_{i}}^{n}</math> (diskret) bzw. <math>x\in {{R}^{d}}</math>(kontinuierlich). | ||
<math>{{P}_{i}}</math> | :<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> sind Parameter. | ||
<math>\rho \left( x \right)</math> | |||
<math>{{M}_{i}}^{n}</math> | |||
<math>x\in {{R}^{d}}</math> | |||
( | |||
<math>\left | :<math>\left\langle {{M}^{n}} \right\rangle </math> sind Erwartungswerte <math>\left\langle {{M}^{n}} \right\rangle \in R</math> | ||
<math>\left | {{Beispiel|'''Beispiel:''' | ||
:<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> (Phasenraumelement) | |||
mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | |||
:<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> mikrokanonisch Verteilungsfunktion | |||
:<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie | |||
}} | |||
'''Shannon- Information:''' | '''Shannon- Information:''' | ||
<math>\begin{align} | :<math>\begin{align} | ||
& I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | ||
Zeile 286: | Zeile 200: | ||
Aus | Aus <math>\begin{align} | ||
<math>\begin{align} | |||
& \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | ||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | & \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | ||
Zeile 300: | Zeile 211: | ||
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: | ||
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> | :<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> '''Variable''' <math>{{\lambda }_{n}}</math> | ||
<math>{{\lambda }_{n}}</math> | |||
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> | :<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> neue Variable <math>\left\langle {{M}^{n}} \right\rangle </math> | ||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> | :<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math>! | ||
<math>\Psi </math> | |||
Es folgt: | Es folgt: | ||
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | :<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | ||
Zeile 329: | Zeile 232: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | ||
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | ||
Zeile 338: | Zeile 241: | ||
Zusammengefasst: | Zusammengefasst: | ||
{{Gln| | |||
:<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math> | |||
Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}} | |||
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung ! | |||
Betachte Variation: | Betachte Variation: | ||
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | :<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | ||
Zeile 353: | Zeile 255: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | ||
& \Psi \to \Psi +\delta \Psi \\ | & \Psi \to \Psi +\delta \Psi \\ | ||
Zeile 363: | Zeile 265: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | ||
Zeile 374: | Zeile 276: | ||
Wir können die variierten Funktionen für kleine Variationen | Wir können die variierten Funktionen für kleine Variationen | ||
<math>\delta {{\lambda }_{n}}</math> | :<math>\delta {{\lambda }_{n}}</math> | ||
entwickeln: | entwickeln: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
Zeile 394: | Zeile 296: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | ||
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | ||
Zeile 400: | Zeile 302: | ||
negativ semidefinit, für alle | negativ semidefinit, für alle <math>\delta {{\lambda }_{m}}</math> | ||
<math>\delta {{\lambda }_{m}}</math> | |||
Definiere Suszeptibilitätsmatrix: | Definiere {{FB|Suszeptibilitätsmatrix}}: | ||
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | :<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | ||
Diese Matrix beschreibt die Änderung von | Diese Matrix beschreibt die Änderung von <math>\left\langle {{M}^{m}} \right\rangle </math> bei Variation von <math>{{\lambda }_{n}}</math>: | ||
<math>\left\langle {{M}^{m}} \right\rangle </math> | |||
:<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | |||
: | |||
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | |||
Zeile 425: | Zeile 320: | ||
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | :<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | ||
Zeile 431: | Zeile 326: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | ||
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | ||
Zeile 440: | Zeile 335: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | ||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | ||
Zeile 448: | Zeile 343: | ||
Somit: | Somit: | ||
:<math>{{\eta }^{nm}}</math> ist symmetrisch | |||
Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt: | |||
:<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | |||
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | |||
Zeile 468: | Zeile 354: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \Rightarrow {{\eta }^{nn}}\le 0 \\ | & \Rightarrow {{\eta }^{nn}}\le 0 \\ | ||
& {{{\tilde{\eta }}}_{nn}}\le 0 \\ | & {{{\tilde{\eta }}}_{nn}}\le 0 \\ | ||
Zeile 476: | Zeile 362: | ||
'''Nebenbemerkung:''' | '''Nebenbemerkung:''' | ||
Also sind | Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! | ||
<math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> | |||
und | |||
<math>-\Psi \left( {{\lambda }_{n}} \right)</math> | |||
konvex ! | |||
== Zusammenhang mit der Korrelationsmatrix == | == Zusammenhang mit der Korrelationsmatrix == | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> | :<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix (siehe oben) | ||
:<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> 2. Kumulante | |||
:<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math> mit Kumulantenerzeugender | |||
:<math>\begin{align} | |||
<math>\begin{align} | |||
& \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | & \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | ||
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | ||
Zeile 513: | Zeile 383: | ||
Suszeptibilität ! | Suszeptibilität! | ||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! | ||
Also: | Also: | ||
{{Gln| | |||
:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> |Fluktuations-Dissipations-Theorem}} | |||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> | |||
Fluktuations/ Dissipations- Theorem: | Fluktuations/ Dissipations- Theorem: | ||
Fluktuationen: Zufällige Schwankungen um den Mittelwert | ;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert | ||
Dissipation: Systematische Änderung der Mittelwerte ! | ;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte! | ||
== Korrektur einer Verteilung durch Zusatzinformationen == | == Korrektur einer Verteilung durch Zusatzinformationen == | ||
Sei | Sei <math>{{P}^{0}}</math> die Verteilung, die <math>I\left( P \right)</math> unter Kenntnis der '''Nebenbedingungen''' | ||
<math>{{P}^{0}}</math> | |||
<math>I\left( P \right)</math> | |||
<math>\begin{align} | :<math>\begin{align} | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | ||
& m=1,...,m \\ | & m=1,...,m \\ | ||
\end{align}</math> | \end{align}</math> | ||
: minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!) | |||
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | |||
'''Jetzt:''' | '''Jetzt:''' | ||
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | Zusatzinformationen (zusätzliche Mittelwerte beobachtet): | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | ||
& \sigma =1,...,s \\ | & \sigma =1,...,s \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | ||
\end{align}</math> | \end{align}</math> | ||
== Prinzip der vorurteilsfreien Schätzung == | == Prinzip der vorurteilsfreien Schätzung == | ||
Zeile 566: | Zeile 425: | ||
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | :<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | ||
unter dieser Nebenbedingung !! | unter dieser Nebenbedingung!! | ||
Also: | Also: | ||
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | :<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | ||
mit neuen Lagrange- Multiplikatoren | mit neuen Lagrange- Multiplikatoren | ||
<math>\xi ,{{\xi }_{\sigma }}</math> | :<math>\xi ,{{\xi }_{\sigma }}</math> | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \Rightarrow 1+\xi =-\Xi \\ | & \Rightarrow 1+\xi =-\Xi \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | ||
Zeile 592: | Zeile 451: | ||
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | :<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | ||
folgt: | folgt: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | ||
Zeile 609: | Zeile 468: | ||
Da nun die Mittelwerte | Da nun die Mittelwerte | ||
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | :<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | ||
nicht durch die Zusatzinfo geändert werden muss gelten: | nicht durch die Zusatzinfo geändert werden muss gelten: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | ||
Zeile 622: | Zeile 481: | ||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | ||
Zeile 631: | Zeile 490: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! | ||
==Siehe auch== | ==Siehe auch== | ||
< references /> | <references /> |
Aktuelle Version vom 12. September 2010, 23:57 Uhr
Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD. |
|}}
Motivation
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte
von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von
auf die Wahrscheinlichkeitsverteilung
Methode
Vorurteilsfreie Schätzung (Jaynes, 1957): (unbiased guess; Prinzip des maximalen Nichtwissens)
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
Annahme:
Jedes Elementarereignis hat gleiche a-priori- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse gilt Gleichverteilung über den .
Informationstheoretisches Prinzip
(nach (Jaynes 1922-1998))
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Nebenbed.:
Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander!
Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar!
Somit:
Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)
: verallgemeinerte kanonische Verteilung |
Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt!
Kontinuierliche Ereignismenge
unter der Nebenbedingung
Durchführung einer Funktionalvariation:
Vergleiche: A. Katz, Principles of Statistial Mechanics
ANMERKUNG Schubotz: Siehe auch [1] |
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
hieraus folgt
eingesetzt in
durch Eisnetzen gewinnt man
Jedenfalls:
heißt legendre- Transformierte von
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
Also gilt:
Nebenbemerkung
Die Verteilung bzw. wirkt auf dem Raum der Zufallsvariablen (diskret) bzw. (kontinuierlich).
Beispiel:
mit als Phasenraum der kanonisch konjugierten Variablen
|
Shannon- Information:
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren:
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung! |
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen
entwickeln:
Vergleiche oben
also folgt:
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von bei Variation von :
bzw.:
In Matrixschreibweise:
Wegen
Somit:
Also: negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Zusammenhang mit der Korrelationsmatrix
Suszeptibilität!
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!!
Also:
Fluktuations/ Dissipations- Theorem:
- Fluktuationen
- Zufällige Schwankungen um den Mittelwert
- Dissipation
- Systematische Änderung der Mittelwerte!
Korrektur einer Verteilung durch Zusatzinformationen
Sei die Verteilung, die unter Kenntnis der Nebenbedingungen
Jetzt:
Zusatzinformationen (zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung!!
Also:
mit neuen Lagrange- Multiplikatoren
Mit
folgt:
Da nun die Mittelwerte
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden!
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info!
Siehe auch
- ↑ Brandes,T, Thermodynamik und Statistische Physik, Vorlesung, TU-Berlin, Wintersemester 2006/2007, Gleichung 5.4.13 (Kap 5.4.3 S46)