Vorurteilsfreie Schätzung des statistischen Operators zu einem festen Zeitpunkt: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
*>SchuBot
 
(9 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 7: Zeile 7:
*später wird y maximiert (Nichtwissen maximieren) unter der Nebenbedigung
*später wird y maximiert (Nichtwissen maximieren) unter der Nebenbedigung
(<math>\left\{ \left\langle {{G}_{\nu }} \right\rangle  \right\}</math> bekannt, bzw im Experiment festgelegt) um <math>\rho</math> zu finden
(<math>\left\{ \left\langle {{G}_{\nu }} \right\rangle  \right\}</math> bekannt, bzw im Experiment festgelegt) um <math>\rho</math> zu finden
*--> Vorurteilsfreie Wahl zeichnet keine andere Observable aus!
*Vorurteilsfreie Wahl zeichnet keine andere Observable aus!


===Definition des Unschäfremaßes===
===Definition des Unschäfremaßes===


<math>\eta \left( \rho  \right)=-k\operatorname{Tr}\left( \rho \ln \rho  \right)</math>
:<math>\eta \left( \rho  \right)=-k\operatorname{Tr}\left( \rho \ln \rho  \right)</math>
(Funktional von <math>\rho</math> (analog: informationstheoretisches Maß von C. Channon 1946)
(Funktional von <math>\rho</math> (analog: informationstheoretisches Maß von C. Channon 1946)


Zeile 27: Zeile 27:
  & \Rightarrow \eta \left( \rho  \right)\ge 0 \\
  & \Rightarrow \eta \left( \rho  \right)\ge 0 \\
\end{align}</math>
\end{align}</math>
; 2) reiner Zustand --> <math>\eta \left( \rho  \right)=0</math>: mit
; 2) reiner Zustand <math>\eta \left( \rho  \right)=0</math>: mit
<math>{{\rho }_{0}}=\left| {{\Psi }_{i0}} \right\rangle \left\langle  {{\Psi }_{i0}} \right|</math>
:<math>{{\rho }_{0}}=\left| {{\Psi }_{i0}} \right\rangle \left\langle  {{\Psi }_{i0}} \right|</math>
<math>\left| {{\Psi }_{i0}} \right\rangle </math> ist der reine Zustand
:<math>\left| {{\Psi }_{i0}} \right\rangle </math> ist der reine Zustand
Eigenwertproblem
Eigenwertproblem
<math>\left| {{\Psi }_{i0}} \right\rangle \left\langle  {{\Psi }_{i0}} \right|\left| r \right\rangle =r\left| r \right\rangle </math>
:<math>\left| {{\Psi }_{i0}} \right\rangle \left\langle  {{\Psi }_{i0}} | r \right\rangle =r\left| r \right\rangle </math>
erfüllt für
erfüllt für
<math>\left| {{\Psi }_{i0}} \right\rangle =\left| r \right\rangle ,r=1</math>
:<math>\left| {{\Psi }_{i0}} \right\rangle =\left| r \right\rangle ,r=1</math>
<math>\eta \left( {{\rho }_{0}} \right)=-k\sum\limits_{m}^{{}}{{{r}_{m}}\ln {{r}_{m}}}=-k1\ln 1=0</math>
:<math>\eta \left( {{\rho }_{0}} \right)=-k\sum\limits_{m}^{{}}{{{r}_{m}}\ln {{r}_{m}}}=-k1\ln 1=0</math>


;3) völlige Unbestimmtheit: betrachte Hibertraum der Diemension d (am Ende soll <math>d\to \infty</math> wie z.B in richtigem Kasten)
;3) völlige Unbestimmtheit: betrachte Hibertraum der Diemension d (am Ende soll <math>d\to \infty</math> wie z.B in richtigem Kasten)


<math>{{w}_{i}}=\frac{1}{d}</math>
:<math>{{w}_{i}}=\frac{1}{d}</math>
die Wahrscheinlichkeit der Realisierungen muss gleich sein (analogie Würfel)
die Wahrscheinlichkeit der Realisierungen muss gleich sein (analogie Würfel)


<math>\rho =\sum\limits_{i}{{{w}_{i}}}\left| {{\Psi }_{i}} \right\rangle \left\langle  {{\Psi }_{i}} \right|=\frac{1}{d}1</math>
:<math>\rho =\sum\limits_{i}{{{w}_{i}}}\left| {{\Psi }_{i}} \right\rangle \left\langle  {{\Psi }_{i}} \right|=\frac{1}{d}1</math>


<math>\begin{align}
:<math>\begin{align}
   & \eta \left( {{\rho }_{d}} \right)=-k\sum\limits_{i=1}^{d}{\left\langle  i \right|}\frac{1}{d}\ln \frac{1}{d}\left| i \right\rangle  \\
   & \eta \left( {{\rho }_{d}} \right)=-k\sum\limits_{i=1}^{d}{\left\langle  i \right|}\frac{1}{d}\ln \frac{1}{d}\left| i \right\rangle  \\
  & =k\sum\limits_{i=1}^{d}{\frac{1}{d}\ln \frac{1}{d}}=k\ln \frac{1}{d}  
  & =k\sum\limits_{i=1}^{d}{\frac{1}{d}\ln \frac{1}{d}}=k\ln \frac{1}{d}  
Zeile 50: Zeile 50:


alle Grenywerte sind sinnvoll, damit
alle Grenywerte sind sinnvoll, damit
<math>\eta \left( \rho  \right)</math>
:<math>\eta \left( \rho  \right)</math>
ein sinnvolles Unschärfemaß
ein sinnvolles Unschärfemaß
<math>\forall \rho </math>
:<math>\forall \rho </math>
ist.
ist.


Jetzt können wir
Jetzt können wir
<math>\eta \left( \rho  \right)</math> nehmen um
:<math>\eta \left( \rho  \right)</math> nehmen um
<math>\rho </math>
:<math>\rho </math>
zu bestimmen.
zu bestimmen.


Zeile 63: Zeile 63:
Wollen nun aus
Wollen nun aus


<math>\eta \left( \rho  \right)\to \rho </math>
:<math>\eta \left( \rho  \right)\to \rho </math>


sinnvoll finden natürlich ‘‘‘nicht‘‘‘ eindeutig, aber Wissen
sinnvoll finden natürlich ‘‘‘nicht‘‘‘ eindeutig, aber Wissen


<math>\left\{ {{G}_{\nu }} \right\}</math>
:<math>\left\{ {{G}_{\nu }} \right\}</math>


(Satz von Observablen / Beobachtungsebene) hilft:
(Satz von Observablen / Beobachtungsebene) hilft:


→ wir maximieren <math>\eta \left( \rho  \right)</math>also unser Nichtwissen unter den Bediungen des „Wissens“ von <math>{{G}_{\nu }}</math>“vorurteilsfrei“ .
→ wir maximieren <math>\eta \left( \rho  \right)</math>also unser Nichtwissen unter den Bediungen des „Wissens“ von <math>{{G}_{\nu }}</math>“vorurteilsfrei“.


   
   


Nebenbedingung:
Nebenbedingung:
<math>\left\langle {{G}_{\nu }} \right\rangle =\operatorname{Tr}\left( \rho {{G}_{\nu }} \right)</math>
:<math>\left\langle {{G}_{\nu }} \right\rangle =\operatorname{Tr}\left( \rho {{G}_{\nu }} \right)</math>
z.B E, N
z.B E, N


<math>\operatorname{Tr}\left( \rho  \right)=1</math>
:<math>\operatorname{Tr}\left( \rho  \right)=1</math>


Ergebnis bevor es bewiesen wird:
Ergebnis bevor es bewiesen wird:


{{Def|Der statistische Operator R der alle Forderungen:
{{Def|Der statistische Operator R der alle Forderungen:
<math>\eta \left( \rho  \right)=\text{maximal}\text{,}\quad \text{Tr}\left( {{G}_{\nu }}\rho  \right)=\text{Tr}\left( {{G}_{\nu }}R \right),\quad \operatorname{Tr}\left( R \right)=1</math>
:<math>\eta \left( \rho  \right)=\text{maximal}\text{,}\quad \text{Tr}\left( {{G}_{\nu }}\rho  \right)=\text{Tr}\left( {{G}_{\nu }}R \right),\quad \operatorname{Tr}\left( R \right)=1</math>
erfüllt heißt {{FB|generalisierter kanonischer statistischer Operator}} (GKSO)
erfüllt heißt {{FB|generalisierter kanonischer statistischer Operator}} (GKSO)


<math>{{R}_{\left( {{G}_{\nu }} \right)}}=\frac{1}{{{Z}_{\left( {{G}_{\nu }} \right)}}}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}</math>
:<math>{{R}_{\left( {{G}_{\nu }} \right)}}=\frac{1}{{{Z}_{\left( {{G}_{\nu }} \right)}}}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}</math>
|generalisierter kanonischer statistischer Operator}}
|generalisierter kanonischer statistischer Operator}}
{{Def|
{{Def|


<math>{{Z}_{\left( {{G}_{\nu }} \right)}}\equiv Z=\operatorname{Tr}\left( {{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right)</math> Normierungsfaktor und wird Zustandssumme genannt|Zustandssumme}}
:<math>{{Z}_{\left( {{G}_{\nu }} \right)}}\equiv Z=\operatorname{Tr}\left( {{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right)</math> Normierungsfaktor und wird Zustandssumme genannt|Zustandssumme}}


es tauchen Lagrangefaktoren <math>\lambda_\nu</math> auf die die Umgebung (z.B. Temperatur) charakterisiern <math>\lambda_\nu</math> noch unbestimmt: Beispiel
es tauchen Lagrangefaktoren <math>\lambda_\nu</math> auf die die Umgebung (z.B. Temperatur) charakterisiern <math>\lambda_\nu</math> noch unbestimmt: Beispiel
<math>G_1=H, R~e^{\frac{H}{kT}}, \lambda_1=\frac{1}{kT}</math>
:<math>G_1=H, R~e^{\frac{H}{kT}}, \lambda_1=\frac{1}{kT}</math>


Bedeutung der Zustandssumme
Bedeutung der Zustandssumme
<math>\left\langle {{G}_{\nu }} \right\rangle =-\frac{1}{z}\frac{\partial Z}{\partial {{\lambda }_{\nu }}}</math>
:<math>\left\langle {{G}_{\nu }} \right\rangle =-\frac{1}{z}\frac{\partial Z}{\partial {{\lambda }_{\nu }}}</math>
bestimmen die Messgrößen  (<math>G_\nu</math>)
bestimmen die Messgrößen  (<math>G_\nu</math>)
aus
aus
<math>\left\langle {{G}_{\nu }} \right\rangle =\operatorname{Tr}\left( {{G}_{\nu }}\frac{{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}}{Z} \right)</math>
:<math>\left\langle {{G}_{\nu }} \right\rangle =\operatorname{Tr}\left( {{G}_{\nu }}\frac{{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}}{Z} \right)</math>




<math>\rho=R</math> liegt damit für festen Zeitpunkt vor und damit können bei Einschalten von <math>h_\alpha(t)</math> die Dichtematrixgleichungen gelöst werden.
:<math>\rho=R</math> liegt damit für festen Zeitpunkt vor und damit können bei Einschalten von <math>h_\alpha(t)</math> die Dichtematrixgleichungen gelöst werden.


===Beweis für GKSO===
===Beweis für GKSO===
Zeile 110: Zeile 110:




<math>R=\frac{1}{Z}{{e}^{-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}}},\quad \ln R=-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}-\ln Z</math>
:<math>R=\frac{1}{Z}{{e}^{-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}}},\quad \ln R=-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}-\ln Z</math>




<math>\begin{align}
:<math>\begin{align}
   & \eta \left( R \right)=-k\operatorname{Tr}\left( R\ln R \right)=-k\operatorname{Tr}\left( -R\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}-R\ln Z \right) \\
   & \eta \left( R \right)=-k\operatorname{Tr}\left( R\ln R \right)=-k\operatorname{Tr}\left( -R\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}{{G}_{\nu }}-R\ln Z \right) \\
  & =-k\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle +k\ln Z \\
  & =-k\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle +k\ln Z \\
Zeile 123: Zeile 123:
<u>b)</u>
<u>b)</u>


<math>\operatorname{Tr}\left( \rho \ln R \right)\underbrace{=}_{\text{ansehen}}-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}\underbrace{\operatorname{Tr}\left( \rho {{G}_{\nu }} \right)}_{\operatorname{Tr}\left( R{{G}_{\nu }} \right)}-\ln Z\equiv \operatorname{Tr}\left( R\rho R \right)</math>
:<math>\operatorname{Tr}\left( \rho \ln R \right)\underbrace{=}_{\text{ansehen}}-\sum\limits_{\nu }^{{}}{{}}{{\lambda }_{\nu }}\underbrace{\operatorname{Tr}\left( \rho {{G}_{\nu }} \right)}_{\operatorname{Tr}\left( R{{G}_{\nu }} \right)}-\ln Z\equiv \operatorname{Tr}\left( R\rho R \right)</math>


<u>c)</u>
<u>c)</u>
Zeile 130: Zeile 130:




<math>tr\left( \rho \ln \rho  \right)-tr\left( R\ln R \right)</math> spiegels später wieder was größer ist
:<math>tr\left( \rho \ln \rho  \right)-tr\left( R\ln R \right)</math> spiegels später wieder was größer ist


nach b)
nach b)
<math>=tr\left( \rho \ln \rho  \right)-tr\left( \rho \ln R \right)</math>
:<math>=tr\left( \rho \ln \rho  \right)-tr\left( \rho \ln R \right)</math>
mit
mit
<math>\begin{align}
:<math>\begin{align}
   & \rho \left| {{r}_{m}} \right\rangle ={{r}_{m}}\left| {{r}_{m}} \right\rangle  \\
   & \rho \left| {{r}_{m}} \right\rangle ={{r}_{m}}\left| {{r}_{m}} \right\rangle  \\
  & R\left| {{w}_{n}} \right\rangle ={{w}_{n}}\left| {{w}_{n}} \right\rangle  \\
  & R\left| {{w}_{n}} \right\rangle ={{w}_{n}}\left| {{w}_{n}} \right\rangle  \\
Zeile 142: Zeile 142:
folgt
folgt


<math>=\sum\limits_{m}^{{}}{\underbrace{\left\langle  {{r}_{m}} | {{r}_{m}} \right\rangle }_{1}}{{r}_{m}}\ln {{r}_{m}}-\sum\limits_{m}^{{}}{{}}{{r}_{m}}\left\langle  {{r}_{m}} \right|\ln R\left| {{r}_{m}} \right\rangle </math>
:<math>=\sum\limits_{m}^{{}}{\underbrace{\left\langle  {{r}_{m}} | {{r}_{m}} \right\rangle }_{1}}{{r}_{m}}\ln {{r}_{m}}-\sum\limits_{m}^{{}}{{}}{{r}_{m}}\left\langle  {{r}_{m}} \right|\ln R\left| {{r}_{m}} \right\rangle </math>


<math>\sum\limits_{n}^{{}}{{}}\left| {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} \right|=1</math>
:<math>\sum\limits_{n}^{{}}{{}}\left| {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} \right|=1</math>




<math>\begin{align}
:<math>\begin{align}
   & =\sum\limits_{m,n}^{{}}{\left[ \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} | {{r}_{m}} \right\rangle {{r}_{m}}\ln {{r}_{m}}-{{r}_{m}}\left\langle  {{r}_{m}} \right|\ln R\left| {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} | {{r}_{m}} \right\rangle  \right]} \\
   & =\sum\limits_{m,n}^{{}}{\left[ \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} | {{r}_{m}} \right\rangle {{r}_{m}}\ln {{r}_{m}}-{{r}_{m}}\left\langle  {{r}_{m}} \right|\ln R\left| {{w}_{n}} \right\rangle \left\langle  {{w}_{n}} | {{r}_{m}} \right\rangle  \right]} \\
  & =\sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( \ln {{r}_{m}}-\ln {{R}_{n}} \right) \right]} \\
  & =\sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( \ln {{r}_{m}}-\ln {{R}_{n}} \right) \right]} \\
Zeile 156: Zeile 156:




<math>\begin{align}
:<math>\begin{align}
   & \sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( -\ln \frac{{{R}_{n}}}{{{r}_{m}}} \right) \right]}\ge \sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( 1-\frac{{{R}_{n}}}{{{r}_{m}}} \right) \right]} \\
   & \sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( -\ln \frac{{{R}_{n}}}{{{r}_{m}}} \right) \right]}\ge \sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}{{r}_{m}}\left( 1-\frac{{{R}_{n}}}{{{r}_{m}}} \right) \right]} \\
  & =\sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}\left( {{r}_{m}}-{{R}_{n}} \right) \right]}=\sum\limits_{m}^{{}}{{{r}_{m}}}=\sum\limits_{n}^{{}}{{{R}_{n}}} \\
  & =\sum\limits_{m,n}^{{}}{\left[ {{\left| \left\langle  {{r}_{m}} | {{w}_{n}} \right\rangle  \right|}^{2}}\left( {{r}_{m}}-{{R}_{n}} \right) \right]}=\sum\limits_{m}^{{}}{{{r}_{m}}}=\sum\limits_{n}^{{}}{{{R}_{n}}} \\
Zeile 164: Zeile 164:




<math>\begin{align}
:<math>\begin{align}
   & \to \operatorname{Tr}\left( \rho \ln \rho  \right)\ge \operatorname{Tr}\left( R\ln R \right)\quad |-k \\
   & \to \operatorname{Tr}\left( \rho \ln \rho  \right)\ge \operatorname{Tr}\left( R\ln R \right)\quad |-k \\
  & \eta \left( \rho  \right)\le \eta \left( R \right) \\
  & \eta \left( \rho  \right)\le \eta \left( R \right) \\
Zeile 174: Zeile 174:
==Entropie als maximales Unschärfemaß einer Beobachtung==
==Entropie als maximales Unschärfemaß einer Beobachtung==
maximales Unschärfemaß für eine Beobachtungsebene
maximales Unschärfemaß für eine Beobachtungsebene
:<math>\left\{ {{G}_{\nu }} \right\}</math>
ist
:<math>\eta \left( R \right)=-k\operatorname{Tr}\left( R\ln R \right)</math>
:<math>{{R}_{\left\{ {{G}_{\nu }} \right\}}}\equiv R=\frac{1}{Z}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}</math>
Die Entropie S zu einer Beobachtungsebene <math>\left\{ {{G}_{\nu }} \right\}</math> wird mit
:<math>S=\eta \left( R \right)</math> definiert.
Entropie als Maß für Unordnung / Nichtwissen
(Gleiverteilung hatte größtes
:<math>\eta \left( R \right)</math>).
Ziel der {{FB|Entropiedefinition}} ist die Verbindung zwischen mikroskopischer Welt
:<math>\left( Z=\sum\limits_{Zust\ddot{a}nde}{\ldots } \right)</math> und makroskopischer Welt (Druck, Temperatur etc);
also Zustandsgleichungen aus Z berechnen.
:<math>\begin{align}
  & S=-k\operatorname{Tr}\left( \frac{1}{Z}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}\ln \left( \frac{1}{Z}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right) \right) \\
& =-k\operatorname{Tr}\left( \frac{1}{Z}{{e}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}}\left( -\ln Z-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}} \right) \right) \\
& =\underbrace{k\sum\limits_{\nu }{{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle }}_{f\left( {{\lambda }_{\nu }},\left\langle {{G}_{\nu }} \right\rangle  \right)}+\underbrace{k\ln Z}_{g\left( {{\lambda }_{\nu }},{{G}_{\nu }}\left( {{h}_{\alpha }} \right) \right)} \\
& S=S\left( \left\langle {{G}_{\nu }} \right\rangle ,{{h}_{\alpha }} \right)
\end{align}</math>
z.B.
:<math>S=S\left( \left\langle H \right\rangle ,\left\langle N \right\rangle ,V \right)</math>
===Gibbs-Fundamentalrelation===
dient zur Bestimmung von Zustandsgleichungen und lautet:
:<math>dS=k\sum\limits_{\nu }^{{}}{{{\lambda }_{\nu }}}\left( d\left\langle {{G}_{\nu }} \right\rangle -\sum\limits_{\alpha }{{}}\left\langle {{\partial }_{{{h}_{\alpha }}}}{{G}_{\nu }} \right\rangle d{{h}_{\alpha }} \right)</math>
Entropieänderung ist verbunden mit der Änderung von
:<math>\left\langle {{G}_{\nu }} \right\rangle ,{{h}_{\alpha }}</math>[[Vorurteilsfreie Schätzung des statistischen Operators zu einem festen Zeitpunkt#Beweis der Gibbsgleichung|Beweis gleich]]
====Bmerkung zur Gibbsgleichung====
*<math>S=S\left( \left\langle {{G}_{\nu }} \right\rangle ,{{h}_{\alpha }} \right)</math> legt die Variblen fest
*legt verallgemeinter Kräfte fest: <math>{{M}_{\nu ,\alpha }}=-\left\langle {{\partial }_{{{h}_{\alpha }}}}{{G}_{\nu }} \right\rangle </math>
**(z.B. <math>p=-\left\langle {{\partial }_{\nu }}H \right\rangle </math>)
**physikalische Interpretation <math>{{G}_{\nu }}=H,{{h}_{\alpha }}=\nu </math> bei E-Messung
*Kraft.Länge/(Fäche.Länge)
*Vorzeichen um <math>\Delta V < 0, p>0</math> zu haben
* E im Kasten ~ <math>L^-2</math> BILD <math>\Delta E>0 \to L</math> kleiner
*Bestimmung der Langrangemultiplikatorenb (physikalischer Inhalt) um von Zustandsgleichungen über Gibbsgleichung
Vergleich von
:<math>\begin{align}
  & dS=k\sum\limits_{\nu }^{{}}{{{\lambda }_{\nu }}}\left( d\left\langle {{G}_{\nu }} \right\rangle -\sum\limits_{\alpha }{{}}{{M}_{\nu ,\alpha }}d{{h}_{\alpha }} \right) \\
& dS=\sum\limits_{\nu }^{{}}{\frac{{{\partial }_{S}}}{\partial \left\langle {{G}_{\nu }} \right\rangle }}\left( d\left\langle {{{\bar{G}}}_{\nu }} \right\rangle -\sum\limits_{\alpha }{\frac{\partial S}{\partial {{h}_{\alpha }}}}d{{h}_{\alpha }} \right)
\end{align}</math>
ergibt
; {{FB|Lagrangefaktoren}} : <math>k{{\lambda }_{\nu }}=\frac{\partial S}{\partial \left\langle {{G}_{\nu }} \right\rangle }</math>
; {{FB|Zustandsgleichung}} : <math>\sum\limits_{\nu }^{{}}{k{{\lambda }_{\nu }}{{M}_{\nu ,\alpha }}}=\frac{\partial S}{\partial {{h}_{\alpha }}}</math>
  Gibbsgleichung legt die Zustandsgleichungen fest und ist damit genauso fundamental wie die Maxwellgleichung der Elektrodynamik
z.B: <math>p=p\left( N,V,E \right)</math>
====Beweis der Gibbsgleichung====
:<math>\begin{align}
  & S=k\sum\limits_{\nu }{{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle }+k\ln Z \\
& dS=k\sum\limits_{\nu }{\left( d{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle +{{\lambda }_{\nu }}d\left\langle {{G}_{\nu }} \right\rangle  \right)}+k\frac{dZ}{Z} \\
& =k\sum\limits_{\nu }{\left( d{{\lambda }_{\nu }}\left( -\frac{\partial Z}{\partial {{\lambda }_{\nu }}}\frac{1}{z} \right)+{{\lambda }_{\nu }}d\left\langle {{G}_{\nu }} \right\rangle  \right)}+k\frac{dZ}{Z}
\end{align}</math>
mit Z arbeiten:
:<math>Z=\operatorname{Tr}\left( {{\operatorname{e}}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right)=Z\left( {{\lambda }_{\nu }},{{h}_{\alpha }} \right)</math>
:<math>{{G}_{\nu }}={{G}_{0}}\left( {{h}_{\alpha }} \right)</math>
Das vollständige Differential von Z ist:
:<math>dZ=\sum\limits_{\nu }{\frac{\partial Z}{\partial {{\lambda }_{\nu }}}d{{\lambda }_{\nu }}+}\sum\limits_{\alpha }{\frac{\partial Z}{\partial {{h}_{\alpha }}}d{{h}_{\alpha }}}</math>
eingesetzt in  dS:
:<math>\begin{align}
  & S=k\sum\limits_{\nu }{{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle }+k\ln Z \\
& dS=k\sum\limits_{\nu }{\left( d{{\lambda }_{\nu }}\left\langle {{G}_{\nu }} \right\rangle +{{\lambda }_{\nu }}d\left\langle {{G}_{\nu }} \right\rangle  \right)}+k\frac{dZ}{Z} \\
& =k\underbrace{\sum\limits_{\nu }{{{\lambda }_{\nu }}d\left\langle {{G}_{\nu }} \right\rangle }}_{\begin{smallmatrix}
\text{Teil der} \\
\text{Gibbsgleichung}
\end{smallmatrix}}+k\sum\limits_{\alpha }{\frac{1}{Z}\frac{\partial Z}{\partial {{h}_{\alpha }}}d{{h}_{\alpha }}} \\
& k\sum\limits_{\alpha }{\frac{1}{Z}\frac{\partial Z}{\partial {{h}_{\alpha }}}d{{h}_{\alpha }}}=k\sum\limits_{\alpha }{\frac{1}{Z}\operatorname{Tr}\left( \frac{\partial }{\partial {{h}_{\alpha }}}{{\operatorname{e}}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right)d{{h}_{\alpha }}}
\end{align}</math>
Der Zweite Teil wird zu
:<math>\begin{align}
  & k\sum\limits_{\alpha }{\frac{1}{Z}\frac{\partial Z}{\partial {{h}_{\alpha }}}d{{h}_{\alpha }}}=k\sum\limits_{\alpha }{\frac{1}{Z}\operatorname{Tr}\left( \frac{\partial }{\partial {{h}_{\alpha }}}{{\operatorname{e}}^{-\sum\limits_{\nu }{{{\lambda }_{\nu }}{{G}_{\nu }}}}} \right)d{{h}_{\alpha }}} \\
& =k\sum\limits_{\alpha }{\operatorname{Tr}\left( -\sum\limits_{\nu }{{{\lambda }_{\nu }}}\frac{\partial {{G}_{\nu }}}{\partial {{h}_{\alpha }}}R \right)d{{h}_{\alpha }}} \\
& =-k\sum\limits_{\alpha ,\nu }{{{\lambda }_{\nu }}\left\langle \frac{\partial {{G}_{\nu }}}{\partial {{h}_{\alpha }}} \right\rangle d{{h}_{\alpha }}}
\end{align}</math>
→ergibt die Gibbsrelation
__SHOWFACTBOX__

Aktuelle Version vom 16. September 2010, 23:08 Uhr



Motivation: ( < Eintreffen des Feldes ) bestimmen, hier formulieren wir das so allgemein, dass später Theorie auch für eine Abfolge von 's, also ) bei eingeschaltetem Feld gilt.

Unschärfemaß des statistischen Operators

Problem sei Satz von Observablen (z.B N,E eines Gases)

  • andere Infos sollen nicht gemessen werden wenn wir festlegen, so muss das so geschehn, dass nicht mehr Info als festgelegt wird.
  • nur sicherzustellen, dass wir nicht mehr Info fordern als zustetht bilden wir Unschärfemaß und soll angeben wie weit wir von reinem Zustand entfernt sind
  • später wird y maximiert (Nichtwissen maximieren) unter der Nebenbedigung

( bekannt, bzw im Experiment festgelegt) um zu finden

  • → Vorurteilsfreie Wahl zeichnet keine andere Observable aus!

Definition des Unschäfremaßes

(Funktional von (analog: informationstheoretisches Maß von C. Channon 1946)

Ist das sinnvoll?

  1. sollte positiv sein, um Maß für Unschärfe zu ergeben
  2. solte 0 sein für einen reinen Zustand
  3. sollte sein für einen komplett unbestimmten Zustand

ist zu zeigen:'

1)
als Eigenwertgleichung für
2) reiner Zustand →
mit
ist der reine Zustand

Eigenwertproblem

erfüllt für

3) völlige Unbestimmtheit
betrachte Hibertraum der Diemension d (am Ende soll wie z.B in richtigem Kasten)

die Wahrscheinlichkeit der Realisierungen muss gleich sein (analogie Würfel)

für folgt

alle Grenywerte sind sinnvoll, damit

ein sinnvolles Unschärfemaß

ist.

Jetzt können wir

nehmen um

zu bestimmen.

Der generalisierte statistische Operator

Wollen nun aus

sinnvoll finden natürlich ‘‘‘nicht‘‘‘ eindeutig, aber Wissen

(Satz von Observablen / Beobachtungsebene) hilft:

→ wir maximieren also unser Nichtwissen unter den Bediungen des „Wissens“ von “vorurteilsfrei“.


Nebenbedingung:

z.B E, N

Ergebnis bevor es bewiesen wird:


Der statistische Operator R der alle Forderungen:

erfüllt heißt generalisierter kanonischer statistischer Operator (GKSO)


Normierungsfaktor und wird Zustandssumme genannt


es tauchen Lagrangefaktoren auf die die Umgebung (z.B. Temperatur) charakterisiern noch unbestimmt: Beispiel

Bedeutung der Zustandssumme

bestimmen die Messgrößen () aus


liegt damit für festen Zeitpunkt vor und damit können bei Einschalten von die Dichtematrixgleichungen gelöst werden.

Beweis für GKSO

(in 3 Schritten) a) Unschärfemaß für R ableiten:




Idee des Beweises: wir nehmen einen beliebigen statistischen Operator und zeigen

b)

c)



spiegels später wieder was größer ist

nach b)

mit

folgt


mit folgt





R hat offensichtlich das maximale unschärfemaß f die vorgegebenen Nebenbedingungen

Entropie als maximales Unschärfemaß einer Beobachtung

maximales Unschärfemaß für eine Beobachtungsebene

ist



Die Entropie S zu einer Beobachtungsebene wird mit

definiert.

Entropie als Maß für Unordnung / Nichtwissen (Gleiverteilung hatte größtes

).


Ziel der Entropiedefinition ist die Verbindung zwischen mikroskopischer Welt

und makroskopischer Welt (Druck, Temperatur etc);

also Zustandsgleichungen aus Z berechnen.

z.B.


Gibbs-Fundamentalrelation

dient zur Bestimmung von Zustandsgleichungen und lautet:

Entropieänderung ist verbunden mit der Änderung von

Beweis gleich


Bmerkung zur Gibbsgleichung

  • legt die Variblen fest
  • legt verallgemeinter Kräfte fest:
    • (z.B. )
    • physikalische Interpretation bei E-Messung
  • Kraft.Länge/(Fäche.Länge)
  • Vorzeichen um zu haben
  • E im Kasten ~ BILD kleiner
  • Bestimmung der Langrangemultiplikatorenb (physikalischer Inhalt) um von Zustandsgleichungen über Gibbsgleichung

Vergleich von

ergibt

Lagrangefaktoren
Zustandsgleichung


 Gibbsgleichung legt die Zustandsgleichungen fest und ist damit genauso fundamental wie die Maxwellgleichung der Elektrodynamik
z.B: 

Beweis der Gibbsgleichung


mit Z arbeiten:


Das vollständige Differential von Z ist:



eingesetzt in dS:


Der Zweite Teil wird zu

→ergibt die Gibbsrelation