Übersicht:Thermodynamik: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
K hat „Thermodynamik“ nach „Übersicht:Thermodynamik“ verschoben
 
(10 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
==klassische Mechanik==
==klassische Mechanik==
* Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik
* Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik
--> gleiche a –priori Wahrscheinlichkeiten
gleiche a –priori Wahrscheinlichkeiten
* Hamiltonfunktion mit Hamiltongleichungen
* Hamiltonfunktion mit Hamiltongleichungen
* Lösungen Trajektorien im Phasenraum
* Lösungen Trajektorien im Phasenraum
==Satz von Liouville==
==Satz von Liouville==
Das Phasenraumvolumen ist invariant unter Zeitentwicklung
Das Phasenraumvolumen ist invariant unter Zeitentwicklung
--> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen
gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen
--> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen <math>I(t_1)\ge I(t_2)</math> mit <math>t_1 < t_2</math>
Informationsmaß über Microzustand kann mit der zeit nicht zunehmen <math>I(t_1)\ge I(t_2)</math> mit <math>t_1 < t_2</math>
==Zustand==
==Zustand==
<math>\left\langle {{M}^{\nu }} \right\rangle =\int{d\xi \rho \left( \xi  \right){{M}^{\nu }}\left( \xi  \right)}</math>
:<math>\left\langle {{M}^{\nu }} \right\rangle =\int{d\xi \rho \left( \xi  \right){{M}^{\nu }}\left( \xi  \right)}</math>
(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen
(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen
<math>\rho \left( \xi  \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right) \right)={{z}^{-1}}\exp \left( -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right) \right)</math>
:<math>\rho \left( \xi  \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right) \right)={{z}^{-1}}\exp \left( -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right) \right)</math> mit <math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
mit
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
==Shannon-Information==
==Shannon-Information==
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
*Information: Welches Ereignis tritt ein?
*Information: Welches Ereignis tritt ein?
*Wie viel weiß ich von meinem System?
*Wie viel weiß ich von meinem System?
*'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
*'''Maximum'''<math>I\left( P \right)=0</math> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
===minimum===
===minimum===
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math>
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math>
Zeile 24: Zeile 22:
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda</math> zu
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda</math> zu


<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>
:<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>


die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
Zeile 30: Zeile 28:
lässt keine freien Parameter zu also erhält man N Gleichungen
lässt keine freien Parameter zu also erhält man N Gleichungen


<math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math>
:<math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math>


so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die  
so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die  
Zeile 51: Zeile 49:
   =\exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)</math>
   =\exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)</math>
* die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
* die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
* <math>\psi =\psi \left( {{\lambda }_{\nu }} \right)=-\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)}</math>, da <math>\begin{align}
  & 1=\sum{{{P}_{i}}}=\sum{\exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)={{e}^{\psi }}{{e}^{{{\lambda }_{\nu }}}}\sum{{{e}^{M_{i}^{\nu }}}}} \\
& \Rightarrow {{e}^{-\psi }}={{e}^{{{\lambda }_{\nu }}}}\sum{{{e}^{M_{i}^{\nu }}}} \\
\end{align}</math>
==Fundamentalbeziehung==
==Fundamentalbeziehung==
durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>
*durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>
:<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=\sum\limits_{i}{{{P}_{i}}\ln \exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)}=\psi \underbrace{\sum\limits_{i}{{{P}_{i}}}}_{1}-{{\lambda }_{\nu }}\sum\limits_{i}{{{P}_{i}}M_{i}^{\nu }}=\psi -{{\lambda }_{\nu }}\left\langle {{M}^{\nu }} \right\rangle </math>
* extensive Parameter <math>\left\langle {{M}^{\nu }} \right\rangle
  ={{\partial }_{{{\lambda }_{\nu }}}}\psi \left( {{\lambda }_{\nu }} \right)
  ={{\partial }_{{{\lambda }_{\nu }}}}\left( -\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)} \right)</math>
* intensive Parameter <math>{{\lambda }_{\nu }}=-{{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}I</math>
:<math>\to dI=-{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle </math>
==Beziehungen==
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=Tr\left( \hat{\rho }\ln \hat{\rho } \right)</math>
* Verknüpfung mit phänomenologischer Statistik
** Entropie = fehlende Kenntnis
** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle  \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle  \right)</math>
** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, → kann Entropie (S) nicht abnehmen
** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math>
** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen
* Gibbssche Fundamentalgleichung <math>dS=k{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle =k\left( \beta dU+\frac{\beta }{p}dV-\frac{S}{\mu }dN \right)</math>
==Kullback-Information==
* Informationsgewinn <math>K\left( P,P' \right)=\sum{{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}'}} \ge 0</math>
* Minium Variation mit NB:
** <math>1=\sum{{{P}_{i}}}</math>
** <math>{{P}_{i}}={{P}_{i}}'\Rightarrow K=0</math> (kein Gewinn)
* Informationsgewinn ^= Änderung der Shannon Information
* Mit Dichtematrix <math>K\left( \rho ,{{\rho }^{0}} \right)=\operatorname{Tr}\left( \hat{\rho }\ln \frac{{\hat{\rho }}}{{{{\hat{\rho }}}^{0}}} \right)=\operatorname{Tr}\left( \hat{\rho }\left( \ln \hat{\rho }-\ln {{{\hat{\rho }}}^{0}} \right) \right)=I\left( {\hat{\rho }} \right)-I\left( {{{\hat{\rho }}}^{0}} \right)-\operatorname{Tr}\left( \hat{\rho }-{{{\hat{\rho }}}^{0}} \right)\ln \left( {{{\hat{\rho }}}^{0}} \right)</math>
* Für Druckensemble <math>{{{\hat{\rho }}}^{0}}=\exp \left( {{\psi }^{0}}-{{\beta }^{0}}\left( H+{{p}^{0}}V \right) \right)</math> und <math>\rho</math> nicht im Gleichgewichtszustand folgt <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{S-{{S}^{0}}}{{{T}^{0}}}+\frac{U-{{U}^{0}}+{{p}^{0}}\left( V-{{V}^{0}} \right)}{k{{T}^{0}}}</math>
* mit Energie <math>\Lambda</math> <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{\Lambda }{k{{T}^{0}}}</math>
* der Informationsgewinn kann nur abnehmen <math>{{d}_{t}}K\left( \rho ,{{\rho }^{0}} \right)=\frac{{{d}_{t}}\Lambda }{k{{T}^{0}}}</math> mit <math>\nu =-\frac{1}{T}{{d}_{t}}\Lambda </math>
* → die Entropieproduktion ist ststs <math>\ge 0</math>
==Situation in der QM==
* Microzustände <math>\left| \psi  \right\rangle \in \mathcal{H}</math>
* Microobservablen (durch Maximalmessung (Satz von vertauschbaren Observabelen)) Operator <math>{\hat{\mathcal{M}}}</math>
* Messert Eigenwert zum Eingenzustand <math>{{{\hat{M}}}_{\alpha }}\left| \psi  \right\rangle ={{m}_{\alpha }}\left| \psi  \right\rangle </math>
* Erwartungwert
** für reine Zustände <math>\left\langle {{{\hat{M}}}_{\alpha }} \right\rangle =\left\langle \psi \left| {{M}_{\alpha }} \right|\psi  \right\rangle =\operatorname{Tr}\left( \hat{\rho }\hat{M} \right)</math> mit <math>\hat{\rho }=\left| \psi  \right\rangle \left\langle  \psi  \right|</math>
** für gemischte Zustände <math>\left\langle {{{\hat{M}}}_{\alpha }} \right\rangle =\sum{{{P}_{i}}\left\langle \psi \left| {{M}_{\alpha }} \right|\psi  \right\rangle }=\operatorname{Tr}\left( \hat{\rho }{{{\hat{M}}}_{\alpha }} \right)</math> mit <math>\hat{\rho }=\sum{{{P}_{i}}\left| \psi  \right\rangle \left\langle  \psi  \right|}</math>
*vorurteilsfreie Schätzung <math>\left| \alpha  \right\rangle </math> durch Maximalmessung
*<math>\operatorname{Tr}\hat{\rho }=1</math>
*<math>\operatorname{Tr}\left( \hat{\rho }{{{\hat{M}}}^{\nu }} \right)=\left\langle {{M}^{\nu }} \right\rangle </math>
*<math>\Rightarrow \hat{\rho }=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)</math>
==Phänomenologische Thermodynamik==
===1. Hauptsatz===
*Energieerhaltungssatz
*<math>dU=\delta Q+\delta Q=TdS-pdV</math>
* vgl Gibsche Fundamentalrelation
===2. Hauptsatz===
* Wärme kann nicht vollständig in Arbeit umgewandelt werden
*<math>\delta S\ge \frac{\delta Q}{T}</math>


[[Kategorie:Thermodynamik]]
[[Kategorie:Thermodynamik]]

Aktuelle Version vom 16. September 2010, 22:26 Uhr

klassische Mechanik

  • Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik

→ gleiche a –priori Wahrscheinlichkeiten

  • Hamiltonfunktion mit Hamiltongleichungen
  • Lösungen Trajektorien im Phasenraum

Satz von Liouville

Das Phasenraumvolumen ist invariant unter Zeitentwicklung → gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen → Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit

Zustand

(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen

mit

Shannon-Information

  • Information: Welches Ereignis tritt ein?
  • Wie viel weiß ich von meinem System?
  • Maximum → schafte Verteilung

minimum

  • Maximum des Nichtwissens entspricht minimaler Shannon-Information -- > Variation der um

mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu

die Variation, also

lässt keine freien Parameter zu also erhält man N Gleichungen

so erhält man wegen der Normierung () die

Gleichverteilung

Nebenbedingungen

  • führt zum Informationstheoretischen Prinzip nach Jaynes
  • Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
  • Variationsverfahren mit Nebenbedingungen
  • Shannon-Information soll minimal werden
  • Es gibt m+1 Nebenbedingungen:
    • Gesamtwahrscheinlichkeiten sind 1:
    • Kenntnis von Mittelwerten makroskopischer Observabelen
    • also mit Lagrange Multiplikatoren:
  • führt zur Variation
  • daraus erhält man die verallgemeinerte kanonische Verteilung
  • die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
  • , da

Fundamentalbeziehung

  • durch eine Legenderetransformation
  • extensive Parameter
  • intensive Parameter

Beziehungen

  • Verknüpfung mit phänomenologischer Statistik
    • Entropie = fehlende Kenntnis
    • da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, → kann Entropie (S) nicht abnehmen
    • pähnomenologische Definition der intensiven Variabelen
  • Gibbssche Fundamentalgleichung

Kullback-Information

  • Informationsgewinn
  • Minium Variation mit NB:
    • (kein Gewinn)
  • Informationsgewinn ^= Änderung der Shannon Information
  • Mit Dichtematrix
  • Für Druckensemble und nicht im Gleichgewichtszustand folgt
  • mit Energie
  • der Informationsgewinn kann nur abnehmen mit
  • → die Entropieproduktion ist ststs

Situation in der QM

  • Microzustände
  • Microobservablen (durch Maximalmessung (Satz von vertauschbaren Observabelen)) Operator
  • Messert Eigenwert zum Eingenzustand
  • Erwartungwert
    • für reine Zustände mit
    • für gemischte Zustände mit
  • vorurteilsfreie Schätzung durch Maximalmessung

Phänomenologische Thermodynamik

1. Hauptsatz

  • Energieerhaltungssatz
  • vgl Gibsche Fundamentalrelation

2. Hauptsatz

  • Wärme kann nicht vollständig in Arbeit umgewandelt werden