Übersicht:Thermodynamik: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Zeile 59: Zeile 59:
*durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>
*durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=\sum\limits_{i}{{{P}_{i}}\ln \exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)}=\psi \underbrace{\sum\limits_{i}{{{P}_{i}}}}_{1}-{{\lambda }_{\nu }}\sum\limits_{i}{{{P}_{i}}M_{i}^{\nu }}=\psi -{{\lambda }_{\nu }}\left\langle {{M}^{\nu }} \right\rangle </math>
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=\sum\limits_{i}{{{P}_{i}}\ln \exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)}=\psi \underbrace{\sum\limits_{i}{{{P}_{i}}}}_{1}-{{\lambda }_{\nu }}\sum\limits_{i}{{{P}_{i}}M_{i}^{\nu }}=\psi -{{\lambda }_{\nu }}\left\langle {{M}^{\nu }} \right\rangle </math>
* extensive Parameter <math>\left\langle {{M}^{\nu }} \right\rangle  
* extensive Parameter <math>\left\langle {{M}^{\nu }} \right\rangle
   ={{\partial }_{{{\lambda }_{\nu }}}}\psi \left( {{\lambda }_{\nu }} \right)
   ={{\partial }_{{{\lambda }_{\nu }}}}\psi \left( {{\lambda }_{\nu }} \right)
   ={{\partial }_{{{\lambda }_{\nu }}}}\left( -\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)} \right)</math>
   ={{\partial }_{{{\lambda }_{\nu }}}}\left( -\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)} \right)</math>
* intensive Parameter <math>{{\lambda }_{\nu }}=-{{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}I</math>
* intensive Parameter <math>{{\lambda }_{\nu }}=-{{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}I</math>
<math>\to dI=-{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle </math>
==Beziehungen==
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=Tr\left( \hat{\rho }\ln \hat{\rho } \right)</math>
* Verknüpfung mit phänomenologischer Statistik
** Entropie = fehlende Kenntnis
** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle  \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle  \right)</math>
** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, --> kann Entropie (S) nicht abnehmen
** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math>
** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen
* Gibbssche Fundamentalgleichung <math>dS=k{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle =k\left( \beta dU+\frac{\beta }{p}dV-\frac{S}{\mu }dN \right)</math>


[[Kategorie:Thermodynamik]]
[[Kategorie:Thermodynamik]]

Version vom 20. Juli 2009, 12:55 Uhr

klassische Mechanik

  • Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik

--> gleiche a –priori Wahrscheinlichkeiten

  • Hamiltonfunktion mit Hamiltongleichungen
  • Lösungen Trajektorien im Phasenraum

Satz von Liouville

Das Phasenraumvolumen ist invariant unter Zeitentwicklung --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit

Zustand

(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen mit

Shannon-Information

  • Information: Welches Ereignis tritt ein?
  • Wie viel weiß ich von meinem System?
  • Maximum --> schafte Verteilung

minimum

  • Maximum des Nichtwissens entspricht minimaler Shannon-Information -- > Variation der um

mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu

die Variation, also

lässt keine freien Parameter zu also erhält man N Gleichungen

so erhält man wegen der Normierung () die

Gleichverteilung

Nebenbedingungen

  • führt zum Informationstheoretischen Prinzip nach Jaynes
  • Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
  • Variationsverfahren mit Nebenbedingungen
  • Shannon-Information soll minimal werden
  • Es gibt m+1 Nebenbedingungen:
    • Gesamtwahrscheinlichkeiten sind 1:
    • Kenntnis von Mittelwerten makroskopischer Observabelen
    • also mit Lagrange Multiplikatoren:
  • führt zur Variation
  • daraus erhält man die verallgemeinerte kanonische Verteilung
  • die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
  • , da

Fundamentalbeziehung

  • durch eine Legenderetransformation

  • extensive Parameter
  • intensive Parameter

Beziehungen

  • Verknüpfung mit phänomenologischer Statistik
    • Entropie = fehlende Kenntnis
    • da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, --> kann Entropie (S) nicht abnehmen
    • pähnomenologische Definition der intensiven Variabelen
  • Gibbssche Fundamentalgleichung