Übersicht:Thermodynamik: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Zeile 73: Zeile 73:
** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen
** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen
* Gibbssche Fundamentalgleichung <math>dS=k{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle =k\left( \beta dU+\frac{\beta }{p}dV-\frac{S}{\mu }dN \right)</math>
* Gibbssche Fundamentalgleichung <math>dS=k{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle =k\left( \beta dU+\frac{\beta }{p}dV-\frac{S}{\mu }dN \right)</math>
==Kullback-Information==
* Informationsgewinn <math>K\left( P,P' \right)=\sum{{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}'}} \ge 0</math>


[[Kategorie:Thermodynamik]]
[[Kategorie:Thermodynamik]]

Version vom 20. Juli 2009, 13:25 Uhr

klassische Mechanik

  • Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik

--> gleiche a –priori Wahrscheinlichkeiten

  • Hamiltonfunktion mit Hamiltongleichungen
  • Lösungen Trajektorien im Phasenraum

Satz von Liouville

Das Phasenraumvolumen ist invariant unter Zeitentwicklung --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit

Zustand

(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen mit

Shannon-Information

  • Information: Welches Ereignis tritt ein?
  • Wie viel weiß ich von meinem System?
  • Maximum --> schafte Verteilung

minimum

  • Maximum des Nichtwissens entspricht minimaler Shannon-Information -- > Variation der um

mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu

die Variation, also

lässt keine freien Parameter zu also erhält man N Gleichungen

so erhält man wegen der Normierung () die

Gleichverteilung

Nebenbedingungen

  • führt zum Informationstheoretischen Prinzip nach Jaynes
  • Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
  • Variationsverfahren mit Nebenbedingungen
  • Shannon-Information soll minimal werden
  • Es gibt m+1 Nebenbedingungen:
    • Gesamtwahrscheinlichkeiten sind 1:
    • Kenntnis von Mittelwerten makroskopischer Observabelen
    • also mit Lagrange Multiplikatoren:
  • führt zur Variation
  • daraus erhält man die verallgemeinerte kanonische Verteilung
  • die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
  • , da

Fundamentalbeziehung

  • durch eine Legenderetransformation

  • extensive Parameter
  • intensive Parameter

Beziehungen

  • Verknüpfung mit phänomenologischer Statistik
    • Entropie = fehlende Kenntnis
    • da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, --> kann Entropie (S) nicht abnehmen
    • pähnomenologische Definition der intensiven Variabelen
  • Gibbssche Fundamentalgleichung

Kullback-Information

  • Informationsgewinn