Übersicht:Thermodynamik: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Zeile 15: Zeile 15:
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
==Shannon-Information==
==Shannon-Information==
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
Information: Welches Ereignis tritt ein?
*Information: Welches Ereignis tritt ein?
Wie viel weiß ich von meinem System
*Wie viel weiß ich von meinem System?
Maximum<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
*'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
===minimum===
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math>


Maximum des Nichtwissens entspricht minimaler Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der P_i um<math>\delta {{P}_{i}}</math>mit 1 Nebendbedingung<math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda =-\left( \psi +1 \right)</math> zu
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda</math> zu


<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>
<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>


die Variation<math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
Also Wahl der N-m-1 freien Parameter möglich durch<math>0=\sum{\left( \ln {{P}_{i}}-\psi +{{\lambda }_{\nu }}M_{i}^{\nu } \right)\delta {{P}_{i}}}</math>
so erhält man die [[verallgemeinerte kanonische Verteilung]]


<math>{{P}_{i}}=\exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)</math>
lässt keine freien Parameter zu also erhält man N Gleichungen


<math>\ln \left( {{P}_{i}} \right)=-\left( \lambda +1 \right)=const</math>
<math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math>
für Gleichverteilung<math>{{P}_{i}}=\frac{1}{N}</math>


durch eine Legendere trafp <math>I\left( P \right)\to I\left( \lambda  \right)</math>
so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die
 
Gleichverteilung<math>{{P}_{i}}=\frac{1}{N}</math>
==Nebenbedingungen==
* führt zum Informationstheoretischen Prinzip nach Jaynes
* Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
* Variationsverfahren mit Nebenbedingungen
* Shannon-Information <math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}\le 0</math> soll minimal werden
* Es gibt m+1 Nebenbedingungen:
** Gesamtwahrscheinlichkeiten sind 1
** Kenntnis von <math>\nu</math> mittelwerte makroskopischer Observabelen
 
durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>


[[Kategorie:Thermodynamik]]
[[Kategorie:Thermodynamik]]

Version vom 20. Juli 2009, 11:38 Uhr

klassische Mechanik

  • Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik

--> gleiche a –priori Wahrscheinlichkeiten

  • Hamiltonfunktion mit Hamiltongleichungen
  • Lösungen Trajektorien im Phasenraum

Satz von Liouville

Das Phasenraumvolumen ist invariant unter Zeitentwicklung --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit

Zustand

(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen mit

Shannon-Information

  • Information: Welches Ereignis tritt ein?
  • Wie viel weiß ich von meinem System?
  • Maximum --> schafte Verteilung

minimum

  • Maximum des Nichtwissens entspricht minimaler Shannon-Information -- > Variation der um

mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu

die Variation, also

lässt keine freien Parameter zu also erhält man N Gleichungen

so erhält man wegen der Normierung () die

Gleichverteilung

Nebenbedingungen

  • führt zum Informationstheoretischen Prinzip nach Jaynes
  • Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
  • Variationsverfahren mit Nebenbedingungen
  • Shannon-Information soll minimal werden
  • Es gibt m+1 Nebenbedingungen:
    • Gesamtwahrscheinlichkeiten sind 1
    • Kenntnis von mittelwerte makroskopischer Observabelen

durch eine Legenderetransformation