Übersicht:Thermodynamik: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Zeile 15: | Zeile 15: | ||
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi \right)}}d\xi }</math> | <math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi \right)}}d\xi }</math> | ||
==Shannon-Information== | ==Shannon-Information== | ||
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math> | *<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math> | ||
Information: Welches Ereignis tritt ein? | *Information: Welches Ereignis tritt ein? | ||
Wie viel weiß ich von meinem System | *Wie viel weiß ich von meinem System? | ||
Maximum<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math> | *'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math> | ||
===minimum=== | |||
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math> | |||
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung eines Lagrange-Parameters<math>\lambda</math> zu | |||
<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math> | <math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math> | ||
die Variation<math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math> | die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math> | ||
lässt keine freien Parameter zu also erhält man N Gleichungen | |||
<math> | <math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math> | ||
durch eine | so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die | ||
Gleichverteilung<math>{{P}_{i}}=\frac{1}{N}</math> | |||
==Nebenbedingungen== | |||
* führt zum Informationstheoretischen Prinzip nach Jaynes | |||
* Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen | |||
* Variationsverfahren mit Nebenbedingungen | |||
* Shannon-Information <math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}\le 0</math> soll minimal werden | |||
* Es gibt m+1 Nebenbedingungen: | |||
** Gesamtwahrscheinlichkeiten sind 1 | |||
** Kenntnis von <math>\nu</math> mittelwerte makroskopischer Observabelen | |||
durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda \right)</math> | |||
[[Kategorie:Thermodynamik]] | [[Kategorie:Thermodynamik]] |
Version vom 20. Juli 2009, 10:38 Uhr
klassische Mechanik
- Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik
--> gleiche a –priori Wahrscheinlichkeiten
- Hamiltonfunktion mit Hamiltongleichungen
- Lösungen Trajektorien im Phasenraum
Satz von Liouville
Das Phasenraumvolumen ist invariant unter Zeitentwicklung --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit
Zustand
(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen mit
Shannon-Information
- Information: Welches Ereignis tritt ein?
- Wie viel weiß ich von meinem System?
- Maximum --> schafte Verteilung
minimum
mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu
lässt keine freien Parameter zu also erhält man N Gleichungen
so erhält man wegen der Normierung () die