Übersicht:Thermodynamik: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Zeile 15: Zeile 15:
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi  \right)}}d\xi }</math>
==Shannon-Information==
==Shannon-Information==
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math>
Information: Welches Ereignis tritt ein?
*Information: Welches Ereignis tritt ein?
Wie viel weiß ich von meinem System
*Wie viel weiß ich von meinem System?
Maximum<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
*'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math>
===minimum===
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math>


Maximum des Nichtwissens entspricht minimaler Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der P_i um<math>\delta {{P}_{i}}</math>mit 1 Nebendbedingung<math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda =-\left( \psi +1 \right)</math> zu
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung  eines Lagrange-Parameters<math>\lambda</math> zu


<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>
<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math>


die Variation<math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math>
Also Wahl der N-m-1 freien Parameter möglich durch<math>0=\sum{\left( \ln {{P}_{i}}-\psi +{{\lambda }_{\nu }}M_{i}^{\nu } \right)\delta {{P}_{i}}}</math>
so erhält man die [[verallgemeinerte kanonische Verteilung]]


<math>{{P}_{i}}=\exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)</math>
lässt keine freien Parameter zu also erhält man N Gleichungen


<math>\ln \left( {{P}_{i}} \right)=-\left( \lambda +1 \right)=const</math>
<math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math>
für Gleichverteilung<math>{{P}_{i}}=\frac{1}{N}</math>


durch eine Legendere trafp <math>I\left( P \right)\to I\left( \lambda  \right)</math>
so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die
 
Gleichverteilung<math>{{P}_{i}}=\frac{1}{N}</math>
==Nebenbedingungen==
* führt zum Informationstheoretischen Prinzip nach Jaynes
* Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
* Variationsverfahren mit Nebenbedingungen
* Shannon-Information <math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}\le 0</math> soll minimal werden
* Es gibt m+1 Nebenbedingungen:
** Gesamtwahrscheinlichkeiten sind 1
** Kenntnis von <math>\nu</math> mittelwerte makroskopischer Observabelen
 
durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda  \right)</math>


[[Kategorie:Thermodynamik]]
[[Kategorie:Thermodynamik]]

Version vom 20. Juli 2009, 10:38 Uhr

klassische Mechanik

  • Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik

--> gleiche a –priori Wahrscheinlichkeiten

  • Hamiltonfunktion mit Hamiltongleichungen
  • Lösungen Trajektorien im Phasenraum

Satz von Liouville

Das Phasenraumvolumen ist invariant unter Zeitentwicklung --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen I(t1)I(t2) mit t1<t2

Zustand

Mν=dξρ(ξ)Mν(ξ) (thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen ρ(ξ)=exp(ψλνMν(ξ))=z1exp(λνMν(ξ)) mit z=eψ=eλνMν(ξ)dξ

Shannon-Information

minimum

  • Maximum des Nichtwissens entspricht minimaler Shannon-Information -- >I(P)<0 Variation der Pi umδPi

mit 1 Nebendbedingung iPi=1 führt unter Verwendung eines Lagrange-Parametersλ zu

I(P)=PilnPi+λ(Pi1)

die Variation, also δI(P)=(lnPi+1)δPi

lässt keine freien Parameter zu also erhält man N Gleichungen

(lnPi)=(λ+1)=const.

so erhält man wegen der Normierung (iPi=1) die

GleichverteilungPi=1N

Nebenbedingungen

  • führt zum Informationstheoretischen Prinzip nach Jaynes
  • Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
  • Variationsverfahren mit Nebenbedingungen
  • Shannon-Information I(P)=iPilnPi0 soll minimal werden
  • Es gibt m+1 Nebenbedingungen:
    • Gesamtwahrscheinlichkeiten sind 1
    • Kenntnis von ν mittelwerte makroskopischer Observabelen

durch eine Legenderetransformation I(P)I(λ)