Zum Inhalt springen

Entropie: Vorwort

Aus Wikibooks

Zurück zu Entropie

Der Kühlschrank, eine Entropiemaschine

Anfang

[Bearbeiten]

Wenn man Physikbücher zum Thema Entropie liest, dann wundert man sich, wie schwer verständlich dieser Begriff erklärt wird. Die Verwirrung wird noch größer, wenn man versucht, die Entropie aus der Informationstheorie mit der Entropie in der Physik zu einem gemeinsamen Konzept zu vereinigen.

Das Ziel dieses Textes ist es also, das Verständnis des Begriffes Entropie zu erleichtern.

Der Text erhebt keinen allzu hohen wissenschaftlichen Anspruch, sondern soll dazu anregen über den wichtigen Begriff der Entropie auch fachübergreifend nachzudenken. Deswegen habe ich das Buch bewusst in das Regal Diverse platziert.

Alle, die Lust haben, können diesen Text bearbeiten:

  • Dort wo er falsch ist, soll man ihn korrigieren.
  • Dort wo er unverständlich ist, soll man ihn verständlicher machen.
  • Dort wo etwas fehlt, soll man ihn ergänzen.

Jeder der sich berufen fühlt, kann die Fehler beseitigen. Dabei sollte aber immer auf eine gute Verständlichkeit und Didaktik geachtet werden.

Wie versteht man Entropie am schnellsten und besten?

[Bearbeiten]

Siehe Entropie: Didaktik

Gedanken in dem Text, die vielleicht neu sind

[Bearbeiten]

Diese Gedanken werden hier nur als pseudo- oder unwissenschaftliche Thesen ohne ausführliche Begründung vorgetragen.

Ein bißchen philosophisches Denken hat noch nie geschadet, auch wenn man Mathematiker oder Physiker ist, und eigentlich mit der Philosophie gar nichts am Hut hat.

Information spaltet sich auf in Zufallsinformation und geordnete Information

[Bearbeiten]
  • Die wichtigste und grundlegendste Aufspaltung des mathematisch-naturwissenschaftlichen Basisbegriffes Information ist die Aufspaltung in
    • Entropie im Sinne der Informationstheorie und
    • nicht zufällige = geordnete Information.

Das ist eine Behauptung in dem Buch. Ob sie stimmt, bzw. ob sie wirklich so grundlegend ist, darüber kann man weiter nachdenken.

Zufall und Entropie

[Bearbeiten]
  • Zwischen dem Zufall und der Entropie besteht sowohl in der Mathematik als auch in der Physik ein enger Zusammenhang.
    • Je mehr Zufall in einer Struktur oder einem System steckt, desto größer ist auch seine Entropie.
      • Das ist auch wieder so eine Behauptung in diesem Buch. Sie scheint plausibel, muß aber noch weiter begründet werden.
    • Bis jetzt taucht der Begriff Entropie in Lehrbücher der Stochastik oft nur als Fußnote oder gar nicht auf.

Kompliziertes kann man nur explizit beschreiben

[Bearbeiten]
  • Kompliziertere Strukturen, wie zb die Struktur eines Schneekristalles kann man nur mathematisch explizit beschreiben. Eine Aussage über die physikalische oder mathematische Entropie beispielsweise eines Schneekristalles ist zwar ganz interessant, liefert aber keine hinreichende Beschreibung der Struktur des Kristalles. Es gibt sicher eine Reihe verschieden strukturierter Schneekristalle, die rein rechnerisch (mathematisch) oder auch physikalisch gemessen eine identische Entropie haben. (entropieidentisch, strukturverschieden)

Ähnliche globale Aussagen über den Schneekristall sind:

  • seine Temperatur
  • die Anzahl der Wassermoleküle
  • die Fläche oder das Volumen, das der Schneekristall einnimmt.

Die genaue Struktur kann man aber nicht mit so einer globalen Größe beschreiben. Sie muss immer explizit mathematisch-geometrisch erfolgen, es sei denn es handelt sich um hochgeordnete Einkristalle.

Was ist eigentlich Ordnung?

[Bearbeiten]

Ordnung ist salopp betrachtet das Gegenteil von Entropie. Dabei wundert man sich allerdings, wie schlecht der Basisbegriff Ordnung definiert ist. Die Mathematik, die ja eigentlich die Wissenschaft der geordneten Strukturen und Systeme ist, kümmert sich um den Begriff Ordnung eher wenig. siehe Entropie:_Ordnung

Gebirge der Entropie und der Ordnung

[Bearbeiten]

Man kann von einem Computer so etwas wie das "Gebirge" der Entropie und der Ordnung zeichnen lassen. Es soll die Aufspaltung von geordneter und zufälliger Information an Hand immer länger werdender 01 Folgen grafisch darstellen. Die Entropie der 01 Folge soll dabei mit dem Runstest berechnet werden. Beispiel: 00000000000000000000 (Entropiewert 0) 01101100110111100010 (Entropiewert 20) Siehe auch Diskussion zum Wikibook Zufall.

Ein Anfang findet sich hier:

ACHTUNG: Die Bezeichnung der Abbildung ist etwas irreführend. Denn je höher die Säulen desto ordentlicher sind die 01 Folgen. Je größer der pzWert desto kleiner ist die Entropie. Je näher der pzWert bei Null ist, desto größer ist die Entropie.

Wenn man es dann beginnend bei 01 über immer länger werdende 01Folgen ausrechnet ergibt sich eine universelle Entropielandschaft, die 2 Arten von Ordnung und die Entropie immer weiter aufspalten, je länger die Folgen sind. Der Einfachheit halber wurden hier nur 01 Folgen mit gleicher Anzahl von 0 und 1 betrachtet.

2 Arten von Ordnung: wiederholende und symmetrische Ordnung

[Bearbeiten]

Interessant ist, dass man mit dem Programm zwischen zwei verschiedenen Arten von Ordnung unterscheiden kann:

  • 01010101010101010101010
  • 000000000000011111111111111
  • binäre Ordnung spaltet sich auf in
    • Wiederholung und
    • Symmetrie

Zusammenhang Entropie und Information

[Bearbeiten]

Über den genauen Zusammenhang zwischen der Entropie und der Information wurde ( und wird ?) heftig diskutiert:

Vorschläge

[Bearbeiten]
  • I = k * E
    • Shannon
      • Information und Entropie sind direkt proportional
  • I = - k * E
    • Schrödinger, Wiener, Slizard, Broullion
      • Information und Entropie sind indirekt proportional
  • I = Io* e^(-k*E)
    • Tom Stonier
      • Information und Entropie sind negativ korreliert, es gibt negative Entropie

Wer hat hier recht?

Ein Vorschlag wäre folgender:

Wenn man die Entropie als die Maß für Zufallsinformation betrachtet, die in einem System steckt, dann kann man sagen, dass die Gesamtinformation des Systems immer größer oder gleich der Entropie des Systems ist.

Menge an Gesamtinformation = Menge an Zufallsinformation + Menge an nichtzufälliger Information 

Das ist eine wunderschöne Formel. Sie ist wahrscheinlich auch richtig. Das Problem ist nur, wie man die beiden Teile der Summe richtig berechnet oder misst.

Eiskristall, vergrößert

Das Thermo-Mathematische Entropieäquivalent

[Bearbeiten]

Zwischen der mathematischen Entropie und der physikalischen Entropie gibt es eine Verbindung, die bisher nicht explizit herausgearbeitet wurde. Berechenbare Strukturen wie Schneekristalle, deren mathematische Entropie man errechnen kann, kann man auch physikalisch untersuchen. Die physikalische Entropie kann man beispielsweise beim Aufschmelzen des Schneekristalles messen. So kann man versuchen, eine thermo-mathematisches Entropieäquivalent zu bestimmen. Die mathematische Entropie einer Schneeflocke kann man aus ihrer Struktur berechnen. Die physikalische Entropie kann man über die Schmelzwärme messen, die zum Schmelzen der Schneeflocke gebraucht wird. So kann man aus der gegenüber einem Monokristall reduzierten Schmelzwärme einer Schneeflocke auf deren mathematischen Ordnungsgrad schlussfolgern und vielleicht einen Umrechnungsfaktor zwischen der physikalischen und der informationstheoretischen Entropie berechnen. Die Einheit dafür wäre bit / Joule / Kelvin.

Begonnen von Rho im Dez 2005 (UTC), in einigen Punkten verändert im Jahr 2021.

Entropiebuch zum Herunterladen für Linuxnutzer

[Bearbeiten]

Folgende Anleitung ist wahrscheinlich etwas veraltet, probieren kann man es trotzdem. Linuxnutzer sind in der Regel ganz gut vertraut mit ihrem Betriebssystem.

Das Entropiewikibuch als HTML-Buch auf dem eigenen Rechner abspeichern

[Bearbeiten]

Man kann sich das Entropiebuch recht einfach als verknüpfte HTML Seiten auf dem eigenen Rechner einrichten.

Damit die Verknüpfung korrekt funktioniert, müssen Sie auf ihrem Rechner ein Verzeichnis /wiki einrichten. Dieses ist nicht unter home, sondern ganz oben in der Linuxhierarchie (also unter /) einzurichten. Dies können Sie nur unter dem Benutzer root. Hierzu geben Sie in einer Shell folgendes ein:

su 

Tippen Sie nun ihr Rootpasswort ein.

mkdir /wiki

Geben Sie dem Verzeichnis nun die Rechte eines normalen Nutzers.

chown eigenernutzername:eigenernutzername wiki

Wenn Sie sich mit den Konsolenbefehlen nicht auskennen, schauen Sie doch einfach hier nach:


Dann kopieren Sie aus dem Wikibook die Datei Entropie in dieses Verzeichnis. Im Konqueror machen Sie dies mit dem Menubefehl Dokument und Speichern unter (oder kurz Strg + S). Wählen Sie zum Speichern das Verzeichnis /wiki aus.

Dasselbe machen Sie mit den anderen Entropie Dateien.

Achten Sie dabei auf die Klein- und Großschreibung. Leider müssen Sie die Dateien noch mit der Hand umbenennen. Aus Entropie_Vorwort muss Entropie:_Vorwort werden. Letzteres (mit dem Doppelpunkt) lässt sich nicht direkt abspeichern. Umbenennen können Sie im Konqueror oder mit folgendem Konsolenbefehl

mv Entropie_Vorwort Entropie:_Vorwort
Ein Script dazu wäre sehr schön, leider gibt es das noch nicht.

Dann können Sie immer die neuesten Entropieseiten aus Wikibooks nach /wiki/ herunterladen.

Das Ganze wird dann über den Konqueror aufgerufen. Im Konqueror ist dann auch ein Zurückblättern möglich.

Auch andere Wikibücher können sie so lokal auf Ihrem Rechner verfügbar machen.

Unter Windows funktioniert der Aufruf mit dem Explorer nicht korrekt.