Entropie: Vorwort

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Zurück zu Entropie

Der Kühlschrank, eine Entropiemaschine

Anfang[Bearbeiten]

Wenn man Physikbücher zum Thema Entropie liest, dann ärgert man sich, wie schwer verständlich dieser Begriff erklärt wird. Die Verwirrung wird noch größer, wenn man versucht, die Entropie aus der Informationstheorie mit der Entropie in der Physik zu einem gemeinsamen Konzept zu vereinigen.

Um den Begriff selber besser zu verstehen, habe ich vor Jahren eine Stoffsammlung zum Thema Entropie begonnen. siehe http://www.madeasy.de/2/entropie.htm

Aus dieser Stoffsammlung ist dann dieses Wikibuch entstanden.

Einige Texte aus der Stoffsammlung sind vom Autor der Internetseite Benutzer:Rho selbst hierher kopiert worden und sind public domain. Andere Teile des Textes stammen aus Wikipedia oder sind aus anderen Quellen zusammengetragen.

Das Ziel dieses Textes ist es, das Verständnis des Begriffes Entropie zu erleichtern.

Der Text erhebt keinen allzu hohen wissenschaftlichen Anspruch, sondern soll dazu anregen über den wichtigen Begriff der Entropie auch fachübergreifend nachzudenken. Deswegen habe ich das Buch bewusst in das Regal Diverse platziert.

Alle, die Lust haben, können diesen Text bearbeiten:

  • Dort wo er falsch ist, soll man ihn korrigieren.
  • Dort wo er unverständlich ist, soll man ihn verständlicher machen.
  • Dort wo etwas fehlt, soll man ihn ergänzen.

Ich bin Laie, was die Mathematik und die Physik betrifft. Das mag manchen Dilettantismus in diesem Buch erklären. Jeder der sich berufen fühlt, kann die Fehler beseitigen. Dabei sollte aber immer auf eine gute Verständlichkeit und Didaktik geachtet werden. Benutzer:Rho

Wie versteht man Entropie am schnellsten und besten?[Bearbeiten]

Siehe Entropie: Didaktik

Gedanken in dem Text, die vielleicht neu sind[Bearbeiten]

Diese Gedanken werden hier nur als pseudo- oder unwissenschaftliche Thesen ohne ausführliche Begründung vorgetragen. Die Fachleute aus der Mathematik oder Physik können versuchen sie zu nutzen oder zu widerlegen.

Ein bißchen philosophisches Denken hat noch nie geschadet, auch wenn man Mathematiker oder Physiker ist, und eigentlich mit der Philosophie gar nichts am Hut hat.

Information spaltet sich auf in Zufallsinformation und geordnete Information[Bearbeiten]

  • Die wichtigste und grundlegendste Aufspaltung des mathematisch-naturwissenschaftlichen Basisbegriffes Information ist die Aufspaltung in
    • Entropie im Sinne der Informationstheorie und
    • nicht zufällige = geordnete Information.

Zufall und Entropie[Bearbeiten]

  • Zwischen dem Zufall und der Entropie besteht sowohl in der Mathematik als auch in der Physik ein enger Zusammenhang.
    • Je mehr Zufall in einer Struktur oder einem System steckt, desto größer ist auch seine Entropie.
    • Die Mathematiker sollten sich etwas anstrengen, diesen Zusammenhang klar und verständlich herauszuarbeiten.
    • Bis jetzt taucht der Begriff Entropie zb in Lehrbücher der Stochastik oft nur als Fußnote oder gar nicht auf.

zbit[Bearbeiten]

  • Da man bislang die Menge an Zufall schlecht mathematisch fassen kann, kann man eine neue Definition einführen:
    • Ein Zufallsereignis mit nur 2 gleichberechtigten Ergebnissen im Ereignisraum (= idealer Münzwurf) hat die Entropie 1 zbit (Zufallsbit).

Kompliziertes kann man nur explizit beschreiben[Bearbeiten]

  • Kompliziertere Strukturen, wie zb die Struktur eines Schneekristalles kann man nur mathematisch explizit beschreiben. Eine Aussage über die physikalische oder mathematische Entropie beispielsweise eines Schneekristalles ist zwar ganz interessant, liefert aber keine hinreichende Beschreibung der Struktur des Kristalles. Es gibt sicher eine Reihe verschieden strukturierter Schneekristalle, die rein rechnerisch (mathematisch) oder auch physikalisch gemessen eine identische Entropie haben. (entropieidentisch, strukturverschieden)

Ähnliche globale Aussagen über den Schneekristall sind:

  • seine Temperatur
  • die Anzahl der Wassermoleküle
  • die Fläche oder das Volumen, das der Schneekristall einnimmt.

Die genaue Struktur kann man aber nicht mit so einer globalen Größe beschreiben. Sie muss immer explizit mathematisch-geometrisch erfolgen, es sei denn es handelt sich um hochgeordnete Einkristalle.

Was ist eigentlich Ordnung?[Bearbeiten]

Ordnung ist salopp betrachtet das Gegenteil von Entropie. Dabei wundert man sich allerdings, wie schlecht der Basisbegriff Ordnung definiert ist. Die Mathematik, die ja eigentlich die Wissenschaft der geordneten Strukturen und Systeme ist, kümmert sich um den Begriff Ordnung sehr wenig. siehe Entropie:_Ordnung

Gebirge der Entropie und der Ordnung[Bearbeiten]

Ich möchte gern von meinem Computer das Gebirge der Entropie und der Ordnung zeichnen lassen. Es soll die Aufspaltung von geordneter und zufälliger Information an Hand immer länger werdender 01 Folgen grafisch darstellen. Die Entropie der 01 Folge soll dabei mit dem Runstest berechnet werden. Beispiel: 00000000000000000000 (Entropiewert 0) 01101100110111100010 (Entropiewert 20) Siehe auch Diskussion zum Wikibook Zufall.

Ein Anfang findet sich hier:

Entropiewerte8er01folgen.png

ACHTUNG: Die Bezeichnung der Abbildung ist etwas irreführend. Denn je höher die Säulen desto ordentlicher sind die 01 Folgen. Je größer der pzWert desto kleiner ist die Entropie. Je näher der pzWert bei Null ist, desto größer ist die Entropie.

Wenn man es dann beginnend bei 01 über immer länger werdende 01Folgen ausrechnet ergibt sich eine universelle Entropielandschaft, die 2 Arten von Ordnung und die Entropie immer weiter aufspalten, je länger die Folgen sind. Der Einfachheit halber wurden hier nur 01 Folgen mit gleicher Anzahl von 0 und 1 betrachtet. Die Mathematiker können sich ja einmal anstrengen und die Landschaft auch für die restlichen 01 Folgen berechnen.

Entropyscape.png

2 Arten von Ordnung: wiederholende und symmetrische Ordnung[Bearbeiten]

Interessant ist, dass man mit dem Programm zwischen zwei verschiedenen Arten von Ordnung unterscheiden kann:

  • 01010101010101010101010
  • 000000000000011111111111111
  • binäre Ordnung spaltet sich auf in
    • Wiederholung und
    • Symmetrie

Zusammenhang Entropie und Information[Bearbeiten]

Über den genauen Zusammenhang zwischen der Entropie und der Information wird heftig diskutiert:

Vorschläge[Bearbeiten]

  • I = k * E
    • Shannon
      • Information und Entropie sind direkt proportional
  • I = - k * E
    • Schrödinger, Wiener, Slizard, Broullion
      • Information und Entropie sind indirekt proportional

Wer hat hier recht?

Mein Vorschlag wäre folgender:

Wenn man die Entropie als die Menge an Zufallsinformation betrachtet, die in einem System steckt, dann kann man sagen, dass die Gesamtinformation des Systems immer größer oder gleich der Entropie des Systems ist.

Menge an Gesamtinformation = Menge an Zufallsinformation + Menge an nichtzufälliger Information 

Das ist eine wunderschöne Formel. Sie ist wahrscheinlich auch richtig. Das Problem ist nur, wie man die beiden Teile der Summe richtig berechnet oder misst.

Eiskristall, vergrößert

Das Thermo-Mathematische Entropieäquivalent[Bearbeiten]

Zwischen der mathematischen Entropie und der physikalischen Entropie gibt es eine Verbindung, die bisher nicht explizit herausgearbeitet wurde. Berechenbare Strukturen wie Schneekristalle, deren mathematische Entropie man errechnen kann, kann man auch physikalisch untersuchen. Die physikalische Entropie kann man beispielsweise beim Aufschmelzen des Schneekristalles messen. So kann man versuchen, eine thermo-mathematisches Entropieäquivalent zu bestimmen. Die mathematische Entropie einer Schneeflocke kann man aus ihrer Struktur berechnen. Die physikalische Entropie kann man über die Schmelzwärme messen, die zum Schmelzen der Schneeflocke gebraucht wird. So kann man aus der gegenüber einem Monokristall reduzierten Schmelzwärme einer Schneeflocke auf deren mathematischen Ordnungsgrad schlussfolgern und vielleicht einen Umrechnungsfaktor zwischen der physikalischen und der informationstheoretischen Entropie berechnen. Die Einheit dafür wäre bit / Joule / Kelvin.

Rho im Dez 2005 (UTC)

Entropiebuch zum Herunterladen für Linuxnutzer[Bearbeiten]

Das Entropiewikibuch als HTML-Buch auf dem eigenen Rechner abspeichern[Bearbeiten]

Man kann sich das Entropiebuch recht einfach als verknüpfte HTML Seiten auf dem eigenen Rechner einrichten.

Damit die Verknüpfung korrekt funktioniert, müssen Sie auf ihrem Rechner ein Verzeichnis /wiki einrichten. Dieses ist nicht unter home, sondern ganz oben in der Linuxhierarchie (also unter /) einzurichten. Dies können Sie nur unter dem Benutzer root. Hierzu geben Sie in einer Shell folgendes ein:

su 

Tippen Sie nun ihr Rootpasswort ein.

mkdir /wiki

Geben Sie dem Verzeichnis nun die Rechte eines normalen Nutzers.

chown eigenernutzername:eigenernutzername wiki

Wenn Sie sich mit den Konsolenbefehlen nicht auskennen, schauen Sie doch einfach hier nach:


Dann kopieren Sie aus dem Wikibook die Datei Entropie in dieses Verzeichnis. Im Konqueror machen Sie dies mit dem Menubefehl Dokument und Speichern unter (oder kurz Strg + S). Wählen Sie zum Speichern das Verzeichnis /wiki aus.

Dasselbe machen Sie mit den anderen Entropie Dateien.

Achten Sie dabei auf die Klein- und Großschreibung. Leider müssen Sie die Dateien noch mit der Hand umbenennen. Aus Entropie_Vorwort muss Entropie:_Vorwort werden. Letzteres (mit dem Doppelpunkt) lässt sich nicht direkt abspeichern. Umbennen können Sie im Konqueror oder mit folgendem Konsolenbefehl

mv Entropie_Vorwort Entropie:_Vorwort
Ein Script dazu wäre sehr schön, leider gibt es das noch nicht.

Dann können Sie immer die neuesten Entropieseiten aus Wikibooks nach /wiki/ herunterladen.

Das Ganze wird dann über den Konqueror aufgerufen. Im Konqueror ist dann auch ein Zurückblättern möglich.

Auch andere Wikibücher können sie so lokal auf Ihrem Rechner verfügbar machen.

Unter Windows funktioniert der Aufruf mit dem Explorer nicht korrekt.