Zum Inhalt springen

Information: Einleitung

Aus Wikibooks

zurück zur Übersicht

Wahrscheinlich stammt eine der ersten übertragenen und beschriebenen binären Informationsfolgen von dem Mathematiker Gauß.

+--- +-+ ++-- ++-- -+ --+ /
+--+ --- ++-+ /
-+- -+ +-+ --+ -+ --+ /
++-- -+ +-+ --+ /
+--+ --- ++-+ /
++-- ++ ++- -+ +-+ --+ -+ --+

Wissen vor Meinen, Sein vor Scheinen. Die erste per Telegrafie übertragene Botschaft zwischen Gauß und Weber, bereits Jahrzehnte vor Morses Übertragungen. Quelle: Gauß: Eine Biographie von Hubert Mania, 368 Seiten Verlag: rororo (1. Juli 2009)

Carl Friedrich Gauß

Einleitung

[Bearbeiten]

Der Begriff der Information kristallisiert sich seit einigen Jahrzehnten als ein ähnlich grundlegender Begriff heraus, wie das die Begriffe Energie und Materie schon seit langem als Basis jeder Naturwissenschaft geworden sind. Dabei steht der Begriff Information an der Grenze zwischen den Naturwissenschaften und den Geisteswissenschaften und er kann vielleicht helfen, Gräben, die sich zwischen diesen Wissenschaftsbereichen aufgetan haben, zu überbrücken. Norbert Wiener, der Begründer der Kybernetik, hat dies auf den Punkt gebracht, als er sagte: "Information ist Information, weder Materie noch Energie. Kein Materialismus, der dies nicht berücksichtigt, kann heute überleben."

Der Begriff Information scheint eine ähnliche Vereinheitlichung der Anschauungen zu bringen, wie sie der Begriff der Energie für die Physik des 19.Jahrhunderts gebracht hat. Allerdings müssen dazu noch einige Ungereimtheiten beseitigt werden, die im Begriff Information stecken. Vor allem der semantische Aspekt der Information, also die Bedeutung von Information, bereitet noch erhebliche Verständnisprobleme. Die Bedeutung von Information ergibt sich meist erst durch die Betrachtung des jeweiligen Zusammenhanges. Sie kann oft durch die Frage - Bedeutung für wen oder für was? - geklärt werden. Von manchen wird bestritten, dass es bedeutsame Information ohne das menschliche Denken geben kann. Geordnete Information gibt es aber ganz sicher auch ohne den Menschen, denn das beweist jeder Schneekristall, jeder Stern und jedes nicht menschliche Lebewesen.

Information ist etwas anderes als Energie und Materie. Es ist eine Eigenschaft von Energie oder Materie.

Ob die Information wirklich eine ganz eigenständige Kategorie ( Entität) neben der Energie und der Materie ist, wie Norbert Wiener das meinte, oder ob Information nur eine Eigenschaft der beiden ist, kann bis jetzt nicht eindeutig beantwortet werden. Hier ist noch Platz zum Nachdenken, für Diskussion und intelligentes Experimentieren. Wie unklar dabei vieles noch ist, zeigt auch die Diskussion um den Zusammenhang zwischen der Entropie und der Information.

Betrachten wir zunächst das Wortfeld zum Thema Information und vergleichen es mit dem Wortfeld Energie und Materie. Siehe Wortfeld:Information,Energie,Materie

Kurze Definition von Information

[Bearbeiten]

Das Wort "Information" wird - wie einige andere abstrakte Begriffe (z.B. Musik) - sowohl für das Phänomen im Gesamten als auch für das einzelne Auftreten verwendet. Das Phänomen wird im Deutschen üblicherweise durch den Zusatz "als solche" gekennzeichnet, was hier beibehalten wird.

Information als solche ist neben Materie und Energie die dritte Kategorie unserer Existenz und bezeichnet die grundsätzliche Tatsache, dass die physikalischen Strukturen in unserem Universum nicht vollständig gleichförmig verteilt sind. "Information als solche" ist eine grundlegende mathematische Grösse. Sie lässt sich im Rahmen der Informationstheorie mit rechnerischen Mitteln genau beschreiben.

Jede Information kann man binaer darstellen, d.h. digitalisieren.

Das Bit, die mathematische Einheit der Information, ist einfach zu verstehen, ist dabei aber eine idealisierte mathematische Vorstellung wie der  Punkt als Grundgröße der Geometrie.

Grundlegend ist die Unterscheidung zwischen

Zufallsinformation      und      geordneter Information

oder

Zufallsstruktur         und      geordneter Struktur 


Wichtige Begriffe in diesem Zusammenhang sind:

Shannon, der die Information, als einer der ersten definiert hat, hat dies schon auf einem höheren Niveau getan.

  1. Er betrachtete Information als Grundgröße der Kommunikationstechnik. Das ist korrekt, aber verengt den Blick auf den Kommunikationsaustausch von Information. Grundlegender als die Kommunikation ist aber die Struktur von beliebigen anderen physikalischen oder mathematischen Objekten. Information ist gleichzusetzen mit der genauen Struktur dieser Objekte.
  2. Außerdem vermischte er die Entropie mit der Information. Entropie ist aber nur ein Aspekt der Information, nämlich ungeordnete, zufällige Information. In dem großen Meer der ungeordneten Information gibt es aber Inseln der geordneten Struktur, der geordneten Information, die man mit der Entropie zwar auch beschreiben kann, aber nur grob und nicht erschöpfend. Um geordnete Information zu beschreiben, braucht es zusaetzlich weiterer mathematischer Größen. Eine einfach, aber grundlegende Unterscheidung geordneter Information ist zb die symmetrische und die wiederholende Ordnung, aus Entropiesicht sind beide nicht zu unterscheiden.

Im Gegensatz dazu ist eine Information im engeren Sinne eine Struktur, die sich physikalisch in einem begrenzten Bereich manifestiert und von einem Informationsempfänger erkannt, aufgenommen und interpretiert werden kann. Sie wird häufig, aber nicht ausschließlich, im Wege und zum Zwecke der Kommunikation erzeugt und/oder übertragen. Die Betrachtung der Information als Einzelereignis ist Gegenstand unter anderem der Erkenntnistheorie, der Kommunikationstheorie und der Semantik und der Semiologie. Da Informationen auch von anderen Lebewesen als Menschen erzeugt, versendet und empfangen werden können, spielt ihre Untersuchung auch in Bereichen der Biologie eine Rolle.

Wichtige Begriffe in diesem Zusammenhang sind:

Beispielhafte Beschreibungen von Information als solcher und von Information im engeren Sinne

[Bearbeiten]
  • Information tritt im Zusammenhang mit Struktur oder Mustern von Materie oder Energie auf.
  • Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
  • Information ist Gewinn an Wissen.
  • Information ist beseitigte Ungewissheit.
  • Information = sich zusammensetzende Mitteilung, die beim Empfänger ein bestimmtes Verhalten bewirkt.


Fußabdruck, geordnete Information ist neu entstanden

Was kann man mit Information alles machen?

[Bearbeiten]
  • Information kann neu entstehen.
  • Information kann vermehrt werden.
  • Information kann kopiert werden.
  • Information kann übertragen werden.
  • Information kann gespeichert werden.
  • Information kann verändert werden.
  • Information kann verbessert werden.
  • Information kann konzentriert werden.
  • Information kann gefiltert werden.
  • Information kann verloren gehen.
  • Information kann vernichtet werden.
  • Information kann verfälscht werden.

Wo wird Information neu produziert?

[Bearbeiten]
  • Abbildungs- und Aufzeichnungsinstrumente
    • Fotoapparate
    • Bücher
    • Zeitungen
    • Gehirne
    • Untersucher
    • Forscher

Anmerkung: Jedes Gehirn würde sich wohl zu Recht dagegen wehren, mit einem Fotoapparat oder einem Buch gleichgesetzt zu werden. Wäre eine solche Gleichsetzung im Entferntesten möglich, wären Maschinen längst deutlich intelligenter, als sie sind. Gehirne sind in gewissem Sinne IMMER kreativ, indem sie von Geburt an die Voraussetzungen schaffen, einen Ausschnitt aus den uns umgebenden elektromagnetischen und akustischen Wellen wahrzunehmen und in "Bilder" und "Geräusche" umzuwandeln.

  • Menschliche Kreativitätsquellen
    • Komponisten
    • Erfinder
    • Geschichtenerzähler
    • Maler
    • Bildhauer
  • die belebte Natur
  • die unbelebte Natur: z.B. Kristallisation
  • Biologische Kreativitätsquellen
    • Erbgut
    • Kopierer der DNS
    • Zeugung, Wachstum
    • Evolutionierer: Variation
  • Anorganische Strukturbildung (=Kreativität?)
    • Kristallisation
    • Bildung chemischer Verbindungen

Wo wird Information vernichtet?

[Bearbeiten]
  • Informationsverringerung
    • Altern
    • Sterben
    • Krieg ("Der Vater aller Dinge??")
    • Vergessen
    • Verdauung
    • Verfall
    • Recycling von Papier und anderen Informationsträgern
    • Aussterben von Arten
    • Selektion
    • Standardisierung

Beispielzeile Information

[Bearbeiten]

Chaitins Beispiel für 2 binäre Zahlen mit 20 Stellen

  • Ungeordnete Reihe: 01101100110111100010
    • als Beispiel für eine Zufallsfolge
    • Entropie 20 Bit
  • Geordnete Reihe 1: 10101010101010101010
    • Zufall = 0, oder fast Null, Entropie nahe 0
    • wiederholende Ordnung
  • Geordnete Reihe 2: 11111111110000000000
    • stammt nicht von Chaitin
    • Zufall = 0, oder fast Null, Entropie nahe 0
    • symmetrische Ordnung
  • höhere Ordnung: 0110111001011101111000
    • Entropie circa 2 oder 3 bit

Eine Beispielszeile:

  • 1.Zufallsinformation = gleichförmige Unordnung:
    • xbeowhgttgsyäcxjpülgjwrqxyshfogjkudrwuepzjfcmwsmgqzqpqvbtiwpaüa
  • 2.Text mit Sinn:
    • Information kann mit Lichtgeschwindigkeit transportiert werden
  • 3.verschlüsselter Text:
    • eyprnxumeryduyyxemfelamübilaveyoeüdbemmnuyitrnmebnmvbnoby
  • 4.Zweimal das kleine Alphabet = gleichförmige Ordnung:
    • abcdefghijklmnopqrstuvwxyzäöüßabcdefghijklmnopqrstuvwxyzäöüß

Fragen dazu:

  • In welcher Zeile steckt die größte Informationsmenge?
  • In welcher Zeile steckt am meisten Ordnung?
  • In welcher Zeile steckt am meisten Informationsgehalt?
  • In welcher Zeile steckt am meisten Entropie?

Information mit Bedeutung liegt immer zwischen den zwei Extremen : Einfache gleichförmige Information und Zufallsinformation.

Drei Beispiele aus der Natur mit gleicher Teilchenzahl und völlig unterschiedlicher Ordnung:

  • Einkristall aus Wassermolekülen nahe dem absoluten Nullpunkt: Entropie nahe 0
  • Wassertropfen aus Wassermolekülen: Entropie ziemlich groß
  • Schneeflocke aus Wassermolekülen: Entropie zwischen beiden Extremen