Information: Liste

Aus Wikibooks

zurück zum Hauptext Information

Wortfeld zum Thema Information, Energie und Materie[Bearbeiten]

Information[Bearbeiten]

    • Zufallssequenz - nicht zufällige Sequenz
    • Ordnung -- Unordnung
    • Entropie -- geordnete Information.
    • Geordnete Information:
      • wiederholende Ordnung - symmetrische Ordnung
      • Form, Muster, Struktur
      • räumliche Strukturen z.B. Kristalle
      • zeitliche Strukturen z.B. Rhythmen
      • hierarchische Strukturen
      • historische Strukturen
      • Bildinformation
      • Toninformation
      • Sprachinformation
      • genetische Information
      • Geist in Nervensystemen
      • Beschreibbarkeit
      • Komplexität
      • Komprimierbarkeit

Beispiele[Bearbeiten]

Chaitins Beispiele für 2 binäre Zahlen mit 20 Stellen

  • Ungeordnete Reihe: 01101100110111100010
    • als Beispiel für eine Zufallsfolge
    • Entropie 20 Bit
  • Geordnete Reihe 1: 10101010101010101010
    • Zufall = 0, oder fast Null, Entropie nahe 0
    • wiederholende Ordnung
  • Geordnete Reihe 2: 11111111110000000000
    • stammt nicht von Chaitin
    • Zufall = 0, oder fast Null, Entropie nahe 0
    • symmetrische Ordnung
  • höhere Ordnung: 0110111001011101111000
    • Entropie circa 2 oder 3 bit

Energie[Bearbeiten]

    • elektromagnetische Strahlung
    • Photonen
    • mechanische Arbeit
    • Bewegungsenergie
    • Wärmeenergie
    • elektrische Energie
    • magnetische Energie
    • potentielle Energie
    • chemische Energie
    • Kernenergie

Materie[Bearbeiten]

    • Feste Stoffe
    • Flüssigkeiten
    • Gase
    • Plasma
    • Elementarteilchen
    • Atome
    • Elemente
    • Kristalle
    • Verbindungen
    • Lösungen
    • Gemische

Welche Arten von Information gibt es?[Bearbeiten]

Wortfeld Information[Bearbeiten]

  • Form, Muster, Struktur
    • räumliche Strukturen z.B. Kristalle
    • zeitliche Strukturen z.B. Rhythmen
    • logische Strukturen
    • hierarchische Strukturen
  • Bildinformation
    • stehendes Bild
    • Film
  • Toninformation
  • Sprachinformation
  • Schriftinformation
  • biologische Information
  • Mathematische Informationen
  • Ordnung -- Unordnung
  • Entropie -- Negentropie
  • Zufallssequenz - nicht zufällige Sequenz
  • Beschreibbarkeit
  • Komplexität
  • Digitale Information - Analoge Information
  • Daten:
    • Digitalisierte Informationen bezeichnet man auch als Daten. Das heißt, sie sind zerlegt in eine Reihe von "Ja-Nein-Entscheidungen" oder Nullen und Einsen. Will man eine Informationsmenge betrachten, ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen.
  • Dateien:
    • Dateien sind gespeicherte Daten. Dateien können ausführbar sein oder nur Informationen enthalten.
  • Programme:
    • Programme bestehen aus einer oder mehreren Dateien, von denen mindestens eine ausführbar ist. Programme ermöglichen die Arbeit am Computer, denn sie enthalten Arbeitsanweisungen.
  • Es gibt falsche und richtige Informationen.
  • Es gibt teilweise richtige Informationen.
  • Es gibt neue und alte Informationen.
  • Es gibt bekannte und unbekannte Informationen.
  • Es gibt konkrete und abstrakte Informationen.
  • Es gibt Zufallsinformationen und geordnete, nicht zufällige Informationen

Tödliche bzw. krankmachende Information[Bearbeiten]

In jedem Informationsverabeitenden System gibt es Informationssequenzen, die erheblichen Schaden anrichten können bzw. den Zusammenbruch des Informationsverarbeitenden Systems zur Folge haben.

Außerhalb des Informationssystems sind diese Sequenzen ziemlich harmlos, innerhalb des Systems haben sie große, in diesem Fall schädliche Bedeutung. Es müssen also sehr spezielle Sequenzen sein, die genau zu dem betroffenen System passen und es ausnutzen.

Beispiel :

  • Computer:
    • Viren in einem Betriebssystem: zerstörend
    • Derselbe Virus auf einem anderen Betriebssystem: harmlos
    • Befehl del /s *.* auf MS-DOS-Ebene zerstörend, unter Linux harmlos
    • Befehl rm -R * unter Linux zerstörend, unter MS-DOS harmlos
  • Biologie:
    • Eine Spezies wird von einem tödlichen Virus befallen, der für eine verwandte Art ziemlich harmlos oder völlig unschädlich ist.

Digitale Information[Bearbeiten]

Nach Einführung der Computer ist bald klar geworden, dass Systeme, die nur mit zwei unterschiedlichen Zuständen arbeiten wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.

Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.

Digitalisierung heißt also Darstellung als eine Folge von 0 und 1 oder allgemein Darstellung in Form von Zahlenwerten.

Erst mit der massenhaften Einführung von CD-Platten als Musikmedium ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.

Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.

Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.

Wichtige Informationen sollte man immer mindestens doppelt aufbewahren. Dies bemerkten übrigens schon Herr Watson und Herr Crick, als sie die DNS entlang wendelten.

Information ist eine Erscheinung, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems.

Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden ( z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein (z. B. Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.

Information gibt es nur in Systemen, die mehrere mögliche Zustände einnehmen können.

Literatur[Bearbeiten]

  • Was ist Information? Hinweise zum Wort- und Begriffsfeld eines umstrittenen Begriffs.
    • In: H. Heilmann, Hrsg.: Handbuch der modernen Datenverarbeitung 133 (1987), 107-114.
  • http://www.dradio.de/dlf/sendungen/dossier/557671/
    • Ein Stein weiß nichts. Oder. Was ist Information? Spuren eins Begriffs, der die Gesellschaft verändert Von Bernd Schuh
  • Informationskausalität - ein Grundprinzip der Natur ?
    • nature 2009
      • http://dx.doi.org/10.1038/nature08400
      • Nature 461, 1101-1104 (22 October 2009)
          • Marcin Pawowski1, Tomasz Paterek2, Dagomir Kaszlikowski2, Valerio Scarani2, Andreas Winter2,3 & Marek ukowski1
  1. Institute of Theoretical Physics and Astrophysics, University of Gdask, 80-952 Gdask, Poland
  2. Centre for Quantum Technologies and Department of Physics, National University of Singapore, 3 Science Drive 2, 117543 Singapore, Singapore
  3. Department of Mathematics, University of Bristol, Bristol BS8 1TW, UK