Diskussion:Information

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Wikipedia Definition[Bearbeiten]

Hallo, ich habe mir erlaubt, die Definition anzupassen, weil die Dinge meiner Meinung nach etwas klarer werden, wenn man zwischen den grundsätzlich unterschiedlichen Verwendungen unterscheidet.

BITTE MIT WIKIPEDIA ARTIKEL VERGLEICHEN!!!

http://de.wikipedia.org/wiki/Information

Thematische Einordnung[Bearbeiten]

Vielleicht wäre eine Einordnung des Buches in das Fachgebiet "Psychologie" sinnvoller. Dies würde auch eher der recht generischen Darstellung gerecht werden. Übrigens ergibt sich kein qualitativer Unterschied, falls man "Information" durch "Kommunikation" im Text ersetzt. Es rührt wohl an der Betrachtung des alltäglichen Gebrauchs des Begriffes "Information" vs. der klar umrissenen struktur bspw. in der Informationstheorie. Da ersteres Ansichtssache ist, ist damit die Physik überfordert.

mfg rocky

Das geht wohl an dem vorbei was die Informationswissenschaft leistet. Der Grundgehalt der Informatik gehört dem wohl zuverlässigstem Teil der Geisteswissenschaften an,der Mathematik.

Ohne Definitionen und die Festlegung ihrer Gültigkeitsbereiche sowie widerspruchsfreien Regeln für den Umgang mit Daten und Informationen ist eine Wissenschaft zum Begriffsbereich Informationen nicht möglich. Die zur Handhabung von Informationen nötigen Definitionen umfassen auch den Begriff der Codierung mit den verwendeten Zeichenvorräten und der Festlegung der Bedeutung dieser Zeichen und die Übersetzbarkeit von Codierungen in unterschiedliche andere Codierungen.

Dazu kommt der in das Materielle führende Begriff Informationsträger. Angefangen von biologischen Informationsträgern wie DNA oder RNA Molekülen, über Gene und Botenstoffe bis zur Informationsspeicherung im Gehirn, bis zu den vom Menschen erfundenen Informationsträgern wie Keilschriftplatten, Knotensträngen, Papyrus, Pergament und Papier bis zu automatisch auslesbaren Trägern wie Lochkarten, Magnetbändern, optischen Speichermedien wie CD, DVD oder Hologrammen.

Die Informationsverarbeitung bedarf neben der Informatk der Physik oder der auch materiel basierten Gehirnforschung, in die auch die Elektrochemie und das Wissen um die Wechselwirkung der am Denkprozess beteiligten Moleküle eingeht.

                          F.H.

Definition von Information[Bearbeiten]

Hab's gelesen, gefällt mir sehr gut. Da ich aus der Informationswissenschaft komme, habe ich besonders die philosophischen Aspekte, die in der Infowiss. oft irgendwo zwischen dem Semantischen Dreieck und Zitationszählungen untergehen, sehr anregend gefunden.

Was ich eigentlich fragen wollte: Für mich definiert sich Information durch einen Nutzen beim Empfänger. Werfe ich also einen Stein in eine Menschenmenge und er trifft zufällig einen interessierten Geologen (o.ä.), habe ich ihm auf diesem Wege Information zukommen lassen. Treffe ich hingegen jemand anderes, so habe ich diesem/dieser nur Daten an den Kopf geworfen.

Das wäre meine Differenzierung von Information und Daten.

"Information als solche" kommt in diesem WikiBook dem Begriff "Daten" sehr nahe. Ist das etwa dasselbe?

lg Chrisä

Nein, Daten sind eine Abfolge von Zeichen deren Bedeutung vorher für den Nutzerkreis verbindlich vereinbart wurde. Damit ist man schon weiter als bei einer nicht unbeträchtlichen Gruppe von Philosophen die sich unter gleichen Symbolfolgen oftmals etwas unterschiedliches vorstellen.

Daten -Dateien- sind zum Übertragen und- oder Speichern sowie zum Lesen geschaffen. Mit der Erfindung der Datenspeicherung innerhalb einer an der Vereinbarung beteiligten Menschengruppe entkoppelte sich die geistige Evolution von der biologischen Evolution mit der für die Beteiligten bis etwa jahr 2000 unbekannten Verschlüsselung im genetischen Code.

Nur wenn für den Empfänger von Daten unbekanntes übertragen wird, handelt es sich bei der Datenübertragung auch um eine Informationsübertragung. Der Informationsgewinn eines Datenempfängers hängt auch von den beim Empfänger vorhandenem Informationsstand ab. Der Leiter eines Seminares erhält von den Seminarteilnehmern meist keine den Seminarstoff betreffenden Informationen und wird sich freuen wenn ihm ein Seminarteilnehmer nicht nur Daten sondern Informationen mitteilt. Dabei gewinnen der Seminarleiter und die Seminarteilnehmer aber zusätzliche Informatinen über unterschiedliche Qualitäten der Seminarteilnehmer.

Viele Dateien enthalten mehr Zeichen als zur Übertragung der in der Datei vorhandenen Information nötig ist. Man spricht dann von der Redundanz der Information in dieser Datei. Dieser Zeichenüberschuss ist geeignet, Dateien nach einer Beschädigung beim Auslesen oder Übertragen wieder so zu reparieren, dass die enthaltene Information unbeschädigt wieder verfügbar wird.

                                                                              F. H.

In der deutschen Sprache übernehmen die Artikel diese Funktion. "Das Baum ist dunkel" lässt erkennen, dass an diesem Satz etwas falsch ist. Es muss vielleicht heißen "Das Braun ist dunkel" oder "Der Baum ist dunkel"


Information nur bei Überdetermination und Unterdetermination[Bearbeiten]

etwas determiniertes bezeichne ich als tri-vi-al, es ist ein symbol. um information handelt es sich, wenn es zu überbestimmtheit kommt, die ich erst detextualisieren muß, d.h. ich sollte keinesfalls auch noch kontextualisieren, sondern die verschiedenen aspekte als ein und dasselbe verschiedener stufe zusammenfassen, detextualisieren - oder zu unterdetermination. hier muß ich kontextualisieren, den gegenstand durch seine umwelt bestimmen und ihn ebenfalls mit ihr zusammenfassen.


Was ist Information?[Bearbeiten]

Information ist, wenn ein Mensch "A-Ha" sagt.

Und wer sagt A-Ha, wenns gar keinen Menschen gibt?--84.81.78.102 20:54, 20. Okt. 2006 (CEST)

Aspekte der Information[Bearbeiten]

Ich vermisse in diesem Buch/Artikel die Herausstellung der 3 Aspekte von Information (Syntax, Semantik und Pragmatik), sowie, das Information wohl ein Subjekt-Objekt-Problem (Info ist nur Info für ein Subjekt, für andere Subjekte nur Datum, siehe Stein, geworfen vom Hohepriester in die Menschenmenge, die auf die Steinigung des Jehova-Sagers wartet, und dabei eine Geologin mit Bart trifft, oder Brian's Mutter) ist. Obwohl, bei solchen schon philosophischen Fragestellungen ist das diskussionswürdig.

Auch die Unterscheidung zwischen Kommunikation und Information(wie schon erwähnt) sollte wohl stärker getroffen werden, bzw. zwischen Inf. und Signal/Daten bzw. Datum.

Datum = Info ohne Wirkung(Pragmatik) ??

Sobald man natürlich Information auch als Prozess des Informierens betrachtet (was wohl üblich ist), so ist der Umfang des Textes angemessen.

Und es sollte nicht in "Psychologie" eingeordnet werden, eher in "Philosophie".

Falls gewünscht, kann ich auch was schreiben, bzw. ändern. Muss nur meine Sem.-Arbeit rauskramen, auch für die Literaturquellen.

mfg HardenCoonor


Ja, es währe gut, wenn du die Änderungen selbst durchführen würdest. Ein Prinzip bei uns lautet: Sei mutig beim Ändern der Seiten! Gruß -- Daniel B 09:39, 14. Jan 2005 (UTC)

Welche "Definition"?[Bearbeiten]

Der Artikel entaehlt keine 'Definition' von Information. Er enthaelt Worte und Wortfelder. Was man unter 'Definition' versteht, ist bei Aristoteles nachzulesen. Will man 'Information' definieren, muss man ggf. in ein paar Fachbuechern oder -Artikeln nachschlagen. Dieser Vorgang nennt sich 'Recherche' und geht in der Regel einer Autorenschaft voraus.

Im Vorwort steht, der Artikel erhebe keinen wissenschaftlichen Anspruch. Ok. Aber welchen Anspruch erhebt er ueberhaupt? Was ist seine Perspektive und an wen ist er addressiert?

Dieses Buch ist als Denkanstoß sehr interessant. Die Diskussionsseite ist interessanter als der Artikel.

"Wo findet man offensichtlich keine Information?"[Bearbeiten]

Im Artikel steht

"Im Vakuum , daß heißt im luftleeren Raum, ist keine Information zu finden."

zwei Sätze später allerdings:

"Auch können physikalische Felder ein Vakuum durchkreuzen."

In physikalischen Feldern können doch auch Informationen enthalten sein. Ich halte daher den ersten Satz für nicht richtig.

rho Das ist eine interessante Frage , die man einem Physiker stellen sollte . Das Feld wird ja nur wirksam, wenn eine Masse ( Gravitationsfeld) oder eine Ladung ( Elektromagnetisches Feld) in das Feld hineingerät. (1) Einstein hat dies als Krümmung des Raumes beschrieben. Enthält diese Raumkrümmung dann schon Information oder nicht ??

(1) - Nicht die Ladung gerät oder geht in das Vakuum hinein, sondern das elektrische Feld.

Siehe auch http://de.wikipedia.org/wiki/Feld_(Physik)

Siehe Buch: Johann Rafelski ; Berndt Müller Die Struktur des Vakuums Ein Dialog über das Nichts. Verlag Harri Deutsch. Englisch,ISBN 3-87144-888-5 1985 F.H.


Auch im Vakuum kann in Form von elektromagnetischen Feldern oder Gravitationsfeldern Information enthalten sein. Diese Information ist auch da, wenn sie auf keine Materie einwirkt! Der luftleere Raum (Vakuum) ist also nicht vollkommen leer, nur von Materie entleert.

Übrigens: Auch das Fehlen von jeglicher Materie und Energie kann eine Information darstellen, wenn auch nicht für sich alleine. So haben z.B. in einem Halbleiter weder die Elektronen alleine, noch die Löcher (Stellen, an denen eben keine Elektronen sind) für sich alleine die Möglichkeit, Information zu Bilden. Erst die Kombination beider kann Information darstellen.

Wir leben in einer dualen Welt. Für uns existiert nur etwas, weil es auch das Gegenteil davon gibt. Was wäre Materie ohne Nicht-Materie (den Raum)? Was wäre Licht ohne Dunkelheit? Was wäre ein Bit ohne Nicht-Bit? Nicht existent! Existent sein heisst, das EINE (das die Gegensätze umfasst) aufteilen in Etwas und sein Gegenteil. Aus dem Nichts wurde das Wort (Information) geschaffen, dann Licht (und Dunkel), dann Land (Materie und Vakuum) usw.

Hier kommt also irgendwie der philosophische Teil in die Diskussion, nur so als kleiner Denkanstoss :-)

wabis

Ach was! Obwohl es Bits gibt, gibt es keine Nicht-Bits.

Der Artikel behauptet, der Zufall enthalte keine Information. Das genaue Gegenteil ist der Fall: Zufall ist ALLE Information des Universums.

praktisches Beispiel: Darwinsch'e Evolutionstheorie. Durch Zufall entstehen Mutationen und durch die bessere Anpassung an Ihren jeweiligen Lebensraum mehrere Arten.

theoretisches Beispiel: Ein echter Zufallsgenerator erzeuge eine Bitfolge. Wartet man lange genug, wird irgendwann auch die (jede) erwartete Bitfolge erzeugt.

Information besteht immer aus Algorithmus + konkreten Informationen, deren jeweiliger Anteil transformiert werden kann. Beispiel: Apfel fällt vom Baum zum Boden, Birne fällt vom Baum zum Boden, Pflaume fällt .... ist gleich der Information von: Obst fällt vom Baum zum Boden, Obst ist Apfel, Birne, Pflaume.

Manchmal ( sogar oft ) wird der algorithmische Anteil nicht übertragen, sondern ist bei Sender und Empfänger bekannt (z. Erlernen der gleichen Sprache z.B. deutsch als Kind, Verwendung des gleichen Zeichensatzes z.B. ASCII usw. )

Wenn der Zufall ( z.B. der obige Zufallsgenerator ) jede Bitfolge als konkrete Information ausgeben kann, folgt zwingend, daß im Zufall jeder Algorithmus (mengenmäßig) definiert ist. Wendet man eine zufällige Folge von zufälligen Handlungen auf eine genügend große Menge gleicher Objekte an, wird in mindestens einem Fall genau jene Abfolge durchlaufen, wie sie für einen zielgerichteten Algorithmus ebenso durchlaufen worden wäre.

Zufall enthält also alle Sprachen, Algorithmen, alles Wissen, kurz alle Information der Welt !

Informationserhaltungssatz[Bearbeiten]

Es gibt Physiker, die ernsthaft über einen Informationserhaltungssatz nachdenken. Das ganz konkret die aus schwarzen Löchern ausgesendete Gammastrahlung die aufgenommenen Informationen codiert wieder aussendet. Wie das aussehen soll, und ob das nicht total verrückt ist, kann ich nicht sagen :-), ich hab es halt mal in einer Radiodokumentation gehört.

- Erhaltungssätze sind immer eine feine Sache - wenn sie Sinn ergeben. Eine Informationserhaltung würde aber dem zweiten Hauptsatz der Thermodynamik widersprechen, oder? 80.133.31.66 15:05, 20. Jun 2005 (UTC)

Jawohl, das sehe ich genauso. Wenn alle Information erhalten bleibt, kann die Entropie nicht zunehmen. Umgekehrt, wenn die Entropie zunimmt, kann nicht alle Information erhalten bleiben.--83.189.31.28 06:15, 26. Okt. 2006 (CEST)
Das ist kein Widerspruch. Die Entropie bezieht sich wohl nur auf den konkreten Teil der Information. Die Thermoynamik scheitert m.E. grandios, wenn man nicht in Richtung Ende des Universums, sondern in Richtung Urknall blickt. Wenn die Informationsmenge des Universums immer nur abnähme ( als Folge der Thermodynamik ), dann müßte in der Anfangssingularität die größte Informationsmenge existent gewesen sein. Für mich ist Singularität und große (konkrete) Informationsmenge aber ein Widerspruch.85.25.96.94 13:59, 11. Jan. 2008 (CET)

Energieerhaltung in jedem falle?[Bearbeiten]

Entweder man sucht nach Symmetrien zwischen zwei Systemen, dann ist man selbst ein teil der assymetrie, da man selbst dann der teil ist [der meist ausgeblendet wird] den beiden anderen systemen als gegenstand dient.

oder man sucht nach assymetrien, dann ist man symmetrisch zum gegensystem.

es kommt natürlich darauf an, ob man die systeme a priori symmetrisch zueinander vorfindet, oder ob diese untereinander asymmetrisch vorliegen. die frage ist natürlich noch, ob es um algebraische [1-dimensional: strecke], geometrische [zweidimensional: fläche] oder harmonische [3-dimensional: raum] symmetrie geht. geht es noch weiter?

Interwikilinks[Bearbeiten]

Hi allerseits,
ich hab sehr viele Begriffe als Wikpedialinks angelegt, da man doch einiges schnell Nachschlagen kann und den lexikalischen Kontext erkennen kann. Hoffe das ist im Interesse der Schreibe. greetz VanGore 22:39, 18. Jun 2005 (UTC)

Danke Benutzer:Rho

Infonen-Theorie[Bearbeiten]

Zitat: "Zum Thema Informationsträger existiert ein zentrales Dogma der Informationstheorie und dieses lautet: Information ohne Informationsträger gibt es nicht. Vielleicht kommt dieses Dogma mit der postulierten Existenz von Infonen noch einmal auf den Prüfstand."

Was hat es mit diesen "Infonen" auf sich? Bzw. wie vermeiden diese es, selbst wieder in die Kategorie "Informationsträger" zu fallen? 80.133.31.66 15:09, 20. Jun 2005 (UTC)

Rho: Infonen werden beispielsweise in den Büchern von Stornier erwähnt. Siehe http://www.madeasy.de/2/stonier.htm Auch die Quanteninformationstheorie beschäftigt sich mit solchen Uralternativen . Siehe zb das Buch:

  • Quantentheorie der Information
    • Zur Naturphilosophie der Theorie der Ur-Alternativen und einer abstrakten Theorie der Information
    • von Holger Lyre
    • ISBN: 3-89785-237-3 Erschienen bei: MENTIS-VERLAG Einband: kartoniert/broschiert 23,5 cm
    • Seiten: 267 Gewicht: 435 g

Ich persönlich habe noch keinen überzeugenden Beweis für Infonen erkennen können und halte mich deswegen immer noch an das Dogma: Information ohne Informationsträger gibt es nicht. Benutzer:Rho

Das ist nicht besonders weit von meiner These entfernt, dass Information als Gleicher von Materie(Atom) und Energie(Photon) falsch kategorisiert ist. Ich meine, dass Information eher ein Prozess (als Verb dargestellt) als denn ein Objekt (als Substantiv dargestellt) ist. Demnach "Information existiert, wenn der Prozess des Informierens stattfindet. Sonst nicht." Das könnte etwas von Schrödingers Katze inspiriert sein.--83.189.31.28 06:21, 26. Okt. 2006 (CEST)

icon, index, symbol oder: syntax, semantik, pragmatik oder: these, antithese, synthese[Bearbeiten]

All diese Begriffe spielen eine Rolle, wobei materie dem icon entspricht, energie entspricht dem index und information entspricht dem symbol. zum informationsträger: er ist auch information, nur niederer ordnung. oder: information ist informationsträger einer anderen information.

Ein zerüttetes Verhältnis: Information und Entropie[Bearbeiten]

Wenn dieses Buch nicht philosophisch angelegt ist, so ist der von mir revertierte Anteil schlicht falsch.

Claude Shannon definiert die Entropie als das Maß an Unvorhersagbarkeit einer Quelle. Wenn man so will, also das Maß der Zufälligkeit des nächsten von einer Quelle bereitgestellten Symbols.

Wenn eine Quelle erwartungsgemäß ein bestimmtes Zeichen und kein anderes ausgibt, so ist die Entropie 0, also das Maß an Unvorhersehbarkeit ist 0, Die Quelle ist vorhersehbar.

Jemand kann nur dann eine Information erhalten, wenn beim Empfänger eine Ungewissheit darüber herrscht, was passieren wird. Information ist das, was beim Empfänger einer Information an Ungewissheit beseitigt wird.

der von mir revertierte Teil ist:

===Vorschläge===
 	+ 	*I = k * E
  	+ 	**Shannon
  	+ 	***Information und Entropie sind direkt proportional
  	+ 	*I = - k * E
  	+ 	**Schrödinger, Wiener , Slizard, Broullion
  	+ 	***Information und Entropie sind indirekt proportional
  	+ 	*I = Io* e^(-k*E)
  	+ 	**Tom Stonier
  	+ 	***Information und Entropie sind negativ korreliert, es gibt negative Entropie
  	+ 	***http://www.madeasy.de/2/stonier.htm
  	+ 	
  	+ 	Wer hat hier recht ?
  	+ 	
  	+ 	Ein Vorschlag wäre folgender:
  	+ 	
  	+ 	'''Wenn man die Entropie als die Menge an Zufallsinformation betrachtet , die in einem System steckt, dann kann man sagen, dass die Gesamtinformation des Systems immer größer oder gleich der Entropie des Systems ist.'''
  	+ 	
  	+ 	Menge an Gesamtinformation = Menge an Zufallsinformation + Menge an nichtzufälliger Information
  	+ 	
  	+ 	Die Information eines Eisblockes, der auftaut und wieder gefriert, bleibt in seiner Gesamtinformation konstant. Die Menge an Zufallsinformation pendelt dabei zwischen einem hohen und einem geringen Wert hin und her. Die Menge an nichtzufälliger Information verhält sich dazu gegensinnig.
  	+ 	
  	+ 	Siehe auch
  	+ 	*http://www.techfak.uni-kiel.de/matwis/amat/mw1_ge/kap_5/advanced/t5_3_2.html
  	+ 	*http://www.mdpi.org/entropy/
  	+ 	*http://www.mdpi.org/fis2005/F.55.paper.pdf
  	+ 	*http://www.ils.unc.edu/~losee/b5/book5.html

Die Gesamtinformation kann demnach nur das Maß sein, was der Empfänger als zufällig empfindet. Nichtzufällige Informationen haben keinerlei Informationsgehalt. Ich empfehle die Lektüre von A Mathematical Theory of Communication. Das Vorzeichen hängt mit der von Shannon postulierten Formel zusammen und mit dem von Hartley definierten Entscheidungsgehalt, die Erklärung ist demnach im Originalpapier von Claude Shannon zu suchen. -- ThePacker 22:34, 18. Mär 2006 (UTC)

Die Analogie zum Eisblock ist deswegen falsch, weil Shannon in seinem Papier gerade auf den Kontext ( wenn man so will auf die umgebenen Wassermoleküle) hinweist. -- ThePacker 22:53, 18. Mär 2006 (UTC)

Der Informationsgehalt kann leider nur immer so groß sein, wie die Quelle bereitstellt. Wenn man Deiner Argumentation folgte, ließen sich Informationen besser komprimieren, da man sie mit einem größeren Informationsgehalt (Informationsgewinn) auspacken könnte, das widerspricht jedoch der Informationstheorie, wie sie von Claude Shannon definiert wurde. Denn wenn das so ginge, hätten wir heute wesentlich bessere verlustfreie Datenkompressionsverfahren. -- ThePacker 22:53, 18. Mär 2006 (UTC)

rho: Ein einfaches Beispiel: Wieviel Information und wieviel Entropie steckt in den beiden 01 Folgen:

  • 10101010101010101010
  • 01101100110111100010

Wieviel Information und wieviel Entropie steckt in einer Folge wenn man beides einfach hintereinander schreibt ?

  • 1010101010101010101001101100110111100010

Bevor man allzu hoch philosophiert sollte man sich mit diesem sehr einfachen Beispiel beschäftigen und merkt dann das es nicht trivial ist.

Das Beispiel mit dem Eisblock ist wirklich nicht allzu gut. Vielleicht kann ich etwas besseres finden. Benutzer:Rho

Wo kann Information neu entstehen[Bearbeiten]

Frage[Bearbeiten]

Habe mal eine Frage zu dem Bereich, wo Information neu produziert wird.

Entsteht bei einem Foto neue Information ?

Mir wird nicht ganz klar wo bei einem Fotoaparat neue Information entsteht. Ein Fotoaparat nimmt Information aus der Umwelt auf. Und hält sie digital oder eben auf einem Film fest.

Oder bei Büchern. Die Information eines Buches kommt von dem Autor, der es schreibt. --19:59, 30. Mai 2006 (UTC)

Antwort[Bearbeiten]

Bei jeder Abbildung und Kopie wird immer auch neue Information geschaffen. Auf einen ungeordneten nichtbelichteten Film oder einen leeren Speicherchip wird eine Struktur abgebildet. Damit entsteht schon weitere Information. Ob sie bedeutsam ist oder nicht, steht zunächst nicht zu Diskussion.

Stellen Sie sich vor, sie haben ein Bild der Wolken am Himmel geschossen. Das Orginal ( Die Wolkenformation) dieser Abbildung verändert sich sofort wieder. Auf dem Photo wird aber die Information erhalten bleiben.

Bei Büchern kommt die Information aus dem Kopf des Autors. Was ist wenn der Autor stirbt ? Die Information im Kopf geht verloren, im Buch bleibt sie erhalten.

Ganz allgemein muß jede Abbildung oder Kopie bei der Berechnung oder Messung einer Informationsmenge mit berücksichtigt werden. Ob die Bedeutung dieser Abbildung oder Kopie wichtig ist oder nicht, ist eine andere Frage.

Allgemein gilt: Bei jeder Abbildung wird neue Informationsmenge erzeugt. Ob eine neue bedeutsame Information entsteht, kann man nicht so einfach entscheiden. Hier braucht es jemanden, der über die Wichtigkeit der abgebildeten Information entscheidet.

Benutzer:Rho

Wahrscheinlich bleibt auch bei der Abbildung eines Bildes durch einen Fotoapparat die Gesamtinformation gleich. Denn die Speicherzellen des Fotos sind nach der Abbildung statt mit lauter 0 Werten, dann mit den Pixelwerten des Bildes belegt.

Beispiel; vereinfachtes Abbildungsschema

Speicher vor Belichtung                      Speicher nach Belichtung

000000000000000000000                        000000000000000000000
000000000000000000000                        000000001111000000000
000000000000000000000                        000000110000110000000
000000000000000000000                        000000110000110000000
000000000000000000000                        000000110000110000000
000000000000000000000                        000000110000110000000
000000000000000000000                        000000110000110000000
000000000000000000000                        000000001111000000000
000000000000000000000                        000000000000000000000

Neu ist die Information insofern, daß aus einer ganz gleichförmigen Informationsfolge eine bedeutsame Informationsfolge geworden ist. Benutzer:Rho

Informationserhaltungssatz Übernommen aus Wikipedia[Bearbeiten]

Neitrams Frage[Bearbeiten]

Ich habe beim Lesen von Schwarzes Loch#No-Hair-Theorem_und_Informationsverlustparadoxon und Hawking-Strahlung das Gefühl, als ob Hawking irgendwie einen Informationserhaltungssatz annimmt, bzw. dass sich ein solcher so langsam am Physik-Horizont abzeichnet. Ein schwarzes Loch soll möglicherweise beim Zerstrahlen alle Information wieder abgeben, die es zuvor angesammelt und in sich verborgen hat - warum, weil die Information nicht verloren gehen kann?

Andererseits habe ich noch nie von einem Informationserhaltungssatz gehört - im Gegenteil, mir scheint, ein solcher stünde im Widerspruch zum zweiten Hauptsatz der Thermodynamik, nach dem die Entropie immer zunimmt und, wenn ich das richtig verstanden habe, damit die Information immer abnimmt. Wenn andererseits die Information im Universum aber stetig abnimmt, müsste in der Urknall-Singularität die Information maximal gewesen sein - richtig? Neitram 14:13, 31. Jan. 2008 (CET)

Da scheint ein Missverstaendnis von "Information" vorzuliegen. Ein Zustand hoher Entropie enthaelt tatsaechlich viel Information, weil diese nicht reduzierbar ist. Z.B. muss man bei einer voellig zufaelligen Zahlenreihe jede einzelne Zahl explizit angeben, waehrend man eine geordnete Zahlenreihe abkuerzen kann (z.B. "11111...1111" -> "n mal die 1"). Information ist also meistens nutzlos. --Wrongfilter ... 14:29, 31. Jan. 2008 (CET) P.S.: siehe Informationstheorie.--Wrongfilter ... 14:30, 31. Jan. 2008 (CET)
(BK) Hier geht es um die deterministische Aussage, dass mit einem (hinreichend genau bekannten) Ist-Zustand alle vorhergehenden und nachfolgenden Zustände festgelegt sind und (wenn auch mit nicht leistbar hohem Aufwand) bestimmt werden können. Diese Anschauung könnte man als "Informationserhaltungssatz" bezeichnen, da alle ehemalige und zukünftige Information auch jetzt vorhanden wäre und sich nur wandelte. Es gäbe keine echten Zufälle, keinen freien Willen und erst recht keine Gottheit oder andere Eingriffe vn außen.
Bei Schwarzen Löchern ist nun umstritten, ob die Information der in das Loch gefallenen Materie noch vorhanden ist und irgendwelche zukünftigen Folgen haben kann. --Simon-Martin 14:38, 31. Jan. 2008 (CET)
Das heißt, wissenschaftschronologisch betrachtet: wenn das Universum deterministisch wäre, dann kann keine neue Information entstehen, folglich müsste dann alle Information bereits im Anfang vorhanden gewesen sein. Das wäre eine Art "Informationsvernichtungssatz" in der klassischen, z.B. Newtonschen Physik. Dann kommt die Thermodynamik dazu und sagt, dass die Entropie zunimmt, und mit ihr, wenn Wrongfilter Recht hat, die Information (es klingt sogar plausibel: maximales Chaos hat maximale Information, maximale Ordnung hat minimale Information). Das wäre eine Art "Informationsvermehrungssatz". Dann kommt das 20. Jahrhundert und Heisenberg und seitdem wissen wir, dass das Universum nicht deterministisch ist. Es gibt es echten Zufall ("Gott würfelt") und auch durch diesen vermehrt sich die Information mit dem Fortschreiten der Zeit. Informationen gehen zwar verloren, werden aber durch neue Zufallsinformationen ersetzt. Ist folgendes Fazit richtig: Nach dem aktuellen Stand der Wissenschaft kann die Information im Universum sowohl sinken als auch ansteigen; es gibt keinen Satz, der eine Konstanz oder ein monotones Ansteigen oder ein Sinken postuliert? Neitram 10:15, 1. Feb. 2008 (CET)

Antwort[Bearbeiten]

Hallo Neitram! Deine Frage ist schwer zu beantworten. In der Astronomie und Physik kenne ich mich nicht so gut aus. Da müßtes du mal den Hawking fragen.

Es gibt meines Erachtens eine Verwirrung der Begriffe Entropie und Information. Siehe beispielsweise: http://de.wikibooks.org/wiki/Entropie:_IT#Entropie_und_Information

Ich habe versucht, diese Verwirrung aufzulösen und habe einfach postuliert:

Gesamtinformation = geordnete Information + Zufallsinformation

Dabei verstehe ich unter Entropie die Menge an Zufallsinformation

Unter diesem Aspekt ist wahrscheinlich die Gesamtinformation des Universums konstant und der 2.Hauptsatz besagt nur, daß von der Gesamtinformation des Universums der Zufallsanteil immer größer wird. Grob gesprochen ist die Gesamtinformation nicht anderes als die Zahl aller Teilchen oder Quanten.

Basisbegriffe der Natur- und Strukturwissenschaften


Materie ------------  Energie 
   \                     /
    \                   /
     \                 /
      \               /
         Information 
             /  \
            /    \
           /      \
          /        \
         /          \
 Zufalls-            geordnete 
 Information         Information
      |                  |
      |                  |
      |                  |
Beispiel:             Beispiel:  
01101100110111100010  10101010101010101010
      |                  |
      |                  |
      |                  |
Stochastik            Restliche Mathematik 
Statistik
      |                  |
      |                  |
      |                  |
      | Physik und Chemie|
Kristalle             amorphe Systeme 

( ist doch ein schönes Diagramm, oder ? stammt von mir )

Warum aber am Anfang beim Urknall ein Zustand so hoch geordneter Information bestand, kann bis jetzt keiner beantworten.

Eine schöne Karikatur findet sich dazu bei http://www.th.physik.uni-bonn.de/th/People/soika/fig/bigbang.gif "Geistesgegenwärtig hatte Gott damals vom Urknall ein Foto geschossen, welches er immer noch recht eindrucksvoll fand." B.Pfarr

Noch ein interessanter Aspekt deiner Frage: Wie entsteht bedeutsame Information ? Und gibt es einen Erhaltungssatz bedeutsamer Information ? Siehe dazu

MfG R.Hoffmann


Danke für die Antwort! Ich werd mich mal reinlesen, wenn ich dazu komme! Neitram 17:48, 26. Mär. 2008 (CET)