Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Der Informationsbegriff in der Physik

153 Beiträge ▪ Schlüsselwörter: Information, Informationsbegriff ▪ Abonnieren: Feed E-Mail
Peter0167 Diskussionsleiter
Profil von Peter0167
anwesend
dabei seit 2014

Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

Der Informationsbegriff in der Physik

28.07.2019 um 09:56
Es ist mal wieder Sonntag, und ich habe etwas Zeit gefunden, mir Gedanken über Physik zu machen. Und heute wage ich mich mal an ein Thema, welches mir schon länger Kopfzerbrechen bereitet, der Begriff der "Information".

Klar hat da jeder eine mehr oder weniger diffuse Vorstellung von, und jeder verwendet diesen Begriff auch mehr oder weniger leichtfertig, was dann regelmäßig zu Missverständnissen führt. Und weil ich Missverständnisse nicht mag, und zudem auch gerne weiß wovon ich rede, kam mir der Gedanke, der Sache in einem eigenen Thread auf den Grund zu gehen. Natürlich habe ich zunächst die Suchfunktion bemüht, aus der ich dann die Information zog, dass wir dieses Thema bisher den Esos überlassen haben, welche ja bekanntlich mehrdeutige Begriffe lieben.

Damit soll nun ab sofort Schluss sein, ich hoffe doch sehr, dass wir hier gemeinsam Klarheit schaffen werden, insofern das überhaupt möglich ist :D

Wiki war (für mich) schon mal keine große Hilfe...

Wikipedia: Information (Physik)
In der statistischen Physik ist die fehlende Information eines Systems die Information, die benötigt wird, um herauszufinden, in welchem Zustand sich ein System befindet.


Allein schon am ersten Satz bin ich verzweifelt. Wenn mir da jemand die Zusammenhänge (verständlich) erklären könnte, das wäre super.

Weiterhin beschäftigen mich folgende Fragen:

1. Kann Information als eine Größe angesehen werden, mit der sich physikalische Systeme beschreiben lassen, also wie z.B. Masse, Dichte, Volumen, etc., oder ist Information nur ein allgemeiner übergeordneter Begriff für diese Größen?

2. In welchen Bereichen der Physik ist Information relevant? Nur in der Quantentheorie, oder auch in der Klassischen Mechanik?

3. Kann Information überhaupt eindeutig definiert werden, oder hat Information in jedem Einzelfall eine andere Bedeutung?

4. Was bedeutet Informationsgehalt bei einem physikalischem System

Mir fallen da noch jede Menge andere Fragen ein, aber die müssen ja nicht gleich alle in den EB, zudem ist ja auch noch unklar, ob das Thema hier irgendwen interessiert. Jetzt nur noch ein paar Beispiele, wo der Begriff immer wieder Verwendung findet, vielleicht lässt es sich anhand von Beispielen besser erklären...

- Informationsübertragungsgeschwindigkeit
- Informationsparadoxon bei Schwarzen Löchern
- Quanteninformation

Kurz gesagt, es soll hier um nichts Geringeres gehen, als um das "Wesen der Information" in der Physik. Ich hoffe auf eine lebhafte Beteiligung, und dass hinterher nicht mehr offene Fragen stehen, als zuvor :D


6x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 13:10
@Peter0167
Hallo Peter
Zu Punkt 1 würde ich persönlich mit eben dem von Dir zitierten Satz aus dem Wiki beantworten.

Zu Punkt 3: Laut dem Wiki Information gibt es keine eindeutige Definition, sondern veschiedene Modelle.

Aber das sind nur meine Laien-Gedanken. Vielleicht aber auch hab ich Dich nicht verstanden ;)

Nachtrag: Bezgl. Informationsübertragungsgeschwindigkeit aus eben diesem Wiki-Information:
Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf bzw. durch Elektromagnetische Wellen übertragen werden kann. Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmten Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.

Allgemeiner: Um Informationen zu transportieren, ist ein Informationsträger nötig.

Kann Information ohne Verlust weitergegeben werden? Beim Kopieren von Software ist dies der Fall, weil technische Mechanismen (redundante Codes / Prüfsummen) dafür sorgen. Information kann nicht generell weitergegeben werden, ohne dadurch weniger zu werden. Das Ausmaß des Verlustes hängt von den physikalischen Randbedingungen ab. Gemäß Shannon kann bei einer Übertragung nicht mehr Information aus einem Kanal entnommen werden als auf der Senderseite hineingegeben wird. Beim Weitergeben oder Kopieren von Information wird sie aber an sich nicht verdoppelt, sondern sie liegt dann nur redundant vor.

In einem thermodynamisch als geschlossen anzusehenden System wird Information letztlich vernichtet, spätestens beim Wärmetod des Universums. In einem thermodynamisch offenen System kann Information weitergegeben werden, informationstragende Strukturen können sogar spontan entstehen. Beispiele sind eine Vielzahl von theoretisch und experimentell untersuchten dissipativen Strukturen. Besonders Spin-Systeme (Spin = Drehimpuls atomarer und subatomarer Teilchen), insbesondere die sogenannten Spin-Gläser bzw. Ising-Modelle, sind sehr oft untersucht worden, nicht zuletzt wegen ihrer Relevanz für die Theorie neuronaler Netze. Viele Experimente zeigen, dass in Ising-Gläsern spontan Strukturen entstehen können, die wegen der gequantelten Natur des Spins sogar schon als in digitalisierter Form vorliegende Information interpretiert werden können, welche z. B. die Entstehungsbedingungen der Struktur in codierter Form enthält.



melden

Der Informationsbegriff in der Physik

28.07.2019 um 13:30
Zitat von Peter0167Peter0167 schrieb:3. Kann Information überhaupt eindeutig definiert werden, oder hat Information in jedem Einzelfall eine andere Bedeutung?
Was denkst Du über folgende Behauptung?

"Es gibt keine Materie. Es gibt nur die Information über die Existenz von Materie."


1x zitiertmelden
Peter0167 Diskussionsleiter
Profil von Peter0167
anwesend
dabei seit 2014

Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

Der Informationsbegriff in der Physik

28.07.2019 um 13:39
Zitat von GLoefflerGLoeffler schrieb:Was denkst Du über folgende Behauptung?
Ich denke, dass dieser Satz von Hans Peter Dürr sehr viele Leute verunsichert hat, mich natürlich auch. Er provozierte damit geradezu, sich mit der Materie auseinanderzusetzen, und hat damit sicher auch dazu beigetragen, dass sich bei vielen die Sicht auf sicher geglaubtes Wissen verändert hat.

Dieses Zitat ist ein sehr guter Einstieg ins Thema, bin mal gespannt, wie es sich weiter entwickelt :D


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 13:44
Zitat von Peter0167Peter0167 schrieb:Ich denke, dass dieser Satz von Hans Peter Dürr sehr viele Leute verunsichert hat
So ist es. Es war unvermeidlich.

Deshalb meine nächste Frage: Was kann man sich unter Materie als Information vorstellen?


melden
Peter0167 Diskussionsleiter
Profil von Peter0167
anwesend
dabei seit 2014

Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

Der Informationsbegriff in der Physik

28.07.2019 um 13:47
Nachdem was ich bisher erfahren hatte, ist der Bezug von Information zu Energie nicht völlig aus der Luft gegriffen, und da massebehaftete Materie sich äquivalent zu Energie verhält, stehen die sicher in einer noch näher zu klärenden Beziehung. Vielleicht ist Materie das Bindeglied zwischen Information und Energie?!


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 13:51
Zitat von Peter0167Peter0167 schrieb:Vielleicht ist Materie das Bindeglied zwischen Information und Energie?!
Das glaube ich nicht.

Ich gehe davon aus, dass Materie die Information Materie ist und Energie die Information Energie ist.
Deshalb gehe ich davon aus, dass die Verbindung von "Materie" und "Energie" allein auf Information basiert.


2x zitiertmelden
Peter0167 Diskussionsleiter
Profil von Peter0167
anwesend
dabei seit 2014

Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

Der Informationsbegriff in der Physik

28.07.2019 um 13:56
Zitat von GLoefflerGLoeffler schrieb:Deshalb gehe ich davon aus, dass die Verbindung von "Materie" und "Energie" allein auf Information basiert.
So weit bin ich noch nicht. Ich würde zunächst gerne klären, was Information ist, und wird sie erst durch durch den Menschen zu einer solchen gemacht? Existiert Information auch unabhängig vom "menschlichen Geist"? Und hat Information überhaupt so etwas wie eine Existenz?

Mal sehn was Mojo dazu sagt, er ist hier immer noch einer der klügsten Köpfe bei Allmy.


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 13:59
Zitat von Peter0167Peter0167 schrieb:Ich würde zunächst gerne klären, was Information ist, und wird sie erst durch durch den Menschen zu einer solchen gemacht? Existiert Information auch unabhängig vom "menschlichen Geist"? Und hat Information überhaupt so etwas wie eine Existenz?
Kein Problem. Das klären wir.


melden

Der Informationsbegriff in der Physik

28.07.2019 um 14:31
Es gibt eine neue Disziplin von Edward Fredkin, die Digital Philosophy.
http://www.digitalphilosophy.org/

Diese geht davon aus, dass das Universum von einem "Computer außerhalb" des Universums berechnet wird.
Also Eso-Ecke.

Dabei sind die Naturgesetze nichts anderes als ein Programm, das Information verarbeitet und deshalb auch Information ausgibt, wie z. B. die "Information Materie". Wer oder was der Programmierer ist, sei zunächst dahingestellt.

Die ganze Sache läuft darauf hinaus, dass das Universum lediglich der Output einer dahinter stehenden (berechnenden) transzendenten Intelligenz ist, die Programme als Information anwendet, um Information zu "produzieren".


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 14:36
Hallo Peter,

hier habe ich einen informativen ( ;) ) Beitrag zu Deinem Thema gefunden, der meiner Sichtweise sehr nahe kommt:

https://scilogs.spektrum.de/die-natur-der-naturwissenschaft/der-informationsbegriff-in-der-physik/

Ich definiere Informationen als Aussagen über die Wirklichkeit, die erst infolge von Wahrnehmung der Wirklichkeit zustande kommen - folglich also an das Vorhandensein eines wahrnehmenden Gehirns gebunden sind, welches in der Lage ist, daraus ableitend entsprechende Aussagen zu generieren, die wir dann als Informationen bezeichnen.


melden

Der Informationsbegriff in der Physik

28.07.2019 um 14:37
@Peter0167

Oh da hast du dir ein schweres, aber interessantes Thema rausgesucht.
Zitat von Peter0167Peter0167 schrieb:In der statistischen Physik ist die fehlende Information eines Systems die Information, die benötigt wird, um herauszufinden, in welchem Zustand sich ein System befindet.
Ich versuche mich mal an diesem Satz (ich bin allerdings kein Informationstheoretiker, daher ist folgende AUsführung nicht mathematisch exakt korrekt soll aber den Weg anschaulich demonstrieren :-)).

Information ist eng verwand mit dem Begriff der Entropie. Entropie ist dabei eine Maßzahl für die Anzahl der Möglichkeiten. Dazu ein einfaches Gedankenexperiment:

Stellen wir uns einen Würfel mit nur einer Seite und der Zahl 1 darauf vor. Die Entropie S bei diesem Würfel ist S = 0, denn es gibt nur einen einzigen möglichen Zustand, nämlich die 1, in dem sich der WÜrfel nach dem Würfeln befindet. Wie groß ist die Entropie dieses Würfels?

Wir könnte sagen die Entropie ist ein Maß das die Anzahl N der Möglichkeiten widerspiegelt welche Zahlen der WÜrfel nach dem Würfeln anzeigen kann. In dem Fall wäre dann N = 1 --> S = 0. Folgende Formel beschreibt diesen Zusammenhang:

S = \log(N)


Bei nur einer Möglichkeit ergibt sich S = ln(1) = 0. Steigen die Anzahl der Möglichkeiten N, oder im Gedankenexperiment die Anzahl der Seitenflächen des Würfels würde sich die Entropie erhöhen. Z.B. hat ein sechseitiger WÜrfel die Entropie S = ln(6) = 1,79.

Ok nun haben wir Entropie, wie können wir nun den obigen zitierten Satz verstehen? Im obigen Artikel beschriebt man nun eine Maßzahl die zeigt welche Informationen benötigt werden um den Würfelzustand zu beschrieben. Nehmen wir nun an wir können die gewürfelte Zahl nicht ablesen, aber es gäbe einen Mechanismus der uns sagt welche Zahlen nicht gewürfelt wurde.

Dann wäre jetzt die Frage wieviel nichtgewürfelte Zahlen benötigen wir um zu bestimmen welche Zahl letzlich gewürfelt wurde? Wenn wir bei einem dreiseiten WÜrfel z.B. wissen das die 1 und die 3 nicht gewürfelt wurden wissen wir den finalen Zustand. Da wir wissen das nur eine einzig Zahl nach dem Wurf angezeigt werden kann, können wir die Entropie hinzunehmen. Oder anders ausgedrückt, wenn wir alle Zahlen wissen die nicht gewürfelt wurden, wissen wir die gewürfelte Zahl. Es ist aber sofort einsichtlich, das je mehr Seitenflächen der Würfel hat umso mehr Informationen benötigen wir. Die fehlende Information I[f könnten wir so bezeichnen:

I_f = \frac{N-1}{N}


Wenn der WÜrfel nur eine Seite hat, benötigen wir keine zusätzlichen Informationenm da die fehlenden INformation If = (1-1)/1 = 0/1 = 0 betragen. Wir wissen immer das nach dem Würfeln die Zahl 1 steht.

Bei einem zweiseitigen WÜrfel erhöhen sich die Fehlenden INformationen zu If = (2-1)/2 = 1/2 = 0,5 oder 50%.
Bei einem dreiseitigen Würfel erhöhen sich die Fehlenden INformationen zu If = (3-1)/3 = 2/3 = 0,666 oder 66%.
Bei einem unendlichseitigen WÜrfel N --> ∞ erhöhen sich die Fehlenden INformationen zu If --> 1 oder 100%.

Das heißt jeh mehr Seiten der Würfel hat, desto weniger können wir vorhersagen in welchem exakten Zustand der WÜrfel ist.

Bei einem physikalischen System mit sehr vielen Teilchen haben wir genau so ein Zustand. D.h. wir können den exakten Zustand nicht mehr benennen weil wir nicht die Informationen haben, aber wir können statistische Methoden bemühen um einem bestimmten makroskopischen Zustand eine Maßzahl zuzuordnen, z.B. die Temperatur. Dies führt dann zur Thermodynamik.

Interessant daran ist das Claude Shannon eine mathematischen Formalismus hergeleitet hat für den Informationsgehalt einer Nachricht.
Er hat damit die Informationstheorie begründet, und der Formalismus stimmte überein mit den thermodynamischen Grundlagen der Physik. Der Formalismus das mathematische Modell für die Entropie einer Nachricht oder der Entropie eines physikalsichen Systems sind gleich.

Daher gibt es die Entropie in der Physik Wikipedia: Entropie und ini der Informatik Wikipedia: Entropie (Informationstheorie)#Alphabet
In der Physik (siehe Thermodynamik, speziell Entropie) spielt eine gleich benannte Größe eine wesentliche Rolle[3][4]. Die physikalische Entropie unterscheidet sich von der Shannon'schen Informationsentropie durch einen zusätzlichen Normierungsfaktor k B {\displaystyle k_{\mathrm {B} }} k_{\mathrm {B} }, die Boltzmannsche Konstante, und durch die Ersetzung der im Logarithmus benutzten Basis (der duale Logarithmus wird durch den natürlichen Logarithmus ersetzt). Somit unterscheiden sich physikalische Entropie und mathematische Entropie durch den positiven Umrechnungsfaktor k B ln ⁡ 2 {\displaystyle k_{\mathrm {B} }\ln 2} k_\mathrm{B} \ln 2 , versehen mit seiner physikalischen Einheit. Der Zusammenhang wurde durch ein Maxwellscher Dämon genanntes Gedankenexperiment hergestellt.
Wikipedia: Entropie (Informationstheorie)#Ähnlichkeit zur Entropie in der Physik



@GLoeffler
Zitat von GLoefflerGLoeffler schrieb:Deshalb gehe ich davon aus, dass die Verbindung von "Materie" und "Energie" allein auf Information basiert.
Ich denke solange nicht klar ist was unter Information gemeint ist, das heißt solange du nicht sagst was du eigentlich unter Information genau verstehst, solange lässt sich aus deiner Aussagen keinerlei Schlussfolgerung ziehen.


2x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 14:40
Hallo Mojorisin,

Du schreibst:
Zitat von mojorisinmojorisin schrieb:Information ist eng verwand mit dem Begriff der Entropie. Entropie ist dabei eine Maßzahl für die Anzahl der Möglichkeiten.
Aus meinem Link:
Wenn man die Entropie mit irgendeiner Vorstellung von Information in Verbindung bringen will, muss man allerdings einen Perspektivwechsel vornehmen, und zwar von der reinen Betrachtung der Natur zur Beobachtung dieser Betrachtung. Die Anzahl der Mikrozustände bei gegebenem Makrozustand ist eine reine Sache der Natur. Andererseits kann ich als denkendes Wesen, das die Natur analysiert, aber auch fragen, welchen Mikrozustand ich zu einer bestimmten Zeit bei gegebenem Makrozustand finden würde, wenn ich denn so etwas messen könnte. Oder: Wir groß ist die Wahrscheinlichkeit dafür, bei einer Messung einen ganz bestimmten Mikrozustand zu finden? Wenn alle Mikrozustände gleich wahrscheinlich sind, ist das leicht anzugeben und es ist sofort klar: Je größer die Anzahl der Mikrozustände ist, umso kleiner ist die Wahrscheinlichkeit für einen einzelnen, also dafür, einen ganz bestimmten von diesen zu finden – umso weniger Information hat man also darüber, welcher von diesen gerade realisiert ist.

Die Entropie, die Anzahl der Mikrozustände, ist somit ein Maß für den Mangel an Information darüber, welcher der Mikrozustände zu bestimmter Zeit vorliegt. Man sieht, der Begriff der Information erscheint erst, wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt.
Freundliche Grüße!


melden

Der Informationsbegriff in der Physik

28.07.2019 um 14:42
Zitat von mojorisinmojorisin schrieb:Ich denke solange nicht klar ist was unter Information gemeint ist, das heißt solange du nicht sagst was du eigentlich unter Information genau verstehst, solange lässt sich aus deiner Aussagen keinerlei Schlussfolgerung ziehen.
Richtig. Deshalb habe ich meine Vorstellung diesbezüglich weiter oben bereits beschrieben:

Die ganze Sache läuft darauf hinaus, dass das Universum lediglich der Output einer dahinter stehenden (berechnenden) transzendenten Intelligenz ist, die Programme als Information anwendet, um Information zu "produzieren".


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 14:50
@GLoeffler
Zitat von GLoefflerGLoeffler schrieb:Die ganze Sache läuft darauf hinaus, dass das Universum lediglich der Output einer dahinter stehenden (berechnenden) transzendenten Intelligenz ist, die Programme als Information anwendet, um Information zu "produzieren".
Das erklärt aber nicht wie deiner Meinung nach Energie und Masse über die Information zusammenhängen. Diese Antwort ist tatsächlich religiösen Ursprungs bei der sich die Antworten damit begnügen einer übergeordneten Intelligenz (in der Bibel ists Gott) die Steuerung zuzuschieben. Diese Antwort erklärt auch nicht was du unter Information verstehst.


1x zitiertmelden
Peter0167 Diskussionsleiter
Profil von Peter0167
anwesend
dabei seit 2014

Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

Der Informationsbegriff in der Physik

28.07.2019 um 14:54
Schade, muss mich jetzt mal für ne Weile ausklinken, und das gerade wo es so schön anläuft :D

Bis sPeter...


melden

Der Informationsbegriff in der Physik

28.07.2019 um 14:55
@Peter0167

Das Wort Information wird meiner Meinung nach sehr oft undifferenziert zum Thema Überlichtgeschwindigkeit verwendet:
Ob sich Materie oder Information im Vakuum auch überlichtschnell (superluminar, raumartig) bewegen bzw. ausbreiten kann, ist eine von der überwiegenden Mehrheit der Physiker verneinte, aber noch nicht abschließend geklärte Frage.
Wikipedia: Überlichtgeschwindigkeit

Falls jemand Quellen dazu findet, bei denen klar definert ist was hier unter Information verstanden wird dem bin ich äußerst dankbar :-)


2x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 14:57
Zitat von mojorisinmojorisin schrieb:Das erklärt aber nicht wie deiner Meinung nach Energie und Masse über die Information zusammenhängen.
Aber ganz gewiss doch. So wie ich Edward Fredkin verstehe, sind Energie und Masse lediglich Information, die in diesem externen Computer berechnet wird aufgrund der Information, die in den Naturgesetzen niedergeschrieben ist.

Was ich unter Information verstehe, ist die Art von Information, die dieser externe Computer in Form von Programmen besitzt, um aus vorhandener Information neue Information produzieren zu können.

Ich würde nicht so weit gehen, Edward Fredkin als religiös zu bezeichnen. Er scheint mir seine Annahmen sehr logisch herzuleiten.


2x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 15:01
Zitat von mojorisinmojorisin schrieb:Das Wort Information wird meiner Meinung nach sehr oft undifferenziert zum Thema Überlichtgeschwindigkeit verwendet
Vereinfacht heißt das: Photonen einer Lichtquelle können nicht mit Überlichtgeschwindigkeit unterwegs sein, als "Scherenspitzeneffekt" jedoch schon. Wenn die Lichtquelle geschwenkt wird, bewegt sich die Spitze irgendwann mit Überlichtgeschwindigkeit, aber nicht die Information.

An der Uni Wien ist Anton Zeilinger mit genau solchen Fragestellungen beschäftigt. Hier ein einfacher Informationsartikel:

https://medienportal.univie.ac.at/uniview/forschung/detailansicht/artikel/quantenwelt-unabhaengig-von-raum-und-zeit/?no_cache=1


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 15:01
Zitat von mojorisinmojorisin schrieb:Das Wort Information wird meiner Meinung nach sehr oft undifferenziert zum Thema Überlichtgeschwindigkeit verwendet
Ich würde mich nicht an Begriffen wie "Überlichtgeschwindigkeit" festklammern. Mir scheint es sehr wichtig, dass bei allem physikalischen Denken stets das Ursache-Wirkungs-Prinzip bedacht und berücksichtigt werden sollte.


melden