Willkommen in Manus Zeitforum
InformationenAnmelden Registrieren

Erweiterte Suche

Verschränkte Teilchen und schwarze Löcher

Thema erstellt von Skeptika 
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Otto,

Otto schrieb in Beitrag Nr. 2150-31:
Hättest Du ein Beispiel aus der Mechanik oder Chemie?

Zwei (genügend große) Wasserbehälter, einer heiß, einer kalt. Wenn nun eine Wärmemenge Q vom heißen auf den kalten Behälter übertragen wird, so sinkt die Entropie im heißen Behälter um Q/Theiß, im kalten Behälter steigt sie dagegen um Q/Tkalt an. Im Teilsystem "heißer Behälter" ist also durchaus eine Abnahme der Entropie möglich (weil dort Wärme abgeführt wird). Betrachtet man dagegen das Gesamtsystem (heißer und kalter Behälter) so hat bei der Wärmeübertragung die Gesamtentropie (Q/Tkalt - Q/Theiß) zugenommen.


Zitat von Otto:
Ein Würfel hat die Entropie 6, eine Münze die Entropie 2 und die Zahle 1 hat die Entropie 0.

Der Makrozustand " Der Würfel ist gefallen" kann durch 6 Mikrozustände "Der Würfel zeigt oben die Zahl Z (mit Z von 1 bis 6)" realisiert werden.
Solange der Mikrozustand nicht bekannt ist, gilt für die Entropie des Makrozustands: 2^H=6 bzw. H=lg6/lg2 = 2,585

Der Makrozustand " Die Münze ist gefallen" kann durch 2 Mikrozustände "Die Münze zeigt oben Kopf" oder "Die Münze zeigt oben Zahl" realisiert werden.
Solange der Mikrozustand nicht bekannt ist, gilt für die Entropie des Makrozustands: 2^H=2 bzw. H=1

Der Makrozustand " Die Münze ist gefallen und zeigt Kopf" ist gleich dem Mikrozustand und hat nur eine Möglichkeit der Realisierung.
Für die die Entropie des Makrozustands gilt dann: 2^H=1 bzw. H=0

Zitat von Otto:
Hat nun die kleinstmögliche Entropie 0, mit der Zahl der Möglichkeiten gleich 1, überhaupt eine Information?

Bei nur einer Möglichkeit benötigt man keine Information zur Vorhersage. Die Entropie H ist null.

Zitat von Otto:
Was bedeutet das physikalisch?
Hat ein Photon die Entropie Null?

Man kann m.E. nicht ohne Weiteres davon sprechen, welche "Entropie ein Photon" hat.

Als Makrozustand kann man z.B. die Detektion eines Photons an einem bestimmtem Ort zu einem bestimmten Zeitpunkt festlegen.
Die Zahl der Mikrozustände sind nun die Möglichkeiten N, die dazu führen können, dass das Photon am festgelegten Ort zum festgelegten Zeitpunkt detektiert wird.
Solange der tatsächliche Mikrozustand nicht bekannt ist, der den Makrozustand letztlich repräsentiert, beträgt die Entropie des Makrozustands "Photon detektiert" H=log2 N
Beitrag zuletzt bearbeitet von Claus am 15.01.2023 um 19:17 Uhr.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.442, Mitglied seit 14 Jahren
Hallo Claus,

Claus schrieb in Beitrag Nr. 2150-34:
Man kann m.E. nicht ohne Weiteres davon sprechen, welche "Entropie ein Photon" hat.

richtig.
Entropie bezieht sich auf Vielteilchensysteme, die einen Makrozustand beschreiben.
Mit dem Begriff Makrozustand ist immer der Zustand von Vielteilchensystemen gemeint.

Zitat:
Als Makrozustand kann man z.B. die Detektion eines Photons an einem bestimmtem Ort zu einem bestimmten Zeitpunkt festlegen.
Die Zahl der Mikrozustände sind nun die Möglichkeiten N, die dazu führen können, dass das Photon am festgelegten Ort zum festgelegten Zeitpunkt detektiert wird.
Solange der tatsächliche Mikrozustand nicht bekannt ist, der den Makrozustand letztlich repräsentiert, beträgt die Entropie des Makrozustands "Photon detektiert" H=log2 N

Der Zustand eines Photons zum Zeitpunkt t1 am Ort x1 wird genau von einem Mikrozustand präsentiert.
Nämlich Photon am Ort x1 zum Zeitpunkt t1.
Welcher andere Mikrozustand sollte das gleiche Messergebnis beschreiben?

Nach meiner Vorstellung ist mit Entropie die Anzahl möglicher Mikrozustände gemeint, die einen definiten Makrozustand beschreiben,
nicht die Anzahl der Möglichkeiten die dazu geführt haben.

Entropie S=k·lnΩ

wobei k für die Boltzmann-Konstante, und Ω für die Anzahl aller möglichen unterscheidbaren Mikrozustände eines bestimmten Makrozustandes steht.

In deiner Beschreibung ist die Anzahl der Möglichkeiten N, die dazu führen können, dass das Photon am festgelegten Ort zum festgelegten Zeitpunkt detektiert wird, prinzipiell unendlich groß.
Das zeigt sowohl die zeitabhängige Schrödingergleichung wie auch Feynman's Pfadintegrale.

mfg okotombrok
Signatur:
"Der Kopf ist rund, damit die Gedanken die Richtung wechseln können"
(Francis Picabia)
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Claus schrieb in Beitrag Nr. 2150-34:
Der Makrozustand " Der Würfel ist gefallen" kann durch 6 Mikrozustände "Der Würfel zeigt oben die Zahl Z (mit Z von 1 bis 6)" realisiert werden.
Solange der Mikrozustand nicht bekannt ist, gilt für die Entropie des Makrozustands: 2^H=6 bzw. H=lg6/lg2 = 2,585
Richtig, ich habe die Anzahl der Möglichkeiten mit der Entropie verwechselt.
Siehe Diagramm.
Gruß, Otto
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Okotombrok,

ich dachte Folgendes:

Der "Makrozustand" ist irgendeine Grobdarstellung eines Sachverhalts, wie bspw. "Es wurde ein Photon detektiert."

Die "Mikrozustände" beschreiben den Sachverhalt genauer. Nehmen wir an, das detektierte Photon hätte aus vier verschiedenen Quellen stammen können. Es bestehen damit vier unterscheidbare Möglichkeiten:

a) "Es wurde ein Photon detektiert, welches aus Quelle A stammt."
b) "Es wurde ein Photon detektiert, welches aus Quelle B stammt."
c) "Es wurde ein Photon detektiert, welches aus Quelle C stammt."
d) "Es wurde ein Photon detektiert, welches aus Quelle D stammt."

Zunächst ist nur der Makrozustand bekannt, der besagt, dass ein Photon detektiert wurde, nicht aber, aus welcher Quelle es stammt.

Um nun auch die Quelle des Photons eindeutig zu bestimmen, sind zwei Fragen mit jeweils einer ja/nein Entscheidung zu klären:

Frage 1: Stammt das detektierte Photon aus Quelle A oder B?
Antwort: "ja", woraus folgt -> Quellen C und D sind ausgeschlossen.

Frage 2: Stammt das detektierte Photon aus Quelle A?
Antwort: "nein", woraus folgt -> Das Photon stammt aus Quelle B.

Diese zwei ja/nein Entscheidungen stellen 2 bit Information dar.

Das ist m.E. der Aussage äquivalent: Bei vier möglichen Photonenquellen beträgt die Entropie des Makrozustands "Photon detektiert" H = 2 bit.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Claus schrieb in Beitrag Nr. 2150-30:
Wie sieht es aber aus, wenn man bspw. ein Gesamtsystem betrachtet, welches ein isoliertes Teilsystem beinhaltet?
Claus schrieb in Beitrag Nr. 2150-34:
Zwei (genügend große) Wasserbehälter, einer heiß, einer kalt. Wenn nun eine Wärmemenge Q vom heißen auf den kalten Behälter übertragen wird, so sinkt die Entropie im heißen Behälter um Q/Theiß, im kalten Behälter steigt sie dagegen um Q/Tkalt an. Im Teilsystem "heißer Behälter" ist also durchaus eine Abnahme der Entropie möglich (weil dort Wärme abgeführt wird). Betrachtet man dagegen das Gesamtsystem (heißer und kalter Behälter) so hat bei der Wärmeübertragung die Gesamtentropie (Q/Tkalt - Q/Theiß) zugenommen.

Das sind m.E. zwei Teilsysteme, die zu einem System verschmolzen werden.
Das eine (isolierte) Teilsystem ist jedoch nicht Teil des anderen (übergeordneten) Teilsystems.
Hermann, auch bei Deinen Beispielen konnte ich das nicht erkennen.

Gruß, Otto
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Okotombrok schrieb in Beitrag Nr. 2150-33:
Was bleibt also als Grundbaustein des Universums anderes als Strukturen, und was sind Strukturen anders als Information?

Hallo Hermann,
So eine Aussage konnte ich bei Wikipedia nicht finden.
Strukturen sind m.E. Zustände und keine Informationen.

Das ist eine schönes Beispiel dafür, dass der Begriff "Information" nicht ausreichend definiert ist.
Gruß, Otto
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Otto schrieb in Beitrag Nr. 2150-39:
Das ist eine schönes Beispiel dafür, dass der Begriff "Information" nicht ausreichend definiert ist.


Guten morgen,

Was ist Information?

Eigentlich keine große Sache, was Verständnis angeht. Es bedeutet „nur“ Benachrichtigung über eine Tatsache (Realität).
Diese Benachrichtigung erfolgt über Emission(Ausstoßung) und Detektion(Aufspüren). Alles im Universum basiert auf das: Emission+Detektion= Information

Ohne das gibt es sozusagen keine Aufschluss über die Realität(Welt), deswegen die Annahme, Information ist Alles. Es baut das, was wir Realität nennen, auf.
Im Umkehrschluss, ohne die Strukturen(Zustände) dahinter, keine Information.

Auch den Transport spielt eine sehr große Rolle, von Licht bis Auto, Fahrrad oder zu Fuß, ist alles dabei. Es bleibt nur noch zu klären was beim Tunneln(Verschränkung) passiert, ob Überlicht Geschwindigkeit, Wurmlöcher oder parallel Zeiten die Rede ist.


MfG H.

PS. Auch das, was man Informationsgehalt nennt, und sich manchmal in den SLs "versteckt", ist dasselbe Prinzip zuzuordnen.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 24.01.2023 um 21:31 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Auch über die Wahrscheinlichkeiten kann es sowas wie Information geben.



Claus schrieb in Beitrag Nr. 2150-37:
Hallo Okotombrok,

ich dachte Folgendes:

Der "Makrozustand" ist irgendeine Grobdarstellung eines Sachverhalts, wie bspw. "Es wurde ein Photon detektiert."

Die "Mikrozustände" beschreiben den Sachverhalt genauer. Nehmen wir an, das detektierte Photon hätte aus vier verschiedenen Quellen stammen können. Es bestehen damit vier unterscheidbare Möglichkeiten:

a) "Es wurde ein Photon detektiert, welches aus Quelle A stammt."
b) "Es wurde ein Photon detektiert, welches aus Quelle B stammt."
c) "Es wurde ein Photon detektiert, welches aus Quelle C stammt."
d) "Es wurde ein Photon detektiert, welches aus Quelle D stammt."

Zunächst ist nur der Makrozustand bekannt, der besagt, dass ein Photon detektiert wurde, nicht aber, aus welcher Quelle es stammt.

Um nun auch die Quelle des Photons eindeutig zu bestimmen, sind zwei Fragen mit jeweils einer ja/nein Entscheidung zu klären:

Frage 1: Stammt das detektierte Photon aus Quelle A oder B?
Antwort: "ja", woraus folgt -> Quellen C und D sind ausgeschlossen.

Frage 2: Stammt das detektierte Photon aus Quelle A?
Antwort: "nein", woraus folgt -> Das Photon stammt aus Quelle B.

Diese zwei ja/nein Entscheidungen stellen 2 bit Information dar.

Das ist m.E. der Aussage äquivalent: Bei vier möglichen Photonenquellen beträgt die Entropie des Makrozustands "Photon detektiert" H = 2 bit.


Somit hat Claus hier, m.E. nach, recht.



MfG H.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 16.01.2023 um 11:12 Uhr.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Haronimo schrieb in Beitrag Nr. 2150-41:
Auch über die Wahrscheinlichkeiten kann es sowas wie Information geben.

Einige Gedanken zu den Begriffen "Mikrozustand" und "Makrozustand":

Was ist der wesentliche Unterschied zwischen einem Mikrozustand und einem Makrozustand?

Beim Mikrozustand ist die Wahrscheinlichkeit für jedes Teilchen gleich. Die Möglichkeit jedes Teilchen ist bekannt.
Hat zum Beispiel ein Teilchen 2 alternative Aufenthaltsorte (Möglichkeiten), dann haben 4 Teilchen insgesamt 24 = 16 Mikrozustände. Das heißt, die Möglichkeiten (2) pro Teilchen werden mit der Zahl der Teilchen (4) potenziert.
Die Wahrscheinlichkeit für jedes Teilchen ist gleich (p = 1/16).

Beim Makrozustand sind die Teilchen "anonym"; sie sind nicht unterscheidbar.
Die Wahrscheinlichkeit der Teilchen ist für jedes Teilchen unterschiedlich.

Die Gesamtentropie verschiedener Mikrozustände ergibt sich aus der Summe der einzelnen Entropien.
Die Gesamtentropie verschiedener Makrozustände resultiert aus dem Produkt der Wahrscheinlichkeiten ihrer Entropien.

Diese beiden Eigenschaften lassen sich verbinden, mathematisch formuliert
f(a∙b) = f(a) + f(b)
Genau diese Bedingung erfüllt die Funktion f() = log().
ln(a∙b) = ln(a) + ln(b)
Dabei ist es egal, ob die Logarithmusfunktion der logarithmus naturalis ln() mit der Euler-Zahl e als Basis ist, oder lg2() mit der Basis 2, oder der dekadische Logarithmus lg() mit der Basis 10.

Die Entropie "S" ist deshalb definiert als
S = kB∙ln(W)
mit W = Wahrscheinlichkeit für Makrosysteme bzw. die Zahl der Möglichkeiten für Mikrosysteme
kB ist eine Konstante, für Makrosysteme die s.g. Boltzmann-Konstante.

Der Münzwurf mit 2 Möglichkeiten (und der Entropie 1) ist gleichbedeutend mit der Information der Größe von 1 bit.

Entropie und Information sind Charakteristika einer Zustandsänderung (oder möglichen Zustandsänderungen, definiert als Zahl der Möglichkeiten).
Entropie und Information sind jedoch nicht die Charakteristika eines Zustandes.
Zustände sind zum Beispiel Dauersporen/Samen (ruhendes Leben) oder eine ausgeschaltete Maschine. Sie haben keinen Energiedurchsatz, weisen keine Änderung der Entropie auf, senden keine Informationen.

Für folgende Fälle weisen Makrosysteme keinen Zufall auf:
- Die Entropie eines sicheren Ereignisses ist 0.
- Die Entropie eines unmöglichen Ereignisses hat den Wert 0.

Für Mikrosysteme ist die Entropie gleich 0, wenn sich der Zustand nicht ändert bzw. nicht ändern kann. Die Möglichkeit hat in diesem Fall den Wert 1.
Dies entspricht dem "unmöglichen Ereignis" eines Makrosystems.
Ein sicheres Ereignis existiert m. E. für ein Mikrosystem nicht.

Ordnung ist der Kehrwert der Entropie = 1/S.
Die Ordnung ist dann maximal, wenn die Entropie Null ist.

Zu erwähnen wären in diesem Zusammenhang, dass (zufällige) Möglichkeiten erst durch eine Messung entstehen.
Zum anderen ist zu erwähnen, dass es für Verschränkungen die Möglichkeit "verschiedene Orte" nicht gibt. Der lokale Realismus unserer Erlebniswelt existiert für den Zustand der Verschränkung nicht.

Gruß, Otto
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.442, Mitglied seit 14 Jahren
Hallo Otto,

Otto schrieb in Beitrag Nr. 2150-39:
Okotombrok schrieb in Beitrag Nr. 2150-33:
Was bleibt also als Grundbaustein des Universums anderes als Strukturen, und was sind Strukturen anders als Information?

Hallo Hermann,
So eine Aussage konnte ich bei Wikipedia nicht finden.
Strukturen sind m.E. Zustände und keine Informationen.

Das ist eine schönes Beispiel dafür, dass der Begriff "Information" nicht ausreichend definiert ist.
Gruß, Otto

wenn man sich über das Informationsparadoxon schwarzer Löcher Gedanken macht, kommt man mit der klassischen Informationsbeschreibung nicht weit.
In der klassischen Mechanik haben wir es mit eindeutigen Zuständen zu tun.
Der Zustand eines klassischen Teilchens wird durch einen reellen Vektor im 6-dimensionalen Phasenraum exakt beschrieben.

In der QM werden Zustände durch einen komplexwertigen Vektor im n-dimensionalen Hilbertraum und den Schrödingergleichungen beschrieben.
Wir haben es somit in der QM mit Unbestimmtheiten, Superposition und Nichtlokalität zu tun.

Eine einheitliche Definition für den Begriff der Quanteninformation scheint nicht zu existieren.
Gleichwohl ist der Begriff für ein Verständnis der Quantenmechanik, speziell der Quantenfeldtheorien, von großer Bedeutung.
Materie und Energie waren früher zwei unabhängige Begriffe, bis Einstein deren Äquivalenz erkannte – E=mc2.
Weizsäcker ging noch einen Schritt weiter.
Ich will jetzt an dieser Stelle nicht Weizsäckers Ur-Theorie aus dem Keller hervorholen, aber sein Ansatz, Materie und Energie seien lediglich mögliche Manifestationsformen der Informatin gerade im Hinblick auf die Quantenfeldtheorien und deren Interpretationen interessant und diskussionswürdig.

mfg okotombrok
Signatur:
"Der Kopf ist rund, damit die Gedanken die Richtung wechseln können"
(Francis Picabia)
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Thermodynamische und informationstheoretische Entropie sind m.E. völlig verschieden.

a) Im thermodynamischen Sinn gibt Entropie die Richtung der Zeit an. Sie nimmt in Richtung 'Zukunft' solange zu, bis ein Gleichgewicht erreicht ist. Ist das Gleichgewicht erreicht, dann gibt es keine Zukunft, keine Zeitrichtung mehr.

b) Im informationstheoretischen Sinn ist Entropie die Anzahl der Fragen mit jeweils einer ja/ nein Antwort (bit), die man stellen muss, um einen Zustand aus mehreren Möglichkeiten eindeutig zu bestimmen.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Hallo Claus,

Claus schrieb in Beitrag Nr. 2150-44:
Thermodynamische und informationstheoretische Entropie sind m.E. völlig verschieden.

Ganz so verschieden sind sie m.E. nicht.
Beide Entropien haben verschiedene Ursachen, folgen aber der gleichen Gleichung S = const∙ln(W).

Die Variable W definiert im informationstheoretischen Sinn (Dein Fall (b)) die Zahl der Möglichkeiten eines Mikrosystems.

In Deinem Fall (a) bedeutet W die Wahrscheinlichkeit der Teilchen eines thermodynamischen Systems - eines Makrosystems.
Die Boltzmann-Konstante kB vermittelt hier die Wärmeenergie der kinetische Energie vieler "anonymer" Teilchen, deren einzelner Energiewert zufälligen Natur ist.
Die Konstante KB beschreibt einen physikalischen Mittelwert der zufälligen Energiewerte aller Teilchen.

Das ist nur meine Interpretation der Entropie und meine Antwort auf die Frage, die ich mir gestellt habe, was die mathematisch-physikalsiche Ursache der Gleichung S = const∙ln(W) wohl sei.

Gruß, Otto
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Hallo Okotombrok,

Okotombrok schrieb in Beitrag Nr. 2150-43:
wenn man sich über das Informationsparadoxon schwarzer Löcher Gedanken macht, kommt man mit der klassischen Informationsbeschreibung nicht weit.
Das ist offensichtlich so. Da stimme ich Dir zu.
Begriffe wie Information und Entropie sind nicht klar definiert. Das muss zwangsweise zu Verwirrungen führen.
Ich versuche, mit meinen Gedanken und Kommentaren dieses Wirrwarr etwas zu lichten.
Keine Ahnung, ob mir das gelingt.
Gruß, Otto
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Otto,

Otto schrieb in Beitrag Nr. 2150-46:
Begriffe wie Information und Entropie sind nicht klar definiert. Das muss zwangsweise zu Verwirrungen führen.

Aus der Diskussion zwischen zara.t. und Timeout im Thread 'Information' wird das besonders deutlich.

Zunächst muss geklärt sein, ob man von der technischen Informationsbreite einer Nachricht spricht oder über Information, im Sinne einer Bedeutung für einen Empfänger.

Für letzteren Fall wird klar, dass Informationsgehalt bzw. Entropie von der Vorinformation des Empfängers abhängen.

Außerdem stellt sich die Frage nach der Bedeutung von Information. Was für den einen wertvolle Information ist, kann für den anderen bedeutungslos sein. Was zählt also überhaupt zum "Wissen", welches man durch Information erlangen kann?
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Claus schrieb in Beitrag Nr. 2150-47:
Zunächst muss geklärt sein, ob man von der technischen Informationsbreite einer Nachricht spricht oder über Information, im Sinne einer Bedeutung für einen Empfänger.
Für letzteren Fall wird klar, dass Informationsgehalt bzw. Entropie von der Vorinformation des Empfängers abhängen.

Außerdem stellt sich die Frage nach der Bedeutung von Information. Was für den einen wertvolle Information ist, kann für den anderen bedeutungslos sein. Was zählt also überhaupt zum "Wissen", welches man durch Information erlangen kann?

Hallo Claus,
Information erhält ihren Wert durch Interpretation (Wichtung) und den Vorkenntnissen eines (lebenden) Empfängers.
Gruß, Otto
Beitrag zuletzt bearbeitet von Otto am 18.01.2023 um 07:59 Uhr.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Hallo Okotombrok,

Okotombrok schrieb in Beitrag Nr. 2150-43:
Ich will jetzt an dieser Stelle nicht Weizsäckers Ur-Theorie aus dem Keller hervorholen, aber sein Ansatz, Materie und Energie seien lediglich mögliche Manifestationsformen der Information gerade im Hinblick auf die Quantenfeldtheorien und deren Interpretationen interessant und diskussionswürdig.

Da bin ich mir nicht sicher, ob das so richtig ist.

Einige Gedanken:
Schallplatten, elektronische Speicher, das Gehirn, Samen, Sporen usw. sind nur Kopien von bereits existierenden Informationen.
Jede Generation einer Information benötigt Energie. Das Auslesen von gespeicherten Informationen verbraucht ebenfalls Energie.
Wo kein Energie-Potential, da auch keine Information. Daher der physikalische Zusammenhang zwischen Information und Entropie. Auch die Verarbeitung von Informationen (Rechner) benötigt Energie; eine Erwärmung ist deshalb unvermeidbar.

Dabei ist es unerheblich, ob die Information zufälliger Natur ist oder nicht (Makrosysteme versus Mikrosysteme).

Der Zustand von Strukturen (technisch, chemisch, biologisch, unbelebt) selbst ist m.E. noch keine Information. Erst die Zustandsänderung (auch verursacht durch Messungen) liefert Informationen durch Vergleich von Zustandsdaten zu verschiedenen Augenblicken.

Strukturveränderungen, wie wir sie beobachten, sind mit dem Abbau der Komplexität der Strukturen verbunden.
Zu beachten ist außerdem, dass Kopien der ursprünglichen (komplizierten) Struktur als Baupläne (wie Gene zur Erhaltung der Art) mit Energie erzeugt werden können.
Nicht nur der Abbau der Strukturen auf ein niedrigeres Niveau führt zur Zunahme der Entropie, sondern auch die Erstellung von Kopien der ursprünglichen komplizierteren Strukturen.

Diese Speicherung der Information als "ruhendes Leben" ist ein Merkmal des Lebens.
Gibt es solche Kopien auch in der unbelebten Natur?

Gruß, Otto
Beitrag zuletzt bearbeitet von Otto am 20.01.2023 um 11:20 Uhr.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Otto schrieb in Beitrag Nr. 2150-49:
Der Zustand von Strukturen (technisch, chemisch, biologisch, unbelebt) selbst ist m.E. noch keine Information. Erst die Zustandsänderung (auch verursacht durch Messungen) liefert Informationen durch Vergleich von Zustandsdaten zu verschiedenen Augenblicken.

Noch eine Ergänzung bzw. Zusammenfassung zu meinem Verständnis, wie Information definiert werden sollte:
Der Begriff Information sollte m.E. allein an Zustandsänderungen gebunden werden - im Unterschied zu kopierten (gespeicherten) vergangener, also ehemaliger Informationen.

Denn, die einzige Konstante unseres Universums ist die Veränderung.

Gruß, Otto
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Otto,

die Veränderung ist aber nichts Beständiges.

Alles was jetzt geschieht, wird bald Geschichte sein.

Und wie wir bereits diskutiert hatten, kann die Information eines Prozesses "in Form" gegossen werden.

Daher kann ich in Moment nicht einsehen, warum sich Information nur auf Zustandsänderungen, nicht aber auf Zustände beziehen können sollte. Zustände haben halt einen Freiheitsgrad (nämlich deren zeitliche Änderung) weniger, enthalten aber auch Informationen über n-1 Freiheitsgrade.

Ein anderes Beispiel ist die 4D-Raumzeit. Sie enthält die Zustandsänderung, ist in dieser Betrachtung aber ein "Block", also gewissermaßen auch wieder ein Zustand.
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Claus schrieb in Beitrag Nr. 2150-51:
die Veränderung ist aber nichts Beständiges.

Hallo Claus,
Was wäre beständig?
Gruß, Otto
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Otto,

Otto schrieb in Beitrag Nr. 2150-52:
Was wäre beständig?

Die Platonische Form. Der Unprozess. Das ewig Seiende. Die Raumzeit.
[Gäste dürfen nur lesen]
In diesem Forum dürfen nur Mitglieder schreiben. Hier kannst du dich anmelden
Zum Seitenanfang Nach oben