Willkommen in Manus Zeitforum
InformationenAnmelden Registrieren

Erweiterte Suche

Thermodynamische Entropie = Komplexität von Systemzustand

Thema erstellt von Grtgrt 
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Hallo Gebhard,

ich muss mich Claus anschließen:

Claus schrieb in Beitrag Nr. 1951-20:
Stueps sprach nicht von Information sondern von Komplexität.

Dein Hinweis auf Beitrag Nr. 1948-1 verwirrt mich denn auch. Ich sprach weder von Informationsdichte im nachrichtentechnischen Sinne, noch von Abstraktion realer Systeme. Ich halte mich aus diesem Threadthema (Information) komplett heraus, weil ich davon absolut nix verstehe. Da les ich lieber interessiert mit, auch wenn ich beim Dialog von Claus und Thomas nur Bahnhof verstehe :lol:. Aber meine Erfahrung sagt, dass die beiden genau wissen, was sie da schreiben, deshalb lese ich interessiert weiter.

Gebhard, ich muss mich vorerst komplett dem Beitrag Nr. 1951-20 anschließen. Aber vielleicht kannst du ja noch mit einfachen Gedanken aufklären, wie du Beitrag Nr. 1951-19 meinst, sodass ich es verstehe.
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 16.11.2012 um 08:36 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Hi Claus,

danke für deinen Hinweis und deine Aufmerksamkeit.

Du hast völlig recht, ich habe meine Vorstellungen über Systemkomplexität durcheinander gebracht und bin so zu einer wenig sinnvollen Antwort auf die Frage nach der Komplexität unseres Gehirns gekommen.

Tatsache ist, wie du ganz richtig sagst, dass ich bisher den Begriff "Komplexität" nur im umgangssprachlichen Sinne verwendet habe.

Andererseits war in meinem Hinterkopf das Wissen vorhanden, dass man für Systeme, auf die der 2. Hauptsatz der Thermodynamik anwendbar ist, den Begriff sehr wohl präzisieren kann:
  • Genau diese Systeme nämlich haben (wenigstens potentiell) Zustände maximaler Entropie — Zustände also, die sämtliche im System vorhandene Information nachrichtentechnisch kodieren. Da sie nun aber in dieser Form exakt quantifizierbar ist, kann man ihren Umfang als die dem System innewohnende Komplexität definieren.
  • Dieses Vorgehen funktioniert aber NICHT mehr für Systeme, in denen die einzelenen Teilchen eingeschränkten oder gar individuell eingeschränkten WDDF haben. Für sie gibt es — nicht einmal mehr potentiell — wenigstens einen Zustand maximaler Entropie. Der nämlich könnte nur dann eintreten, wenn sich die durch den WDDF der einzelnen Teilchen gegebenen Restriktionen auf Nichts reduzieren. Dann aber hätte das System — unser Gehirn etwa — seine Funktionsfähigkeit (und daher auch seine Identität) verloren: In einem Sarg dahinfaulende Gehirnmasse kann man eben nicht mehr als Gehirn bezeichnen.

Langer Rede kurzer Sinn also:

Ich kenne keine präzise Definition für die Komplexität von Systemen,
in denen die Voraussetzungen für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik NICHT gegeben sind.


Damit muss ich meine letzte Aussage in Beitrag 1951-15 ergänzen durch den Zusatz: "Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung gar nichts aus".


Danke nochmals, Claus, deine Aufmerksamkeit hat mir wichtige Einsicht beschert.

Mit besten Grüßen,
grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Stueps schrieb in Beitrag Nr. 1951-21:
 
Gebhard, ich muss mich vorerst komplett dem Beitrag Nr. 1951-20 anschließen. Aber vielleicht kannst du ja noch mit einfachen Gedanken aufklären, wie du Beitrag Nr. 1951-19 meinst, sodass ich es verstehe.

Hi Stueps,

es würde mich freuen, von dir zu hören, ob meine eben in Beitrag 1951-22 gegebene Antwort dir ausreicht, mich zu verstehen.

Sie soll zeigen: Die Komplexität eines Systems entspricht der maximalen Menge an Information, die jenes System zu kodieren in der Lage ist. Da nun aber auch der jedem seiner Teile zugeordnete WDDF Information kodiert, ich aber nicht weiß, wie die quantifizierbar sein könnte, kann ich Systemkomplexität nur definieren für den Fall, dass der WDDF der Teilchen des Systems leer ist.


Beste Grüße,
grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Wird die Sache zu komplex, das eine neue Ordnung rein muss?
Ist schon eine Ordnung im System dadurch das nach dem Energieerhaltungssatz keine Energie verloren gehen darf oder Alles an ein gemeinsames Zentrum gebunden ist?
Ist es entzwischen so komplex- das eine Abtrennung nicht mehr geht, weil dazu im Inneren auf der vorgesehenen Bruchfläche zu wenig Energie ist, um die Teile auseinander zu treiben?
Haben Impulse von Außen die Energie aus dem Inneren teilweise herausgedrückt auf der Äquatorfläche zweier Halbkugeln und unter scheiden sich Kugeln bei der Äquatorkreisfläche nicht in Pi sondern in r² und ist deswegen G=1/r².
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Irgendwie waren die Alten doch nicht so dumm, wenn alles zusammenpasst!
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Grtgrt schrieb in Beitrag Nr. 1951-23:
es würde mich freuen, von dir zu hören, ob meine eben in Beitrag 1951-22 gegebene Antwort dir ausreicht, mich zu verstehen.

Hallo Gebhard,

leider nicht. Ich denke, mir fehlen für dieses Thema (Information) die grundlegensten Kenntnisse. Ein Bemühen von dir, dies zu ändern, würde in Sisyphos-Arbeit ausarten. Deshalb beschränke ich mich erst einmal wieder auf´s Mitlesen. Falls ich Fragen habe, werde ich diese natürlich stellen.

Grüße
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Es ist bezifferbar an welchen Punkt ein statisches Feld seine Aufnahmefähigkeit verliert?
Ich kann mir nicht vorstellen das eine Information nur einem Punkt im Raum eines Speichersticks seinen Stempel aufdrückt.
Der Einflussbereich eines Atomkerns ist auch Größer als das Volumen.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 2.425, Mitglied seit 17 Jahren
Hallo Grtgrt,

Grtgrt schrieb in Beitrag Nr. 1951-18:
mir scheint, du willst mich aufs Glatteis führen!

Nein. Ich wollte einfach nur ein Beispiel geben, weil du mich in deinem Beitrag Nr. 1951-7 darum gebeten hattest.

Meiner Meinung nach hat Entropie nichts mit Komplexität zu tun. Eher im Gegenteil:

Im Rahmen eines Ordnungssystems für ein Zustandssystem ist die Entropie genau dann maximal, wenn es innerhalb des Zustandssystems möglichst viele Zustände gibt, welche man mit dem Ordnungssystem nicht voneinander unterscheiden kann.
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Claus schrieb in Beitrag Nr. 1951-28:
 
Meiner Meinung nach hat Entropie nichts mit Komplexität zu tun. Eher im Gegenteil:

Im Rahmen eines Ordnungssystems für ein Zustandssystem ist die Entropie genau dann maximal, wenn es innerhalb des Zustandssystems möglichst viele Zustände gibt, welche man mit dem Ordnungssystem nicht voneinander unterscheiden kann.

Hi Claus,

ich verstehe, was du meinst.

Aber was du als "Komplexität" siehst, würde ich eher als "informierende Komplexität" bezeichnen (auch eine komplexe Nachricht kann ja sehr gut wenig informierend sein).

Aus meiner Sicht gilt:

Komplexität kodiert Information

Informierende Komplexität ist der Teil davon, der zu kybernetisch kodierter Information führt.


Gruß, grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Stueps schrieb in Beitrag Nr. 1951-17:
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Hallo Gebhard, nee, oder?
Da habe ich ein genau entgegengesetztes Verständnis, welches ich gern immer anhand unseres menschlichen Hirns erläutere:

Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

(Natürlich kann man das Leben an sich in seiner Vielfalt als noch komplexer auffassen, aber das tut für meine Erläuterung erst mal nix zur Sache.)

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?

Hi, Stuebs!

Das Gehirn als "realer Zustand" ist ganz klar höchtst niederentropisch. Aber die Zahl der möglichen Zustände ist für das Gehirn ungleich größer als die Zahl für die möglichen Zustände für eine Gaswolke wegen der größeren Menge an Freiheitsgraden der Quanten im Gehirn. Außerdem ist sind noch die Zustände, die das Gehirn selbst einnehmen kann und die dennoch niederentropisch sind (wenn es nämlich denkt) von denen zu unterscheiden, die das Gehrin als einen Zustand im Vergleich mit den Zuständen einnimmt, wenn nur die Anzahl der beteiligeten Quantenobjekte betrachtet wird (also z. B. die Moleküle in ihrer Anordnung). Daneben gibt es noch einen Unterschied bzgl. "Kopliziertheit" und "Komplexität". Ein komplexer Zustand muss nicht komplizierter sein.
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Hallo Henry,

ich bleibe aus Zeitgründen eine ausführlichere Antwort vorerst schuldig, da ich deinen Beitrag erst ein wenig durchdenken muss. Auf die Schnelle:

Henry schrieb in Beitrag Nr. 1951-30:
Aber die Zahl der möglichen Zustände ist für das Gehirn ungleich größer als die Zahl für die möglichen Zustände für eine Gaswolke wegen der größeren Menge an Freiheitsgraden der Quanten im Gehirn.

Bist du sicher???
Ansonsten verweise ich vorerst auf Claus´ Beitrag Nr. 1951-6.

Bis demnächst, ich wäre dir dankbar, wenn du mich noch einmal erinnerst, falls ich dies vergesse.

Grüße
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Stueps schrieb in Beitrag Nr. 1951-31:
Hallo Henry,

ich bleibe aus Zeitgründen eine ausführlichere Antwort vorerst schuldig, da ich deinen Beitrag erst ein wenig durchdenken muss. Auf die Schnelle:

Henry schrieb in Beitrag Nr. 1951-30:
Aber die Zahl der möglichen Zustände ist für das Gehirn ungleich größer als die Zahl für die möglichen Zustände für eine Gaswolke wegen der größeren Menge an Freiheitsgraden der Quanten im Gehirn.

Bist du sicher???
Ansonsten verweise ich vorerst auf Claus´ Beitrag Nr. 1951-6.

Bis demnächst, ich wäre dir dankbar, wenn du mich noch einmal erinnerst, falls ich dies vergesse.

Grüße

Ja, klar bin ich mir sicher!

Du darfst nicht vegessen, dass eine Gaswolke - selbst, wenn sie vom Volumen und auch von der Anzahl der Moleküle her das Gehirn bei Weitem übertrifft - durch sehr viel weniger Freiheitsgrade gekennzeichnet ist als das Gehirn. Ohne Gravitation ist die Position jedes Moleküls im Großen und ganzen durch drei Raumkoordinaten und eine Zeitkoordinate innerhalb der Wolke vollständig beschrieben. Kommt die Schwerkraft dazu, muss man für die Position mit Vektoren arbeiten. Das ist thermodynamisch betrachtet im Großen und Ganzen alles, was über die Gaswolke auszusagen ist.

Nun überlege, wie sich demgegenüber ein Gehirn darstellt! Ganz davon abgesehen, dass man den Zustand des Gehirns nicht einfach als durchschnittliche Verteilung oder Bewegung der zugehörigen Neuronen beschreiben kann. Allein der Energieumsatz schlägt jede Gaswolke. Da ist doch auch der wirkliche Unterschied. Zwar ist auch die Gaswolke kein abgeschlossenes System, aber der Austausch mit der Umgebung ist doch eher marginal im Vergleich mit dem Gehirn, dass ja durch den ständigen Durchgang von Energie in seinem niederentropischen Zustand gehalten wird. Allein die möglichen Zustände, die sich durch die Verbindung aller Neuronen miteinander ergeben, ist in Zahlen ausgedrückt um gigantische Faktoren größer als die Anzahl aller Elementarteilchen im Kosmos insgesamt!
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Alles klar, Henry, das passt m.E.

Entschuldige, ich hatte dich durch das schnelle Lesen falsch verstanden. Kleinigkeit vielleicht: Mich hatte der Ausdruck "Quanten im Hirn" irritiert, ich würde hier lieber "NEuronen" bevorzugen. Oder nicht?

Also sind wir uns einig: Gaswolke "hochentropisch" und wenig komplex. Gehirn "niederentropisch" und hochkomplex. Ist ja auch intuitiv einleuchtend.

Im Sinne von Claus´ Beitrag Nr. 1951-6 möchte ich anmerken:

Es ist ungleich wahrscheinlicher, dass alle benötigten Bausteinen eine Gaswolke (Matsch, organische Brühe usw.) bilden, denn ein menschliches Gehirn, überlässt man die Bausteine sich selber. Die Mikrozustände haben eine extrem hohe Anzahl an Möglichkeiten, etwas systemartiges zu erzeugen. Zu diesen Möglichkeiten gehört auch die Bildung eines menschlichen Hirns, nur ist diese Möglichkeit gegenüber den anderen verschwindend gering. Man muss die Mikrozustände hierzu so manipulieren, dass, egal wie verschieden sie sind, ein und denselben Makrozustand erzeugen.

Und hier zitiere ich Claus am besten aus o.g. Beitrag, denn besser kann ich es nicht wiedergeben:

Zitat von Claus:
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.

Bist du damit einverstanden? Und hallo Claus, du auch?
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 20.11.2012 um 01:08 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Stueps schrieb in Beitrag Nr. 1951-33:
Alles klar, Henry, das passt m.E.

Entschuldige, ich hatte dich durch das schnelle Lesen falsch verstanden. Kleinigkeit vielleicht: Mich hatte der Ausdruck "Quanten im Hirn" irritiert, ich würde hier lieber "NEuronen" bevorzugen. Oder nicht?

Also sind wir uns einig: Gaswolke "hochentropisch" und wenig komplex. Gehirn "niederentropisch" und hochkomplex. Ist ja auch intuitiv einleuchtend.

Im Sinne von Claus´ Beitrag Nr. 1951-6 möchte ich anmerken:

Es ist ungleich wahrscheinlicher, dass alle benötigten Bausteinen eine Gaswolke (Matsch, organische Brühe usw.) bilden, denn ein menschliches Gehirn, überlässt man die Bausteine sich selber. Die Mikrozustände haben eine extrem hohe Anzahl an Möglichkeiten, etwas systemartiges zu erzeugen. Zu diesen Möglichkeiten gehört auch die Bildung eines menschlichen Hirns, nur ist diese Möglichkeit gegenüber den anderen verschwindend gering. Man muss die Mikrozustände hierzu so manipulieren, dass, egal wie verschieden sie sind, ein und denselben Makrozustand erzeugen.

Und hier zitiere ich Claus am besten aus o.g. Beitrag, denn besser kann ich es nicht wiedergeben:

Zitat von Claus:
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.

Bist du damit einverstanden? Und hallo Claus, du auch?

Ja, eigentlich im Großen und Ganzen schon.

Wenn es auch keine Antwort ist, was nun folgt - aber mir war danach:

Nun gut, Information. Ein schwieriges Gebiet. Ich denke, es macht es nicht einfacher, dass wir uns bereits auf einer bestimmten Ebene der Information befinden, wenn wir hier über „Information“ diskutieren, nämlich auf der Ebene, in denen wir Begriffen eine Bedeutung beimessen, denn gewöhnlich sehen wir doch in Information etwas, was uns Bedeutung vermittelt. Etwas, was Bedeutung hat, kann auch einen Wert haben („Wert“ nicht im Sinne von „wertvoll“, sondern eher von „messbar“). Information ist also eigentlich eine Unterscheidungsmöglichkeit. Nur, wenn Information vermittelt, dass ein „Dieses“ anders ist, als ein „Jenes“, ist sie eine „nützliche“ Information. Wobei „nützlich“ eigentlich schon zu einer anderen Ebene gehört, nämlich zur Ebene der Interpretation von Information.

Wie ist nun die grundlegende Ebene, die kosmische Ebene zu sehen? Wenn ich das richtig sehe, beginnt mit Thermodynamik die Betrachtung von Information auf diese Weise, als die Beschreibung eines Systems in bestimmten Zuständen. Da sich die Thermodynamik mit Systemen beschäftigt, die aus ungeheuren Anzahlen von Teilen bestehen – z. B. die Moleküle in einem bestimmen Volumen von Gas – ist die Information, die daraus gewonnen wird, statistischer Natur.

Das Beispiel ist bekannt: In einem Behälter befindet sich Gas, dass durch eine Abtrennung auf einer Seite des Behälters gehalten wird. Das System „Gas“ befindet sich - auf den gesamten Behälter bezogen - in einen ausgezeichneten Zustand. JEDE Änderung des Zustandes – in dem nämlich die Trennwand entfernt wird – ist vom ursprünglichen Zustand unterscheidbar. Hat der ursprüngliche Zustand die Wahrscheinlichkeit „eins“, dass sich alle Moleküle in einer Hälfte des Behälters befinden, so geht die Wahrscheinlichkeit gegen „null“, je länger die Trennwand entfernt ist (sie wird aber nie „null“ werden).

Wenn das Gas sich im gesamten Behälter verteilt hat, wird sich jede Änderung des Zustandes makroskopisch nicht mehr ermitteln lassen, da wir nicht in der Lage sind, die Wege der einzelnen Moleküle zu verfolgen. Die Information über den tatsächlichen Zustand ist eine rein statistische Information, und das Ganze nennen wir Entropie, das heißt, die Entropie gibt uns eine Information über die Wahrscheinlichkeit eines Zustandes, und diese Wahrscheinlichkeit wird über Vektoren in einem so genannten Phasenraum dargestellt (drei räumliche und eine zeitliche Angabe oder „Freiheitsgrade“, das multipliziert mit der Anzahl der beteiligten Teilchen, das ist anständig groß!).

Und diese Art der Berechnung auf den gesamten Kosmos erweitert ergibt den wahrscheinlichen Zustand (die Information) über eben den Kosmos, beginnend mit dem Urknall, der demzufolge in einem Zustand maximaler Entropie begonnnen haben muss – was seltsam ist, da wir doch in einem Kosmos leben, in dem die Entropie ständig wächst.

Was bedeutet denn maximale Entropie am Anfang des Kosmos? Bis zur Entkopplung nach etwa vierhunderttausend Jahren geschah nichts weiter, als dass die freien Elektronen und Protonen unablässig mit den umherrasenden Photonen zusammenstießen. Zwar änderte sich fortlaufend der Zustand es Gesamtsystems, aber jeder Zustand ließ sich in der Gesamtheit nicht vom vorherigen Zustand unterscheiden, eben maximale Entropie und somit minimale Information. Von jedem Ort aus betrachtet sah über die Zeit hinweg in jede Richtung alles vollkommen gleich aus.

Und nun kommt die Gravitation ins Spiel. Die Annahme geht dahin, dass es bereits zu Beginn winzigste Ungleichgewichte gegeben haben muss; warum das so war ist vollkommen ungelöst. Da die Gravitation die weitaus schwächste der vier Kräfte ist, hatten diese kleinen Unregelmäßigkeiten während der „dunklen“ Jahre keinerlei Chance auf irgendeine Auswirkung, das ständige Bombardement durch die Photonen verhinderte jede Zusammenballung von Materie, andererseits waren die kinetischen Energien nicht mehr groß genug, um z. B. eine Kernfusion zu gestatten. Das änderte sich, als nach der Entkoppelung die Protonen und Elektronen des Wasserstoffs sich endlich zu Atomen vereinen konnten. Man nimmt an, dass die oben erwähnten winzigen Gravitationspotentiale durch die „Dunkle Materie“ verursacht wurden. Mit dem Zusammenziehen von freien Wasserstoffatomen gab es plötzlich ausgezeichnete Richtungen, örtlich verringerte sich nun die Entropie und die gerichtete Bewegung der Atome war ein Gewinn an Information. Und die Informationsdichte über den Kosmos nahm durch die ersten Sterne aufgrund ihrer Kernfusion gehörig zu, es wurden weitere Elemente gebildet, neue Sterngenerationen entstanden, erste Planeten und irgendwann auch Uwe und seine Arche.

Letztlich sind aber Sterne lokale Ereignisse, genau so, wie Leben ein lokales Ereignis ist, und letztlich ist bei allem, was entstand, Energie in Form von Wärme ins All gestrahlt worden, Energie, die nie wieder genutzt werden kann und somit eben doch die Entropie insgesamt erhöht; und zudem – wenn man Roger Penrose glaubt – steckt die allermeiste Entropie im Kosmos bereits in Schwarzen Löchern. Beide Faktoren werden auch weiterhin dafür sorgen, dass die Entropie weiter wächst. Und in vielen, vielen Äonen wird damit auch die letzte Information verloren sein.

Nach meiner Ansicht ist aber der Zustand eines Systems vollkommen unabhängig davon, ob ein Beobachter das System wahrnimmt oder nicht, erst durch die Beobachtung des Zustandes formt sich Information, ganz im Sinne von „in-form-ieren“. Die Positionen einzelner Moleküle in einer Gaswolke haben keinerlei Bedeutung, solange es keinen Beobachter gibt, der ihnen Bedeutung verleiht.
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 2.425, Mitglied seit 17 Jahren
Hallo Stueps,

Stueps schrieb in Beitrag Nr. 1951-33:
Bist du damit einverstanden? Und hallo Claus, du auch?

Bis hierhin, ja. Die Atome haben nur wenig Möglichkeiten der Anordnung, damit sich aus ihnen ein funktionierendes Gehirn bildet. Die Möglichkeiten, mit denen sich aus der gleichen Anzahl an Atomen eine Proteinlösung herstellen lässt, sind ungleich zahlreicher - und noch zahlreicher sind die Möglichkeiten, daraus eine Gaswolke zu formen.

Wenn man nun ein beliebiges Volumen für ein Universum betrachtet, so ist die Wahrscheinlichkeit groß, dass die Teilchen des Universums dieses Volumen auch ausfüllen. Jede Ansammlung gleicher Teilchenzahl in einem geringeren Volumen (z.B. zu einem früheren Zeitpunkt des Universums) ist also unwahrscheinlicher und besitzt demnach eine niedrigere Entropie.

Früher war die Entropie des Alls somit niedriger als heute. (vgl. http://de.wikibooks.org/wiki/Entropie:_Astronomie oder z.B. auch http://www.spektrum.de/alias/zyklen-der-zeit/spekul...) - Insoweit bin ich mit Henrys Vermutung

Zitat von Henry:
...beginnend mit dem Urknall, der demzufolge in einem Zustand maximaler Entropie begonnnen haben muss...

nicht einverstanden ;-)

In den Fällen, in denen durch anziehende Kräfte in einem Teilsystem "Ordnung" geschaffen wird (wie es z.B. durch die Wirkung der Gravitation der Fall ist), spricht man von einem Phasenübergang. Du kennst das z.B. von der Kondensation heißen Dampfs zu Wasser - oder beim Auskristallisieren hochsymmetrischer Eiskristalle (z.B. Schneeflocken) aus flüssigem Wasser.

So etwas ist allerdings immer nur dann möglich, wenn Energie an ein äußeres Teilsystem abgegeben wird:
bei der Kondensation behält der kondensierende Dampf z.B. eine Temperatur von 100°C bei, obwohl von außen weiter abgekühlt wird. Gleiches gilt bei der Bildung von Eis aus flüssiger Phase: die Temperatur bleibt dann konstant bei 0°C und sinkt solange nicht darunter, bis alles Wasser zu Eis kristallisiert ist.

Obwohl also die Entropie in einem Teilsystem sinken kann, erhöht sie sich - auf das Gesamtsystem bezogen - auch hier: bspw. erhitzt sich eine durch den Einfluss der Gravitation kollabierende kalte Gaswolke, so dass Enerie in Form von Strahlung in das All abgegeben wird.
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Hallo Claus,

Claus schrieb in Beitrag Nr. 1951-35:
Wenn man nun ein beliebiges Volumen für ein Universum betrachtet, so ist die Wahrscheinlichkeit groß, dass die Teilchen des Universums dieses Volumen auch ausfüllen. Jede Ansammlung gleicher Teilchenzahl in einem geringeren Volumen (z.B. zu einem früheren Zeitpunkt des Universums) ist also unwahrscheinlicher und besitzt demnach eine niedrigere Entropie.

Oh, das wusste ich nicht. Da wär ich auch nie drauf gekommen.

Ich bin wie Henry davon ausgegangen, dass das Universum kurz nach seiner Geburt (den Urknall vorausgesetzt) sich in einem Zustand höchstmöglicher Entropie befunden hat. Auch fand ich es merkwürdig, dass die Entropie demnach in sehr kurzer Zeit schlagartig abgenommen haben muss (Phasenübergang) um danach wieder (bis heute) stetig insgesamt zuzunehmen.
Vielen Dank für diesen klärenden und für mich persönlich sehr wertvollen Beitrag!

Beste Grüße
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 21.11.2012 um 08:32 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Stueps schrieb in Beitrag Nr. 1951-36:
Hallo Claus,

Claus schrieb in Beitrag Nr. 1951-35:
Wenn man nun ein beliebiges Volumen für ein Universum betrachtet, so ist die Wahrscheinlichkeit groß, dass die Teilchen des Universums dieses Volumen auch ausfüllen. Jede Ansammlung gleicher Teilchenzahl in einem geringeren Volumen (z.B. zu einem früheren Zeitpunkt des Universums) ist also unwahrscheinlicher und besitzt demnach eine niedrigere Entropie.

Oh, das wusste ich nicht. Da wär ich auch nie drauf gekommen.

Ich bin wie Henry davon ausgegangen, dass das Universum kurz nach seiner Geburt (den Urknall vorausgesetzt) sich in einem Zustand höchstmöglicher Entropie befunden hat. Auch fand ich es merkwürdig, dass die Entropie demnach in sehr kurzer Zeit schlagartig abgenommen haben muss (Phasenübergang) um danach wieder (bis heute) stetig insgesamt zuzunehmen.
Vielen Dank für diesen klärenden und für mich persönlich sehr wertvollen Beitrag!


Beste Grüße

Stueps, Claus!

Stueps, du kannst auch weiterhin davon ausgehen, denn als das Universum begann (auch in anderen Modellen, die ohne Urknall auskommen und eine andere Art Anfang postulieren, CCC von Roger Penrose z. B.) waren ALLE Teilchen effektiv masselos, nämlich genau wegen der Symetriebrüche; ein Symetriebruch bestand ja im Auftauchen des Higgs-Feldes, dass den Teilchen erst Masse zukommen lässt. Ich schrieb, dass der Kosmos OHNE die Gravitation in einem hochentropischen Zustand begann (Zustand maximaler Entropie). Das (sichtbare) Universum muss anfangs sehr gleichförmig gewesen sein, um z. B. die relative Gleichverteilung z. B. der Temperatur heute erklären zu können. Die heute weit auseinanderliegenden Teile des (sichtbaren!) Kosmos mussten zwingend im Anfang in Verbindung gewesen sein, also "Information ausgetauscht haben", um das erklären zu können.

Kleine Ergänzung, Claus: "hochsymetrische Eiskristalle" führt auf die falsche Spur, denn sowohl flüssiges Wasser wie auch Wasserdampf sind in Sinne von Entropie symmetrischer als Eiskristalle. Wasser ist wegen seiner besonderen Eigenschaften kein glücklich gewähltes Beispiel.
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
Beitrag zuletzt bearbeitet von Henry am 21.11.2012 um 09:55 Uhr.
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.477, Mitglied seit 18 Jahren
Hallo Henry,

ich nehme deine Einwände ernst, muss jedoch gestehen, dass ich seit dem letzten Beitrag von Claus versuche, umzudenken - besser - mich reinzudenken. Ich versuche es mal mit eigenen Worten, und würde mich freuen,wenn ihr beide euch (und natürlich auch jeder andere) dazu äußert.

Ich verstehe Claus Beitrag so, dass ganz am Anfang das Universum sich in einem Zustand höchstmöglicher Ordnung befand, heißt, dass es eigentlich keine Möglichkeit gab, sich in viele verschiedene Richtungen zu entwickeln. Erst winzige, (vielleicht durch das Prinzip der Heisenbergschen Unschärferelation von vornherein angelegte) Fluktuationen in der Energiedichte führten zu ihrer anfangs minimalen Inhomogenität und Anisotropie, die sich bei Ausdehnung und Abkühlung weiter "aufschaukelten". Die Gravitation nach dem Phasenübergang tat ihr Übriges, und verstärkte die Unordnung.

Jetzt hab ich grad den Faden verloren, deshalb die Frage erst einmal: Was haltet ihr von diesen Gedanken?

Hallo Claus, kleiner Nachtrag noch:

Mir ist noch nicht ganz ersichtlich, wieso eine gleiche, homogen und isotrop verteilte Teilchenanzahl bei geringerem Volumen eine niedrigere Entropie besitzt, als bei höherem Volumen (ich würde auf den ersten Blick eher vermuten, dass die Entropie in beiden Systemen gleich hoch ist). Kannst du das vielleicht ein wenig näher erklären und ausführen, vielleicht sogar an einem anschaulichen Beispiel?
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 22.11.2012 um 08:54 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Stueps schrieb in Beitrag Nr. 1951-38:
Hallo Henry,

ich nehme deine Einwände ernst, muss jedoch gestehen, dass ich seit dem letzten Beitrag von Claus versuche, umzudenken - besser - mich reinzudenken. Ich versuche es mal mit eigenen Worten, und würde mich freuen,wenn ihr beide euch (und natürlich auch jeder andere) dazu äußert.

Ich verstehe Claus Beitrag so, dass ganz am Anfang das Universum sich in einem Zustand höchstmöglicher Ordnung befand, heißt, dass es eigentlich keine Möglichkeit gab, sich in viele verschiedene Richtungen zu entwickeln. Erst winzige, (vielleicht durch das Prinzip der Heisenbergschen Unschärferelation von vornherein angelegte) Fluktuationen in der Energiedichte führten zu ihrer anfangs minimalen Inhomogenität und Anisotropie, die sich bei Ausdehnung und Abkühlung weiter "aufschaukelten". Die Gravitation nach dem Phasenübergang tat ihr Übriges, und verstärkte die Unordnung.

Jetzt hab ich grad den Faden verloren, deshalb die Frage erst einmal: Was haltet ihr von diesen Gedanken?

Hi, Stuebs!

Das Universum befand sich am Anfang NICHT in einem Zustand höchstmöglicher Ordnung, das ist immer wieder das Missverständnis! Isotrop und homogen bedeutet höchstmögliche UNORDNUNG! Ordnung bedeutet Struktur, es gab aber keine Struktur. (Deshalb war ja Claus´ Beispiel mit dem Eis irrenführend.)

Der Zustand höchstmöglicher Unordnung bedeutet nicht, dass keine Möglichkeit gab, sich in verschiedene Richtungen zu entwickeln, sondern dass jede mögliche Entwicklung keine Unterscheidungsmöglichkeit zuließ. Als Beispiel: Ein hyphotetischer Beobachter hätte seine Position beliebig verändern können, ohne eine Änderung im Zustand des Systems feststellen zu können, das ist mit homogen und isotrop gemeint.

Insgesamt ist die Siutation schwierig zu beschreiben, weil z. B. eine Inflationsphase angenommen wird, die aber nicht unbedingt von allen akzeptiert ist. Und die
Hallo Claus, kleiner Nachtrag noch:

Zitat von Stuebs:
Mir ist noch nicht ganz ersichtlich, wieso eine gleiche, homogen und isotrop verteilte Teilchenanzahl bei geringerem Volumen eine niedrigere Entropie besitzt, als bei höherem Volumen (ich würde auf den ersten Blick eher vermuten, dass die Entropie in beiden Systemen gleich hoch ist). Kannst du das vielleicht ein wenig näher erklären und ausführen, vielleicht sogar an einem anschaulichen Beispiel?

Das kann ich ehrlich gesagt auch nicht nachvollziehen. So weit ich das verstehe, ist allein der Zustand der Teilchen entscheidend und nicht das Volumen.
[/quote]
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 2.425, Mitglied seit 17 Jahren
Hallo Stueps,

Stueps schrieb in Beitrag Nr. 1951-38:
Mir ist noch nicht ganz ersichtlich, wieso eine gleiche, homogen und isotrop verteilte Teilchenanzahl bei geringerem Volumen eine niedrigere Entropie besitzt, als bei höherem Volumen (ich würde auf den ersten Blick eher vermuten, dass die Entropie in beiden Systemen gleich hoch ist). Kannst du das vielleicht ein wenig näher erklären und ausführen, vielleicht sogar an einem anschaulichen Beispiel?

Hallo Stueps,

stelle dir ein ideales Gas in einem Volumen von 1 ml (Würfel von 1 cm Kantenlänge) vor. Drum herum baust du einen größeren Vakuum-Würfel von 10 cm Kantenlänge (Volumen 1 Liter). Nun stichst du den kleinen Würfel mit einer Nadel an, was passiert? Das Gas entweicht und findet sich nach kurzer Zeit im gesamten Raum des größeren Würfels gleichverteilt wieder. Warum? Weil es im größeren Würfel viel mehr Möglichkeiten für den Aufenthalt der Gasmoleküle gibt. Dementsprechend ist die Gleichverteilung im großen Würfel wahrscheinlicher. Und dementsprechend hat die Entropie nach der Verteilung der Gasmoleküle im großen Würfel zugenommen. Hier das Ganze, falls jemand es mathematisch nachvollziehen möchte, nochmal etwas weniger anschaulich:

Eine Entropieänderung ist thermodynamisch definiert als dS = dQ/T (also die Änderung der im System vorhandenen Wärmemenge bezogen auf die im System herrschende Temperatur). Wenn man (anschaulich eine gespannte Feder oder hier) ein komprimiertes Gas ausdehnt, so wird dabei Arbeit geleistet (die Gasdruckfeder deines Bürosessels transportiert dich mit deinen 80(?) kg z.B. nach oben). Wenn das System nach außen isoliert ist, wird diese Energie (auch Druck/Volumenarbeit genannt) der Wärmemenge des Gases je nach Richtung der geleisteten Arbeit entweder entnommen oder zugeführt. Wegen der Energieerhaltung gilt hierbei dQ = -dW. Mit dQ = TdS und dW = -PdV ist die Entropieänderung also durch die Druck/Volumenarbeit bezogen auf die Temperatur des Systems gegeben: dS = PdV/T

Nun kennt man vielleicht noch das ideale Gasgesetz aus der Schule, welches ja lautet: P*V = n*R*T. Um die Entropieänderung bei einer Volumenvergrößerung auszurechnen, können wir mit der idealen Gasgleichung den Druck in der Entropieformel ersetzen: mit P = n*R*T/V gilt also:

dS = n*R*dV/V nach Integration erhält man:

Entropiedifferenz = S(Endzustand) - S(Ausgangszustand) = n*R * ln (V(Endzustand)/V(Ausgangszustand)), d.h.

Bei einer Expansion eines idealen Gases erhöht sich die Entropie proportional zum natürlichen Logarithmus des Verhältnisses von Endvolumen zum Ausgangsvolumen.
[Gäste dürfen nur lesen]
In diesem Forum dürfen nur Mitglieder schreiben. Hier kannst du dich anmelden
Zum Seitenanfang Nach oben