Willkommen in Manus Zeitforum
InformationenAnmelden Registrieren

Erweiterte Suche

Thermodynamische Entropie = Komplexität von Systemzustand

Thema erstellt von Grtgrt 
Beiträge: 1.566, Mitglied seit 11 Jahren
 

Was genau ist Entropie?


Ist S ein in sich abgeschlossenes System und Z(t,S) sein Zustand zum Zeitpunkt t, so versteht man unter der Entropie E(t,S) von S zum Zeitpunkt t die Länge der kürzesten Bitfolge, über die sich der Zustand Z(t,S) komplett beschreiben lässt.


Entropie ist ein Maß für die Komplexität von Systemzuständen.

Je ungeordneter ein Systemzustand, desto höher seine Entropie.


 
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Etwas vollständigere Aussagen könnten helfen, sonst könnte man auch auf wikkipedia nachsehen.
Es entwickeln sich neue Erscheinungsformen, die in neue Strukturen eingebunden werden abgelenkt von Kräften resultierend aus den Bewegungen.
(Kreisbahn und Räumliche Einheiten)
Komplex ist das System weil an der ganzen Strecke der Photonenbewegung vielerlei einflüsse sind, die in jede Richtung ablenken können.
Dabei ist Zufall wann die Ablenkung geschieht und in welche Richtung.
Außerdem ist das Universum voller Impulse und davor kann man auch nichts bewahren.
\
Interessant wird es, wenn du fragst was ablenkt und wie diese Kraftquelle entstanden ist.
Da wollen sich die Wenigsten festlegen und erzählen etwas von Raumkrümmung.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
Beitrag zuletzt bearbeitet von Wrentzsch am 10.11.2012 um 08:01 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Ein Quantenfeld besteht aus sich gegenseitig abstoßenden Quanten und nach Abstoßung entsteht im Zentrum dieses Kugelförmigen Feldes ein Ort ohne Quanten das Quantenvakuum, das die Quanten wieder anzieht.
Wann läuft das Photon vorbei- bei Ausdehnung oder Zusammenziehen.
Demzufolge ablenkung der Linearbewegung weg oder hin.
Wenn überwiegend einseitig vorbeilaufende Photonen,dann kann das Quantenfeld auch in Rotation versetzt werden und hat ein stabiles Quantenvakuum.
Ansonsten Quantenvakuum abhängig von Anzahl der Quanteneineiten im Feld stark, die Gleichzeitig expandieren oder sich zusammenziehen.
In so einem Quantenfeld können auch andere Quantenfelder(mit eigenem Qv) oder Materie eingelegt sein, die sich mit dem Schwingen des Feldes mit bewegen.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Es ist anzunehmen das auch Materie mit Hilfe eines solchen Quantenvakuums zusammengehalten wird, ebenso wie Protonen und Neutronen.
Damit wären Materieeinheiten alte Quantenfelder.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Wrentzsch schrieb in Beitrag Nr. 1951-2:
Etwas vollständigere Aussagen könnten helfen, sonst könnte man auch auf wikipedia nachsehen.

Hi Wrentzsch,

du hättest recht, wenn die Definition in Wikipedia ebenso knapp, klar und genau wäre wie meine.

Gruß,
grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 2.420, Mitglied seit 17 Jahren
Grtgrt schrieb in Beitrag Nr. 1951-1:
Entropie ist ein Maß für die Komplexität von Systemzuständen.

Hallo Grtgrt,

hast du den Begriff "Komplexität" definiert?
Hat ein hoch komplexes System (z.B. ein Lebewesen oder ein Gehirn) demnachnach eine hohe Entropie?

M.E. benötigt man zunächst mindestens zwei Systeme mit verschiedenen Unterscheidungskriterien: z.B. einen Mikrozustand und einen Makrozustand.
In System 1 unterscheidbare Zuststände (Mikrozustände) müssen im System 2 (Makrozustand) ununterscheidbar sein.

Im genannten Beispiel zweier verschiedener Systeme können dieselben Makrozustände somit durch verschiedene Mikrozustände realisiert werden.
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Claus schrieb in Beitrag Nr. 1951-6:
 
hast du den Begriff "Komplexität" definiert?
Hat ein hoch komplexes System (z.B. ein Lebewesen oder ein Gehirn) demnach hohe Entropie?


Hi Claus,

unter "Komplexität" verstehe ich, was man im umgangsprachlichen Sinne (ohne eigene Definition also) darunter versteht.

Wenn ich dennoch eine Definition geben muss, so sage ich:


Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.



Begründung: Die Komplexität eines Systems steht und fällt mit seiner Fähigkeit, Information festzuhalten. Es macht daher Sinn, zu definieren:


Unter der Komplexität eines in sich abgeschlossenen Systems versteht man seine Kapazität als Informationsspeicher.



Über die Schwierigkeit, sie zu quantizifieren, spricht Beitrag 1951-22.


Claus schrieb in Beitrag Nr. 1951-6:
 
M.E. benötigt man zunächst mindestens zwei Systeme mit verschiedenen Unterscheidungskriterien: z.B. einen Mikrozustand und einen Makrozustand.
In System 1 unterscheidbare Zuststände (Mikrozustände) müssen im System 2 (Makrozustand) ununterscheidbar sein.

Im genannten Beispiel zweier verschiedener Systeme können dieselben Makrozustände somit durch verschiedene Mikrozustände realisiert werden.
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.

Was du hier sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Gruß,
grtgrt
 
Beitrag zuletzt bearbeitet von Grtgrt am 16.11.2012 um 11:56 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Ein Mensch ist eine Grundeinheit(Mikro) und Viele bilden ein Volk(Makro). Dazwischen gibt es Familien.
Die Einzelperson handelt anders als eine Familie. usw
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Wenn eine Einzelperson im Lotto gewinnt ist es Viel.
Wenn eine Familie ist es Schön.
Wenn einer aus einem Volk unmerklich.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Der Mensch ist zu klein, um das Universum zu zerstören aber kann seinen eigenen Lebenseraum zerstören.
Somit ist der Mensch ansich keine Gefahr außer für sich selbst als Gruppe oder Einzelperson.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Nehmen wir an eine kleine Gruppe wird benachteiligt, für das Ganze bringt es keinen Vorteil.
Aber wenn die Unterschicht dagegen hält kommt es zum Bürgerkrieg.
Die Oberschicht schaut gelassen dem Schauspiel zu, denn bei der Unterhaltung gibt s nur Opfer in der Mittel und Unterschicht.
Teile und herrsche!
Die Mittelschicht wird auch betrogen aber nicht soviel und lässt sich benutzen, damit der große Schaden Andere trifft.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
Beitrag zuletzt bearbeitet von Wrentzsch am 12.11.2012 um 23:06 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.420, Mitglied seit 17 Jahren
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.


Ich fürchte, dem kann ich nicht folgen.
Du hattest doch versucht, Entropie über den Begriff "Komplexität" zu definieren.
Wenn du jetzt "Komplexität" über den Begriff "Entropie" definierst, drehst du dich im Kreis.
Nochmals:
Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?

Zitat von Grtgrt:
Was du hier [Anm.: d.h. Claus in Beitrag Nr. 1951-6] sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Bilde mittels "System 1" systematisch 6-stellige Zahlen, indem du z.B. 6 mal würfelst. Die Wahrscheinlichkeit, eine 111111 zu würfeln, ist dieselbe wie diejenige, eine 355621 (in dieser Reihenfolge) zu werfen.
Du kannst nun ein übergeordnetes Ordnungssystem ("System 2") festlegen, in welchem du z.B. 111111 oder 555555 als ein 'Sextett' bezeichnest. Die Ziffernfolge z.B. 55 oder 33 innerhalb einer beliebigen sechstelligen Zahl bezeichne als Duplett.

Mit diesem Ordnungssystem ist nun die Wahrscheinlichkeit ein Sextett (wozu auch 111111 gehört) zu würfeln, geringer, als diejenige ein Duplett (wozu auch 355621 gehört) zu würfeln, weil es nur 6 von 6^6 Möglichkeiten für ein Sextett gibt, während es 30*6^4 von 6^6 = 5/6 (ob´s stimmt, wirst du besser wissen - jedenfalls mehr) Möglichkeiten gibt, ein Duplett zu erhalten.

Die Entropie eines Dupletts ist mit S = k*log(W) somit höher als die eines Sextetts.
Beitrag zuletzt bearbeitet von Claus am 13.11.2012 um 00:46 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Das ist schlicht nicht richtig. Ternmodynamisch betrachtet bedeutet Anwachsen der Entropie, dass die Wahrscheinlichkeit für die Realisation für EINEN Zustand von allen möglichen Zuständen abnimmt. Das heißt, dass die Wahrscheinlichkeit für einen Zustand mit hohem Informationsgrad abnimmt, weil mit der Zunahme der Entropie die Anzahl der Zustände zunimmt, die sich in ihrem Informationsgrad nicht unterscheiden. Ist das System im Gleichgewicht, haben alle Zustände einen annähernd gleichen Informationsgrad, hohe Entropie - null Information.

Ich muss mich nach kurzem Nachdenken korrigieren, je komplexer ein System, des mehr Entropie ist möglich. Aber die Komplexität hat nicht notwendig mit dem Informationsgehalt zu tun. Außerdem beziehe ich mich auf das komplexeste System überhaupt, den Kosmos.

Noch eine Ergänzung, weil das häufig missverstanden wird: Ein System im Gleichgewicht ist ein System großer Unordnung! Z. B. ist eine Gaswolke im All dem Gleichgewicht näher als ein Stern, der aus einer Gaswolke entstand. Die Gravitation sorgte für einen Zustand niedrigerer Entropie an dieser Stellen (aber man muss die Gesamtentropie betrachten, die hat trotzdem zugenommen).
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
Beitrag zuletzt bearbeitet von Henry am 13.11.2012 um 11:45 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Henry schrieb in Beitrag Nr. 1951-13:
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Ich muss mich nach kurzem Nachdenken korrigieren, je komplexer ein System, des mehr Entropie ist möglich.

Hi Henry,

damit sagst du doch eigentlich dasselbe wie ich. Oder?

Gruß,
grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
Claus schrieb in Beitrag Nr. 1951-12:
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.


Ich fürchte, dem kann ich nicht folgen.
Du hattest doch versucht, Entropie über den Begriff "Komplexität" zu definieren.
Wenn du jetzt "Komplexität" über den Begriff "Entropie" definierst, drehst du dich im Kreis.

Hi Claus,

ich will nicht einen Begriff mit Hilfe des anderen definieren, sondern will einfach nur sagen, dass beide Begriffe dasselbe meinen (steht ja schon so im Titel diesen Themas).

Du wirst mich jetzt fragen: Ja warum gibt es dann zwei Worte? Nun, das liegt einfach nur am Sprachgebrauch, der sich da eingebürgert hat. Von "Entropie" wurde zunächst nur in der Theorie der Gase gesprochen, in der Thermodynamik also.

Heute muss man das so sehen:
  • Der Begriff "Komplexität" ist der umgangssprachliche. Er ist auf alle Systeme anwendbar.
  • Wo man statt seiner den Begriff "Entropie" verwendet, bedeutet das, dass man damit implizit mit sagt, dass man von einem System spricht, in dem alle gegen einander beweglichen Teile denselben oder fast denselben WDDF (Well Defined Degree of Freedom) haben — eben ganz so, wie das typischerweise in einer Gaswolke der Fall ist.

Letzteres gerät heute allzu oft in Vergessenheit, und dabei erklärt sich doch nur so, dass z.B. ein Ei leicht vom Tisch fällt und am Boden zerschellt, das Umgekehrte aber gar nicht vorkommt: Kein zerborstenes Ei setzt sich rein nur vom Zufall gesteuert wieder schön zusammen um sich dann sogar noch auf den Tisch hinauf an die alte Stelle zu begeben.

Siehe auch mein nicht ganz so burschikos gewähltes Beispiel in Beitrag 1948-46.


Claus schrieb in Beitrag Nr. 1951-12:
 
Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?

Das würde ich eher verneinen, denn die Atome unseres Gehirns sind in ihrer Bewegungsfreiheit mit Sicherheit weit weniger frei als die in einer Flüssigkeit, und sei es denn ein Proteindrink.

Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung aber gar nichts aus (man vergleiche die Diskussion in Beitrag 1951-22).


Beste Grüße,
grtgrt
 
Beitrag zuletzt bearbeitet von Grtgrt am 16.11.2012 um 09:37 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 1.128, Mitglied seit 13 Jahren
Das große Ganze ist schwerer zu ändern als Kleinere Einheiten.
Dabei nur schwerer und nicht unmöglich zu ändern.
Übersehen wird die dunkle Materie und der spin.
Signatur:
1=(h/s³)*(h/t) und 1/cc>0
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.476, Mitglied seit 18 Jahren
Grtgrt schrieb in Beitrag Nr. 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Hallo Gebhard, nee, oder?
Da habe ich ein genau entgegengesetztes Verständnis, welches ich gern immer anhand unseres menschlichen Hirns erläutere:

Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

(Natürlich kann man das Leben an sich in seiner Vielfalt als noch komplexer auffassen, aber das tut für meine Erläuterung erst mal nix zur Sache.)

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
 
Claus schrieb in Beitrag Nr. 1951-12:
 
Zitat von Grtgrt:
Was du hier [Anm.: d.h. Claus in Beitrag Nr. 1951-6] sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Bilde mittels "System 1" systematisch 6-stellige Zahlen, indem du z.B. 6 mal würfelst. Die Wahrscheinlichkeit, eine 111111 zu würfeln, ist dieselbe wie diejenige, eine 355621 (in dieser Reihenfolge) zu werfen.
Du kannst nun ein übergeordnetes Ordnungssystem ("System 2") festlegen, in welchem du z.B. 111111 oder 555555 als ein 'Sextett' bezeichnest. Die Ziffernfolge z.B. 55 oder 33 innerhalb einer beliebigen sechstelligen Zahl bezeichne als Duplett.

Mit diesem Ordnungssystem ist nun die Wahrscheinlichkeit ein Sextett (wozu auch 111111 gehört) zu würfeln, geringer, als diejenige ein Duplett (wozu auch 355621 gehört) zu würfeln, weil es nur 6 von 6^6 Möglichkeiten für ein Sextett gibt, während es 30*6^4 von 6^6 = 5/6 (ob´s stimmt, wirst du besser wissen - jedenfalls mehr) Möglichkeiten gibt, ein Duplett zu erhalten.

Die Entropie eines Dupletts ist mit S = k*log(W) somit höher als die eines Sextetts.


Claus,

mir scheint, du willst mich aufs Glatteis führen!

Oder willst du einfach nur sehen, ob ich den Unterschied zwischen bedingter und nicht-bedingter Wahrscheinlichkeit kenne?

Sei's drum. Meine Defininition sagen, dass für jeden Systemzustand Z gilt:


Entropie
= Komplexität
= nachrichtentechnischer Informationsgehalt
= kleinste Zahl binärer Entscheidungen, die ausreichen, den Zustand Z komplett zu beschreiben



Wann aber ist Z als Sextett oder als Duplett komplett beschrieben?

Die Antwort auf diese Frage ist ganz klar davon abhängig, ob ich ein konkretes Duplett (bzw. Sextett) als Duplett (bzw. Sextett) von anderen gleicher Art unterscheiden soll, oder ob ich einen Zustand dieser Art von irgendeiner 6-stelligen Folge der 6 Ziffern 1 bis 6 zu unterscheiden habe.

Für welchen Fall also willst du, dass ich dir den nachrichtentechnischen Informationsgehalt berechne?

  • Ein Sextett von anderen Sextetts zu unterscheiden, erfordert 3 binäre Entscheidungen.
  • Ein Duplett von anderen 6-stelligen Dupletten zu unterscheiden erfordert mindestens 35 binäre Entscheidungen erfordern (kann aber – je nach Exemplar – auch 3 mal so viel erfordern [ wir betrachten Folgen, nicht Mengen, gewürfelter Ergebnisse ]).
  • Ein Sextett oder ein Duplett als Element des kartesischen Produktes { 1,2,3,4,5,6 }6 zu identifizieren, erfordert stets 36 binäre Entscheidungen.


Nun zur spannenden Frage, warum das so ist: Ganz einfach:

  • Im ersten Fall hat das betrachtete System nur 6 Elemente (jedes in stark redundanter Codierung),
  • im zweiten Fall hat es 65 (Redundanz in ihrer Codierung haben nur jene, in denen erst die beiden letzten Ziffern gleich sind)
  • und im letzten Fall hat das System sogar 66 Elemente (alle redundanzfrei codiert).

Dieses Beispiel zeigt, so finde ich, recht deutlich, wie sich der konkret zugelassene WDDF auf die Komplexität des Systems auswirkt: Mehr Freiheit führt zu mehr durch das System darstellbaren Nachrichten.

Man erkennt auch, dass nicht die Form der Codierung eines Zustandes, sondern nur der Zustand selbst (als Abstraktum) zur Zahl der durch das System kodierbaren Nachrichten beiträgt.


Gruß, grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 1.566, Mitglied seit 11 Jahren
Stueps schrieb in Beitrag Nr. 1951-17:
 
Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?

Hi Stueps,

du hast schon recht, aber du sprichst nicht nur über aus Unordnung kommendem Informationsgehalt (dem nachrichtentechnisch kodierten, den wir Entropie nennen), sondern auch über den aus Ordnung resultierenden (dem kybernetisch kodierten).

Siehe Beitrag 1948-1.


Gruß, grtgrt
 
[Gäste dürfen nur lesen]
Beiträge: 2.420, Mitglied seit 17 Jahren
Hallo Grtgrt,

Stueps sprach nicht von Information sondern von Komplexität.

Du hattest in Beitrag Nr. 1951-7 vertreten:
Zitat von Grtgrt:
Ein System S1 heißt komplexer als ein System S2, wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Dabei hattest du in Beitrag Nr. 1951-7 geschrieben
Zitat von Grtgrt:
unter "Komplexität" verstehe ich, was man im umgangsprachlichen Sinne (ohne eigene Definition also) darunter versteht.

Wenn du nun in Beitrag Nr. 1951-15 auf meine Frage "Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?" antwortest
Zitat von Grtgrt:
Das würde ich eher verneinen, denn die Atome unseres Gehirns sind in ihrer Bewegungsfreiheit mit Sicherheit weit weniger frei als die in einer Flüssigkeit, und sei es denn ein Proteindrink.

so sagst du damit doch, dass ein Proteindrink (im umgangssprachlichen Sinne) komplexer ist als ein Gehirn...
...was ich dann doch gern in Frage stellen möchte.
[Gäste dürfen nur lesen]
In diesem Forum dürfen nur Mitglieder schreiben. Hier kannst du dich anmelden
Zum Seitenanfang Nach oben