Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-41
18.04.2003 10:08
|
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-42
05.06.2005 11:35
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-43
25.01.2007 12:23
|
Beiträge: 1.177, Mitglied seit 19 Jahren |
Beitrag Nr. 122-44
25.01.2007 14:13
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-45
25.01.2007 17:39
|
Andre schrieb in Beitrag Nr. 122-44:Der Informationsbegriff von Shannan ist doch einfach nur auf die Syntax bezogen? Das andere wäre dann semantische und pragmatische Information.
Letztlich kann man schon so etwas wie eine "Informationskapazität" eines Systems definieren: Nämlich: Wie viel Information kann ich maximal über das System selbst erhalten? Beispielsweise hat ein klassisches Bit (groß B) die Informationskapazität von einem bit (klein b), denn egal wie viel man mir darüber erzählt, ich werde niemals mehr als ein bit an Information darüber in Erfahrung bringen, denn dann kenne ich den Zustand des Bits, und niemand kann mir etwas neues darüber berichten. Ich würde aber nicht (mehr) sagen, daß das Bit diese Information enthält. Schon alleine deshalb nicht, weil Information im Allgemeinen nicht additiv ist (was ein Begriff des "enthaltens" letztlich implizieren würde). Insofern ist Information in der Tat kontextabhängig: Wenn ich z.B. von einem klassischen Bit in einem mir völlig unbekannten Zustand erfahre, daß es denselben Wert hat wie ein anderes Bit, dessen Wert ich aber ebenfalls nicht kenne, dann habe ich über dieses Bit dennoch keinerlei Information erhalten (ich kann immer noch nichts darüber sagen, welchen Wert es hat; nur eben, daß das andere Bit denselben unbekannten Wert hat). Kenne ich allerdings den Wert des anderen Bits, dann liefert mir dieselbe Nachricht in der Tat die Information über den Zustand des fraglichen Bits. Welche Information mir die Nachricht über den Zustand des fraglichen Bits gebracht hat, hängt also vom Kontext ab: Davon, ob ich über das andere Bit bescheid weiß oder nicht. Über das System von beiden Bits zusammen bekomme ich übrigens in beiden Fällen eine Information von einem bit.Zitat:Der letzte Abschnitt ist ganz interessant, von dieser Seite habe ich den Begriff von Shannon noch nicht betrachtet.
Zitat: "Der Shannonsche Informationsbegriff ist nur dann sinnvoll, wenn man zwei Systeme hat, dann ist die Information ein Maß dafür, was man aus dem einen System über das andere System erfahren kann. Man kann also den Shannonschen Informationsbegriff grob charakterisieren als "Information über"."
Ja, dass ist auch der Grund warum ich die Gedanken von Zara.t etwas unverständlich finde. Information ist Kontextabhängig?
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-46
25.01.2007 18:12
|
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-47
25.01.2007 18:26
|
Beiträge: 1.177, Mitglied seit 19 Jahren |
Beitrag Nr. 122-48
25.01.2007 18:36
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-49
25.01.2007 20:50
|
Beiträge: 94, Mitglied seit 18 Jahren |
Beitrag Nr. 122-50
26.01.2007 10:09
|
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-51
26.01.2007 11:02
|
Beiträge: 1.177, Mitglied seit 19 Jahren |
Beitrag Nr. 122-52
26.01.2007 14:50
|
Zitat:Information in diesem Sinne ist PRIMA MATERIA.
Zitat:Somit ist eine epistemische Änderung -das Wissen eines Beobachters- gleichzeitig eine ontische Änderung.
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-53
26.01.2007 17:42
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-54
27.01.2007 00:25
|
Zara.t. schrieb in Beitrag Nr. 122-53:INFORMATIONSENTROPIE
Wir betrachten zwei identisch gezinkte Münzen.
Für beide Münzen gelte:
Kopf repräsentiere 0; mit der Wurf-Wahrscheinlichkeit p = 1/3
Zahl repräsentiere 1; mit der Wurf-wahrscheinlichkeit q =2/3
und wie erforderlich: p+q = 1
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-55
27.01.2007 10:09
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-56
27.01.2007 13:40
|
Beiträge: 94, Mitglied seit 18 Jahren |
Beitrag Nr. 122-57
28.01.2007 12:40
|
Beiträge: 1.851, Mitglied seit 19 Jahren |
Beitrag Nr. 122-58
28.01.2007 12:54
|
Beiträge: 726, Mitglied seit 19 Jahren |
Beitrag Nr. 122-59
28.01.2007 13:50
|
Kaimangadil schrieb in Beitrag Nr. 122-57:Hallo zusammen!
Was mir bei den Gedankenexperimenten auffällt ist, dass schon Informationen vorhanden sein müssen um weitere Informationen zu erhalten. Sie befassen sich gänzlich mit Verhalten (wenn ich das mal so sagen darf), also mit der Erwartung, wie sich mir ein Ding (also ein als konsistent angenommener Unterschied) zukünftig präsentiert.
Gar nicht. Ein "Ding" ist für uns nichts weiter als eine Summe von Eigenschaften. Und Eigenschaften beziehen sich letztlich auf Verhalten.Zitat:Ich habe die Information, das ein Münze Kopf oder Zahl zeigen, oder dass ein Würfel 6 Zahlen darstellen kann.
Was mich nun interessiert, wie konstruieren wir aus Informationen neu Informatione, die eben nicht nur ein Verhalten berechnen, sondern ein Ding.
Nie. Die Ergebnisse sagen Dir nur, daß was immer dahiner steckt, die Ergebnisse 1 bis 6 liefert, und je länger die Folge ist, mit desto höherer Wahrscheinlichkeit kannst Du ausschließen, daß es in dieser Folge noch weitere mögliche Ergebnisse gibt.Zitat:Wenn ich die Ergebnisreihe 1,3,2,6,4,1,1,2,5,3,2,4,3... sehe, wann kann ich auf einen Würfel schließen, wann bin ich mir gewiss, das es kein Oktaeder ist?
Beiträge: 331, Mitglied seit 19 Jahren |
Beitrag Nr. 122-60
28.01.2007 15:17
|
Rechtlich gesehen ist das Einholen einer Einverständnis in diesem speziellen Fall eigentlich nicht erforderlich. Da der Bundesgerichtshof jedoch Abmahnungen als "allgemeines Lebensrisiko" bezeichnet und die Rechtsverteidigung selbst bei unberechtigten Abmahnungen immer vom Abgemahnten zu tragen ist (nein, das ist kein schlechter Scherz) und da Abmahnungen nicht selten in Unkenntnis der genauen Sachlage erfolgen, möchte ich mit diesem Hinweis dieses "allgemeine Lebensrisiko" ein Stück weit reduzieren.