Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-1
14.07.2005 02:54
|
Beiträge: 27, Mitglied seit 17 Jahren |
Beitrag Nr. 692-2
17.07.2005 18:40
|
Beiträge: 27, Mitglied seit 17 Jahren |
Beitrag Nr. 692-3
17.07.2005 20:19
|
Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-4
18.07.2005 00:33
|
Das ist natürlich richtig. Damit hast du mich auch zum Nachdenken gebracht. Ich könnte die Zahl 11111111 (=255) zwar beispielsweise auch mit nur 5 Bits beschreiben (einer 4-Bit und einer 1-Bit-Zahl), nämlich dass 1000 (=8) mal die 1 (1) folgt. Das ginge in dieser Form aber natürlich nur mit einer sehr begrenzten Anzahl an Bit-Kombinationen und wäre deshalb sinnlos.Schweiza schrieb in Beitrag Nr. 692-3:Man kann Daten nicht (nahezu) beliebig komprimieren. Man kann 256 verschiedene Zustände nicht in weniger als 8 Bit darstellen. Geht nicht.
Das ist meines Erachtens abhängig vom Algorithmus und der Datenstruktur, die komprimiert werden soll. Ich habe mal einen Algorithmus zum Komprimieren eines bestimmten Bildes geschrieben (ach ja, das waren noch die guten 8-Bit-Zeiten :-)Schweiza schrieb in Beitrag Nr. 692-3:Kompression ist nur möglich, wenn es Zustände gibt, die nicht vorkommen können.
Ich sehe nur 8 Zustände. Man kann diese mit insgesamt 3 Bits beschreiben: 000, 001, 010, 011, 100, 101, 110 und 111.Schweiza schrieb in Beitrag Nr. 692-3:Eine Ampel hat 3 Leuchten mit jeweils 2 Zuständen: An/Aus
Dies ergäbe die Möglichkeit für 9 Zustände.
Genau. Diesen Gedanken hatte ich auch.Schweiza schrieb in Beitrag Nr. 692-3:Bezüglich deiner Datei:
Das sie nach dem Zippen größer wird liegt wohl hauptsächlich daran dass diverse Informationen durchs Zippen hinzugefügt werden müssen:
-Dateitabelle
-Dateinamen
-Hashwerte der Dateien
-Verwendetes Komprimierungsverfahren
etc...
Ja wo sind denn die Null-Bytes!? Schön, dass ihr euch die Mühe gemacht habt, euch mit meiner Datei zu beschäftigen. Mir fiel gar nicht auf, dass die Null-Bytes fehlten und die Datenstruktur nicht der entsprach, die ich erwartete. Ich hab einen kleinen Programmfehler entdeckt und jetzt die Datei mit der korrekten Version (jetzt aber 1,33 MB) ersetzt, bei der alle Bytes gleichmäßig verteilt (auch Nullbytes) exakt 5461 mal vorkommen. Beim Komprimieren mit ZIP und RAR zeigten sich wie zu erwarten die selben Effekte (nach Kompression Zuwachs).Schweiza schrieb in Beitrag Nr. 692-3:Rein theoretisch könnte man die Datei (eventuell) durchaus noch komprimieren, denn Sie enthält nicht alle Bytes (Null-Byte nicht vorhanden) und die Bytes sind auch nicht alle in der Anzahl gleich.
Stimmt. Echt schlau :-)Schweiza schrieb in Beitrag Nr. 692-3:Ich gehe mal davon aus, du hast diese Datei per Pseudozufallsgenerator erzeugt, in diesem Falle komprimiere sie indem du das Programm das diese Datei erzeugt hat kompilierst und zipst.
Genau. Und damit bestätigt sich meine Theorie, die meine Träume in Schaum auflösen lässt...Schweiza schrieb in Beitrag Nr. 692-3:Noch etwas: Je mehr man eine Datei komprimiert, desto mehr nähert sie sich dem Zufall.
Du hast mir wirklich sehr geholfen. Dafür ein richtig dickes Dankeschön!Schweiza schrieb in Beitrag Nr. 692-3:Hoffe es ist dennoch angekommen was ich zum Ausdruck bringen möchte.
Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-6
18.07.2005 10:19
|
Ich glaube, da hast du einen ganz wichtigen Punkt angesprochen. Wie in den Gesetzen der Thermodynamik erwähnt wird, gibt es weitaus mehr ungeordnete Zustände als geordnete. Und wenn meine Grundsatzaussage zur Komprimierung von Daten richtig ist, lassen sich nur Daten komprimieren, die bestimmte Regelmäßigkeiten oder ein erkennbares System aufweisen.Kampf-Sushi schrieb in Beitrag Nr. 692-5:... Das bringt aber trotzdem nicht viel, statistisch gesehen sind einfach zu viele Dateien nicht komprimierbar (Größe +1) im Vergleich zu den komprimierbaren Dateien (Größe -1 bis -2)
Kampf-Sushi schrieb in Beitrag Nr. 692-5:Ich glaube nicht dass du dadurch eine Datenstruktur erhälst die sich leichter komprimieren lässt. Vergiss außerdem nicht, dass du jeden Rechenvorgang den du vornimmst auch speichern musst, damit das Programm weiss was es rückgängig machen kann.
Stimmt.Zitat:Manu schrieb in Beitrag Nr. 692-4:
Aber Bilder haben die Eigenschaft etwas abzubilden.
Damit will ich sagen: Enthält das Bild nur Zufälliges Rauschen, und du komprimierst die Daten, steigt das Datenvolumen statt zu sinken.
Also da wüsste ich vielleicht eine andere Methode, die aber nicht in jedem Fall ökonomischer sein muss, aber kann. Du definierst eine Bitfolge, die in der gesamten zu komprimierenden Datenstruktur nicht enthalten ist (sollte mit 12 bis max. 20 Bits für fast jede beliebige Datenmenge realisierbar sein), die als Einleitung für komprimierte bzw. bei wiederholtem Vorkommen als Einleitung für unkomprimierte Daten dient.Zitat:Mindestens um 1 Bit, (komprimiert oder nicht).
Wenn du dieses Bit nicht verwenden wuerdest wär das weitaus unökonomischer, da jeder Pixel ein Präfix benötigen würde.
Die komprimierten Daten nähmen mehr Platz in Anspruch, da es eben weit mehr ungeordnete Zustände gibt als geordnete. Zum Glück weisen unkomprimierte Daten aber meistens irgendwelche Strukturen auf, weil diese in der Natur eine Rolle spielen.Kampf-Sushi schrieb in Beitrag Nr. 692-5:So, und jetzt eine Theorie die mir gerade eingefallen ist:
Angenommen du berechnest alle Bildmöglichkeiten die es geben kann.
Alle komprimieren.
Die Summe des komprimierten Datenvolumens mit der Summe des unkomprimierten Datenvolumens vergleichen.
Meiner Theorie nach müssten die komprimierten Daten mindestens zu groß sein wie die unkomprimierten.
Der Gedanke inspiriert zu neuen Taten :)Kampf-Sushi schrieb in Beitrag Nr. 692-5:Wenn du es schaffst einen Algorithmus zu schreiben der den benötigten Algorithmus findet, ist doch alles in Butter :)
Mit einer kurzen Formel wäre das nur leider nicht realisierbar. Sicher gäbe es Formeln, die dann aber sicherlich einige MB's in Anspruch nähmen. Und das ließe sich mit einem guten Komprimierungsprogramm ebenfalls realisieren. Es gibt schon geniale, wenig bekannte Programme. Ich sah einmal begeistert zu, wie ein in der DOS-Box laufendes Dekomprimierungsprogramm (auf meinem Pentium 4 mit 3,2 Ghz) 90 MB Mediendaten in knapp einer viertel Stunde in ungefähr 800 MB umwandelte.Kampf-Sushi schrieb in Beitrag Nr. 692-5:Stell dir vor du findest eine kurze Formel mit der du eine 100MB große Zip mit einer Applikation die du verkaufen willst berechnen kannst.
Hätte schon was cooles: 1 MB Download, 100 MB auf der Platte ;)
Beiträge: 726, Mitglied seit 17 Jahren |
Beitrag Nr. 692-7
18.07.2005 14:49
|
Beiträge: 726, Mitglied seit 17 Jahren |
Beitrag Nr. 692-8
18.07.2005 15:01
|
Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-10
19.07.2005 14:27
|
Beiträge: 13, Mitglied seit 17 Jahren |
Beitrag Nr. 692-11
03.08.2005 13:12
|
Beiträge: 51, Mitglied seit 17 Jahren |
Beitrag Nr. 692-12
29.08.2005 17:41
|
Beiträge: 726, Mitglied seit 17 Jahren |
Beitrag Nr. 692-13
31.08.2005 16:31
|
BeispielDessen Binärcode lautet nun bei Standard-ASCII-Dateien:
0100001001100101011010010111001101110000011010010110010101101100Deine Codierung macht daraus
10021211122113031300122112111230Du siehst, während die ursprüngliche Textdatei 8 Zeichen hatte, hat die "komprimierte" Textdatei 32 Zeichen.
Beiträge: 2, Mitglied seit 17 Jahren |
Beitrag Nr. 692-14
22.09.2005 00:56
|
Beiträge: 27, Mitglied seit 17 Jahren |
Beitrag Nr. 692-15
22.09.2005 19:44
|
Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-16
22.09.2005 20:12
|
Beiträge: 2, Mitglied seit 17 Jahren |
Beitrag Nr. 692-17
23.09.2005 18:28
|
Beiträge: 51, Mitglied seit 17 Jahren |
Beitrag Nr. 692-18
14.02.2006 23:22
|
Beiträge: 714, Mitglied seit 18 Jahren |
Beitrag Nr. 692-19
21.02.2006 19:51
|
Akribator schrieb in Beitrag Nr. 692-18:Bin mir nicht sicher, ob es noch zur Debatte steht, aber ich habe es geschafft die Datei "komprimiermich.manu" zu komprimieren.
Beiträge: 51, Mitglied seit 17 Jahren |
Beitrag Nr. 692-20
28.02.2006 23:11
|
Beiträge: 726, Mitglied seit 17 Jahren |
Beitrag Nr. 692-21
19.01.2007 23:51
|
Beiträge: 8, Mitglied seit 13 Jahren |
Beitrag Nr. 692-22
14.10.2009 15:18
|
Rechtlich gesehen ist das Einholen einer Einverständnis in diesem speziellen Fall eigentlich nicht erforderlich. Da der Bundesgerichtshof jedoch Abmahnungen als "allgemeines Lebensrisiko" bezeichnet und die Rechtsverteidigung selbst bei unberechtigten Abmahnungen immer vom Abgemahnten zu tragen ist (nein, das ist kein schlechter Scherz) und da Abmahnungen nicht selten in Unkenntnis der genauen Sachlage erfolgen, möchte ich mit diesem Hinweis dieses "allgemeine Lebensrisiko" ein Stück weit reduzieren.