zu 52) Du glaubst wohl auch, daß eine gezippte Datei durch nochmaliges zippen kleiner wird?
Was die Theorie betrifft, warum sollte es nicht möglich sein? Die Frage ist, was für eine Software dahintersteckt und wie groß diese ist. Momentan arbeiten wir mit 0 und 1. Wenn der Code nunmal aus mehreren tausend Zeichen besteht, sähe es in gedruckter Form anders, als im Binärcode. Nur zum entschlüsseln oder lesen muß der Gesamte Code in der Analysesoftwre enthalten sein, weswegen diese wieder stark aufbläht.
Es wäre dann zu vergleichen mit einem Word Dokument. Um es zu lesen brauche ich Word, für den Transport aber nur die kleine Datei beispiel.doc. die Verhältnismäßig klein ist zu Word (angnommen sie enthält keine Bilder).
Es ist wie eine Übersetzung in eine andere Sprache. Nehme ich nur die Ziffern 0-9, diese in 256 Fraben, bin ich bei 2560 zeichen, dazu das Alphabet, vielleicht noch das griechische, unterschieden in Groß und Kleinbuchstaben, landen wir bei etwa bei 256000 Zeichen die eine einzige Stelle in ausgedruckter Form ausmacht. Wieviel Binärcode wäre das?
Und damit sind wir nur bei landläufig bekannten Zeichen un wenig Farben. Von daher, machbar, vor Nutzung müßte aber decodiert werden, wodurch wieder x Gigabyte an Binärdaten entstehen.
Ich weiß zwar nicht wie heutzutage komprimiert wird, aber bestimmt werden keine Farben verwendet. Wenn also ein herkömmliches zip Verfahren um zusätzliche Farbcodierung erweitert wird, dann wäre das zum bekannten Grad schon ein Faktor von 256 in meinem Beispiel. Digital könnte das auf 16 Bit oder 32 Bit Farbtiefe erweitert werden, was einen noch größeren Faktor ausmacht.
Die Frage ist nur, was für Rechenpower muß dahinterstecken um das alles zu decodieren?