Visceroid schrieb:
Du denkst also ein Kompressionsverfahren zu entwicklen dass noch um Ecken besser ist als 7zip/WinRAR und co?
Ja.
Visceroid schrieb:
Da sich die ganzen Top Programme gerade mal ein paar % Kompressionsunterschied geben bin ich doch sehr gespannt wie du das erreichen willst.
Indem mehr Computer power zum packen zur verfuegung steht.
Visceroid schrieb:
Das verteilte Komprimieren/Dekomprimieren hört sich ja gut an, aber ist wohl erst bei großen Datenmengen sinnvoll wo ein einzelner PC ewig brauchen würde und da wird bei den meisten dann die Internetleitung wohl nicht mitspielen?!
Ab ca. 100-1000MB wird sich das System vermutlich lohnen.
Visceroid schrieb:
Abgesehen davon in der Zeit der No-Limit Internetzugänge ist auch die Datenmenge nicht mehr relevant.
Vielleicht verstehe ich es falsch, aber selbst wenn du es schaffst einen 200MB Grafiktreiber auf 180MB zu verkleinern, muss dann für die Dekompression (welche aktuell innerhalb von 5 Sekunden fertig ist) wieder Daten hin und her geschickt werden und würde deiner Meinung nach wie lange dauern?
Falsch. Die Dekompression wuerde auf dem eigenen Rechner stattfinden. Auch lahme CPUs sollen eine Dekompressionsrate von ueber 100MB/s erreichen. Damit wuerde die dekompression deines Treibers nur noch ca. 2 bis 3 Sekunden daueren, bei einer hoffentlich kleineren Datei.
Visceroid schrieb:
Abgesehen davon, beim Enduser anzufangen ist wohl der falsche Ansatz? Die komprimierten Dateien müssten wohl auf den Anbieter Servern liegen?
Nein, das System funktioniert so, ein User laedt eine Datei hoch auf einem Zentral Server, der Zentral Server leitet die Datei zum komprimieren auf das online Cluster weiter und kriegt sie dann spaeter wieder zurueck. Dann kann der User seine komprimierte Datei vom Zentral Server herunterladen. Zum dekomprimieren braucht der User nicht die Online Infrastruktur, das geht @Home mit seiner eigenen CPU.
Visceroid schrieb:
Ich denke nicht dass viele User gewillt sind ihre neuen Grafiktreiber von
www.bittegibmirviren.de runterzuladen?
Der Zentral Server wuerde von mir betrieben, und mir muesst ihr einfach vertrauen. Dritte Parteien (komprimier Clients) koennten die Datei allerdings nicht manipulieren da der Zentral Server ueberprueft ob sich die fertige komprimierte Datei auch zum exakten Original dekomprimieren laesst, wenn nicht dann wird halt das Stueck das fehlerhaft ist nochmal auf einem anderen Client komprimiert.
Radde schrieb:
Ich verstehe das Prinzip noch nicht ganz.
Die Daten werden auf verschiedenen Rechnern übers Netz verteilt komprimiert/dekomprimiert. Das dadurch viel mehr Rechenpower vorhanden ist um die Dateien deutlich kleiner zu packen leuchtet mir noch ein.
Aber irgendwann muss dann doch die fertig entpackte Datei auf dem Rechner ankommen, der sie ursprünglich angefordert hat (z. B. einen PCGH Download). In dem Fall hilft es mir doch nicht, wenn die Datei superkleine .zip (so nenn ich sie der einfach mal) vom PCGH-Server "in die Cloud" geladen wird, dort entpackt wird um dann als riesige .exe auf meinem Rechner gespeichert zu werden. In diesem Fall muss ich ja doch den gesamten Download machen.
Wäre schön, wenn du darauf nochmal eingehen könntest. Danke!
Die Datei wird nicht in der Cloud entpackt, die kann mann selber mit hoher Speed entpacken.
Uwe F. schrieb:
Ich fasse das mal zusammen:
Erst muß ich Ewigkeiten warten, bis meine Dateien komprimiert sind, denn der begrenzende Faktor ist ja wohl die Bandbreite meines Internetanschlusses, und zwar der Upload.
Korrekt.
Uwe F. schrieb:
Dann muß ich den Strom für andere bezahlen, um Punkte zu sammeln, damit ich überhaut mal was komprimieren kann.
Derzeit ist noch keine Leistungssteigerung gegenüber den gängigen Packern zu erkennen.
Beides korrekt, allerdings zahlst du genauso viel Strom als wuerdest du die Datei Zuhause packen.
Uwe F. schrieb:
Also ich habe für sowas keinen Bedarf.
Außerdem dürfte es wohl auch nicht mehr lange dauern, bis GPGPU bei den Packprogrammen Einzug hält.
Viele Packungsalgorithmen koennen nicht einfach bzw. gar nicht mit Performance Vorteil auf GPUs portiert werden.
ynfinity schrieb:
Ich hab das so verstanden, dass wenn ich jetzt einen DL von PCGH oder wo auch immer machen möchte, über eine Clientsoftware ala Downloadmanager die Datei jeweils stückchenweise von allen aktuell verfügbaren Clientrechnern geladen wird, dann jeweils komprimiert wird und an mich gesendet wird (alles andere macht in meinen Augen keinen, bzw. noch weniger Sinn).
Nein, PCGH haette vorher mit diesem System die Datei komprimiert. Als Downloader wuerdest du nur eine kleine Datei runterladen die du Zuhause schnell auf deinem eigenen Rechner entpacken kannst.
ynfinity schrieb:
Das mit dem noch kleiner Komprimieren halte ich allerdings für nicht umsetzbar, 7zip, WinRAR und ZIP werden schon sehr nah am aktuell möglichen dran sein, und auch weiter forschen.
Siehe
www.maximumcompression.com
Da findet mann eine Rangliste mit teils deutlich besseren Packungs Programmen als winrar, winZip etc. Allerdings ist die Performance meistens sehr schwach von diesen Programmen.
ynfinity schrieb:
Das meiner Meinung nach beste ist die GPU zum komprimieren heranzuziehen. Das würde als einfaches Packprogramm sicherlich erfolgreich sein können.
Das Problem ist, bei den Algorithmen die ich nutze lohnt sich eine GPU erst bei sehr aggressiven Settings die sehr lange zum ausfuehren brauchen. Da ist dann der Vorteil das deine Datei innerhalb von Stunden auf der GPU gepackt wird, auf der CPU wuerde es vermutlich wochen dauern.
Sebbi schrieb:
1. solange wie es noch keinen Allumfassenden 1 Gbit/s Anschluss Symetrisch gibt für Privatleute im Bezahlbaren Rahmen gibt, is deine Idee Müll.
Du findest also kleinere Downloads auf Downloads Seiten schlecht.....
Ausserdem muss jeder Komprimierungs Client nicht die ganze Datei herunterladen. Die Upload Rate zurueck zum Server duerfte durchschnittlich bei 4KB/s liegen.
Sebbi schrieb:
2.
ähm nur so zur info ... auf meinen i7 - 2600 schaff ich das bereits ohne deine tolle Idee auf meiner SSD
Allerdings mit nicht sehr stark komprimierten Dateien....
Sebbi schrieb:
Sachen wie Spiele Patches kann mann auch ohne Datensicherheits Vorkehrungen komprimieren. Empfindliche Daten sollten mit dem System natuerlich nicht komprimiert werden.
Sebbi schrieb:
4.
ähm nein, da die idr schon gepackt sind, lassen die sich kaum noch mehr packen. Aufwand / Nutzen ungenügend
Die wuerden von der Download Seite dann ja im ungepackten Zustand auf dem Cluster gepackt und dann zum Download angeboten. Wenn ein PCGH User dann bei PCGH downloadet wuerde er wie gewohnt downloaden, nur das er eben eine kleinere Datei downloadet. PCGH muesste nur ein einziges Mal die Datei so aufwendig auf dem Cluster packen.
Sebbi schrieb:
5.
LOL damit disqualifiziert das teil sich schon selber .... vorallem mit dem Letzten Satz. Und WinRAR benutzt nun schon nur die CPU
Lesen hilft, bisher wurde nur ein Kompressionsverfahren implementiert, dafuer sind die Resultate sogar erstaunlich gut. Die Theorie ist also, sobald mehrere Kompressionsverfahren implementiert sind duerfte die Kompression besser sein als von winrar, etc.
Sebbi schrieb:
6.
Außerdem zu Punkt 2. Was Soll das für nen Sinn haben, wieder online zu dekomprimieren? Dann müssen die Daten ja 2 Geladen und einmal hochgeladen werden. Einmal komprimiert, dann hochladen zum dekomprimieren und einmal dekomprimiert untergeladen (und wieder schön groß)
Online-dekomprimierung wurde von mir niemals erwaehnt. Es wird nicht online dekomprimiert, das passiert zu Hause auf deinem eigenen Rechner.
Dr.Duschlampe schrieb:
Hättest du auch Interesse daran, aus dem Fenster zu springen, wenn ich dir verspreche, dass dir auf dem Weg nach unten Flügel wachsen?
Mitmachen kann ja nicht wirklich schaden und wenn ich den Source Code hier hochlade damit ihr selber kompilieren koennt sollte ausgeschlossen sein das schaedlicher Code auf dem Client ausgefuehrt wird.
Stinger schrieb:
Nehmen wir an du kriegst das hin - WER SOLL DIESE DATEN DENN DEKOMPRIMIEREN?! Nur Leute mit eigener ServerFarm???!?!?!??!
......totaler Bloedsinn
Ein kleiner ARM Prozessor sollte bereits halbwegs brauchbare Dekompressionsraten stemmen koennen (10MB/s).
zEtTlAh schrieb:
Ähm... es ist ja nicht so, dass ich einige Sachen nicht verstehe sondern es ist so, dass ich das von vorne bis hinten nicht verstehe.
Erklär mir mal bitte eins:
Was ist so schwer daran, eine 100 MB Datei und 25MB zu bekommen ? Wenn du magst bau ich dir eine 1GB Text Datei und mach die kleiner als 25MB. Der Durchsatz wird dann auch weit über 100MB/s sein.
Wenn mann sagt das mann eine 1GB Datei auf 25MB komprimieren kann bedeutet das rein gar nichts. Wenn mann aber sagt das mann eine 100MB Datei auf 35MB komprimieren kann und winrar 28MB schafft dann hat das Bedeutung weil es ein Vergleich ist.
zEtTlAh schrieb:
Online ist in Xfacher Hinsicht kompletter quatsch... Dazu muss eine Datei xmal hoch und runter oder zwischen Rechner hin und her verschickt werden. Das macht unterm Strich mehr Traffic als wenn ich die bereits gehostete Datei einfach runterlade und gut ist.
Wenn eine Webseite wie z.b. Computerbase einen Download anbietet der auf diese weise komprimiert wurde muessen die User nur diese kleine Datei herunterladen, wie schon mehrmals gesagt, es wird offline dekomprimiert.
zEtTlAh schrieb:
Kann es sein, dass heute der 1. April ist und es keiner gemerkt hat ?
Das bashing liegt wohl eher daran das aus irgendeinem Grund alle meinen die Datei muesste auch online dekomprimiert werden, was natuerlich voellig sinnlos waere.
zEtTlAh schrieb:
Das einzige was ich hier interessant finde ich CUDA (o.Ä.) mit ins Boot zu nehmen und wenn du das getan hättest, dann hättest du das patentieren sollen und Kohle scheffeln. Kannst du aber nicht mehr da du bereits davon erzählt hast. Schade mit den Gesetzen. Wenn du mich fragst hast du garnichts.
Habe nicht vor dieses System zu kommerzialisieren.
zEtTlAh schrieb:
Weisste was ? Ich mach mit, einfach nur, weil ich das sehen will. Voraussetzungen dazu hat mein System ja. Ich steck auch gerne noch 3 Quadro Karten dazu, die ideln hier eh nur rum. Dann kannst du gleich noch Multi GPU implementieren.
Multi-GPU mit dynamischer Last Verteilung ist bereits implementiert.
Visceroid schrieb:
@Hades85: Wer redet was schlecht? Wir wollen einfach den Sinn dahinter verstehen, wenn die Idee jemals was bringen soll muss es wohl auch nur im geringsten einen Sinn haben. Wenn der Traffic dadurch aber höher wird hat es 0 Sinn, wenn ich auf meine entpackten Dateien warten muss hat es 0 Sinn, wenn es von niemanden Unterstützt wird weil zu unsicher/kompliziert hat es 0 Sinn.
1. Traffic wird nicht hoeher da offline dekomprimiert wird und die Datei ja nur ein einziges mal komprimiert werden muss und dann zum Download angeboten werden kann.
2. Kompliziert wird es fuer den User nicht, zum hochladen der Datei wird es eine Webseite geben, wo mann auch sehen kann wie viele Punkte mann hat. Die Client Software wird lediglich eine .exe sein die mann ausfuehren muss, das wars. Unsicher wird es fuer sensible Daten sein, das stimmt, aber da laesst sich nichts machen. Fuer Spiele-Patches, Freeware Software etc. wird es aber geeignet sein.
Visceroid schrieb:
Vielleicht verstehen wir ja auch alle sein Anliegen falsch, aber schlecht reden tut niemand wirklich was. Bis jetzt habe ich mehr oder minder sinnvolle Hinterfragung bzw. Kritik gelesen.
Ja, denn es wird offline dekomprimiert, nicht online. Und jede Datei muss ja nur einmal komprimiert werden, das heisst wenn die Dateien auf einer Download Seite als ein selbst entpackendes Archiv angeboten werden merkt der User nicht mal was, ausser natuerlich eine kleinere Datei und eine hoehere Dekompressionsrate.
Visceroid schrieb:
Das Kommentar von Dr.Duschlampe war wohl eher auf die "ich bin bereit alles zu testen" Einstellung von dir gedacht - würdest du also auch ein Programm testen welches nur 2 GB deines RAM verbraucht aber nicht wirklich einen Sinn hat?
Bevor ich ein Programm teste muss ich wissen was es tut, ob es MIR was bringt und welche Risken ich dabei eingehen
Da ich nicht annehme dass man zum Programm auch den Source erhalten wird, bleibt es für mich ein Tabu, weil einen Keylogger einzubauen ist eine Kleinigkeit und ein Distributed Networking Programm wirst du in der Firewall eher nicht blocken
Der Source wird veroeffentlicht so dass jeder User genau ueberpruefen kann was die Software macht. Sich selbst die .exe erstellen kann der User dann auch.
Visceroid schrieb:
Nicht falsch verstehen, ich würde ein Program auch testen wenn es mir nichts bringt, rein um zu helfen, aber einfach jedes Programm runterzuladen und zu testen ohne etwas zu hinterfragen wird nicht passieren.
Schau dir den Source an sobald er fertig ist und hier hochgeladen.
Radde schrieb:
Vor nicht allzu langer Zeit (Feb 2013) gab es auf Tomshardware.de einen
Test von 4 Packprogrammen. Die Ergebnisse der einzelnen Programme liegen weiter auseinander als ich das erwartet hätte. Es gibt also offensichtlich schon noch Optimierungsbedarf.
Ich finde es auch sehr spannend, dass 7zip bei der .zip-Erstellung schneller und besser ist als winzip
Ich kann mir also schon vorstellen, dass es sinnvoll ist sich mit Komprimierung zu beschäftigen. Die Frage ist, ob der Cloud-Ansatz der praktikabelste ist?!
Der Cloud Ansatz ist praktikabler wenn es wochen dauert auf seinem eigenen Rechner die Datei zu komprimieren.
Merlin-.- schrieb:
Von diesem speziellen Vorhaben halte ich nicht viel, weil erstens Komprimieren zeiteffizient lösbar ist mit ner stinknormalen CPU und zweitens wird das Verhältnis aus Dateigröße/Rechenzeit unendlich schlecht und die Dateigröße kaum noch kleiner bei höherer Kompression.
Das Verhaeltniss Dateigroesse/Rechenzeit ist schlecht, ja. Allerdings bei einer Download Seite wo ganz viele User downloaden kann jedes Byte eine differenz ausmachen.
Merlin-.- schrieb:
Klarer Nachteil bei "besserer" Kompression sind z.B. auch die solid blocks. Das führt dazu, dass Deine gesamte Datei kaputt ist, sobald sie einen kleinen Fehler enthält. Stärkere Kompression ist daher nicht unbedingt immer besser, ich benutze für wichtige Dateien eher normales Zippen. Was auch noch extrem performant ist auf niedriger Kompressionsrate...
Stimmt, aber wie oft gibt es denn heutzutage noch uebertragungsfehler?