metallica2006 schrieb:
Hi,
wie sieht es denn unter Linux aus? Kopiert das auch nur mit einem thread? Wenn nicht, ist es dann schneller?
"kommt drauf an" und "es ist kompliziert"
Gängige Software ob mit grafischer Oberfläche oder im terminal nutzt nur einen Thread. Was der Kernel im Hintergrund macht kommt dann sehr darauf an welcher I/O Sheduler genutzt wird und ob asynchronous I/O [1] aktiv ist oder nicht. Async I/O kann Windows schon ewig[1], im Linux Kernel ist es aber erst seit der 5.1 (Mai 2019) drinnen und nichts zwangsweise in jeder Distribution genutzt. Wenn alles "richtig"[2] eingestellt ist sollte Linux das aber etwas flotter hinbekommen.[3]
Ich wäre aber schwer dafür, dass das mal jemand mit einer Kombination der gängigsten Einstellungen mal testen sollte!
[1] Lass mich nicht lügen bzw. mein Gedächtnis mir keinen Streich spielen, aber async I/O war glaub eines der wichtigen Pluspunkte des NT Kernels im Vergleich zu DOS basiertem Win95/98
[2] Wie welches Setting wieso weshalb warum als "richtig" gelten darf eskaliert in ewigen Diskussionen.
[3] Also bis Kernel 5.8. In der 5.9 gab es grundlegende Änderungen bei der "Page fairness" was den I/O Durchsatz massiv versaut. Da haben sich viele Baustellen aufgetan bevor es da wieder lüppt.
PS: Jaja, Linux wird schnell zum Vollzeithobby
Fred_VIE schrieb:
Eine Möglichkeit die Geschwindigkeit zu spüren wäre das Spiel Control. Da gibts nämlich in den Foren Beschwerden, dass die Nachladegeschwindigkeit von Texturen schon mit normalen SSD's 10 Sekunden dauern soll, wenn man z. B. direkt vor einem Bild oder Gegenstand stehen bleibt.
Das klingt hauptsächlich nach ganz massivem Bug. Bei "normalen" (Sata) SSDs hat man in 10s locker 3-4GB Texturen gelesen. Zusammen mit Shadern, 3D Modellen sowie berechneten Arbeitsdaten ist da der VRAM mehr als voll (ausgehend von 8GB VRam). Die Effekte eines solchen Bugs kann man sicher kompensieren indem man Geld auf Hardware wirft, aber als Messlatte würde ich das nicht nehmen.
Coeckchen schrieb:
Wann wird eig die IGP unterstützung für Post Processing Flächendeckend eingesetzt um die Primär GPU zu entlasten? Darauf warte ich seit 5 jahren.
Um Qualität und Geschwindigkeit beim Post Processing zu optimieren ist es oftmals praktisch, wenn man auf Rohdaten zurückgreifen kann bzw. einige Effekte direkt im Renderprozess einzubinden. Da die iGPU zu nutzen wäre in vielen Fällen ineffizient. Leistung lässt sich sowieso kaum schinden, ein 4K 60fps Videostrom bedeutet allerhand Daten. Das Kopieren dieser Daten aus dem Vram der dGPU zur iGPU gibt es nicht kostenlos.
Towatai schrieb:
Ich war ja auch immer der Meinung, dass schnelle NVMe SSDs nur auf dem Papier um einiges schneller sind und im Alltag nicht spürbar mehr... BIS.... ich den wirklich RIESIGEN Unterschied bei ner DataCore-Schulung miterlebt habe. Das verschieben (etc.) diverser VMs in der wiederum virtualisierten Testumgebung lief BEDEUTEND schneller ab. Es kam einem vor wie HDD ---> SATA SSD. Zum Glück hat mein Chef auch daran teilgenommen und das FullFlash-Storage ist in greifbare Nähe gerückt
Diese Schulung klingt mehr nach Verkaufspräsentation wo die Kunden auch mal was machen dürfen.
Ansonsten ist DataCore schon etwas anderes als ein Desktopsystem mit Einzelnutzer