- Registriert
- Apr. 2008
- Beiträge
- 12.501
Dies ist ein ausgelagertes Thema aus diesem Hauptthread:
https://www.computerbase.de/forum/t...kussion-zu-spieletests.1728575/#post-20678303
Intro:
Praktisch alle consumer Platformen unterstützen dual channel Betrieb des Ram.
Werden beide Ram Channel belegt, können die Daten über zwei channel geschickt und gleichzeitig geschrieben bzw. gelesen werden.
Eigentlich weiß das auch fast jeder, denn die Technik ist uralt...laut Wiki ca. 1964
Manchmal kommt bei Hilfestellungen hier im Forum trotzdem vor, dass herauskommt, dass der Hilfesuchende seine zwei Ram Riegel im gleichen Channel stecken hat oder aus Kostengründen nur einen einzelnen kaufen möchte.
Viele Notebook(so auch meins) kommen nur mit einem einzelnen Ram Modul.
Und da stellt sich die Frage ob das schlimm ist und ob es sich lohnt doch auf dual channel zu setzten.
Einige Tests zu dem Thema kommen zu dem Schluss, dass es das nicht tut.
Dual channel ist nett aber es soll keine große Sache sein wenn man nur single channel benutzt.
Quellen:
https://www.gamersnexus.net/guides/1349-ram-how-dual-channel-works-vs-single-channel
Hier werden zwar große Vorteile in Spielen mit dem Pentium gesehen allerdings nur weil die Integrierte Grafikeinheit benutzt wirdm die natürlich nach Bandbreite verlangt:
https://us.hardware.info/reviews/74...rmance-more-lanes-more-speed-benchmarks-games
und in diesem ältern Artikel waren die Ergebnisse für dual ranked ebenfalls ernüchternd:
https://www.tomshardware.com/reviews/PARALLEL-PROCESSING,1705-11.html
Dieser ältere Leserartikel zeigt ebenfalls keine großen Vorteile in Anwendungen und nur große Unterschiede mit integrierter GPU:
https://www.computerbase.de/forum/threads/single-vs-dual-channel-theorie-und-praxis.1454213/
Und in diesem Test verliert der dual Channel sogar öfter..wobei ich da die Messgenauigkeit in Frage stelle:
https://www.hardwaresecrets.com/does-dual-channel-memory-make-difference-in-gaming-performance/4/
Was stimmt also jetzt und wie sieht es in 2018 aus?
Wie ich meine Tests gemacht und verbessert habe:
Benchmarkergebnisse und neue Testsequenzen
Ich habe mich dazu entschieden die absoluten Frametimedaten und die Vorstellung der neuen Testsequenzen in einen extra Artikel auszulagern.
Dann kann ich mich hier auf die prozentualen Unterschiede von dual zu single ranked konzentrieren.
Ramtest-Session Juli/August 2018
.......................
Synthetische Benchmarks(Aida64)
An dieser Stelle nochmal ein kurzer Überblick über das verwendete System und die verwendeten Ramtimings:
Ein Ryzen 1800X mit Pstate OC auf 3,8GHz. 100.2MHz BCLk(für die optik). Ich musste für die sommerlichen Temperaturen etwas undervolting zurücknehmem und komme unter IBT Last auf 1,3-1,312V.
Asus Crosshair VI Hero @ Bios 6002
Vega64 LC mit custom Wasserkühlung für CPU und GPU. PT+50%, P7 = 1702MHz, 1050mV(resultiert in ca 1610MHz bei 1V),
HBM2@1050MHz, P6 als min gesetzt
2x8GB SR DDR4 mit Samsung B-die
Sämtliche im Bios einstellbaren Timings wurden für die höchste effektive Ram Taktrate meines DR Kits optimiert und manuell festgesetzt.
Kommen wir jetzt zu den Bandbreiten und Latenzen, die Aida misst:
Wenn die 8GB Riegel im single channel Modus gesteckt sind, sieht man wie sich die Bandbreiten fast halbieren. Ein erwartbares Ergebnis.
Es ist allerdings nicht ganz die Hälfte sondern doch noch ein kleines Bisschen mehr.
Anders als bei den Bandbreiten, scheinen hier SR und SC keine Nachteile zu haben.
Der SC Betrieb hat bei 3200 sogar die besten Werte, wobei man hier praktisch im Bereich der Messungenauigkeit liegt.
Die 2933 Cl16 liegen wieder im Mittelfeld. Ich hatte aufgrund der schlechteren Timings schlimmeres erwartet und bin positiv überrascht.
Die erhobenen Daten sind aus dem Juli/August 2018 und sind sicher gegen Meltdown und Spectre(nach aktuellem Wissensstand).
Windows 10 und Treiber waren aktuell, HPET aus, Energieoptionen auf Höchstleistung.
Mit diesen "theoretischen" Werten im Hinterkopf können wir und jetzt an die Auswertung der Spieleergebnisse machen....
Spieletests: Dual channel vs. single channel
Trotz meines enormen Aufwandes, sind nicht alle Daten so zuverlässig, dass sie eine Aussagekraft haben. Ich zeige daher erstmal nur die Daten die mir zuverlässig erscheinen und wer alles sehen möchte muss den Spoiler öffnen.
DC vs. SC bei 3200 Cl14:
Ich musste CoH 2, The Witcher 2 u. 3 komplett rausnehmen und auch ein paar der 1% und 0.1% low Werte.
Rome und das ausgeblendete Witcher 3 scheinen sich nicht für den Verlust der Bandbreite interessieren.
Aots, Hitman , Thief und F1 2015 verlieren deutlich an Leistung.
Interessanterweise sind dies auch die Spiele, die bei dem dual ranked Test gut vom dual ranked Ram profitiert haben.
Die anderen Spiele verlieren auch ein paar % an Leistung, sonderlich kritisch sind die Veluste hier aber nicht.
Aber schauen wir uns erst einamal den Vergleich bei 2133Mhz an:
DC vs. SC bei 2133 Cl14:
Wie wir sehen sind die Nachteile bei nur 2133MHz deutlich größer und öfter vertreten!
Ich nehme an, das mit weniger Ram Geschwindigkeit, der Verlust an Bandbreite deutlich stärker zum tragen kommt.
Das ist besonders ärgerlich, da gerade in Fertigrechnern und Notebooks, wo auf single channel gesetzt wird, in der Regel auch langsamer Ram verbaut wird.
Bewertung der single channel Ergebnisse und Fazit:
Die Verluste durch den single channel Betrieb reichten von "nicht vorhanden" bis "28% avg FPS".
Das ist ein großer Bereich, der wieder mal eine allgemeingültige Aussage schwer macht.
Schaut man sich die Aida 64 Ergebnisse an, dann sieht man schlicht eine Halbierung der Bandbreite bei gleich bleibenden(leicht besseren) Latenzen.
Wird der Ram also voll ausgelastet, kann ein zweiter Channel den Durchsatz verdoppeln. Die eigentliche Arbeitsgeschwindigkeit wird jedoch nicht beeinflusst.
Das spiegelt sich auch in den Spieletests wieder. Alte Spiele, die nur wenige Threads benutzen können und nicht viel Daten zu übertragen haben, sind nicht benachteiligt.
Wenn ich die Spiele in Kategorien einteile und versuche Muster zu erkennen, dann würde ich folgendes schlussfolgern:
- Moderne Spiele, die große Mengen an Textur und Effekt-Daten in und aus dem Ram kopieren, verlieren stärker in single Channel Betrieb.
Beispiele sind bei mir AotS, Hitman, ROTTR, Witcher 3 und F1 2015....und irgendwie auch Thief.....das sind auch eher die Spiele, die in meinem Test zum dual ranked Ram die größten Unterschiede hatten.
Offensichtlich brauchen sie große Bandbreiten
-Die restlichen Spiele zeigen keine bis geringe Nachteile....Die Unterschiede zeigen sich aber viel deutlicher bei 2133er Ram.
Mit langsamem Ram kommt man also früher in kritische Bereiche, wo die Bandbreite limitierend wirkt.
Das es Nachteile durch single Channel Betrieb gibt, ist nichts neues.
Ich hoffe ich konnte in diesem Test klären, wie groß sie in verschiedenen Spielen sind.
Für mich steht fest, dass auch wenn in der Vergangenheit und in alten Spielen der Bedarf an Ram Bandbreite nicht gegeben war/ist,
man in 2018, wenn möglich auf dual channel setzen sollte!
Bei Benutzung einer integrierten GPU sowieso...das haben schon ältere Tests immer wieder gezeigt....aber auch in neuen Spielen, die mit großen Texturen/Effekten und komplexen Spielwelten hantieren.
Was sind eure Meinungen dazu?
Habt ihr Verbesserungsvorschläge oder wollt ihr besimmte Sachen sehen, die ich hier nicht behandelt habe?
https://www.computerbase.de/forum/t...kussion-zu-spieletests.1728575/#post-20678303
Intro:
Praktisch alle consumer Platformen unterstützen dual channel Betrieb des Ram.
Werden beide Ram Channel belegt, können die Daten über zwei channel geschickt und gleichzeitig geschrieben bzw. gelesen werden.
Eigentlich weiß das auch fast jeder, denn die Technik ist uralt...laut Wiki ca. 1964
Manchmal kommt bei Hilfestellungen hier im Forum trotzdem vor, dass herauskommt, dass der Hilfesuchende seine zwei Ram Riegel im gleichen Channel stecken hat oder aus Kostengründen nur einen einzelnen kaufen möchte.
Viele Notebook(so auch meins) kommen nur mit einem einzelnen Ram Modul.
Und da stellt sich die Frage ob das schlimm ist und ob es sich lohnt doch auf dual channel zu setzten.
Einige Tests zu dem Thema kommen zu dem Schluss, dass es das nicht tut.
Dual channel ist nett aber es soll keine große Sache sein wenn man nur single channel benutzt.
Quellen:
https://www.gamersnexus.net/guides/1349-ram-how-dual-channel-works-vs-single-channel
Hier werden zwar große Vorteile in Spielen mit dem Pentium gesehen allerdings nur weil die Integrierte Grafikeinheit benutzt wirdm die natürlich nach Bandbreite verlangt:
https://us.hardware.info/reviews/74...rmance-more-lanes-more-speed-benchmarks-games
und in diesem ältern Artikel waren die Ergebnisse für dual ranked ebenfalls ernüchternd:
https://www.tomshardware.com/reviews/PARALLEL-PROCESSING,1705-11.html
Dieser ältere Leserartikel zeigt ebenfalls keine großen Vorteile in Anwendungen und nur große Unterschiede mit integrierter GPU:
https://www.computerbase.de/forum/threads/single-vs-dual-channel-theorie-und-praxis.1454213/
Und in diesem Test verliert der dual Channel sogar öfter..wobei ich da die Messgenauigkeit in Frage stelle:
https://www.hardwaresecrets.com/does-dual-channel-memory-make-difference-in-gaming-performance/4/
Was stimmt also jetzt und wie sieht es in 2018 aus?
Wie ich meine Tests gemacht und verbessert habe:
Ursprünglich hatte ich für jede Hardwarekonfiguration in jedem Spiel 6 mal hintereinander die Frametimes gemessen.
Dann habe ich die erste Messung("Vormessung") verworfen, da sie in vielen Spielen mit Nachladerucklern zu kämpfen hat und dabei teilweise sogar höhere Durchschnitts-FPS liefert. Ein Mysterium, das ich auf polygonärmere/fehlende Strukturen und schlechtere Texturen schiebe, die bis zum hereinladen der besseren Versionen höhere FPS ermöglichen....oder durch mehr Platz im Cache weil dieser noch nicht so voll ist.....außerdem sind in Spielen, die die GPU stark beanspruchen, kurz nach dem Spielstart die Temperaturen besser und damit der Boost-Takt leicht höher.
Von den fünf verbleibenden Messungen hatte ich mit einem eigenen Auswertungsprogramm die Frametimes über diverse statistische Methoden analysiert.
Um bis zu zwei Ausreißer zu eliminieren bildet das Programm dann nur einen Mittelwert der jeweils besten drei Werte und eine empirische Standardabweichung dieser drei.
Ich denke, dass diese Methode bereits deutlich bessere Ergebnisse lieferte als die der meisten anderen CPU/Ram orientierten Spieletests.
Jedoch musste ich herausfinden, dass die Reproduzierbarkeit trotzdem nicht gut genug für meine Ansprüche war.
Bei den älteren Tests, wo ich Ryzen gegen einen ivy i5 oder 2133 gegen 3200MhzRam getestet habe, waren die Abstände in der Regel deutlich genug um Unterschiede klar zu erkennen.
Lediglich mein Versuch mit einer 2+2 gegen eine 4+0 Konfiguration des Ryzen bei unterschiedlichen Ram Frequenzen die Einflüsse des IF zu untersuchen scheiterte an der Genauigkeit.
Nun sollte es also deutlich genauer werden!
Also habe ich mein Programm erweitert um einen zweiten Satz von 5 Frametime Messungen einlesen und verarbeiten zu können.
Das Programm wertet beide Messungen erst getrennt voneinander aus, so wie schon vorher, und dann nimmt es aus beiden, jeweils die 3 Besten und kombiniert diese.
Es werden jetzt also von 10 Messungen, der Mittelwert von 6 Auserwählten gebildet.
Was sich dabei gezeigt hat, ist wie oft die Messungen einen systematischen Fehler bekommen. Auch wenn die einzelnen Messreihen in sich eine geringe statistischen Schwankung haben, können sie von Tag zu Tag merklich abweichen. Teils sogar sehr deutlich.
Ich bin auf Ursachenforschung gegangen und habe die verschiedenen Spiele mit aktivem OSD getestet. Habe festgestellt, dass das OSD selbst schon überraschend viel Leistung zieht...egal.... es ist bei den späteren Messungen aus.
Es war aber weiterhin schwer die teils einige % betragenden Abweichungen zu ergründen.
Bei einigen Spielen hat die Arbeit des Schedulers den Ausschlag gegeben. Manchmal wurde die Last auf einzelnen Kernen festgehalten...am nächsten Tag eher hin und her geschoben.....dann haben einige Spiele einzelne Kerne überlastet, indem zwei Threads des gleichen CPU Kerns gleichzeitig stark belastet wurden.
Mal wurden Threads des gleichen CCX benutzt und mal gemischt.
Kurz gesagt macht der Windows Scheduler, (vor allem bei älteren Spielen) einen miesen Job auf Ryzen CPUs!
Um dies reproduzierbarer zu machen, habe ich in allen Spielen, die nur wenige Threads benutzen die zugewiesenen CPU-Threads angepasst.
Heroes of the Storm, Starcraft 2, Prison Architect, The Witcher 2, Thief und Frostpunk wurden nur die Threads 0, 2, 4 und 6 zugewiesen.
Also nur 4 echte Kerne eines CCX. Keine Inter-core-Kommunikation über den Infinity Fabric und keine Probleme mit SMT.
Rome TW habe ich die Threads 0 und 1 zugewiesen, also beide Threads des gleichen Kerns und Company of Heroes hat alle Threads eines CCX bekommen also 0-7...auch wenn es besser läuft mit mehr Kernen und ohne SMT.
Ich versuche den Großteil meiner Tests im CPU limit zu machen und da versucht meine Vega64 natürlich Strom zu sparen und niedrigere PStates zu nutzen. Leider schätzt sie die Last immer mal unterschiedlich ein und taktet dann unterschiedlich weit runter und geht auch beim HBM2 mal auf 500MHz und mal nicht.
Um diese Verhalten zu stabilisieren, habe ich für die Benchmarks den P6 als niedrigsten PState festgelegt.
Da die Karte wassergekühlt ist, kommt sie nie in Situationen, wo sie zu heiß läuft. Da die Taktrate aber die Temperatur als ständigen Faktor in die Berrechnung einbezieht, kann ich nicht ausschließen, das der Takt von Messung zu Messung weiterhin leicht unterschiedlich ist. Die Unterschiede sind aber gering und werden im CPU limit keine Rolle spielen.
Ein weiterer Punkt bei Ryzen ist der "sleep-Bug". Etwas das beim Wechsel in den Standby oder auch beim Herunterfahren unter Windows 10 passieren kann. Danach läuft der Timer falsch und da Frametimemessungen Zeitmessungen sind, fallen die Ergebnisse falsch aus.
Um dem vorzubeugen, habe ich den PC jeweils erst aus und wieder an gemacht und dann noch einen Neustart hinterhergeschoben.
Das an/aus bietet eine gleiche Ausgangsbasis und der Neustart behebt einen eventuell auftretenden Sleep Bug.
Interessanterweise konnte ich mehrere Male feststellen, das nach dem Prozedere die Messungen typische Werte ergaben, bei einem zweiten Neustart, die Ergebnisse jedoch viel zu gut ausgefallen sind. Und nach mehr und mehr Neustarts nährt man sich dann wieder immer mehr dem "Normalfall" an.
Sehr strange.
Ich habe eine saubere 1803 Win10 Installation aufgespielt.
Nur die Treiber und nötigsten Programme installiert und die HDD abgekoppelt um nur SSDs im System zu haben.
Ich habe musste Elex aus meiner Spieleauswahl streichen, da die neueren Radeon Treiber einen Start des Spiels verhindern.
Dafür habe ich Company of Heroes 2 und F1 2015 mit aufgenommen.
COH2 fand ich überraschend gut und es hat einen integrierten Benchmark. Leider hat der sich als notorisch unzuverlässig erwiesen.
Es gibt fast jedes mal im Benchmark heftige Frametimeausreißer, die aber eben nicht jedes Mal auftreten und machmal auch häufiger als üblich.
Ich musste also statt 6 Messungen je Durchgang eher 8-9 machen um dann nachträglich die zu guten und zu schlechten auszusortieren.
Dazu sind die Ladezeiten in den Benchmark und auch ins Menü quälend langsam...kurz gesagt werde ich das nicht nochmal testen .
F1 2015 wird bleiben...eine Startphase vom Ende des Feldes, bei Sturm, liefert eine hohe CPU Last und kann gut reproduzierbar sein...man darf nur keinen Unfall bauen oder sich von der KI abschießen lassen.
Auch die anderen Spiele habe ich öfter als vorher getestet(7-9 mal je Messreihe) und habe aktiv Ausreißer eliminiert um die "normalsten 5" in das Programm zu füttern. Das führ dazu, das jedes Set an Messungen in sich sehr zuverlässig wird.
Um auf 10 Messungen zu kommen habe ich das zweite Set an Messungen an einem anderen Tag oder zumindest mit Pause/Neustart/usw dazwischen durchgeführt.
Wenn die Auswertung von Set 1 zu Set 2 dann unterschiedliche Ergebnisse gezeigt haben, habe ich mir das notiert und an einem dritten Tag nochmal gemessen...oder noch an einem vierten Tag....um sicher zu gehen, das ich keine versaute Messreihe dazwischen habe.
Ausnahme ist Ashes of the Singularity, wo ich einfach 2x5 Messungen genommen habe ohne zusätzliche Messungen und manuelle Auswahl. Denn der integrierte Benchmark ist einfach mal gut und mal schlecht....mit ca. 40% Chance auf gut...und dann dauert er 3 min.....Ich habe ihn drin weil er große Unterschiede zeigt, dafür habe ich hier bei der Genauigkeit geschludert.
Bei ein paar Spielen habe ich die Messdauer verlängert.(Cities Skylines von 40 auf 50s, Prison Architect von 90 auf 120s)
Hitman hatte bei meinen Tests im März noch einene FPS limiter eingebaut. Dieser ist inzwischen rausgepatched und ich bin gleichzeitig von der Testszene in Paris auf eine Szene in Marrakesh umgestiegen. Die hat noch mehr NPCs auf einem Haufen und noch höhere CPU Last, die teilweise 8 Kerne voll auslastet.
Das alles über 13 Spiele hat mich sehr viel Zeit gekostet! ....über 1800 Messungen und da sind noch nicht die "Vormessungen" drin, die ich nicht aufgezeichnet habe und auch nicht die bei denen was schief gelaufen ist, so dass ich sie direkt gelöscht habe.
Zusammenfassung der Verbesserungen:
-Win10 neu installiert und auf Neustarts geachtet.
-Teils länger und immer mehr als doppelt bis dreimal so oft gemessen.
-CPU Threads festgelegt wo es Sinn ergeben hat.
-Messungen bei Bedarf von Hand sortiert.
-Vega am heruntertakten gehindert..
Spiel Einstellungen:
Hierbei habe ich mich nicht auf maximale FPS durch niedrige Auflösungen und Einstellungen konzentriert, sondern die Auflösung auf 1440p gelassen und nur in komplett CPU limiterten Spielen die maximalen Details genutzt.
Wo die Grafikkarte eine Rolle spielt, habe ich die Optionen individuell angepasst um einen guten Kompromiss aus Grafik und FPS um die 80-100 pro Sekunde zu finden.
Ich habe die Spiele also so eingestellt, wie ich sie selbst spielen würde und dann getestet welche Unterschiede sich bei diesen realen Situationen ergeben.
Die getesteten Szenen waren dabei natürlich so gewählt, dass sie für die CPU typisch bis besonders anspruchsvoll sind.
Dann habe ich die erste Messung("Vormessung") verworfen, da sie in vielen Spielen mit Nachladerucklern zu kämpfen hat und dabei teilweise sogar höhere Durchschnitts-FPS liefert. Ein Mysterium, das ich auf polygonärmere/fehlende Strukturen und schlechtere Texturen schiebe, die bis zum hereinladen der besseren Versionen höhere FPS ermöglichen....oder durch mehr Platz im Cache weil dieser noch nicht so voll ist.....außerdem sind in Spielen, die die GPU stark beanspruchen, kurz nach dem Spielstart die Temperaturen besser und damit der Boost-Takt leicht höher.
Von den fünf verbleibenden Messungen hatte ich mit einem eigenen Auswertungsprogramm die Frametimes über diverse statistische Methoden analysiert.
Um bis zu zwei Ausreißer zu eliminieren bildet das Programm dann nur einen Mittelwert der jeweils besten drei Werte und eine empirische Standardabweichung dieser drei.
Ich denke, dass diese Methode bereits deutlich bessere Ergebnisse lieferte als die der meisten anderen CPU/Ram orientierten Spieletests.
Jedoch musste ich herausfinden, dass die Reproduzierbarkeit trotzdem nicht gut genug für meine Ansprüche war.
Bei den älteren Tests, wo ich Ryzen gegen einen ivy i5 oder 2133 gegen 3200MhzRam getestet habe, waren die Abstände in der Regel deutlich genug um Unterschiede klar zu erkennen.
Lediglich mein Versuch mit einer 2+2 gegen eine 4+0 Konfiguration des Ryzen bei unterschiedlichen Ram Frequenzen die Einflüsse des IF zu untersuchen scheiterte an der Genauigkeit.
Nun sollte es also deutlich genauer werden!
Also habe ich mein Programm erweitert um einen zweiten Satz von 5 Frametime Messungen einlesen und verarbeiten zu können.
Das Programm wertet beide Messungen erst getrennt voneinander aus, so wie schon vorher, und dann nimmt es aus beiden, jeweils die 3 Besten und kombiniert diese.
Es werden jetzt also von 10 Messungen, der Mittelwert von 6 Auserwählten gebildet.
Was sich dabei gezeigt hat, ist wie oft die Messungen einen systematischen Fehler bekommen. Auch wenn die einzelnen Messreihen in sich eine geringe statistischen Schwankung haben, können sie von Tag zu Tag merklich abweichen. Teils sogar sehr deutlich.
Ich bin auf Ursachenforschung gegangen und habe die verschiedenen Spiele mit aktivem OSD getestet. Habe festgestellt, dass das OSD selbst schon überraschend viel Leistung zieht...egal.... es ist bei den späteren Messungen aus.
Es war aber weiterhin schwer die teils einige % betragenden Abweichungen zu ergründen.
Bei einigen Spielen hat die Arbeit des Schedulers den Ausschlag gegeben. Manchmal wurde die Last auf einzelnen Kernen festgehalten...am nächsten Tag eher hin und her geschoben.....dann haben einige Spiele einzelne Kerne überlastet, indem zwei Threads des gleichen CPU Kerns gleichzeitig stark belastet wurden.
Mal wurden Threads des gleichen CCX benutzt und mal gemischt.
Kurz gesagt macht der Windows Scheduler, (vor allem bei älteren Spielen) einen miesen Job auf Ryzen CPUs!
Um dies reproduzierbarer zu machen, habe ich in allen Spielen, die nur wenige Threads benutzen die zugewiesenen CPU-Threads angepasst.
Heroes of the Storm, Starcraft 2, Prison Architect, The Witcher 2, Thief und Frostpunk wurden nur die Threads 0, 2, 4 und 6 zugewiesen.
Also nur 4 echte Kerne eines CCX. Keine Inter-core-Kommunikation über den Infinity Fabric und keine Probleme mit SMT.
Rome TW habe ich die Threads 0 und 1 zugewiesen, also beide Threads des gleichen Kerns und Company of Heroes hat alle Threads eines CCX bekommen also 0-7...auch wenn es besser läuft mit mehr Kernen und ohne SMT.
Ich versuche den Großteil meiner Tests im CPU limit zu machen und da versucht meine Vega64 natürlich Strom zu sparen und niedrigere PStates zu nutzen. Leider schätzt sie die Last immer mal unterschiedlich ein und taktet dann unterschiedlich weit runter und geht auch beim HBM2 mal auf 500MHz und mal nicht.
Um diese Verhalten zu stabilisieren, habe ich für die Benchmarks den P6 als niedrigsten PState festgelegt.
Da die Karte wassergekühlt ist, kommt sie nie in Situationen, wo sie zu heiß läuft. Da die Taktrate aber die Temperatur als ständigen Faktor in die Berrechnung einbezieht, kann ich nicht ausschließen, das der Takt von Messung zu Messung weiterhin leicht unterschiedlich ist. Die Unterschiede sind aber gering und werden im CPU limit keine Rolle spielen.
Ein weiterer Punkt bei Ryzen ist der "sleep-Bug". Etwas das beim Wechsel in den Standby oder auch beim Herunterfahren unter Windows 10 passieren kann. Danach läuft der Timer falsch und da Frametimemessungen Zeitmessungen sind, fallen die Ergebnisse falsch aus.
Um dem vorzubeugen, habe ich den PC jeweils erst aus und wieder an gemacht und dann noch einen Neustart hinterhergeschoben.
Das an/aus bietet eine gleiche Ausgangsbasis und der Neustart behebt einen eventuell auftretenden Sleep Bug.
Interessanterweise konnte ich mehrere Male feststellen, das nach dem Prozedere die Messungen typische Werte ergaben, bei einem zweiten Neustart, die Ergebnisse jedoch viel zu gut ausgefallen sind. Und nach mehr und mehr Neustarts nährt man sich dann wieder immer mehr dem "Normalfall" an.
Sehr strange.
Ich habe eine saubere 1803 Win10 Installation aufgespielt.
Nur die Treiber und nötigsten Programme installiert und die HDD abgekoppelt um nur SSDs im System zu haben.
Ich habe musste Elex aus meiner Spieleauswahl streichen, da die neueren Radeon Treiber einen Start des Spiels verhindern.
Dafür habe ich Company of Heroes 2 und F1 2015 mit aufgenommen.
COH2 fand ich überraschend gut und es hat einen integrierten Benchmark. Leider hat der sich als notorisch unzuverlässig erwiesen.
Es gibt fast jedes mal im Benchmark heftige Frametimeausreißer, die aber eben nicht jedes Mal auftreten und machmal auch häufiger als üblich.
Ich musste also statt 6 Messungen je Durchgang eher 8-9 machen um dann nachträglich die zu guten und zu schlechten auszusortieren.
Dazu sind die Ladezeiten in den Benchmark und auch ins Menü quälend langsam...kurz gesagt werde ich das nicht nochmal testen .
F1 2015 wird bleiben...eine Startphase vom Ende des Feldes, bei Sturm, liefert eine hohe CPU Last und kann gut reproduzierbar sein...man darf nur keinen Unfall bauen oder sich von der KI abschießen lassen.
Auch die anderen Spiele habe ich öfter als vorher getestet(7-9 mal je Messreihe) und habe aktiv Ausreißer eliminiert um die "normalsten 5" in das Programm zu füttern. Das führ dazu, das jedes Set an Messungen in sich sehr zuverlässig wird.
Um auf 10 Messungen zu kommen habe ich das zweite Set an Messungen an einem anderen Tag oder zumindest mit Pause/Neustart/usw dazwischen durchgeführt.
Wenn die Auswertung von Set 1 zu Set 2 dann unterschiedliche Ergebnisse gezeigt haben, habe ich mir das notiert und an einem dritten Tag nochmal gemessen...oder noch an einem vierten Tag....um sicher zu gehen, das ich keine versaute Messreihe dazwischen habe.
Ausnahme ist Ashes of the Singularity, wo ich einfach 2x5 Messungen genommen habe ohne zusätzliche Messungen und manuelle Auswahl. Denn der integrierte Benchmark ist einfach mal gut und mal schlecht....mit ca. 40% Chance auf gut...und dann dauert er 3 min.....Ich habe ihn drin weil er große Unterschiede zeigt, dafür habe ich hier bei der Genauigkeit geschludert.
Bei ein paar Spielen habe ich die Messdauer verlängert.(Cities Skylines von 40 auf 50s, Prison Architect von 90 auf 120s)
Hitman hatte bei meinen Tests im März noch einene FPS limiter eingebaut. Dieser ist inzwischen rausgepatched und ich bin gleichzeitig von der Testszene in Paris auf eine Szene in Marrakesh umgestiegen. Die hat noch mehr NPCs auf einem Haufen und noch höhere CPU Last, die teilweise 8 Kerne voll auslastet.
Das alles über 13 Spiele hat mich sehr viel Zeit gekostet! ....über 1800 Messungen und da sind noch nicht die "Vormessungen" drin, die ich nicht aufgezeichnet habe und auch nicht die bei denen was schief gelaufen ist, so dass ich sie direkt gelöscht habe.
Zusammenfassung der Verbesserungen:
-Win10 neu installiert und auf Neustarts geachtet.
-Teils länger und immer mehr als doppelt bis dreimal so oft gemessen.
-CPU Threads festgelegt wo es Sinn ergeben hat.
-Messungen bei Bedarf von Hand sortiert.
-Vega am heruntertakten gehindert..
Spiel Einstellungen:
Hierbei habe ich mich nicht auf maximale FPS durch niedrige Auflösungen und Einstellungen konzentriert, sondern die Auflösung auf 1440p gelassen und nur in komplett CPU limiterten Spielen die maximalen Details genutzt.
Wo die Grafikkarte eine Rolle spielt, habe ich die Optionen individuell angepasst um einen guten Kompromiss aus Grafik und FPS um die 80-100 pro Sekunde zu finden.
Ich habe die Spiele also so eingestellt, wie ich sie selbst spielen würde und dann getestet welche Unterschiede sich bei diesen realen Situationen ergeben.
Die getesteten Szenen waren dabei natürlich so gewählt, dass sie für die CPU typisch bis besonders anspruchsvoll sind.
Benchmarkergebnisse und neue Testsequenzen
Ich habe mich dazu entschieden die absoluten Frametimedaten und die Vorstellung der neuen Testsequenzen in einen extra Artikel auszulagern.
Dann kann ich mich hier auf die prozentualen Unterschiede von dual zu single ranked konzentrieren.
Ramtest-Session Juli/August 2018
.......................
Synthetische Benchmarks(Aida64)
An dieser Stelle nochmal ein kurzer Überblick über das verwendete System und die verwendeten Ramtimings:
Ein Ryzen 1800X mit Pstate OC auf 3,8GHz. 100.2MHz BCLk(für die optik). Ich musste für die sommerlichen Temperaturen etwas undervolting zurücknehmem und komme unter IBT Last auf 1,3-1,312V.
Asus Crosshair VI Hero @ Bios 6002
Vega64 LC mit custom Wasserkühlung für CPU und GPU. PT+50%, P7 = 1702MHz, 1050mV(resultiert in ca 1610MHz bei 1V),
HBM2@1050MHz, P6 als min gesetzt
2x8GB SR DDR4 mit Samsung B-die
Sämtliche im Bios einstellbaren Timings wurden für die höchste effektive Ram Taktrate meines DR Kits optimiert und manuell festgesetzt.
Kommen wir jetzt zu den Bandbreiten und Latenzen, die Aida misst:
Wenn die 8GB Riegel im single channel Modus gesteckt sind, sieht man wie sich die Bandbreiten fast halbieren. Ein erwartbares Ergebnis.
Es ist allerdings nicht ganz die Hälfte sondern doch noch ein kleines Bisschen mehr.
Anders als bei den Bandbreiten, scheinen hier SR und SC keine Nachteile zu haben.
Der SC Betrieb hat bei 3200 sogar die besten Werte, wobei man hier praktisch im Bereich der Messungenauigkeit liegt.
Die 2933 Cl16 liegen wieder im Mittelfeld. Ich hatte aufgrund der schlechteren Timings schlimmeres erwartet und bin positiv überrascht.
Die erhobenen Daten sind aus dem Juli/August 2018 und sind sicher gegen Meltdown und Spectre(nach aktuellem Wissensstand).
Windows 10 und Treiber waren aktuell, HPET aus, Energieoptionen auf Höchstleistung.
Mit diesen "theoretischen" Werten im Hinterkopf können wir und jetzt an die Auswertung der Spieleergebnisse machen....
Spieletests: Dual channel vs. single channel
Trotz meines enormen Aufwandes, sind nicht alle Daten so zuverlässig, dass sie eine Aussagekraft haben. Ich zeige daher erstmal nur die Daten die mir zuverlässig erscheinen und wer alles sehen möchte muss den Spoiler öffnen.
DC vs. SC bei 3200 Cl14:
Ich musste CoH 2, The Witcher 2 u. 3 komplett rausnehmen und auch ein paar der 1% und 0.1% low Werte.
Rome und das ausgeblendete Witcher 3 scheinen sich nicht für den Verlust der Bandbreite interessieren.
Aots, Hitman , Thief und F1 2015 verlieren deutlich an Leistung.
Interessanterweise sind dies auch die Spiele, die bei dem dual ranked Test gut vom dual ranked Ram profitiert haben.
Die anderen Spiele verlieren auch ein paar % an Leistung, sonderlich kritisch sind die Veluste hier aber nicht.
Aber schauen wir uns erst einamal den Vergleich bei 2133Mhz an:
DC vs. SC bei 2133 Cl14:
Wie wir sehen sind die Nachteile bei nur 2133MHz deutlich größer und öfter vertreten!
Ich nehme an, das mit weniger Ram Geschwindigkeit, der Verlust an Bandbreite deutlich stärker zum tragen kommt.
Das ist besonders ärgerlich, da gerade in Fertigrechnern und Notebooks, wo auf single channel gesetzt wird, in der Regel auch langsamer Ram verbaut wird.
Bewertung der single channel Ergebnisse und Fazit:
Die Verluste durch den single channel Betrieb reichten von "nicht vorhanden" bis "28% avg FPS".
Das ist ein großer Bereich, der wieder mal eine allgemeingültige Aussage schwer macht.
Schaut man sich die Aida 64 Ergebnisse an, dann sieht man schlicht eine Halbierung der Bandbreite bei gleich bleibenden(leicht besseren) Latenzen.
Wird der Ram also voll ausgelastet, kann ein zweiter Channel den Durchsatz verdoppeln. Die eigentliche Arbeitsgeschwindigkeit wird jedoch nicht beeinflusst.
Das spiegelt sich auch in den Spieletests wieder. Alte Spiele, die nur wenige Threads benutzen können und nicht viel Daten zu übertragen haben, sind nicht benachteiligt.
Wenn ich die Spiele in Kategorien einteile und versuche Muster zu erkennen, dann würde ich folgendes schlussfolgern:
- Moderne Spiele, die große Mengen an Textur und Effekt-Daten in und aus dem Ram kopieren, verlieren stärker in single Channel Betrieb.
Beispiele sind bei mir AotS, Hitman, ROTTR, Witcher 3 und F1 2015....und irgendwie auch Thief.....das sind auch eher die Spiele, die in meinem Test zum dual ranked Ram die größten Unterschiede hatten.
Offensichtlich brauchen sie große Bandbreiten
-Die restlichen Spiele zeigen keine bis geringe Nachteile....Die Unterschiede zeigen sich aber viel deutlicher bei 2133er Ram.
Mit langsamem Ram kommt man also früher in kritische Bereiche, wo die Bandbreite limitierend wirkt.
Das es Nachteile durch single Channel Betrieb gibt, ist nichts neues.
Ich hoffe ich konnte in diesem Test klären, wie groß sie in verschiedenen Spielen sind.
Für mich steht fest, dass auch wenn in der Vergangenheit und in alten Spielen der Bedarf an Ram Bandbreite nicht gegeben war/ist,
man in 2018, wenn möglich auf dual channel setzen sollte!
Bei Benutzung einer integrierten GPU sowieso...das haben schon ältere Tests immer wieder gezeigt....aber auch in neuen Spielen, die mit großen Texturen/Effekten und komplexen Spielwelten hantieren.
Was sind eure Meinungen dazu?
Habt ihr Verbesserungsvorschläge oder wollt ihr besimmte Sachen sehen, die ich hier nicht behandelt habe?
Zuletzt bearbeitet: