Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test 8 vs. 16 vs. 32 GB RAM: So viel Arbeitsspeicher benötigen aktuelle Spiele
- Ersteller Wolfgang
- Erstellt am
- Zum Test: 8 vs. 16 vs. 32 GB RAM: So viel Arbeitsspeicher benötigen aktuelle Spiele
TnTDynamite
Commodore
- Registriert
- März 2007
- Beiträge
- 4.493
Bei mir sind vor paar Monaten 2 von 4 RAM-Bänken kaputt gegangen. Hab dann die 2*8 darin verkauft und merke seither keinen Unterschied. Hätte ich einen gemerkt, hätte ich die anderen 2*8 auch noch verkauft und 2*16 geholt. Jetzt überlege ich das einfach so zu lassen, bis DDR5 im Markt so richtig angekommen ist. Also nicht nur erhältlich, sondern auch in einem vernünftigen Zeitrahmen. Falls nicht, dürfte DDR4 mit flottem Takt bis dahin auch noch erschwinglicher geworden sein.
Für mich kommen bei der Wahl der Speichermenge einige Punkte zusammen.
a) Ist der RAM grad billig oder eher Wucher?
b) Was will ich damit machen? Und hierbei auch insbesondere: Was genau will ich damit zocken?
c) Wie lange plane ich den Rechner noch ungefähr zu behalten?
d) Wie sehr kann oder will ich mit gewissen Einschränkungen leben? (d.h. dass es dann eben doch mal hängt/ruckelt oder im Extremfall ein Spiel auch mal abstürzt; siehe FS2020)
e) Wie sicher will ich sein, dass der Rechner nicht nur für die Games ausreicht, die ich vielleicht gerade zocke und die im Test gezeigt haben, dass es auch mit 8 oder 16GB problemlos läuft, sondern auch für das Game, das ich mir nächsten Monat oder nächstes Jahr dazu hole?
f) Je nach Situation: Geht es um die Frage nachzurüsten oder gerade komplett neu zu kaufen (den PC)?
Und natürlich:
g) Wie viel Budget habe ich dafür?
Für mich ist hier tatsächlich immer der wesentlichste Punkt die Nummer e):
Ja, es kann sein dass auch xGB (Zahl nach Belieben einsetzbar) für alles ausreichen was ich gerade zocke oder zu zocken plane, aber wenn ich weiß dass bereits die ersten Spiele eine gewisse Grenze reißen (auch wenn die für mich vllt. nicht unmittelbar interessant sind), dann wähle ich die Ausstattung meines neuen (!) Rechners definitiv so, dass sie über dieser Grenze liegt. So dass ich mich, wenn ich dann in den nächsten Monaten oder ggf. Jahren ein neues Spiel anfange das noch nicht auf dem Plan war, definitiv nicht darüber ärgern muss geknausert zu haben.
Diese Grenze liegt für mich aktuell bei 16GB: Für die meisten Spiele reicht das locker, ja, aber es gibt doch schon einige*, die von mehr profitieren. Das wird ja nicht weniger wahr, nur weil es gerade dieser Test hier nicht aufzeigt. D.h. um sicher darüber zu liegen würde ich keinen neuen Spiele-PC mit weniger als 32GB haben wollen.
*Anno, Star Citizen, FS2020, No Man's Sky, DCS ... nur die von der aktuell letzten Seite hier. Ich denke es schaffen noch sehr viel mehr, insbesondere im fortgeschrittenen Verlauf (von Strategiespielen etc.) sowie im Simulationsbereich. Das kann so ein Test hier eben nicht alles abdecken.
Tatsächlich habe ich mir beim Neuaufbau letztes Jahr gleich 64GB reingesteckt. Das ist natürlich overkill und bar jeder Vernunft, aber RAM war halt billig. Das kann man ja auch mal nutzen. Zudem habe ich die Erfahrung gemacht, dass späteres Nachrüsten auch immer nicht so richtig Spaß macht. Die Timings von den Riegeln, die man dann noch bekommt (weil Nachfolgetechnik bereits etabliert und nur noch Restbestände vorhanden o.Ä.) passen nicht, es verträgt sich ggf. nicht mit dem vorhandenen Speicher oder Board, oder man meint es lohnt nicht mehr die alte Möhre noch mal nachzurüsten, da ein Update auf eine ganz neue Plattform "irgendwann im kommenden Jahr" dann mehr Sinn macht. Oder die verbliebenen Riegel auf dem Markt sind sch*teuer geworden. Oder, oder, oder.
Also ärgert man sich ggf. noch ewig mit Ruckeleien etc. herum, oder darüber dass man eigentlich zuviel ausgeben musste, oder dass der PC nicht mehr sein volles Potential ausschöpfen kann. Wie man es auch macht, so richtig zufrieden war ich dann jedenfalls selten.
Dann lieber einmal richtig am Anfang, und es reicht dann mindestens auch so lange, bis wirklich eh die ganze Plattform getauscht werden muss, so dass ich mir darüber gar keine Gedanken mehr machen muss. Sicher reicht auch ein harter Küchenhocker wenn man sich mal hinsetzen will, aber um sich wirklich entspannen zu können darf es schon ein ordentliches Wohlfühlpolster sein.
Aber ich kann es auch verstehen, wenn man einen anderen Ansatz fährt. Hier muss halt jeder selber sehen was für ihn den meisten Sinn macht. Ich kann die Empfehlung, bei Neukauf lieber gleich zu 32GB zu greifen wenn möglich, aber absolut nachvollziehen und nur unterstützen. Aus obigen Gründen.
a) Ist der RAM grad billig oder eher Wucher?
b) Was will ich damit machen? Und hierbei auch insbesondere: Was genau will ich damit zocken?
c) Wie lange plane ich den Rechner noch ungefähr zu behalten?
d) Wie sehr kann oder will ich mit gewissen Einschränkungen leben? (d.h. dass es dann eben doch mal hängt/ruckelt oder im Extremfall ein Spiel auch mal abstürzt; siehe FS2020)
e) Wie sicher will ich sein, dass der Rechner nicht nur für die Games ausreicht, die ich vielleicht gerade zocke und die im Test gezeigt haben, dass es auch mit 8 oder 16GB problemlos läuft, sondern auch für das Game, das ich mir nächsten Monat oder nächstes Jahr dazu hole?
f) Je nach Situation: Geht es um die Frage nachzurüsten oder gerade komplett neu zu kaufen (den PC)?
Und natürlich:
g) Wie viel Budget habe ich dafür?
Für mich ist hier tatsächlich immer der wesentlichste Punkt die Nummer e):
Ja, es kann sein dass auch xGB (Zahl nach Belieben einsetzbar) für alles ausreichen was ich gerade zocke oder zu zocken plane, aber wenn ich weiß dass bereits die ersten Spiele eine gewisse Grenze reißen (auch wenn die für mich vllt. nicht unmittelbar interessant sind), dann wähle ich die Ausstattung meines neuen (!) Rechners definitiv so, dass sie über dieser Grenze liegt. So dass ich mich, wenn ich dann in den nächsten Monaten oder ggf. Jahren ein neues Spiel anfange das noch nicht auf dem Plan war, definitiv nicht darüber ärgern muss geknausert zu haben.
Diese Grenze liegt für mich aktuell bei 16GB: Für die meisten Spiele reicht das locker, ja, aber es gibt doch schon einige*, die von mehr profitieren. Das wird ja nicht weniger wahr, nur weil es gerade dieser Test hier nicht aufzeigt. D.h. um sicher darüber zu liegen würde ich keinen neuen Spiele-PC mit weniger als 32GB haben wollen.
*Anno, Star Citizen, FS2020, No Man's Sky, DCS ... nur die von der aktuell letzten Seite hier. Ich denke es schaffen noch sehr viel mehr, insbesondere im fortgeschrittenen Verlauf (von Strategiespielen etc.) sowie im Simulationsbereich. Das kann so ein Test hier eben nicht alles abdecken.
Tatsächlich habe ich mir beim Neuaufbau letztes Jahr gleich 64GB reingesteckt. Das ist natürlich overkill und bar jeder Vernunft, aber RAM war halt billig. Das kann man ja auch mal nutzen. Zudem habe ich die Erfahrung gemacht, dass späteres Nachrüsten auch immer nicht so richtig Spaß macht. Die Timings von den Riegeln, die man dann noch bekommt (weil Nachfolgetechnik bereits etabliert und nur noch Restbestände vorhanden o.Ä.) passen nicht, es verträgt sich ggf. nicht mit dem vorhandenen Speicher oder Board, oder man meint es lohnt nicht mehr die alte Möhre noch mal nachzurüsten, da ein Update auf eine ganz neue Plattform "irgendwann im kommenden Jahr" dann mehr Sinn macht. Oder die verbliebenen Riegel auf dem Markt sind sch*teuer geworden. Oder, oder, oder.
Also ärgert man sich ggf. noch ewig mit Ruckeleien etc. herum, oder darüber dass man eigentlich zuviel ausgeben musste, oder dass der PC nicht mehr sein volles Potential ausschöpfen kann. Wie man es auch macht, so richtig zufrieden war ich dann jedenfalls selten.
Dann lieber einmal richtig am Anfang, und es reicht dann mindestens auch so lange, bis wirklich eh die ganze Plattform getauscht werden muss, so dass ich mir darüber gar keine Gedanken mehr machen muss. Sicher reicht auch ein harter Küchenhocker wenn man sich mal hinsetzen will, aber um sich wirklich entspannen zu können darf es schon ein ordentliches Wohlfühlpolster sein.
Aber ich kann es auch verstehen, wenn man einen anderen Ansatz fährt. Hier muss halt jeder selber sehen was für ihn den meisten Sinn macht. Ich kann die Empfehlung, bei Neukauf lieber gleich zu 32GB zu greifen wenn möglich, aber absolut nachvollziehen und nur unterstützen. Aus obigen Gründen.
xXDarthGollumXx
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 596
Ja das macht schon sinn.IV52 schrieb:GPU/CPU sparen, um die von 16 auf 32 GB Ram upgraden zu können. Alles klar.
Der RAM wird sicher seltener getauscht als die CPU/GPU.
Ich würde immer für CPU/RAM/Board etwas mehr ausgeben denn auf lange Frist hast du dann weniger Aufwand beim Upgrade
Keniji
Lieutenant
- Registriert
- März 2007
- Beiträge
- 749
L
Lucamon97
Gast
Also ich mit 4 GB hab schon lange zu wenig...haha
Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.393
Also vorweg.... Schön, dass CB solche Tests macht und versucht neben reinen Produkt Reviews auch Zusammenhänge zu untersuchen.
Aber ich muss an dieser Stelle einige Kritik loswerden.
Erstmal braucht ein solcher Test eine Fehlerrechnung und die Diagramme Fehlerbalken!
Wir gucken hier auf so kleine Unterschiede, dass ich mich bei jedem Diagramm frage ob das nun ein echter Unterschied oder nur Messungenauigkeit ist.
Konkret z.B. Borderlands 3, wo die Percentile von 16GB genau zwischen den 32GB Kofigs liegen, aber die FPS eher bei den 8GB.
Und gegensätzlich bei z.B. CoD und Anno, wo die Percentile abfallen.
Ohne Infos zu der Reproduzierbarkeit der Messungen kann man eigentlich nur die Schultern zucken und die Ergebnisse ignorieren.
Wer nicht weiß wie man eine Fehlerrechnung macht:
Also bitte liebes CB-Team ....beschäftigt euch damit und liefert sowas in Zukunft.
Dann wurde für diesen Test die Geschwindigkeit des langsamsten Ramkits benutzt.
Volle Unterstützung meinerseits, da es hier nicht um die Kaufberatung zu speziellen Ramkits geht, sondern um eine eher akademische Untersuchung von Ramkapazität und Ranks.
Aber warum wurden dann nur die Haupttimings angepasst? ...Zumindest wurde es nur so geschrieben und daher gehe ich davon aus, dass eben nur "16-19-19-38-1T" genutzt wurde und der Rest "auto" war.
Wenn man die Ramriegel auf dem gleichen Mainboard testet, kann man doch einfach alle Timings vom langsamsten Ramkit auslesen...in ein Bios Profil speichern..und auch für die anderen Ramkits laden.
Wenn ich richtig gezählt habe, kann man bei AM4 von 37 Timings, 28 selbst einstellen.
Wäre schön, wenn man alle einstellen könnte, aber es ist besser als nur 5 einzustellen und bei der Aussage 1T frage ich mich, ob das überhaupt anlag, oder ob die 1T Einstellung durch den GearDownMode überschrieben wurde.
Warum hat man bei einem Test der viele Stunden Testen verlangt, nicht die 5min Zeit, um diese Fehlerquelle auszuschließen?
Auch ist es natürlich "realitätsnaher", wenn die CPU Stock betrieben wird, aber die aktuellen Boost Mechaniken reagieren ja sehr sensibel auf kleine Veränderungen und schwanken im Takt.
Für einen Test mit Fokus auf die genaue Betrachtung der Ramkapazität, wäre es sinnvoll gewesen die CPU z.B. auf allcore 4,2GHz festzusetzen...oder 4,1...irgendwas was sicher stabil ist.
Die CPU ist ja hier nicht von Bedeutung und es wären wieder nur 5Min gewesen, um ihre Leistung deutlich reproduzierbarer zu gestalten.
Es wird im Text auch angesprochen...ist also als Problem erkannt.
Die verwendete PCIe 4.0 SSD wird den Einfluss von möglichem "Auslagern aufs Laufwerk", natürlich abschwächen.
Die meisten Spieler werden hoffentlich eine SSD verwenden, aber nur sehr wenige werden eine PCIe4.0 SSD verwenden...nichtmal die mit Zen3 CPU.
Es wäre aus meiner Sicht sinnvoller gewesen, hier eine Sata SSD zu verwenden, um die möglichen Unterschiede eher aufzeigen zu können....eventuell sogar eine HDD.
Aber wie der nächste Kritikpunkt zeigen wird, würde ich für den CB-Test trotzdem keine Unterschiede erwarten, da die Testmethodik nicht dafür geeignet ist, "Auslagern" sinnvoll zu testen.
Für die Grafikkartentests sind die Messungenvon CB sicherlich in Ordnung.
Aber gerade Anno 1800 wäre so ein Fall, wo die Leistung innerhalb der ersten Minuten deutlich abnimmt.
Und sich der Ram immer weiter füllt.
Ich habe da den Eindruck, dass es gar nicht die Menge an Einwohnern und deren Versorgung ist, die viel Ram benötigt, sondern die ausgelagerten Texturen.
Trotz 16GB VRam verwendet das Spiel immer nur 6-7GB und ist schnell dabei, die Texturen(oder ähnliches) in den Systemram auszulagern.
Und die Unterschiede durch unterschiedlich viel Ram wird man daher auch nicht, mit einem Standbild kurz nach dem Ladevorgang, testen können.
ich denke dass das Spiel alles auf dem Bildschirm in den Vram bekommt und die Produktion eher wie eine große Exceltabelle nebenbei läuft(geringer Ramverbrauch).
Die FPS sind je nach Einstellung und Hardware über die Drawcalls dominiert, und die nötigen Daten werden nicht schon mit 16GB vom Auslagern bedroht sein.
Aber die Texturen von anderen Welten, anderen Stellen außerhalb des Standbildes fliegen eventuell raus, und eine Untersuchung der Ramkapazität müsste eigentlich, wie ein Spieler im Spielverlauf, Kamerasprünge machen.
Erst hier sehe ich ein Potential für wirkliche Unterschiede.
Dass das schwer zu machen ist, sehe ich ein.
Es muss einen automatisierten Ablauf geben, der erst die verschiedensten Bereiche des Spiel aufruft, wie es der Spieler im Spielverlauf tut, und dann müssten die eigentlichen Messungen ebenfalls einen Ablauf nutzen, der verschiedene Bereiche zeigt und die möglichen Ruckler reproduziert.
Und all das braucht viel Zeit!
Das Spiel lässt sich Zeit damit, auf die besseren Texturen zu wechseln und es gibt mit dem DLCs viele Orte und dann noch die vielen Zoomstufen....man bräuchte also auch ein Savegame, dass alles aktiv und bebaut hat.
Und vieles davon langsam abzufahren ist langwierig....es sinnvoll zu testen auch...und wenn man dann noch 5 Durchgange machen muss, hat man mit Anno vermutlich mehr Zeit verbracht, als der ganze CB Test gebraucht hat.
Auf der anderen Seite erhällt man nur so aussagekräftige Ergebnisse.
Der Test von Anno 1800 wie CB ihn macht scheint mir für CPU und Ramtests völlig überflüssig zu sein....entweder richtig, oder gar nicht.
Wir als Spieler können nicht den Quellcode des Spiels fixen....also müssen wir uns damit abfinden...Workarounds finden oder das Problem mit Hardware erschlagen.
Wir konzentrieren uns doch seit Jahren auf CPUs mit hoher singlecore Leistung, weil viele Spiele die Kerne nicht gut ausgelastet bekommen.
Mir ist klar, dass es für sinnvolles Multithreading-Grenzen gibt, aber es gibt ja die Spiele, die trotz Ego-Perspektive von 12 CPU-Kernen profitieren.
Warum nutzen viele Spiele weiterhin nur 4-5...und zwingen uns damit zu hoher Leistung pro Kern und schnellem Ram.
Warum sollten wir keinen Memmoy Leak, mit mehr Ram kontern?
Der Begleittext spricht es ja selbst an, aber eine der Zwischenüberschriften lautet:
"Ob 2 oder 4 Module, macht keine wirklichen Unterschiede"
Was dann wieder die Verallgemeinerung ist, die in den Köpfen hängenbleibt.
Es ist ja schön, wenn der Test zeigt, dass 4x8(SR) gleich ist zu 2x16GB(DR), weil beides 2 Ranks pro Channel ist, aber es macht den Vergleich von 2x8(SR) zu 32GB irgendwie fraglich.
Angeblich gibt es ja Spiele, die durch dual ranked 17% an FPS gewinnen(Cyberpunk)...die Genauigkeit/Korrektheit dieses PCGH Tests möchte ich stark anzweifeln, aber da es ja Unterschiede geben kann, wäre es eher sinnvoll gewesen, die 16GB als 2x8( 2 Ranks) und 4x4( 4 Ranks) zu unterteilen.
Dann hätte man den Vergleich zu 2x4 bei gleichen Ranks gehabt und zu 32GB ebenfalls mit gleichen Ranks.
...Plus den SR zu DR Vergleich bei gleicher Kapazität.
Aber ich muss an dieser Stelle einige Kritik loswerden.
Erstmal braucht ein solcher Test eine Fehlerrechnung und die Diagramme Fehlerbalken!
Wir gucken hier auf so kleine Unterschiede, dass ich mich bei jedem Diagramm frage ob das nun ein echter Unterschied oder nur Messungenauigkeit ist.
Konkret z.B. Borderlands 3, wo die Percentile von 16GB genau zwischen den 32GB Kofigs liegen, aber die FPS eher bei den 8GB.
Und gegensätzlich bei z.B. CoD und Anno, wo die Percentile abfallen.
Ohne Infos zu der Reproduzierbarkeit der Messungen kann man eigentlich nur die Schultern zucken und die Ergebnisse ignorieren.
Wer nicht weiß wie man eine Fehlerrechnung macht:
Ohne zu sehr ins Detail zu gehen, unterscheidet man bei experimentellen Messungen zwischen einem systematischen Fehler und einem statistischen Fehler....die Statistik für Umfragen usw sind nochmal anders.
Die Systematischen Fehler sind schwer zu identifizieren....ein Beispiel wären Temperaturmessungen mit einen Thermometer, aber das Thermometer zeigt immer 0,5K zu viel an.
Bin ich an der absoluten Temperatur interessiert oder teste ich die Differenz zu einem zweiten Thermometer, dann ist das ein kritischer Fehler.
Bin ich an einer Temperaturänderung interessiert, dann ist es ok, solange sich diese 0,5K Offset nicht verändern.
Bezogen auf diesen CB-Test könnte man fragen, ob die Ramkits nicht verschiedene Subtimings anliegen haben, oder eine Testserie von Hinergrundprozessen wie der Verarbeitung von Windowsupdates gestört wurde.
Ist alles gut gelaufen, sollte es keinen systematischen Fehler geben...sowas bleibt aber gerne unentdeckt...dabei hilft es die Messungen an einen zweiten Tag zu verifizieren...Updtes zu verbieten usw.
Die statistischen Fehler kann man nicht verhindern.
Man kann sie aber durch eine bessere Methode vermindern, und duch eine Fehlerrechnung abschätzen, um zeigen zu können ob gemessene Unterschiede echt sind, oder nur Messungenauigkeit.
Hierfür ist es notwendig mehrere Messungen durchzuführen und eine empirische Standardabweichung auf die Mittelwerte der Ergebnisse anwenden zu können.
Bei 3 Messungen kann man das zwar machen, aber der/die "Fehler/Aussagekraft" des Fehlers selbst, wird ziemlich schlecht sein.
5 Messungen(oder mehr) sollten es sein....entsprechend hat man z.B. 5 Ergebnise für die FPS(z.B. X1-X5), aus denen man den Mittelwert(nennen wir ihn XM) bildet und dann nach folgender Formel die Standardabweichung bildet:
Fehler von XM(nennen wir ihn Err_XM) = Wurzel( ( (X1-XM)²+(X2-XM)²+...+(X5-XM)² )/(n-1) ) ...wobei "n" in unserem Fall 5 ist.
Das gibt uns eine Abschätzung für die Schwankung der Messwerte um dem Mittelwert.
Durch das Quadrieren der Abstände zum Mittelwert, werden größere Ausreißer stärker gewichtet.
Das Teilen durch "n-1" gibt es auch als Variante mit nur "n", was eine etwas wohlwollendere Abschätzung ergibt, aber für hohe n egal wird.
Man gibt das Ergebnis dann als XM +- Err_XM an....bzw. blendet im Biagramm einen Fehlerbalken ein.
Wenn man die Messungen in Frametimes (ms) gemacht hat, sie aber in "FPS" (1/s) ausgeben möchte, muss man den Fehler noch, entsprechend der Gaußschen Fehlerfortpflanzung, umrechnen.
ms in 1/s(FPS) macht man über FPS = 1000/ms.
Die Gaußsche Fehlerfortpflanzung nimmt die Ableitung der Umrechnung und multipliziert den Fehler dazu...dann wird noch der Betrag gebildet.
Err_XM(1/s) = |-1000*Err_XM(ms)/XM²|
Das mag erstmal umständlich erscheinen, aber einmal einprogrammiert kann der PC das ja für einen ausrechnen.
Die Systematischen Fehler sind schwer zu identifizieren....ein Beispiel wären Temperaturmessungen mit einen Thermometer, aber das Thermometer zeigt immer 0,5K zu viel an.
Bin ich an der absoluten Temperatur interessiert oder teste ich die Differenz zu einem zweiten Thermometer, dann ist das ein kritischer Fehler.
Bin ich an einer Temperaturänderung interessiert, dann ist es ok, solange sich diese 0,5K Offset nicht verändern.
Bezogen auf diesen CB-Test könnte man fragen, ob die Ramkits nicht verschiedene Subtimings anliegen haben, oder eine Testserie von Hinergrundprozessen wie der Verarbeitung von Windowsupdates gestört wurde.
Ist alles gut gelaufen, sollte es keinen systematischen Fehler geben...sowas bleibt aber gerne unentdeckt...dabei hilft es die Messungen an einen zweiten Tag zu verifizieren...Updtes zu verbieten usw.
Die statistischen Fehler kann man nicht verhindern.
Man kann sie aber durch eine bessere Methode vermindern, und duch eine Fehlerrechnung abschätzen, um zeigen zu können ob gemessene Unterschiede echt sind, oder nur Messungenauigkeit.
Hierfür ist es notwendig mehrere Messungen durchzuführen und eine empirische Standardabweichung auf die Mittelwerte der Ergebnisse anwenden zu können.
Bei 3 Messungen kann man das zwar machen, aber der/die "Fehler/Aussagekraft" des Fehlers selbst, wird ziemlich schlecht sein.
5 Messungen(oder mehr) sollten es sein....entsprechend hat man z.B. 5 Ergebnise für die FPS(z.B. X1-X5), aus denen man den Mittelwert(nennen wir ihn XM) bildet und dann nach folgender Formel die Standardabweichung bildet:
Fehler von XM(nennen wir ihn Err_XM) = Wurzel( ( (X1-XM)²+(X2-XM)²+...+(X5-XM)² )/(n-1) ) ...wobei "n" in unserem Fall 5 ist.
Das gibt uns eine Abschätzung für die Schwankung der Messwerte um dem Mittelwert.
Durch das Quadrieren der Abstände zum Mittelwert, werden größere Ausreißer stärker gewichtet.
Das Teilen durch "n-1" gibt es auch als Variante mit nur "n", was eine etwas wohlwollendere Abschätzung ergibt, aber für hohe n egal wird.
Man gibt das Ergebnis dann als XM +- Err_XM an....bzw. blendet im Biagramm einen Fehlerbalken ein.
Wenn man die Messungen in Frametimes (ms) gemacht hat, sie aber in "FPS" (1/s) ausgeben möchte, muss man den Fehler noch, entsprechend der Gaußschen Fehlerfortpflanzung, umrechnen.
ms in 1/s(FPS) macht man über FPS = 1000/ms.
Die Gaußsche Fehlerfortpflanzung nimmt die Ableitung der Umrechnung und multipliziert den Fehler dazu...dann wird noch der Betrag gebildet.
Err_XM(1/s) = |-1000*Err_XM(ms)/XM²|
Das mag erstmal umständlich erscheinen, aber einmal einprogrammiert kann der PC das ja für einen ausrechnen.
Also bitte liebes CB-Team ....beschäftigt euch damit und liefert sowas in Zukunft.
Dann wurde für diesen Test die Geschwindigkeit des langsamsten Ramkits benutzt.
Volle Unterstützung meinerseits, da es hier nicht um die Kaufberatung zu speziellen Ramkits geht, sondern um eine eher akademische Untersuchung von Ramkapazität und Ranks.
Aber warum wurden dann nur die Haupttimings angepasst? ...Zumindest wurde es nur so geschrieben und daher gehe ich davon aus, dass eben nur "16-19-19-38-1T" genutzt wurde und der Rest "auto" war.
Wenn man die Ramriegel auf dem gleichen Mainboard testet, kann man doch einfach alle Timings vom langsamsten Ramkit auslesen...in ein Bios Profil speichern..und auch für die anderen Ramkits laden.
Wenn ich richtig gezählt habe, kann man bei AM4 von 37 Timings, 28 selbst einstellen.
Wäre schön, wenn man alle einstellen könnte, aber es ist besser als nur 5 einzustellen und bei der Aussage 1T frage ich mich, ob das überhaupt anlag, oder ob die 1T Einstellung durch den GearDownMode überschrieben wurde.
Warum hat man bei einem Test der viele Stunden Testen verlangt, nicht die 5min Zeit, um diese Fehlerquelle auszuschließen?
Auch ist es natürlich "realitätsnaher", wenn die CPU Stock betrieben wird, aber die aktuellen Boost Mechaniken reagieren ja sehr sensibel auf kleine Veränderungen und schwanken im Takt.
Für einen Test mit Fokus auf die genaue Betrachtung der Ramkapazität, wäre es sinnvoll gewesen die CPU z.B. auf allcore 4,2GHz festzusetzen...oder 4,1...irgendwas was sicher stabil ist.
Die CPU ist ja hier nicht von Bedeutung und es wären wieder nur 5Min gewesen, um ihre Leistung deutlich reproduzierbarer zu gestalten.
Es wird im Text auch angesprochen...ist also als Problem erkannt.
Die verwendete PCIe 4.0 SSD wird den Einfluss von möglichem "Auslagern aufs Laufwerk", natürlich abschwächen.
Die meisten Spieler werden hoffentlich eine SSD verwenden, aber nur sehr wenige werden eine PCIe4.0 SSD verwenden...nichtmal die mit Zen3 CPU.
Es wäre aus meiner Sicht sinnvoller gewesen, hier eine Sata SSD zu verwenden, um die möglichen Unterschiede eher aufzeigen zu können....eventuell sogar eine HDD.
Aber wie der nächste Kritikpunkt zeigen wird, würde ich für den CB-Test trotzdem keine Unterschiede erwarten, da die Testmethodik nicht dafür geeignet ist, "Auslagern" sinnvoll zu testen.
Das wäre mein nächster Kritikpunkt gewesen.HisN schrieb:Ganz ehrlich, was zeigen uns die 30 Sekunden-Benchmarks die Wolfgang gemacht hat wirklich?
Das die ersten 30 Sekunden die RAM-Menge, die er gemessen hat ausreichend ist?
Für die Grafikkartentests sind die Messungenvon CB sicherlich in Ordnung.
Aber gerade Anno 1800 wäre so ein Fall, wo die Leistung innerhalb der ersten Minuten deutlich abnimmt.
Und sich der Ram immer weiter füllt.
Ich habe da den Eindruck, dass es gar nicht die Menge an Einwohnern und deren Versorgung ist, die viel Ram benötigt, sondern die ausgelagerten Texturen.
Trotz 16GB VRam verwendet das Spiel immer nur 6-7GB und ist schnell dabei, die Texturen(oder ähnliches) in den Systemram auszulagern.
Und die Unterschiede durch unterschiedlich viel Ram wird man daher auch nicht, mit einem Standbild kurz nach dem Ladevorgang, testen können.
ich denke dass das Spiel alles auf dem Bildschirm in den Vram bekommt und die Produktion eher wie eine große Exceltabelle nebenbei läuft(geringer Ramverbrauch).
Die FPS sind je nach Einstellung und Hardware über die Drawcalls dominiert, und die nötigen Daten werden nicht schon mit 16GB vom Auslagern bedroht sein.
Aber die Texturen von anderen Welten, anderen Stellen außerhalb des Standbildes fliegen eventuell raus, und eine Untersuchung der Ramkapazität müsste eigentlich, wie ein Spieler im Spielverlauf, Kamerasprünge machen.
Erst hier sehe ich ein Potential für wirkliche Unterschiede.
Dass das schwer zu machen ist, sehe ich ein.
Es muss einen automatisierten Ablauf geben, der erst die verschiedensten Bereiche des Spiel aufruft, wie es der Spieler im Spielverlauf tut, und dann müssten die eigentlichen Messungen ebenfalls einen Ablauf nutzen, der verschiedene Bereiche zeigt und die möglichen Ruckler reproduziert.
Und all das braucht viel Zeit!
Das Spiel lässt sich Zeit damit, auf die besseren Texturen zu wechseln und es gibt mit dem DLCs viele Orte und dann noch die vielen Zoomstufen....man bräuchte also auch ein Savegame, dass alles aktiv und bebaut hat.
Und vieles davon langsam abzufahren ist langwierig....es sinnvoll zu testen auch...und wenn man dann noch 5 Durchgange machen muss, hat man mit Anno vermutlich mehr Zeit verbracht, als der ganze CB Test gebraucht hat.
Auf der anderen Seite erhällt man nur so aussagekräftige Ergebnisse.
Der Test von Anno 1800 wie CB ihn macht scheint mir für CPU und Ramtests völlig überflüssig zu sein....entweder richtig, oder gar nicht.
Macht man das nicht schon immer?Bright0001 schrieb:Und du implizierst was? Dass man jetzt anfangen soll Memmory Leaks/kaputte Garbage Collection mit Hardware zu kontern?
Wir als Spieler können nicht den Quellcode des Spiels fixen....also müssen wir uns damit abfinden...Workarounds finden oder das Problem mit Hardware erschlagen.
Wir konzentrieren uns doch seit Jahren auf CPUs mit hoher singlecore Leistung, weil viele Spiele die Kerne nicht gut ausgelastet bekommen.
Mir ist klar, dass es für sinnvolles Multithreading-Grenzen gibt, aber es gibt ja die Spiele, die trotz Ego-Perspektive von 12 CPU-Kernen profitieren.
Warum nutzen viele Spiele weiterhin nur 4-5...und zwingen uns damit zu hoher Leistung pro Kern und schnellem Ram.
Warum sollten wir keinen Memmoy Leak, mit mehr Ram kontern?
Wäre auch ein Kritikpunkt von mir gewesen.Ned Flanders schrieb:Der größte Teil des Performance Unterschieds zwischen 2x8gb und 2x16gb kommt wohl auch eher aus der Dual Rank Konfiguration der 16gb Module und nicht aus dem größeren Volumen. Dual Rank ist einfach schneller beim Copy.
Der Begleittext spricht es ja selbst an, aber eine der Zwischenüberschriften lautet:
"Ob 2 oder 4 Module, macht keine wirklichen Unterschiede"
Was dann wieder die Verallgemeinerung ist, die in den Köpfen hängenbleibt.
Es ist ja schön, wenn der Test zeigt, dass 4x8(SR) gleich ist zu 2x16GB(DR), weil beides 2 Ranks pro Channel ist, aber es macht den Vergleich von 2x8(SR) zu 32GB irgendwie fraglich.
Angeblich gibt es ja Spiele, die durch dual ranked 17% an FPS gewinnen(Cyberpunk)...die Genauigkeit/Korrektheit dieses PCGH Tests möchte ich stark anzweifeln, aber da es ja Unterschiede geben kann, wäre es eher sinnvoll gewesen, die 16GB als 2x8( 2 Ranks) und 4x4( 4 Ranks) zu unterteilen.
Dann hätte man den Vergleich zu 2x4 bei gleichen Ranks gehabt und zu 32GB ebenfalls mit gleichen Ranks.
...Plus den SR zu DR Vergleich bei gleicher Kapazität.
mcdexter
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 818
Damals, als ich noch jung war und von 128 MByte auf 256 MByte gewechselt bin, hat sich Windows 95 doppelt so schnell angefühlt. Früher war halt alles besser. 😉
Bei Windows 98 von 2GB auf 4GB hat sich auch doppelt so schnell angefühlt.
Bei XP von 4 auf 8 hat sich auch doppelt so schnell angefühlt. Bei Windows 7 und Windows 10 fühlen sich 16GB oder 32GB gleich schnell an.
Wie man auch schön im Test sieht, sind die Unterschied von 16GB zu 32GB nicht Gravierend.
Ausgenommen spezielles Benutzer verhalten wie Videoschnitt in 4k
Bei Windows 98 von 2GB auf 4GB hat sich auch doppelt so schnell angefühlt.
Bei XP von 4 auf 8 hat sich auch doppelt so schnell angefühlt. Bei Windows 7 und Windows 10 fühlen sich 16GB oder 32GB gleich schnell an.
Wie man auch schön im Test sieht, sind die Unterschied von 16GB zu 32GB nicht Gravierend.
Ausgenommen spezielles Benutzer verhalten wie Videoschnitt in 4k
Pocketderp
Lieutenant
- Registriert
- Dez. 2016
- Beiträge
- 713
xXDarthGollumXx schrieb:Ja das macht schon sinn.
Der RAM wird sicher seltener getauscht als die CPU/GPU.
Ganz so ohne das ist das nicht, selbst Titanfall 2 konnte gern mal 10 Gig belegen und der Titel kam 2016.
Anhänge
Tenchi Muyo
Captain
- Registriert
- Apr. 2006
- Beiträge
- 3.414
Hattte jetzt selber arge Bedenken, da ich sonst IMMER mit den maximalen möglichen Ausbau verbaue:
64GB / 128 GB
Bei den Gaming PCs waren es bisher IMMER 32GB.
Ich wollte aber ein 2x8GB Kit haben um meine CPUs durchzutesten 16GB 4400 CL16.
Und das Kit läuft hervorragend stabil (alleine mit xmp) und ich merke keine negativen Einflüsse.
Für Anno 1800 und Cities Skylines hätte ich dann ein 64GB 3600 CL14 System zur Verfügung^^
64GB / 128 GB
Bei den Gaming PCs waren es bisher IMMER 32GB.
Ich wollte aber ein 2x8GB Kit haben um meine CPUs durchzutesten 16GB 4400 CL16.
Und das Kit läuft hervorragend stabil (alleine mit xmp) und ich merke keine negativen Einflüsse.
Für Anno 1800 und Cities Skylines hätte ich dann ein 64GB 3600 CL14 System zur Verfügung^^
Ich hatte den Artikel nur überflogen, das Fazit wunderte mich nur etwas.Keniji schrieb:@IV52 natürlich nur, wenn man es sich leisten kann und will. Es ist eine Empfehlung, nach der man sich richten kann oder auch nicht.
Primär läuft es doch auf 2 Dinge hinaus:
- Anwendungsprofil (welche Spiele, welche Software)
- zukunftssicherer für Leute, die nicht jedes Jahr auf- bzw. umrüsten.
"Es gibt nur wenige Fälle, wo ein noch größerer Speicher bezüglich FPS oder Ladezeiten von Vorteil ist. Und wenn, dann ist dieser eher gering. Wer 16 GB derzeit im Rechner stecken hat, muss entsprechend noch nicht ans Aufrüsten denken.
Wer neu kauft, sollte gleich zu 32 GB RAM greifen"
Mein Fazit wäre 16 GB kaufen solange man 4 Slots hat. Upgraden kann man recht problemlos, wenn man nicht gerade übertakten möchte ... 80 € reicht vielleicht für ein GPU/CPU Upgrade. Hier auf CB wo die Leute bereit sind >1000€ für einen Gaming-PC auszugeben mag das anders sein...
Persönlich bin ich aber selbst noch nicht an die 16 GB gekommen. 8 Gb ist aber selbst für Office-PCs zu wenig.
Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.393
Und was ich bei #208 nich vergessen hatte, ist die Wahl de Frametimeanalyse.
Warum 0.2% Percentile?
Weil ihr das in den anderen Tests auch so macht, aber gerade hier muss man die Wahl in Frage stellen.
0.2% Percentile geben in diesem Fall die "Grenze" zu den schlechtesten 0,2% der Frametimes an.
Von z.B. 2300 Frametimes wären das 2300*0,002= 4,6.
Dann würden die schlechtesten 4 Frametimes ignoriert und der Wert vom 5. schlechtesten ergibt das Ergebnis.
CapFrameX macht es etwas abseits der Definition, aber dafür besser und intelligenter...Wenn ich das richtig verstanden habe ist es dann nicht genau der 5. sondern eine Mischung aus 4 und 5.
Aber am Ende werden wieder die schlechtesten Frametimes ignoriert.
Bei der Betrachtung der Ramkapazität geht die Frage ja weniger dahin, ob die FPS minimal besser oder schlecher sind, sondern ob es mehr "Nachladeruckler" gibt, weil benötigte Daten vorher ausgelagert wurden....und die Frage ob mehr Ram dies besser macht.
Was, wenn die Szene mit 32GB einen oder keinen Nachladeruckler hat....aber mit 8GB 3 Stück?
3 starke Ruckler können einen deutlich zu fühlenden Unterschied machen, und mehr Ram rechtfertigen.
Aber die Percentile werden sie ignorieren und man hat keine Aussagekraft dazu.
Erst wenn es dann mehr Ruckler werden, zeigen die Percentile einen Unterschied.
Alternativ kann man 1% low Frametimes bestimmen.
Dabei wird z.B. der Mittelwert aus den schlechtesten 1% der Frametimes gebildet.
Hier haben mehr Ruckler oder stärkere Ruckler immer einen Einfluss auf das Ergebnis, da sie nicht erst eine kritische Grenze überschreiten müssen.
Natürlich braucht es dafür wieder eine sehr gute Reproduzierbarkeit und eine Fehlerrechnung damit man sehen kann ob es überhaupt echte Unterschiede oder Messungenauigkeiten sind(siehe #208).
Warum 0.2% Percentile?
Weil ihr das in den anderen Tests auch so macht, aber gerade hier muss man die Wahl in Frage stellen.
0.2% Percentile geben in diesem Fall die "Grenze" zu den schlechtesten 0,2% der Frametimes an.
Von z.B. 2300 Frametimes wären das 2300*0,002= 4,6.
Dann würden die schlechtesten 4 Frametimes ignoriert und der Wert vom 5. schlechtesten ergibt das Ergebnis.
CapFrameX macht es etwas abseits der Definition, aber dafür besser und intelligenter...Wenn ich das richtig verstanden habe ist es dann nicht genau der 5. sondern eine Mischung aus 4 und 5.
Aber am Ende werden wieder die schlechtesten Frametimes ignoriert.
Bei der Betrachtung der Ramkapazität geht die Frage ja weniger dahin, ob die FPS minimal besser oder schlecher sind, sondern ob es mehr "Nachladeruckler" gibt, weil benötigte Daten vorher ausgelagert wurden....und die Frage ob mehr Ram dies besser macht.
Was, wenn die Szene mit 32GB einen oder keinen Nachladeruckler hat....aber mit 8GB 3 Stück?
3 starke Ruckler können einen deutlich zu fühlenden Unterschied machen, und mehr Ram rechtfertigen.
Aber die Percentile werden sie ignorieren und man hat keine Aussagekraft dazu.
Erst wenn es dann mehr Ruckler werden, zeigen die Percentile einen Unterschied.
Alternativ kann man 1% low Frametimes bestimmen.
Dabei wird z.B. der Mittelwert aus den schlechtesten 1% der Frametimes gebildet.
Hier haben mehr Ruckler oder stärkere Ruckler immer einen Einfluss auf das Ergebnis, da sie nicht erst eine kritische Grenze überschreiten müssen.
Natürlich braucht es dafür wieder eine sehr gute Reproduzierbarkeit und eine Fehlerrechnung damit man sehen kann ob es überhaupt echte Unterschiede oder Messungenauigkeiten sind(siehe #208).
D
drunk_chipmunk
Gast
mcdexter schrieb:Bei Windows 98 von 2GB auf 4GB hat sich auch doppelt so schnell angefühlt.
Bei XP von 4 auf 8 hat sich auch doppelt so schnell angefühlt.
Unter Windows 98 sicher nicht.
Und unter Windows XP, falls 32 Bit, sicher auch nicht.
Coeckchen
Lt. Commander
- Registriert
- Juli 2018
- Beiträge
- 2.038
X4 Foundations hat bei meinen 32GB bis zu 24GB belegung im Lategame. Ich weis belegung is nich gleich benutzung, aber die daten würden doch sonst in der auslagerungsdatei enden was zumindest die schreibzugriffe auf die SSD erhöht und damit die Lebensdauer verringert?! Kann mich jemand aufklären
karl_laschnikow
Lt. Junior Grade
- Registriert
- Okt. 2010
- Beiträge
- 467
So hatte ich das auch vor wie im Fazit steht. Die höchste Auslastung bei mir waren ca 14 GB von 16.
Das war aber die Ausnahme. Sprich mit 16 GB fahre ich noch gut.
Nur der nächste wird mindestens 32Gb haben.
Leider hat CB nicht berücksichtigt wie sich welche RBG Modi auf die Leistung auswirken .
Das war aber die Ausnahme. Sprich mit 16 GB fahre ich noch gut.
Nur der nächste wird mindestens 32Gb haben.
Leider hat CB nicht berücksichtigt wie sich welche RBG Modi auf die Leistung auswirken .
Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.393
Da Windows ab 80-90% anfängt auszulagern, kann es gut sein, dass deine 16GB nicht mehr wirklich ausreichen.karl_laschnikow schrieb:Die höchste Auslastung bei mir waren ca 14 GB von 16.
Das war aber die Ausnahme. Sprich mit 16 GB fahre ich noch gut.
Sofern der Ram nicht mit neuen Daten bombardiert wird, kommst du nicht über 90% Auslastung und glaubst immer einen Puffer zu haben, der aber eigentlich nicht mehr existiert.
Das Problem ist es, zu entscheiden ob du nur an der Grenze zum Auslagern warst, oder ob schon ordentlich ausgelagert wurde.
Und noch viel wichtiger...ob auch kritische Daten ausgelagert wurden.
Denn was kümmert es dich, wenn Windows irgendwelche Hintergrunddienste und Browsertabs auslagert, die du gar nicht brauchst, da du gerade spielst.
Und selbst wenn Daten vom Spiel ausgelagert werden, müssen das nicht zwangsläufig Daten sein, die auch benötigt werden.
Daten von Leveln, die du schon abgeschlossen hast, und die du nicht wieder besuchst.
Arrays, die zwar initialisiert wurden, aber dann doch nicht gebraucht wurden.
Die einzige Möglichkeit ist es mit mehr Ram gegenzutestetn und zu sehen ob es dann weniger Ruckler gibt.
Aber das würde schon besondere Testmethoden verlangen, die dieser CB-Test nicht bietet.
Zuletzt bearbeitet:
wolve666
Vice Admiral
- Registriert
- März 2009
- Beiträge
- 6.344
Cooler Artikel Hab ich gleich in meiner Signatur verlinkt, weil viele Leute immer noch 32 GB als "zuviel" abtun oder ständig Fragen kommen, ob 8 GB noch reichen. Man muß ja ständig seine Aussagen beweisen, weils sonst nicht geglaubt wird
Ich kann übrigens die ganze Kritik hier nicht so ganz nachvollziehehn, man merkt das die Leute zuviel Zeit haben. Stellt doch selbst mal so einen Test auf mit den unterschiedlichsten System usw. Keine MIttel dazu, kein Bock? Dann Klappe halten!
Ich kann übrigens die ganze Kritik hier nicht so ganz nachvollziehehn, man merkt das die Leute zuviel Zeit haben. Stellt doch selbst mal so einen Test auf mit den unterschiedlichsten System usw. Keine MIttel dazu, kein Bock? Dann Klappe halten!
Zuletzt bearbeitet:
karl_laschnikow
Lt. Junior Grade
- Registriert
- Okt. 2010
- Beiträge
- 467
Baal Netbeck schrieb:Das Problem ist es, zu entscheiden ob du nur an der Grenze zum Auslagern warst, oder ob schon ordentlich ausgelagert wurde.
Da hast du auf jeden Fall recht. Jedoch hätte ich bei der Beobachtung was im Hintergrund laufen lassen.
Jedoch messe ich nicht immer meine Auslastung beim spielen.
Evtl komme ich öfter in dieses Szenario als Subjektiv beobachtet.
Dennoch denke ich das für meine Bedürfnisse noch reicht mit 16gb zu spielen.
Trotzdem werde ich mal den Arbeitsspeicher vielleicht mal öfter beobachten