Test Welchen Speicher für Skylake?: DDR3-1.333 und DDR4-3.000 trennen wenige Prozent

so Test ist echt Super DANKE !!!

Baue mir nach 7 Jahren einen neuen Rechner zusammen und hab auch hin/her überlegt und siehe da habe mich für 2x16GB DDR4 3000 entschieden! Wenn schon denn schon und ein bissel noch was für die Zukunft, ist meine Persönliche Meinung und nachdrücken kann ich auch noch, falls es zu wenig RAM wird später.
 
Nachdem ich aus Testgründen meinen 2400er DDR3 auf 1333 herunter geregelt habe, ist mir sporadisches Ruckeln in GTA V aufgefallen, welches ab 1600 nicht mehr vorgekommen ist.

Nicht jedes Spiel reagiert also bspw überhaupt nicht auf die Speicherbandbreite, 1600er, bzw 1866er sollte es bei DDR3 also auf jeden Fall heutzutage sein.
 
Man sollte halt nicht den letzten Cent am Speicher sparen. Aber überteuerte "High-Speed" Modelle sind auch unsinnig. Einfach ein gesundes Mittelmaß nehmen und man ist auf der sicheren Seite. Die von der CPU maximal ohne OC unterstützte Taktfrequenz ist da ein guter Anhaltspunkt was man mind. nehmen sollte.
 
Arjab schrieb:
So nach und nach wird Skylake immer unattraktiver!
Ich sehe jedenfalls keinen Grund von Sandy- oder Ivy Bridge aufzurüsten oder beim Neukauf nicht noch auf Sockel 1150 zu setzen!

naja wenns ums gaming geht macht es sogar wirklich sinn da der i3 6100 schneller in games ist als alle sandy und ivybridge i5 (unübertaktet)
und man gebraucht bald mehr kohle dafür bekommt als ein i3 system kostet
 
Und täglich, äh zyklisch, grüßt das Murmeltier https://www.computerbase.de/2007-08/bericht-ddr3-und-ddr2-vergleich/8/#abschnitt_fazit

Zwei Aussagen bleiben gültig, wer aufrüsten muss greift zu Skylake + DDR4 und alle ab SandyBridge brauchen theoretsich weiterhin nicht upgraden. Bei Speicher bedient man sich einfach im besten P/L-Bereich.

Wobei ich persönlich sagen muss mein Umstieg von DDR3-1333 auf DDR3-2133 war in einigen Spielen von Paradox z.B. HoI 3 und EU3 sofort spürbar, warum auch immer.
 
Solange die CPU ordentlich den Memory Prefetcher nutzen kann wird man nicht viel davon merken, außer die die Bandbreite des Speichers ist vollkommen ausgelastet.
 
wenn ich z-board kaufen würde, dann ddr3 2400, bei ddr4 2800-er oder 3000-er

falls ich 1600-er ram hätte, würd ich den wohl weiter nutzen, sofern die größe reicht, aber 1333-er wär mir zu krass.. kommt aber immer darauf an, was man damit tut.
 
Der Artikel enttäuscht mich, hier wird weder auf CPU-lastige Spiele oder auf einen single/dual-rank Einfluss eingegangen, daher nur Halbwissen was vermittelt wird.

Willifi schrieb:
Der Test umfasst genau 3 Spiele. Für einen genauen Test müßte man wesentlich mehr Spiele testen. Es fehlen zB. Project Cars, dass angeblich stark profitiert, aber auch zb. Battlefield, Skyrim oder Starcraft 2.
Bärenmarke schrieb:
Ansonsten ist der Test mehr schlecht als Recht, gerade Volker sollte ja eig. wissen, dass schneller Ram nur etwas bei sehr CPU lastigen Games/Anwendungen bringt. Bei Witcher kann man beispielsweise so gut wie jede CPU verwenden ohne dass man einen merklichen Unterschied hat, wieso also wird Witcher getestet?
Nimmt man beispielsweise Starcraft 2 sollte man ein ganz anderes Bild sehn. Ansonsten ist es halt wie mit allem auch, man muss wissen was man machen möchte. Nutzt man eher CPU lastige Games, sollte man zu dem besseren Ram greifen. Als Sparfuchs oder mit anderem Anwendungsgebiet nicht.
Warum zum Klabautermann weiß das Forum mehr als der Artileschreiberling, das ist armselig für CB, das dumme an der ganzen Sache ist dass das wohl gewollt ist, nur die wenigsten unwissenden lesen sich den ganzen Dschungel der Beiträge nach einem Artikel durch, oder einige wollen einfach nichts anderes wahrhaben, daher wird der Artikel als Endgültiger Fakt angesehen, traurig.
 
@Test:
Schade das wenn ihr sogar eine Empfehlung für 2.400MHz RAM aussprecht, keinen CL12er RAM im Test drinne habt (Kingston bietet welche an). Damit käme man ja fast in DDR3 Regionen.
Doc Foster schrieb:
bzw 1866er sollte es bei DDR3 also auf jeden Fall heutzutage sein.
Was sein sollte liegt im Auge des Betrachters. In meinem alten Rechner laufen 1600er mit 6-8-6-24-32-1T. Und die sind alt; lange bevor es DDR3 über 2.000MHz gab. Aber Marketing-technisch sehen 2.000MHz einfach imposanter aus, als CL6 :)

Von mir aus betrachtet spricht am Ende des DDR3 Zeitalters also nichts dagegen, das es DDR3 1866MHz in CL6 bis 7 geben sollte. Vom Standpunkt der Hersteller allerdings macht Entwicklung nur in Richtung mehr MHz Sinn.

Gabs nicht mal G.Skill DDR3 2.933MHz dessen Sub Timings aber so schlapp waren, dass sie den meisten deutlich geringer getakteten Arbeitsspeicher unterlegen waren?
 
Cool Master schrieb:
Nö. Der Takt spielt keine Rolle. Verbrauch berechnet sich aus Strom * Volt. Durch mehr Takt wird zwar mehr Wärme abgegeben aber es verbrauch nicht mehr dadurch wenn er auf 1,2 Volt eingestellt ist. Und selbst wenn fürn Desktop ist der RAM Verbrauch völlig egal und man kann es auch nicht berechnen oder auslesen.

Ahja... selten so einen Blödsinn gelesen. Aber dein Name kommt mir irgendwie bekannt vor und ich glaube ich weiß jetzt auch warum ;)
Verbrauch = Strom * Volt? - Da hast du in der Schule aber super aufgepasst.
Mehr Wärme bei gleichem "Verbrauch"? - Wo kommt die Energie dann her?

Natürlich zieht ein PC mehr Strom aus der Steckdose, wenn der Speichertakt steigt. Nicht zuletzt der Speicher-Controller in der CPU hat dadurch mehr zu tun, siehe auch hier: http://extreme.pcgameshardware.de/m...arbeitsspeicher-thread-inkl-langzeittest.html
 
Moriendor schrieb:
Vielen Dank dafür, dass das Fazit schon im Titel steht. Das spart enorm Zeit! :D
Naja den ganzen Artikel braucht man eigentlich nicht. Schließlich hat sich, was die Geschwindigkeit angeht, in den letzten 10-15 Jahren, seit Einführung von DDR2, daran nicht mehr viel getan. Und zukünftige Speicherarten ändern daran auch nur wenig, außer das man sie wieder teuer einkaufen muss, für nur wenige Prozent mehr Leistung.
Vielleicht ist ja der nächste Speicher auch HBM2 Speicher, wie bei den Grafikkarten. Der bringt vielleicht wirklich etwas mehr spürbare Leistung. Aber bis der kommt ist er wahrscheinlich auch schon wieder der Flaschenhals, weil das Drumherum wieder deutlich schneller geworden ist.
 
Zuletzt bearbeitet:
Speicher Geschwindigkeit profitiert erst im CPU Limit richtig. In eurem Test fehlt halt Battlefield 4 Mulltplayer, da würden sich die frappierende Unterschiede zeigen. Unsere User hier im Forum haben dazu schon zahlreiche Tests durchgeführt und es bewiesen.
 
Ich habe mal eine Email verschickt:

Guten Abend Herr Rißka,

bei dem Test verwundet mich das schlechte Abschneiden des Gigabyte Mainboards, wurde der Ram auch Normal betrieben und nicht auf Enhanced Compatibility?

Die letzte Einstellung wird fast immer vom Gigabyte Mainboard automatisch ausgewählt und verliert deswegen massiv an Performance.


Mit freundlichen Gruß
 
"Selbst mit aktiviertem XMP-Profilen wird auf einem B- oder H-Chipsatz auch ein DDR4-3.000-Speicherkit immer auf DDR4-2.133 eingebremst"

Das ist natürlich schon pervers, aber Intel kann es sich mit dem Monopol leisten.
Der Vergleich zeigt auch wieder eindeutig, dass DDR 4 überflüssig ist.
 
NeoGeo95 schrieb:
Wo ist ARMA3?
Wo bitte Battlefield 4?

Diese 2 Titel sind Paradebeispiele für Skalierung mit schnellerem Speicher.
Man hat bei dem Test wirklich begnügsame Titel gewählt.

Schade.

D3Spieler schrieb:
Speicher Geschwindigkeit profitiert erst im CPU Limit richtig. In eurem Test fehlt halt Battlefield 4 Mulltplayer, da würden sich die frappierende Unterschiede zeigen. Unsere User hier im Forum haben dazu schon zahlreiche Tests durchgeführt und es bewiesen.

Ja, es gibt nicht viele Spiele, aber es gibt sie, die eben in einem echten* CPU-Limit stecken und dann von schnellem Speicher sehr stark profitieren. Da gerade auch BF4 nicht gerade ein unbekannter und weniger gezockter Titel ist, würde ich es sehr begrüßen, wenn auch dieser mit getestet worden wäre.


Fußnote *: 'echtes' CPU-Limit bedeutet, dass nicht einfach ein einzelner Kern am Anschlag ist, sondern tatsächlich homogen alle 4/6/8 Kerne einer CPU. Die Symptomatik eines einzelnen CPU-Kerns am Limit, der dann das ganze System bremst (und damit auch die GPU-Auslastung nicht auf 100% geht), ist (meistens) auf eine Limitierung des Grafikkartentreibers zurückzuführen.
 
Larve74 schrieb:
Richtig, so sieht´s aus.

Was auch immer vergessen wird ist, das gesamte System zu betrachten:

Unterm Strich kommen doch 10% oder mehr Gesamt- Performance-Gewinn heraus.

1) OC-Prozesseren bringen ein paar % mehr FPS i.Z. mit schnellen GPUs
2) schneller RAm bringt ein paar %/ FPS mehr
3) teurere Mainboards bringen ein paar %/ FPS mehr
4) OC -GPUs breingen ein paar %/ FPS mehr

Da kommt schon einiges als Gesamtpaket zusammen. Es ist keineswegs "nicht spürbar" oder "Geldverschwendung"
leistungsstarke Komponenten zu kaufen.

Wie geschrieben, zusammengerechnet kommt schon etwas zusammen. Der Unterschied von einem teuren System und einem "Geiz ist geil"-System ist spür- und messbar.


Das Interessiert aber nicht. Der Grundgedanke war nicht dieser für den Test. Natürlich kann ich unter stickstoff noch mehr % rausholen. keine ahnung, evtl. lassen sich auch SSDs übertatken und mit übertakteten Router gehts dann vollgas ab. Wenn Interessiert das? Man bekommt immer mehr leistung durch übertakten, der Test hingegen soll aber verdeutlichen das die aktuelle DDR4 eben keinen nennenswerten Vorteil gegenüber DDR3 haben, und genau das Interessiert den Nutze daheim der seinen PC neu zusammenstellt ohne dabei den Keller schon mal auf -250C zu bringen.

Dahingegend ist der Test Optimal so. Jeder Kasper weiß daß wenn er Mal richtig asche hinlegt und selbst am Takt schraubt die Gesamtperformance steigern kann. Was du aber vergessen hast ist der kleine aber feine Unterschied das du als Referenz ein Komplett OC System hinstellst. Das will A nicht jeder und B kanns auch nicht jeder.

Nebenbei is das Argument extrem lückenhaft. Den selbst den teuersten Gamingrechner den du dir zusammenbaust wird nur einstellige % liefern wenn du in entweder mit DDR3 oder DDR4 und rein ohne Overclocking betreibst. OC ist nicht Masse.

Fußnote *: 'echtes' CPU-Limit bedeutet, dass nicht einfach ein einzelner Kern am Anschlag ist, sondern tatsächlich homogen alle 4/6/8 Kerne einer CPU. Die Symptomatik eines einzelnen CPU-Kerns am Limit, der dann das ganze System bremst (und damit auch die GPU-Auslastung nicht auf 100% geht), ist (meistens) auf eine Limitierung des Grafikkartentreibers zurückzuführen.

Oder auf beschixxsene Programierung. Dahingehend würde ich wetten das es weitaus mehr Spiele gibt die Programmierungsfehler haben als die, die am Treiber hängen. Da gibts so viele Faktoren.... gerade im Bezug auf den letzten teil der Fußnote. Das mit dem *echten* CPU limit is natürlich richtig.
Beispiele hier gabs in der Vegangenheit auch genügend, seis Arma 2 , Supreme Commander oder der gleichen.
 
Zuletzt bearbeitet:
Cool Master schrieb:
So ist es aber... Es ändert sich ja nichts bei der Aufnahme. Es werden maximal 1,2 Volt gesaugt.

Nicht wirklich... Der Verbrauch wird in Watt angegeben, also U*I. Die 1,2V mögen gleich sein, aber die Stromstärke ist anders und damit auch der Verbrauch.

Allerdings ist es beim Desktop tatsächlich egal ob das Teil jetzt 2W mehr, oder weniger braucht.
 
Zurück
Oben