Test RAM-OC mit Intel-CPUs im Test: Core (X) trifft übertakteten Arbeitsspeicher

Das war der einzige Part aus deinem Kommentar der nicht nach Intel Fanboy geschrien hat und endlich mal normal sachlich war.
gunmarine schrieb:
Ergo 3200-3600 auf beiden Plattformen mit gleichen Latenzen und gut ist. Macht Hardwareluxx ja auch. Alternativ könnte man auch hin gehen und doppelt Benchen und nen 2. Balkein einführen wo mit 3200 gebencht wird. Damit der Leser sofort sieht was er in der Praxis wirklich hat. Ähnlich wie es mit dem TDP Balken gemacht wurde, wo der 9900K auf die 95W gebremst wurde. Dann hat man einmal die "Specs" und einmal die Praxis ohne die 95W Bremse und mit 3200er RAM.
Glückwunsch da bin ich voll bei dir den Rest kannst du dir zurück ins Hirn stopfen. ;-)
Oh Pardon das ich mal ausflüchtig wurde.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Wie viele Leser der Tests dieser Seite schätzt ihr prozentual eigentlich bauen sich das System nach lesen des Tests selber aus Komponenten und wie viele lesen die Tests und kaufen sich ein fertiges Gaming System wie aus dieser Liste für sich selbst oder zu Weihnachten für die Kids?

Sind die selbst Schrauber da domminierend oder eher die Minderheit?
 
  • Gefällt mir
Reaktionen: McTheRipper
Haha ich hab aufgehört zu zählen wie oft sie sich schon umrundet hat...
Covid19 scheint auch noch andere Wirkungen zu haben als nur Grippesymptome.
Ich habe nen 2700x und habe Dank des Guides hier meinen RAM auf super Timings optimiert, stabil und schnell, was will man mehr.
Ob Intel da jetzt schneller wäre? Mir doch egal, ich hab Geld gespart, reicht für meinen Anspruch.
Muss dafür aber auch nicht Intel haten, nur für deren Geschäftsmethoden vielleicht, aber das ist ja nicht auf das Produkt an sich bezogen.
 
  • Gefällt mir
Reaktionen: cm87
PhoenixMDA schrieb:
Was rechnest du denn FFMPEG was 3 Tage dauert, also ich hab mal spaßeshalber nen 55GB File konvertiert das ging nen paar Minuten mit der Graka, lass es jetzt mal mit der CPU ne Stunde dauern.
Ich rechne immer 4K HDR, preset medium natürlich auf CPU (Quali besser), Filme für mein Plexserver auf so etwa 10-15Mbit average. Läuft etwa mit so ~16 FPS und dann natürlich meistens gleich ne ganze Stange auf einmal.
Hab mir nen cmd Script gemacht für diesen Bulk Convert. Geht viel besser als Handbrake.
Ergänzung ()

@ Zen3

Denke 8x CCX könnte hier gute Gains bringen wenn AMD die Latenz niedrig halten kann und es schafft dass alle vom Game beanspruchten Threads möglichst in einem CCX und L3 laufen.
Ergänzung ()

Abwarten. Am Ende ist Renoir noch die beste Gaming CPU. Siehe die InterCore Latenzen hier
https://www.anandtech.com/show/1570...k-business-with-the-ryzen-9-4900hs-a-review/2

Und wer weiß, vllt schaffen die Desktop Renoirs mehr Takt als Matisse.

Das deutlich schnellere Turbo Ramping könnte auch noch helfen.

Die Diagramme zeigen gut wie homogen Intels Latenz über alle Kerne ist. Mit mehr Kernen wird das aber auch langsamer.
Ergänzung ()

Mir war nicht bewusst dass bei Matisse der Weg von CCX zu CCX über die Chiplets so slow is. Dachte es ist egal ob CCX zu CCX in einem Chiplet oder über beide hinweg. Meine es hatte geheißen dass man immer über die IO die geht.
Ergänzung ()

So schnell wie Intels Ring ganz ohne Vollverdrahtung ist könnte man wie AMD mehrere CCX über den L3 kombiniert selbiges bei Intel mit dem Ring machen. Also Chiplets mit internem Ring.

Intel liefert hier ja 21 ns bei einem 6er Ring. AMD braucht bei 8C schon 80-90ns.

Intel muss sich fragen ob man das Mesh bis runter auf den einzelnen Kern braucht oder ob man wie AMD zB eine NUMA Ebene einführt und zB 10er Chiplets über ein 2. Ring oder Vollverdrahtung wie CCX kombiniert. Zb 4x10C
AMDs CCX hat ja den Vorteil sehr schnell zu sein wenn der Workload in einem CCX bleibt, sehr kleine Latenzen.
 
Zuletzt bearbeitet:
Mit der RTX Serie ist die Qualität echt Top und sehr schnell, da macht CPU echt kein Sinn mehr.In der Praxis allerdings komprimiere ich eh nix runter, ich bin froh über jedes bisschen mehr an Bitrate.
50Mbit aufwärts ist halt schon nice, aber leider nicht immer gegeben, manche "Disk" haben einfach Miese Qualität und auch HDR mal Top mal Flop, gleiche mit der Tonspur.
Ich hoff ja das endlich die Nvidia Shield Pro 2019 verfügbar ist, wegen dem AI upscaling und HD Tonspur Unterstützung.
Der Thread ist her ganz schön ausgeartet was die Spec´s der Vendor betrifft^^.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Einfach zu verstehen. Sehr guter Test/Bericht
 
  • Gefällt mir
Reaktionen: Ned Flanders
@PhoenixMDA Es würde ja schon vollkommen ausreichen, wenn einige Herren hier im Forum und vor allen Dingen auch Computerbase selber einfach der praxisnahen Vergleichbarkeit halber die Intel CPUs mit 3200 raten würden und dann mit dem AMD vergleichen. Eben weil es die CPU 0,0 interessiert ob da 2666 oder 3200 verbaut ist, solange man nicht mehra ls 64GB verbaut. Dazu den Zusatz, dass die CPU 10% in Spielen langsamer ist, wenn man unbedingt Intels Vorgaben einhalten will, obwohl das Betreiben des Memory Controllers außerhalb der Spezifikationen bis zu einem gewissen Wert keine Relevanz hat und dann würde man den CPUs auch gerecht werden. Solange der nicht mehr IO/SA braucht besteht doch keinerlei Gefahr auch nur irgendwas zu strapazieren.

Und der Leser profitiert dann davon nicht im Irrglauben zu sein, dass es bloß 11% Unterschied in Spielen zwischen nem 9900K und nem Ryzen 3000 gibt. Ebenso profitieren die Leute davon, die sich für beide CPUs interessieren. Dann kann jeder seinem Geldbeutel/Anwendungsgebiet entsprechend kaufen und die Leute werden nicht in der Kaufberatung verarscht, dass Intel kaum schneller sei, obwohl wir ja hier mit praxisnahen Setups doch deutliche Unterschiede sehen können. Wenn 20-30% Unterschied je nach Spiel zu Stande kommen, kann jeder doch selber entscheiden ob lieber das günstige Setup nimmt was gute AVG FPS hat wo man aber hier und da mal mit Rucklern leben muss oder ob er dann für 10% Aufpreis (In Bezug aufs Gesamtsystem) dann doch die schnellere CPU nimmt oder ggf. an der GPU spart und in 2-3 Jahren aber den deutlich besseren Untersatz hat wenn das nächste GPU Upgrade ansteht.

Dann kann man halt auch abschätzen wie die CPU in 2-3 Jahren ist, wenn die GPU getauscht wird usw. Oder was in MP Titeln passiert wo es häufiger zu FPS Drops kommt als in den SP spielen die gebencht werden.

Und dann könnte man sich diesen ganzen Unfug auch hier sparen. Wir wissen doch alle, dass die Vorgaben nur wegen dem riesigen OEM Markt da sind weil da einige wirklich den letzten Gammelram verbauen wollen, obwohl es mittlerweile zumindest bei den Top CPUs doch eh egal ist und man das einfach den Mainboardherstellern mit den Freigaben überlassen könnte. AMD hats ja clever gemacht, keine Infos raus geben, einfach sagen bis 3200 und dann können sich die Board und RAM hersteller damit rumschlagen was läuft und was nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: borizb und USB-Kabeljau
Also mal ganz ehrlich, das ist doch ziemlich egal, du musst das mal so sehen wer wirklich gar keinen Plan hat steckt zusammen und hat DDR4 2133!!! laufen, andere laden das XMP, der an Leistung interessierte stellt manuell ein was dann auch Leistung bringt.

Ob du die Hütte nun mit 2666CL15-15 testest(das Bios stellt da ja auch schärfere Sub´s ein), oder 3200CL16-18 mit etwas lascheren Sub´s das macht den Kohl nicht fett, du hast etwas mehr Bandbreite das war´s auch, die Latenz sollte nicht einmal groß besser werden.
Einige Games reagieren auf das bisschen mehr Bandbreite, wie TombRaider.
Einen wirklichen Performance Schub wirst du immer nur mit komplett manuellen Einstellungen hinbekommen.

Die Standard Empfehlung hier ist ja E-Die, was 3200CL16-18 meist heißt, für AMD vielleicht noch brauchbar, aber ansonsten ein echt "grottiger" Speicher, die Leute die selber einstellen sind ziemlich enttäuscht wenn sie sehen was sie so an Leistung liegen lassen im Vergleich zu anderen Usern, ob nun AMD oder Intel.
Zumal der Aufpreis im Vergleich zur Mehrleistung wirklich in einen Top Verhältnis steht bei manuellen Einstellungen.

XMP User würde ich glatt raten, kauft den billigsten Speicher, das macht den Kohl nicht fett wenn du eh nix einstellst. Angeblich hat ja AMD auch bessere Frametime, also sry davon hab ich noch nix gesehen, aber ich fahre auch nicht Stock.

Viele Argumente sind ja auch echt Sinnfrei, wie 720p spiele ich ja nicht und in 4k nimmt sich das ja nix etc., man hat massiv mehr CPU Leistung, der Rechner bootet schneller und wirklich jede! Anwendung läuft schneller, bessere Frametime und die Hütte reicht viel länger bis man aufrüsten muss.Wann haben wir die OC Leistung denn @Stock? Das dauert Jahre.

Aber das alles kann dir doch völlig egal sein, guck dir mal die Mainboard Preise der Z490 Maximus Reihe an, da kann ich nur hoffen das das niemand kauft und Asus auf ihre dreisten Preise sitzen bleibt.
431,- für das Wifi ist schon echt frech, die Preise haben massiv angezogen, ohne wirklich Mehrwert.

Ich finde es gut wenn die Leute mehr AMD kaufen, einfach um ein vernünftiges Preisgefüge wieder herzustellen, das gleiche bei Grafikkarte, ne 2080TI kostet 1150,- aufwärts, die 3080TI dann 1500,- oder wie?
Das steht doch in keinen Verhältnis mehr, zu dem gebotenen, überleg mal was die neuen Konsolen kosten werden, da sind die Preise doch nen schlechter Witz!
Auf ner gehakten Konsole Windows raufspielen, wäre P/L der beste Rechner, sofern es passende Graka Treiber gäbe.

Ich rege mich ja eher selten über Preise auf, meine Wakü hat auch über 1000- gekostet, aber die hält auch 10 Jahre locker.
Das ganze AMD/Intel Verhältnis nun CB anzulasten ich weiß nicht, aber nen Hinweiß das mit RamOC das Blatt sich massiv kehrt wäre schon sinnvoll für interessierte User und würde dieses sehr einseitige Betrachten rausnehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Tonks
Nach solchen Zahlen freue ich mich nicht nur auf einen Test der kommenden Intels (um zu sehen wo sie gegenüber den Ryzen3000 stehen) sondern wäre hochinteressiert an einem Vergleich z.B. i5 10400F gegen Ryzen5 3600 einmal @stock und einmal mit optimierten RAM-Timings. Das ganze vielleicht noch garniert mit Mittelklassegrafikkarten (RX5700(XT)/RTX2600Super) um zu sehen wie sehr diese Unterschiede sich dann auch in der realen Welt auswirken.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@TR2013 So einen ähnlichen Test werden wir bald machen. Allerdings würde ich mir separate Tests für die "reale Welt" sparen, das kann man dann zusammen mit Grafikkartentests "ablesen".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Esenel
Stimmt
 
@brabe Wenn Du den Cache-Takt mit einem Programm auslesen musst (willst), liegt die Vermutung nahe, dass Du noch nicht aktiv im BIOS was dazu verstellt hast. Einfach beim Booten mal "Entf" hämmern bis Du drin bist, da kannst Du quasi alle Einstellungen sehen. Wo Du Dich ohne manuelles Zutun bewegst, solltest Du dem BIOS auch entnehmen können. Ansonsten kann das im Windows zum Beispiel HWiNFO. :)
 
Sorry, ich habe noch nie gelesen, dass der Cache Takt der CPU ein anderer ist als der der CPU. Es gibt ja einen FSB Takt, aber der ist wohl wieder ein anderer.

7700k 2020.jpg


Sorry, aber wo steht der Cache Takt?
 
Zurück
Oben