Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
Hast du dir mal die momentanen Preise angeschaut abgesehen vom 5800X3D?
Es gibt im Moment keine Alderlake CPU die Preis-leistungstechnisch gegen ihre AMD Counterparts anstinken kann, nicht ansatzweise. Ein 12700k z.B. kostet fast 100€ (genau 83€) mehr als ein 5900X und das ist ähnlich bei den anderen CPUs.
So, ich bin einmal um den Block gelaufen in dem Level und dann zum Wächter zurückgekehrt. Das CX Softwarereading ist wirklich sehr gut, weil zwischen Package Power und EPS 12V ungefähr 10% liegen. Das ist genau das, was man erwarten würde.
Raptor Lake wird im Herbst erneut auf dem gleichen "10nm Enhanced SuperFin"-Prozess (Intel 7) kommen, auf dem auch Alder Lake schon produziert wird, wohingegen AMD von TSMC N7 auf N5 wechselt. Aktuell scheint vielen hier nicht klar zu sein, dass der Effizienzvorteil von AMD nicht so bleibt wie er ist, sondern dass er sehr wahrscheinlich noch weiter wachsen wird.
Muss nicht zwingend so sein, je nach Modell.
Wir sehen ja bei den Ryzen 9 Modellen dann auch die 170W TDP, es wird also maximal viel reingesteckt um die Taktraten so hoch wie möglich zu bekommen.
Das dürfte die Effizienz, verglichen mit den niedrigeren Ryzen Modellen, die evtl noch bei 105W beiben, schon deutlich nach unten ziehen.
Wie es dann gegen Raptor Lake aussieht, wird sich zeigen, ich erwarte aber speziell beim Vergleich Ryzen 9 gegen i9 keine größeren Unterschiede als aktuell.
Beim 5800X3D kommt dazu, das man einen Filler genutzt hat AUF den CPU Kernen um diese auf die selben Höhe wie den aufgesetzten Cache zu bringen. Dieser Filler erzeugt eine schlechtere Wärmeübergabe von Kern zum IHS.
Und direkt das erste was du dort im Bild siehst ist "Structural silicon", welches zum Auffüllen der Fläche über den Cores genutzt wurde.
Insgesamt wurde der CCD natürlich vorher um die Höhe des V-Caches dünner gemacht, damit am Ende die Gesamthöhe der CPU gleich bleibt. Trotzdem kommt ja nach dem dünner machen der VCach in der Mitte drauf und diese Höhe muss dann auf den Seiten ausgeglichen werden.
Weil man die Höchstgeschwindigkeit von zwei Autos nicht auf einer Autobahn, auf der beide höchstens 100 km/h fahren dürfen, vergleicht. Gleicht einem Vergleich mit gezogener Handbremse. Tatsächlich würde man eher die CPU künstlich ausbremsen, wenn man im GPU Limit testet. Ergibt überhaupt keinen Sinn, wenn man doch gerade die CPU testen wollte.
DJMadMax schrieb:
Wieso eigentlich 720p? Was soll der Quatsch, macht's doch gleich richtig und stellt auf 320x200, wie in guten alten Zeiten.
Zum einen erreicht man mit 720p bereits den Bottleneck, sodass eine weitere Absenkung nicht notwendig ist. Zum anderen bietet es mit der aspect ratio eine bessere Vergleichbarkeit und ist ohnehin die in den meisten Fällen die geringste einstellbare Auflösung.
Nixdorf schrieb:
Situation nach Erscheinen der RTX5090: Diejenigen, die vorher am lautesten für die Messungen in 720p argumentiert haben, sind die ersten, die sofort nicht nur ihre GPU, sondern auch ihre CPU durch das dann aktuelle Topmodell ersetzen.
Durchaus möglich, dass das HW-Enthusiasten oder Hobbyaufrüster so tun, allerdings ist dann jenen, die das nicht so machen, gar nicht geholfen. Andersrum hilft man aber allen. Man muss die Tests nur richtig interpretieren. Letzten Endes ist das keine Kaufberatung.
Ach so, Du hast Die PV samt Speicher geschenkt bekommen? Und Dein Autarkiegrad beträgt immer 100%? 365 Tage im Jahr 24 Stunden pro Tag hast Du einen Inselbetrieb? Glückwunsch!
Sarkasmus beiseite: Für AMD spricht alles, wenn man schon ein AMD-System unterhalb der 5000er Ryzen hat. Besser kann man das System nicht auf den aktuellen Stand bringen, ohne in einen neuen Unterbau investieren zu müssen.
Und ist es nicht traurig, dass Intel - trotz neuer Architektur und dem neuesten, schnellsten Speicher am Markt - jetzt schon wieder an die Kotzgrenze geprügelt werden muss? Ich hätte ja erwartet, dass sich die Speerspitze der neuen CPUs deutlich gegen die lediglich leicht aufgepimpte EOL-CPU von AMD absetzt - und zwar in allen Spielen.
Mein i7 12700 kann es bei ähnlichem Preis (ich habe leicht weniger dafür vor ca. 4 Monaten gezahlt als aktuell für diesen R9 5900X angesetzt wird, der damals noch lächerlich überzogene 499 Euro gekostet hat) bspw. locker mit einem R9 5900X (ohne iGPU) aufnehmen und läuft auf einer überlegenen (1700) und noch nicht auslaufenden (AM4) Plattform und was die kleineren Alder Lake Intel (Spiele-)Prozessoren angeht, so sind diese den Zen3 Prozessoren deutlich überlegen und die bessere Wahl wie hier auf CB auch ausgeführt.
Vielleicht solltest Du den CPU-Ranglisten-Artikel hier auf CB einmal lesen (dabei Deine rote Brille abnehmen) und Dir ein richtiges Bild zu machen bevor Du Märchen erzählst (nur auf Basis aktueller Mindfactory Angebote, denn zu anderen Preisen wird AMD die bald alten Zen3 Prozessoren irgendwann nicht mehr los, dafür sind die Alder Lake CPUs leider in der Mehrheit zu stark ausgefallen).
Im Artikel steht mit Ausnahme des R7 5800X3D Prozessors immer ein Intel Alder Lake Prozessor an erster Stelle, aber das Blatt wird sich mit Zen4 wieder wenden, also nicht traurig sein .
???
Für die Bewertung der Modernität der Plattform ist der Fertigungsprozess der CPU absolut nicht relevant. Da geht es um den Chipsatz, den Sockel, die PCIe-Lanes, den Speicher, ...
Wenn du nicht mal in der Lage bist deinen eigenen Link zu lesen, kann ich dir auch nicht helfen.
Dein 12700 kann bei Anwendungen eben nicht mithalten, bei Spielen steht es Pari und im Moment kostet der 5900x als CPU und Gesamtplattform wesentlich weniger Geld.
Aber schön das wir über Märchen gesprochen haben, das gleiche gilt für CPU Klassen darunter analog.
Dein Posting hast du Heute geschrieben, also musst du dich auch mit den Preisen Stand Heute auseinandersetzen.
Und direkt das erste was du dort im Bild siehst ist "Structural silicon", welches zum Auffüllen der Fläche über den Cores genutzt wurde.
Insgesamt wurde der CCD natürlich vorher um die Höhe des V-Caches dünner gemacht, damit am Ende die Gesamthöhe der CPU gleich bleibt. Trotzdem kommt ja nach dem dünner machen der VCach in der Mitte drauf und diese Höhe muss dann auf den Seiten ausgeglichen werden.
Ja aber die Fläche ist vergleichsweise gering. Der l3 Cache selber wird da wahrscheins mehr Abwärme blocken als die aufgefullte Fläche.
Aber das würde ja auch alles bereits kommuniziert, dass dieses Design mit etwas mehr Wärme einhergeht.
Alles in allem ist der 5800x3d aber unproblematisch zu kühlen. Ich kühl meinen "nur" mit einem Shadowrock 3.
Im Idle Modus lummelt er bei um die 35 Grad herum und nach paar Stunden Red dead redemption 2 sieht man hin und wieder mal 80grad als spitze.
Und das in einem alten chieftech Mesh ch01 mit einem einzelnen billio120mm am Heck und einer rx6800 im Gepäck.
Alles in allem ist der 5800x3d aber unproblematisch zu kühlen. Ich kühl meinen "nur" mit einem Shadowrock 3.
Im Idle Modus lummelt er bei um die 35 Grad herum und nach paar Stunden Red dead redemption 2 sieht man hin und wieder mal 80grad als spitze.
Und das in einem alten chieftech Mesh ch01 mit einem einzelnen billio120mm am Heck und einer rx6800 im Gepäck.
80°C in Spielen ist schon sehr heiß, dafür dass er fast nix verbraucht dabei, ich würde mal schätzen, je nach dem in welcher Auflösung du unterwegs bist, wirst du bei ~50W liegen.
Lass ihn mal in einem wirklichen Multicore Workload seine >100W verbrauchen und er wird dir innerhalb weniger Sekunden ins Temperaturlimit laufen