Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Badly schrieb:
mir ist ein cpu limit bewusst. bottle neck bewusst
was zum teufel bringt es mir.... wenn alle cpus in 4 k gleich performen
wer spielt in 720p.

ja ich weiss, was jetzt kommt.
nein ich will einfach nur ne gegenüberstellung
720p 3d amd beste
in 4k beträgt der
leistungsunterschied z.b.
2%
das ist transparenz und führt nicht dazu, dass jemand zu der meinung geleitet wird, dass er die z.B. 20% in 720p auch in 4k bekommt
Du bekommst einen Ausblick in die Zukunft. Die maximale Performance bei Spielen wird verglichen.
Wenn Du später eine neue Grafikkarte kaufst, weisst Du, was Du für eine Performance in 4k erwarten kannst, wenn die CPU der limitierende Faktor sein wird und nicht mehr die GPU.
 
Bei GN ist auch schön zu sehen wie sich einer neuer Chipsatz Treiber auswirkt.
Wenn da vielleicht noch Nachbesserungen erfolgen sind wohl besser Ergebnisse denkbar.

1677526643425.png

 
Badly schrieb:
was zum teufel bringt es mir.... wenn alle cpus in 4 k gleich performen
Exakt diese Frage beantwortet, warum man CPUs nicht in 4K testet ^^
Es bringt dir einfach keine Erkenntnis zur CPU Performance sondern sagt einfach nur "für diese getestete GPU sind alle CPUs stark genug"

Badly schrieb:
das ist transparenz und führt nicht dazu, dass jemand zu der meinung geleitet wird, dass er die z.B. 20% in 720p auch in 4k bekommt
Das gleiche kannst dfu für jedes System sagen, welches keine 4090 verbaut hat. Hier kann auch in 4K noch ein 10% Unterschied zwischen 2 CPUs entstehen und der Nutzer mit der 3080 würde auf 0% kommen, wenn er die CPUs bei sich vergleichen würde.

Daher ist die einzig Sinnvolle Methode, die reine CPU Leistung zu zeigen, anhand derer die Nutzer dann anhand ihrer eigenen GPU abschätzen können, ob sich eine Anschaffung für sie lohnt, denn was ihre GPU leistet, können sie ja in den GPU Tests in 1080p, 1440p und 4K sehen.
 
  • Gefällt mir
Reaktionen: iron_monkey
Zer0Strat schrieb:
Man macht doch nicht nur 3% mit getuntem RAM Leute
Doch beim x3d, gemessen durch PCGH.

Aber egal, ich habe das nicht geschrieben. Du findest die Zahl in keinem meiner Beiträge.

Ich sage: Deine Aussage, dass der 13900K/S mit RAM-Tuning locker >10% draufpackt und die Nr. 1 bleibt, hat so keiner gemessen. Vielleicht in Deinem super geheimen Labor, wo Du die überlegenen Benches machst, aber hier, wo wir diskutieren im Forum, ist das eben nicht der Fall (siehe Screenshots auf Seite 35 - da sind es 4 Prozentpunkte). Und auf den anderen Seiten misst auch niemand was Du behauptest..

Dass es 3% sind bei Intel habe ich aber nicht gesagt - Immer schön bei der Wahrheit bleiben, auch wenn es mal wehtut.
 
  • Gefällt mir
Reaktionen: 4lter5ack und mscode
BDR529 schrieb:
Typischer Hate-Kommentar eines Intel Fanboys, ohne jegliche objektive Hintergründe.

Du musst dich nicht darüber ärgern eine Intel CPU gekauft zu haben. Der i9-14900KS kommt bestimmt, irgendwann. Mit 350W TDP.

Kommt hin.
Intel ist einfach hinten jetzt.
Egal wie viel Strom man draufhaut oder luschen Cores dazuzaubert.

Gaming und Gaming- Effizienz war das wobei bei Intel Fanbois gerne diskutiert wurde, die letzten Monate.

Zer0Strat schrieb:
@Tunaraxx Ja gut, wer mit DDR5-7200 3% rausholt, der muss nochmal die "RAM OC Schulbank" drücken. Da ist gewaltig was schief gelaufen.

So unrealistisch ist das nicht.
3% ggü was genau?

Ohne Angabe der RAM Timings ohnehin uninteressant.

Die Maschine skaliert ja nur teilweise mit dem RAM.
Und eher über Latenzen als über MT/s.

Hoher RAMTakt senkt die Latenzen auch, klar.

Die Kombi aus hohem Takt und niedrigen Timings ist das Optimum.

Bei DDR4 hat man das auch schon gesehen:
Was ist schneller beim Gaming? DDR4 3200 CL14 oder DDR 3800 mit CL18?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85
Müritzer schrieb:
Bei GN ist auch schön zu sehen wie sich einer neuer Chipsatz Treiber auswirkt.
Wenn da vielleicht noch Nachbesserungen erfolgen sind wohl besser Ergebnisse denkbar.
Naja im Grunde bewirkt der ja nur, dass das Spiel auf dem richtigen Chiplet läuft.
Das war ja zumindest hier im Test immer der Fall, außer bei Diablo, wo es aber auch nicht viel ausgemacht hat.
 
  • Gefällt mir
Reaktionen: Müritzer
Taxxor schrieb:
Exakt diese Frage beantwortet, warum man CPUs nicht in 4K testet
Da sehe ich natürlich ein, dass die "720p-Fraktion" recht hat. Hatte aber trotzdem Freude an Igor: Der hat es einfach getestet, weil es auch bei ihm immer wieder gefordert wird :-)

Ist also kein Phänomen, dass sich auf dieses Forum beschränkt. Also einfach mal mitgetestet und die Ergebnisse sind wie erwartet: Der 7600er ist eine konkurrenzlose CPU in Bezug auf P/L und Effizienz, weil er fast so schnell ist wie 13900k und 7950x3d :p
 
Wir reden hier von einer im Marketing betriebenen GAMING CPU
Wen kümmert es, was das Ding in CineBench kann.
Ich sehe schon, ich erwarte Gaming Leistung,
bekomme algemeines BlaBla
soll das mich Workstations vergleichen, damit ich 500 Euro mehr ausgebe, um 3% Mehrleistung zu bekommen.
No Hate etc.
Aber Bitte - hört auf die User zu verarschen!
 
DerRico schrieb:
Hatte aber trotzdem Freude an Igor: Der hat es einfach getestet, weil es auch bei ihm immer wieder gefordert wird :-)
Hier wurde auch lange Zeit immer 4K noch mitgetestet, aber das Ergebnis war eben auch immer wieder das gleiche und da kann man als Tester auch besseres mit seiner Zeit anfangen, gerade bei so einer CPU hier wo es viel zu untersuchen gibt, als die komplette Testreihe nochmal in 4K zu wiederholen
 
  • Gefällt mir
Reaktionen: Alex1966 und iron_monkey
Stimmt 3D lockt ja die Creator - ich habs übersehen . Sorry!
 
Danke für den Test Wolfgang und Volker. :)

Da ist sie also, die neue schnellste Gaming CPU. Dass der Cache je nach Game mal mehr und mal weniger bringt ist ja spätestens seit dem 5800X3D klar. Trotzdem ist es beeindruckend wie der Prozzi in manchen Games abgeht und vor allem der niedrige Verbrauch dabei.

Schönes Ding, da juckt es jetzt echt in den Fingern. :D Jetzt muss ich nur noch krampfhaft nach ein paar Spielen in meiner Sammlung suchen wo ich diese Leistung auch benötige damit es sich halbwegs lohnt den zu holen. 😂

MFG Piet
 
  • Gefällt mir
Reaktionen: Oppagolf
DeltaPee schrieb:
Spontan würde mich als ITX Fan die Kühlbarkeit überzeugen. Mit der Effizienz ein Favorit. Highend ohne das SFX Netzteil/CPU Kühler zum glühen zu bringen, hat was.
Das stimmt natürlich, aber z.B. ein NR200 + SF750 + U12A langweilen sich auch bei 142 W im Durchschnitt (Computerbase), auch wenn eine 4080 im System ist, die gerade mit um die 300 W arbeitet. :)
Ich lasse die beiden NF-A12 des U12A maximal bei um die 1250 rpm drehen, damit kann ich (inkl. sehr langsam drehender Gehäuse-Lüfter) die 142 W (Computerbase Durchschnitt des 13900K) kühl und leise managen.
Bei einem Fractal Design Ridge + L9x65 oder ähnlich sieht es dann aber natürlich schon wieder ganz anders aus, genau. Und ein 13900K verliert bei einem 88 W PL laut Computerbase (beim entsprechenden Spiele-Parkour) immerhin 8% percentil-fps (bei 125 W 2%).
 
  • Gefällt mir
Reaktionen: Kommando
Badly schrieb:
Stimmt 3D lockt ja die Creator
16 Kerne locken die Creator, die mit dieser CPU fast genau die gleiche Performance wie mit dem normalen 7950X bekommen und dazu noch 20% mehr Gaming Performance.
Die CPU ist explizit für beide Welten gemacht, manche Software reagiert auch positiv auf den zusätzlichen Cache, das sind nicht nur Spiele.

Der 7800X3D wird diejenige CPU sein, die sich primär an Spieler richtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85, Creidiki, 4lter5ack und 7 andere
Ich finde das hier auch immer recht amüsant. Wenn Intel ihren 13900KS Heizstrahler raushaut ohne Rücksicht auf Effizenz, rasten viele total aus und loben das Teil in den Himmel.

AMD hätte in dem Test mindestens 30% mehr Leistung gebraucht, sonst würden die Intel Jünger nie ein gutes Wort dran lassen. Grad nicht die , die sich schön den 13900K eingebaut haben.

AMD muss leider immer bissl mehr leisten damit dieses auch, honoriert wird von der Community.

Das Ergebnis ist im Bezug auf Leistung + Effizenz für Intel der Sargnagel, da gibt es auch keine zwei Meinungen zu. Das muss man so anerkennen und gut ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85, PES_God, Wanderwisser und 5 andere
leonM schrieb:
Das hier ist ganz interessant im Hinblick auf den 7800X3D:
Screenshot 2023-02-27 205405.png


Also beide CCDs aktiv aber dem Scheduler sagen er soll nur den Cache CCD nutzen: 4.54 FPS/W
-> Das wäre von der Performance her das was der 7800X3D liefern würde, aber es läuft ja noch der zweite CCD im Hintergrund mit.

"CCD1 Disabled" wäre dann tatsächlich sowohl in Performance als auch in Aufbau gleich einem 7800X3D und die Effizienz steigt um 23% auf 5.59 FPS/W
 
  • Gefällt mir
Reaktionen: ComputerJunge und DeltaPee
Zurück
Oben