Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

MrHeisenberg schrieb:
Wie sprechen hier von CPUs für Enthusiasten.
Wer sich ne CPU für 800€ kauft + passendes Board und RAM scherrt sich nicht um die 25-50€, die er im Jahr einspart. Dieser Kundenkreis interessiert sich hauptsächlich für Leistung. Und die schnellste Gaming CPU gibt es bei Intel. Natürlich nicht out of the Box, aber mit 7000er RAM Kits und manuellem Tuning, ist man schneller.
Dem widerspreche ich, auch wenn ich nur eine CPU um 500€ gekauft habe :)
Ich schere mich auch um 25€ und ganz sicher um 50€.
 
  • Gefällt mir
Reaktionen: trb85, Ph4ntom, bad_sign und 2 andere
Eli0t schrieb:
Du kannst in der Gamebar die Anwendung als Spiel markieren und damit ist das Problem auch behoben.

Gut das das geht, aber dadurch verfalle ich eher dem Zwang bei jedem Spiel zu checken ob es auch erkannt wird.
Ansonsten könnte es immer sein das du Performance verlierst und es nicht weißt. Diese Softwarelösung bietet mir einfach keine Sicherheit.

Deshalb werde ich zum 7800X3D greifen. Ders einfach günstiger und bringt die gleiche und möglicherweise sogar mehr Leistung für mich.
 
[wege]mini schrieb:
Mein Gott, dann erkläre es ihm doch. :evillol:
Ne, das wurde hier schon 10.000 mal gemacht.

Ich sag einfach nur zu ihm (mit seinen über 400 Beiträgen): Willkommen im Forum oben rechts ist die Suchfunktion! :evillol:
 
  • Gefällt mir
Reaktionen: McFritte, Veitograf und [wege]mini
MrHeisenberg schrieb:
[...]
Sich die CPU mit dem Effizienzargument schön zu reden ist Unfug, weil das, was die CPU an Strom einspart, der Kaufpreis eben auffrisst und das für mehr als 3 Jahre.
[...]
Aber nur wenn man, wie in deinem Szenario nur 4h am Tag zockt. Ich kenne genug und auch bei mir was das lange der Fall wo eher 8h/ Tag gezockt wird / wurde. Jetzt kommt bestimmt gleich das gebashe von wegen Computersucht o.ä. IDR braucht man weder den 7950X3D noch den 13900k/KS zum zocken. Richtige EPenis fetischisten kacken idr auf den Preis bzw. die Differenz von ein paar hundert Euro, weil die sich unvernünftiger weise bei jedem Release am besten den neuen KS holen. Intel weiß schon wieso, die Teile nur "in begrenzter Stückzahl" vermarktet werden. Bei irgendwas muss man ja im Leben vorne sein...
 
  • Gefällt mir
Reaktionen: trb85
Neodar schrieb:
2. Bei den teils massiv gestiegenen Strompreisen (zumindest in Deutschland) ist nur die Hälfte des Stromverbrauchs mitnichten zu vernachlässigen.
MrHeisenberg schrieb:
Doch ist sie. Rechne dir doch selbst aus, wie lange es dauert, bis du die Differenz drin hast.
Rechnet man dann noch den höheren Idle Verbrauch des Ryzen dazu, dann verpufft die Effizienz zumindest in der normalen CPU Lebenszeit (ca. 5 Jahre) komplett.
 
flappes schrieb:
Willkommen im Forum

Wenn du ihn willkommen heißen willst, musst du freundlicher sein.

Sehr viele Menschen sind schon "Spitze" wenn sie den Weg ins Forum finden. Schrecke sie nicht ab sondern sei freundlich und mangelndes Wissen, ist nichts negatives.

Wer fragt, will lernen.

mfg

p.s.

Wie hat schon die Oma gesagt? Es gibt keine dummen Fragen, nur dumme Antworten.
 
DerRico schrieb:
Gibt erste Tests, einen aus Japan und einen auf YT, sogar deutschsprachig. Das Ding ist eine Enttäuschung und wohl der Grund, warum AMD nur den 7950er zum Test rausgelassen hat.
Ja das vermute ich auch.
die 2 CCDs mit je 6 Kernen kommen nicht gut.
Da hier das Problem zutage tritt, das der Cache von nur 6 Kernen effektiv genutzt werden kann.
Hätte sich AMD eventuell sparen können.

Na ich bin dennoch gespannt was bei rum kommt.
Werde auch diese Gen und wohl nächste aussetzen, mein optimierter 5900X reicht aktuell.
Auf 8 Kerne würde ich jedenfalls nicht runter gehen.
 
Oh dann macht der 7900X3D echt keinen Sinn. Dann ist wohl der 7800X3D einfach die beste Gaming CPU
 
Taxxor schrieb:
Dann wären die Intels ja nicht nochmal deutlich drüber
Bei FPS Shootern ist es sowieso vollkommen irrelevant, weil ob ich 400, 450fps habe macht null Unterschied.
Bei Anno, Civ oder Stellaris kommts ja nicht auf die Grafik an, sondern auf die KI-Gegner und da sieht man, daß viel Cache viel hilft :) Eine Engine ist ja nicht nur Grafik, da spielt die KI eine große Rolle, Audio ist vermutlich zu vernachlässigen.
Wenn die Engine in der Grafik limitiert, kommt natürlich am Ende nicht mehr rum, wenn die Grafik aber nicht so aufwendig ist und im Hintergrund viel gerechnet wird, dann zahlt sich der Cache eben aus. Deswegen gibts ja auch so unterschiedliche Ergebnisse von Regressions (R6S) bis massive Gewinne.
 
Taxxor schrieb:
Und genau deshalb ist der Test, egal in welcher Auflösung, sowieso niemals praxisrelevant für den Großteil der Leser, wenn es darum geht, die Systemperformance zu ermitteln, was ein CPU Test aber auch schlicht nicht will.

Das einzige, was man absolut und allgemeingültig bestimmen kann ist, was die CPU an sich losgelöst von anderen Komponenten (naja, außer dem RAM halt^^) leisten kann.

Eine Kaufempfehlung für sich selbst anhand eines CPU Tests abzuleiten, erfordert eben auch etwas Transferleistung der jeweiligen Nutzer, die mit ihrem jetzigen System entscheiden müssen, ob sich eine neue CPU lohnt. Das kann ein CPU Test aber niemals abbilden, da man dafür auch weitaus mehr GPUs mit testen müsste, deshalb gibt man ihnen die reine Spieleleistung der CPUs, wofür es nur eine einzige Testreihe benötigt.
Du weißt schon, das AMD diese CPU als Gamer CPU vermarktet oder? Es ist
cupidstunt schrieb:
1. Lern mal bitte, dich zu benehmen. Wir sind hier keine Lemminge.

2. Keine Ahnung wer Tech Yes City ist, offenbar irgendein YouTuber, der irgendwas mit Tech macht (was ist seine Vita?) und seinen ganzen Kanal voller affiliate Links hat. Schön für ihn, er wird damit gut Geld verdienen. Ansonsten ist das weder irgendeine Ikone noch irgendjemand der es besser weiß, sondern einfach nur ein Typ mit einer Meinung, der testet.

3. Es ist ein CPU Test. Was glaubst du, was bei 4k in full ray tracing die fps bestimmt? Schau doch mal das Video von deinem Tech Yes City an:
13900K: 125 avg-fps in Hogwarts Legacy
7950X3D: 125 avg-fps in Hogwarts Legacy
5800X3D: 121 avg-fps in Hogwarts Legacy.

Ja aufschlussreich. Ich wette wenn der Typ den Test 5 Mal macht, dann ist in einem der Tests der 5800X3D am schnellsten, weil das alles noch Messfehler im Toleranzbereich sind.
In Dota 2 kommen alle CPUs auf exact die gleiche avg-fps. Bei den anderen Tests liegen die mal 3-7 fps auseinander, was im Rahmen der Messtoleranz liegt. Siehst du den Fehler? Wenn es danach geht, kann man vermutlich auch nen 6700k gegen nen 13900K antreten lassen und kommt zu dem Schluss: der 6700k kann ganz gut mithalten. Bei 4k und ultra settings limitiert die Grafikkarte. Soll die hier getestet werden? Ne, die CPU soll getestet werden. Ein Test mit hohen Grafik-Presets rennt ins GPU-Limit und ist somit nicht valide, weil nicht das getestet wird, was eigentlich getestet werden soll.

Natürlich spielt niemand mit dieser CPU in 720p. Darum geht es nicht. Es geht darum die unterschiedlichen Stärken der CPUs herauszufinden und sie sinnvoll gegeneinander zu messen. Dass die GPU und nicht die CPU dann bei Cyberpunk über die fps in 4k und RT entscheidet ist hier allen klar. Aber es hilft nicht bei der Leistungsgegenüberstellung der CPU.

4. Wenn dich was juckt, geh zum Arzt!
Ohhh glorreicher Ritter du hast mich aus meinen Unwissen gerettet. Auch du und andere Mitläufer verstehen den Kern meiner Aussage und Wünsche nicht. Messtoleranz hin oder her und ich habe mich nicht nur auf 4K beschränkt ich will 1080p, 2K & 4K benches. CB bietet es nicht kp der nächste bitte.
 
Shio schrieb:
Gut das das geht, aber dadurch verfalle ich eher dem Zwang bei jedem Spiel zu checken ob es auch erkannt wird.
Ansonsten könnte es immer sein das du Performance verlierst und es nicht weißt. Diese Softwarelösung bietet mir einfach keine Sicherheit.

Deshalb werde ich zum 7800X3D greifen. Ders einfach günstiger und bringt die gleiche und möglicherweise sogar mehr Leistung für mich.
Ja aber das ist weinen auf sehr hohem Niveau, das machst ja nur einmal und dann nie wieder.
Daß alles von Anfang an perfekt funktioniert, hat auch Intel nicht geschafft.
 
  • Gefällt mir
Reaktionen: Whetstone
Danke für den schönen Test. AMD hat geliefert. Wird Zen5 3D auch so stark, dann rüste ich auf.
 
  • Gefällt mir
Reaktionen: kuddlmuddl
PS828 schrieb:
Jeder war mal neu und darf diese Erkenntnis gewinnen auch wenn er die Antwort im Test übersehen hat ;)
Erfrischend wäre es, wenn mancher nicht mit breiter Brust auftreten würde, es als einziger besser zu wissen, sondern mit der Bereitschaft eines Erkenntnisgewinnes diskutierte. Gegen neugieriges, produktives Nachfragen hat hoffentlich niemand etwas.

Martin121 schrieb:
Keine Ahnung ob das schon einer gepostet hat, aber es ist sehr interessant.
Wurde es, eine Quellenangabe wäre noch ganz nützlich gewesen.

SonyFriend schrieb:
Auf Wunsch eines Einzelnen hier ein Auszug aus:
:)

Shio schrieb:
Deshalb werde ich zum 7800X3D greifen.
Falls ich kaufe, auf alle Fälle 1 Chiplet.

In der Kaufberatung die Vorteile von CCD, CCX, regulärer CPU und 3D zu erläutern und darüber hinaus noch von geteiltem Cache und 6 oder 8 Cache-Kernen wird sicherlich nicht gerade fluffig ...

scryed schrieb:
Das ist doch aber genau der springende Punkt beim Test einer neuen CPU will man doch wissen wie schnell die aktuell ist und nicht erst in der Zukunft
Die aktuell mitunter schnellste CPU ist schnell genug für Aktuelles, weil es nichts deutlich Schnelleres zu kaufen gibt. Der Erkenntnisgewinn dürfte sich daher eher in Grenzen halten.
Mich würde da eher interessieren, welche mögliche Perspektive ich mit einer besseren Grafikkarte habe. Die RTX4090 von heute ist die RTX6060 von morgen. (Zumindest war das mal so, dass Leistung über die Zeit günstiger wurde ;))

TR2013 schrieb:
Denn Grafikeinstellungen kann ich runterdrehen wenn die GPU zu schwach wird. Wird mal die CPU zu schwach habe ich ein Dead End erreicht.
Danke. Genau so ist es. 👌
 
Zuletzt bearbeitet: (Nachtrag)
  • Gefällt mir
Reaktionen: Teeschlürfer, Cyberbernd, Wintermute und 2 andere
Zuckerwatte schrieb:
Aber nur wenn man, wie in deinem Szenario nur 4h am Tag zockt. Ich kenne genug und auch bei mir was das lange der Fall wo eher 8h/ Tag gezockt wird / wurde. Jetzt kommt bestimmt gleich das gebashe von wegen Computersucht o.ä. IDR braucht man weder den 7950X3D noch den 13900k/KS zum zocken...(.....)
Ich komme grob auf 40€ Differenz/Ersparnis im Jahr mit dem 7950X3D bei 4h am Tag. Wenn der 13900KS im Vergleich verwendet wird geht das Argument der Ersparnisleugner nicht auf, deswegen verwenden sie geschickt den aktuellen Preis des 13900K und den vermuteten und ziemlich sicher in wenigen Wochen sinkenden Releasepreis des 7950X3D um die Diskussion für sich zu entscheiden. Gegen so eine "Logik" kommt man nicht an.
 
Schafmuhkuh schrieb:
Sieht alles ganz vielversprechend aus. Hätte gerne Lust meinen i9 9900k abzulösen.

Ich finde leider im Test nicht die Messung zum Idle Verbrauch. Dort war AMD leider weit weg von Effizienz. Wenn man ein 24/7 System am laufen hat ist der Idle Verbrauch nicht ganz unwichtig.
Techpowerup Review lesen :)
 
scryed schrieb:
Das ist doch aber genau der springende Punkt beim Test einer neuen CPU will man doch wissen wie schnell die aktuell ist und nicht erst in der Zukunft , man kann den Leuten ruhig zeigen das man eben die neue CPU nicht kaufen Brauch da sie nicht schneller ist als die letzte oder vorletzte Generation .
Das ist einach völliger Quatsch. Natürlich ist die CPU auch aktuell schneller . Sogar viel schneller. Nur hält die Grafikkarte nicht mit.

Was du meinst ist eine Kaufberatung. "Du musst diese CPU jetzt (noch) nicht haben weil es dir kaum Vorteile bringt".
Dieser Artikel ist EIN CPU TEST. Ein CPU Test ist komplett sinnlos und niemand will den lesen, wenn alle Balken exakt gleich lang sind.
Der Sinn dieses Artikels ist es die Performance der CPU zu prüfen und nicht dir zu erklären was ein GPU Limit ist.

Unfassbar einfach....
 
  • Gefällt mir
Reaktionen: Whetstone, iron_monkey, McFritte und 4 andere
Lord B. schrieb:
@Volker
Lese ich richtig, dass es AMD bei ihrer ersten "big/little" iteration schafft Anwendungen direkt ab thread nr. 16 laufen zu lassen und Intel dafür weiterhin die stromhungrigen P-Cores verwendet solange diese frei sind?

Nice
Nein, weil wenn der Scheduler verwendet wird, dann gehen 8 Cores schlafen. Also es läuft nur ein CCD.
 
[wege]mini schrieb:
Mein Gott, dann erkläre es ihm doch. :evillol:


Um in das CPU Limit zu kommen, muss man kleine Auflösungen nehmen, da aktuelle Games in 1440p oder gar in 4K selten von der CPU limitiert werden. (gut, evtl. 1-5 Prozent)

Schau dir die 4K Benchmarks an.

https://www.computerbase.de/2022-02...schnitt_die_leistung_in_spielen_ist_sehr_hoch

Der olle 4 Kern 12100 ist schneller, als ein 5800X.

Man will zeigen, wo die Zukunft hin geht und ob die CPU auch für die Zukunft gewappnet sein wird.

Ab 4K, für welches die meisten Menschen ihre tolle Hardware kaufen, ist die CPU schnurzpiepegal. Gebt das Geld für GPUs aus, Kinder.

mfg

p.s.

Die olle Physik einer ernstzunehmenden Simulation, frisst aber auch gut Leistung. Das ist schon wieder ein Extrembeispiel. :heilig:
Kann ich zustimmen. Das Ende würde ich differenzierter sehen. Wer einen PC zusammenstellt und in den nächsten Jahren komplett aufrüstet, sollte nur Augen für Benchmarks in seiner präferierten Auflösung haben. Hat aber dann nichts mit eine CPU Test zu tun. Wer, wie ich, nur vorhat die GPU zu tauschen, schaut sich sehr wohl die 720p Benchmarks an da nur die Einblick in die tatsächliche Leistung geben. Denn Grafikeinstellungen kann ich runterdrehen wenn die GPU zu schwach wird. Wird mal die CPU zu schwach habe ich ein Dead End erreicht.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, floTTes und [wege]mini
rvnbld schrieb:
Die Verkäufe der 40X-Generation sind kein Ruhmesblatt, aber das ist auch so gewollt. Es ist ohnehin kein guter Vergleich. Der jetzige GPU-Markt der aktuellen Generation ist recht mager, was Optionen angeht, die Verkaufszahlen reflektieren nur das Verhalten einer Klientel. Bei CPUs sieht das schon anders aus, da gibt es noch echte Konkurrenz und Intel steht trotz durstiger EOL-Plattform nicht mal so schlecht da. Für Leute, die einen Mix aus Gaming und Produktion betrieben, hatte Intel bereits vorher die besseren Karten. AMD muss sich hier was ausdenken, das Ziel ist ja nicht Produktivität, sondern Gaming, und AMD hat diese Generation in dieser Hinsicht es vorgezogen alle Trümpfe aus der Hand zu legen und einen, auf Premium-Marke zu machen. Premium sieht für mich aber anders aus. Gerade in Zeiten, in denen Mittelklassekäufer händeringend nach Optionen suchen, sollte das Thema Premium unter den Tisch fallen, und Spiele-CPUs gehören da nun mal nicht so eingeordnet. Ansonsten ist der Kauf einer Konsole am Ende lohnender.
Der ganze Text ergibt kein Sinn, schade um die Mühe. Da ist ja jeder Satz falsch.
 
[wege]mini schrieb:
Ab 4K, für welches die meisten Menschen ihre tolle Hardware kaufen, ist die CPU schnurzpiepegal. Gebt das Geld für GPUs aus, Kinder.
Nicht wenn man MMOs und Strategie Games spielt^^
Weil die hängen oft auch in UHD im CPU limit.


Zur CPU ist schon nice was AMD da abliefert,aber die Preise wtf?
 
  • Gefällt mir
Reaktionen: Wintermute
Zurück
Oben