Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Martinfrost2003 schrieb:
Ist immer wieder Lustig, wie beide Lager versuchen Ihren Standpunkt zu verteidigen. Im Grunde ist es völlig egal, ob man sich jetzt für den i9 13900k oder Ryzen 9 7950X3D entscheidet. Von der Leistung macht man bei Beiden nichts Falsch. Bei der Effizenz sieht die Sache anders aus. Aber Beides sind erstklassige Gaming CPUs.
Vor allem ist das unsere Foren Leuchtturm-Debatte.

Im Freundeskreis berate ich eher Richtung 5800x3D oder 13600K. Das sind für mich die einzig relevanten Gaming "Mainstream" CPUs von Full HD bis 4K gerade, es sei denn man will jetzt den DDR5 Umstieg bezahlen und nicht noch 1-2 Jahre einfach warten, bis DDR5 der Standard geworden ist.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, trb85, blackTEHhawk und 5 andere
MrHeisenberg schrieb:
Siehs doch mal in absoluten Zahlen. Ich habe es dir vorgerechnet.
Der 13900K kostet 615€ und der X3D liegt bei 790€, was 175€ differenz sind.
Wenn ich jeden Tag 2h spiele, dauert es 6+ Jahre, bevor sich die 175€ relativieren.
Es ist also egal.
Ich verstehs, ich hab so ja auch pro 4090 argumentiert.

In absoluten Zahlen ist das nix für jemanden der eh schon viel Kohle ausgeben kann für so ein Produkt. Dennoch ist das der richtige Weg, es ist ein wahnsinnig effizientes Produkt. Das sollte eher gefeiert werden und nicht so relativiert.

Es wird ständig wegen Effizienz hier geheult im Forum und jetzt wo was effizient ist wirds relativiert. What ?
Ergänzung ()

Eli0t schrieb:
was ist schon "opfern"? Du kannst auch einen 7950X im Eco-Modus betreiben und verlierst kaum etwas, sparst aber massiv an Energieverbrauch und verringerst massiv die Temperaturen. Die Frage ist ob das Cachelet in deinen Anwendungen etwas bringt, nochdazu wo der 7950X um knapp 200€ günstiger ist.
In Anwendungen wirds vermutlich fast nix bringen behaupte ich, darum eher ja auch die Rede von "kompensieren". Das Plus bei Games würd ich aber mitnehmen wenn der Malus bei Apps sich in Grenzen hält oder besser -> nicht vorhanden ist, der Tausch ist ja simpel.

Mal schauen was das Ding kostet.
 
  • Gefällt mir
Reaktionen: M4deman, Der Lord und MrHeisenberg
iron_monkey schrieb:
Hm, komisches Kuddelmuddel... bei 6+6X3D Kernen wird er dann ggf. in Spielen hinter den Ryzen 7 7800X3D fallen und in Multicore-Anwendungen vor dem liegen.
Verstehen den Sinn auch nicht so richtig...Für Anwendungen wird man dann weiterhin den 7900X ohne 3D kaufen und für Spiele den 7800X3D.

Irgendwie ein unsinniges Modell?
 
  • Gefällt mir
Reaktionen: iron_monkey und ferris19
Ist der 7950X3D schon in irgendeinem Shop gelistet? Konnte bisher noch nichts finden.
 
@Wolfgang

gibt es bei den neuen X3D auch ein Spannungslimit wie beim Vorgänger (1.35V) bzw. sind eventuell sogar beide CCDs so gut selektiert? ein "normaler" 7950X schießt ja auch auf bis 1.5V hoch bei SInglecore- und Teillast.
 
Die Effizienz beeindruckt mich schon sehr, wenn man sich den Vergleich mit den Intels reinzieht. :)

Ich habe gar keine Informationen zu den Temperaturen gelesen oder hab ich die überlesen?
 
Maine schrieb:
Verstehen den Sinn auch nicht so richtig...Für Anwendungen wird man dann weiterhin den 7900X ohne 3D kaufen und für Spiele den 7800X3D.

Irgendwie ein unsinniges Modell?
Ne. Wer Anwendungen UND Spiele will, der kauft 7950X3D. Der 7900X3D füllt die Lücke mit Abfall-Dies die man nicht wegwerfen will und wird vermutlich auch absehbar stark rabattiert werden und so attraktiv bleiben für manche.
 
  • Gefällt mir
Reaktionen: Topflappen
Die Effizienz finde ich gut. Mehr aber auch nicht.

Weder stellen die Benches in 720p irgendwas realitätsnahes dar,
noch ist der Leistungszuwachs in größeren Auflösungen (musste ich woanders nach schauen) so hoch als müsste man jetzt unbedingt auf die neue Plattform umsteigen.

Alles aus der Sicht eines Kunden der schon einen Rechner daheim stehen hat, versteht sich ;)

Mir ist das Aufrüsten mittlerweile zu teuer für das bisschen Leistungszuwachs.
Schönes Beispiel: X670 Asus/Gigabyte Board für ~300€ mit Realtek ALC897.
Selbst ein B650 mit Realtek 4080 samt Toslink kostet 260€ (B650 Tomahawk WIFI) ...

- Ja, ich nutze meinen Onboard meines C7H :) samt DT 990 Pro. Damals 240€ bezahlt.
Mach ich so auch nicht mehr xD

DDR5 soll erst mal 7000-8000 MHz mit guten Timings haben.
Midrange CPUs sollte sich "gut" absetzen können sowie auch die Graka.

Wirklich nur schön das es eben auch effizienter geht. Alles andere ist eher Einheitsbrei.
 
Laphonso schrieb:
Im Freundeskreis berate ich eher Richtung 5800x3D oder 13600K. Das sind für mich die einzig relevanten Gaming "Mainstream" CPUs von Full HD bis 4K gerade, es sei denn man will jetzt den DDR5 Umstieg bezahlen und nicht noch 1-2 Jahre einfach warten, bis DDR5 der Standard geworden ist.
So sieht es aus, es braucht keinen 7950X3D oder 13900K, dann lieber eine bessere GPU.
 
  • Gefällt mir
Reaktionen: NIGHTFIL, 9t3ndo, devanet und 3 andere
Chilisidian schrieb:
Richtig. Dennoch argumentieren mir hier zu viele Leute mit den Stromkosten bei im Mittel 70 Watt Mehrverbrauch beim Intel. Selbst bei aberwitzigen 1.000 Stunden Spielzeit sind ca. 25 EUR pro Jahr. Bei einer Person, die da mindestens einen 2.500 EUR Rechner stehen hat. Das ist für mich einfach eine Phantomdiskussion. Wenn man wenigstens sagen würde, dass es für die Umwelt besser wäre - aber das scheint hier ja kaum bis keine Rolle zu spielen.
Als Branding-Agnostiker (ich liebe dieses Wort :D) betrachte ich das differenziert:

Für Enthusiasten hier (zu denen auch ich gehöre) gilt Performance>Rest. Mir ist der Verbrauch egal, ich habe das eingepreist.
Und mit meinem Real Life PVE Endboss (= Ehefrau :D ) vor Jahren geklärt, dass ich unseren Strom bezahle, weil ich der Top Verbraucher bin mit meinem Holodeck aus Gaming PC, Arbeits Laptop und den Monitoren etc.

In diesem Aspekt sehe ich den 7950x3D und den 13900K auf Augenhöhe, aber AMD derzeit mit der Fußspitze weiter vorne. Am Ende ist es da die Präferenz und Frage der Games Usecases

Gleichwohl....
....auch für neutrale Beobachter, ist die Erkenntnis, dass AMD nur 50% Strom/Power erfordert, um 100% Intel Leistung zu erhalten, schon beeindruckend!
Und wegweisend:
Es wird Intel zwingen, hier zu agieren.
Intel muss sich ja dem K.O. Kriterium stellen, das AMD für die Industrie definiert, weil Laphonso, Zer0Strat, MrHeisenberg Chilisidian und Co. nicht mehr ausreichen werden, um den Absatz sicherzustellen.
Oder anders gesagt:
Wenn "Verbrauch ist mir egal"-Ignoranten (wie ich), die nur nach Max Settings und fps gehen, am Ende übrig bleiben, wird eine 350 Watt 14900K CPU nicht mehr viele Abnehmer finden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85, Volvo480, 9t3ndo und 7 andere
mcsteph schrieb:
Ja ja, die 4090 liegt ja auch wie Blei in den Läden;)

Die Verkäufe der 40X-Generation sind kein Ruhmesblatt, aber das ist auch so gewollt. Es ist ohnehin kein guter Vergleich. Der jetzige GPU-Markt der aktuellen Generation ist recht mager, was Optionen angeht, die Verkaufszahlen reflektieren nur das Verhalten einer Klientel. Bei CPUs sieht das schon anders aus, da gibt es noch echte Konkurrenz und Intel steht trotz durstiger EOL-Plattform nicht mal so schlecht da. Für Leute, die einen Mix aus Gaming und Produktion betrieben, hatte Intel bereits vorher die besseren Karten. AMD muss sich hier was ausdenken, das Ziel ist ja nicht Produktivität, sondern Gaming, und AMD hat diese Generation in dieser Hinsicht es vorgezogen alle Trümpfe aus der Hand zu legen und einen, auf Premium-Marke zu machen. Premium sieht für mich aber anders aus. Gerade in Zeiten, in denen Mittelklassekäufer händeringend nach Optionen suchen, sollte das Thema Premium unter den Tisch fallen, und Spiele-CPUs gehören da nun mal nicht so eingeordnet. Ansonsten ist der Kauf einer Konsole am Ende lohnender.
 
Wollte mir heute (damit ggf. pünktlich zum Basteln am WE da) einen 7950X3D bestellen.

Finde bspw. über Geizhals noch keine aktiven Listings - dachte heute startet der Verkauf?
 
Laphonso schrieb:
Es wird Intel zwingen, hier zu agieren.
Intel muss sich ja dem K.O. Kriterium stellen, das AMD für die Industrie definiert, weil Laphonso, Zer0Strat, Heisenberg Chilisidian und Co. nicht mehr ausreichen werden, um den Absatz sicherzustellen.
Oder anders gesagt:
Wenn "Verbrauch ist mir egal"-Ignoranten, die nur nach Max Settings und fps gehen, am Ende übrig bleiben, wird eine 350 Watt 14900K CPU nicht mehr viele Abnehmer finden.
Ich denke hierbei eher auch an Mobile-Plattformen. Wenn AMD hier eine Mobile CPU bringt mit X3D die ähnlich effizient ist, dann braucht Intel mit einem 139X0 HX gar nicht mehr antreten. Das Ding ist wertlos in dem Fall.

Desktop User werden da weniger kritisch sein.
 
  • Gefällt mir
Reaktionen: Kloin, Perdakles und Laphonso
Onkel Föhn schrieb:
Nur durch die Brille :cool_alt:

"Mit dem Ryzen 9 7950X3D rammt AMD Intel ungespitzt in den Boden. Der 16-Kerner ist in Spielen 149 Prozent effizienter als sein Gegenspieler Core i9-13900KS und liefert dabei noch eine rund fünf Prozent höhere Performance. In Anwendungen unterliegt der AMD-Prozessor der Konkurrenz zwar leicht, allerdings bei einer 45 Prozent höheren Effizienz. Für PC-Spieler liefert AMD mit dem 7950X3D das reinste Paradies: Maximale Leistung, die höchsten Fps pro Watt, die wir jemals im PCGH-Testlabor gemessen haben"

https://www.pcgameshardware.de/Ryze...iew-Effizienz-AMD-Gaming-Vergleich-1414085/4/

MfG Föhn.
Immer diese geilen Superlativen :D
Einen 13700K der ungefähr die hälfte kostet kann man geschmeidig auf 90W laufen lassen ohne das irgendein Leistungsverlust bei Spielen spürbar währe. Von daher wäre es wenn man nicht gerade weiß wohin mit seiner Kohle ziemlich unsinnig sich jetzt ein solches System aufzubauen wenn man nur Zocken will.
Es geht hier doch nur um theoretische Werte. Niemand der jetzt eine Aktuelle CPU mit einer Potenten Grafikkarte einsetzt wird ab 7700X/13600K einen unterschied spüren.

Würde ich jetzt ein Neues System bauen wäre wahrscheinlich AM5 mit einem 7700X meine erste Wahl.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Liest sich sehr gut. Aber ein Umstieg ist ziemlich teuer....
 
ThirdLife schrieb:
Ich denke hierbei eher auch an Mobile-Plattformen. W
Ja, sehr wichtiger Punkt, den hatte ich eben gar nicht auf dem Radar. Das mobile (im Wortsinne) Gaming mit Laptops, vor allem "4K Gaming" wird 2 Fronten Kämpfe mit GPU und auch CPU nicht stemmen können in Formfaktor, Kühlung und Verbrauch. In diesem Segment spielen 50 Watt "mehr oder weniger" eine eher schon exponentielle Rolle.
 
  • Gefällt mir
Reaktionen: ThirdLife
@Wolfgang @Volker
Danke für den guten Test. :-)

Ich vermute, die (mangelnde) Zeit/personellen Ressourcen waren wieder ursächlich, aber einen Kritikpunkt habe ich dieses Mal: Das Kapitel "Die Leistungsaufnahme auf dem Desktop/Idle" fehlt mir.

Es scheint für viele/die Mehrzahl der in diesem Thread Mitwirkenden keine hervorgehobene Rolle zu spielen, aber es ist eine wichtige Kennzahl im Kontext der Energieeffizienz (deren Gewichtung natürlich individuell erfolgt). Selbst wenn sich diese durch die vorab bekannten Architekturveränderungen nicht (wesentlich) verändern sollte, ist die Bestätigung dieser Erwartung eine relevante Erkenntnis.

Ich meine daher, das gehört bei CPUs und GPUs grundsätzlich dazu.
 
  • Gefällt mir
Reaktionen: themk, Teeschlürfer, Der Lord und 6 andere
Laphonso schrieb:
Ja, sehr wichtiger Punkt, den hatte ich eben gar nicht auf dem Radar. Das mobile (im Wortsinne) Gaming mit Laptops, vor allem "4K Gaming" wird 2 Fronten Kämpfe mit GPU und auch CPU nicht stemmen können in Formfaktor, Kühlung und Verbrauch. In diesem Segment spielen 50 Watt "mehr oder weniger" eine eher schon exponentielle Rolle.
Genau, gerade auch mit so Features wie dem dynamischen Powerlimit das die GPU dynamisch boosten kann bei niedrigem CPU Verbrauch.

Das wird schon wichtig ob deine GPU im Notebook dann 100 statt 75W ziehen kann weil deine CPU super effizient mit 25W statt 100W läuft.
 
  • Gefällt mir
Reaktionen: Laphonso
MrHeisenberg schrieb:
Siehs doch mal in absoluten Zahlen. Ich habe es dir vorgerechnet.
Der 13900K kostet 615€ und der X3D liegt bei 790€, was 175€ differenz sind.
Wenn ich jeden Tag 2h spiele, dauert es 6+ Jahre, bevor sich die 175€ relativieren.
Es ist also egal, mal ganz davon abgesehen, dass dein Vergleich ein absoluter Äpfel -> Birnen Vergleich ist.
Du willst es nicht verstehen, oder?
Es geht bei diesen Preisen NICHT um den einzelnen, der sich die CPU leisten kann.

Es geht vielmehr darum, was die CPU zu leisten imstande ist, wenn sie Strom verbraucht.
Und wenn es eben einige 1000 CPUs gibt, die weniger verbrauchen in ihrem Lebenzyclus, dann werden auch viele tausende Kilowattstunden weniger verbraucht bei gleicher Leistung am Monitor.
Jetzt und bei ihren Nachfolgen dann hoffentlich auch so. Daher ist der Verbrauch bei intel heutzutage ein signifikanter Unterschied.

Ist das kein Anreiz?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: suessi22, McTheRipper und Perdakles
Zurück
Oben