Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Dandy2k5 schrieb:
Bevor gejaunert wird solltest du mal tief Luft holen und dir selber die Frage stellen wieso bei CPU Tests in niedrigeren Auflösungen getestet werden.
Das ewige gejammer geht einen übelst aufen strich. -.-
Ich helf mal

 
  • Gefällt mir
Reaktionen: Dandy2k5, Alex1966, mazO! und 5 andere
Piak schrieb:
Ja und auch L4 ist super! Siehe 5775C.
Andere Architektur, da kein Chiplet-Design. Kann man halt nicht pauschalisieren.
Bandbreite und Latenz sind einfach die relevanten Faktoren und ein fetter Cache als L4 im IOD kommt da aktuell einfach nicht an einen flotten L3-Cache heran.
 
steeve_hgw schrieb:
Das ist meine Meinung - leb damit oder scroll weiter.
Das kann schon deine Meinung sein. Ändert nur nichts an der Tatsache das eine Meinung auch, wie in diesem Fall, falsch sein kann.
 
  • Gefällt mir
Reaktionen: mazO!, MiroPoch, karl_laschnikow und eine weitere Person
ShiftC schrieb:
Auch in dieser recht unterhaltsamen Episode waren viele altbewährte Klassiker dabei. Mit an Bord die unverzichtbaren 720p Kritiker respektive die mit gezogener Handbremse in 4K Testfetischisten. Auch die mit DDR-Drölftausend ihre CPU auf Lichtgeschwindigkeit beschleunigenden Dauergäste sind wieder Hand in Hand mit den Benchmarksauswahlextraktionskünstlern, die es immer wieder bewerkstelligen, dass die Balken ihres Favoriten möglichst bündig mit denen des Protagonisten sind.

Natürlich sollte man die regelmäßig mitspielenden Spezialisten, deren extremst ausgeprägte Glaskugel die bestätigten Ergebnisse bereits vorhergesagt hatten und den Oscar zurecht verdient haben, nicht vergessen.

An dieser Stelle möchte ich doch ein großes Lob an die Regisseure aussprechen, die eine sehr gut strukturierte und mit massivem Aufwand verbundene Folge präsentiert haben.
Der Satiriker darf natürlich auch nicht fehlen!
 
  • Gefällt mir
Reaktionen: 4lter5ack, iron_monkey und ShiftC
Weniger Vorsprung als erwartet. Aber ne präzise Punktlandung aus AMDs sich nehme ich an. Die Effizienz ist brutal und lässt Raptor-Lake nun noch mehr als brechstangen wirken. Das wird nen refresh sicherlich wieder gerade biegen. Aber dann bei noch höheren Verbrauch? Das sollte Intel sich echt kneifen. Neuer Sockel, neue CPUs... Die e-cores raus und an die Stelle Cache.
 
Zer0Strat schrieb:
Warum habt ihr denn "nur" die normale Witcher Version verwendet? Die Next-Gen Version ist doch viel fordernder für CPUs.
Das wäre ja dann ein 8 Jahre altes Spiel im Parcour, ich hoffe doch nicht.
Zudem stimmt da eh etwas nicht.
Screenshot 2023-02-27 182352.png


Der 13700K ist unverhältnismäßig schnell, oder sind die Balken nur falsch beschriftet?
 
  • Gefällt mir
Reaktionen: Anon-525334
LäuftBesser2000 schrieb:
man soll einfach 1080p, 2k, 4k Benches heraushauen und fertig.
Also der dreifache Testaufwand für 0% Mehrinformation.
Denn ob mit deiner GPU noch unterschied zwischen den CPUs bestehen kannst du aus der Kombination der CPU Tests und den GPU Tests entnehmen.
Sofern du nicht selbst eine 7900XTX oder eine 4090 besitzt, sagen dir Tests in anderen Auflösungen mit diesen GPUs nämlich genausowenig.

LäuftBesser2000 schrieb:
Wenn die CPU keine Leistungssteigerung in den genannten Kategorien bringt kann man auch locker flockig zu last gen 5800X3D greifen und viel Geld sparen.
Joa, um dann mit der 5090 zu merken, dass plötzlich der 7950X3D doch 20% schneller ist^^
Zumal man hier ja sowieso auf den 7800X3D warten sollte, wenn man die MC Leistung nicht braucht.
 
  • Gefällt mir
Reaktionen: Creidiki, Onkel Föhn, Rage und 2 andere
Taxxor schrieb:
Genau das wäre das, wo ich mit manuellem Eingreifen noch "was rausholen" möchte bei meiner Hardware. Der 5800X3D wurde auch erst mal mit dem PBO2 Tuner auf Curve Optimizer -20 Allcore gesetzt um noch mal weniger zu verbrauchen.
Das gleiche bei der 4090, da setze ich mich lieber dran, den Verbrauch so niedrig wie möglich zu bekommen und gleichzeitig so wenig Performance wie möglich zu verlieren, anstatt irgendwie noch mal 5% Performance mehr zu bekommen.


Da kannst Du auch nicht viel rausholen auf die Schnelle.

Bei einer 4090 am Powerlimit zu drehen ist etwas anderes als am Curve Optimizer rumzuspielen.
Das eine geht schnell und ist stabil, das andere birgt Gefahren und ist, selbst wenn man es richtig macht den Aufwand oft nicht Wert.

Curve Optimizer hat es in sich, wie Du weißt und viel zu viele pfuschen daran rum.

Es kann bei modernen CPUs so viele verschienede Lastzustände geben dass du niemals alle durchtesten kannst.
Das ist auch der Grund warum AMD das nicht ab Werk macht und ein gewisser Abstand zum Optimum vorhanden ist..

Was ist mit AVX2 oder AVX 512 Last? Auf welchen Kernen? Auf welchem CCD? Bei welchem Verbrauch pro Core? Bei welcher Kühllösung? Sommer oder Winter? Mit Grafikkaren Last und erhöhten Casetemps oder ohne? Bei welchem gesamt PPT? Was wenn ein Core oder mehrere den Nachbarn aufheizen? In welchen Core Kombinationen? Auch Last auf IF oder RAM können entscheidend sein.
So viele Sachen haben Einfluss.

Du kannst nie sicher sein dass die CPU bei -20 Curve Allcore stabil ist, auch wenn es so aussieht. Mit an Sicherheit grenzender Wahrscheinlichkeit ist sie es nicht.

Deshalb lohnt es auch nicht, außerhalb von leichten Veränderungen.
z.B. Curve -5 und -0,025V Vcore Offset, wenn man exzellente Kühlung/Lüftung hat

Früher hat Overlocking noch gelohnt.
Ordentlicher Kühler drauf, Luftstrom optimiert, Spannung erhöht --> 30% mehr Leistung.

Heute sieht das eher so aus:
Powerlimit -30%, Leistung -4% oder Powerlimit -40%, Leistung -8%

Das hatte bei mir auch einen angnehmen Nebeneffekt:

Bis jetzt war ich auf Wasserkühlung unterwegs, da ich es gerne leise und schnell habe.
Bei dem ganzen Wahnsinn der von NV, Intel und AMD aufgeführt wird mit der Leistungsaufnahme, hat es einfach gereicht den AMD Prozzi hart auf 135W PPT zu begrenzen (Noctua D15) und die 4090 auf 330W.

Die überdimensionierte Kühllösung der 4090 (600W) und des CPU Kühlers Noctua D15 (220W) lassen extrem niedrige Lüfterdrehzahlen zu. (max. 60%, nie erreicht)

....Hammer Performance, nicht hörbar und Energieeffizient.


BTW... bei Intel lässt sich auch nicht mehr rausholen, gerade die Dickschiffe laufen auch an der Kotzgrenze.
Einzig..... schnellerer RAM wird eher laufen.

Ich bin begeistert vom 7950X3D.
Es gibt nicht viel was bei dieser CPU nicht passt. (Preis hat noch Potential)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OldboyX, 4lter5ack und Onkel Föhn
Geringverdiener schrieb:
"King of the hill" ist schon ein harter Titel, wenn man beachtet das die "gaming" differenz der beiden Top CPU´s nur mit der Lupe erkennbar sind.

von den fps hebt sich keine cpu spürbar von der anderen ab

Intel krönt sich sogar trotz irrwitzigem Verbrauch und 2% Vorsprung zum Gaming König, nun liegt AMD mehrere Prozent vorn und nimmt alle Argumente für eine Intel CPU weg und hier wird geheult als ob es kein Morgen gäbe.
 
  • Gefällt mir
Reaktionen: dermatu, Dandy2k5, Alex1966 und 9 andere
Dandy2k5 schrieb:
Bevor gejaunert wird solltest du mal tief Luft holen und dir selber die Frage stellen wieso bei CPU Tests in niedrigeren Auflösungen getestet werden.
Das ewige gejammer geht einen übelst aufen strich. -.-
Genau Schlauberger
@Dandy2k5


@Sinatra81 hier wird dir geholfen vergiss die!
 
  • Gefällt mir
Reaktionen: Sinatra81
Oha, was für Hammer Schachzug von AMD. Bin selbst als Intel Fan völlig überrascht von der Leistung und Effizienz. :o Respekt AMD, sehr gut gemacht! Bin gespannt wie Intel darauf reagieren wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, rafiibs, daknoll und 2 andere
Pisaro schrieb:
Das kann schon deine Meinung sein. Ändert nur nichts an der Tatsache das eine Meinung auch, wie in diesem Fall, falsch sein kann.
Eine Meinung kann man weder belegen noch widerlegen. Ergo kann sie nicht falsch sein. Wir sind einfach nicht einer Meinung :-*
 
Taxxor schrieb:
Also der dreifache Testaufwand für 0% Mehrinformation.
Denn ob mit deiner GPU noch unterschied zwischen den CPUs bestehen kannst du aus der Kombination der CPU Tests und den GPU Tests entnehmen.
Sofern du nicht selbst eine 7900XTX oder eine 4090 besitzt, sagen dir Tests in anderen Auflösungen mit diesen GPUs nämlich genausowenig.


Joa, um dann mit der 5090 zu merken, dass plötzlich der 7950X3D doch 20% schneller ist^^
Zumal man hier ja sowieso auf den 7800X3D warten sollte, wenn man die MC Leistung nicht braucht.
Das ist so lächerlich, da gibt es durchaus gravierende Unterschiede sogar in unterschiedlichen Games inkl. Auflösungen!
 
Im Grunde eine feine Gaming CPU von AMD, vor allem was die Effizienz angeht und hier sieht man wieder, dass Intel mittlerweile um viele Jahre (ein Jahrzehnt?) abgeschlagen und abgehängt sind.
Wenn Intel sich selbst einen Gefallen tun wollen, dann sollten sie -bevor es zu spät ist- ihre Fabs einstampfen oder wie GloFo nur noch specialized processes für die Industrie anbieten. Sonst wird es Intel in wenigen Jahren nicht mehr geben.

Game over ist keine Schande, Intel. Man muss es aber frühzeitig erkennen und einen Schlussstrich ziehen, bevor es einen dahinrafft.
Stattdessen gibt es hinter den Kulissen offenbar erneut Riesenprobleme, wenn man sich ansieht, dass es keinen Meteor Lake im Desktop geben wird. Zudem kommen alle neuen Architekturen/Prozessoren deutlich später als erwartet auf den Markt. Weitere massive Verschiebungen wären keine Überraschung.

Das wird doch in diesem Leben alles nichts mehr... Intel sollte diesen unwürdigen, qualvollen Todeskampf beenden und in der Fertigung einfach endlich alle Viere von sich strecken.

Am Ende des Tages bin ich persönlich dennoch froh, mich für einen 13900K entschieden zu haben. Das Mehr an Leistungsaufnahme in Spielen holt man im Idle wieder raus :D (oder hat AMD inzwischen die hohe idle power consumption gefixt?) .
Aber viel schwerwiegender und ein komplettes NoGo (für mich) beim Ryzen: Dass man ernsthaft die unterirdisch unsägliche Windows GameBar laufen lassen muss, ist für mich ein absolutes K.O. Kriterium.

Nach dem Abstellen aller (naja bzw. was MS erlaubt) Spionagefeatures ist die Entmüllung von Windows immer der erste Schritt nach einer Neuinstallation und da steht die GameBar stets ganz oben mit auf der Liste. Unfassbar, dass AMD User gezwungen werden, diesen Müll zu nutzen. Da müsste man in Den Haag gegen klagen :D.
 
Ich bleibe dabei, für ein gescheites Fazit/Einordnung/Kaufempfehlung(gerade wegen des hohen Preises) hätten praxisnahe Tests dazugehört!

Wenn bei 720p die Render-Auflösung zusätzlich auf 25-50% gesetzt oder mit FSR/DLSS Performance Mode getestet wurde, war es dann nicht nur 360p?

Ist ja toll, wenn dann 30% Mehrleistung rausspringen!

1. Jetzt zocken die meisten aber 1080/1440p und immer mehr 4K.

2. hat jetzt auch nicht jeder ne 4090 im Rechner!
 
  • Gefällt mir
Reaktionen: bttn und LäuftBesser2000
Zurück
Oben