Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Ich finde die ganze Diskussion aktuell überflüssig und man kann das für alle hier schnell Abkürzen, ohne das einer A oder B sagen muss. Man nimmt die Verbrauchswerte vom 7950x3D (ist ja die neue Referenz) und schaut wieviel FPS der 13900KS damit erreicht.

Warum diskutieren, wenn es doch so einfach sein kann?

Ich glaube jedoch das der Intel mehr als nur 4% dann zurückliegen wird. Dann immer noch zu leugnen das AMD schneller ist, hat mit Objektivität wenig zu tun.
 
  • Gefällt mir
Reaktionen: trb85, The_Wizzard, Müritzer und 2 andere
GerryB schrieb:
Verstehe eeh net warum ein grottig laufendes Forspoken mit bei Dir in der Spielauswahl drin ist, aber RE Village net!?
Die Begründung hat er doch auch schon gegeben, weil bei Resident Evil alle CPUs über 300FPS liegen, außer dem 5800X und selbst der kommt noch auf 265. Unterschiede sind hier daher nicht so relevant weil man mit jeder CPU seine GPU voll befeuern kann.

Bei Forspoken sind wir halt im Bereich von 120 an der Spitze bis 55 am Ende, hier macht es tatsächlich einen Unterschied, welche CPU ich habe, sogar noch in 4K.

btw: war Forspoken nicht sogar ein AMD Sponsored Game?
 
Crifty schrieb:
Ich finde die ganze Diskussion aktuell überflüssig und man kann das für alle hier schnell Abkürzen, ohne das einer A oder B sagen muss. Man nimmt die Verbrauchswerte vom 7950x3D (ist ja die neue Referenz) und schaut wieviel FPS der 13900KS damit erreicht.

Warum diskutieren, wenn es doch so einfach sein kann?

Ich glaube jedoch das der Intel mehr als nur 4% dann zurückliegen wird. Dann immer noch zu leugnen das AMD schneller ist hat mit Objektivität wenig zu tun.

Richtig, so einfach ist es doch, muss man nun mal akzeptieren.
 
Ich hoffe inständig, dass das beim Endanwender ebenso problemlos funktioniert! Wenn die Redaktionen schon entsprechende Anleitungen erhalten hatten, was in welcher Reihenfolge installiert werden muss...

Effizienz top, unbestritten! Btw, soll der Raptor Refresh net scho dieses Jahr kommen? Steht doch heut auf eurer Homepage, weshalb is dann Intel durch 2023? :confused_alt:
 
Robman86 schrieb:
Vollzitat entfernt
Jo, das richtig, aber jede Watt die man weniger abführen muss, umso besser. Und hier gehts ja ohne Leistungsverlust.
Mit ner Undervolteten 4080 ist man hier oben dabei ohne Thermal ganz auf Kante genäht zu sein.
Darüber hinaus, die SFX Netzteile (Lüfter) haben oft ne krasse Hysterese. Mein Cosair dreht ab 350 Watt ordentlich auf. Mit so nem Rig würde ich im besten Fall noch drunter bleiben… 🤤
Aber nunja, ich muss wohl mit meiner 2080ti und dem 5800x erstmal auskommen…
 
Zuletzt bearbeitet von einem Moderator:
So schön die Tests in 720p auch sind, damit nichts ins CPU limit läuft, ist es für mich nicht praxisrelevant. Kein Besitzer einer 4090 wird jemals diese Auflösung nutzen.
 
wuschipuschi schrieb:
AMD hätte in dem Test mindestens 30% mehr Leistung gebraucht, sonst würden die Intel Jünger nie ein gutes Wort dran lassen. Grad nicht die , die sich schön den 13900K eingebaut haben.

Alles eine Frage der Perspektive. Der 5800X3D hat ADL nunmal ziemlich in den Boden gerammt, also haben viele das beim Zen4 3D und RPL eben auch erwartet. Es haben viele den RPL aber eben auch total unterschätzt - von wegen veraltete Technologie. Mag sein das der Stapel das modernere Design ist und das sieht man ja bei der Effizienz. Dennoch hat Intel eben bei RPL alles mögliche aus dem Monolith herausgequetscht und im Vergleich zu ADL ordentlich an der Effizienz geschraubt.

Von daher: Der ganz große erhoffte Wurf ist Zen4 3D eben nicht IM VERGLEICH. Die 3D sind jetzt das, was Zen4 von Anfang an hätte sein sollen - auf Augenhöhe mit RPL. Die X Modelle sind eigentlich komplett überflüssig und hätte AMD sich besser gespart. Wäre auch besser fürs Image gewesen.
 
  • Gefällt mir
Reaktionen: rafiibs
Taxxor schrieb:
Bei Forspoken sind wir halt im Bereich von 120 an der Spitze bis 55 am Ende, hier macht es tatsächlich einen Unterschied, welche CPU ich habe, sogar noch in 4K.
Da würde ich erstmal noch ein 1/2 Jahr warten bis das Game halbwegs läuft und net nen Vgl. daran festmachen.

So ein Müll verzerrt nen Parcour übermäßig.
 
Taxxor schrieb:
Für sowas wie hier im Forum schreiben oder Videos konsumieren würde ich aber optimalerweise ein Notebook oder ähnliches nutzen wo ich dann 5-10W Verbrauch habe und keine 100W wie mein PC gerade^^

Kommt wohl auf das System an.
Mein Intel ist in Idle richtig sparsam, klar es ist nicht nur die CPU, die GPU frisst ja auch Strom so wie die anderen Komponenten auch, aber auch da komme ich not even close in die Nähe von 100 Watt in Idle. Und ja, ich mache den PC auch an um teilweise nur auf Youtube und im Netz unterwegs zu sein. :)

cpu.png

gpu.png


Kombiniert CPU+GPU sind es gerade mal 25 Watt.
 
Palmdale schrieb:
Effizienz top, unbestritten! Btw, soll der Raptor Refresh net scho dieses Jahr kommen? Steht doch heut auf eurer Homepage, weshalb is dann Intel durch 2023? :confused_alt:

Weil es eben nunmal nur ein Refresh ist, keine neuen Kerne.
 
Klever schrieb:
Kombiniert CPU+GPU sind es gerade mal 25 Watt.
Du musst dann nocht Monitor etc einrechenn was bei einem Notebook alles schon mit drin ist.

Ich habe einen 48 Zoll Oled und 3 Ultrawide Monitore. Stromverbrauch ist mir egal. Wichtig ist mir da mein Itx System anständig zu kühlen ist.
 
Klever schrieb:
Kommt wohl auf das System an.

Kombiniert CPU+GPU sind es gerade mal 25 Watt.
Natürlich, bei mir sind CPU+GPU kombiniert aktuell ~65W (der 5800X3D bei ~35 und die 4090 bei ~30)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IBISXI
LäuftBesser2000 schrieb:
Die ganzen Lemminge hier juckt 720p, anscheinend verstehe ich auch nicht das die darauf so abgehen. Schau dir auf YT Tech Yes City an, der hat wenigstens sowas berücksichtigt. Ja es gibt sogar Unterschiede @schlauberger die hier auf Ihre 720p CPU Tests abgehen. Also zweifelst du Tech Yes City auch an? Was juckt mich, was so eine CPU in 720P drauf hat? Alleine schon diesen Test zu machen ist Verschwendung in meinen Augen!

1. Lern mal bitte, dich zu benehmen. Wir sind hier keine Lemminge.

2. Keine Ahnung wer Tech Yes City ist, offenbar irgendein YouTuber, der irgendwas mit Tech macht (was ist seine Vita?) und seinen ganzen Kanal voller affiliate Links hat. Schön für ihn, er wird damit gut Geld verdienen. Ansonsten ist das weder irgendeine Ikone noch irgendjemand der es besser weiß, sondern einfach nur ein Typ mit einer Meinung, der testet.

3. Es ist ein CPU Test. Was glaubst du, was bei 4k in full ray tracing die fps bestimmt? Schau doch mal das Video von deinem Tech Yes City an:
13900K: 125 avg-fps in Hogwarts Legacy
7950X3D: 125 avg-fps in Hogwarts Legacy
5800X3D: 121 avg-fps in Hogwarts Legacy.

Ja aufschlussreich. Ich wette wenn der Typ den Test 5 Mal macht, dann ist in einem der Tests der 5800X3D am schnellsten, weil das alles noch Messfehler im Toleranzbereich sind.
In Dota 2 kommen alle CPUs auf exact die gleiche avg-fps. Bei den anderen Tests liegen die mal 3-7 fps auseinander, was im Rahmen der Messtoleranz liegt. Siehst du den Fehler? Wenn es danach geht, kann man vermutlich auch nen 6700k gegen nen 13900K antreten lassen und kommt zu dem Schluss: der 6700k kann ganz gut mithalten. Bei 4k und ultra settings limitiert die Grafikkarte. Soll die hier getestet werden? Ne, die CPU soll getestet werden. Ein Test mit hohen Grafik-Presets rennt ins GPU-Limit und ist somit nicht valide, weil nicht das getestet wird, was eigentlich getestet werden soll.

Natürlich spielt niemand mit dieser CPU in 720p. Darum geht es nicht. Es geht darum die unterschiedlichen Stärken der CPUs herauszufinden und sie sinnvoll gegeneinander zu messen. Dass die GPU und nicht die CPU dann bei Cyberpunk über die fps in 4k und RT entscheidet ist hier allen klar. Aber es hilft nicht bei der Leistungsgegenüberstellung der CPU.

4. Wenn dich was juckt, geh zum Arzt!
 
  • Gefällt mir
Reaktionen: CueSystem, Alex1966, EyBananaJoe und 16 andere
Crifty schrieb:
Man nimmt die Verbrauchswerte vom 7950x3D (ist ja die neue Referenz) und schaut wieviel FPS der 13900KS damit erreicht.
Und dann kann man festellen das man 20W spart während die GPU 400+ Watt verballert^^
Die ganze Effizenz Geschichte ist eine schöne Heuchelei teilweise, wo sich viele drann aufgeilen.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Volker schrieb:
Warten? Worauf denn bitte? 2025?
Intel ist durch für dieses Jahr und die Hälfte des nächsten. Und bei AMD ist dann auch erstmal lange Ruhe.
Jetzt/Anfang April liegt alles aufm tisch was es geben wird. Also kaufen!
Das meinte ich @aldaric
Sicherlich reißt es keine Bäume aus ;)
 
  • Gefällt mir
Reaktionen: aldaric
Sunjy Kamikaze schrieb:
Du musst dann nocht Monitor etc einrechenn was bei einem Notebook alles schon mit drin ist.
Das stimmt, und natürlich wird ein separater Monitor auch mehr verbrauchen wie ein Notebook, aber auch das hält sich im Rahmen. Mein LG kommt laut Testbereichten da z.B. auf 45 Watt. Und in einem Notebook verbraucht der Monitor ja auch Strom, wenn auch etwas weniger.
 
  • Gefällt mir
Reaktionen: Sunjy Kamikaze
Richtig. Aber dennoch denke ich das der großteil der Leute (nicht hier im Forum) Die sich einen Rechhner mit einer High End CPU kaufen.. für den alltag ein Tablet oder Notebook nutzen um zu surfen und youtube zu schauen.

Daher finde ich gerade da die Verbräuche etwas sehr weit hergeholt. Natürlich ist es besser wenn im idle weniger verbraucht wird. Mir persönlich ist aber wichtig das ich beim Zocken und ARbeiten die Hütte nicht unnötig aufheize und meine klima dann mehr arbeiten muss.
 
wuschipuschi schrieb:
Ich finde das hier auch immer recht amüsant. Wenn Intel ihren 13900KS Heizstrahler raushaut ohne Rücksicht auf Effizenz, rasten viele total aus und loben das Teil in den Himmel.

AMD hätte in dem Test mindestens 30% mehr Leistung gebraucht, sonst würden die Intel Jünger nie ein gutes Wort dran lassen. Grad nicht die , die sich schön den 13900K eingebaut haben.

AMD muss leider immer bissl mehr Leisten damit dieses auch honoriert wird von der Community.

Schlecht ist er auch nicht, der 13900k Heizstrahler.
Er passt nur nicht in die Zeit. Etwas zu durstig und sieht nur bei Teillast gut aus.

Die User hier wissen schon um die Vorteile von AMD Prozessoren.
Der Großteil hier ist auf AMD unterwegs, lt aktueller Umfrage.

https://www.computerbase.de/2022-12/hardware-software-umfrage-2022/
 
  • Gefällt mir
Reaktionen: trb85 und mscode
btw.
Ich bin auch net der Meinung, das Zen4 tatsächlich wesentlich besser als der 5800x3D läuft, ...
Da muß man sich echt Videos und Frametimeverläufe anschauen.
... kann sein das in nem Benchrun@Szene XYZ nur mal kurz Was net gepasst hat und schon sind in ner Tabelle die min+avg.Fps schlechter als tatsächlich über 90% des Verlaufes

Cyberpunk-2077-AvFPSoB-2160p.jpg


Igor hat netterweise/realistische 4k@DLSS benutzt. (weiss jetzt net obs dann 1080p-->2160p sind, aber
sollte net im CPU-Limit sein)
Denke, ... man sollte sich sein Lieblingsspiel raussuchen und im Web nach Videos schauen.
(wo ein User mit realistischen Settings sein Gameplay zeigt)

Wie schauts überhaupt mit Tuning aus?
ein 5800x3D@Stock ist ja total daneben, meist gehen deutlich bessere/effizientere Settings
sieht das beim 7950x3D ähnlich aus?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs
IBISXI schrieb:
Der Großteil hier ist auf AMD unterwegs.
Wow das wusste ich noch gar nicht. Bei der ganzen Intel Armee hier hätte ich wirklich gedacht das AMD deutlich im hintertreffen ist. Danke für den Link.
 
Zurück
Oben