Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

supermanlovers schrieb:
Offtopic:
Das Argument sehr teure Hardware zu kaufen um dann 5-8 Jahre Ruhe zu haben, konnte ich nie verstehen. Dann lieber aller 3-4 Jahre nur Mittelklasse kaufen fürs gleiche Geld.
Richtig, deswegen kann man dennoch eine AM5 Plattform kaufen und sich einmal anfangs eine CPU kaufen und einmal am Ende des Lifecycle. Man spart sich dennoch 1x Mainboard.
So verkehrt kann das auch nicht sein. Schnell genug sind beide Hersteller mit ihren CPUs.

Weiß nicht was es daran immer wieder zu bemängeln gibt.
 
  • Gefällt mir
Reaktionen: dunkelbunter, MiroPoch, Schinken42 und 3 andere
Solang ihr das mit CPPC/CPPC pref cores testet wird das ganze eh nix.. schaltet es aus und bencht dann
 
  • Gefällt mir
Reaktionen: peru3232, Kha'ak und Onkel Föhn
Ohne 3D-VCache ist das ja langweilig. Spart euch den Test doch auf, bis Zen43D in Form eines 7800X3D, 7900X3D, 7950X3D da sind.

Dann sehen wir wer den längeren hat^^ Wahrscheinlich wieder AMD.
 
Zuletzt bearbeitet:
Daggy820 schrieb:
Sorry, aber sämtliche deiner Posts fühlen sich und hören sich an wie Fanboy Aussagen.
Wenn es hier Fanboyz gibt sind es aber in der Überzahl ganz eindeutig die AMDler. Aber sowas von.
Abgesehen würde ich fast mein linkes Ei verwetten ,dass auch auf AM5 upgraded wird (werden muss), ich hätte nämlich kein Bock bei DDR5 auf 6000 zu verweilen (weil das gekaufte Board nicht mehr packt) wenn es in der Zwischenzeit 10000 und mehr gibt wenn ich schon so fortschrittlich und zukunftsorientiert eingestellt bin.
 
  • Gefällt mir
Reaktionen: tritratrullala und ben12345
So und wo ist hier der Stromverbrauch im Vergleich der beiden Systeme?
Effizienzvergleich Fehlanzeige :(
 
  • Gefällt mir
Reaktionen: MiroPoch, Reina, Onkel Föhn und eine weitere Person
Knopfchaos schrieb:
Mich hätte hier noch die Leistungsaufnahme interessiert.mag ja nicht jeder Wert drauf legen, aber 6 % wären zu vernachlässigen, wenn wir von mehr als 50 Watt höherem Verbrauch sprechen.
Ich sehe 18%:
Unbenannt.jpg
 
  • Gefällt mir
Reaktionen: Skript, Shine2004, MiroPoch und 4 andere
Hutzeliger schrieb:
Fakt ist:

Wer AM4 nutzt fährt mit dem 5800X3D am besten.
Auch da kenne ich keinen der sein erstes AM4 Board (Ryzen1XXX) behalten hat, die meisten haben trotz gleichem Sockel immer mal geupgraded....

Wer Intel will, kann Intel nehmen und ist spitze.
Also ich habe noch mein ersten AM4 Board (asus Strixx B350-F) drinn, 1600x->3700x -> 5800x.
Danke für den Test, ja Intel hat momentan die Leistungkrone zurück, leider sieht man nicht zu welchem Preis (Strombedarf).
Intel hat den Kostenvorteil auf seiner Seite weil sie eben nicht den Bruch zu DDR4 gemacht haben und es deshalb günstigere Mainboards gibt. Wartet auf die nächste CPU Generation von Intel (mit neuem Sockel...) da werden die Preise dann sicher "angepasst".
Ansonsten sieht man schön: bis auf Ausreißer ist bei hohen Auflösung immer ein GPU Limit gegeben und daher die CPU mehr oder weniger zweitrangig.
mfg
 
Doppi schrieb:
Effizienzvergleich Fehlanzeige :(
Wie du sicherlich weißt, bewegen sich aktuelle Prozessoren in Spielen (!!) zwischen 60 und 120 Watt.
Außerdem steht die Erklärung im Text.
 
Zuletzt bearbeitet: (Do not feed)
  • Gefällt mir
Reaktionen: Zarlak, iceshield und ben12345
MrHeisenberg schrieb:
In 720p, die Leistungsaufnahme der CPU beim spielen interessiert aber logischerweise dort, wo man auch spielt, also wenn man in 1440p spielt, interessiert einen, was die CPU dort verbraucht, wo es 6% unterschied sind
 
  • Gefällt mir
Reaktionen: dunkelbunter, MiroPoch, ynfinity und 5 andere
Tornavida schrieb:
Wenn es hier Fanboyz gibt sind es aber in der Überzahl ganz eindeutig die AMDler. Aber sowas von.
Abgesehen würde ich fast mein linkes Ei verwetten ,dass auch auf AM5 upgraded wird (werden muss), ich hätte nämlich kein Bock bei DDR5 auf 6000 zu verweilen (weil das gekaufte Board nicht mehr packt) wenn es in der Zwischenzeit 10000 und mehr gibt wenn ich schon so fortschrittlich und zukunftsorientiert eingestellt bin.
Naja, das kann man auch so sehen wie man will.

Ich selbst bin auch noch mit DDR4 3200 Speicher unterwegs obwohl es weit schnelleren gibt und mein X570 weit mehr kann, aber soll ich jetzt für 5-10 FPS mehr 200€ verbrennen, nee lass ma so Bescheuert und Weltfremd bin ich noch nicht, tut mir leid.
Und selbst mit dem mittlerweile Langsamen Ram läuft mein Rechner total harmlos und stabil, also alles bestens.
 
  • Gefällt mir
Reaktionen: Viper816, Schinken42, Beero84 und eine weitere Person
kicos018 schrieb:
Wo ist diese eine Person, die noch in 720p spielt?
Wenn dich nur 4K interessiert, dann brauchst du auch keinen 7950X. Es geht in diesem Test darum, welche CPU mehr Leistung bietet und nicht um 4K.

Taxxor schrieb:
In 720p, die Leistungsaufnahme der CPU beim spielen interessiert aber logischerweise dort, wo man auch spielt, also wenn man in 1440p spielt, interessiert einen, was die CPU dort verbraucht, wo es 6% unterschied sind
Über die Leistungsaufnahme habe ich kein Wort verloren, sondern nur über die Leistung.
Wird hier wieder fleißig relativiert, um ZEN besser dastehen zu lassen, als sie letztendlich sind?
 
  • Gefällt mir
Reaktionen: Skript, Zeitzeuge und Edzard
Danke für euren Aufwand und sicherlich auch recht interessant, aber läuft bei den Preisen ja mehr unter Machbarkeitsstudie.

Hoffe sehr das ihr bei den kommenden kleineren Modellen und Kombinationsmöglichkeiten auch diese Tests nicht scheut.
 
  • Gefällt mir
Reaktionen: simosh
Zwirbelkatz schrieb:
Wie du sicherlich weißt, bewegen sich aktuelle Prozessoren in Spielen (!!) zwischen 60 und 120 Watt.
Außerdem steht die Erklärung im Text.

Nicht wirklich, dort steht, dass man sich die Leistung in unterschiedlichen TDP Limits im Raptor Lake Test angeschaut hat.

Hier geht es aber speziell darum, wie sich die Verbräuche zueinander verhalten, wenn eben in 1080p oder 4K genutzt werden.

"zwischen 60 und 120W" ist ja keine Antwort darauf^^

Es kann z.B. sein, dass in 720p der 13900K 20W mehr verbraucht.
Dann kann es aber in 1080p sein, dass er 10W weniger verbraucht.
Und in 4K dann noch 6% schneller aber mit 20W weniger Verbrauch.

Dann hat man das gleiche Problem wie mit den Prime95 Verbrauchstest damals, man nimmt die Verbrauchsmessungen in 720p und nimmt diese als Alltagsverbrauch beim Gaming an, im realen Einsatz sieht der Verbrauch dann ganz anders aus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, guzzisti, InTheEnd_AI und eine weitere Person
"Wer die GeForce RTX 4090 bestmöglich auslasten will, benötigt jetzt wiederum selbst in WQHD eine Flaggschiff-CPU."

Joa und somit bleibt die extrem spannende Frage nach wie vor unbeantwortet, ob das in UHD auch so ist,
da ihr warum auch immer jedes Spiel bei 4K mit DLSS getestet habt und somit unsinnigerweise zu WQHD gezwungen habt... Hach ja.

Ich hatte gaaanz kurz Hoffnung, dass dieser Artikel endlich Licht ins dunkel bringt, aber nein. 😞😔😟
(Realitätsnah oder nicht, mich hätten harte Fakten hier sehr interessiert)
 
  • Gefällt mir
Reaktionen: JohnDonson, Shine2004, simosh und 5 andere
MrHeisenberg schrieb:
Über die Leistungsaufnahme habe ich kein Wort verloren, sondern nur über die Leistung.
Wird hier wieder fleißig relativiert, um ZEN besser dastehen zu lassen, als sie letztendlich sind?
Der Post auf den du geantwortet hast hat über die Leistungsaufnahme gesprochen, und sich anhand der Prozentangabe für den Leistungsunterschied klar auf die 4K Benches bezogen.

Und genau da erwarte ich, dass Zen schlechter darsteht, denn Raptor Lake dürfte hier im Gegensatz zu 720p weniger als Zen4 verbrauchen
 
  • Gefällt mir
Reaktionen: Veitograf und Rockstar85
Muss man dann auch als derzeitiger AMD-ler einfach neidlos anerkennen. Ich reite ja aber auch nur auf ner 3060Ti und nem 5800X3D. 😉
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Zurück
Oben