Die kann man auf AM5 leider nicht nutzen. AMD wird den 5800X3D wohl nicht mehr DDR5 kompatibel machen.Novasun schrieb:Im übrigen ist der 7950 nicht AMD`s stärkste Gaming CPU im aktuellen AMD Portfolio...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090
cookie_dent
Commander Pro
- Registriert
- März 2017
- Beiträge
- 2.920
Hmmm, ich weis nicht. Wer ist denn eigentlich der Schuldige, AMD oder Microsoft? Unter Win10 scheint es ja besser zu laufen.t3chn0 schrieb:Wobei man da sagen muss das es AMD selbst schuld ist, wenn man das nicht gebacken bekommt.
Wunschdenkent3chn0 schrieb:Ich bin wieder mal erstaunt, wie viele hier ZEN4 gehyped haben und wie Raptor Lake keine Chance haben wird. Das war hier der riesige Tenor über Monate.
Eher eine Retourkutsche an die Wunschdenkert3chn0 schrieb:Hier wird jetzt so getan als wäre ZEN4 eine Krücke.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
das wäre interessant zu sehen, allerdings steigt der Systemverbrauch auch dann wenn die GPU höher ausgelastet wird. Man müsste sich also rein auf Package Werte verlassen müssen.Jack3ss schrieb:und jetzt das ganze noch mit Stromverbrauch?
Wichtig dabei ist aber auch der Umstand dass der 13900K locker auch die 6Ghz x 8 halten kann bei normaler Gaming Last und 120W Limit. Treibender Faktor bleibt da eher noch Display und GPU als ein paar W CPU Last, zumindest beim Gaming.
Zen4 / ein 7950X dürfe >100W aber effizienter zu betreiben sein wenn UV. Wenn jemand einen hat würden mich die Werte hier interessieren:
https://www.computerbase.de/forum/t...5-preset-performance-benchmark-liste.1980242/
Pltk
Cadet 4th Year
- Registriert
- Juni 2019
- Beiträge
- 125
Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung? Native Auflösung sieht doch immer am besten aus... und mit einer 4090 würde ich kein Upsampling benutzen. Schade, mich hätte interessiert, welche CPU man braucht um die 4090 in nativem 4K auszulasten...Wolfgang schrieb:Ultra HD als Zielauflösung inklusive FSR 2 oder DLSS 2 in der Quality-Einstellung ist ein absolut realitätsnahes Szenario für eine GeForce RTX 4090. Ohne Upsampling wäre die GPU-Last zwar noch höher, doch ist dies nicht zwangsläufig die bessere Einstellung, denn oftmals sieht das Bild mit DLSS 2 respektive FSR 2 besser aus.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.899
https://github.com/xxEzri/Vermeer/blob/main/Guide.md#stellarisRogueSix schrieb:In 4K ist der 5800X3D dort im Schnitt 6,8% schneller unterwegs. Es gibt aber auch ein paar beeindruckende Ausreißer. Wer zum Beispiel Hardcore Anno 1800 Spieler ist, der sollte dringend über ein CPU-Upgrade nachdenken, denn da sind es über +30% selbst in 4K!
Stellaris, Factorio und alles was Cache Sensitiv ist ebenso.. Im Schnitt 18,4% über einem 5800X... das ist schon krass, wie gut der Cache Skaliert.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
Das musst du bei Nvidia wie auch Intel / AMD selbst einstellen wenn dir danach ist. Ich hab meinen 13900K die letzten Tage auf möglichst hohe Peak Performance bei zugleich hoher Effizienz bei Dauerlast optimiert.Badesh schrieb:Ja, das ist ein High-End Artikel. - Aber was ist denn daran High-End heutzutage wenn eine Consumer-CPU wie der von Intel dauerhaft 300W ziehen darf für ein paar Prozent mehr Leistung. Nvidia hat's vorgemacht mit der 4090 - Bei 60% Energie noch 90% Leistung. Das ist High-End für meinen Geschmack.
OOB ist wirklich Unfug. Allein die Loadline von Level 9 (stock) auf etwa 3 zu reduzieren (ohne was anderes anzufassen) bringt sicher 30% Effizienz. Einfach weil Spannungen dann besser ausfallen.
Man kann ja schön mit Short Boost und Long Duration Power Limit beides erreichen. Oder auch den Multi nach oben fast offen lassen (wie bei mir mit 8x60) und einfach die Temperatur nutzen um dann in einen effizienten Bereich zu throtteln. Games lasten dabei eh nie die Kerne 100% aus und damit hat man hohen Takt, auch bei allen 8 Kernen.
Klar, auch hier würde es bei zb 5Ghz nochmal deutlich effizienter gehen. Dazu müsste ich die 120W noch weiter eingrenzen, auf zb 50W was beim 13900K dann wiederum deutlich effizienter wird als beim 7950X (da keine IO Die)
Sieht dann so aus:
ich würde behaupten du kanns den 13900K auf 60W drosseln und hast kaum Einbrüche bei Gaming Performance.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.100
Welches Setting hättest du gern erforscht ?Krautmaster schrieb:Zen4 / ein 7950X dürfe >100W aber effizienter zu betreiben sein wenn UV. Wenn jemand einen hat würden mich die Werte hier interessieren:
https://www.computerbase.de/forum/t...5-preset-performance-benchmark-liste.1980242/
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
runterladen, ausführen, müsste der reihe nach die Presets durchgehen und ein Logs ausspucken danke dir
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.100
Nein ich mein welches Powerlimit etc.Krautmaster schrieb:runterladen, ausführen, müsste der reihe nach die Presets durchgehen und ein Logs ausspucken danke dir
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
up to u. 120W wären interessant da ich mein i9 genau auf diesen Wert gedrosselt habe (im Bench ebenso mit 120W Short Power Limit also fix 120W). Weiß aber auch dass das natürlich weit weg vom Maximum an Effizienz ist.
50 auch gern.
50 auch gern.
Zuletzt bearbeitet:
Ja, aber da müsst ihr auf eure Erfahrung setzen. Ihr habt ja nicht ohne Grund entschieden nur 720p zu testen. Das war eine vollkommen logische Entscheidung.Jan schrieb:Nachdem neulich 720p als völlige Verschwendung von Ressourcen galt, sind wir in diesem Punkt jetzt also komplett. ^^
Ihr wisst selber am besten wie viel Aufwand die zusätzlichen Runs sind. Wenn man da jetzt den zusätzlichen Informationsgewinn gegenrechnet...
Wiesi21
Lieutenant
- Registriert
- Aug. 2008
- Beiträge
- 856
Hmm. Ich glaube bei den 2 CCD Ryzen 7 gibt es noch/wieder Scheduler Probleme.
Ich bin total happy mit meinem R7700X.
Hab mit PBO und LLC auf -45 super Verbrauchswerte. Interessant ist beim Zen4 ja, wieviel mehr Takt bei weniger Verbrauch und Hitze ich mit LLC schaffe. SC geht er mir da mit PBO dauerhaft auf 5,8 GHz und Multicore auf 5,6 GHz und das alles bei 88Watt Limit und 80 Grad Templimit.
Performance ist damit deutlich über Stock bei fast halbiertem Verbrauch. Das alles mit einem älteren Dark Rock Pro.
Ich bin total happy mit meinem R7700X.
Hab mit PBO und LLC auf -45 super Verbrauchswerte. Interessant ist beim Zen4 ja, wieviel mehr Takt bei weniger Verbrauch und Hitze ich mit LLC schaffe. SC geht er mir da mit PBO dauerhaft auf 5,8 GHz und Multicore auf 5,6 GHz und das alles bei 88Watt Limit und 80 Grad Templimit.
Performance ist damit deutlich über Stock bei fast halbiertem Verbrauch. Das alles mit einem älteren Dark Rock Pro.
Wenn das AA der Spiele-Engine schlechter ist, als das AA, was von DLSS oder FSR 2.0 verwendet wird, kann das hochgerechnete Bild tatsächlich besser aussehen, als das native.Pltk schrieb:Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung?
A
Adzz
Gast
Ein Trugschluss. Dlss3 sieht oft besser aus weil die Kanten viel glatter sind. Die eingebauten Kantenglätter ohne ki sind meistens einfach nur für die Tonne. Nicht umsonst wird in den dlss Tests hier gesagt, dass es besser aussieht als das native Bild.Pltk schrieb:Hä? Wie soll denn eine niedrigere Auflösung die hochskaliert wird besser aussehen als die native Auflösung? Native Auflösung sieht doch immer am besten aus... und mit einer 4090 würde ich kein Upsampling benutzen. Schade, mich hätte interessiert, welche CPU man braucht um die 4090 in nativem 4K auszulasten...
@ComputerBase
Ich hoffe mal endlich hört der Mythos auf, dass man für hohe Auflösungen keine CPU Leistung benötigt. Gerade z. B. die Berechnung der Bounding volume hierarchy bei RT generiert erstmal deutlich höhere CPU Lasten....und mehr je größer die Auflösung. Deswegen eben die Ergebnisse bei z. B. Spiderman wo eben auch 4K RT stellenweise im CPU Limit ist oder auch bei Cyberpunk. Viele RT Effekte brauchen neben GPU Leistung auch eben entsprechend CPU Leistung.
Und zum Thema Upscaling-Technologie : sowohl DLSS als auch FSR sehen bei sehr vielen Spielen von gesamten Bildeindruck besser aus als die native Lösung weil häufig Ingame Kantenglättungsverfahren einfach viel schlechtere Ergebnisse erziehen. Finde es sowieso spannend: alle wollen mehr Effizient und die sehr effizienten Näherungen an ein besseres Gesamtergebnis werden immer kritisiert....
Ich hoffe mal endlich hört der Mythos auf, dass man für hohe Auflösungen keine CPU Leistung benötigt. Gerade z. B. die Berechnung der Bounding volume hierarchy bei RT generiert erstmal deutlich höhere CPU Lasten....und mehr je größer die Auflösung. Deswegen eben die Ergebnisse bei z. B. Spiderman wo eben auch 4K RT stellenweise im CPU Limit ist oder auch bei Cyberpunk. Viele RT Effekte brauchen neben GPU Leistung auch eben entsprechend CPU Leistung.
Und zum Thema Upscaling-Technologie : sowohl DLSS als auch FSR sehen bei sehr vielen Spielen von gesamten Bildeindruck besser aus als die native Lösung weil häufig Ingame Kantenglättungsverfahren einfach viel schlechtere Ergebnisse erziehen. Finde es sowieso spannend: alle wollen mehr Effizient und die sehr effizienten Näherungen an ein besseres Gesamtergebnis werden immer kritisiert....
O
Oldtimer
Gast
Die Stumpfsinnigkeit, mit der ein 7950x mit 32 Threads überall und ständig lediglich auf einen Spielprozessor reduziert wird, ist nur schwer zu ertragen. Der 7950x ist ebenso wenig ein Spielprozessor wie der 5995WX.
Mir ist kein Spiel bekannt, welches auch nur annähernd die Möglichkeiten dieses Prozessors mit seinen 16 Kernen und 32 Threads nutzen kann.
Mir ist kein Spiel bekannt, welches auch nur annähernd die Möglichkeiten dieses Prozessors mit seinen 16 Kernen und 32 Threads nutzen kann.
Zuletzt bearbeitet von einem Moderator:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
wieso sollte es ein Flop sein? Es dürfte viele Fälle geben in denen die Multicore Performance des 7950X besser ist als die des 13900K.
Ergänzung ()
da bin ich eher überrascht dass das Big Little so gut funktioniert, also rein vom Scheduler. Gerade bei Games hätte ich da schlechte Frametimes erwartet wenn wieder was auf den E Kernen ausgelagert wird.Wiesi21 schrieb:Hmm. Ich glaube bei den 2 CCD Ryzen 7 gibt es noch/wieder Scheduler Probleme.
Ähnliche Themen
- Antworten
- 518
- Aufrufe
- 69.296
O
- Antworten
- 148
- Aufrufe
- 18.009