Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Cerebral_Amoebe schrieb:
Bei einer RTX4090 muss man DLSS anmachen, um in WQHD zu spielen :o
Muss man nicht, aber warum soll ich es nicht anmachen wenn es nicht schlechter, in einigen Fällen sogar besser aussieht und man den Verbrauch reduziert?
Den höchsten Verbrauch hatte ich bisher im Witcher 3 Next Gen mit ~160W, ansonsten bewege ich mich mit 60-80FPS Limit zwischen 90 und 150W in so ziemlich allem was ich so spiele (~130W in Hogwarts Legacy, da du das erwähnt hast^^).
 
  • Gefällt mir
Reaktionen: Kommando, Vigilant und ComputerJunge
Kalsarikännit schrieb:
Das Intelsysteme im Idle- oder Teillastsituationen effizienter dastehen steht ja außer Frage, trotzdem erstaunlich wie lange diese blauen Vorkämpfer plötzlich ihre Boliden einfach nur angeschaltet in der Ecke stehen haben oder was ins Notepad tippen. Nunja, scheint ja nicht mehr viel anderes zum draufrumreiten zu geben.
Also ich bin wenn überhaupt eher AMD zugeneigt und sehe den Idle- und Niedriglast-Verbrauch von AMD auch sehr kritisch. Es ist halt nicht alles schwarz und weiß und nicht jeder Kritiker ein Fanboy des anderen Lagers.

DevPandi schrieb:
Erst, wenn ich den RAM in den Standard JEDEC-Profilen betreibe und damit XMP oder eben EXPO aktiviere, gehen die Prozessoren im weitgehenden Leerlauf in einen noch sparsameren Modus.
Du meinst JEDEC-Einstellungen und XMP/EXPO deaktiviert, richtig?
Und hast du mal getestet den RAM nach den offiziellen Spezifikationen von AMD/Intel zu betreiben? (Also DDR5-5200 für Ryzen 7000 und DDR5-5600 für Raptor Lake)
Möglicherweise bietet das nämlich die gleichen Einsparungen wie JEDEC-Profil mit geringerem Leistungsverlust.
 
Irgendwie witzig. Eine RTX4090 kaufen und dann DLSS aktivieren um den Verbrauch zu reduzieren. :D
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat, daknoll, Whetstone und eine weitere Person
Find's immer putzig wie viele hier meinen, dass nur weil man high end Hardware hat ist einem der Stromverbrauch völlig schnuppe.
Ich hab' sogar nen Balkonkraftwerk um meinen Fußabdruck in dieser Welt zu reduzieren (und weil ich's sau cool finde mich damit zu beschäftigen).
Wenn ich also ohne Nebenwirkungen 10 Watt im Idle sparen kann oder mit ein wenig undervolting der GPU bei quasi gleichbleibender Leistung 100 Watt im Lastszenario sparen kann, dann mache ich das auch.
 
  • Gefällt mir
Reaktionen: PrinceCharming, Arcturus128, Starkstrom und 5 andere
Windell schrieb:
Irgendwie witzig. Eine RTX4090 kaufen und dann DLSS aktivieren um den Verbrauch zu reduzieren. :D
Was hat das mit der GPU zu tun? Das gilt für jede GPU. Mit der vorherigen 6800XT habe ich FSR2 auch immer aktiviert, sofern es keine gravierenden Unterschiede zu sehen gab.

Die 4090 ist ja generell schon sehr effizient und das hab ich mit UV noch weiter verbessert. Dazu dann eben DLSS/FSR wo verfügbar und bei gleicher Bildqualität. Wozu >300W verballern, wenn ich das gleiche auch mit <150W hinbekommen kann?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: n4rti
@BelneaHP Reicht dein Kraftwerk denn aus um deine 4090 und Co zu betreiben? Ich nehme dann mal an das du dann auch kein Auto hast und wenn, dann nur ein Elektrisches. Ansonsten natürlich das gute alte Fahrrad.

@Taxxor Ganz einfach erklärt. Weil die 4090 die mit Abstand teuerste GPU aufm Markt ist. Soviel Geld rausballern und dann aber DLSS aktivieren um Strom zu sparen. Aus thermischer Sicht kann ich es verstehen, aber nicht aus Finanzieller dann. Will jetzt keinen Autovergleich anführen.

Aber genug OT, back to topic. :)
 
  • Gefällt mir
Reaktionen: Whetstone und spcCartman
DLSS ist halt ein klasse FSAA-Ersatz. 4K per DLSS sieht imho meist nicht nur besser aus als nativ, sondern läuft auch fluffiger bzw. mit weniger Verbrauch, je nachdem wie man will.
 
Arcturus128 schrieb:
Du meinst JEDEC-Einstellungen und XMP/EXPO deaktiviert, richtig?
Richtig. In dem Fall eben die "Standardeinstellung", die der RAM meldet. Da geht der Leerlauf und teilweise auch der Teillastverbrauch bei den Zen4 und RaptorLakes, aber auch beim 5800X3D herunter.

Auch das Mainboard sind da einige Einstellungen, die da mehr verbrauchen, als notwendig. Interessant, was da geht. Fest steht aber auch, dass Z790 und X670E echte Schlucksprechte sind... ich hab hier ein 13900K auf nem B-Board, da fallen auch noch mal ca. 5 - 6 W weg, alleine vom Board.
 
Arcturus128 schrieb:
Also ich bin wenn überhaupt eher AMD zugeneigt und sehe den Idle- und Niedriglast-Verbrauch von AMD auch sehr kritisch.
Da bin ich ganz bei dir. War aber bis zu den x3D kaum ein Thema.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
Die X3D CPUs sind einfach Top CPUs, das sollte Jeder anerkennen.

Der einzige Kritikpunkt ist der Preis.
Aber wer unbedingt das Neueste und "Beste" haben will, muss halt auch den entsprechenden Zuschlag bezahlen.
 
  • Gefällt mir
Reaktionen: Anon-525334
Kommando schrieb:
DLSS ist halt ein klasse FSAA-Ersatz. 4K per DLSS sieht imho meist nicht nur besser aus als nativ, sondern läuft auch fluffiger bzw. mit weniger Verbrauch, je nachdem wie man will.
Da wäre ich vorsichtig mit der Aussage. 4K DLSS Quality entspricht 3200x1800P und damit ein gutes Stück weniger Pixel als natives 4K und ich finde das man dass auf jeden Fall auch sieht.

Gerade in Bewegung ist DLSS teils deutlich unschärfer als nativ. Ich nutze es in 2042 dennoch, da die 4090 einfach zu lahm ist um permanent die 117FPS darstellen zu können.

Aktiviert man DLSS Quality ist die Bildqualität spürbar matschiger aber noch immer gut. Die Effizienz ist dann jedoch super gut. Wo man nativ noch ca. 350-380W verbraucht, liegt man mit DLSS noch bei 230-270W und hat durchgehend die gewünschten FPS.
 
t3chn0 schrieb:
4K DLSS Quality entspricht 3200x1800P und damit ein gutes Stück weniger Pixel als natives 4K und ich finde das man dass auf jeden Fall auch sieht.
4K DLSS Quality entspricht 2560x1440 (Faktor 0,667) und in vielen Spielen lautet das Fazit dass es besser aussieht als 4K+TAA.

In meinem Fall geht es von 1440p nativ auf ca 960p und es sieht auch meistens besser aus.
Wie es in BF aussieht kann ich aber nicht beurteilen
Ergänzung ()

Kalsarikännit schrieb:
War aber bis zu den x3D kaum ein Thema.
Hoher Idle Verbrauch war spätestens seit Beginn der Chiplets mit Ryzen 3000 ein Thema
 
  • Gefällt mir
Reaktionen: Klever und Kommando
@Taxxor

Das würde ich so unterstreichen:

1677950900548.png


Und Du hast Recht:

1677950930088.png
 
MrHeisenberg schrieb:
Einfach nur noch lächerlich dieses Forum.
Niemand hat dich gezwungen herzukommen.
Niemand wird dich hindern wieder zu gehen.
 
  • Gefällt mir
Reaktionen: CueSystem, McFritte, Cerebral_Amoebe und 4 andere
"Ein extrem hoher maximaler Energieverbrauch einer CPU in einem Gaming-PC kann aus verschiedenen Gründen problematisch sein:

Wärmeentwicklung: Eine CPU, die viel Energie verbraucht, erzeugt auch mehr Wärme. Wenn die Kühlung des Systems nicht ausreichend ist, kann die hohe Wärmeentwicklung zu Überhitzungsproblemen führen. Dies kann die Leistung der CPU beeinträchtigen und sogar zu Schäden an der Hardware führen.

Stromverbrauch: Eine hohe Leistungsaufnahme der CPU führt zu einem höheren Stromverbrauch des Systems. Wenn das Netzteil nicht in der Lage ist, ausreichend Strom zu liefern, kann dies zu Problemen führen. Es kann auch zu höheren Stromkosten und einer geringeren Akkulaufzeit bei tragbaren Geräten führen.

Lautstärke: Eine hohe Wärmeentwicklung führt dazu, dass Lüfter und andere Kühlsysteme schneller und lauter arbeiten müssen, um die CPU kühl zu halten. Dies kann zu einer unerwünschten Geräuschentwicklung führen, die beim Spielen störend sein kann.

Lebensdauer: Eine CPU, die aufgrund ihrer hohen Leistungsaufnahme regelmäßig überhitzt, kann ihre Lebensdauer verkürzen. Auch wenn sie nicht überhitzt, kann eine hohe Leistungsaufnahme dazu führen, dass die CPU schneller verschleißt und früher ausgetauscht werden muss.

Insgesamt ist ein extrem hoher maximaler Energieverbrauch einer CPU in einem Gaming-PC problematisch, da er zu verschiedenen Problemen führen kann, die die Leistung des Systems beeinträchtigen und die Lebensdauer der Hardware verkürzen können. Es ist daher wichtig, sicherzustellen, dass die CPU und das gesamte System angemessen gekühlt und mit ausreichend Strom versorgt werden, um eine optimale Leistung und Lebensdauer zu gewährleisten."

Dies spuckt ChatGPT auf die Frage aus, warum ein hoher maximaler Verbrauch einer gaming CPU problematisch ist. Diese Probleme werden hier jedes Mal aufs neue für nichtig erklärt, wenn es darum geht CPUs zu bewerten. Was zählt ist der längere Balken.


Jetzt hat AMD nicht nur den längsten Balken (eigentlich müsste das Thema für "Enthusiasten" damit gegessen sein, alles andere ist Nebensache) sondern auch noch eine Generation Vorsprung was FPS / Watt betrifft.

Und nun hacken einige hier echt auf dem Verbrauch im Idle rum? Was für eine Clownfiesta.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., A.Xander, Anon-525334 und 3 andere
Taxxor schrieb:
Hoher Idle Verbrauch war spätestens seit Beginn der Chiplets mit Ryzen 3000 ein Thema
Deswegen „kaum“. Aber über hundert Seiten in erster Linie zu dem Thema ist schon bemerkenswert. Aber mal schauen wenn Intel auch Chiplets klebt, wer sich dann noch an die Saltos erinnert die hier geschlagen wurden. Schätzungsweise wird sich das dann wohl auch im idle-Verbrauch niederschlagen.
 
Also mal ehrlich, klar hätte ich gerne einen geringen idle Verbrauch, wer auch bitte nicht.
Nur wenn ich vor die Wahl gestellt werde, geringerer idle Verbrauch oder geringerer Verbrauch unter Last, werde ich mich für das letztere entscheiden. Und zwar aus einem ganz banalen Grund:
Abwärme. 50% mehr idle Verbrauch lässt sich ohne großen Aufwand wegkühlen, 50% mehr unter Last dagegen nicht so sehr.

Mich würde aber noch interessieren warum die ganzen Leute hier ihre Kisten 24/7 idlen lassen?
Wenn der Rechner nix macht kann man ihn runterfahren, wenn er doch etwas macht ist es nicht mehr idle Betrieb.
 
ja mei ist halt bei mir unterschiedlich.Bei mir wechselt es zwischen idle und Last.Also so schwankend.Mal brauche ich Vollast und mal brauche ich nur Idle.Mal lauft ein Download dann idelt dieser länger,mal schalte ich den Pc aus weil ich wirklich nicht mehr brauche.Dann ist es mal von 0 auf 100 unter Vollast für eine Gewisse Zeit.Und was sagt du zu den Usern wie mir wo das nicht immer eindeutig ist.Ist Download laufen lassen schon Idle oder nur kurz davor?
Ist VIdeo schneiden Idle oder ist es auch nur kurz davor und wie kurz muss das ganze sein das es noch unter idle läuft für 10 Sekunden oder länger?
Hier verschwimmt bei mir idle oder Last sehr stark.
Wenn du mir sagen kannst bis wann es idle ist und ab wann es dann unter last schon ist,dann gerne.
Klar sind 25 % Auslastung kein idle mehr aber richtig last ebenso wenig.
Ich schwanke auch zwischen viel Leistung bei gewisser Zeit zu viel aber super idle Verbrauch und Super Last Verbrauch aber schlechte Idle hin und her.Am ende spart man bei 2 Stunden Vollast und sagen wir mal 8 Stunden Idle nix bei Intel ,weil der Last Verbrauch AMDS stärke ist.
Wenn es aber 2 Stunden Vollast und 22 Stunden Idle wäre,wäre freilich Intel der Sieger.

Ich habe also nix wo ich die Downloads mache.Hatte es mal unter Nas versucht aber irgenwie mit den 4 GB Ram ist das halt nix mehr,viel zu träge das ganze.
 
latiose88 schrieb:
ja mei ist halt bei mir unterschiedlich.Bei mir wechselt es zwischen idle und Last.Also so schwankend.Mal brauche ich Vollast und mal brauche ich nur Idle.Mal lauft ein Download dann idelt dieser länger,mal schalte ich den Pc aus weil ich wirklich nicht mehr brauche.Dann ist es mal von 0 auf 100 unter Vollast für eine Gewisse Zeit.Und was sagt du zu den Usern wie mir wo das nicht immer eindeutig ist.Ist Download laufen lassen schon Idle oder nur kurz davor?
Ist VIdeo schneiden Idle oder ist es auch nur kurz davor und wie kurz muss das ganze sein das es noch unter idle läuft für 10 Sekunden oder länger?
Wie im Falle anderer Geräte auch, würde ich denjenigen ans Herz legen einen PC auszuschalten wenn er nicht mehr gebraucht wird. Zusätzlich kann man auch mit Wake-on-Lan seinen Rechner hochfahren lassen, das sogar vom Smartphone/Tablet/Raspberry.
latiose88 schrieb:
Am ende spart man bei 2 Stunden Vollast und sagen wir mal 8 Stunden Idle nix bei Intel ,weil der Last Verbrauch AMDS stärke ist.
Wenn es aber 2 Stunden Vollast und 22 Stunden Idle wäre,wäre freilich Intel der Sieger.
Freilich nicht, wie schon oft durchgerechnet, wäre in so einer Konstellation immer noch AMD als Gewinner vom Feld gehen (sage ich sogar als Intel-Aktionär). Der Unterschied im Energieumsatz wäre in diesem Szenario vernachlässigbar. Die im Lastszenario entstehende Abwärme und die Ansprüche an die Kühlung, sind es hingegen nicht.
 
  • Gefällt mir
Reaktionen: McTheRipper
Gewuerzwiesel schrieb:
Freilich nicht, wie schon oft durchgerechnet, wäre in so einer Konstellation immer noch AMD als Gewinner vom Feld gehen
Also mein 13700K (+4090) liegt bei 50W Idle. Wurde hier nicht von 80W (oder gar über 100W) für ein 7950X3D System berichtet? Dann würde ich nochmal nachrechnen ;)
 
Zurück
Oben