Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Oppagolf schrieb:
Stimmt, der ist "konstruiert", und zwar mithilfe eines festgelegten Powerlimits (das niedrigste, was so über den Treiber einstellbar ist). Für mich ist das der Sweetspot, knapp 400 Watt (oder sogar leicht darüber?, ich weiß es nicht mehr) war auf jeden Fall für mich nicht zielführend.

das PL bei AMD ist aber kein PL, der verbrauch ist immer höher. liegt daran das AMD eben nur "die hälfte" des verbrauchs überhaupt erfasst und sowieso bei bedarf konsequent über das limit brettert.

deswegen ist das ja auch so witzig :)
 
therealcola schrieb:
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?
Gibt sicher viele die so denken, und sicher nicht zu unrecht. Ich mag halt einen leisen Rechner um den man sich nicht gross kümmern brauch.
 
Laut CB entspricht die Lautstärke der 7900 XTX Ref ungefähr der 6900 XT. In einem anderen Review ist wiederum davon die Rede, dass der Lüfter der 7900 XTX bei Last wiederum deutlich lauter sein solle.

Hat jemand der taufrischen Besitzer bereits eine Erfahrung damit gemacht?
 
Zuletzt bearbeitet:
Oppagolf schrieb:
Genau wie die 10 GB der 3080 ja auch "lange" gereicht haben...

3090 und 3080 waren zwei unterschiedliche Produktgruppen. Der VRAM der 80er war knapp bemessen, allerdings mehr als ausreichend. Die 24GB einer 3090 bekommt man beim Gaming nie gefüllt - außer evtl. bei der extremen Nutzung von Texturemods bei manchen Spielen. Ansonsten limitiert die GPU schon weit bevor der VRAM der limitierende Faktor ist.
 
  • Gefällt mir
Reaktionen: Nekkepenn, shy-Denise und Ayo34
Melu76 schrieb:
liegt daran das AMD eben nur "die hälfte" des verbrauchs überhaupt erfasst

deswegen ist das ja auch so witzig :)
Aha. Ich denke an dieser Stelle ist die Konservation dann auch beendet - mein Netzteil fände 520 Watt über Stunden sicherlich nicht so witzig, wie du.
 
Oppagolf schrieb:
Genau wie die 10 GB der 3080 ja auch "lange" gereicht haben...

8GB gabs bei der 1070 schon seit 6 Jahren. Die 10GB waren lächerlich. 16GB ist eine ganz andere Hausnummer. Wie willst du die in Games vollbekommen sinnvoll?
 
  • Gefällt mir
Reaktionen: rumpeLson
Oppagolf schrieb:
Aha. Ich denke an dieser Stelle ist die Konservation dann auch beendet - mein Netzteil fände 520 Watt über Stunden sicherlich nicht so witzig, wie du.

und ich habe das mal mit AMD'lern "ausdiskutiert" und die meinten das die formel für den korrekten verbrauch bei +(15%+5w) liegt, im gegensatz zu meiner schätzung von +30% flat.

d.h.- das aus deinen 260w PL im besten Fall (!) 304w verbrauch werden

und wenn deine temps scheiße sind und in den wandlern viel verloren geht, dann ist sogar noch mehr drin.
und davon kriegst du nix mit, weil AMD eben nur verbrauch Grafikchip+Speicher ausliest. ALLES andere wird ignoriert.

mach dich einfach mal bissel schlau.
was hast du denn für ein netzteil?
Ergänzung ()

Ayo34 schrieb:
8GB gabs bei der 1070 schon seit 6 Jahren. Die 10GB waren lächerlich. 16GB ist eine ganz andere Hausnummer. Wie willst du die in Games vollbekommen sinnvoll?

er kriegt auch keine 10GB (nvidia compressed) mit seinem wqhd raster gaming sinnvoll voll. aber das nur am rande ;)
 
SKu schrieb:
3090 und 3080 waren zwei unterschiedliche Produktgruppen.
Richtig, die 3090 war auf jeden Fall (mehr als) ausreichend bestückt. Da hätten es eventuell auch 16 GB getan.
Ayo34 schrieb:
8GB gabs bei der 1070 schon seit 6 Jahren. Die 10GB waren lächerlich.
Genau.

Da ich mal eine Grafikkarte mit 4 GB zu einer Zeit hatte, als durchaus in den Tests schon 8 GB Videospeicher empfohlen wurden, bin ich ganz froh, dass ich bisher noch nicht mehr als 12 GB Auslastung gesehen habe und noch einen gewissen Puffer habe.

Und hier kann man AMD bei dem aktuellen Launch nichts vorwerfen, 20 GB für ein Produkt unterhalb der 4080, bzw. 24 GB auf Augenhöhe mit der 4080, sind sicherlich nicht zu wenig. Da die 6900 aber auch schon 16 hatte, fände ich das für die neue Generation auch zu wenig, von daher ist das einer der Punkte, die gelungen sind.
 
Die Speichergröße hat glaube ich auch keiner bemängelt. Trotzdem muss man eben sagen, dass die 24GB weniger spielerelevant sind und das auch nicht in den nächsten 5-6 Jahren werden. Wenn du hingegen Blender und Co. benutzt, dann hast du dadurch auch einen Mehrwert.
 
therealcola schrieb:
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?

Ne ist mir nicht egal. Nur weil ich für eine GPU gespart habe, heißt es nicht das ich die Kohle anderswo rauskloppen möchte. Ich kann mir jedenfalls keine 1500€+ nur für eine GPU so aus dem Ärmel schütteln. Ich spare für sowas.

Hab CPU + GPU undervolted. Beim zocken von ca. 440W auf 340W (5800XD + 3080).
therealcola schrieb:
Die meisten Luxus Grafikkarten PC "Daddler" hier im Forum spielen wenn es hoch kommt vielleicht mal 2 Stunden in der Woche.

Wie kommst du denn zu der Annahme?
Bei mir sind es eher so 2 bis 3h pro Tag in der Woche und am Wochenende oder Urlaub auch gerne mal den Tag durch. Hatte zum Beispiel erst letztens Urlaub damit ich mal Zeit zum durchzocken hab. Ich gebe doch nicht so viel Kohle für eine GPU aus, nur um sie dann verstauben zu lassen.

Und was noch viel wichtiger ist: Seit dem Undervolting der GPU ist diese deutlich (!) leiser unter Last.
 
  • Gefällt mir
Reaktionen: PHuV und Oppagolf
Für mich wichtig wäre jetzt. Wird AMD die Leistungsaufnahme im idle in den griff bekommen sowie im Multimonitor Betrieb. Kommen noch einige % Punkte an Leistung hinzu und vor allem kommt noch eine 7950XTX mit richtig wums ;D
 
Oppagolf schrieb:
Da ich mal eine Grafikkarte mit 4 GB zu einer Zeit hatte, als durchaus in den Tests schon 8 GB Videospeicher empfohlen wurden, bin ich ganz froh, dass ich bisher noch nicht mehr als 12 GB Auslastung gesehen habe und noch einen gewissen Puffer habe.

Und hier kann man AMD bei dem aktuellen Launch nichts vorwerfen, 20 GB für ein Produkt unterhalb der 4080, bzw. 24 GB auf Augenhöhe mit der 4080, sind sicherlich nicht zu wenig. Da die 6900 aber auch schon 16 hatte, fände ich das für die neue Generation auch zu wenig, von daher ist das einer der Punkte, die gelungen sind.

der ganze unnütze speicher treibt nur unnötig den verbrauch nach oben.
in anspruchslosen minimal szenarien verbraten diese schwerfälligen speicherriesen auf sinnloseste art und weise strom - und verkacken damit in sachen effizienz in ebenjenen szenarien gegen deutlich kleiner dimensionierte karten

und das ist im prinzip traurig.

die 24GB VRAM z.b. sind nicht an gamer addressiert, kein spiel wird das jemals in absehbarer zeit "brauchen"
im gaming und im alltag ist das nur unnützer ballast
 
Zuletzt bearbeitet:
californicated schrieb:
Laut CB entspricht die Lautstärke der 7900 XTX Ref ungefähr der 6900 XT. In einem anderen Review ist wiederum davon die Rede, dass der Lüfter der 7900 XTX bei Last wiederum deutlich lauter sein solle.

Hat jemand der taufrischen Besitzer bereits eine Erfahrung damit gemacht?
Ich denke es stimmt beides. Ich hab sie gerade mit BF getestet. Ohne irgend welche Optimierungen und bei Volllast ist die Karte definitiv lauter analog zur brachialen Performance mit > 3 GHz Takt. Mit automatischem Undervolting und Begrenzung der Bildwiederholrate auf 150 Hz ist sie um einiges leiser als eine 6900 XT und dabei noch merklich schneller. Ich hab mich jetzt nicht getraut kaum hörbar zu schreiben das könnte subjektiv sein.
 
  • Gefällt mir
Reaktionen: californicated
Ich frage mich ja immer wie die Smartphones das machen. Dabei haben die sogar noch ein Display dabei, der auch Strom benötigt. Auch ist dort die Auflösung mittlerweile richtig hoch und die Bildwiederholrate ebenso. Trotzdem läuft es im Idle und wenig Last sehr effizient vor sich hin und das sehr sehr flüssig.

Im Gegensatz sind da 25 Watt für Grafikkarte und 25 Watt für CPU schon verdammt hoch, aber 100 Watt für eine Grafikkarte?
 
  • Gefällt mir
Reaktionen: Oppagolf
Ayo34 schrieb:
Ich frage mich ja immer wie die Smartphones das machen.
Deutliche bessere Integration und Power Management der SOCs, auf PC Seite sind die Apple M2 SoCs ja ein sehr gutes Beispiel was auch im Desktop möglich ist an Energieeffizienz
 
  • Gefällt mir
Reaktionen: Rockstar85
thomasmh schrieb:
Ich denke es stimmt beides. Ich hab sie gerade mit BF getestet. Ohne irgend welche Optimierungen und bei Volllast ist die Karte definitiv lauter analog zur brachialen Performance mit > 3 GHz Takt. Mit automatischem Undervolting und Begrenzung der Bildwiederholrate auf 150 Hz ist sie um einiges leiser als eine 6900 XT und dabei noch merklich schneller. Ich hab mich jetzt nicht getraut kaum hörbar zu schreiben das könnte subjektiv sein.

das die 7900 XT deutlich effizienter als die 6900xt ist, steht außer frage. interessant wären mal konkrete werte basierend auf TS runs, die PKT mit leistungsaufnahme verrechnen

die wirkliche effizienz der karte zeigt sich doch sowieso erst wenn user hand anlegen.
 
therealcola schrieb:
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?
Bestimmt nicht.

Ich müsste da finanziell auch gar nicht drüber nachdenken. Aber ich möchte einfach keine 600 W Stromverbrauch. Da geht es ums Prinzip. Ich möchte eine dem Zeitgeist entsprechende effiziente und leise Karte die meinen Anforderungen möglichst gerecht wird.

Meiner 6800 XT habe ich einen FPS Limiter verpasst womit ich meist bei deutlich unter 200 W lande (Elden Ring läuft sogar nur mit niedrigen zweistelligen Werten). Mit der 7900 XT(X) wäre das z.B. aktuell gar nicht möglich und die Karte würde so durch den mir selber verordneten W Limiter als Kaufoption direkt herausgefiltert 🤓
 
  • Gefällt mir
Reaktionen: Oppagolf
Miuwa schrieb:
Also wenn ich dich richtig verstanden habe liegen zwischen der günstigsten 7900 XTX und 4080 300 Euro, also deutlich weniger als 500.
Ich hab 4 Tage Kurzfristig Lieferbar gemacht.. Und ich tippe daher der Unterschied... Stand heute 0:56 sind es ~220€.. (Palit Gaming auf Mindfactory) Hier kommt es Tatsache auf die Lieferbarkeit der billigen 4080 an

gehen wir vom Wahnwitz aus, dass du 365 Tage 5 Stunden 100W Lastunterschied hast.. Dann biste bei 183 Kw/h, bei 50 Cents sind das sicher 110€..
Nur wer Zockt 5Std am Tag und vor allem das 365 Tage?
Und wer hier halt auf den Euro achten muss, sollte ggf keine 4080 kaufen. Was ich damit sagen will, Im schlechtesten Fall, haste in 2 Jahren die 4080 Preislich eingeholt, im besten bei 10 Jahren... Es ist also ohne Usecase sehr schwer genaue Zahlen zu sagen..
Ich wäre bei ~50Kw/h und vermutlich 25-30€ im Jahr, ich würde aber mir auch keine 4080 für 1400€ Kaufen, oder eben die MERC für 1200€..

@SKu
Die 12GB Version der 3080 war allerdings eine Bodenlose Frechheit.


b|ank0r schrieb:
Mit der 7900 XT(X) wäre das z.B. aktuell gar nicht möglich und die Karte würde so durch den mir selber verordneten W Limiter als Kaufoption direkt herausgefiltert 🤓
Das scheint ein Treiberproblem zu sein, siehe der Phoronix Artikel.. DevPandi hat auch andere Werte, schauen wir mal.. Spannend ist das Thema allemal und ich sehe das wie du.. 100W Unterschied bei 1100€ sind mir dann auch zuviel des guten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DayvanCowboy
Rockstar85 schrieb:
Die Dritte 1000€ Mitteklasse GPU...
Schade, das ist eig eher eine 750€ GPU und selbst das wäre zuviel des guten.. Schauen wir mal, ob die 7900XT und die 6900XT dann preislich nach unten gehen.
Oh man du hast die ja schon ziemlich an die neuen Preise gewöhnt. Eine 70ti wäre was für 500-550 aber nicht mehr bei einer 80 können wir von 800 Euro sprechen.
 
@ThePlayer
Nein, ich bin Realist... Eine 4070 TI für 750€ wäre Okay... eine 4070Ti für 1000€ ist eine Frechheit.
Nvidia nimmt seit der RTX Gen 1 eben den RTX Aufschlag. Und solange man 86% Marktanteil damit bekommt, muss man das dann leider hinnehmen. Aber die 3070Ti hat 599 US-Dollar gekostet.. Also dürfte die 4070Ti maximal 650 USD (~770€) kosten.. und davon sind wir weit entfernt.
Der Ampere Preis war ein Ausrutscher und wird nicht mehr so schnell passieren.. Nvidia hat ja dadurch netterweise knapp 86% Marketshare.

Das hat nichts mit Gewöhnen zutun, sondern halt mit Realismus. Und solange meine Z in der Garage das 3-4 fache im Jahr kostet, steck ich auch gerne mal etwas in die GPU.. Ich muss sie ja nicht neu kaufen ;)
Schau dir die Preise der 6900XT (Vor Black Friday um ~699€) an, dennoch wird AMD daraus keinen Vorteil ziehen können. Selbst die 3090 dürfte leider Preisstabil bleiben, obwohl die 4070Ti am Ende nicht mehr als 3090Ti Leistung bietet. Einfach weil es Nvidia machen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben