Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

bensen schrieb:
@Zer0Strat
Tatsache. Ich hätte schwören können ich hatte da den OC Verbrauch für die xfx gesehen.
Rein logisch müssen es ca. 460W sein, denn

Just like on the reference card, for maximum OC performance you should increase power limit to max (+15%), then find your stable memory clock.

bedeutet ja, dass auf die 400W 60W draufkommen. Das PL wird auch sicherlich ausgeschöpft.
 
Ich hatte die Schnautze jetzt voll und hab mir ne RTX 4080 FE gekauft, scheiß drauf, die war wenigstens verfügbar.
Mir geht die GPU-Situation sowas von auf den Sack , werde alle Leute die ich bei Ebay Kleinanzeigen sehe anzeigen oder zumindest bei Ebay melden.
 
  • Gefällt mir
Reaktionen: voalirus, PegasusHunter, ComputerJunge und 2 andere
Ich hab mir gerade im Luxx auch mal den TDP Skalierungstest angesehen:

Die XTX verliert schon beim Sprung von 355W auf 320W bereits 5-6% an Performance (in den Perzentilen sogar 6-8%)
Zum Vergleich, die 4090 hat beim Sprung von 350W auf 300W 6% verloren.
 
Digensag schrieb:
So gut wie jedes Spiel wird in Zukunft von RT gebrauch machen und das wissen auch die AMD fans.
Lieber ein bisschen draufzahlen und was vernünftiges, zukunftssicheres kaufen.
da stehst aber ee alleine Steam Statistik says no
 
  • Gefällt mir
Reaktionen: CiX und Fyrex
GERmaximus schrieb:
Für mich gibt es irgendwie nur behalten oder 4090.
weder die 4080 noch die xtx sprechen mich an.
Für mich ist es ähnlich aber auf einem Level kleiner.

Eine 7900XT oder potentiell die 7800XT hätten mich angesprochen, wenn sie in RT mit einer 4070Ti 12GB gleichgezogen oder diese weggeputzt hätten. Das sieht jetzt schon nicht mehr so aus.

Da ich von der 3070Ti komme, werde ich wohl einen Schnapper bei der kommenden RTX 4070 Ti versuchen und dank guten Chancen für einen ordentlichen Preis meiner 3070Ti nur die noch gut zu verschmerzende Differenz zur RTX 4070Ti blechen.

Punkt 1 ist eben der potentielle aber sehr wahrscheinliche Vorspung im Raytracing einer 4070Ti vs 7900XT(X).
Punkt 2 ist mir fast genauso wichtig und lautet: Effizienz
Ich möchte einfach zu meiner Ampere-karte mehr Effizienz sehen.
Das schafft RDNA3 nicht. die RTX 4070Ti aber ganz bestimmt, wenn man sich die 4080 ansieht.
So komme ich auf meine unter 200Watt bei UV, mit besseren FPS als Stock.

Mal sehen, OB der Treiber bei diesem Effizienz-Desaster mit Schuld trägt oder das aktuelle Chiplet-GPU-Design einfach für die Tonne ist, besonders in Hinsicht der Effizienz vs einem Monolithen.
 
Zuletzt bearbeitet:
mojomojo schrieb:
Jetzt COD = weniger Stromverbrauch, konstante Frametimes, läuft eh in Frame limiter rein...
Tatsächlich, wenn man sich anschaut, wie katastrophal die RDNA3 GPUs hier im FPS Limit Test agiert haben, würde man, wenn man sowohl mit der 4080 als auch mit der 7900XTX auf seine Wunsch FPS in CoD kommt, vermutlich trotzdem besser mit der 4080 fahren, weil sie trotz weniger Maximalleistung dann im FPS Limit deutlich weniger verbrauchen könnte.
 
Zuletzt bearbeitet:
Also das mit dem Verbrauch über die Ports gibt mir schon zu denken.
Ich würde an der 7900XTX 3 Monitore anschließen. 4k-60Hz, 4K-144Hz (neuer Hauptmonitor) und WQHD 165Hz. Nee Leute. Aber wäre schon interessant was die Karte bereits so beim der Fotobearbeitung auf dem Desktop verbraucht nur weil drei hochauflösende Monitore dran hängen.
 
blackiwid schrieb:
Kannst du das nicht fuer dich denken und Leute die eben nicht so pessimistisch sind

Was hat das mit pessimistisch zu tun wenn ich das bewerte, was real vor mir steht? Wenn ich HEUTE kaufen soll, dann bewerte ich das Produkt sie wie es HEUTE ist. Alles andere ist doch kompletter nonsense.

Ist die Karte meh, so wird sie eben in der Zukunft gut sein. Merkst du denn nicht selber wie komplett voreingenommen und realitätsfern diese Denke ist.

Mich dann noch als hater abzustempeln, obwohl aus meinem Post hervorgeht dass ich genau das NICHT bin nur weil dir meine berechtigte Kritik nicht gefällt an der Art und Weise, wie verblendet manche Leute hier schreiben. Aber wer schon mit zukünftiger Leistung argumentieren muss einfach weil die Realität nicht mehr hergibt, von dem kann man wohl nicht erwarten dass er Realisten zustimmt. Aus dieser Sicht sind das dann hater und Pessimisten, was auch sonst. Lächerlich, komm mal klar. Es geht hier um ne Grafikkarte eines Unternehmens, dem du scheissegal bist.
 
  • Gefällt mir
Reaktionen: Innocience
Digensag schrieb:
Diese "Techpowerup" seite gibt nicht mal die Szenen an die sie benchen, min-framerate etc. geben sie auch nicht an. FAIL !
Sehr schwacher Test, lese ich erst gar nicht. Promotion meiner Meinung nach bzw. nicht glaubwürdig.
Ich finde die Tests bei TPU sehr gut, der Reviewer (W1zzard) hat echt Ahnung und ist schon lange im Geschäft.

Frametimes bekommst du bei TPU auf einer separaten Seite formschön präsentiert: https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/35.html
 
  • Gefällt mir
Reaktionen: DeadEternity, da_exe und Gortha
Interessant dass die 7900 XT für 1129€ sofort kaufbar ist. Dass die Karten so lange liegen bleiben hat man echt lang nicht mehr gesehen. Aber gut, gerade die 7900 XT ist halt auch nix.
 
Wie gesagt habe viele Tests gelesen und da sieht es für AMD noch viel schlimmer aus als bei PurePC.

Einigen wir uns auf gleichschnell (Rasterizing) und sonst so ? Was macht AMD besser als RTX4080 ? Richtig, nichts !
 
Novasun schrieb:
Schön das AMD seine Karten wohl los wird. Hoffentlich bekommen sie das mit dem Verbrauch auf dem Desktop hin...
[…]
Steht schon bei den „Known Issues“ in den Release Notes zum neuen Treiber, wird also hoffentlich zeitnah gefixt 🤓

44A3A8DB-652B-4F6E-B6DC-FE4A9AA34AE4.jpeg
 
  • Gefällt mir
Reaktionen: Novasun
Zer0Strat schrieb:
TPU hat die ASUS TUF getestet, insbesondere mit OC. Das OC-Potential ist beachtlich. Die AMD Karte kommt sogar an die RTX 4090 ran in Cyberpunk 2077. Der durchschnittliche Takt liegt bei 3199MHz, aber keine Angabe zum Verbrauch leider?!

Käme ganz gut hin, die Karte ist dort 13% schneller als die Referenz und 3200MHz wären ~18% mehr Takt als die Referenz hier bei CB in Cyberpunk hat.

Nur, wenn die Karte schon ab Werk mit 400W kommt, dann sind die 460W mit OC für das Erreichen der 4090 in diesem einen Spiel auch nicht mehr so toll, denn diese wird in dem Szenario ohne RT eher bei ~400W gelegen haben
 
  • Gefällt mir
Reaktionen: msv
Digensag schrieb:
Wie gesagt habe viele Tests gelesen und da sieht es für AMD noch viel schlimmer aus als bei PurePC.

Einigen wir uns auf gleichschnell (Rasterizing) und sonst so ? Was macht AMD besser, nichts !
Günstiger bei angenommener gleicher Leistung in non-RT-Titeln, warum muss sie mehr können?
 
  • Gefällt mir
Reaktionen: DaLexy, GERmaximus und basic123
Zer0Strat schrieb:
Rein logisch müssen es ca. 460W sein, denn
Ja. Vielleicht hatte ich mir es nur selber zusammen gereimt.
Vorne im Artikel steht allerdings 339W für das BIOS. Ist das nur für die GPU und nicht die komplette TBP?
 
raekaos schrieb:
Ich hatte die Schnautze jetzt voll und hab mir ne RTX 4080 FE gekauft, scheiß drauf, die war wenigstens verfügbar.
Mir geht die GPU-Situation sowas von auf den Sack , werde alle Leute die ich bei Ebay Kleinanzeigen sehe anzeigen oder zumindest bei Ebay melden.
Gratulation zur 4080.
Was willst du den Anzeigen, das es dich ärgert das andere Geld verdienen? Meinst du das juckt Ebay?
MrHeisenberg schrieb:
Moment! Was ist dem aus dem angeblichen Taktbug geworden?
Hab hier was gelesen das die Asus TUF mit über 3GHz laufen soll, also auch in Spielen. In anderen Tests steht, einstellbar, taktet im Spiel aber direkt wieder runter, da über dem PT.
Wenn genug User so ne Karte haben, da forscht da sicher mal einer nach, AMD hatte für sowas selten Resourcen.
 
Digensag schrieb:
Karte für über 1000.- kaufen und 2022 auf Raytracing verzichten, leute wacht auf ! Jedes Spiel wird das nutzen.
Bis es soweit ist, reden wir hier wahrscheinlich schon über die RTX 6090 und die RX 9900 XT(X) 😉.
 
  • Gefällt mir
Reaktionen: GERmaximus
Zurück
Oben