Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Bengart schrieb:
Wieviel besser ist N4 eigentlich? Finde immer nur was mit 5% mehr Takt und 10% weniger Verbrauch.
Dachte Nvidia nutzt N5 der für Nvidia angepasst ist und 4N heißt.
 
  • Gefällt mir
Reaktionen: Zertruemmerdog
Ich war das Warten jetzt leid, ist jetzt eine 4090 TUF OC geworden mit Waküblock. Mal gucken wie ich meine 3090 loswerde.
 
Von nem Scalper gekauft? Weil die ist bei keinem Händler zu haben laut Geizhals, außer auf Ebay für 2600€.
 
Nein, direkt bei Media Markt. Über Geizhals bin ich nicht gegangen, sondern über den Verfügbarkeitsthread vom Hardwareluxx. Da werden die Karten bereits gelistet, kurz bevor sie im Shop auf "verfügbar" gehen.
 
  • Gefällt mir
Reaktionen: Zenx_
Zenx_ schrieb:
Von nem Scalper gekauft? Weil die ist bei keinem Händler zu haben laut Geizhals, außer auf Ebay für 2600€.

TUF OC gab es immer wieder, auch aus asus.com selbst.
 
ThePlayer schrieb:
Dachte Nvidia nutzt N5 der für Nvidia angepasst ist und 4N heißt.
Naja TSMC hat die 5nm Familie wo das erste und die Basis der N5 ist. N5P, N4 und 4N sind verbesserte Versionen von N5. N4P sind auch Verbesserungen von N5 aber diese müssen gleichzeitig besser sein als N4! Der 4N hat sogesehen nicht diese Vorgabe und muss einfach nur besser sein als N5! Dieser kann also eine gleichhohe Transistordichte haben wie ein N4 aber es muss nicht in der Effizenz den N4 schlagen, weil N5 die Basis ist.

wccftech: "The TSMC 4N process node is custom-designed exclusively for NVIDIA and hosts a range of optimizations that allows for better power efficiency, performance, and a minor boost to density versus the vanilla TSMC 5nm node."
 
Zuletzt bearbeitet:
Ich bin mal gespannt, was sich da in den nächsten Tagen/ Wochen so ergibt. Die Effizienz ist mir schon recht wichtig, und bei Ankündigung der neuen Generation ging ich auch davon aus, dass AMD im Vergleich zu Nvidia mindestens ebenso effizient sein wird. Einerseits kann ich mit meiner RX6900 bei max. 260 Watt jetzt natürlich noch zufriedener sein (aktuell mit zwei Monitoren und einem parallel laufenden Video bei ca. 35 Watt, da denke ich mir auch, warum das nicht mit ca. 15 Watt möglich ist, aber immer noch besser als mit 70-100 Watt), andererseits finde ich es schade, dass es jetzt bei beiden Herstellern in die Richtung "mehr Leistung" geht - bisher hat mir das in letzter Zeit bei AMD sowohl bei CPUs als auch Grafikkarten gut gefallen, dass man nicht den Intel/ Nvidia "Way of Life" gegangen ist, und unnütz Leistung reinpumpt, nur um den längsten Balken zu haben.
Ich hoffe ja immer noch, dass die Probleme mit dem Verbrauch über Software lösbar sind, und zudem bin ich auf die Sapphire Customs gespannt - dann sollte auch das Thema mit der Lautstärke erledigt sein (was das Referenzdesign so macht, ist mir ehrlich gesagt ziemlich egal).
Die 4080 wäre übrigens trotz alledem keine Option, neben der Effizienz muss auch der Preis stimmen, und vor allem macht Nvidia abseits der 4090 das gleiche wie immer abseits des Topmodells: Rumgeizen mit dem Speicher. Wenn ich mir vorstelle, dass die 3080, die man vor nicht allzulanger Zeit auch noch für über 1.000,- € gekauft hat, nur 10 GB hat, so ist das schon bitter. Und 16 GB für die 4080 werden höchstwahrscheinlich in naher Zukunft genauso ein Flaschenhals sein - wenn man bedenkt, dass die schneller als eine 3090 ist, die aber schon 24 GB hatte...
 
  • Gefällt mir
Reaktionen: Icke-ffm
Oppagolf schrieb:
Die Effizienz ist mir schon recht wichtig,
Und das war für mich auch die größte Enttäuschung bei dem RX7000 launch. Ich dachte ja tatsächlich, da zwei 8-pin Anschlüsse, dass die Dinger sparsam, kühl und leise werden, aber das sind sie nicht. Der Preisunterschied von der xtx zur 4080 ist wirklich gering, zumindest das was ich hier auf die schnelle sehe. Und die 4080 ist mMn. die zukunftssicherere Karte, trotz des geringeren Speichers, trotz DP 1.4, einfach wegen der viel besseren RT Performance.

Die 4080 zieht 80 Watt weniger als die 7900xtx beim gaming. Das ist ein gigantischer Unterschied.
 
Falls es noch nicht gepostet wurde, Techpowerup hat nun auch die Nitro getestet: https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/

Beim überfliegen scheint die Performance und Lautstärke nahezu identisch zur Tuf zu sein, also beides exzellente Karten in dieser Hinsicht.
UVP schätzen sie auf 100 US-$ über der Referenz.

Die XFX Merc war ja auch schon im Test (auch bei Igor schon erste Impressionen).

Noch gar nichts dagegen habe ich zu den ASRock-Karten gefunden. Jemand da schon was aufgestöbert?
 
  • Gefällt mir
Reaktionen: Apocalypse und Oppagolf
DayvanCowboy schrieb:
Die 4080 zieht 80 Watt weniger als die 7900xtx beim gaming. Das ist ein gigantischer Unterschied.
Und effektiv immer noch viel zu viel. Die 4080 gab es ja schon vorher, die Effizienz ist zwar besser als zuvor bei Nvidia, aber absolut ist mir der Verbrauch immer noch zu hoch, deshalb käme die Karte eh nicht in Frage. Ca. 1.500,- € für ein ordentliches Custom Design und "nur" 16 GB gehen halt nicht konform, sollte für mich eine Nvidia in Frage kommen, dann eher eine 3090 für 900,-... (tut sie aber auch nicht, da ich ja bereits eine 6900 habe).
Aber beim "Sparen" hilft natürlich auch der vergleichsweise geringe Speicher, um den Verbrauch niedrig zu halten, wodurch die 4080 da besser aussieht, als sie ist. Zudem sind diese 80 Watt ja auch ziemlich konstruiert, wieso sollte ich irgendwas auf 144 FPS begrenzen? Mit den ca. 350 Watt beim Gaming der 7900XTX habe ich noch nichtmal so das Problem (auch wenn mir 250 deutlich lieber wären), aber der hohe Verbrauch im Leerlauf oder bei geringer Last stören schon.
 
Oppagolf schrieb:
Und 16 GB für die 4080 werden höchstwahrscheinlich in naher Zukunft genauso ein Flaschenhals sein - wenn man bedenkt, dass die schneller als eine 3090 ist, die aber schon 24 GB hatte...

16GB wird für Gaming lange reichen. Die 3090 war eine Karte für Content Creator mit 24GB.
 
Wer es effizient haben will sollte vielleicht bei 1080p Auflösung bleiben. Da reichen auch ~170 Watt für 60 FPS. Mit Raytracign an :evillol: :freak: :D
 
therealcola schrieb:
Wer es effizient haben will sollte vielleicht bei 1080p Auflösung bleiben. Da reichen auch 170~ Watt für 60 FPS :D

ich hab vorhin beim kollegen ne 2060 in die 1080er mühle geworfen (2200g CPU), da hat die 2060 mit 90w-100w die CPU schon ins Limit getrieben ^^

das hat selbst mich gewundert ^^
 
Tjoa 6600 XT , 6700 XT , sowas in der Richtung. Selber schuld wenn"jeder" 240 FPS auf wqhd zocken will das mehr Strom geschluckt wird.

:p

1080P und 19" Display vor die Nase schieben für max effiziens...

blubb...
 
Oppagolf schrieb:
aber absolut ist mir der Verbrauch immer noch zu hoch, deshalb käme die Karte eh nicht in Frage.
Ich versteh deine Logik nicht ganz?
Oppagolf schrieb:
tut sie aber auch nicht, da ich ja bereits eine 6900 habe
1671143295340.png
 
Melu76 schrieb:
konstruiert ist höchstens dein angeblicher 6900er verbrauch.
Stimmt, der ist "konstruiert", und zwar mithilfe eines festgelegten Powerlimits (das niedrigste, was so über den Treiber einstellbar ist). Für mich ist das der Sweetspot, knapp 400 Watt (oder sogar leicht darüber?, ich weiß es nicht mehr) war auf jeden Fall für mich nicht zielführend.
 
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?

Die meisten Luxus Grafikkarten PC "Daddler" hier im Forum spielen wenn es hoch kommt vielleicht mal 2 Stunden in der Woche. Da darf die Kiste auch mal Strom saugen ist doch nich schlimm
 
Zurück
Oben