Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell
Nach Referenz- und Custom-Design-Duellen treten RX 7900 XTX und RTX 4080 mit OC-Taktraten gegeneinander an. AMDs Grafikkarte kann dabei mit großem Aufschlag auf die Leistungsaufnahme etwas mehr zulegen als Nvidias. Überraschend hoch liegt der maximale Takt von Navi 31: 3,5 GHz sind möglich, aber nicht in Spielen.
Sicherlich akademisch interessant, aber bei den Verbrauchsdaten und daraus resultierender schlechterer Effizienz in meinen Augen nichts für den Alltag.
Diese 5% mehr Leistung durch OC lohnen sich bei beiden Karten nicht, viel zu hoher Verbrauch für kaum Mehrwert. Sonst beide Karten noch um gute 200-300 zu teuer, auch wenn ne XTX mittlerweile für 1200€ zu haben ist.
auch wenn es in einigen Punkten für AMD spricht (leicht geringerer Preis z.B.), muss man sagen das attraktivere Produkt bleibt Nvidia 4080. allein DLSS 3.0 und Raytraycing, hinzu kommt das effizientere speichermanagment was die 24GB iwie relativeren lässt von AMD
und die Zeiten von Übertakten (mehr Nachteile als Vorteile) haben wir zum Glück hinter uns gelassen (verbrauchen auch so schon mehr als genug)
4% mehr Performance für über 148 Watt mehr an Strom. Es tut mir leid aber mit jedem Tag mehr, wo ich News und Tests aus Interesse an den Karten lese, vergeht mir die Freude an den neuen AMD Karten. Ich behalte einfach die 6000er Generation in guter Erinnerung.
RDNA 3 geht in eine gute Richtung, hat aber irgendwie noch ein paar Fehler.
Also AMD zurück ans Reißbrett, mit RDNA 4 wird dann allen gezeigt wo der Hammer hängt. 3,5GHz Game-Takt bei unter 300W wären doch was.
Puh. Also eine übertaktete 4080 verbraucht noch weniger als eine non oc XTX. Kann sich ja jeder die Langzeitkosten ausrechnen, vor allem bei 40+ ct Stromkosten aktuell. Denke bei 1000 Euro würde ich bei einer 4080 zuschlagen, vielleicht gibt's das ja im Herbst bei irgendwelchen Cashback Optionen.
Es zeigt sich weiter das Bild: RX 7000 ist auf dem Papier enorm vielversprechend, performt in der Praxis aber viel zu schlecht - und den Grund scheint noch nicht einmal AMD zu 100% zu kennen.
Sehr schade wenn man bedenkt, wie gut RX 6000 war (wenn die Karten denn im Handel verfügbar gewesen wären), da konnte man ja durchaus mit Nvidias Ultra High-End konkurrieren.
Bleibt zu hoffen, dass AMD das in den Griff bekommt und RX 8000 dann wieder ganz vorne mitspielen kann. Und dass natürlich das allgemeine Preisniveau bis dahin wieder fällt.
Manchmal frage ich mich wie solche Karten Design't oder Entworfen werden? Wenn man jetzt so ließt das die GPU wohl weit über 3Ghz leisten könnte aber hier irgendetwas total schief gelaufen ist, müsste das ganze ja schon beim Entwurf ersichtlich gewesen sein das dieser Ansatz nicht aufgeht.
Der Test lässt mich auf den monolithischen Chip hoffen. Ich denke immer noch, dass ein großteil des Verbrauchs auf das Chiplet Design zurückzuführen ist - ähnlich wie es bei Ryzen 1000 war.
Und falls das nicht so ist, können wir uns auf den refresh freuen. Ein kleinerer Node bzw ein shrink sollte die Leistungsaufnahme runterholen und dann sind die 3GHz+ möglich.
Stand jetzt ist die Serie leider etwas am Ziel vorbei :-(
Ich werde dies Generation erst mal mit meiner 6900XT aussitzen. Die neuen Karten sind schnell, aber mir nicht schnell genug für eine erneute Investition von 1000+ Euro.
Auch erscheint mir die 7900 Serie noch zu "experimentell". Da wird AMD in der nächsten Generation sicher sehr viel deutlich verbessern können.
Vor allem kann man die 4080 mit 70% Powerlimit betreiben, das kostet in Games nur maximal 3 - 5 FPS bei 100W weniger Leistungsaufnahme. Damit kommt man auf maximal 230W Verbrauch. Da hat man neben den geringeren Stromkosten auch ein sehr effizientes, leises und kühles System.