Test Radeon RX 7900 XTX Customs im Test: Asus, PowerColor, Sapphire & XFX mit Navi 31 im Vergleich

Taxxor schrieb:
Und was ist "Super Rohleistung" für ein positiver Punkt? Das ist ein negativpunkt weil sie wieder zurück sind auf dem Stand von Vega, als man die Leistung nicht auf die Straße bringen konnte, was unter anderem auch für den höheren Verbrauch gesorgt hat, weil die Rohleistung ja trotzdem versorgt werden will.
Mehr Rohleistung die man (wahrscheinlich) zumindest später dann zumindest teilweise auch Abrufen kann ist durchaus ein Plus Punkt, ein viel größerer wäre es halt gewesen wenn die Treiber auch die Leistung gleich abholen können. Aber so richtig negativ würde zumindest ich das nicht einordnen, hat halt noch mehr Potential als man jetzt bekommt.
Bezahlen wollen würde ich aber natürlich ehr nichts extra nur für Potential. Muss ich in diesem Fall ja aber auch nicht wirklich.
 
th3o schrieb:
Immer ist das was NVIDIA schon hat bei AMD "angekündigt". Ich hätts mal gerne dass AMD mit einer Innovation um die Ecke kommt wo NVIDIA hinterherkrabbeln muss...
SAM war so ein Fall.
 
  • Gefällt mir
Reaktionen: Zitterrochen, The-Beast, Malustra und 2 andere
PeriQue1337 schrieb:
Hab das mal ausgerechnet bei 3h Nutzung pro Tag. Du sparst 15€ per anno.
Glückwunsch?
Naja, meine R9 290 war 8 Jahre im Einsatz, die 580 meiner Frau bekommt auch sicher noch soviel Jahre zusammen. Wäre bei meinen langen Nutzungszweiten also sogar relevant.
Ergänzung ()

th3o schrieb:
Immer ist das was NVIDIA schon hat bei AMD "angekündigt". Ich hätts mal gerne dass AMD mit einer Innovation um die Ecke kommt wo NVIDIA hinterherkrabbeln muss...
Mantel, DX12, offener Standard für Sync ohne teure Extra Module, Stacked Chips, HBM, auch stacked, SAM ... und bestimmt noch einiges was ich vergessen habe ... wie zum Beispiel Chiplets, die ja auch bei Nvidia kommen sollen. Geht ja nicht so weiter das Nvidia Chips dieser Tage mehr in der Herstellung kosten als früher Endkunden für eine ganze GPU bezahlt haben.
 
  • Gefällt mir
Reaktionen: .fF, Illithide und Malustra
Fighter1993 schrieb:
SAM war so ein Fall.
SAM war auch nichts anderes als ein Marketing Name für Resizable BAR, was es unter Linux schon seit Ewigkeiten gab, eine Innovation war das nicht
Ergänzung ()

Apocalypse schrieb:
DX12, offener Standard für Sync ohne teure Extra Module
AMD hat DX12 erfunden? Interessant.
Und der offene Standard für Adaptive Sync heißt auch einfach nur Adaptive Sync, stammt von der VESA und den gab es schon vorher, AMD hat ihn nur zuerst genutzt.
 
  • Gefällt mir
Reaktionen: Ragnarök88
CastorTransport schrieb:
Ich bin überrascht, das viele andere PC/Computerseiten/Streams die AMDs nicht hart ins Gericht nehmen, wenn es um Effiziens und Verbrauch geht.
Das könnte daran liegen, dass Strom fast überall auf der Welt (z. Z. deutlich) biiliger ist als hierzulande. In den USA werden z. B. nur umgerechnet rd. 15 Cent/kWh aufgerufen lt. dieser Quelle. Also höchstens ein Drittel des hiesigen Preises. Das kann dann GM eben gelassen sehen...:evillol:

In den deutschen Reviews wird aber, soweit ich sehe, durchaus die schlechtere Effizienz der RX 7900XTS gegenüber der RX 4080 kritisch erwähnt.

Viele Leute sehen eben nur den um 200 € geringeren Aufpreis - dass davon bei einer Nutzungsdauer von 4 Jahren und 3-4 Stunden tgl. um die 150 € wieder aufgefressen werden (Stand jetzt ohne Treiberupdate und bei 50 Cent/kWh), wird vernachlässigt - warum auch, bei denen kommt halt Strom aus der Steckdose (oder die Eltern zahlen's...:rolleyes:)

LG N.
 
Illithide schrieb:
Wobei mir immer noch nicht einleuchtet, was das ominöse „Featureset“ sein soll, warum nV-Treiber (zahlreiche aktuelle Fehler s.o., Post #362) angeblich ein Pluspunkt sein sollten und was die Leute an den -mich persönlich z.Bsp. eindeutig eher abschreckenden- Echtzeit-RT-Demos, die nV traditionell um den Launchtermin raushaut, teilweise so reizt…

Da bin ich sogar bei dir, ich verstehs z.t. ebenso wenig. Für jmd anderen mag es aber verständlich sein, und genau das ist der Punkt.

Ich bin von beiden gens bisher maßlos enttäuscht und verstehe abseits der 4090 auch nicht, wieso sich (durchschnitts-) käufer für die karten interessieren. Da es aber noch andere Tellerränder gibt als nur meinen eigenen, stört mich das aber nicht weiter. Mehr will ich gar nicht :schluck:
 
  • Gefällt mir
Reaktionen: Illithide
Illithide schrieb:
Wobei mir immer noch nicht einleuchtet, was das ominöse „Featureset“ sein soll,
Wurde doch oft genug genannt.
Alleine dass ich z.B. in Spielen sowohl DLSS als auch FSR nutzen kann und nicht auf den guten Willen der Entwickler angewiesen bin, eine gute FSR Implementierung zu liefern, ist ein riesiger Pluspunkt für mich.
Dort wo FSR besser aussieht, kann ich FSR nutzen und dort wo DLSS besser aussieht, kann ich DLSS nutzen.

A Plague Tale hätte ich da z.B. knicken können mit der 6800XT, da nur DLSS drin ist. In Callisto Protocol, wo nur FSR drin ist, kann ich hingegen auch mit meiner Karte Upscaling nutzen.

Und von DLSS3 bin ich in allen bisher getesteten Spielen(Spiderman, Plague Tale, Witcher 3) auch mehr als überzeugt, da wird in Zukunft wenn AMD was ähnliches bringt das gleiche Problem bestehen, dass man dann darauf angewiesen ist, dass diese Implementierung auch gut bzw überhaupt gemacht wird.

Das Argument mit der höheren Latenz, wodurch Frame Generation bei niedrigen Ausgangs-FPS nicht nutzbar wäre, ist auch lustig, wenn es von AMD Nutzern kommt, wenn man sich noch mal diesen Test hier anschaut:
Screenshot 2022-12-23 134205.jpg


Ja, die Latenz mit Frame Generation ist hier mit ~86ms höher als Nativ mit ~71ms, aber eben nur dann, wenn man Reflex auch ohne Frame Generation manuell aktiviert und es damit vergleicht.
AMD Nutzer haben diese Möglichkeit aber erst gar nicht, sodass diese hier bei 121ms wären.


Nicht für mich, aber für andere Leute dürfte auch CUDA sehr interessant sein sowie der Softwarestack um Streaming und Podcast mit RTX Voice etc.


Illithide schrieb:
warum nV-Treiber (zahlreiche aktuelle Fehler s.o., Post #362) angeblich ein Pluspunkt sein sollten
Mit "zahlreich" meinst du wenn du den Post #362 erwähnst, exakt 2 Fehler, wovon einer von einem Windows Update kam und der andere mit einem spezifischen Spiel zu tun hatte und man einfach den vorherigen Treiber nutzern konnte und beides auch leicht mit einem einzigen TReiberupdate behebbar ist.

Während ich mit meiner 5700XT über ein Jahr mit Blackscreens zu kämpfen hatte, die dann bei der 6800XT zuletzt auch wieder häufiger aufgetreten sind, zusammen mit regelmäßigeren Treiber Timeouts, solange man nicht den "empfohlenen" Treiber verwendet hat, der 7 Monate alt ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, W4RO_DE, CiX und 2 andere
Haldi schrieb:
Bei einer Karte deren letzen Generation 650$ gekostet hat und die nun für 899$ raus geht? (6800xt vs 7900xt weil gleicher Chip)
Ja, die Preise werden ja so nicht bleiben. Keiner mit ein bisschen Restverstand kauft eine 7900XT für über 900 Euro.
 
Taxxor schrieb:
Wieso jetzt die 4090? Die ist doch sowieso in allen Aspekten dem Navi31 überlegen, der AD103 ist mit was sich Navi31 vergleicht und der ist trotz monolithischem Design nicht teurer.
Ja, aber dennoch ist es der Vergleich zwischen den aktuellen Flaggschiffen. Daran gemessen sieht die RX 7900 XTX gar nicht so schlecht dar.
Und damit du jetzt noch den Vergleich zur RTX 4080 bekommst: 999$ vs 1199$; die AMD-Karte bietet eine bessere Rasterisierungsleistung trotz offensichtlicher Treiberprobleme, außerdem würde SAM noch eine zusätzliche Performanceverbesserung in den Benchmarks bringen, die RT-Leistung von RDNA3 ist absolut solide; die Nvidia-Karte punktet dafür bei der besseren RT-Leistung und den deutlich geringeren Stromverbrauch. Sofern also der Preisunterschied zwischen den beiden Karten bestehen bleibt, sehe ich Nvidias Grafikkarte auf keinen Fall als absolut überlegen an.
Taxxor schrieb:
Der einzige Grund, warum wir günstigere Preise bei AMD haben ist, weil die Karten eben nicht schnell genug geworden sind.
Das ist natürlich nichts weiter als eine persönliche Vermutung. Wir hatten doch das Thema bereits: MCD für geringere Endpreise.
 
Zer0Strat schrieb:
Ja, die Preise werden ja so nicht bleiben. Keiner mit ein bisschen Restverstand kauft eine 7900XT für über 900 Euro.

Sag das nicht.
Die TUF 7900XTX ging gestern auf Cyberport für 1799 Euro weg. War nach paar Stunden ausverkauft.

Da hatte ich hier noch drauf hingewiesen was das für ein Wahnsinn ist und schwups war sie ausverkauft.

Für 300 Euro weniger bekommst ne TUF 4080 lieferbar.
+
Für 200 Euro mehr bekommst ne Gigabyte 4090 lieferbar.


Die spinnen mittlerweile total.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HPTaff, JackTheRippchen und CiX
TigerherzLXXXVI schrieb:
die AMD-Karte bietet eine bessere Rasterisierungsleistung trotz offensichtlicher Treiberprobleme, außerdem würde SAM noch eine zusätzliche Performanceverbesserung in den Benchmarks bringen
TigerherzLXXXVI schrieb:
die Nvidia-Karte punktet dafür bei der besseren RT-Leistung und den deutlich geringeren Stromverbrauch.
Naja du stellst hier eine 3-4%ige Führung bei Raster gegen eine ~25%ige Führung bei RT(in fordernden Titeln eher 30-40%), als ob das vergleichbare Abstände wären, natürlich muss sie in der Konstellation günstiger angeboten werden, selbst wenn sie dabei gleich effizient wäre.

TigerherzLXXXVI schrieb:
Sofern also der Preisunterschied zwischen den beiden Karten bestehen bleibt, sehe ich Nvidias Grafikkarte auf keinen Fall als absolut überlegen an.
Das absolut überlegen bezog sich auf die 4090, die 4080 bietet in Summe aber auch genug Pluspunkte um den $200 Unterschied zu rechtfertigen.

Und mit dem Preis ist es halt auch immer so eine Sache. Wenn ich eine bestimmte Leistung möchte, dann kann es mir auch egal sein, wenn ein anderes Produkt 20% günstiger ist, solange es die angepeilte Leistung nicht erreicht.

Dann kaufe ich im Zweifel lieber keines von beiden Produkten anstatt >1000€ in eine Karte zu investieren bei der ich eigentlich sage, dass die Leistung nicht das ist was ich wollte.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Hutzeliger schrieb:
Die spinnen mittlerweile total.
Es gibt natürlich immer welche, die die Karte irgendwie brauchen (für ein Review oder so) und dann gibt es noch die ohne Restverstand (AMD Fanboys z.B.). Das dürfte aber eher statistisches Rauschen (zum Glück bezogen auf Fanboys) sein. Es muss erstmal ne gewisse Masse verkauft werden, um dann Nachfrage und Preisverhalten besser einschätzen zu können.
 
Hutzeliger schrieb:
Für 200 Euro mehr bekommst ne 4090 lieferbar.
Da braucht man nicht lange überlegen und die 4090 nehmen :D
Ergänzung ()

Zer0Strat schrieb:
Es gibt natürlich immer welche, die die Karte irgendwie brauchen (für ein Review oder so) und dann gibt es noch die ohne Restverstand (AMD Fanboys z.B.).
Das gibt es bei Nvidia allerdings auch, da haben letztes Jahr welche für 2500€ sich eine 3090 gekauft die jetzt von einer 1350€ Karte in Grund und Boden gestampf wird.
 
  • Gefällt mir
Reaktionen: McTheRipper und Hutzeliger
Fighter1993 schrieb:
Das gibt es bei Nvidia allerdings auch, da haben letztes Jahr welche für 2500€ sich eine 3090 gekauft die jetzt von einer 1350€ Karte in Grund und Boden gestampf wird.
Ja, das stimmt. Bei Nvidia Karten muss man ein wenig aufpassen, denn viele verwenden die Karten für ihre Arbeit. Taxxor hatte ja schon CUDA usw. erwähnt.

Wir brauchen z.B. auch starke Workstation Karten in der Firma. Die Einkäufer haben richtig abgekotzt bei den Mining Preisen.
 
  • Gefällt mir
Reaktionen: Hutzeliger
Taxxor schrieb:
A Plague Tale hätte ich da z.B. knicken können mit der 6800XT, da nur DLSS drin ist. In Callisto Protocol, wo nur FSR drin ist, kann ich hingegen auch mit meiner Karte Upscaling nutzen.
Das wäre also ein klares Argument für AMDs Open-Source-Lösung. Das Gegenteil stellt hier bekanntermaßen Nvidia dar: sollte ein Spiel wie eben A Plague Tail durch eine Kooperation speziell auf Nvidia-GPUs angepasst werden, haben Radeon-Besitzer immer einen klaren Nachteil, zumindest bis FSR irgendwann einmal nachträglich implementiert wird.
Taxxor schrieb:
Und von DLSS3 bin ich in allen bisher getesteten Spielen(Spiderman, Plague Tale, Witcher 3) auch mehr als überzeugt, da wird in Zukunft wenn AMD was ähnliches bringt das gleiche Problem bestehen, dass man dann darauf angewiesen ist, dass diese Implementierung auch gut bzw überhaupt gemacht wird.
Wenn es bei AMD weiterhin so läuft wie zuvor mit FSR 2 vs DLSS 2, mache ich mir da zumindest keine Sorgen.
Taxxor schrieb:
Nicht für mich, aber für andere Leute dürfte auch CUDA sehr interessant sein sowie der Softwarestack um Streaming und Podcast mit RTX Voice etc.
Ich finde immer, dass nur die allerwenigsten Besitzer einer Gaming-Grafikkarte nebenbei professionelle Anwendungen betreiben. Vielleicht sollte man mal eine Umfrage zu diesem Thema starten.
Des Weiteren bietet AMD mittlerweile eine Lösung an, die performanter als CUDA ist (siehe Test zur RX 7900XTX von igorslab).
Ergänzung ()

Taxxor schrieb:
Naja du stellst hier eine 3-4%ige Führung bei Raster gegen eine ~25%ige Führung bei RT(in fordernden Titeln eher 30-40%), als ob das vergleichbare Abstände wären, natürlich muss sie in der Konstellation günstiger angeboten werden, selbst wenn sie dabei gleich effizient wäre.
Wie gesagt, die Benchmarks der RX 7900 XTX deuten auf offensichtliche Treiberprobleme zu Beginn hin. In einem Titel hat sie sogar langsamer performt als die RX 6950 XT... Das heißt die Testergebnisse stellen nur eine Momentaufnahme dar. Und wenn man beim Testsystem eine Ryzen-7000-Plattform verwendet, sorgt SAM dann für ein Paar zusätzliche Prozentpunkte mehr. Und klar: wenn für einen Raytracing das Wichtigste überhaupt ist, der muss sich nun einmal für eine Nvidia-Karte entscheiden. Doch dies gilt aber nach wie vor nicht für jeden. Außerdem ist die ganze RT-Geschichte noch längst nicht ausgereift und teilweise schlecht in Spielen umgesetzt, sowohl aus technischer Sicht als auch bedauerlicher Weise vom Entwickler beabsichtigt.
Taxxor schrieb:
Das absolut überlegen bezog sich auf die 4090, die 4080 bietet in Summe aber auch genug Pluspunkte um den $200 Unterschied zu rechtfertigen.
Bei 999$ vs 1599$ ist auch die RTX 4090, gemessen am Preis, nicht deutlich einer RX 7900 XTX überlegen. Klar man kann immer sagen, dass nur Nvidia diese Leistung bietet und AMD in dieser Generation da nichts entgegensetzen kann. Aber aus P/L-Sicht passt das.
Taxxor schrieb:
Und mit dem Preis ist es halt auch immer so eine Sache. Wenn ich eine bestimmte Leistung möchte, dann kann es mir auch egal sein, wenn ein anderes Produkt 20% günstiger ist, solange es die angepeilte Leistung nicht erreicht.
Das ist logisch. Wenn man eine bestimmte Highend-Leistung in einem Spiel möchte, dann geht das eben nur mit bestimmten Modellen. Dafür muss man dann eben zur Not etwas tiefer in die Tasche greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DF86, Volvo480, duskstalker und eine weitere Person
TigerherzLXXXVI schrieb:
Das wäre also ein klares Argument für AMDs Open-Source-Lösung. Das Gegenteil stellt hier bekanntermaßen Nvidia dar: sollte ein Spiel wie eben A Plague Tail durch eine Kooperation speziell auf Nvidia-GPUs angepasst werden, haben Radeon-Besitzer immer einen klaren Nachteil, zumindest bis FSR irgendwann einmal nachträglich implementiert wird.
Wenn FSR denn überall so gut aussehen würde wie DLSS und auch überall implementiert werden würde, wäre das natürlich super.

Die Realität sieht anders aus und es ist meistens entweder gar nicht drin, oder es ist gleichzeitig auch ein qualitativ besseres DLSS drin, so hat man hier eben einen potenziellen Nachteil, wenn man als Kunde auf AMD setzt.
Ergänzung ()

TigerherzLXXXVI schrieb:
Des Weiteren bietet AMD mittlerweile eine Lösung an, die performanter als CUDA ist (siehe Test zur RX 7900XTX von igorslab).
Anbieten und und breit in Software verfügbar sein sind dann auch immer noch mal 2 paar Schuhe. Und bei bald <10% Marktanteil darf man sich überlegen, wie schnell die Adaption laufen wird^^
 
  • Gefällt mir
Reaktionen: Hutzeliger
Gibt es eigentlich Szenarien, wo 16GB Vram der 4080 in 4k nicht reichen?
5k 8k usw sind irrelevant (zumindest für mich).
 
Taxxor schrieb:
Wenn FSR denn überall so gut aussehen würde wie DLSS und auch überall implementiert werden würde, wäre das natürlich super.

Die Realität sieht anders aus und es ist meistens entweder gar nicht drin, oder es ist gleichzeitig auch ein qualitativ besseres DLSS drin, so hat man hier eben einen potenziellen Nachteil, wenn man als Kunde auf AMD setzt.
Ergänzung ()


Anbieten und und breit in Software verfügbar sein sind dann auch immer noch mal 2 paar Schuhe. Und bei bald <10% Marktanteil darf man sich überlegen, wie schnell die Adaption laufen wird^^
FSR2.X sieht im Schnitt imho nicht besser oder schlechter aus als DLSS(2.X). Vielleicht manchmal etwas schlechter in der Rekonstruktion von Details dafür aber auch ohne das Smearing, das DLSS(2.X) leider in Bewegung oft aufweist.
Und über die Adaption braucht man sich wegen dem offenen Ansatz und der Verwendbarkeit auf Konsolen imho eher weniger Sorgen machen, als bei dem proprietären PC-only Standard, der immer noch nur durch ein abgestelltes nV-Ingenieursteam eingearbeitet werden kann. Wobei das auch alles Spekulation ist, auf die man eine Kaufentscheidung wohl letztlich auch nicht sinnvoll stützen kann.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Illithide schrieb:
Und über die Adaption braucht man sich wegen dem offenen Ansatz und der Verwendbarkeit auf Konsolen eher weniger Sorgen machen, als bei dem proprietären PC-only Standard, der immer noch nur durch ein abgestelltes nV-Ingenieursteam eingearbeitet werden kann.
Es braucht kein nv-Ingenieursteam, DLSS ist in den großen Engines ebenso als Plugin vorhanden.

Nur weil man nicht sieht was in der „black box“ exakt passiert , bleibt es trotzdem eine normale Box die man bei sich hinstellen und Dinge reingeben kann und sie gibt dir dann Dinge zurück. Was du reingeben musst und wie du es reingeben musst, ist alles dokumentiert.

Ergänzung ()

Illithide schrieb:
Wobei das auch alles Spekulation ist, auf die man eine Kaufentscheidung imho letztlich auch nicht sinnvoll stützen kann.
Darauf, dass FSR immer verfügbar sein wird, müsste ich beim Kauf einer AMD Karte spekulieren.
Und die Spekulation spare ich mir halt wenn ich ne Karte habe die beides nutzen kann
 
Zuletzt bearbeitet:
Illithide schrieb:
FSR2.X sieht im Schnitt imho nicht besser oder schlechter aus als DLSS(2.X). Vielleicht manchmal etwas schlechter in der Rekonstruktion von Details dafür aber auch ohne das Smearing, das DLSS(2.X) leider in Bewegung oft aufweist.
Dann check mal dieses Video hier. Das wurde allerdings bereits teilweise gefixt.


Oder das Smearing in Tiny Tina's Wonderlands. Wurde auch gefixt mittlerweile.

1671805248853.png
 
Zurück
Oben