Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Was für ein Reinfall von AMD. Schade. Versteh nicht ganz, wer sich so eine teure Karte kauft, die so viel schlechter ist als die Varianten von Nvidia. Könn doch nicht nur Fanboys sein die zu viel Geld haben?
 
Neronomicon schrieb:
Und zu den Preisen? Ü1000/ 2000€. Ja, einfach nur gaga. Aber mal so unter uns. Wer zwingt den die Spieler in 2k/ 4K zu spielen?
Mein 4K Monitor... :freak:
Wer Geld sparen will sollte tatsächlich bei einem 1080p FHD Bildschirm bleiben...

Matthias80 schrieb:
wird gefixxt und gut.
Solche eklatanten Mängel sollten man während der zwei Jahre Entwicklungszeit vor dem Release beheben. Nicht erstmal für 1150€ verkaufen und dann darf der Kunde hoffen, ob noch irgendwann ein Fix kommt oder nicht. Bananenprodukt.
Wenn es wenigstens eine klare offizielle Mitteilung gäbe wie "YouTube und Idle Verbrauch >60Hz sind verbuggt und werden mit dem nächsten Treiber gefixt!", gibt es aber auch nicht. Nur auf Anfrage eine Wischi-Waschi Antwort "This may result in higher idle power and fan speeds with certain displays" (YouTube gar nicht erwähnt) und ein schwammiges "We're looking into further optimizing the product going forward", was zwar optimistisch klingt, aber gar nichts garantiert, schon gar nicht in irgendeinem bestimmten Zeitrahmen.

Matthias80 schrieb:
War ja schön des Öfteren ein Problem.
Umso schlimmer, dass es wieder auftritt? Und hier haben schon einige ausgesagt, dass ähnliche Probleme mit vorherigen AMD Generationen angeblich auch nicht gefixt wurden...

Matthias80 schrieb:
sicherlich. aber was bringt es (DIR) da jetzt soooo drauf rum zu reiten?
Ein einzelner Post mit einem lustig gemeinten Meme Bild und sechs Sätzen ist für dich "drauf rum reiten"?

Matthias80 schrieb:
Wenn es dir nur darum geht auch mal rum zu meckern. [...] Deine persönliche Meinung einfach wichtig ist. Puh dann verstehe ich das natürlich. Kein Ding.
Ich bin mir nicht ganz sicher ob das spöttisch gemeint ist oder nicht, aber das hier ist ein Kommentarbereich zu zwei neuen Grafikkarten. Der ist dafür gedacht, dass Leute ihre Meinung posten.

Matthias80 schrieb:
Vielleicht NV dein favorisierter GPU Hersteller ist...
Bitte was? Welchen Teil meines Beitrages hast du nicht verstanden? Den Teil dass ich mir eine 7900 XTX kaufen wollte? Oder den Teil mit "Fick dich Nvidia!"?
 
  • Gefällt mir
Reaktionen: CiX
Laphonso schrieb:
Der gewaltige Immersionssprung wie in Metro ist ja nur der Anfang
So können sich Meinungen unterscheiden. Das was RT in Metro bietet und im Gegenzug an Performance frisst steht in KEINER Relation. Es macht das Spiel nicht besser, das Spiel braucht kein RT um richtig geil zu sein und macht ohne RT auch mehr Spaß. Und leider konzentrieren sich RT Spiele in meinen Augen zu sehr auf das RT als auf das Spiel selbst. Hauptsache das Nvidia Logo wird vor dem Spiel auf den Screen geschmissen und RT ist verfügbar.
Ich hoffe es kommt die Zeit wo die Spiele wieder im Vordergrund stehen und RT Sinnvoll und Performant eingesetzt wird.
 
  • Gefällt mir
Reaktionen: Innocience, _Cassini_, Geringverdiener und 3 andere
schkai schrieb:
Ich hoffe es kommt die Zeit wo die Spiele wieder im Vordergrund stehen und RT Sinnvoll und Performant eingesetzt wird
Die absehbare Zukunft wird wahrscheinlich eher, dass RT nicht mehr optional, sondern die ganze Beleuchtung in RT umgesetzt wird. In 5 Jahren? Realistisch.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und DaLexy
Gamefaq schrieb:
Ich denke da irrst du dich. Weil die Menge an RAM bestimmen Primär die Konsolen weil die meisten Spiele eben primär oder eben auch für sie produziert werden.
1. selbst wenn ich dir 100% folge sagst du ja selbst "die meisten" "primär". Wenn ich 1400 Euro für ne Karte aus gib will ich alle Spiele ohne Einschränkungen Spielen mal die nächsten 12 Monate, also auch wenige ausnahmen wären eine Riesen Einschränkung.

2. RT kann ja so in der Form auf den Konsolen nicht kommen wie auf dem PC weil dort ja nur veraltete AMD Grafikkarten verbaut sind... RT wird aber im großen Stiel für PC kommen, das braucht alleine massiv zusätzlichen Ram obendrauf zu dem was die Games normal schon schlucken.

Ich mein ich könnte dein Argument dann auf RT anwenden, die 7900xtx wird für Raytracing immer gut genug sein weil die Konsolen noch viel schlechter in Raytracing sind als die Grafikkarten. Die Schwäche bei RT bei AMD ist daher nur Einbildung weil die die Hersteller ja nur RT so implementieren das es auf Radeon chips gut läuft.

Man kann Konsolen und PCs nicht 1:1 vergleichen, jeder Vergleich hinkt, da die anders optimiert sind kein fettes OS haben.

Die Ps5 hat z.B. neben auch bisschen zusätzlichem Ram die 16gb hat also die gpu fast alleine, auch eine super schnelle SSD mit 5,5GB/s Wenn der also mal der Ram aus geht dann ist das deutlich erträglicher, hier packen ja die besten offenbar nur 2-2,5gb/s.
Damit kannst z.B. her gehen und was schon bei alten Konsolenspielen üblich war das es mehr Loading Screens gab, das man zwar haeufiger Levelabschnitte nachladen muss wie aufm PC aber dank dieser absurd hohen Geschwindigkeiten so schnell geht das man es nicht merkt. Damit kannst de CPU Ram auch sehr klein halten zumindest.
Essentially the SSD significantly reduces latency between data delivery and memory itself. The result sees RAM only holding assets and data for the next 1 second of gameplay. The PS4's 8GB of GDDR5 memory held assets for the next 30 seconds of gameplay.

"There's no need to have loads of data parked in the system memory waiting to potentially be used. The other way of saying that is the most of the RAM is working on the game's behalf."

Read more: https://www.tweaktown.com/news/7134...ep-dive-into-next-gen-storage-tech/index.html

Durch die eingesetzte Compression wird dieser Speed sogar noch erhöht, solange die CPU nicht limitiert, weil logisch wenn du z.B. 1gb SSD Daten packst auf 500mb dann kann der Kontroller diese 1gb doppelt so schnell lesen, das heißt bist irgendwo bei realen 5,5-10gb/s realer lese / schreibspeed. Ahh steht sogar bei specs bei 9gb/s compressed throughput.
Denn trotz des dedizierten Hardware-Raytracings über dafür vorgesehene Compute Units des verbauten AMD-Chips und der damit verbundenen Unterstützung von DirectX 12 Ultimate nebst der DirectX Raytracing-API wollen viele Entwickler offenbar lieber mit konventionellen Lichtberechnungsmethoden arbeiten, was vor allem den Performance-Ansprüchen geschuldet sein soll. Dementsprechend wird Raytracing bei Next-Gen-Titeln wohl eher die Ausnahme denn die Regel sein.
Wie gesagt nach der Logik da PC games ja nur 1:1 konsolenports sind, ist das dann offenbar sehr unwichtig und wird wenig kommen? Dann ist die Schwäche der 7900er hier auch nicht so wichtig?

Die Xbox Series X hat zwar ne normalere SSD aber auch immerhin so ne Kompression, aber ja man hat dann eben Ladescreens:
the practical difference is usually only around eight to ten seconds in between.

Und wieso sollte man sich überhaupt ne 1400 Euro Karte kaufen wenn die Spiele nur 1:1 ports von Konsolen sind und ganz genau gleich sind, dann kann man sich ja so ne Konsole holen.

Natürlich erwartet man das man damit Spiele besser spielen kann wie auf der Konsole und damit auch mehr Resourcen brauchen wie ne Konsole.

Auch könnten wie die Xbox Series S jetzt schon neue Spiele auf Konsole nur noch auf 4k upgescaled werden mit den bekannten Techniken, und aufm PC mit genug VRam reichts dann vielleicht für native 4k...

Auch kam Ende 2013 die Xbox one raus und schon 2016 die Xbox One S als upgrade, also 2023 wäre zeitlich auch schon wieder ein kleines Upgrade der Xbox Series X drin.

https://exputer.com/news/industry/playstation-5-slim-arrive-2023/
https://www.tweaktown.com/news/8346...n-new-renders-beefier-console-2023/index.html
 
Zuletzt bearbeitet:
SLIPY050491 schrieb:
Verstehe ehrlich gesagt nicht was hier alle so auf Raytracing abgehen. Ich finde RT ist den Mehraufwand überhaupt nicht wert. Für mich ist RT eine Technologie für Benchmarks und um einen Grund zu haben überteuerte GPUs an den Mann zu bringen. Kosten/Nutzen ist ein Witz. Deshalb ist mir die RT Performance auch ziemlich egal.
Dann hast du noch nie Control gespielt mit RT on und off, mach das mal und dann sag mir das gleiche statement nochmal !
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Sly123
War sehr ausführlich und in gewohnter Computerbase Manier knackig und Detailreich geschrieben.
Tatsächlich habe ich etwas mehr erwartet seitens AMD aber die Karte macht dennoch einen schönen Sprung nach vorne.

In Sachen Effizienz hat NV aber auch ordentlich einen rausgehauen....
Ist ein schönes Kopf an Kopf Rennen zwischen beiden Herstellern

Bin gespannt was Treiber Technisch noch möglich werden kann und wie der Zweikampf zwischen der XTX und der RTX 4080 noch von statten geht
 
Fallout667 schrieb:
Fazit: Jetzt ist die Karte nicht so toll. Aber wartet mal auf die Wundertreiber dann wird die Karte brauchbar. Aber evtl habt ihr auch Pech und es passiert nix. Ganz großes Kino. (Mal ganz davon abgesehen das es diese Wundertreiber noch nie so wirklich gegeben hat. Das mit dem Fine Wine ist doch ein Urban Myth. Und Verbesserungen durch Treiber kann auch Nvidia. Siehe kurz vor Start der neuen Gen, wo die alten Karten noch mal gut geboostet wurden.
Interessant bei AMD ist FINE WINE bei den Treibern Urban Myth bei Nvidia nicht? Interessant wie man seine eigene Aussage in 2 Sätzen ad absurdum führen kann.

dernettehans schrieb:
Was für ein Reinfall von AMD. Schade. Versteh nicht ganz, wer sich so eine teure Karte kauft, die so viel schlechter ist als die Varianten von Nvidia. Könn doch nicht nur Fanboys sein die zu viel Geld haben?
"Soviel schlechter als die Varianten von Nvidia." Ahja. Solch eine Aussage kann auch nur von Fanboys kommen.
Ergänzung ()

DaLexy schrieb:
Dann hast du noch nie Control gespielt mit RT on und off, mach das mal und dann sag mir das gleiche statement nochmal !
Control ist nichts weiter als eine RT Tech Demo pro Nvidia die man als Spiel vermarktet hat. Spielerisch und Story absoluter 0815 Müll.
Ergänzung ()

DayvanCowboy schrieb:
Die absehbare Zukunft wird wahrscheinlich eher, dass RT nicht mehr optional, sondern die ganze Beleuchtung in RT umgesetzt wird. In 5 Jahren? Realistisch.
Wohl kaum. Und wenn überhaupt maximal in Singleplayer Titeln. Im Multiplayer ist RT vollkommen unnötig und überhaupt nicht sinnvoll.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Redundanz, Rockstar85, McTheRipper und 4 andere
auf der rückseite der ref rx7900xtx und xt gibt es keine wärmeleitpads und die backlplate ist aus alu.
 
DayvanCowboy schrieb:
Ach so? Wurde der Adapter inzwischen ausgestauscht, überarbeitet? Ein neues Design vorgestellt? Gab es eine Rückrufaktion? Nein? Warum nicht?

Weil es Geld kostet und die Nutzer trotzdem kaufen.
Abwarten, das Thema ist noch nicht durch. In den USA gibt es die erste Sammelklage. Igor hat gezeigt wie der Stecker eigentlich aufgebaut sein müsste.
 
  • Gefällt mir
Reaktionen: Benji18
blackiwid schrieb:
https://www.gamestar.de/artikel/wie-viel-vram-brauche-ich,3380294,seite2.html

Hier sind schon 2 von 5 Spielen gelistet mit 13gb Speicher es geht ja nicht um irgend ein Durchschnittswert wenn 2-3 Spiele die man gern spielt mehr Speicher brauchen reicht das schon.

Also deine Tabelle wenn ich den Rest mal glaube:
4,5gb 2019
7,5gb 2020
13gb 2022

Das wären ungefähr 3gb Anstieg pro Jahr und würde heißen
2023 16gb
Das Zauberwort heißt „Reservierung“.

Sie haben eine 6900XT mit 16GB genutzt und es wurden maximal 13GB von Cyberpunk reserviert.
Das bedeutet aber nicht dass Cyberpunk 13GB benötigt, sieht man auch in den Tests mit z.B. einer 3080 10GB, die keine Probleme damit hat.
Da werden dann eben 7-8GB reserviert, einfach weil sich die Spiele sagen wenn mehr da ist kann ich mir auch schon mal mehr einplanen. Zwingend gebraucht wird so viel aber nicht.

Der Afterburner (CapRrameX auch ^^) kann neben der VRAM Reservierung auch den tatsächlich davon genutzten Teil anzeigen und der ist immer deutlich niedriger.

Der reservierte VRAM sagt nichts über den benötigten VRAM aus.

Aber deshalb heißt die Seite ja auch Gamestar und nicht Technikstar
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, Ragnarök88, MrHeisenberg und 5 andere
Habe genau das erwartet, in 6 Monaten mit besseren Greibern hat man dann zur 4080 aufgeschlossen. Besonders der hohe Verbrauch bei YouTube zeigt dass die Treiber mal wieder zum vergessen sind.

AMD muss es wieder mit den Preisen richten, Max. 1100 für die XTX und 900 für die XT und die Teile werden gekauft.
 
Ich bin immer noch der meinung das HDR weitaus vorteilhafter ist als dieses nvidia RayTracing , erinnert mich irgendwie alles an PhysX das ganze :)
 
  • Gefällt mir
Reaktionen: Redundanz, McTheRipper, thornhill und eine weitere Person
@Wolfgang

Moin Wolfgang, kommt die Hellhound dann mit Telekom oder Vodafone Vertrag und wie gut ist der Empfang unter voller GPU Load? (Siehe Bildbeschreibung) ;)
 

Anhänge

  • Screenshot_20221214_065201_Samsung Internet.jpg
    Screenshot_20221214_065201_Samsung Internet.jpg
    1,6 MB · Aufrufe: 182
DayvanCowboy schrieb:
Amüsant. Du fabulierst darüber wie die Karten altern. Wenn du dir die Diskrepanz im Stromverbrauch anschaust, hast du in deinen Zeiträumen schon eine neue Karte alleine an Stromkosten erspart.
Amüsant finde ich, dass das ganz plötzlich das "Killerargument" ist, um Nvidia Karten in ein gutes Licht zu rücken. Bei der Ankündigung der 4090 hieß es noch, dass die Stromkosten ein Deutschland, oder höchstens Europa exklusives Problem wären und sich da sonst keiner für interessiert.
Erst seitdem bekannt ist, dass die 4090 und 4080 überraschend effizient sind, wird das auf einmal als wichtiges Argument angesehen...

Ich finde es übrigens gut, dass Nvidia an Effizienz zugelegt hat und auch schade, dass es bei AMD zur Zeit so aussieht, als wenn die Effizienz nicht weiter gesteigert werden konnte, bzw. sogar schlechter geworden ist. Ganz unabhängig von irgendwelchen Kosten finde ich es nämlich wichtig, dass nicht unnötig viel Strom in Wärme umgewandelt wird, nur damit wir ein Bild sehen... Dementsprechend hoffe ich auch, dass "nur" der Treiber aktuell für so eine hohe Leistungsaufnahme bei AMD sorgt.
Ob Intel, Nvidia oder AMD, die Effizienz sollte auf jeden Fall stärker gewichtet werden und bei den Designs stärker in den Fokus rücken.
 
  • Gefällt mir
Reaktionen: Innocience, coral81, Ghostfacekalle und 2 andere
DayvanCowboy schrieb:
Die absehbare Zukunft wird wahrscheinlich eher, dass RT nicht mehr optional, sondern die ganze Beleuchtung in RT umgesetzt wird. In 5 Jahren? Realistisch.
wenn bis dahin die maße RT zu bezahlbaren Preisen hat, ansonsten wird RT nix anderes als nice to have sein.
 
SLIPY050491 schrieb:
Verstehe ehrlich gesagt nicht was hier alle so auf Raytracing abgehen. Ich finde RT ist den Mehraufwand überhaupt nicht wert.
Siehst Du- Du hast die magischen Worte "für mich" treffend benutzt. Es gibt aber halt tatsächlich Leute, die nicht einsehen, dass sie sich erst irgendwelche sauteuren 4K- Karten kaufen und Darstellungsgeräte für über 1000€ dazu hinstellen, nur um dann auf dem Bildschirm schlechte oder fehlerhaft angenäherte Grafikeffekte zu haben.

Dir nützt nämlich all die Sündteure Technik nichts, wenn dann trotzdem nur Grafikschrott auf den Bildschirm projeziert wird bzw. die Grafik komplett in sich zusammenbricht:

Es hilft einfach nicht, sich einzureden zu wollen, dass man solche eklatanten Fehler nicht bemerken würde, wenn man sonst von sich behauptet High- End Darstellung erhalten zu wollen. Was hilft einem UHD Grafik auf 120 FPS, wenn die internen Rendereffekte dann in 1024P und 30FPS berechnet werden und man schlechte Grafik dann in hochaufgelöst hat.
Hier begehen viele Selbstbetrug.

Genauso geht es mit Beleuchtung, Schatten usw. usf.. Hier sieht man sehr schön nochmal die Unterschiede.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Geringverdiener, ThirdLife, Ragnarök88 und 6 andere
was mich so triggert, dass man die heutigen RT Effekte früher ohne RT hinbekommen hat.
vielleicht nicht 100% akkurat, aber es gab genug Spiele die konnten das gleiche wie CP2077@RT. mit viel fps.

jetzt lässt man solche Effekte gleich ganz weg ingame, wenn RT aus ist.
 
  • Gefällt mir
Reaktionen: jo0, Innocience, Meister1982 und 3 andere
Gerithos schrieb:
Das mag sein aber debnovh ist die Performance fürs gebotene zu niedrig, das sagen auvh einige tester,
Na wenn das solche Koryphäen sagen, wird es stimmen und überhaupt ist für AMD eh nirgends optimiert...🙈
 
Zurück
Oben