Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Preis Leistung ähnlich schlecht wie Nvidia, schade. Naja, wenn man nicht so viel Wert auf RT legt wie ich, dann immerhin nicht ganz so schlecht wie Nvidia. Trotzdem eher meh. Wobei ich eh vorhatte diese Gen. Zu überspringen.
 
immortuos schrieb:
Was heißt noch? Die RX 6000er waren mehr als konkurrenzfähig und zum Großteil besser und/oder günstiger als die RTX Gegenstücke.
Nun ja, AMD hatte den Vorteil der besseren DX12 Auslastung, die RT Werte waren halt nicht auf Augenhöhe... Effizienztechnisch kommt da einiges zusammen. Sollten nicht alle Rechenwerke ausgelastet werden, sehen wir hier ~40TFlops und der Rest liegt brach

@Taxxor
Aber immer noch 10% weniger, als der Wort Case den du und auch ich errechnet hatten.. Also hat NV ggf das DX12 Problem gelöst? Oder aber durch die Breite der Architektur kommt das Auslastungsproblem nicht so zum Tragen
 
Shoryuken94 schrieb:
AMD verlangt ja auch den Preis von heute. Wenn ich nur einen Teil des Preises zahlen muss und den Rest, wenn AMD wirklich die Treiber fixt okay. So ist es doch nur ein schönreden mit Hoffnungen.
Selbst wenn AMD dazu bereit wäre, wäre das Rechtlich sehr schwer umzusetzen, von daher theoretisch netter Gedanke aber schwer um zu setzen.
 
Rockstar85 schrieb:
Wunder sollte man von dem Treiber aber nicht erwarten. Ich frag mich nur, wie sowas wie die Auslastung der Vectoreinheiten übersehen werden konnte..
In dem Fall ist es ja weniger der Treiber, der verbessert werden muss, sonder der Shader-Compiler und hier sehe ich einen Knackpunkt für RDNA3 und zukünftige Versionen.

Was ich im Whitepaper lese, muss ich sagen: RDNA3 ist ein ähnlich großer Schritt wie GCN zu RDNA, vermutlich sogar etwas darüber pendelt zwischen GCN/RDNA und TeraScale/GCN. AMD wird am Shadercompiler arbeiten müssen und wird ähnliche Techniken, wie sie bei EPIC/VLIW-Compilern verwendet werden, implementiere müssen, nur dass diese nicht nur "unabhängige" Operatoren finden müssen, sondern "unabhängig" gleiche Operatoren.

Das ist durchaus möglich und wird auch noch mal Leistung frei setzen. Was möglich ist, zeigen ja vereits einzelne Spiele. Die Frage ist jetzt: Kann AMD den Compiler mit entsprechenden Algorithmen ggf. auch aus dem DeepLearning-Berich, soweit aufbereiten, dass sie nicht so viel Arbeit damit haben, oder werden sie ähnlich wie Intel sich komplexe Compiler-Profile ans Bein binden. Letzteres könnte der Genickbruch für RDNA3 und alle zukünftige Versionen werden.

Da sie aber mit Xilinx nun einiges an Know-How im Bereich KI haben, bin ich mal Hoffnungsvoll.

-- Edit -- Lustig, eigentlich hab ich @Taxxor zitiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Phobsen, ComputerJunge und Rockstar85
Ayo34 schrieb:
Das größte Zielpublikum hat AMD bei AMD Usern
Ich dachte da auch auch mehr an nVidia Pascal und Turing 70er und 80er Serie Kaeufer, die aufruesten wollen, von Ampere aus gesehen in der gleichen Leistungsklasse lohnt es sich (aehnlich wie bei RDNA2) nicht wirklich auf RX 7900XT(X) Karten aufzuruesten, es sei denn man braucht den groesseren Grafikkarten-Speicher ;).
 
Scheinbar möchte AMD keine Karten mehr verkaufen und das lieber Nvidia überlassen. Was haben die in den letzten 2 Jahren gemacht?

  • Wie war das mit den propagierten 50% mehr Effizienz? Ich sehe keine 20% im Test, alles andere zur Vergleich ranziehen wäre Augenwischerei.
  • 78 und 83mm Lüfter bei noch mehr Leistungsaufnahme, euer verdammter ernst? Vorher waren es 100/90mm.
  • Dazu das absolute Billo-Design, das jeden x-beliebigen Discounter-Schrott wie Porsche Design daherkommen lässt. 3 Rückschritte in Punkto Optik!
  • Über 1000 Euro und dann nicht mal eine winzige LED?
  • Verhunzter Treiber zum Launch, same procedure as every 2 years?

Leider wurde hier nicht ein einziges Spiel mal kurz mit richtigem UV getestet, was für mich immer sehr interessant ist. Da muss man dann wohl zu Igor.

Lieber bissl mehr Geld in die Hand nehmen und zur 4080 greifen. Sehr schade AMD.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Taxxor schrieb:
AMD hat die 4080 als Konkurrenz bestätigt, nachdem die Präsentation gelaufen war, nach dieser es auch mit den genannten Zahlen so aussah, als würde man die 4080 um 15-20% schlagen können.
Das wurde zur Präsentation bestätigt. Und die 4080 war da nicht veröffentlich. Woher deine 15-20% nun kommen weiß ich nicht. ist deine (fehlgeleitete) Interpretation!? Ist am Ende auch wurscht. 4080 war und ist die Konkurrenz und man ist gleichauf oder besser.
Taxxor schrieb:
Und die hohe Leistungsaufnahme und schlechte effizienz im Gaming, und die nochmal deutlich schlechtere Effizienz bei Teillast, und die enorme Streuung der Performance je nach Titel.
Man übertrifft die eigenen Produkte der letzten Generation, von schlecht kann hier also gar nicht gesprochen werden. Natürlich geht besser immer. Am Ende ist es aber kein Ausschlusskriterium oder ein Reinfall, was von AMD hier geboten wird. Und ich sage es noch mal: In einigen Teilen sicherlich auf Treiberprobleme zurückzuführen. Einfach abwarten.
 
Rockstar85 schrieb:
Sollten nicht alle Rechenwerke ausgelastet werden, sehen wir hier ~40TFlops und der Rest liegt brach
Und selbst das müssten ja theoretisch noch fast doppelt so viele FPS ggü RDNA2 mit ~23TFLOPs ergeben.
 
PHuV schrieb:
Du etwa? Kaufst Du Dir einen 8k Monitor mit 144Hz, wenn lieferbar?
Ja! Aber sowas von! OLED, 8k, 144Hz, 800+cd, unter 2k - I´m in :love:
 
Instanto schrieb:
@kachiri das sehe ich wie gesagt anders. Die Mehrleistung verpufft in meinen Augen und geht an den Anforderungen der Realität vorbei. Da habe ich lieber weniger Verbrauch (ganz klar die AMD Karten) bei einer Leistung die absolut ausreichend ist für alle Spiele. "Effizienz" hat oft wenig mit der Realität zu tun.

Realität ist, dass man 4k + Raytracing + 100 Frames+ auf einer 4080 mit 250 Watt (TDP Limit) spielen kann. In Spielen wie Valorant/CSGO skaliert die 4080 sogar so gut, dass sie unter 100 Watt verbraucht bei 500 Frames+. Im Idle 20 Watt mit mehreren Monitoren und auch in anderen Bereichen sehr effizient. Überall versagen die neuen AMD mit den aktuellen Treibern (noch).
 
  • Gefällt mir
Reaktionen: Uncreative
Herrenlos schrieb:
Hier hast du aber zeitgleich drei Sachen bewusst/unbewusst ignoriert:

1. Eine 4080 kostet ~20 % mehr. Des Weiteren schreibst du, dass die 4080 über all bessere Performance liefert. Hast du den Test auch gelesen? Es gibt Spiele und Anwendungen, wo die 7000er XTX ganz klar vor der 4080 agiert. Hab den Test auch bei LTT geguckt. Da lag zum Beispiel die XTX in F1 sogar vor der 4090.

2. Die RTX 4000er ist bereits seit ein paar Tagen länger auf dem Markt. Somit ist der NV Treiber um einiges "reifer", wie der von AMD. Man kann klar davon ausgehen (was die Vergangenheit auch bereits gezeigt hat), dass AMD auch via Treiber in Performance mit der Zeit nachlegt. Besonders in den 1% lows.

3. Das AMD FSR hat, hast du bereits mitgekriegt? Sonst verstehe ich dein Argument mit DLSS nicht.

RT ist heut zu Tage so ein Tier, welches sehr spezifisches ist. In manchen Spielen (zB Control) merkt man nur am FPS Verlust, dass RT an ist.
Finde auch Schade, dass du meinen Kommentar nicht in Gänze gelesen hast. Oder hast du meinen letzten Satz bewusst ignoriert? Ich sprach nämlich von der Marktlage und der Preiskorrektur, die Anhand der Nachfrage reguliert wird. ;)

1. Die 4080 Custom kostet 1360eur. Die 7900 XTX Ref Designs 1150 - Wenn die Verfügbarkeit es hergibt.
1a. Wenn ich über 1100eur für eine Grafikkarte zum Gamen ausgebe, dann sind die 200 Aufpreis mit besseres Features und deutlich mehr RT Leistung quasi egal.
Wenn jemand so limitiert an diesem Budget ist, dann reicht das Geld nicht für eine 1150eur GPU.

2. Dann sieh dir die Release Tests an. Die Leistung hat gestimmt.
Die AMD Treiber sollen ja immer besser werden, tatsächlich war es NV, die den RTX 3000ern ca. 5% mit Patches letztens beschert haben. Test/News ist hier auf CB.
Die 1% Lows war meistens NV vorne.

3. FSR gibt es, DLSS 2.0 ist schon besser. DLSS 3.0 nochmal deutlich davor.

4. Kaufverhalten stimme ich dir natürlich zu und hoffe auch darauf.
Sollte es die 7900 XTX dadurch günstiger geben, sieht das Ganze natürlich anders aus. Hier müsste man 3-stellig werden,. auch wenns 999eur sein sollten. Psychologie.
Dann hätte die XTX tatsächlich die 4080 geschlagen und man könnte über RT/DLSS hinwegsehen.

Ich bin hier kein "Fanboy", ich habe Systeme aller Art und tausche meine PCs mehrmals um (kaufe, verkaufe, baue um ,.. ) - Hatte hier sämtliche Grakas verbaut (6700xt 6800xt 6900xt(xtxh), 3060 3070 3080 3090,..) und werde es auch mit der neuen Gen machen, genau wie bei den CPUs (letztens noch 7700x vs 5800x3d vs 12700k getestet usw)..
Und tatsächlich enttäuscht mich die 7900 XTX mehr als zB der 7700x (P/L vs 13600/12700/5800x3d).

Aktueller Sweetspot wäre mMn. ein 12700k/5800xd (wenn geht B Ware, deutlich günstiger) mit ner B-Ware RX 6900 xtxh/6950 bzw. 3090 (ti).. Ansonsten wenn man komplett neu kaufen möchte... kA ehrlich gesagt.. 1050eur für ne 7900 XT als aktuellen Einstieg ?? Sehe ich nicht ein.
1050eur würde ich mir für die 4080 wünschen.
 
  • Gefällt mir
Reaktionen: Uncreative
Impy81 schrieb:
Scheinbar möchte AMD keine Karten mehr verkaufen und das lieber Nvidia überlassen. Was haben die in den letzten 2 Jahren gemacht?

  • Wie war das mit den propagierten 50% mehr Effizienz? Ich sehe keine 20% im Test, alles andere zur Vergleich ranziehen wäre Augenwischerei.
  • 78 und 83mm Lüfter bei noch mehr Leistungsaufnahme, euer verdammter ernst? Vorher waren es 100/90mm.
  • Dazu das absolute Billo-Design, das jeden x-beliebigen Discounter-Schrott wie Porsche Design daherkommen lässt. 3 Rückschritte in Punkto Optik!
  • Über 1000 Euro und dann nicht mal eine winzige LED?
  • Verhunzter Treiber zum Launch, same procedure as every 2 years?

Leider wurde hier nicht ein einziges Spiel mal kurz mit richtigem UV getestet, was für mich immer sehr interessant ist. Da muss man dann wohl zu Igor.

Lieber bissl mehr Geld in die Hand nehmen und zur 4080 greifen. Sehr schade AMD.
Jop ! Also was Leistungsaufnahme angeht kann man AMD schon mit Fug und Recht Blender nennen.
 
  • Gefällt mir
Reaktionen: Uncreative
Das wird dann irgendwann im Jahre 2023/2024 doch eine 4070Ti.

Schade AMD. Aber Raytracing ist für mich Prio.
Einzige Möglichkeit mich doch für eine der beiden 7900er zu entscheiden, wäre ein 200€ Preisabschlag bei der XTX und 250 bei der XT.
Also € 949,- und 800,-
 
  • Gefällt mir
Reaktionen: Impy81
CrustiCroc schrieb:
Man kann RT heute einfach nicht mehr wegdiskutieren, das gehört einfach zu modernen Karten dazu. Das ist ein Feature was heute ja schon fast normal ist.
Nö, hat man ja bei der Sonntagsumfrage letztens gesehen, es gibt genug Leute, mich inkludiert, die sich nicht für RT interessieren, solange es in dem Maße Leistung frisst, egal ob Nvidia oder AMD.
Ändert auch nichts an der Tatsache, dass die neuen AMDs auch beim Blick auf Raster kaum Vorteile gegenüber der 4080 bieten. Abgesehen vom geringeren Anschaffungspreis spricht alles für Nvidia und bei der schlechten Effizienz wird sich das über die Nutzungszeit bei den jetzigen Strompreisen auch immer weiter verschieben.
 
  • Gefällt mir
Reaktionen: Uncreative
Ayo34 schrieb:
Die 4080 wurde überhaupt noch nicht verbilligt! Der € Preis wurde an den $ Kurs angepasst. Die neuen AMD Karten hätte vor 1 Monat auch jeweils 50€ mehr gekostet im Euroraum. Im $ Raum hat sich Null geändert.
1339 € heute gegen 1469 € zum Marktstart.

Darin eine UVP Senkung auf 1399 €.

Ursprünglich war die 7900 XTX sogar 20% günstiger im Rasterization und nur 2% teuerer im RT.

Auf jeden Fall im P/L besser als Nvidia.
 
schM0ggi schrieb:
Woher deine 15-20% nun kommen weiß ich nicht. ist deine (fehlgeleitete) Interpretation!?
Ganz einfach, nimmt man sämtliche Performance Werte, die AMD auf der Präsentation gezeigt hat zusammen, kam man auf 6950XT + ~55-60% raus, bei RT sogar noch mehr.

Da die 4080 hier im Test bei 6950XT+35% ist, läge sie laut AMDs Zahlen also 15-18% vor der 4080.

schM0ggi schrieb:
Man übertrifft die eigenen Produkter der letzten Generation, von schlecht kann hier also gar nicht gesprochen werden.
Man hat aktuell in allem außer Vollast einen deutlich höheren Verbrauch und eine schlechtere Effizienz als der Vorgänger

schM0ggi schrieb:
In einigen Teilen sicherlich auf Treiberprobleme zurückzuführen. Einfach abwarten.
Genau, erst mal 1150€ ausgeben und dann einfach abwarten, ob sich die Performance und Effizienz vielleicht irgendwann noch zeigt.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Ragnarök88, Impy81 und eine weitere Person
blackiwid schrieb:
Selbst wenn AMD dazu bereit wäre, wäre das Rechtlich sehr schwer umzusetzen, von daher theoretisch netter Gedanke aber schwer um zu setzen.
Richtig und deswegen bewertet man das Hier und jetzt und nicht wie manch einer das Potential, was die Karte hat ;)
 
Taxxor schrieb:
Und selbst das müssten ja theoretisch noch fast doppelt so viele FPS ggü RDNA2 mit ~23TFLOPs ergeben.
Korrekt,
Also Treiberproblem oder Hardwareproblem..
Schauen wir mal, wie es in 8 Wochen aussieht. Ich hab ja die Inkonsistenz, zu Recht, bei Intels ARC bemängelt.
Man muss aber klar sagen, dass wir hier ähnliche Probleme sehen. Ich kauf doch keine GPU, die nur in TW WH3 die volle Leistung liefert, sonst aber eher eine 6950XT oder 6900XT vorzuziehen ist... schauen wir mal, wie das weitergeht.
 
Ayo34 schrieb:
In Spielen wie Valorant/CSGO skaliert die 4080 sogar so gut, dass sie unter 100 Watt verbraucht
Braucht man dafür überhaupt eine Grafikkarte?
Ist ja wie der vielbesungene Porsche zum Brötchen holen. :)
 
  • Gefällt mir
Reaktionen: Impy81
Zurück
Oben