Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Gr33nHulk schrieb:
Nimmt man nur die 7900 XTX und die 4080 machen beide einfach zu viel falsch um wirklich als gute GPUs rüber zu kommen, dann noch die Preise dazu und es ist für die Tonne (ich hatte auch zu viele Erwartungen in die 7900 XTX, was leider nicht erfüllt worden ist......aber diese Erwartungen hatte ich davor auch in die RTX 4080).
Ich finde (die angesprochenen Treiberprobleme mal außen vor) dass der Preis entscheidend bei beiden Karten eben das Problem ist. Eine 7900 xtx für 749 und eine 4080 für 949 wären durchaus vertretbar. Die XTX kann als Gesamtpaket einfach der 4080 nicht gänzlich das Wasser reichen und wäre eine gute Alternative wenn man mit den ecken und Kanten leben kann, aber eben nicht zum selben Preispunkt.
Die 4080 macht vieles richtig im Vergleich, ist aber schweine teuer.
Für unter 1000€ würde ich eine XTX der 4080 vorziehen, aber bei nahezu gleichem Preis sind es mir zu viele Kompromisse und Fragezeichen. So oder so, ich werde für keine der beiden Karten 1000 oder mehr hinlegen... Das Spielchen mach ich nicht mit. Da ich die Gier der Hersteller nach dem Mining Wahnsinn nicht mitspielen werde.
 
  • Gefällt mir
Reaktionen: danyundsahne, p3tz und Hopa
Wintermute schrieb:
Logisch. Sehe ich genau so. Ist halt leider so. Die 6900XT wird leider von der 3090 aufgewischt in DCS VR und auch in IL2. Die absoluten FPS sind gar nicht so übel, die Frametimes leiser umso mehr. Deutlicher Unterschied. Also auch hier leider keine "Budgetlösung" am Start.

Ja das mit den Frametimes. Das würde für mich als Produktverantwortlicher viel mehr ziehen.
Denn die sind generell wichtig..
Aber z.B. bei FSR 2 kam raus das die NV Karten bessere Frametimes liefern als AMD selbst. Um Faktor 2... Das sind Welten...
Und was ich gar nicht verstehe - war es nicht AMD die sogar (als VR gehypt wurde) Werbung gemacht hatten das Ihre Karten für VR besser geeignet seien??

Gut was wir nicht wissen - die 7er Karten werden mehr max Frames liefern... Tendenziell werden als die Frametimes besser... Nur die neue Technik und die neuen Latenzen zum Cache...
Vielleicht ist die Architektur auch besser was Frametimes betrifft - aber das ist schon ne sehr spezielle Frage - weil und ich kenne keinen Test der da genaueres zu geliefert hätte... Wirst in den entsprechenden Foren warten müssen und schauen ob wer berichtet..
 
  • Gefällt mir
Reaktionen: Wintermute
met schrieb:
AMD hat auf den Präsentations-Folien ja selbst zugegeben das man durch das Chiplet-Design mit höheren Latenzen zu kämpfen hat. Offenbar sind die Auswirklungen größer als gedacht.
Naja- Sie sagten, dass da etwas 10% Performance auf der Straße liegen bleiben würden. Jedoch sagten sie auch, dass das als Vorbereitung für wirtschaftlichere Karten zu sehen sei.

Ich denke ja sowieso, dass sich hier z.B. viele Raytracing- Gegner garnicht darüber im Klaren sind, dass sie durch eine Anti- Haltung letztenendes günstigere Karten mit höherer Performance verhindern.
Im Gegensatz zum Rastern skaliert nämlich Raytracing über alle Ebenen. Auch Multichip.

So wären keine hochtechnisierten bleeding- edge GPUs mit elendiglich vielen Gimmicks vonnöten.
Rein auf RT ausgelegte Karten könnten mit vielen kleinen, am Sweetspot taktenden Chiplets oder Tiles betrieben werden, ohne die üblichen Nachteile der Rasterisierung.
 
  • Gefällt mir
Reaktionen: rumpeLson, Ragnarök88, DayvanCowboy und 3 andere
.Sentinel. schrieb:
Naja- Sie sagten, dass da etwas 10% Performance auf der Straße liegen bleiben würden.
Nein sie sagten das die Latenz um 10% steigt. Wie sich das auswirkt wurde nirgends erwähnt.
 
  • Gefällt mir
Reaktionen: Rockstar85 und DevPandi
Nighteye schrieb:
Mir hat noch niemand geantwortet ob die 7900er überhaupt im Sweetspot laufen.
Danke, das ist eigentlich genau das was ich seit ein paar Tagen auch wissen möchte :-D Das würde mir bei einer Kaufentscheidung sehr weiterhelfen.
 
  • Gefällt mir
Reaktionen: Nighteye und Wintermute
ThePlayer schrieb:
Schon vergessen was Nvidia letztes oder war das vorletztes Jahr da wieder mit einem Youtuber für Schindluder getrieben hat weil sein Test sich nicht nur um RTX gedreht hat. Sondern weil er mehr auf die Rasterperformance eingegangen ist.
Es ist Nvidias gutes Recht ihre Produkte für Tests an wen auch immer zu senden oder nicht.
Und wenn jemand kaum oder gar keine Spiele mit RT testet, ist das aus Sicht des Unternehmens kontraproduktiv. Warum sollte ich meine Produkte zu jemanden schicken, der sie nicht fair bewertet?
ThePlayer schrieb:
Oder wie war das zwei Jahre davor mit diesem Nvidia Partnerprogramm wo sie alle AIBs nötigen wollten das deren Gaming Marken für Nvidia genutzt werden und sie neue Marken die keiner kennt für AMD einführen.
Nvidia wollte sich von AMD abgrenzen und unterschiedliche Bezeichnungen für AMD und Nvidia Grafikkarten.
Ich sehe das auch kritisch, aber letztendlich wäre es auch relativ egal gewesen, der Arez Brand stand für sehr hochwertige GPU.
 
Novasun schrieb:
Wirst in den entsprechenden Foren warten müssen und schauen ob wer berichtet..
Jop. Aber ich wart ja eh bis sich alle an den absurden Preisen aufgerieben haben. Und wenn es nochmal n Jahr dauert. Hab also Zeit gemütlich alles zu sichten. DCS multicore und vulkan lässt ja auch noch ein bisschen auf sich warten. Solang taugt meine alte Karte noch.
 
TKessel schrieb:
Danke, das ist eigentlich genau das was ich seit ein paar Tagen auch wissen möchte :-D Das würde mir bei einer Kaufentscheidung sehr weiterhelfen.
Das kann dir Stand heute gar keiner sagen. Vielleicht hast du es ja mitbekommen - es scheinen keinerlei Powerstates im Moment zu funktionieren...
Beispiel die Karte liefert 300FPS bei max Power. Jetzt nimmst du die selbe Stelle haust aber einen Framelimiter von 150 rein. Jetzt sollte die Karte weniger Power brauchen...
Nur die XTX zieht weiterhin volle Pulle Strom...
Aber erst mit solchen Test kann man was darüber sagen wo der Sweet Spot liegt...
Ich hab bereits gehört sie kann wohl bis 3,7 GHZ gehen bei 480 Watt... Nur bringt das bei deiner Frage wenig - weil Extrembeispiel am anderen Ende der Skala wo definitiv kein SweerSpot mehr herrscht und auch nichts mehr linear wächst/fällt..
Ergänzung ()

Wintermute schrieb:
Jop. Aber ich wart ja eh bis sich alle an den absurden Preisen aufgerieben haben. Und wenn es nochmal n Jahr dauert. Hab also Zeit gemütlich alles zu sichten. DCS multicore und vulkan lässt ja auch noch ein bisschen auf sich warten. Solang taugt meine alte Karte noch.
DCS wird Vulkan Unterstützung bekommen?
Dann sind AMD Karten aber schon ne Bank...
 
So, die 1000€ wird bald geknackt.
1671101376109.png
 
met schrieb:
Ich vergleiche Rechenleistung, Speicher und Speicherbandbreite und das was am Ende dabei raus kommt. Und selbst verständlich kann man auf dieser Grundlage auf Leistung schließen.
Nö, was du machst ist Augen zu und drauf los labern, völlig sinnbefreit von den gegebenen Fakten und haltlos der Thematik gegenüber. Aber ja, kannst Du gerne so machen, Selbstbetrug ist keine Straftat.

Ayo34 schrieb:
Was genau macht die 4080, abgesehen vom Preis, überhaupt falsch? Ich finde es gab lange kein runderes Gesamtpaket aus Leistung, Raytracingleistung, RAM, Effizienz, Kühlerdesign und Treibersupport ab Tag1. Mir fällt da maximal der Stromstecker ein.
Die Preise sind generell zu hoch für diese Grafikkarten und besonders für das was damit geboten wird.
Bedauerlicherweise sehr erfolgreich hat Nvidia die Namensgebungen/Leistungsklassen über den Haufen geschmissen und kassiert doppelt ab.
Eine echte 4080 wäre nicht basierend auf AD103 gekommen -> AD102 (z.B. mit 20GB + 320bits), das wäre eine ordentliche 4080 gewesen, die ihrem Preis auch deutlich stärker entgegen gekommen wäre.

Die Konsequenz daraus nun ist natürlich, daß der Abstand zur 4090 viel zu groß ist, das spiegelt sich aber in deren Preis (historisch gesehen) nicht wieder......warum der Kunde diesen Arschtritt dankend annimmt, keine Ahnung (naja der schleppende Verkauf der 80er Karte zeigt ja doch, daß es nicht mit Freudensprüngen gekauft wird).
Dazu kommt eine allgemeine altbackene Ausstattung, daß man dabei besser sein kann zeigt AMD ja. Ganz besonders das schwache Speicherinterface der 4080 kann jetzt schon limitieren, was Tests zeigen, wer suchet der findet.

Das völlige Fehldesign des Kühlers und die Stromstecker Thematik sind da nur Kleinigkeiten am Rande, die halt dazu kommen. Die 4080 ist weit entfernt von einem runden Paket......leider aber eben alles was man mit der neuen Generation bekommt, will man denn überhaupt noch eine Leistungssteigerung zur alten Generation.



PS: ich kann diese Aufzählung auch seitens der 7900er von AMD machen, wie gesagt bin ich von beiden insgesamt nicht 100% angetan.........das soll also kein Nvidia vs AMD werden. Beide haben ihre Problematik aber in unterschiedlichen Bereichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, baizer, danyundsahne und eine weitere Person
mospider schrieb:
Die Einführung der RX 7900 XTX & XT scheint den Verkauf der Nvidia RTX 4080 angekurbelt zu haben:
https://www.hardwaretimes.com/nvidi...the-rx-6600-is-the-most-popular-amd-card/amp/

Verwundet halt nicht. Durch die Vorbehalte bei Vielen muss AMD dieses Päckchen noch zusätzlich tragen. Das heißt die Karten müssen schon ein außerordentlich gutes P/L haben, um überhaupt in Betracht gezogen zu werden. Das haben sie mit RDNA3 aber nicht geschafft aus den bekannten Gründen - im Gegenteil.

Nv hat halt den Bonus des abgeschlagenen Marktführers.
Ergänzung ()

Gr33nHulk schrieb:
.Die Konsequenz daraus nun ist natürlich, daß der Abstand zur 4090 viel zu groß ist, das spiegelt sich aber in deren Preis nicht wieder.
Nö, die 4080 ist fast genau um den Faktor günstiger, um den sie auch langsamer ist im Vergleich zur 4090. Die eigene Produkthierarchie passt schon gut.
 
  • Gefällt mir
Reaktionen: Rockstar85
.Sentinel. schrieb:
Naja- Sie sagten, dass da etwas 10% Performance auf der Straße liegen bleiben würden. Jedoch sagten sie auch, dass das als Vorbereitung für wirtschaftlichere Karten zu sehen sei.
Nein, keine 10 % Leistung - wie schon jemand sagte - sondern dass die Lizenzen um 10 % steigen. Diese 10 % haben sie aber durch einen höheren Takt beim IF und Co kompensiert, sodass die Latenzen jetzt sogar ein Stück geringer sind als vorher.

Latenzen sind im Bereich GPU aber nur "zweitrangig" und können durch gutes Prefetching im Treiber weitgehend egalisiert werden. Das ist auch ein Grund, warum NVIDIA SER für RayTracing eingeführt hat, sodass die GPU dem Treiber melden kann, dass die Shader neu sortiert werden müssen, weil ja unterschiedliche Shader am Ende ggf. ausgeführt werden, die nicht so optimal zusammen passen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Gr33nHulk schrieb:
Eine echte 4080 wäre nicht basierend auf AD103 gekommen -> AD102 (z.B. mit 20GB + 320bits), das wäre eine ordentliche 4080 gewesen, die ihrem Preis auch deutlich stärker entgegen gekommen wäre
Du definierst also auf Grundlage von Chipgröße, Speicherausbau und Speicherinterface was eine "echte 4080 wäre". Aber wenn ich diese Daten ohne die Kartennamen zum Vergleich heranziehe dann ist das ist das "völlig sinnbefreit von den gegebenen Fakten und haltlos der Thematik gegenüber". Aha.

Gr33nHulk schrieb:
Selbstbetrug ist keine Straftat.
Den Fisch kannst du behalten.
 
.Sentinel. schrieb:
Naja- Sie sagten, dass da etwa 10% Performance (ich präzisiere auf den Einwurf weiter oben-in welcher Hinsicht auch immer die Mitforenuser beziehen sich auf die Latenz) auf der Straße liegen bleiben würden. Jedoch sagten sie auch, dass das als Vorbereitung für wirtschaftlichere Karten zu sehen sei.
Ich finde entsprechende Aussage nicht mehr und kann deshalb auf die Schnelle nichts verlinken.
 
Gr33nHulk schrieb:
Die Preise sind generell zu hoch für diese Grafikkarten und besonders für das was damit geboten wird.
Bedauerlicherweise sehr erfolgreich hat Nvidia die Namensgebungen/Leistungsklassen über den Haufen geschmissen und kassiert doppelt ab.
Eine echte 4080 wäre nicht basierend auf AD103 gekommen -> AD102 (z.B. mit 20GB + 320bits), das wäre eine ordentliche 4080 gewesen, die ihrem Preis auch deutlich stärker entgegen gekommen wäre.

Die Konsequenz daraus nun ist natürlich, daß der Abstand zur 4090 viel zu groß ist, das spiegelt sich aber in deren Preis (historisch gesehen) nicht wieder....

Das völlige Fehldesign des Kühlers und die Stromstecker Thematik sind da nur Kleinigkeiten am Rande...

Thema1:
3080: 10GB
4080: 16GB + weniger Stromverbrauch + viel bessere Effizienz + DLSS3 + 40-45% mehr Leistung

Ich gebe dir Recht, dass die 3080 im Vergleich zur 3090 viel näher dran war von der Performance und gleichzeitig bei den Kosten viel weiter weg war. Die 3080 war eine Gamerkarte, die 3090 eine Karte für Content Creator. Bei der 4080 verschwimmt das ein wenig mit den 16GB. Wenn man sich die 3080ti mit 12GB anschaut, dann war diese auch viel zu teuer.

Ich würde eher sagen, dass die 4090 in 4k Games 30% mehr leistet, dafür aber auch 40% mehr kostet. Dafür kann man auch deutlich mehr mit der 4080 machen als mit der 3080. Zusätzlich wird die 4080 wegen den 16GB auch besser altern. In 4k + Raytracing limtieren häufiger schon die 10GB der 3080.

Thema2:
Völliges Fehldesign der Kühler? Wenn die Karte in das Gehäuse passt, dann ist das Kühldesign fantastisch! Es macht leider nur die Karten noch teurer. Wie gesagt, über 100 Watt passiv abführen ist schon geil und das die Karten bei max. Leistung auch nicht über 70° erreichen ebenfalls. Nötig wäre es nicht, aber ich sehe es eher positiv und nicht negativ. Mit dem Stromstecker habe ich einfach den BeQuiet Adapter gekauft. 1 Stecker von Netzteil zu Grafikkarte und aufgepasst beim draufmachen. Aber ja, hätte man besser konstruieren müssen.

-> Ich hätte die 4080 bei 1199€ gesehen und eine mögliche 4080ti dann bei 1499€. Aber der Preis wird sicherlich noch fallen in den nächsten Monaten nach Weihnachten. Vielleicht wird auch der € Preis noch besser zum Dollar.
 
met schrieb:
Besonders bitter wird es wenn man die XT (nicht XTX) mit der 4080 vergleicht. Auf dem Papier sprechen alle Werte für AMD: Mehr Transistoren, mehr Rechenleistung, mehr Speicher und mehr Speicherbandbreite.

Da der Treiber alleine für solch eklatante Unterschiede nicht verantwortlich sein kann muss man darauf schließen das die Unterschiede im Design liegen. Und da ist der Primäre Unterschied das Chiplet-Design. Scheint wohl noch arge Kinderkrankheiten zu geben.
Naja wo glaubst du gehen die Transistorzahl: für den großen Cache MCD. Für die GPU allein sind zum Vergleich zur 4080 ist die Transistorzahl wesentlichen geringer. Zudem hat die 4080 über 50% 32Alu! Mehr Speicher und Speicherbandbreite sind Geschwindigkeit und Verfügbarkeit in 4K weniger relevant aber ab 5K macht es schon einen großen Unterschied!

Was mir auffällt das praktisch nur AMD den N5 vom TSMC benutzt während andere nur Customs verwendeten. Natürlich ist N5 effizienter als N7P, aber irgendwie kommt mir vor der Node krankt ein bisschen bei höherem Takt mit der Effizienz.
 
  • Gefällt mir
Reaktionen: Eld0r und Rockstar85
met schrieb:
Du definierst also auf Grundlage von Chipgröße, Speicherausbau und Speicherinterface was eine "echte 4080 wäre".
Nein, eine 4080 basierend auf AD102 unabhängig vom Speicher + SI wäre ebenso historisch gesehen eine "echtere" 4080......daher gab ich beim Rest nur ein Beispiel an und schrieb davon was Nvidia eben mit diesen Leistungsklassen getan hat.

Das hat auch überhaupt keine Parallelen zu AMDs beiden 7900er Karten, welche beide auf Navi31 basieren und deinen bescheuerten Aussagen. War mein letzter Beitrag dazu, komplett neben der Spur......bringt Null.


Ayo34 schrieb:
-> Ich hätte die 4080 bei 1199€ gesehen und eine mögliche 4080ti dann bei 1499€. Aber der Preis wird sicherlich noch fallen in den nächsten Monaten nach Weihnachten. Vielleicht wird auch der € Preis noch besser zum Dollar.
Damit hätte man schon eher zufrieden sein können, wenn ich auch noch 200€ runter gehen würde. Ich glaube allerdings nicht daran, daß nächstes Jahr die ganze Sache günstiger wird, zumindest nicht im Q1.
Auch wenn ich nicht verstehen kann wie man solche Preis als Kunde unterstützt........so kann ich doch verstehen wenn man sich einfach irgendwann eine kauft.......paradox ;).
 
Fegr8 schrieb:
Naja wo glaubst du gehen die Transistorzahl: für den großen Cache MCD. Für die GPU allein sind zum Vergleich zur 4080 ist die Transistorzahl wesentlichen geringer. Zudem hat die 4080 über 50% 32Alu! Mehr Speicher und Speicherbandbreite sind Geschwindigkeit und Verfügbarkeit in 4K weniger relevant aber ab 5K macht es schon einen großen Unterschied!

Das stimmt zwar aber das war auch bei RDNA2 vs Ampere bereits der Fall. Das was Nvidia jetzt anders macht ist wie AMD einen größeren Cache zu verbauen 72 MB auf AD102 und 64 MB auf AD103. Quasi das Pendant zum Infinity Cache. Beide auf dem Monolith.

Fegr8 schrieb:
Was mir auffällt das praktisch nur AMD den N5 vom TSMC benutzt während andere nur Customs verwendeten. Natürlich ist N5 effizienter als N7P, aber irgendwie kommt mir vor der Node krankt ein bisschen bei höherem Takt mit der Effizienz.

Das ist ein guter Punkt. AMD hat eventuell am falschen Node gespart. Andererseits ist N4 auch nur ein verbesserter N5. So riesig sollte der Unterschied eigentlich nicht sein.
Ergänzung ()

Gr33nHulk schrieb:
Das hat auch überhaupt keine Parallelen zu AMDs beiden 7900er Karten, welche beide auf Navi31 basieren und deinen bescheuerten Aussagen. War mein letzter Beitrag dazu, komplett neben der Spur......bringt Null.
Stimmt, ich vergaß. AMD Karten haben solche Dinge wie Transistoren, Speicherinterface und Co ja nicht :-)
 
Zer0Strat schrieb:
Das Stepping Gate ist heute Nacht viral gegangen auf Social Media. Bald werden das VideoCardz, Wccftech und vielleicht THW aufgreifen.

AMD ist dabei, in eine sehr sehr ungemütliche Situation reinzuschliddern. Am Ende wird das dazu führen, dass die ohnehin geringe Nachfrage nach Radeons noch weiter fällt und Nvidia gnadenlos die Preise weiter anzieht.
tja das ding jetzt vom Markt nehmen wäre die einzige sinnvolle Lösung aber dann wirds frühestens ende 1H 2023 die neue überarbeitet Gen geben ^^
 
  • Gefällt mir
Reaktionen: CrustiCroc
Zurück
Oben