Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Gerithos schrieb:
Uff, immer diese Mythen. Kein Mensch weiss Kb nvidia es besser machen wird als amd.
Mythos oder Empirie?

Der Marktanteil von NV ist deswegen so hoch, weil sie seit, sagen wir mal, 10 Jahren regelmässig ein schnelles und stabiles Produkt bringen, das aus dem Karton heraus direkt funktioniert.

Bei AMD gibt es eine Historie schlecht designter Karten, die einfach nicht stimmig waren oder von Anfang an einfach nicht die richtige Leistung gebracht haben. Da kann man den HBM-Irrweg nehmen, der in lustigen 4GB Speicher auf der Fury gipfelte, verhunzte Karten, die viel zu laut und heiss waren trotz Riesenspeicher wie die Radeon VII, das Polaris Designdebakel, wo man 150W rausposaunt hat und nachher eine versoffene Krücke rausgebracht hat, die erst 2 Jahre und x-Modifikationen später geliefert hat, die lustigen Dual-Chip Designs mit +500W, die lustigen Föhndesigns bei 5870 usw.... und jetzt eben Chiplet und unsaubere Umsetzung der doppelten Shaderleistung. Sie können es ganz gut, aber eben nie perfekt und wirklich rund.

Ohne die TSMC-Vorteil wäre NV auch bei der letzten Generation signifikant stärker gewesen, so war es eben ein schönes aufflackern in der GPU Historie, wo AMD mal wirklich - wahrscheinlich zum letzten Mal - voll konkurrenzfähig war.
Haben noch einen ganzen Stapel 6800er hier rumliegen, die habe ich gekauft wie verrrückt - stabil, grosser Speicher, geile Designs - einfach gut. Aber das kommt dann eben in der Spitze und der Breite der Produktpalette so schnell nicht wieder.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, Innocience, CiX und 4 andere
DerRico schrieb:
? Du bekommst doch heute mehr Leistung für 500€ als bei einer 2070? Inflationsbereinigt sind das 600€, da gibt es eine massiv schnellere 3070.

Ich brauche mehr als 8GB VRAM sonst ist es kein sinvolles Upgrade für mich.

Und ich schreibe explizit von Preis/Leistung. Eine 3070 100€ über UPV (die guten Customs kosten eher noch mehr 650€+) hat keine gute Preis/ Leistung......

(Die 3070 ist ~37% schneller als die 2070 SUPER. Ich hab 500€ gezahlt, also wären 685€ die gleiche P/L, Frame/Euro, das kosten die guten Customs immer noch ungefähr. Schöner Fortschritt!)

Aber schönes Beispiel von sich die Situation schön reden. ^^
 
  • Gefällt mir
Reaktionen: McTheRipper, paulemannsen und DerRico
Gerithos schrieb:
Das die Preise eine Frechheit sind glaube ich nuss man keinem sagen, vor allem die 3080 ist absurd eingepreist, da leg ich doch lieber 200 eur drauf und hab extrem viel mehr Leistung mit der 4080
und schon haben sie dich :) - anstatt ein festes Budget zu definieren und zu warten, legt man lieber nochmals etwas drauf. Darf natürlich jeder machen wie er möchte.
DerRico schrieb:
? Du bekommst doch heute mehr Leistung für 500€ als bei einer 2070? Inflationsbereinigt sind das 600€, da gibt es eine massiv schnellere 3070.
für dieses Geld kriegst du eine RX6800 XT (+- 650, war auch schon unter 600) - schneller als eine 3070ti
 
  • Gefällt mir
Reaktionen: McTheRipper und Rambo5018
Al
Pltk schrieb:
Die ~100 Watt Verbrauch im kompletten Idle mit einem 144 Hz Monitor gehen mal gar nicht. Wollte mir morgen die RX 7900 XTX direkt von AMD kaufen, aber so sicherlich nicht, wenn die beim Nichtstun permanent 100 Watt verbrät und dadurch auch die Lüfter immer laufen lässt.

So sehe ich das auch. Das ist doch auch nicht das erste Mal, dass die AMD Karten so viel im YT verbraten. Und hier stellt sich mir eine Frage.
Es wird ja oft geschrieben, man hofft, dass das per Treiber behoben wird. Aber seien wir mal ehrlich, wurde das bei den anderen Karten per Treiber behoben? Deswegen würde ich erstmal die Finger von den 2 Grakas lassen.
-------------------

Und zu den Preisen? Ü1000/ 2000€. Ja, einfach nur gaga. Aber mal so unter uns. Wer zwingt den die Spieler in 2k/ 4K zu spielen?
Keiner! Spielt einfach in FullHD, Karten sind noch bezahlbar, die CPU/ GPU wird eingebremst und undervoltet und schon hat man einen leisen, stromsparenden spieltauglichen Rechner! Tadaaa! ;) :cool_alt:
 
Plastikman schrieb:
Dann bei der Effizienz meckern. Videospeicher braucht halt Strom, AMD wird am Ende dafür bestraft, dass Sie mehr verbauen, weil man auf der Effizienz rumhackt. Verstehe ich nicht 💁‍♂️
Der V-ram Ausbau hat nur sehr geringe Auswirkungen auf die Leistungsaufnahme.
Siehe Titan RTX 24GB vs. 2080Ti zum Beispiel. Oder ARC 16GB vs ARC 8GB.
 
  • Gefällt mir
Reaktionen: Apacon und rumpeLson
xexex schrieb:
Featureset fertig
DLSS3 wirkt für dich fertig? :freak:
Ergänzung ()

xexex schrieb:
Da muss man schon sehr viel Affinität der Firma gegenüber zeigen oder politische Entscheidungen treffen, um sich für eine der getesteten Karten zu entscheiden.
same bei NVIDIA! wenn man bedenkt das man ein Produkt kauft, was ganz klar überteuert ist. Stand jetzt macht man beim Kauf nur NV und die Händler glücklich. Wie einseitig die denke... nicht mal beim schreiben der Worte drüber nachgedacht? ist echt so mies lächerlich! der ignore Button wird immer attraktiver! so einen einseitigen Stuss hier immer wieder zu lesen.
Ergänzung ()

xexex schrieb:
deren Leistung konstant und die Treiber
auch zu recht gelegt! wenn das stimmen würde, gäbe es keine ausreißer nach unten. Die Leistung um immer über AMD zu stehen ist ja definitiv da. Aber der Treiber verhindert das offenbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Geringverdiener, Rambo5018 und Slayn
Shoryuken94 schrieb:
Die Leistungsaufnahme der 7900XTX ist deutlich höher, als die der 4080. Bei Igor z.B. 30% über alle Gamingtests hinweg.
Nun ja war ja bei 6900XT vs 3090 auch so. 3090 mehr verbraucht als die 6900XT bei ca. gleicher Leistung. Hat doch auch keinen interessiert der Mehrverbrauch der 3090. War zwar viell nicht ganz so groß der Unterschied wie hier aber es wurde dann doch immer wieder relativiert.

Unabhängig davon sollte man das was AMD hier mit geringeren Mitteln und Manpower immer noch leistet etwas mehr würdigen. Nicht perfekt aber von Unbrauchbar weit entfernt.

Meine Sorge ist halt das sich AMD irgendwann mal denkt dass das ganze sich nicht mehr lohnt und sich aus dem GPU Geschäft verabschiedet. Was dann wahrscheinlich passiert, naja, kann man sich ja denken.

Damit möchte ich nicht sagen das alle jetzt AMD huldige sollen oder nur noch AMD kaufen. AMD ist auch kein Samariter.
Aber was mache hier von sich geben. Das schlimmste was ich bisher gelesen habe war " das gleiche wie bei VEGA totaler Fail diese Generation".
 
  • Gefällt mir
Reaktionen: Sittich01, McTheRipper, rumpeLson und eine weitere Person
Meine Meinung zu RX7900XT (XTX), joa, sind dann doch nicht so geworden wie man es sich gewünscht hätte. Die Effizienz ist in meinen Augen grausig, obschon die Rohleistung grundsätzlich schon ganz gut ist. Eigentlich hätte ich gehofft das man mit RDNA2 schön skalieren kann zur RDNA3, aber dem ist offenbar nicht so und AMD hat leider mal wieder mehr oder weniger nen Rohrkrepierer an den Start gebracht.
Joa, ist doch klar was passiert ist.
AMD musste die Effizienz in Teilen opfern, sonst wären die Balken noch mal 10-15% schlechter.

Das letzte Stück Leistung kostet immer massiv Effizienz.

AMD hat es verkackt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pipip, MrHeisenberg und DeadEternity
Bengart schrieb:
AMD hat gleiche Leistung zu weniger Preis. Nee, das Gesamtpaket ist ja viel besser bei NV.
Haben sie halt einfach nicht. Raster ist ~ pari und RT ist Nvidia 20 bis 30% voraus.
Das sind die objektiven Fakten.

Bengart schrieb:
Die Kunden haben es in der Hand und nutzen ihre Möglichkeiten nicht. Der Erretter kommt nicht von selber. Außerdem sitzen die am längeren Hebel und lassen die Kunden am langen Arm verhungern.
Die Kunden kaufen meist das bessere Angebot und das ist rein objektiv gesehen die RTX 4080 wenn man Featureset, Verbrauch und RT mit in die Wagschaale wirft.
Wer nur auf Raster setzt (die wenigsten im High End), kommt mit der Radeon momentan ein 15% besseres PLV.
Aber das sind alles Einzelfälle.

Aber eines muss man positiv erwähnen:
Es gab bisher noch keinen kindischen Lederjacken-Spruch.:lol:
 
  • Gefällt mir
Reaktionen: MrHeisenberg
xexex schrieb:
So oder so ähnlich wird es abgelaufen sein, AMD hat sich mit den Karten völlig verschätzt. Ob es womöglich daran lag, dass Ada laut der Gerüchteküche ursprünglich weiter bei Samsung vom Band laufen sollte und man sich alleine auf den Vorteil der TSMC Fertigung verlassen hat? Wir werden es vermutlich nie erfahren.
Ob das so Vergleichbar ist ?
Die RX 480 war damals eine gute, stabile Mittelklassekarte mit gutem Preisleistungsverhältnis . AMD hat damals diese Überschreitung der PCI-Express-Watt-Spezifikation ja auch sofort als Problem anerkannt und relativ schnell ein Treiber nachgeschoben der die Überlastung umleitete ohne spürbare Performanceverluste. Sie hätten es aber auch bleiben lassen können. Eine Gefahr das irgendwas abraucht bestand nie. Ich hatte die Karte selbst und war Jahrelang zufrieden sonst hätte ich die RX 6600 XT auch nicht als Nachfolger gekauft.
Bei diesen 2 Karten hier sagt AMD das dieser hohe Wattverbrauch bei 144 HZ absichtlich ist um einen stabilen Betrieb zu gewährleisten. Ich, der nicht so in der Materie stecke kann das nicht nachvollziehen ? Meine 6600 XT zeigt bei 165 HZ WQHD nicht so ein Verhalten beim Idlezustand. Da gibt es eher ein Problem mit dem PCI Express Energiesparplan aber das ist eine andere Geschichte und aufgrund eines Bocks von Asrock geschuldet.,
 
AMD die FP32-Einheiten nun als „Dual-Issue“ ausgelegt. Sie können also zwei Rechenaufgaben zur selben Zeit durchführen. Theoretisch wird damit die Rechenleistung verdoppelt...
.... Der Treiber-Compiler kann schließlich nur bestimmte Befehle zusammenlegen, die dann schneller berechnet werden können. Ist dies dagegen nicht möglich, werden quasi nur 6.144 FP32-ALUs genutzt. Nun ist es die Aufgabe des Treiber-Compilers, möglichst viele Befehle Dual-Issue-tauglich zu machen – und deswegen spricht AMD auch davon, dass in Zukunft mehr Programme doppelt so schnell ausgeführt werden als aktuell.


Was bedeutet das? Können wir z.B. bei bestimmten Games (Anwendungen) womöglich mit Leistungssteigerungen in Zukunft rechnen?




Viele Grüße,
stolpi
 
Enyo79 schrieb:
Wo sind denn die 7900 Karten ineffizient?? Die Effizienz ist im Vergleich zum Vorgänger gestiegen. Nur im Vergleich zu den 4000er Karten sind sie nicht ganz so effizient. Aber von ineffizient zu sprechen ist lächerlich.
Es kommt drauf an wie man misst...
1670927680679.png


Angepriesen wurde die kommende RDNA Generation hingegen mit:
AMD claims RDNA 3 will offer an “estimated >50 percent better performance per watt than AMD RDNA 2 architecture.” As we've noted before, that's likely more of a best-case scenario rather than a universal 50% improvement that you might see when comparing any two GPUs.
Das war aber scheinbar bevor man sich dazu entschlossen hat sie bis zur Kotzgrenze zu übertakten und die Effizienz hinten dran fallen zu lassen. Selbst mit optimistischen Messungen sehe ich jedenfalls keine "50% improvements".
 
  • Gefällt mir
Reaktionen: McTheRipper, Geringverdiener, orioon und 3 andere
Benji18 schrieb:
egal ob 4080 od. 7900 mit und ohne dritten x sind overpriced thats it in einen Funktionierenden Markt wären das GPUs im Preisbereich von 600€ ...
Sehe ich auch so, bei der 4080 würde ich sogar noch 800€ gelten lassen, auf Grund der effizienten Leistung.
Laphonso schrieb:
Gewonnen?
Gibt eher Verlierer.
Gamer, die nicht das High End Budget haben oder ausgeben wollen, die haben verloren.
Jepp, alles hat seine Grenzen und die werden von beiden Herstellern weit überschritten.

Die dummen sind die Gamer.
Aber sie sind es zum Teil auch selbst Schuld, in dem sie die überzogenen Preise, während der Minung Phase, gezahlt haben.
Das hat beiden Herstellern doch nur gezeigt, dass sie die Preise verlangen können und sie dann auch gezahlt werden.
Ok, die 4080 verkaufte sich bisher nicht so gut, aber das wird sich jetzt vielleicht ändern, wer weiß....
Aber ansich hat nVidia keinen Grund dafür, den Preis der 4080 zu senken, da die 4080 das bessere Rundumpaket liefert.

Es bleibbt nur die Hoffnung, dass AMD schnell den Hebel findet und mehr Performance aus den Karten kitzelt und bessere Effizienz.
 
  • Gefällt mir
Reaktionen: Benji18
Pltk schrieb:
gehen mal gar nicht
sicherlich. aber was bringt es (DIR) da jetzt soooo drauf rum zu reiten? wird gefixxt und gut. War ja schön des Öfteren ein Problem.

Wenn es dir nur darum geht auch mal rum zu meckern. Vielleicht NV dein favorisierter GPU Hersteller ist... Deine persönliche Meinung einfach wichtig ist. Puh dann verstehe ich das natürlich. Kein Ding.
 
Ragnarök88 schrieb:
Haben sie halt einfach nicht. Raster ist ~ pari und RT ist Nvidia 20 bis 30% voraus.
Das sind die objektiven Fakten.
Dazu kommt noch FG von DLSS3, was die FPS einfach mal verdoppelt. Dem hat AMD aktuell nichts entgegenzusetzen.

xexex schrieb:
Angepriesen wurde die kommende RDNA Generation hingegen mit:
Genau das hat man aber doch bekommen? AMDs Folie besagten, dass RDNA3 50% schneller bei gleichem Verbrauch, also 300W, ist. Dazu kommt dann noch mehr Takt und die höhere TDP. Sollte doch jedem klargewesen sein, dass man die 50% Effizienzgain nicht bei 350W+ sehen wird.

Ich hab das damals schon gesagt:
https://www.computerbase.de/forum/t...nder-stromkabel.2109659/page-19#post-27439020
 
Zurück
Oben