Test Grafikkarten-Generationen im Test: Radeon RX Vega 56, 5700 XT, 6700 XT & 7800 XT im Vergleich

Pontus schrieb:
Mich würde es mal interessieren, woher du diese Bezeichnungen für die Chips herhast. Kategoriert AMD die Chips selber so?
Die kannst du eigentlich jedem CB Artikel über neue AMD Karten entnehmen.

Ansonsten gibts die Chips mitsamt Auflistung der Karten, die ihn Nutzen, alle bei TPU zu finden, hier z.B. für Navi31
https://www.techpowerup.com/gpu-specs/amd-navi-31.g998
 
  • Gefällt mir
Reaktionen: SweetOhm und Rockstar85
Danke für den Test denn jetzt kann ich meine alte Vega56 endlich mal gut mit den neueren Karten vergleichen und da ich gerade nach einer 7800XT schaue, aber mir auch die Frage gestellt habe ob eine Karte tiefer nicht auch reicht kam der Test zur perfekten Zeit.
Ich spiele eigentlich kaum noch und die Vega hat keine 8 Spiele gesehen (direkt nach Erscheinen gekauft) und somit ist es mehr die Option mal spielen zu können und der Bock auf eine neue Karte die mich überhaupt überlegen lassen. Naja aber der Test sagt auch das ich eigentlich noch warten könnten wenn ich diesen Winter nicht wieder richtig mit dem Zocken beginnen will. Schwierig.... ;-)
 
  • Gefällt mir
Reaktionen: Redundanz, Millennial_24K, SweetOhm und eine weitere Person
Pontus schrieb:
@maximus_hertus

Mich würde es mal interessieren, woher du diese Bezeichnungen für die Chips herhast. Kategoriert AMD die Chips selber so?
Ja...
Navi 22:
Navi 22 XT (215-127000006)
https://www.techpowerup.com/gpu-specs/amd-navi-22.g951

Navi 32:
Navi 32 XT (215-180000006)
https://www.techpowerup.com/gpu-specs/amd-navi-32.g1000

kann man so bei AMD auf den Chips sogar ablesen..

Quellen hab ich beigefügt..
Du kannst da auch alle IDs der bekannten Salvage einsehen.
Genau daran messe ich also auch die Generationen.
 
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
Warum sollte es auch nicht drin sein, wenn denen ihre Rohstoffe Gehälter etc mit der Inflation ansteigen können die nicht sagen "ok wir verkaufen ne bessere Karte fuer gleich viel Nominal" wir hatten davor zu viel Gewinn...
Das ist für mich grundsätzlich in Ordnung, auch wenn es mal Zeiten gab, in denen das anders war. Aber das ist mittlerweile lange her. Mir ist nur die Tatsache wichtig, dass diese Rechtfertigung globale Gültigkeit hat.

Cl4whammer! schrieb:
m Forum unendlich übertakten und gleichzeitig undervolten kann
Unendlich natürlich nicht. Aber da ging - mit viel Geduld - wirklich viel. Mit dem OverdriveNTool konnte ich unter Witcher 3 die Leistungsaufnahme um fast 40-50 W ohne relevanten "Einbruch" drücken. Gerade auch der HBM hatte viel Potential.
Im Gegensatz zu RDNA3 war halt alles grundsätzlich noch offen, auch das Powertarget. Die PowerTables wurden auch noch in der Registry abgelegt und waren damit "offen" zugänglich (sofern ich mich korrekt erinnere).
Die 56er RedDevil war schon ein feines Kärtchen (wobei ich nicht zum Tiefstpreis gekauft hatte) zum Spielen. GPGPU et al. war hingegen eher ein Trauerspiel.
 
Zuletzt bearbeitet: (Formulierung)
Test kam für mich genau richtig besonders mit der 7800xt für RDNA3 (wer holt sich eine 7700xt bei 50€ Unterschied !?). Jedenfalls mein 3,5 Jahre altes System 3600 + 5700xt zuerst auf einen 5800x3d gehievt und natürlich Dank GPU-Limit was ich vorher wusste, trotzdem schon über die ausgegebenen 280€ geärgert. Letzte Woche zog dann endlich die 7800xt Hellhound SW dazu und ich bekomme seit dem das Grinsen nicht mehr aus dem Gesicht. Oh Boy !
 
  • Gefällt mir
Reaktionen: Shadow86, Krazee, SweetOhm und eine weitere Person
DJKno schrieb:
Vega 56 und RX5700 hatte ich ebenfalls.
Die 56 hab ich schnell wieder verkauft. Zu der Zeit hatte ich massive Probleme mit Treiber und Software.
Meine 5700 non XT ist mir nach einem Jahr abgeraucht und war komplett tot.
War dann zwischenzeitlich bei RTX2070 und 3080.
Jetzt mit der 6950XT wieder AMD und bisher sehr zufrieden.
Was machst du? So viel Pech kann man eigentlich nicht haben....
 
  • Gefällt mir
Reaktionen: SweetOhm
Ach ja.

Wie wichtig der Compiler für VLIW ist, hat Intel beim Itanium gesehen.
Ich habe die Bedeutung des Compilers allerdings auch noch mit GCN 1.0 erlebt. ^^
Meine HD 7870 und Blender Cycles wurden niemals Freunde, da der Compiler immer gecrashed ist.
 
  • Gefällt mir
Reaktionen: Slainer
Wolwend_the_Orc schrieb:
Was machst du? So viel Pech kann man eigentlich nicht haben....
Er hatte doch im Grunde nur einmal Pech mit ner Karte die kaputt gegangen ist nach einem Jahr.
Treiberprobleme zur Zeit der Vega56 hatten allgemein sehr viele
 
Aktuell habe ich im Drittrechner meine 3. Vega 56 😁

Die 1. während des Mining-Booms für den fast 4fachen Preis verkauft.
Die 2. wurde mir aus meinem Bastelkeller geklaut.

Tolle Karte, bin immer noch zufrieden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz und SweetOhm
rocka81 schrieb:
Hab meine Vega56 noch im Schrank. Konnte mich nach Anschaffung meiner 6800XT nicht von ihr trennen. War ne gute Karte die mit der Zeit durch bessere Treiber gut gereift ist. Anfänglich auf 1070 Niveau, später eher in 1080 Region, vor allem mit vega64 BIOS. Da war mit UV und OC noch einiges rauszuholen.
Jup hab meine 1080 ti gegen eine 56 pulse damals ausgetauscht, lief mit 1600 mhz bei 0.95v, war wohl eine perle, weit weg von der 1080 ti war die da nicht mehr, ca 25% langsamer



https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html
 
  • Gefällt mir
Reaktionen: Redundanz und SweetOhm
Wolwend_the_Orc schrieb:
Was machst du? So viel Pech kann man eigentlich nicht haben....
Wie meinst du das. Die 5700XT war in all den Jahren die einzige Karte die mir jemals abgeraucht ist. Und das waren viele.
GF2 GTS, FX5200, 9600pro, 9800pro, 6800GT, X1800XT, X1950pro, 8800GTS, GTX260, GTX470, GTX560, GTX660, GTX770, GTX980, Vega 56,....
 
  • Gefällt mir
Reaktionen: SweetOhm
Hm, ich sags nicht gerne, ich wünsche mir breite Konkurrenz, schon wegen der Preise,
also grade stand jetzt, habe ich mir so mal der Tagee gdacht, eigentlich kann ich garkeine andere Karte als eine von nvidia nehmen.

Und es gibt einen Grund: DLSS. Es ist doch leider so, das das ziemlich entscheidend ist. Und es wirklich Vorteile bringt. Es ist kein Marketing, es ist Bestandteil. Es wird auch nicht mehr verschwinden.
 
Chesterfield schrieb:
Immer noch ausreichend und gut. Selbst eine Fury X ist heute noch für Full HD AAA Titel tauglich.
Nachdem ich meine Fury X damals noch für gutes Geld an einen mining-Vogel verkloppt habe weil ihr schon für PUBG der RAM ausging - auch wenn die Speicherverwaltung effizienter war als zum Beispiel bei meiner Titan - würde ich dem ein sehr breites "najaaaa" entgegensetzen.

Technisch betrachtet war Fiji (und der Kühler) damals ein Erlebnis. Eigentlich waren meine OC-Ambitionen damals schon sehr seicht geworden, aber Fiji hat mich doch noch mal wachgerüttelt und forciert dass ich mit Interesse alle Details ausgelotet habe, sei es welche Art von Last ihr liegt (aka "Spieleinstellungen") wie auch OC & UV en Detail. Gerade HBM bot damals viele interessante Momente.

Fiji war eine Diva. Sie forderte viel Zeit und Hingabe, aber dafür war keine andere wie sie.

Rückblickend interessant zu sehen wie AMD in jeder einzelnen Generation Technologien erprobte welche sie jetzt auf den MI300-Karten zusammen geführt haben.
 
  • Gefällt mir
Reaktionen: Shadow86, SweetOhm, Tanzmusikus und eine weitere Person
ComputerJunge schrieb:
Mir ist nur die Tatsache wichtig, dass diese Rechtfertigung globale Gültigkeit hat.
Ich denke das das bei Nvidia in dem Sinne schwieriger ist, weil für viele Menschen Raytracing nicht so wichtig ist, und wenn man RT außen vor lässt ist deren Preis/Leistungsentwicklung zweifelsfrei deutlich schlechter als bei AMD.

Ich meine die meisten plagen sich bei Titeln wo RT Sinn macht also 1st Person games damit das sie bei >1080p Probleme haben bei maximalen Settings ohne RT eben >60fps minimal haben. Vielleicht nicht bei allen Spielen aber bei vielen, weil die meisten sich eben keine 4090 oder selbst 4080 kaufen werden.

Und solange das Problem nicht gelöst ist, ist RT eben eine Luxusspielerei, auch kann man wenigen Leuten erklären das sie für reine Softwarefeatures wie DLSS oder gar Framegen das nur hilft wenn man eh schon viele FPS hat für low fps bringt das ja nichts, es ihnen nutzt, klar wenn man Haufen Geld hat oder bereit ist für das Hobby aus zu geben bietet die 4090 ein rundes Produkt, aber die Musik spielt nunmal bei den meisten zwischen 4060 und 4070ti (oder darunter / älter).

Was sicher auch nicht hilft ist das Nvidia zuerst ihre 8gb 4060 ti mit 16gb variante mit extrem hohem Aufpreis flankiert und schrottiger 128bit bitrate. fuer 500 USD wenn die 7700 xt fuer 450 USD raus kam mit 192bit Bus und 288 GB/s vs 430 GB/s. Und wenn man jetzt mit den Super Karten quasi eingesteht das man zu sehr am Ram gespart hat, diesen aus meiner Sicht blamablen Schritt muss AMD nicht gehen.

Kannst sagen aber die rx 7600 hat doch auch nur 8gb und 128bit, aber bei 90% Preis verkrafte ich solch ein Problem noch eher bzw selbst bei der 4060 verkraftet man das noch eher aber bei ner 4060ti 8gb fuer 400 USD oder 4060ti 16gb verkraftet ist das ne bitterere Pille zu schlucken.

Mag bias sein und bin nicht gut genug die Vorteile von Nvidia gut an zu preisen, bin sicher irgendwie ein bisschen Unfair aber es ist halt was anderen mit Inflation zu argumentieren was man ja auch an den Gewinnen sieht das Nvidia nicht nur ihre gestiegenen Kosten weiter gibt und wie gesagt man sehr wohl einfach auch direkt den Karten mehr Ram haette einbauen koennen ohne Probleme statt nochmal mit der Super extra ab zu kassieren.

Die Preise stark inflationieren ABER dann an Hardwarebauteilen sparen beisst sich auch wenn man mit Softwaretricksereien das teilweise wieder ausgleichen kann, das ist mal meine Meinung, aber mir gings auch nicht so sehr um den Vergleich mit Nvidia sondern ob man die Karten vergleichen kann.
 
  • Gefällt mir
Reaktionen: Shadow86 und SweetOhm
Inflationsbereinigt sind die Karten nicht einmal viel teurer geworden.
Vega 56 kostete vor 6 Jahren rund 400€, eine 7800 xt finde ich aktuell für 537€.
Laut dem Inflationsrechner den ich gefunden haben wären die 400€ von damals heute 497€.
Also ja, 10% teurer, aber 3 Mal so schnell.
Nice!
 
  • Gefällt mir
Reaktionen: blackiwid und Shadow86
DevPandi schrieb:
Wie viele FPS liefert eine Radeon RX Vega 56 in Cyberpunk 2077 – und reicht das zum Spielen? Wie viel mehr FPS liefert eine 7800 XT in Anno 1800 und anderen Spielen mit Langzeitmotivation? In diesem Vergleich sieht sich ComputerBase die Veränderungen der GPU-Architektur seit Vega an und ermittelt die Leistung in zehn Games.

Zum Test: Grafikkarten-Generationen im Test: Radeon RX Vega 56, 5700 XT, 6700 XT & 7800 XT im Vergleich


Moin

Kommafehler oder hat die Vega wirklich nur:
Speicherdurchsatz1,6 Gbps
laut Tabelle?



Viele Grüße,
stolpi
 
@DevPandi :

Top Test! Grosse klasse. Hat sehr viel Spaß gemacht ihn zu lesen, war sehr informativ und interessant. Gerne mehr davon! Vllt. muss meine gute alte Vega64 doch mal in Rente...
 
  • Gefällt mir
Reaktionen: Millennial_24K und SweetOhm
@DevPandi
Das soll kein ausführlicher Deep Dive werden, doch die Unterschiede erklären.
Ich würde den Satz mit "jedoch" (statt nur "doch") ein bisschen besser verstehen.



Ansonsten habe ich mich über die technischen Details im Artikel über die GPU-Architekturen gefreut. 🤩
Ein großes Dankeschön! dafür. 😊👍

Als 4. GPU wäre eine RX 7700 XT wahrscheinlich passender gewesen (aber vermutlich nicht verfügbar ;)).



Mit meiner RX 5700 XT kann ich noch immer alle meine Spiele performant (@ UWFHD / 2560x1080) spielen.
Nicht immer mit "Ultra"-Details, aber die allermeisten meiner Spiele mindestens mit "High".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben