Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

@Mitesser Der entscheidende Punkt ist aber, dass man sich so eine Karte nicht nur für aktuelle Spiele kauft, sondern auch wenigstens für das was die nächsten 1-2 Jahre kommt, evtl. gar länger. Und dort ist absehbar, dass 6GB eine Bremse sein könnten. Mal ganz davon abgesehen, dass man das mit Mods auch heute schon vollkriegt, bzw. zum Flaschenhals machen kann.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Taxxor schrieb:
Es gibt sogar eins direkt hier im Test
Jo, 40/41fps =/= 60fps.
Nicht mal die 5700 schafft 60fps(wohoo 8GB...moment mal...). In FHD wohl gemerkt.
Wenn man nun also 60fps haben will muss man ohnehin Details zurückdrehen. Einfach weil nicht der VRAM begrenzt sondern die GPU schlicht zu schwach ist.

Nochmal: Welches Spiel füllt 6GB VRAM bevor die GPU die 60fps nicht mehr packt?
 
@MaverickM Ich haette jetzt dagegen gehalten, aber die Preise sind wirklich absurd. Ich dachte in Oesterreich waeren die Preise weiter auseinander aber man hat einen Unterschied von €50 zw 5600 xt und 5700. €50 ist €50 aber da koennte man ein Auge zudruecken.
Ich frage mich ob das Mining Fiasko AMD teilweise zugesetzt hat und ob die mehr Produktion in Auftrag gegeben haben als im Endeffekt notwendig. rx 580 wurden ja fuer €400-500 2017/2018 verkauft.
 
Ich glaube eher, dass AMD keinen Bock mehr hat die Karten unter Wert bzw. vergünstigt abzugeben, und trotzdem nicht signifikant mehr zu verkaufen bzw. Marktanteile zu gewinnen. Statt dessen verkauft man halt das was man absetzen kann zu einem ordentlichen Preis und nimmt das Geld für die weitere Entwicklung mit.

Wie gesagt, ich sehe den Preis der Karten an sich (Bezogen auf das gesamte Portfolio und die Positionierung zur Konkurrenz) als durchaus angemessen an, was man dafür kriegt. Soll AMD ruhig gut dran verdienen, letztendlich haben wir Endkunden langfristig mehr davon, wenn es zwei Spieler am Markt gibt.
 
  • Gefällt mir
Reaktionen: VoAlgdH
MaverickM schrieb:
[...] Statt dessen verkauft man halt das was man absetzen kann zu einem ordentlichen Preis und nimmt das Geld für die weitere Entwicklung mit.

Wie gesagt, ich sehe den Preis der Karten an sich (Bezogen auf das gesamte Portfolio und die Positionierung zur Konkurrenz) als durchaus angemessen an, was man dafür kriegt. Soll AMD ruhig gut dran verdienen, letztendlich haben wir Endkunden langfristig mehr davon, wenn es zwei Spieler am Markt gibt.
ich sehe das ganz genau so. Hab das mal auf CB oder reddit kommentiert. Ist zwar nicht die Feine aber langfristig sicher besser. Vor allem, weil AMD ja an zwei Fronten kaempft. Intel koennte AMD zehn mal aufkaufen, was sie beim naechsten Produktionsauftrag vermutlich in Erwegung ziehen werden.
Ampere ist auch ums Eck.
 
Mitesser schrieb:
Intel koennte AMD zehn mal aufkaufen

Das dürften, von den Aufsichtsbehörden mal abgesehen, schon die diversen gegenseitigen Patentabkommen verhindern.
 
Tulol schrieb:
Jo, 40/41fps =/= 60fps.
Nicht mal die 5700 schafft 60fps(wohoo 8GB...moment mal...). In FHD wohl gemerkt.
Wenn man nun also 60fps haben will muss man ohnehin Details zurückdrehen. Einfach weil nicht der VRAM begrenzt sondern die GPU schlicht zu schwach ist.

Nochmal: Welches Spiel füllt 6GB VRAM bevor die GPU die 60fps nicht mehr packt?

Oh das ist einfach
wolfenstein the new colosseus mit max textures
wolfenstein youngblood mit rtx
Doom 2016 mit nightmare textures
final fantasy 15
sottr
ac odyssey/origins ohne automatische skalierung (das lässt sich abstellen)
the divison 1 und 2 mit max textures ohne skalierung
tc wildlands
re2 remake mit kantenglättung und max Sichtweite
Watchdogs 2

kommende games wo 6gb vram eng werden
cyberpunk 2077
doom eternal
halo infinite
Zombie army 4
RE 3 remake
dying light 2
watch dogs legion
ms flight simulator
squadrom 44

und das ist nur 2020
Spannend wird ob bioshock 4 2021 schon kommt und ob dead island 2 endlich erscheint oder es auch so ein schicksal hat wie duke nukem forever (15 Jahre später)
 
Tulol schrieb:
Wenn man nun also 60fps haben will muss man ohnehin Details zurückdrehen. Einfach weil nicht der VRAM begrenzt sondern die GPU schlicht zu schwach ist.

Nochmal: Welches Spiel füllt 6GB VRAM bevor die GPU die 60fps nicht mehr packt?

Sinnlose Frage da die FPS nicht durch Texturdetails beeinflusst werden außer wenn der VRAM voll ist.
Du könntest also mit 8GB alles mögliche zurückdrehen um auf 60 FPS zu kommen und trotzdem die Texturen auf ultra lassen.

Die 5700 ist normalerweise keine 49% besser als die 5600XT, hier aber schon, da der VRAM voll läuft und sie stockt
 
Zuletzt bearbeitet:
Eines ist sicher bereits jetzt schon klar, durch die neuen Konsolen mit mehr VRAM werden div. Ports zum PC die VRAM einer GPU ordentlich ausreizen.

Nicht umsonst wird spekuliert das NV mit ihren 3000er Serien 10/20 GB VRAM eventuell auf den Markt schieben, 8 GB wird vermutlich 2022/3 herum das neue absolute Minimum werden.

Preislich wird es auch spannend weil die GDDR6 für die Konsolen ja auch wo her kommen müssen, mal schauen wie sich der Markt hier entwickelt wird...
 
mace1978 schrieb:
Woher stammt die Vermutung die rx5700 könnte auslaufen?
Allein aus der Überlegung heraus, dass es nur XT Versionen geben könnte und man das Schema geändert hat. 5500XT, 5600XT und 5700XT.
Also ich war der Überzeugung, dass big Navi als 5950 XT und 5850 XT kommen würde.

Aber es scheint so, dass wir vllt doch dann die 6000er Serie sehen.
 
  • Gefällt mir
Reaktionen: DerToerke
300Euro und schafft nicht mal 2k in 60fps, für FullHD müssen schon Details reduziert werden.....WTF. Danke - setzen - 6. Dann doch lieber ne gebrauchte 1060er um 120Euro.

So grabt man sich schneller ein als einem lieb ist AMD. Da helfen einem dann auch keine Lobhudelein von den Fanboys/Werbezeitschriften mehr. Richtung ist klar erkennbar: Ryzen4000 wird preislich auf Intel aufgeschlossen haben und die Grakas Vollends auf Nvidia Niveau sein - beide jedoch trotzdem Leistungstechnisch immer hinten nach sein.
Mein nächstes System wird auf jedem Fall wieder ein Intel...was ich die letzten Tage mit meinem Ryzen/RX580 System zu kämpfen hatte....ich bin nicht länger gewillt Betatester zu sein - weder in Spielen und schon gar nicht wenns um den Rechner selber geht!
 
  • Gefällt mir
Reaktionen: Sappen
DarkerThanBlack schrieb:
Wie soll das nun wieder gemeint sein? Soll man sich gar keine Grafikkarte mehr unter 300 Euro kaufen? Eine 1650 Super ist nicht nur langsamer als eine RX5500 sondern die von dir kollaborierte Preisannahme beinhalten die 8GB Version der RX5500 und hat somit den doppelten Speicher einer 1650 Super. Eine 1660 Super ist da zwar schon besser und schneller. Aber hat trotzdem 2 GB weniger Speicher. Ich sehe da absolut keinen Grund warum man sich keine RX5500 kaufen sollte.
Die 1650 Super ist genau so schnell wie die 5500XT (8 GB). Siehe Test auf Computerbase. Da hängt ein schöner Screenshot. Und das mit 4 GB weniger. Sind dir zusätzliche 4 GB bei der 5500XT ohne auch nur 1 fps mehr wirklich 50 Aufpreis wert? Mir wären sie das nicht. Denn im Unterschied zur 1650 Super braucht man laut den Tests bei der 5500XT tatsächlich 8 GB. Mit 4 GB bricht sie ein und hängt deutlich hinterher. Ehe ich einen schlechten Deal mit einer Karte für 220€ mache, lege ich entweder 90€ drauf oder ziehe 50€ ab und kaufe die 1650 Super - 4 GB hin oder her. Offensichtlich hat Nvidia nach wie vor das deutlich bessere Speichermanagement.

"Schaut man sich die einzelnen Spielen im Detail an, fallen zwei Titel aus dem Rahmen. In den meisten Fällen herrscht zwischen der Radeon RX 5500 XT mit 4 GB und jener mit 8 GB ein Gleichstand, doch nicht so in Call of Duty: Modern Warfare und Planet Zoo, wo das 8-GB-Modell große Vorteile zeigt.

So liefert die 8-GB-Karte in Planet Zoo 24 Prozent mehr FPS als die 4-GB-Variante und 21 Prozent bessere Frametimes. Interessanterweise zeigt die GeForce GTX 1650 Super mit ebenso nur 4 GB dieses Problem nicht, die Grafikkarte ist in dem Spiel leicht schneller als die 8-GB-Version der Radeon RX 5500 XT. Eine große Überraschung ist das aber nicht: Es hat sich bereits in der Vergangenheit gezeigt, dass Nvidia das Speichermanagement besser im Griff hat als AMD, wenn Spiele eigentlich mehr als den physisch vorhandenen Grafikkartenspeicher verlangen. " Quelle: CB
 
Zuletzt bearbeitet:
@downforze
Wie besprochen liegt das bei der 4GB Version am Testsystem und PCIE3 und den 8 Lanes. Denn dann bricht die 4GB auch nicht ein. Ist nicht optimal, nein, aber es liegt nicht an dem Speicher per se.
 
  • Gefällt mir
Reaktionen: DerToerke
Das liegt ganz sicher nicht an den 8 elektrischen Lanes und dem Testsystem, sonst hätte die 8 GB-Karte auch einbrechen müssen.
 
Tulol schrieb:
Nochmal: Welches Spiel füllt 6GB VRAM bevor die GPU die 60fps nicht mehr packt?
Die VRAM Menge hat eigentlich nichts mit den FPS zu tun, vor allem wenn man mit den Reglern hantiert... die FPS lassen sich gut über die Effekte steuern die auf Ultra oft nicht wirklich viel anders aussehen als auf Hoch und manche Effekte mag man vielleicht auch gar nicht erst haben (Motion Blur usw.)

Die Texturqualität dagegen hängt eigentlich nur vom verfügbaren VRAM ab und ich finde das man bei Spielen wie DeusEX durchaus den Unterschied zwischen den Stufen sehen kann, auch zwischen den zwei höchsten (die dann 6 oder gar 8 GB benötigen) Es ist sogar eher so das ich mir bei vielen Spielen wünschen würde das die Texturqualität noch höhere Stufen als bisher bieten würden, denn da ist noch viel Luft nach oben was die Bildqualität angeht. und zumindest meine Grafikkarte wäre dafür auch bereit ;-)
Ergänzung ()

downforze schrieb:
Das liegt ganz sicher nicht an den 8 elektrischen Lanes und dem Testsystem, sonst hätte die 8 GB-Karte auch einbrechen müssen.
Eher im Gegenteil: es zeigt das es am VRAM liegt wenn plötzlich die Anbindung so relevant wird, weil dann viel öfter Daten nachgeladen werden müssen weil sie nicht einfach im VRAM gelassen werden können (aka Caching)
 
downforze schrieb:
Das liegt ganz sicher nicht an den 8 elektrischen Lanes und dem Testsystem, sonst hätte die 8 GB-Karte auch einbrechen müssen.
Die 8 GB ist auch nur 2% langsamer. Das Einbrechern kommt bei der 4GB davon, dass Daten auf den Arbeitsspeicher abgelegt und abgefragt werden und PCIE 3 8Lanes sind da klar der Fladchenhals.
 
62 zu 68 fps sind nicht 2%. Aus dem CB-Test ergibt sich in keinster Weise die Aussage, dass es mit 16x PCIE 3.0 besser laufen würde. Das sind alles nur Vermutungen. Defakto entspricht PCIE 3.0 x8 von der Bandbreite her genau PCIE 2.0 x16. In keinem Test gab es jemals spürbare Unterschiede zwischen den aktuellen PCIE-Standards. Dieses Märchen existierte schon zu AGP-Zeiten und selbst da gab es nie einen messbaren Unterschied zwischen AGP 3.0 und PCIE 1.0. Der Bus ist für Middlerangekarten mit Sicherheit mehr als ausreichend.
Siehe z.B. hier für PCIE 3.0:
https://www.3dcenter.org/news/performance-von-pci-express-11-20-30-sowie-x4-x8-x16-untersucht
Sogar bei Ultra HD bei 3.0 0!% Unterschied zwischen x16 und x8.
 
Zuletzt bearbeitet:
downforze schrieb:
Offensichtlich hat Nvidia nach wie vor das deutlich bessere Speichermanagement.
Offensichtlich ist da gar nichts. Bleiben wir mal wegen der PCIe-Thematik bei der 5600: Hier im Test bei Ghost Recon und bei PCGH mit Wolfenstein Youngblood sieht man, dass sowohl 2060 (und all die anderen NV 6GB Karten) als auch 5600 XT einbrechen, sobald der Speicher eng wird - was in den selben Situationen der Fall ist. Da lässt sich überhaupt kein Vorteil für Nvidia ablesen.

downforze schrieb:
Aus dem CB-Test ergibt sich in keinster Weise die Aussage, dass es mit 16x PCIE 3.0 besser laufen würde.
Richtig, weil CB das nicht untersucht hat und offenbar auch kein Interesse daran hat.
 
  • Gefällt mir
Reaktionen: RuhmWolf
Das haben andere untersucht. In keinem Test gab es Unterschiede zwischen x8 und x16.
 
Zurück
Oben