Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

Luxmanl525 schrieb:
Die Frage ist aber, ob das nicht eher mit den beschnittenen Lanes zusammen hängt. Also ob PCIe 4 im Fall der 5500 XT genau deshalb etwas bringt, vor allem in Relation zu anderen derzeitigen GPU`s.
Das ist tatsächlich die Frage. Es betrifft aber meines Wissens auch nur die 4GB Version, bei der 8GB ändert sich nichts groß. Das wiederum suggeriert das auch um die Speicherlimitation geht und da wären natürlich 4.0 x16 dann eben eventuell hilftreich für die 5600xt. Zumindest bei den paar Spielen wo man im aktuellen CB Parkour tatsächlich schon die 6GB als Problem wahrnimmt. Die Kombination von PCI 4.0 und 5500xt macht aktuell auch keinen Sinn, aber der 5600xt sieht das schon etwas anders aus.

Wenn ich das richtig gesehen habe schneiden alle 6GB GPUs zum Beispiel bei Borderlands besonders schlecht ab. Egal ob Nvidia oder AMD.
 
  • Gefällt mir
Reaktionen: DerToerke und Luxmanl525
C.J. schrieb:
[...]

Eventuell lässt sich der VRAM bei Navi deswegen so schlecht übertakten, weil der Speichercontroller aus dem letzten Loch pfeift und AMD nicht mehr Spannung geben will, weil der schon jenseits von gut und böse läuft. Da fragt man sich, wieviel Undervolting auf dem Speichercontroller bringen würde :D.

Kann man den Speicherkontroller direkt untervolten, wenn ja wie?!^^
Und ob das mit Polaris auch geht?
 
4.0 x8 reichen vollkommen aus für alle aktuellen Karten, bei der 5500XT 4GB zeigt sich das Problem eben nur weil das nachladen der Texturen mit 3.0 x8 zu lange dauert.
Hätte sie 16 Lanes, wie alle anderen Karten auch, wäre es kein Unterschied zu 3.0


Da sie aber nunmal nur 8 Lanes hat, profitiert sie als bisher einzige Karte von 4.0 denn damit kommt sie auf das Niveau von 3.0x16
 
Taxxor schrieb:
4.0 x8 reichen vollkommen aus für alle aktuellen Karten, bei der 5500XT 4GB zeigt sich das Problem eben nur weil das nachladen der Texturen mit 3.0 x8 zu lange dauert.
Hätte sie 3.0x16, wie alle anderen Karten auch, wäre es kein Unterschied zu 4.0x16.


Da sie aber nunmal nur 8 Lanes hat, profitiert sie als bisher einzige Karte von 4.0


Ich will nix behaupten wozu ich keine Daten habe.

Aber bei Speicherlimitierten Titeln klingt es doch eigentlich logisch das mehr Bandbreite am PCIe Slot die Karten schneller macht. 4.0 x8 reicht vollkommen wirkt in dem Kontext merkwürdig, wenn ich keine Speicherlimitierte Karte kenne, mit Außnahme von der 5600xt die mehr bieten würde. Es gibt ja keine x32 Slots, die drei anderen PCIe 4.0 Navi Karten haben mit 8GB ja noch genug Speicher und die 5500xt 4GB kann halt halt nur x8.
 
  • Gefällt mir
Reaktionen: DerToerke und Luxmanl525
Luxmanl525 schrieb:
Keine Ahnung wo du das her hast, daß die RX 5500 XT von PCIe 4 profitiert. Auf jeden Fall hast du diese Ansicht ziemlich exklusiv.
Hoppla , da ist dir aber ein Fauxpas unterlaufen....
 
Hallo zusammen,

@ CrustiCroc
CrustiCroc schrieb:
Hoppla , da ist dir aber ein Fauxpas unterlaufen....

Du hast meinen Beitrag nicht ausführlich genug zur Kenntnis genommen, hier:
Luxmanl525 schrieb:
Gleichwohl lasse ich mich gerne eines besseren belehren. Man lernt ja nie aus in diesem Segment

Was geschehen ist, allerdings auch nicht klar ist, ob es an PCIe 4 liegt, sondern eher aufgrund der beschnittenen Lanes. Persönlich halte ich die derzeitige Datenbasis einfach für zu gering, um wirklich sicher zu sein, woran das jetzt liegt und woran nicht. Zumal bei der 8 Gbyte Version die Dinge nicht so liegen.

So long...
 
  • Gefällt mir
Reaktionen: Apocalypse
Tobi86 schrieb:
6GB VRAM sind auch heute ausreichend. Das ist eine Mittelklasse-Grafikkarte. Man muss nicht den Anspruch haben, immer alle Regler auf das Maximum zu stellen. Ein ganz widerliches, wohlstandsverwöhntes Anspruchsdenken ist das. Zu finden überall in der Gesellschaft - und zu jedem Thema.

Das mag sein. Aber trotzdem ist es lächerlich das amd die Karte mit 6gb Released hat! Gab es die rx480 nicht schon mit 8gb in 2016? Jetzt haben wir 2020... Das ist kundenverarsche und Geldmacherei.
Genau so nvidia bei der rtx2060 die dann nur als Druckmittel die 8gb gebracht haben weil sie Angst vor den neuen AMD Karten hatten. Ich würde mir so einen Schund jedenfalls nicht kaufen 😅
Wer den geringen Aufpreis zur rx5700 nicht zahlt hat eh einen am Helm. Für <250 Euro wäre die Karte "okay" gewesen - für fullhd
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Nach ein wenig Suche hab ich zumindest ein YouTuber gefunden der das auch mal getestet hat. Sieht nicht sehr vielversprechend aus.
Ergänzung ()

Sappen schrieb:
Gab es die rx480 nicht schon mit 8gb in 2016?
Es gab sogar die RX470 (ebenfalls 2016), RX570 und die R9 290x mit 8GB (2014).

edit: Es gibt also aktuell ab 130€ 8GB Karten. Aber bei der 300€ Karte hat man einen komplizierten Speicherkontroller gebastelt, der eventuell sogar nicht ganz Rund läuft (sieh Igor's Lab Bereicht) nur um den Speicher eben irgendwie zu beschneiden und so dem nvidia Zeugs ein äquivalentes Produkt entgegen zu setzen.

Aber der Markt verlangt es halt. Warum also nicht 'seufs'. Die 8GB RX470 hätte ich jetzt auch nicht unbedingt als sinnvoll betrachtet, aber irgendwer kauft die wohl auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli
Apocalypse schrieb:
Tomb Raider benutzt nur die Recht effektiven Schatten, oder? Ach was soll es, 50 Minuten in den Kaninchenbau hinein. Ich wollte ja eh eigentlich nur spielen ^_^
Das wäre doch mal ein netter Test für ©CB. Was hat sich gegenüber den Initialen Game RT Treibern und Game Versionen getan...
 
Also das mit den 6GB VRAM ist unschön. Aber tatsächlich ist der einzige Benchmark wo man davon was merkt bisher Wolfenstein Young Blood auf den extremsten Settings die man einstellen kann nämlich "Mein Leben" und Streaming Extreme und dann auch nur in WQHD und höheren Settings erfolgt ein Einbruch um ~30% FPS wegen 6GB vs 8GB:
https://www.pcgameshardware.de/Rade...-gegen-8-GByte-Speicher-Benchmarks-1341307/2/

Alle anderen Games zumal in FullHD jucken die 6GB nicht die Bohne.
 
  • Gefällt mir
Reaktionen: DerToerke und Luxmanl525
Apocalypse schrieb:
4.0 x8 reicht vollkommen wirkt in dem Kontext merkwürdig, wenn ich keine Speicherlimitierte Karte kenne, mit Außnahme von der 5600xt die mehr bieten würde. Es gibt ja keine x32 Slots, die drei anderen PCIe 4.0 Navi Karten haben mit 8GB ja noch genug Speicher und die 5500xt 4GB kann halt halt nur x8.
Auch die 5500XT 8GB kann nur 8x und da gibt es keinen Unterschied zu 3.0

Und die 5500XT 4GB ist doch sehr viel mehr speicherlimitiert als die 5600XT 6GB
 
warumnicht93 schrieb:
. Es geht nur um Geld.
Würden wir im Sozialismus leben wäre das tatsächlich ein anstößiges Merkmal. Aber, ähm, wir leben im Kapitalismus. Da ist Geld eben die Maxime.
Um was sollte es bei einem gewinnorientierten Unternehmen wie AMD, Intel oder nVidia deiner Meinung nach sonst gehen?

Und nochmal an die ganzen 6GB Halter hier: Welches Spiel das mit 60fps auf dieser Karte fluppt fordert nachweislich mehr als 6GB VRAM? Gibt es überhaupt eins? Das gilt für AMD als auch für nVidia.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Tulol schrieb:
Und nochmal an die ganzen 6GB Halter hier: Welches Spiel das mit 60fps auf dieser Karte fluppt fordert nachweislich mehr als 6GB VRAM? Gibt es überhaupt eins? Das gilt für AMD als auch für nVidia.
Es gibt sogar eins direkt hier im Test

Darüber hinaus zeigen sich in Ghost Recon Breakpoint Speicherprobleme; der RAM geht der Radeon RX 5600 XT mit 6 GB hier aus. Die Radeon RX 5700 mit 8 GB erreicht in diesem Titel 49 Prozent bessere Frametimes als die Radeon RX 5600 XT mit 6 GB, auf der das Spiel spürbar stockt. Passend dazu gerät auch die GeForce RTX 2060 mit 6 GB in Probleme, deren Frametimes um 22 Prozent schlechter als bei der GeForce RTX 2060 Super mit 8 GB ausfallen. Damit zeigt sich, dass 6 GB auch in Full HD nicht durchweg ausreichend sind, wenn mit vollen Texturdetails gespielt werden soll.

FFXV war in der jüngeren Vergangenheit auch so ein Fall
 
  • Gefällt mir
Reaktionen: Apocalypse
Hallo zusammen,

@ Tulol
Tulol schrieb:
Welches Spiel das mit 60fps auf dieser Karte fluppt fordert nachweislich mehr als 6GB VRAM? Gibt es überhaupt eins? Das gilt für AMD als auch für nVidia.

Für mich hat dieses Quasi-Gehacke auf den lediglich 6 Gbyte VRam sowieso eher Fanboy-Bashing Charakter. Früher bei den Nvidia 6 Gbyte Modellen haben die AMD Jungs dagegen geschossen, jetzt ist es umgekehrt.

Aus meiner Sicht steht und fällt alles damit, wofür eine solche Karte spezifiziert ist. In dem Fall hier hat AMD die Karte eindeutig für Full HD positioniert. Und dafür reichen die 6 Gbyte locker. Es gibt vielleicht gerade einmal eine handvoll Games, wo man den Schalter bei der ein oder anderen Position um eine Stufe zurück nehmen muß, so denn es überhaupt soviele Games sind, bei denen dies nötig ist.

Alles andere ist aus meiner Sicht obsolet und hat mehr oder weniger schon beinahe Bashing-Charakter und mit angemessener Kritik wenig bis nichts mehr zu tun. Im besonderen da nicht einmal an dem Hauptkritikpunkt, nämlich den kurz vor Knapp nachgereichten Neuen Bios-Versionen, wirklich gemäkelt wird, was tatsächlich kritikwürdig ist.

Besonders wenn man sich mal den Fingerzeig des geschätzten Kollegen Igor Wallossek aus dem nachfolgenden Video von seiner Webseite zu Gemüte führt:

https://www.igorslab.de/bios-chaos-bei-amds-radeon-rx-5600-xt-und-abweichende-kuehler-was-bekommt-man-eigentlich-im-laden-1-177-aufrufe-•21-01-2020/

Dies auf was er da hinweist ist dies, was wirklich kritikwürdig ist. Und die 6 Gbyte Vram-Problematik ist dagegen eher lächerlich, wenn man sich vor Augen hält, daß man aktuell eine Karte ohne Heatpipes bekommen kann, dieselbe Karte aber demnächst mit dem neuen Bios mit Heatpipes ausgestattet ist. Und dies mit allen Nachteilen bei der Version ohne Heatpipes bei Aktualisierung auf das Neue Bios.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrustiCroc und Cpt.Willard
Tulol schrieb:
Würden wir im Sozialismus leben wäre das tatsächlich ein anstößiges Merkmal. Aber, ähm, wir leben im Kapitalismus. Da ist Geld eben die Maxime.
Um was sollte es bei einem gewinnorientierten Unternehmen wie AMD, Intel oder nVidia deiner Meinung nach sonst gehen?

Und nochmal an die ganzen 6GB Halter hier: Welches Spiel das mit 60fps auf dieser Karte fluppt fordert nachweislich mehr als 6GB VRAM? Gibt es überhaupt eins? Das gilt für AMD als auch für nVidia.
Es geht um die Kunden.
 
Vielleicht ist es hier schon irgendwo beleuchtet, aber ich habe gerade nicht die Zeit alle Kommentare durchzulesen. ;)
Woher stammt die Vermutung die rx5700 könnte auslaufen?
Die ist ja ein Abfallprodukt der rx5700XT, soweit dieses Abfallprodukt weiter entsteht, wird man versuchen es weiter zu verkaufen. Einzige was nun passieren wird, man gestaltet den Preis so, dass man möglichst wenig funktionierende rx5700XT downgraden muss.
 
Luxmanl525 schrieb:
Dies auf was er da hinweist ist dies, was wirklich kritikwürdig ist. Und die 6 Gbyte Vram-Problematik ist dagegen eher lächerlich, wenn man sich vor Augen hält, daß man aktuell eine Karte ohne Heatpipes bekommen kann, dieselbe Karte aber demnächst mit dem neuen Bios mit Heatpipes ausgestattet ist. Und dies mit allen Nachteilen bei der Version ohne Heatpipes bei Aktualisierung auf das Neue Bios.
Nicht ohne, sondern mit iirc 4 statt 5.

TGP von ursprünglich nur 135 Watt führt natürlich dann auch so manchen Controller in Versuchung, im sogenannten Cost-Down die Herstellkosten noch einmal zu optimieren. Ein gutes Beispiel dafür ist der Wegfall einer Heatpipe bei der Powercolor RX 5600 XT Red Dragon. Die erhöhte TGP des neuen BIOSes sorgt zwar jetzt nicht für Ausfälle, aber die zweite Batch dieses Modells wird diese Heatpipe wieder besitzen. Leider spielte UPS nicht mit, die satte 5 Tage für eine Express-Lieferung benötigten, so dass ich die neue Karte später als Update einfügen muss. Aber man sieht es auch so, wo das Loch ist:
 
WommU schrieb:
Gelegenheitsspieler, deren Office Monitor noch funktioniert und daher nicht ersetzt werden muß.

Gerade fürs Arbeiten hätte ich schon längst einen größeren Monitor mit mehr Arbeitsfläche angeschafft. Muss ja kein 16:9 sein, kann ja alles mögliche sein.

Apocalypse schrieb:
Mal die alten Röhren nicht unterschätzen!

Ich bin schon etwas älter und habe lange genug an Röhren gearbeitet und gespielt. Nein, das will ich nicht wieder haben. Das DF Video ist doch arg verklärt. ;)

Mal ganz davon abgesehen, dass man das 4:3 Format nicht unbedingt mit CRTs gleichsetzen muss. 4:3 bzw. deutlich gängiger 5:4 gabs zu Anfang auch bei LCDs. ;)

Wiener77 schrieb:
Was könntest du dir denn vorstellen, wie DeepLearning hierbei helfen könnte?

Mustererkennung wäre sicherlich ein konkretes Beispiel. Nur: Glaubst Du ernsthaft, dass bei Konsolen oder Grafikkarten tatsächlich soviel Rechenpower verschwendet wird, um so etwas in Echtzeit lokal zu berechnen!? Das ganze ist doch nur Buzzword-Bingo um etwas elitärere Algorithmen werbewirksam zu verkaufen. Siehe beispielsweise nVidias DLSS. Funktioniert ganz OK, mit Deep Learning hat das aber reichlich wenig zu tun.

Wiener77 schrieb:
Und wer sagt dir, dass RDNA2 nicht auch eine verbesserte Architektur für DeepLearning Anwendungsfelder enthält? Ich würde mal davon ausgehen.

Die schlichte Marktwirtschaftliche Logik. Außerdem hat AMD mit Navi bzw. RDNA gerade erst die Architektur weg von GPGPU hin zu mehr reiner Spieleleistung optimiert. Vorerst werden daher auch die professionellen Grafikkarten weiterhin auf GCN setzen. So oder so ist es schlicht unwirtschaftlich viel Die-Fläche für Funktionen zu opfern, die nur ein Bruchteil der Anwender überhaupt benötigt, bzw. die für die Anwendungen der Nutzer nur in geringem Maße relevant sind.
 
  • Gefällt mir
Reaktionen: DerToerke und Mitesser
Taxxor schrieb:
Es gibt sogar eins direkt hier im Test


Darüber hinaus zeigen sich in Ghost Recon Breakpoint Speicherprobleme; der RAM geht der Radeon RX 5600 XT mit 6 GB hier aus. Die Radeon RX 5700 mit 8 GB erreicht in diesem Titel 49 Prozent bessere Frametimes als die Radeon RX 5600 XT mit 6 GB, auf der das Spiel spürbar stockt. Passend dazu gerät auch die GeForce RTX 2060 mit 6 GB in Probleme, deren Frametimes um 22 Prozent schlechter als bei der GeForce RTX 2060 Super mit 8 GB ausfallen. Damit zeigt sich, dass 6 GB auch in Full HD nicht durchweg ausreichend sind, wenn mit vollen Texturdetails gespielt werden soll.
FFXV war in der jüngeren Vergangenheit auch so ein Fall
Ich kann mich mit dem Absatz ueberhaupt nicht anfreunden. 5600 xt und 5700 sind nicht ident von den Bandbreiten her genauso wenig wie 2060 und 2060 super. Wieso wird dann hier von 6gb und 8gb geredet. Es wurde keine Grafik zur VRAM Auslastung gezeigt, aber wild spekuliert.
wieso ist denn die Leistung zw den 5500 xt nicht weiter auseinander? WIMRE nur zwei, drei Spiele zeigten Unterschiede, weil es sich, vermute ich mal, mehr auszahlt eine schnellere Karte (5600 xt) zu haben als eine Karte mit 8gb (5500 xt).

Diese Benchmarks zeigen auch ein anderes Bild. Nur die 4gb sackt bei zb Ghost Recon ein. 5600 xt haelt mit 5700 mit.
und: wow die 8gb bei der 5500 xt bringen es voll.
eurogamer/DF verwendet "A look around the Sapphire Pulse 4GB and PowerColor Red Dragon 8GB versions of the AMD Radeon RX 5500 XT."
https://www.eurogamer.net/articles/digitalfoundry-2020-amd-radeon-rx-5600-xt-6gb-review-7001?page=2

frametimes Kluft hier zw 2060 und 2060 super ist auch nicht sonderlich grosz. bei far cry 5 zb zeigt die 2060 teilweise bessere Ergebnisse.
https://www.eurogamer.net/articles/...e-rtx-2060-super-rtx-2070-super-review?page=3

Ihr koennt ja auf Techepiphany warten. Der zeigt budget hardware mit VRAM Auslastung. Ich weisz jetzt nur nicht auswendig was fuer Spiele er verwendet.
 
Zurück
Oben