Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

Draguspy schrieb:
Das vernünftig einzuschätzen, bedarf es Berufserfahrung. Die ist hier wohl unterrepräsentiert.

Das war eine implizite Zustimmung zu deiner Einschätzung und eine Replik an alle hier im Forum, die so tun als sei das ein kluger Schachzug von AMD gewesen. Die mit altem Bios ausgestatteten Karten ziehen einen Rattenschwanz von Problemen hinter sich her. So was darf sich auf keinen Fall wiederholen.


Natürlich reichen 6GB für FHD, mit den richtigen Einstellungen reichen auch 2-4 GB, wie Millionen von Gamern täglich beweisen, das darüber überhaupt diskutiert wird . . . . Ich nehme mir hier erst mal eine Auszeit. Das Diskussionsklima in Foren zu Raytracing ist um ein vielfaches freundlicher und sachlicher als hier.

Ah okay, dann war es nur etwas missverständlich formuliert und bin ganz bei dir.

Igor hat das ebenso nüchtern mal auf den Punkt gebracht unter https://www.igorslab.de/amds-bios-r...irrwar-kuehlerunterschiede-und-einige-crashs/
(sorry wenns schon verlinkt wurde)
 
  • Gefällt mir
Reaktionen: Draguspy und Apocalypse
ZeroZerp schrieb:
Solltest Dir das Video halt doch mal anschauen. Modern Warfare bietet kein DLSS und bei Tomb raider ist es deaktiviert.

Hab ich gemacht. Und du suchst dir wieder die Fälle ohne raus...

Und bei Titeln wie Control und nachfolgend wäre es unklug DLSS nicht zu aktivieren.

Weil das das Spiel generell so Scharf ist wie ein Kneipenbesuch mit Filmriss?! Weil die Entwickler da zumindest fragwürdige Entscheidungen getroffen haben?!

Spätestens seit youngblood, welches mit DLSS die bessere Qualität bei höherer Geschwindigkeit liefert, sollte auch der letzte Hater langsam mal in der Realität ankommen, wo es in Zukunft lang geht...

Aber ich weiss. Es kann nicht sein, was in der Vorstellung von einigen nicht sein darf...

Jetzt bringt Upsampling von 720p also schon bessere Qualität. Den erkläre uns "hatern" doch mal wie das technisch gegenüber voller Auflösung überhaupt gehen soll! Jetzt kommt bestimmt was von tollen Schatten wo noch eine Textur reingekotzt wird...
 
@Botcruscher
Du hattest geschrieben:
Cherrypicking mit DLSS!

Ich habe Dir geantwortet, dass bei den Videos die Framezahlen bei Titeln auch ohne DLSS zustandegekommen sind.

Arbeite an Deiner Einstellung und Ausdrucksweise.
So kann man aus jeder einzelnen Zeile leider nur herauslesen, dass die Frage einer Erklärung nur als Alibi dient, Dich noch weiter auskotzen zu können. Die Vorverurteilung steht unverrückbar.

Auf der Grundlage, werde ich mir sicher nicht die Mühe machen, Dir zu erklären, was Inferencing mittels KI bewerkstelligen kann/soll. Zudem wurden die Themen in X- Threads, zu welchen auch Du beigetragen hast, schon breitgetreten.

Interessiert Dich alles nicht wirklich, glaubst Du nicht wirklich - vergebene Liebesmüh, zumal sich Deine Skepsis sowieso mit Erscheinen der DXR bzw. DirectML unterstützenden Grafikkarten von AMD plötzlich in Wohlgefallen auflösen wird.

Die Technik wird sich auch ohne Deine Zuneigung und ohne Dein Einverständnis weiterentwickeln und sich weiter durchsetzen. Kannst es ja (noch) alles abschalten und Dich dann irgendwann an 600FPS erfreuen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Botcruscher schrieb:
Hab ich gemacht. Und du suchst dir wieder die Fälle ohne raus...
Du wolltest doch explizit die Fälle ohne DLSS haben, das suggeriert zumindest dein "Cherrypicking mit DLSS" Beitrag.
Was denn nun?

Botcruscher schrieb:
Jetzt bringt Upsampling von 720p also schon bessere Qualität. Den erkläre uns "hatern" doch mal wie das technisch gegenüber voller Auflösung überhaupt gehen soll! Jetzt kommt bestimmt was von tollen Schatten wo noch eine Textur reingekotzt wird...
Warum muss dir jemand hier aus dem Forum genau erklären können, wie das gemacht wird?

Warum kannst du dich denn nicht damit zufrieden geben, dass es bessere Qualität bringen kann bei gleichtzeitig mehr FPS, wie man an den Vergleichsbildern, die hier vor kurzem gepostet wurden wunderbar sieht?

Wenn dich wirklich interessieren würde, wie das funktioniert, hättest du dich schon längst selbst dazu belesen, genug Material gibt es im Netz.
 
  • Gefällt mir
Reaktionen: dampflokfreund und .Sentinel.
v_ossi schrieb:
Die Erwartungshaltung kommt sicher auch daher, dass AMD in den letzten Jahren immer 8GB geboten hat, selbst in den günstigeren und weiter unten platzierten GPUs. Wer eine RX480/580/590 besitzt und auf eine leistungsstärkere und dabei sparsamere Architektur wechseln will, opfert jetzt VRAM. Selbst als Sidegrade von einer Vega kommend, ist das in der Beziehung ein Rückschritt.

Das NVidia auch "zu wenig" Speicher bietet, macht die Sache bei AMD ja nicht besser.

Der opfert gar nichts weil er die 5700 kaufen kann... dazu wird der Straßenpreis noch sinken wie er bei 5700/XT auch gesunken ist. Für am Ende 250 Euro ist die Karte eigentlich nicht schlecht.
 
  • Gefällt mir
Reaktionen: DerToerke und Apocalypse
Taxxor schrieb:
Warum kannst du dich denn nicht damit zufrieden geben, dass es bessere Qualität bringen kann bei gleichtzeitig mehr FPS, wie man an den Vergleichsbildern, die hier vor kurzem gepostet wurden wunderbar sieht?
Echt? Das ist auch an mir völlig vorbei gegangen. Ich kenne aber nur die ersten vergleiche von Digital Foundry aus Final Fantasy and da hat DLSS nicht so wirklich überzeugt. Wird das jetzt besser implementiert?

Ist aber ja eigentlich eh egal, es gibt ja genug Anwendungen für Raytracing die sehr gut laufen, und sei es nur das ich die Schattenberechnung mit Raytracing mache statt mit Cascading Shadows und da halt die paar RT Cores nutzen kann und mir ein wenig Last auf den Shadern sparen kann. Umgekehrt kann ich natürlich auch die RT Schatten auf den normalen Shadern machen, aber die RT Cores können das halt einfach effektiver, also mit weniger mm² auf dem Die und weniger Watt aus der Steckdose. Sobald genug kleine RT Effekte verbreitet sind, wird man auch ein bissel extra Leistung auf den kleine RTX Karten draus ziehen.
 
Palmdale schrieb:
Ah okay, dann war es nur etwas missverständlich formuliert und bin ganz bei dir.

Igor hat das ebenso nüchtern mal auf den Punkt gebracht unter https://www.igorslab.de/amds-bios-r...irrwar-kuehlerunterschiede-und-einige-crashs/
(sorry wenns schon verlinkt wurde)
Natürlich muss bei nachträglich geänderten Parametern die Platine neu durchgerechnet und überprüft werden, ob alles läuft. Da jeder Hersteller Kosten optimiert, sind die Platinen auf niedrigeren Takt/Verlustleistung/Kühlung ausgelegt und auch nur mit diesen getestet und für die Produktion freigegeben worden. Wie man sieht, hapert es ab und an mit 14 Gbps im Dauerbetrieb, es wurde nicht getestet, also wurden hier auch keine Optimierungen vorgenommen, um etwaige Ausfälle zu vermeiden.
Die Boardpartner stecken nun in der Falle zwischen vertraglich garantierter Leistung und einer Leistungsreserve, die der Einzelne durch das Biosupdate ausschöpfen kann. Es war Klug von AMD, das Biosupdate als Option zur Verfügung zu stellen, sonst wären rechtliche Konsequenzen eingetreten. So haben die Board Partner und der Endkunde das Problem. Garantieren die Hersteller nun den Dauerbetrieb mit dem neuen Bios/Parametern? Ab sofort? Oder erst bei der nächsten Charge, wo man unter Umständen kleinere Anpassungen an der Hardware vorgenommen hat? Werden alle Karten zurückgenommen, die im Dauerbetrieb bei neuem Bios Instabilitäten zeigen? Was passiert mit Käufern von Karten, die kein neues Bios erhalten? Pech gehabt?
Und wie wird dem in den Tests Rechnung getragen? Selbstverständlich gibt es viele Karten, die mit neuem Bios die versprochene Leistung erreichen, aber eben nicht alle.

Jeder Fachredakteur sollte das wissen, insofern wundert mich, das dies hier nicht thematisiert wurde. Ich würde raten, auf die Karten zu warten, die mit den höheren Frequenzen alle Langzeittests durchlaufen haben und mit dem neuen Bios ausgeliefert werden. Nur dann ist man sicher, die versprochene Leistung auch zu bekommen. Darüber hinaus sind hardwarebedingte sporadische Abstürze alle 2-4h so ziemlich das letzte, was man sich für sein System wünscht und nur wenige sind in der Lage, diese korrekt zu interpretieren und Abhilfe zu schaffen. Da werden schnell Servicekosten fällig, die in keiner guten Relation zum Systempreis stehen.

Hier wird das Problem mit den 12-14 Gbps thematisiert.
https://www.techpowerup.com/263228/...-rx-5600-xt-gpus-can-hit-14-gbps-memory-speed
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Palmdale und .Sentinel.
Apocalypse schrieb:
Echt? Das ist auch an mir völlig vorbei gegangen. Ich kenne aber nur die ersten vergleiche von Digital Foundry aus Final Fantasy and da hat DLSS nicht so wirklich überzeugt. Wird das jetzt besser implementiert?

Siehe hier und nachfolgende Diskussion:
https://www.computerbase.de/forum/t...cus-auf-basis-von-rdna2.1919424/post-23625036

https://www.computerbase.de/forum/t...cus-auf-basis-von-rdna2.1919424/post-23625812

https://www.computerbase.de/forum/t...-basis-von-rdna2.1919424/page-9#post-23626191

https://www.computerbase.de/forum/t...x-bei-veroeffentlichung.1883499/post-23607558

Also ja- Es ist jetzt sehr deutlich besser geworden...

LG
Zero
 
  • Gefällt mir
Reaktionen: Apocalypse
Revan1710 schrieb:
Ich nehme mal stark an, dass du Modern Warfare meinst - hast du dir da überhaupt mal die Mühe gemacht und dir die Testergebnisse angeguckt?

=> 112 FPS im Schnitt auf max. Details @ FHD und auch die Frametimes sind da alles andere als bedenklich

Nein ich meine Advanced Warfare da sind meine 8 gb von meiner GeForce 1700 in WQHD nach einer Stunde spielen voll. Der Speicher fühlt sich ja mit der Zeit.. Die Test Ergebnisse entsprechen nicht der Realität weil man ja nicht nur kurz ein Benchmark startet.
 
Experte18 schrieb:
Nein ich meine Advanced Warfare da sind meine 8 gb von meiner GeForce 1700 in WQHD nach einer Stunde spielen voll. Der Speicher fühlt sich ja mit der Zeit..
Das ist nicht unbedingt der Fall, denn allozierter Speicher muß nicht dem Verbrauch entsprechen.
 
  • Gefällt mir
Reaktionen: dampflokfreund und Apocalypse
yummycandy schrieb:
Das ist nicht unbedingt der Fall, denn allozierter Speicher muß nicht dem Verbrauch entsprechen.
Egal 6 gb sind zu wenig da braucht man nichts schönreden. Für zukunftsicherheit sind 8 gb auch zu wenig.
 
Experte18 schrieb:
Egal 6 gb sind zu wenig da braucht man nichts schönreden. Für zukunftsicherheit sind 8 gb auch zu wenig.
Das habe ich auch nicht bezweckt. Ich wollte nur etwas zu deiner Aussage mit dem Speicherverbrauch beitragen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Zukunftssicherheit und COD Advanced Warfare im gleichen Zusammenhang nennen. Genau mein Humor.

Das Spiel ist in der Hinsicht verbuggt. Ist aber auch egal, weil die Engine in der Iteration (oder generell) nicht mehr verwendet wird. Das neue MW zeigt, wo es mit der Reihe in Zukunft hingeht. Und da habe ich selbst in 4k Ultra Probleme, 6GB voll zu kriegen.

Also wegen den Texturen sehe ich da keine Probleme. Eher beim RT, aber das kann die Karte eh nicht.
 
Experte18 schrieb:
Egal 6 gb sind zu wenig da braucht man nichts schönreden. Für zukunftsicherheit sind 8 gb auch zu wenig.
Übertreibt doch nicht immer so. Es kommt doch auch auf den Einsatzbereich an. Für FHD reichen 6GB locker in 95% der Fälle (und dafür sind die Karten gedacht). Auch noch morgen und übermorgen. Immer? Wohl nicht! Wäre mehr besser? Zweifellos. 8GB sind heute sogar (noch) Standard im Highendbereich 2080S. Und selbst die stärkste Karte hat "nur"11 GB. Nicht zukunftssicher? was ist Zukunft 20 Jahre 10 Jahre? Dann sind 8GB nicht zukunftssicher. Aber 8GB werden auch in 5 Jahren noch reichen. Vielleicht nicht in jedem Szenarium und bei jedem Game, aber bei den meisten schon.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Iscaran
Minecraft biete schon Erweiterungen mit Texturen für 4, 8 und auch 16gb Karten. ;-)

Reichen tun auch heute noch 4gb solange man den Slider in den Settings bedienen kann.

Was da jeder vorzieht hängt halt auch davon ab was man so spielt, wie lange man eh erst mal ein Spiel anpasst bevor man zufrieden ist, etc
Aber 30€ extra um von der 5600xt Pulse zur 5700er Pulse upzudaten ist halt ne Ansage.
 
Wenn man Antialiasing und diverse Lichteffekte anstellt, wird der Speicher ganz schnell voll, selbst bei FullHD. 8 GB für 300€ könnten es schon sein.
 
CrustiCroc schrieb:
Die PCGH Redakteure zerreißen die 5600 XT förmlich.

Gut so, mag sein das die Karte an sich gut ist, aber die 6 GB Vram gehen garnicht wenn man bedenkt das eine RX 580 schon 8 GB hatte und man bei der die Texturen höher stellen kann als bei einer rx 5600xt obwohl eigentlich deutlich schlechtere Karte. Ähnlich bei der Vega 56, zwar ca. selber Niveau aber mehr Vram.
 
Grundsätzlich zahle ich für eine bessere Kühllösung gerne mehr, und auch für einen Fan Stop im Idle,
ich verstehe hier auch die Diskussionen nicht,
jeder kann gerne meinen, das 250 Euro angemessener wären, wenn die Backplate fehlt, das Ding im Gamen zwingend Kopfhörer erfordert, und auch im Desktop die Billig Plastik Lüfter vor sich hin quietschen,

Selbst 300 finde ich , für eine Sapphire Pulse, nicht zuviel, wenn ich daran denke, was zb eine 1060 6GB gekostet hat, für die beste Kühllösung der MSI Gaming X zum Release 349 Euro.

Und auch die Geschwindigkeit passt zum Preis, besagte Sapphire ist selbst mit dem ab Werk ''langsameren'' Bios schneller als eine 1660 Super, und die kostet je nach Dealer auch um die 280/290 (oder mehr) mit vernünftiger Kühllösung, (ich brauche keine mindfactory Verlinkung, wo eine 1660 Palit mit billig Kühllösung schon für 240 zu haben ist).
 
Ich verstehe die Diskussion um die 6GB ehrlich nicht wirklich.

Die 2060 hat auch nur 6GB und ist genauso schnell ? Wo ist das Problem ? Und das bessere Speichermanagement, kommt eh nur im "Grenzfall" zum tragen...
Die 5600 XT ist dafür immerhin aktuell die Effizienteste Karte auf dem Markt und für FullHD völlig geeignet auch für die nächsten Jahre. Falls sie das nicht wäre ist die 2060 genauso ungeeignet und dabei noch teurer und braucht mehr Strom.

Also was genau ist nun an der Karte wirklich wirklich unbrauchbar ?

Brauche ich mehr als das, weil Zukunftssicher dann KANN ich aber auch die 2060 nicht als "option" sehen sondern muss mind. eine 2070 ins Auge fassen.
 
  • Gefällt mir
Reaktionen: Apocalypse und .Sentinel.
Zurück
Oben