Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

bierschiss. schrieb:
Frage:
Welche Games kannst du in 4k flüssig mit hohen Settings zocken? Flüssig wären so mehr als 30 FPS... :lol:

Warum 4K? Da reicht 3440x1440 voll aus, oder wenigstens 2560x1440. Auf Full HD kann und will ich nie wieder zurück. Das war vor 10+ Jahren mal ganz toll. Aber auch in 4K kommst du mit einer 2080 Ti bei sehr vielen Spielen auf 60 FPS bei hohen Details. Zum Glück kann man bei der Auflösung Kantenglättung relativ weit (je nach Spiel) zurückfahren.
Ergänzung ()

Oneplusfan schrieb:
Bei aller berechtigten Kritik gegen die 5600 und 2060, aber euer Gefasel von 6GB und "Krüppel" interessiert da draußen echt keinen.

Warum das Krüppel in Gänsefüßchen wenn hier in dem Test schon jetzt ein Spiel dabei ist, bei dem 6GB nicht ausreichen?
 
bierschiss. schrieb:
Welche Games kannst du in 4k flüssig mit hohen Settings zocken? Flüssig wären so mehr als 30 FPS... :lol:
Da die Frage an jemanden gerichtet war, der eine 2080Ti verbaut hat, lautet die Antwort wohl: Alle^^

Mir fällt spontan kein Spiel ein, in dem eine 2080Ti in 4K keine 30fps schafft, meist sind es 40-60.
 
Zuletzt bearbeitet:
6GB VRAM sind auch heute ausreichend. Das ist eine Mittelklasse-Grafikkarte. Man muss nicht den Anspruch haben, immer alle Regler auf das Maximum zu stellen. Ein ganz widerliches, wohlstandsverwöhntes Anspruchsdenken ist das. Zu finden überall in der Gesellschaft - und zu jedem Thema.
 
  • Gefällt mir
Reaktionen: KlaraElfer, DerToerke, computerfouler und 2 andere
Ich mag deinen Sarkasmus, total mein Ding.
 
Botcruscher schrieb:
LOL

Cherrypicking mit DLSS! Das ist nicht FHD sondern 720p aber Hauptsache der Matsch leuchtet...
Solltest Dir das Video halt doch mal anschauen. Modern Warfare bietet kein DLSS und bei Tomb raider ist es deaktiviert.

Aber was erzähl ich da- Der Hater an sich hatte noch nie ein Interesse die Faktenlage aufzunehmen...
Und bei Titeln wie Control und nachfolgend wäre es unklug DLSS nicht zu aktivieren.

Spätestens seit youngblood, welches mit DLSS die bessere Qualität bei höherer Geschwindigkeit liefert, sollte auch der letzte Hater langsam mal in der Realität ankommen, wo es in Zukunft lang geht...

Aber ich weiss. Es kann nicht sein, was in der Vorstellung von einigen nicht sein darf...

LG
Zero
 
  • Gefällt mir
Reaktionen: dampflokfreund, Cohen, CrustiCroc und 2 andere
Taxxor schrieb:
Mir fällt spontan kein Spiel ein, in dem eine 2080Ti in 4K keine 30fps schafft, meist sind es 40-60.
Was schon sehr grenzwertig zu flüssig klingt, zumindest für mich. Anderseits, wenn ich Minecraft mit Pathtracing so spielen könnte, ich würde es machen.
Sprich es kommt halt auch aufs Spiel und Gerne an was als flüssig durchgeht.
 
Apocalypse schrieb:
Was schon sehr grenzwertig zu flüssig klingt, zumindest für mich.
Für mich auch, sein Kriterium war aber nur >30 ^^
 
ZeroZerp schrieb:
Solltest Dir das Video halt doch mal anschauen. Modern Warfare bietet kein DLSS und bei Tomb raider ist es deaktiviert.
Tomb Raider benutzt nur die Recht effektiven Schatten, oder? Ach was soll es, 50 Minuten in den Kaninchenbau hinein. Ich wollte ja eh eigentlich nur spielen ^_^
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wiener77 schrieb:
Viel interessanter, eine Spielwelt die mitlernt. Man spielt ein Rollenspiel und eine Klasse mit bestimmten Ausrüstung. Mit höhere Schwiergkeitstufe prüft der PC dein Gameplay und schickt dir zum Bsp andere Gegner.
Oder man hat ein NPC als Begleiter, dieser lernt, wie er dein Gameplay besser ergänzen kann.
Solch ein machine Learning würde mir mehr taugen.
Für VR könnte es auch interessant sein. Besonders Horror Spiele!

Iscaran schrieb:
"Software RT" für CPU und GPU gleichermaßen (wobei GPU natürlich hier wunderbar ihre regulären Shader einsetzen kann) und mit ein "bisschen" speziell dafür angepassten Fixed Function units für bestimmte Matrizenoperationen dürfte das ganz gut laufen.


https://www.hardwareluxx.de/index.p...trueaudio-next-wird-teil-von-steam-audio.html
Für TrueAudio Next wird dennoch ein gewisser Teil der Hardware reserviert. Dies geschieht über eine Realtime HW Queue, die per Scheduler einen gewissen Anteil an Computes Units reserviert. Als Beispiel werden meist vier CUs, also 256 Shadereinheiten genannt.

Was ich meinte. True Audio wird mittlerweile auch per Software gemacht und kann fix zugeordnet werden. Und ich denk das wird bei RT nicht anders sein. Besonders da RT in den Konsolen auch für Audio geben soll. Wenn man dann noch bedenkt, dass diese fix functions in der TU sein könnte, könnte man quasi Audio mit RT, oder RT für visuell direkt die Shader zu teilen. Eben was man bei Async Compute auch macht um die Shader besser auszulasten.

https://www.hardwareluxx.de/index.p...ia-betont-die-vorteile-von-async-compute.html
Das sieht auch NV so.

Aber es ist eben nur Spekulation und auch etwas Offtopic. Bin aber gespannt was da kommt. Falls das so ähnlich kommt, könnte man aus der Konsolen Hardware viel rausholen.

KuestenNebel
Kann sein. Was ich aber sagen wollt. Es muss nicht unbedingt immer etwas mit Grafik zu tun haben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Fuchiii schrieb:
Unter 40 fps darf das bei mir unter gar keinen Umständen fallen.. besser >50

Als junger Teenager habe ich Morrowind auf einem PIII mit 700 MHz, 256 MB RAM und einer Geforce DDR (Elsa Erazor X2) mit 32 MB VRAM gezockt. In den Städten musste ich beim Gehen auf den Boden schauen, damit die Framerate über die 10-FPS-Marke klettert, auch außerhalb der Städte waren 30 FPS selten. Besserung brachte erst die brachiale Power der Geforce 4 MX 4000 ...

Wie sich die Ansprüche geändert haben :D

pipip schrieb:
Viel interessanter, eine Spielwelt die mitlernt. Man spielt ein Rollenspiel und eine Klasse mit bestimmten Ausrüstung. Mit höhere Schwiergkeitstufe prüft der PC dein Gameplay und schickt dir zum Bsp andere Gegner.

Das lässt sich mit traditionellen Entscheidungsbäumen wesentlich einfacher, ausreichend flexibel und hinreichend "intelligent" (im Sinne von variantenreich) realisieren. Bis Expertinnen und Experten für neuronale Netze in der Spielebranche landen wird noch viel Zeit vergehen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DerToerke, pipip und Fuchiii
KuestenNebel schrieb:
Wie sich die Ansprüche geändert haben
Ja..Früher...meinte man auch ein Flugzeug startet wenn ich meinen PC angeschaltet hab... :D
Dank einem Raid aus 10k Festplatten gemischt mit einer Radeon 2900pro alias "Die Turbine".
Hat mich damals nicht gejuckt.

Heute sitz ich da und bekomm lange Ohren wenn ich was leise rattern Hör, oder wehe die Graka geht auf mehr als 1600rpm... :daumen:
 
  • Gefällt mir
Reaktionen: Kalsarikännit und adAstra
Übrigens was ganz anderes, wegen den 6GB:

All 5600 XT’s will come with 6GB of GDDR6 memory. The 6GB sits on a 192-bit bus with reference speeds of 1,500 MHz (12 Gbps GDDR6 effective). The clock on the Pulse OC (now 14 Gbps GDDR6 effective) yields 336 GBps of bandwidth. Considering the issues that plagued the 4GB 5500 XTs (especially on PCIe 3.0 x16), AMD was asked if the company expects any differences if VRAM runs out and they stated they did not expect any due to the full bandwidth of the slot (PCIe 4.0 x16 for 5600 XT) along with the increased bandwidth in general.

Wir haben schon bei der 5500xt gesehen das PCIe 4.0 zu einem gewissen Grad wirklich hilft. Ich nehme mal an es wurde ohne PCIe 4.0 getestet?
 
  • Gefällt mir
Reaktionen: DerToerke
Apocalypse
Naja, das Problem bei der 5500XT ist ja, dass diese Karte nur 8 PCI Lanes ansprechen kann. Die 5600XT basiert aber auf Navi 10 und hat 16 Lanes. Es geht ja hier um die Kommunikation zwischen GPU und Arbeitsspeicher der CPU.
 
  • Gefällt mir
Reaktionen: KlaraElfer, DerToerke, Apocalypse und 3 andere
Das mit dem BIOS ist etwas unschön.

Aber das alte BIOS hat nicht nur Nachteile. (Überragende Lautstärke und Effizienz)

Nur der Preis ist noch zu hoch.
Der muss und wird noch fallen damit zur 5700 etwas Abstand besteht.
 
Hallo zusammen,

@ Apocalypse
Apocalypse schrieb:
Wir haben schon bei der 5500xt gesehen das PCIe 4.0 zu einem gewissen Grad wirklich hilft.
Bitte? PCIe 4.0 hilft bei der RX 5500 XT derzeit als auch zukünftig definitiv nicht. Auch derzeit bei keiner sonstigen Karte. Egal welcher Colheur. Bei der RX 5500 XT kommt ja noch dazu, daß sie in Punkto "Lanes" arg dezimiert agiert. Um es vorsichtig auszudrücken.

Keine Ahnung wo du das her hast, daß die RX 5500 XT von PCIe 4 profitiert. Auf jeden Fall hast du diese Ansicht ziemlich exklusiv. Gleichwohl lasse ich mich gerne eines besseren belehren. Man lernt ja nie aus in diesem Segment ;).
@ IBISXI
IBISXI schrieb:
Nur der Preis ist noch zu hoch. Der muss und wird noch fallen damit zur 5700 etwas Abstand besteht.

Ich denke, daß der Preis der RX 5600 XT nach 2-3 Monaten sich langsam aber stetig in Richtung 250 € bewegen wird. Und es würde nicht Überraschen, wenn die RX 5700 nicht mehr lange auf dem Markt sein wird. Jedenfalls ist meine Vermutung, daß AMD die RX 5700 auslaufen läßt.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mitesser
Luxmanl525 schrieb:
Keine Ahnung wo du das her hast, daß die RX 5500 XT von PCIe 4 profitiert. Auf jeden Fall hast du diese Ansicht ziemlich exklusiv.
 
  • Gefällt mir
Reaktionen: Acedia23, KlaraElfer, DerToerke und 3 andere
Apocalypse schrieb:
Tomb Raider benutzt nur die Recht effektiven Schatten, oder? Ach was soll es, 50 Minuten in den Kaninchenbau hinein. Ich wollte ja eh eigentlich nur spielen ^_^
Danke Apocalypse- Das Video ist mir entweder völlig entfallen, oder mir durch die Lappen gegangen.
dann wirds halt heut keine neue Folge The Expanse mehr ;)

LG
Zero
 
Hallo zusammen,

@ Taxxor

Danke für deinen Hinweis. Die Frage ist aber, ob das nicht eher mit den beschnittenen Lanes zusammen hängt. Also ob PCIe 4 im Fall der 5500 XT genau deshalb etwas bringt, vor allem in Relation zu anderen derzeitigen GPU`s.

So long....
 
Zurück
Oben