Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

Iscaran schrieb:
Also was genau ist nun an der Karte wirklich wirklich unbrauchbar ?

Die Karte ist mit Sicherheit brauchbar. Ich nutze selber nur FHD und für mich wäre es eine Option gewesen, wenn ich mir vor einiger Zeit nicht die 2060 gekauft hätte.

Ich habe auch nicht, wie es von einigen hier dargestellt wird, den Drang entwickelt mich vor einen Zug zu werfen oder mich vom Dach zu stürzen, weil ich nur 6GB in meiner Grafikkarte habe. :freaky:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Nero2019 schrieb:
Mal vom besseren Stromverbrauch davon abgesehen hätte man auch vor 4 Jahren so eine GPU kaufen können.
Das kannst du bei jeder Karte abseits der Topmodelle sagen, wenn du weder auf Effizienz noch auf Preis achtest...

Davon abgesehen: Im Januar 2016 gab es die GTX980Ti mit 6GB als schnellste Karte, die 5600XT ist 25% schneller als diese.
Dafür musste man dann ca 750€ zahlen, heute bekommst du 25% mehr Leistung für weit weniger als die Hälfte und das bei 130W statt 250W.

Und wenn wir nur 3,5 statt 4 Jahre zurückgehen haben wir die GTX1080, die 790€ gekostet hat und ca gleich schnell ist bei 170W.
Und gehen wir nur ein Jahr zurück haben wir die RTX2060, die gleich viel kostet und das gleiche leistet bei 160W.

Wenn die Karte in den nächsten Monaten Richtung 250€ gehen sollte, ist sie definitiv ein gutes Angebot für die meisten 1080p Spieler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, Müritzer, WommU und 6 andere
Smartin schrieb:
... kommt doch auch auf den Einsatzbereich an. Für FHD reichen 6GB locker in 95% der Fälle (und dafür sind die Karten gedacht). Auch noch morgen und übermorgen. Immer? Wohl nicht! Wäre mehr besser? Zweifellos. 8GB sind heute sogar (noch) Standard im Highendbereich 2080S. Und selbst die stärkste Karte hat "nur"11 GB. Nicht zukunftssicher? was ist Zukunft 20 Jahre 10 Jahre? Dann sind 8GB nicht zukunftssicher. Aber 8GB werden auch in 5 Jahren noch reichen. Vielleicht nicht in jedem Szenarium und bei jedem Game, aber bei den meisten schon.

Man kann es auch schön reden, eine 6GB 300Euro Karte (eigentlich nur für Full-HD geeignet anno 2020) - die mangels angemessenem Speicherausbau (von mindestens 8GB) zum Marktstart-Preis schon altbacken wirkt, weil sie jetzt schon vereinzelt eingeschränkt ist in der Nutzbarkeit (es gibt genügend Beispiele, Ghost Recon Wildlands ist nur eines ... man denke an Deus Ex MD, Mirror's Edge 2, die letzten CoD Teile, usw.) - zu empfehlen.

Anzunehmen ist auch ein neuer Speicherschritt mit den Next-Gen-Konsolen, der die Speicher-/Texturanforderungen wieder hochschrauben dürfte.

Man kauft i.a. eine Grafikkarte nicht nur im/für das jetzt, sondern i.d.R. mit mindestens Blick auf die kommenden 2 Jahre und ja, da werden hier und da 6GB schon knapp in AAA und natürlich nicht in Indie-Titeln, denn dafür braucht's in den wenigsten Fällen eine aktuelle Grafikkarte.

So gesehen ist der Mehrwert für den aktuellen von AMD/RTG angesetzten Preis für die RX5600XT (im übrigen ebenso für nVidias RTX2060 Vanilla) m.E. eher begrenzt bis dürftig und ich würde von einem Kauf oberhalb von 250 Euro für diese rückschrittlich speicherbestückten Karten generell abraten (lässt doch AMD/RTG und nVidia auf Ihrer überteuerten, bewusst auf Kurzlebigkeit ausgeben GPUs sitzen), aber vielleicht bewegt sich da noch einiges bis Ende des Jahres und angemessene 230 Euro für solide RX 5600XT Custom-Modelle werden dann doch evt. Realität.

Die 8GB Oberklasse-GPU-Bestückung bei einer RTX2080S ist auch nicht mehr zeitgemäß bzw. auf die bekannte Knausrigkeit des Entwicklers zurück zu führen und für Ampere ist da eine überfällige Besserung in dem Bereich zu erhoffen, aber das glaube ich erst, wenn nVidia 12+GB GRDR6 in der Oberklasse bringt (auch mit Blick auf den Next-Gen-Konsolen-Speicher, UHD-Texturen, RTRT und VR).

Zu guter Letzt bleibt noch abzuwarten, was die Next-Gen Konsolen anfänglich schon zu leisten im Stande sind Ende dieses Jahres und vermutlich zu deutlich attraktiveren Preisen als AMD/RTG, nVidia oder Intel deren dGPUs bieten können und vielleicht werden dann wieder gemässigtere/faire Preise für Grafikkarten geboten als aktuell.

Ergo, mein Rat wäre, Finger Weg vom PC Grafikkarten-Kauf bis zum Erscheinen der Next-Gen Konsolen (XB SX und PS5) gegen Ende 2020 ... lasst die GPU-Entwickler auf Ihren überzogenen GPU-Preisvorstellungen sitzen und belohnt deren aktuell durchwachsene Preispolitik nicht mit einem Kauf und erwägt evt. einen Umstieg von Gamimg-PC auf eine der kommenden Konsolen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WhiteRabbit123, Cpt.Willard und Qualla
@Chismon
Ich rede mir gar nichts schön. Brauchst Du nur mal meine Kommentare zur Karte anschauen. Ich bin alles andere als ein Fan von der 5600XT. Ich kritisiere nur die hemmungslosen Übertreibung, wonach selbst "8GB nicht mehr lange reichen sollen". Das ist einfach völlig übertrieben. Denn es ist heute noch HighEnd.
Es ist genauso unrealistisch anzunehmen, dass der Bedarf durch die nextgen Konsolen nach oben klettert. Was glaubst Du wird da bei einer 500/600Eur Konsole an GDDR verbaut werden? 16 GB oder was, wenn heute bei einer 800Eur Karte noch 8GB Standard sind? Sicher nicht. Das ist einfach Wunschdenken.
Was nun zeitgemäß ist, und was nicht, ist eine andere Frage. Es ist nun mal Tatsache. Das ist das, was dem Markt geliefert wird. Es wird nicht das geliefert, was sich so mancher hier für seine Daddelkiste wünscht. Und knausige Entwickler? Wie teuer sollen die Karten denn noch werden. Du wärst doch wahrscheinlich an forderster Front dabei, sich über die hohen Preise aufzuregen, oder werkelt eine 16GB vega 7 in Deinem Rechner? Also.
Schau dir den Speicherverbrauch der Games an. Viele lasten die 8GB nicht aus.
Möchte ich eine 16GB Karte? Klar. Aber trotzdem bekomme ich nicht, was ich will.
Und selbst wenn die nächste Generation von Nvidia und AMD beim GDDR aufrüstet und da 16 GB drin arbeiten (was durchaus sein kann), sind 8GB "morgen" nicht zu wenig. Das dauert noch eine ganze Weile. Selbst 4GB sind heute noch brauchbar, wenn auch nicht ideal.
 
  • Gefällt mir
Reaktionen: Marflowah und Iscaran
Smartin schrieb:
.... bin alles andere als ein Fan von der 5600XT. Ich kritisiere nur die hemmungslosen Übertreibung, wonach selbst "8GB nicht mehr lange reichen sollen". Das ist einfach völlig übertrieben. Denn es ist heute noch HighEnd.
Es ist genauso unrealistisch anzunehmen, dass der Bedarf durch die nextgen Konsolen nach oben klettert. Was glaubst Du wird da bei einer 500/600Eur Konsole an GDDR verbaut werden? 16 GB oder was, wenn heute bei einer 800Eur Karte noch 8GB Standard sind? Sicher nicht. Das ist einfach Wunschdenken.
Was nun zeitgemäß ist, und was nicht, ist eine andere Frage. Es ist nun mal Tatsache. Das ist das, was dem Markt geliefert wird. Es wird nicht das geliefert, was sich so mancher hier für seine Daddelkiste wünscht. Und knausige Entwickler? Wie teuer sollen die Karten denn noch werden. Du wärst doch wahrscheinlich an forderster Front dabei, sich über die hohen Preise aufzuregen, oder werkelt eine 16GB vega 7 in Deinem Rechner? Also.
Schau dir den Speicherverbrauch der Games an. Viele lasten die 8GB nicht aus.
Möchte ich eine 16GB Karte? Klar. Aber trotzdem bekomme ich nicht, was ich will.
Und selbst wenn die nächste Generation von Nvidia und AMD beim GDDR aufrüstet und da 16 GB drin arbeiten (was durchaus sein kann), sind 8GB "morgen" nicht zu wenig. Das dauert noch eine ganze Weile. Selbst 4GB sind heute noch brauchbar, wenn auch nicht ideal.

Es ist durchaus möglich, dass innerhalb der kommenden 2 Jahre 8GB knapp werden und nicht nur in Einzelfällen à la Star Citizen/SQ42, sondern wegen RT-Raytracing-Anforderungen, generell anspruchsvolleren Texturen, etc.

Was soll dadurch/daran unrealistisch sein, vielleicht werden die beiden großen Konsolen vorsubventioniert, für Sony und Microsoft ist das denkbar, denn Umsatz/Gewinn wird mit Spieletiteln und Spieleservices/-abos dort hauptsächlich generiert und eben nicht mit der Konsolen-Basis-Hardware/-Einheit.

Natürlich ist es eine Frage der Ansprüche, wie weit man gewillt ist mangels RAM nachher bei den Grafikeinstellungen herunter zu regeln um noch halbwegs spielbare fps zu bekommen, aber 4GB oder 6GB dürften in 2 Jahren mitnichten noch zeitgemäß sein.

Des Weiteren ist das auch in Relation zum derzeit abgerufenen Neukaufpreis zu sehen und dieser ist unverschämt bzw. eine 6GB Ausstattung ist nicht nur in 2020 in der Klasse nicht mehr zeitgemäß bzw. ein Rückschritt zu Polaris RX 570/580 Karten, sondern bewusst verknappt (ähnlich dem Mist den nVidia mit Turing im Vergleich zu Pascal - z.B. GTX 1070 8GB vs. GTX 1660Ti 6GB - abgezogen hat). Auf einmal soll auch weniger Speicher bei gleicher Leistung im Nachhinein reichen (zum gleichen oder am liebsten noch höherem Preis), was Mumpitz ist und Du segnest so ein Kundenabzockeverhalten vielleicht ab, ich hingegen nicht.

Sind GDDR6 Speicherpreise auf HBM2 Niveau(?), Ich glaube nicht, denn erstere sind deutlich niedriger wodurch sich so ein Mayo-Ketchup-Vergleich auf Basis einer Radeon VII nicht anbietet und was kostete diese, genau, ca. 600 Euro, aber wohl nicht nur wegen der 16GB HBM2 Speicher.

Da dürften die 16GB bei einer Konsole (insbesondere wenn Sony und Microsoft zu Grossabnehmerniedrigpreisen zugeschlagen haben werden) locker im Bereich des möglichen/finanzierbaren liegen und daher würde ich die 16 GB dort kategorisch für Next-Gen Konsolen nicht ausschließen wollen ;).

Hätte es brauchbare Custom-Modelle der Radeon VII gegeben, wäre diese durchaus für mich in Frage gekommen und es bleibt die Hoffnung, dass AMD/RTG dieses schwachsinnige Referenzmodelldiktat für Flaggschiff-Käufer nicht bei Big Navi beibehalten wird.

Wenn AMD/RTG 12GB geboten hätten beim jetzigen Preis für die RX5600XT wäre sie ein rundum tolles Paket geworden, so ist sie leider ein speicherverknappter Bauernfänger auch aufgrund des unangemessenen Preises, den man man eben nicht davon losgelöst betrachten sollte.
 
@Chismon
Ich will Dir Deine Träume nicht nehmen, aber dass die Konsolen mehr als 8GB haben werden, halte ich für sehr unrealistisch. Schon von der Einordnung her, wenn die verbaute Karte etwa auf Niveau einer 2080 liegen wird (was ja aktuell vermutet wird), dann sind 8Gb einfach deutlich naheliegender als mehr.
Zumal:
1. Subventionierung. MS und Sony werden ohnehin schon kaum was an den Konsolen verdienen oder denkst Du die machen damit großes Geld? Gerade am Anfang wo es noch nicht mal viele Titel gibt, wird das eher ein Draufzahlgeschäft hinsichtlich Hardware sein. Vielleicht bekommt die "PS5 Plus" oder ähnliches Nachfolgezwischenmodell mal ein Update, aber bei der ersten Generation halte ich das für sehr unwahrscheinlich.
2. "unverschämt" ist da mal gar nichts. Das sind konkurrierende Unternehmen, die Geld verdienen wollen und auf jeden Cent Marge und keine "Wohlfahrtsvereine", die Wünsche der Gamer erfüllen wollen.
3. Ich segne gar nichts ab. Nochmal lies meine Kommentare zur 5600XT. Ich finde sie nicht gut und würde sie auch nicht kaufen. Aber es ist nun mal wie es ist. Rumheulen und wie sich ein bockiges Kind generieren hilft nicht. Und Übertreibungen helfen auch nicht. Der Markt regelt sich durch den Bedarf.
4. Möglich ist viel. Realitisch hingegen nicht. Ich denke, dass es bei den Konsolen nicht nur um Euro oder Dollar bei der Marge geht, sondern um Centbeträge. Glaub mal nicht, dass da ein Hersteller mal eben "ohne Not" den G-Ram verdoppelt. Gerade Konsolen sind mit sehr spitzem Stift kalkuliert. Was im Highend PC Bereich noch nicht mal verfügbar ist, wird kaum bei der Konsole "Standard" werden. Werde einfach realistisch.
5. 12Gb (:freak:)bei einer 5600XT ist einfach unnützt. oder besser gesagt "nice to have" aber nicht wirtschaftlich. Was soll die Karte kosten bzw. wieviel soll man noch für die eher durchschnittliche Leistung bezahlen (die Karte ist jetzt schon nur bedingt wettbewerbsfähig)? Und In FHD bekämst Du in 99,xx% der Fälle den Ram (12GB) nicht voll. Und für höhere Auflösungen ist die Karte eh viel zu lahm (vielleicht noch eingeschränkt WQHD, aber ganz sicher kein UHD). Das ist das gleiche, wie 300km/h Hochgeschwindigkeitsreifen auf einen 1.1 er Polo ziehen zu wollen. Mag zwar "cool" sein, aber noch lange nicht sinnvoll.
 
Smartin schrieb:
@Chismon
Ich rede mir gar nichts schön. Brauchst Du nur mal meine Kommentare zur Karte anschauen. Ich bin alles andere als ein Fan von der 5600XT. Ich kritisiere nur die hemmungslosen Übertreibung, wonach selbst "8GB nicht mehr lange reichen sollen". Das ist einfach völlig übertrieben. Denn es ist heute noch HighEnd.
Es ist genauso unrealistisch anzunehmen, dass der Bedarf durch die nextgen Konsolen nach oben klettert. Was glaubst Du wird da bei einer 500/600Eur Konsole an GDDR verbaut werden? 16 GB oder was, wenn heute bei einer 800Eur Karte noch 8GB Standard sind? Sicher nicht. Das ist einfach Wunschdenken.
Was nun zeitgemäß ist, und was nicht, ist eine andere Frage. Es ist nun mal Tatsache. Das ist das, was dem Markt geliefert wird. Es wird nicht das geliefert, was sich so mancher hier für seine Daddelkiste wünscht. Und knausige Entwickler? Wie teuer sollen die Karten denn noch werden. Du wärst doch wahrscheinlich an forderster Front dabei, sich über die hohen Preise aufzuregen, oder werkelt eine 16GB vega 7 in Deinem Rechner? Also.
Schau dir den Speicherverbrauch der Games an. Viele lasten die 8GB nicht aus.
Möchte ich eine 16GB Karte? Klar. Aber trotzdem bekomme ich nicht, was ich will.
Und selbst wenn die nächste Generation von Nvidia und AMD beim GDDR aufrüstet und da 16 GB drin arbeiten (was durchaus sein kann), sind 8GB "morgen" nicht zu wenig. Das dauert noch eine ganze Weile. Selbst 4GB sind heute noch brauchbar, wenn auch nicht ideal.

dir ist aber schon bewusst dass selbst eine xbox one x jetzt schon 12GB GDDR5-Arbeitsspeicher hat
also 16 sind das absolute minimum das die neuen kosnolen haben werden
es ist sehr viel wahrscheinlicher dass es deutlich mehr werden zumal die ram preise sehr niedrig sind und man die ramaustattung auch sehr kurzfristig erhöhen kann
 
  • Gefällt mir
Reaktionen: Chismon
Beteigeuze. schrieb:
dir ist aber schon bewusst dass selbst eine xbox one x jetzt schon 12GB GDDR5-Arbeitsspeicher hat
also 16 sind das absolute minimum das die neuen kosnolen haben werden
es ist sehr viel wahrscheinlicher dass es deutlich mehr werden zumal die ram preise sehr niedrig sind und man die ramaustattung auch sehr kurzfristig erhöhen kann

RAM =! VRAM !

Ins RAM der Konsolen, das ja ein Shared RAM ist muss all das was auf dem PC im "RAM" liegt. UND dazu die ganzen Texturen etc. von der GPU (alias "VRAM" auf dem PC.)

Mein Desktop hat 32 GB RAM und 4 GB VRAM. Nehmen wir mal an die Konsolen brauchen jetzt nicht so üppig RAM für die Games sagen wir 4 GB RAM, bleiben MAXIMAL 8 GB für VRAM über ^^
Ergänzung ()

EDIT:
Die X-BOX hat nur 8GB RAM (shared) und um die geringe Geschwindigkeit zu puffern eine 32 MB großen Cache mit sehr schnellem RAM.

https://de.wikipedia.org/wiki/Xbox_One

Die X-BOX one X (also die neue) SOLL 12 GB shared RAM haben uaf Basis GDDR 5 (laut Wiki). Wobei ich denke das es momentan noch keiner genau weiss.

Ah EDIT2: hier wird etwas über die Hardware spekuliert und auch da ist die Rede von 12 GB SHARED RAM.
https://www.techradar.com/reviews/xbox-one-x

=> Effektiv werden den Games auch bei den neuen Konsolen nicht mehr als 8GB VRAM zur Verfügung stehen. Eher weniger. Da dürften 6GB wohl nicht so schnell limitierend werden zumal in FullHD.
 
Zuletzt bearbeitet: (Informationsnachtrag.)
Iscaran schrieb:
RAM =! VRAM !

Ins RAM der Konsolen, das ja ein Shared RAM ist muss all das was auf dem PC im "RAM" liegt. UND dazu die ganzen Texturen etc. von der GPU (alias "VRAM" auf dem PC.)

Mein Desktop hat 32 GB RAM und 4 GB VRAM. Nehmen wir mal an die Konsolen brauchen jetzt nicht so üppig RAM für die Games sagen wir 4 GB RAM, bleiben MAXIMAL 8 GB für VRAM über ^^
Ergänzung ()

EDIT:
Die X-BOX hat nur 8GB RAM (shared) und um die geringe Geschwindigkeit zu puffern eine 32 MB großen Cache mit sehr schnellem RAM.

https://de.wikipedia.org/wiki/Xbox_One

Die X-BOX one X (also die neue) SOLL 12 GB shared RAM haben uaf Basis GDDR 5 (laut Wiki). Wobei ich denke das es momentan noch keiner genau weiss.

Ah EDIT2: hier wird etwas über die Hardware spekuliert und auch da ist die Rede von 12 GB SHARED RAM.
https://www.techradar.com/reviews/xbox-one-x

=> Effektiv werden den Games auch bei den neuen Konsolen nicht mehr als 8GB VRAM zur Verfügung stehen. Eher weniger. Da dürften 6GB wohl nicht so schnell limitierend werden zumal in FullHD.

da ist soviel falsch das ich weiß ich garnicht wo ich anfangen soll^^
einfach mal das gröbste

die xbox one x hat 12 GB GDRR5 RAM das ist keine vermutung sondern steht fest man kann die konsole ja auch ganz einfach auseinander bauen und nach schauen (wovon es zig videos gibt)

du scheinst da generell etwas total zu verwechseln
ich habe von der one x gesprochen und nicht der series x
die one x ist schon seit jahren auf dem markt und deren hardware ist hinreichend bekannt^^

natürlich hat die konsole shared ram aber sie hat trotzdem 12GB ram und ich rede nicht von ddr4 sondern gddr5 mit einem extrem schellen speicherinterface das kannst du nicht mit einem pc vergleichen
außerdem reden wir hier von der alten xbox konsole
die neue wird mindestens 16gb ram haben aber am wahrscheinlichsten sind 24gb

spätestens wenn die neuen spiele für die neuen konsolen entwickelt werden und dann für den pc portiert werden kannst du 6gb ram vergessen

6gb sind doch schon jetzt hier und da limitierend das habe ich selbst zu spüren bekommen als ich noch eine karte mit 6gb ram hatte
 
Draguspy schrieb:
Die Boardpartner stecken nun in der Falle zwischen vertraglich garantierter Leistung und einer Leistungsreserve, die der Einzelne durch das Biosupdate ausschöpfen kann. Es war Klug von AMD, das Biosupdate als Option zur Verfügung zu stellen, sonst wären rechtliche Konsequenzen eingetreten. So haben die Board Partner und der Endkunde das Problem. Garantieren die Hersteller nun den Dauerbetrieb mit dem neuen Bios/Parametern? Ab sofort? Oder erst bei der nächsten Charge, wo man unter Umständen kleinere Anpassungen an der Hardware vorgenommen hat?


Ich glaube nicht das es "klug" war einen Leistungssprung durch ein Bios-Update zu Verfügung zu stellen. Klug wäre es gewesen die "Welt" bis kurz vor den Release glauben zu lassen die Karte läuft mit niedrigeren Clocks und dann einfach zum Release der Karte die Specs zu "updaten" natürlich sollten die Kartenhersteller vorab informiert sein.... ....nur irgendwie passt das nicht ins Bild ... warum sollten die Kartenhersteller doch Kosten sparen wollen wo jeder doch wusste das die Karte auch erheblich schneller laufen können wird.... die Frage ist was und wie ist das kommuniziert worden.... und rechtliche Konsequenzen ? Naja verklage Du mal deinen Hauptlieferanden... und rechtliche Konsequenzen als Enverbraucher....also ich weiss nicht... theoretisch ja, aber....
 
  • Gefällt mir
Reaktionen: Draguspy
HAL8999 SP3 schrieb:
Ich glaube nicht das es "klug" war einen Leistungssprung durch ein Bios-Update zu Verfügung zu stellen. Klug wäre es gewesen die "Welt" bis kurz vor den Release glauben zu lassen die Karte läuft mit niedrigeren Clocks und dann einfach zum Release der Karte die Specs zu "updaten" natürlich sollten die Kartenhersteller vorab informiert sein.... ....nur irgendwie passt das nicht ins Bild ... warum sollten die Kartenhersteller doch Kosten sparen wollen wo jeder doch wusste das die Karte auch erheblich schneller laufen können wird.... die Frage ist was und wie ist das kommuniziert worden.... und rechtliche Konsequenzen ? Naja verklage Du mal deinen Hauptlieferanden... und rechtliche Konsequenzen als Enverbraucher....also ich weiss nicht... theoretisch ja, aber....
Das sehe ich ähnlich wie du. Klagen werden wohl nicht kommen, es könnte aber sein, das einige Graka-Hersteller sich zukünftig bezüglich Produkten von AMD zurückhalten. Es gab ja noch weitere Probleme, so haben die Hersteller verschiedene Leistungsklassen der 5600 XT heraus gebracht, standard Modelle und OC Modelle zu höheren Preisen. Da die standard Modelle nun per Bios-update auf höhere FPS kommen als die OC-Modelle mit altem Bios, aber günstiger sind, stimmt da gar nichts mehr. Darüber hinaus schöpft das Update die Leistungsgrenzen voll aus, da ist kein OC mehr möglich, der Chip fährt standardmäßig am Limit, so das die OC Modelle von der Leistung her keine Spielraum mehr haben, die sind jetzt alle bei der gleichen Leistung festgenagelt. Igors Lab hat da einen ausführlichen Test gemacht.

Ich folge da der Argumentation von Igors Lab, die rx 5600 wäre sehr gute Karte gewesen, wenn man keine 300€ Einstiegspreis verlangt hätte, sondern 250€ und den Boardherstellern das Bios rechtzeitig zur Verfügung gestellt hätte, so das diese ihre Produktreihe selbst aufsplitten wie üblich, also non OC für 250€, OC bis 300€, die dann die Leistung der 2060 erreichen. Die non OC wäre dann für Enthusiasten eine sehr gute Wahl gewesen, die gerne selbst overclocken und die Lücke zwischen 5500 XT und 5700 wäre gefüllt.

Das AMD hier selbst ans Limit geht und das, nach dem die Boardpartner ihre ersten Chargen schon mit altem Bios und nicht mehr haltbaren non OC und OC Modellen in der Auslieferung haben, ist ein mittleres Desaster. Darüber hinaus ist nun die 5600 XT der 2060 bei 300$ ebenbürtig, wobei die 2060 OC bessere OC-Reserven hat.

Offenbar hat man nach der Preissenkung von nVdia Panik bekommen, als ob das nicht vorhersehbar gewesen wäre. Der Straßenpreis der 2060 lag ohnehin schon bei 320-330$, hier auf 300$ herunterzugehen, um AMD in ein Dead on Arival rennen zu lassen, war nicht wirklich überraschend. Überraschend ist eigentlich nur, das AMD auf keinen Fall unterhalb von 300$ verkaufen will. Die Karte war ja eigentlich gegen die 1660 super und 1660 ti gerichtet, die hätte man mit 250-260€ mächtig unter Druck gesetzt. Nun hat man einen Konkurrenten zur 2060, der das Gleiche zum gleichen Preis bietet, während der Bereich der 1660 super und 1660 ti unangetastet bleibt. Wer nun eine preiswerte Karte will, mit vergleichbarer Performance/Preis der Vega, landet weiter bei nVidia. Nicht besonders clever das ganze. Die Lücke zwischen der 5500 XT und der 5700 wurde überhaupt nicht geschlossen, man hat sich knapp unterhalb der 5700 positioniert. Wer tatsächlich 300$ ausgeben kann, der legt doch lieber noch mal 30-40$ drauf und kauft die 5700. Aber wer nur 250$ hat, der landet weiter bei nVidia, da ist die 5500 XT einfach zu schlecht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Qualla und Cpt.Willard
bierschiss. schrieb:
Nochmal zum mitschreiben:
Die Vega ist eine sehr gute Computing-Karte, war deswegen seinerzeit laufend ausverkauft und überteuert.
In Games ist die Performance sehr schwankend und ich persönlich hätte keine gekauft, wurde auch häufig davon abgeraten. Allerdings war die Karte auch vor einiger Zeit preislich recht attraktiv, daher auch kein wirklicher Fehlkauf. Muss am Ende jeder selbst wissen. Aber wenn man eine Karte als Fail deklariert ist das nur populistisch, lieber das gesamte Bild...
Chillaholic schrieb:
Wohl eher aufgrund des Mining-Hypes.
Denn sonst hätte man die nach dem Hype nicht für 250€ verschleudert.
Ich habe die ganze Zeit übrigens nur von Gaming geredet, sonst von nix anderem.
Sonst hätt ich auch nicht davon geredet, dass die ihre Leistung nicht umsetzen kann.

die Vegas sind für Gaming halt ineffizient. Die 56 gab es ne lange Zeit ab 07.2019 mit einem guten Spiele Paket und guten customs für um die 260€.

wenn man das bei den heutigen Preisen mal in das P/L Diagramm einarbeiten würde, wäre das immernoch kein schlechter Deal. Zumal die Karten auch alle 8gb hatten.

klar würde das aus Sicht der Effizienz keinen Sinn mehr machen eine Vega zu kaufen, gerade wenn die Preise der 5600 auch noch sinken werden. Aber ärgern brauch sich da mMn auch keiner, wer vorm halben Jahr zugeschlagen hat. Ich habe meine im August inkl Rabatte und Verkauf eines der drei Spiele für 245€ bekommen.
Bin selbst Gelegenheitsspieler, so dass mir das Thema Effizienz sowieso nicht so wichtig ist. Ich ärgere mich kein Stück. Auch nicht, wenn die 5600 in vielleicht 3 Monaten bei 250..260€ angekommen ist.

teilweise muss man ja froh sein, dass es solche Entwicklungen noch gibt :D
 
Artikel-Update: Bei den Arbeiten am geplanten Custom-Design-Vergleichstest zur Radeon RX 5600 XT ist der Redaktion aufgefallen, dass alle dort vertretenen Partnerkarten mit Silent-BIOS mehr elektrische Leistung aufnehmen als die Sapphire Radeon RX 5600 XT Pulse im initialen Test und hat bei diesem Modell noch einmal nachgemessen. Es zeigt sich: Auch wenn Sapphire auf eine geringe Leistungsaufnahme geachtet hat, so niedrig wie in diesem Artikel zuvor verkündet, ist der Energiehunger nicht.

Die neuen Messungen bestätigen den Stromverbrauch mit dem neuen schnellen BIOS der Sapphire Radeon RX 5600 XT Pulse, den des langsameren BIOS aber nicht. Die korrekte Leistungsaufnahme beim Spielen beträgt rund 15 Watt mehr als zuvor geschrieben.

ComputerBase hat die korrigierten Messwerte im Artikel eingetragen, entsprechende Textstellen angepasst und bittet den Fehler zu entschuldigen. Die Ursache für die falsche Angabe konnte im Nachhinein nicht mehr festgestellt werden.
 
  • Gefällt mir
Reaktionen: Ernie75 und BacShea
Beteigeuze. schrieb:
mhh nun ganz knapp doch nicht mehr die effizienteste karte
In höheren Auflösungen (WQHD) gilt es noch. Auf Augenhöhe mit der 2060 Super.
 
Smartin schrieb:
Es ist genauso unrealistisch anzunehmen, dass der Bedarf durch die nextgen Konsolen nach oben klettert. Was glaubst Du wird da bei einer 500/600Eur Konsole an GDDR verbaut werden? 16 GB oder was, wenn heute bei einer 800Eur Karte noch 8GB Standard sind? Sicher nicht. Das ist einfach Wunschdenken.


Das halte ich für eine deutliche Untertreibung. Schau dir doch an, wie es nach den letzten Konsolen aussah. 2011-2013 waren im High End Bereich 1,5-3 GB Standard. Und jeder ist in jeder Auflösung damit prima zurechtgekommen.

2013 sind die Konsolen dann mit 8GB gestartet und seit dem ist der Vram verbrauch extrem angestiegen. Mit einer 2GB Karte hast du heute selbst bei Low Settings meistens schon Frametimes des Todes.

Bei den Konsolen sind aktuell zwischen 16 und 24GB Unified Speicher im Gespräch und das halte ich durchaus für realistisch.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und TheUngrateful
@Shoryuken94 ich sage ja gar nicht, dass es in Zukunft nicht zu Steigerungen kommt. Aber
1. ist shared Memory in der einer Konsole wohl kaum mit den dedizierten 11GB einer 2080Ti vergleichbar
2. sind selbst 4GB wenn auch nicht prickelnd, auch heute noch in vielen Konstellation bei FHD ausreichend (siehe Test der 5500XT und 1650 S hier bei CB. (bei nv haben die 4Gb bei einem Spiel nicht mehr gereicht, bei AMD wegen des schlechteren Speichermanagement bei 2Spielen nicht https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-5500-xt-test.70108/seite-2 )
3. Ich sage ja nicht, dass in 3, 4, 5 Jahren die 8GB bei einer Grafikkarte mitunter am Limit sind, und vielleicht auch nicht mehr reichen. Aber was ist dann? Dann hat man 10% 20% weniger FPS? Ist das jetzt der Weltuntergang? Bis es mal zu einem "zu wenig Ram, und dadurch nicht mehr spielbar" kommt, vergeht da noch Zeit.
4. 7-9 Jahre alte Grafiktechnik als Beispiel anzuführen, unterstreicht meine Aussage. Damals waren 4GB Highend (209X, 780Ti), und wie gesagt 4GB VRAM ist selbst heute meist noch spielbar (wenn auch nicht ideal).
5. Tendenziell sind die Entwicklungssprünge kleiner und die Entwicklungen langsamer. Wer konnte es sich vor 10,15 Jahren leisten, eine Grafikkarte für 3, 4, 5 Jahre im Rechner laufen zu lassen, wie es heute zweifellos möglich ist? Da hat man sich spätestens alle zwei Jahre eine neue Karte geholt, wenn man halbwegs uptodate sein wollte.
6. Hier wird ja teilweise so getan, als fährt der Rechner morgen nicht mehr hoch, wenn er nicht mindestens 32 GB RAM hat (besser 64) und die Grafikkarte nicht 12 oder 16GB VRAM hat. :(
7. 8GB sind "Standard" bzw. das übliche Höchstmaß (viele haben nicht mal 8GB). Darauf stellen sich die Spieleentwickler ein. Was würde passieren, wenn der Speicherhunger jetzt so stiege, dass in 2, 3 Jahren die 8GB nicht mehr reichen? Dann geht den Entwicklern der Löwenteil der Spielgemeinschaft verloren. Das macht doch keiner. Es dauert noch eine ganze Weile, bis der Markt nachgezogen hat. Auf Steam sieht man, dass sich die überwiegende Zahl der Gamer noch auf einem Leistungsniveau einer 580/1060 bewegt und FHD spielt. Nur weil mancher in UHD spielt (so wie ich zB) und/oder eine Highendkarte im Rechner hat, heißt das nicht, dass die noch nicht mal vorgestellte nächste Grafikkartenentwicklungsstufe der Standard von "morgen" ist.
 
Zuletzt bearbeitet:
Steini1990 schrieb:
In höheren Auflösungen (WQHD) gilt es noch. Auf Augenhöhe mit der 2060 Super.
Ist das wirklich so? Ich dachte immer die RTX2070 sein am effizientesten. Leider ist sie hier nicht mehr aufgeführt...
 
Zurück
Oben