News AMD Radeon RX 5600 XT: ASRock nennt offizielle Spezifikationen

pipip schrieb:
AMD hat selbst gesagt, sie setzen auf 7nm. Ein Refresh auf 7nm+ ist nahezu kein Aufwand. Durch die Beleuchtung soll aber die Fertigung "einfacher" sein. Wieso ich eben auch NV Ampere auch mit 7nm+ erwarte.
AMD hat sich einfach 12nm bei GF erspart. Kurz ausgedrückt.
Nahezu kein Aufwand? Verwechselst du es mit N7P? Dank EUV brauchst du komplett neue Masken. Nahezu kein Aufwand ist sicherlich nicht richtig.
Da lohnt ein reiner Refresh kein Stück, da kann man auch gleich die Architektur modernisieren.
N7P zu nutzen wäre das was AMD mit Polaris gemacht hat.

12 nm haben sie doch mit Polaris genutzt.
 
  • Gefällt mir
Reaktionen: KlaraElfer, pipip und adAstra
AMD hätte diese Karte eindeutig mit 6 bzw. 8GB VRAM bringen sollen, so wie die 5500er mit entweder 4 oder 8GB... Full HD Gaming hin oder her, diese Karte schafft auch 1440p (mit Regler drehen) so viel Unterschied wird zu 5700er (non XT) im Endeffekt nicht sein...

Ein Alleinstellungsmerkmal was AMD jetzt eindeutig verspielt hat.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Cratter13
katamaran3060 schrieb:
Die überwiegend in Fertig-PC`s Verwendung finden. Im Freundeskreis haben alle 8GB Karten
Nicht jeder hat ein Freundeskreis aus Zocken oder die maximale Grafik wollen. Ein Kumpel hat sich erst die 1660 TI geholt und ist damit extrem zufrieden. Von der Leistung für 1080 locker ausreichend.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Hallo zusammen,

@ OldZocKerGuy
OldZocKerGuy schrieb:
AMD hätte diese Karte eindeutig mit 6 bzw. 8GB VRAM bringen sollen, so wie die 5500er mit entweder 4 oder 8GB...
Da hast du das falsche Vergleichsverhältnis genommen. Bei einem 192 Bit Bus sind keine 8 Gbyte VRam möglich, höchstens in verquerer Version wie seinerzeitig bei der Nvidia Geforce GTX 970. Möglich sind also ohne Einschränkungen bzw. Beschränkungen nur 6 Gbyte VRam, oder eben gleich 12 Gbyte VRam.

Wer weiß, vielleicht gibt es ja von dem ein oder anderen Custom-Hersteller Versionen mit 12 Gbyte VRam. Seinerzeitig bei der AMD Radeon 290 / 290 X hat Sapphire auch Modelle mit 8 Gbyte VRam gebracht, sogar mit komplett eigenem Layout, welches noch dazu 40-50 Watt weniger Strombedarf hatte.

Wenn sich ein Custom Hersteller an Versionen mit 12 Gbyte VRam wagt, könnte das ein echter Hit werden, 12 Gbyte wären in der Klasse ein eindeutiges Alleinstellungsmerkmal. Ansonsten, mit 6 Gbyte VRam ist das eigentlich klar zuwenig, weil die Leistung aus meiner Sicht eine Etage über Full HD angesiedelt ist.

So long...
 
  • Gefällt mir
Reaktionen: KlaraElfer
Aus meiner Erfahrung heraus, nutzen ein Großteil der PC Spieler eine Grafikkarte, ca 2 1/2 Jahre, bis sie gegen ein schnelleres Modell ersetzt wird.

Wenn die Grafikkarte, unter Voraussetzung von 1080p eingesetzt wird, denke ich, dass auch 6GB Grafikspeicher ausreichend sein können, ohne sehr starke Einbußen auf visueller Ebene hinnehmen zu müssen.

Mit Hinblick auf eine 2 bis 3 Jahres Steategie, bin ich der Meinung, dass dieses Modell, ebenso wie die 16XXer Serie, durchaus eine Daseinsberechtigung aufweist.

Etwas entartet wirk auf mich lediglich die Tatsache, dass eine Grafikkarte, mit geringerer Rohleistung, mit dem selben Speicher, in größerer Menge ausgestattet wird, als das nächst leistungsfähigere Model... ^^
Ich habe den Artikel nicht gelesen, daher vermute ich eine Limitierung durch das SI und keine Markt technische Selektive.
 
Zuletzt bearbeitet: (Ergänzung)
  • Gefällt mir
Reaktionen: KlaraElfer
Was kostet eigentlich Grafikspeicher? So wie die hersteller damit geizen scheint der Speicher ganz schön teuer zu sein...
 
  • Gefällt mir
Reaktionen: KlaraElfer
Cratter13 schrieb:
Das Problem das ich mit 6GB habe ist, dass diese mit den neuen Konsolen bereits überholt sein werden. Und die kommen im Herbst 2020 auf den Markt. Von Zukunftsfähigkeit kann bei der 5600XT also keine Rede sein. Und wer 200€+ für eine neue Grafikkarte ausgibt, will doch sicher nicht nur 1 Jahr lang aktuelle Grafik genießen können. Die Spiele, die ab dem Zeitpunkt der neuen Konsolen herauskommen, werden sicher leistungsmäßig dann mehr erfordern als aktuell. Und da würde ich dann eher direkt zur RX 5700 greifen, wenn man schon soviel Geld ausgibt.
Ich sehe die Probleme nicht. Die 5600 xt dient der Verwendung der schlechteren Chargen aus der Produktion, wo ein Speicherinterface wegfällt, 25% des Chips geschnitten werden, der Basistakt gegenüber der 5700 ca. 16% reduziert wird. Der Preis des Produktes wird so lange sukzessive abgesenkt werden, bis es ausreichend Kunden findet. Das regelt der Markt. Betriebswirtschaftlich völlig korrekte Entscheidung.

Ob du die Karte ein Jahr oder fünf Jahre nutzt, hängt nur davon ab, mit welchen Einstellungen du bereit bist zu spielen. Ich habe letztes Jahr meine gtx 970 gegen eine rtx 2070 gewechselt und mir einen UWQHD Monitor zugelegt. Auf FHD war die 970 durchaus in Ordnung, hängt halt alles von den Ansprüchen und vom Geldbeutel ab.
Darüber hinaus gibt es hier verschiedene Betrachtungsweisen. Nehmen wir einen Wertverlust von 20%/Jahr, dann würdest du bei einer 5600 xt bei 250€ in einem Jahr ca. 50€ Wertverlust haben. Nimmst du eine rtx 2070S hat die in einem Jahr bei 500€ Kaufpreis 100€ Verlust. Dafür kannst du ein Jahr lang über die höhere Leistung verfügen. Hier von absoluten Werten aus zu gehen nach dem Motto: Sobald das erste Spiel bei Ultra etwas hakt, sinkt der Wert der Karte auf Null, ich weiß nicht, das klingt irgendwie an den Haaren herbeigezogen. Wenn du lieber die Leistung der 5700 möchtest und 8 GB, ist halt eine Leistungsklasse höher und geht auch bei WQHD noch einigermaßen, wenn man nicht alles auf Ultra braucht.

Momentan ist für jeden was dabei. Konsolen sind davon unabhängig, andere Produktkategorie.

Ob man die 5600 empfehlen kann, hängt vom Preis ab. FPS/Euro müsste besser sein, als bei der 1660 ti, dann wird sie auch Käufer finden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und melloo
Weiß man inzwischen wieviel die RX 5600 kosten wird? Die RX 5500 XT 8GB ist ja momentan breit gestreut zwischen 200€ bis 250€, wohingegen die RX 5700 bei vielen Händlern deutlich unter 350€ kostet. Auch mit Blick auf die GTX 1660 TI darf man da eigentlich nicht über 300€ gehen - selbst für die höherpreisigen Modelle von MSI und Asus, sonst wird die Karte unattraktiver als sie ohnehin schon ist ...
 
  • Gefällt mir
Reaktionen: KlaraElfer
seluce schrieb:
Nicht jeder hat ein Freundeskreis aus Zocken oder die maximale Grafik wollen. Ein Kumpel hat sich erst die 1660 TI geholt und ist damit extrem zufrieden. Von der Leistung für 1080 locker ausreichend.
Das hat garnichts damit zutun ob man nun mit hohen Grafiksettings spielen will oder nicht.
Es geht einfach darum, dass der VRAM-Geiz der Hersteller die Karten schon heute künstiglich ausbremst und das zukünftig eher noch schlimmer wird.
Da versuchen die Hersteller mmn. auf Kosten den Kunden am falschen Ende zu sparen. Denn -ja heute reichen die 6GB unter FullHD in vielen Fällen schon aus, aber es gibt schon heute Titel die diese 6GB sprengen und die Anforderungen steigen zukünftig nur nach oben.

Was dann passiert sieht man ja in den Benchmarks wenn man mal genau hinschaut:
Eine GTX 1660Ti knackt da in einigen Spielen die GTX 1070 da die Rechenleistung eigentlich ganz gut ist. Da der VRAM aber so knapp bemessen ist liegt die alte 1070 aber dennoch im Schnitt wieder vorne und der Unterschied dürfte zukünftig vermutlich sogar noch größer werden. (Siehe GTX 1660Ti Test)

Als Käufer würde ich doch erwarten, dass eine neue Karte zu zum Kaufzeitpunkt X genauso schnell oder gar schneller wie eine ältere Karte (oder Karte der Konkurrenz) war zukünftig nicht deutlich langsamer (als das Produkt mit mehr VRAM) wird, nur weil der Hersteller an der falschen Seite gegeizt hat.
Ich sehe hier auch nicht die Schuld beim Kunden (a la: "Kann sich ja jeder selbst informieren was er kauft."), da sich die meisten Käufer mit sowas einfach nicht auskennen. Hab in meinem Freundeskreis auch einen der sich eine GTX 1060 3GB gekauft hat und nun am kotzen ist weil in fast allen aktuellen Titeln der VRAM limitiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
wie die letzten Jahre bei AMD... Viel zu Spät. Die Karte hätte eigentlich zum Weihnachtsgeschäft breit verfügbar sein müssen!!!

Abervon den Specs klingt die Karte nicht wirklich besonders.

So kurz vor den neuen Konsolen würde ich hier wohl nicht zugreifen, wenn nicht unbedingt nötig. Bei der PS5 sind 16GB RAM bei der Series X sogar 24 GB RAM in Gespräch. Da würde ich mich doch ärgern, wenn ich eine 300? Euro Karte kaufe und diese nach einem Jahr nur noch für alle End Gaming reicht.

Aktuell ist kein guter Zeitpunkt für den GPU Kauf. Die Mittelklasse ist überteuert und langsam. Die Oberklasse extrem überteuert und von Speichermangel geplagt. Hoffentlich bringen die nächsten Generationen mal wieder etwas Schwung in das ganze.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Cratter13
Xes schrieb:
[...]Denn -ja heute reichen die 6GB unter FullHD in vielen Fällen schon aus, aber es gibt schon heute Titel die diese 6GB sprengen und die Anforderungen steigen zukünftig nur nach oben.

[...]Hab in meinem Freundeskreis auch einen der sich eine GTX 1060 3GB gekauft hat und nun am kotzen ist weil in allen aktuellen Titeln der VRAM limitiert.
Zu Punkt 1: 6GB reichen in FullHD aus, es sei denn, man will alles auf Ultra spielen.
Zu Punkt 2: Wer sich nicht informiert, läuft immer Gefahr ein Produkt zu erwerben, das den eigenen Ansprüchen nicht gerecht wird, eine Binsenweisheit. Sollte dein Freund vorhaben, sich mal eine Immobilie zu kaufen, informiert er sich hoffentlich besser. Da kann das Existenzgefährdend werden.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Fnde es schon interessant wie hier Menschen sich an der Speicherbelegung aufgeilen, ich wie auch knapp 30% anderer Steamuser Spielen mit einer 1050 mit 2GB.

Schlechte Grafik? nein Grafikregler gibt es nicht nur zur belustigung. Scheint aber in Zeiten von Ultra Grafikpreset wo man nicht einmal zu hoch ohne Standbild einen Unterschied sieht und neben dem Marketinggewäsch diverser "Fach" Magazinen wohl komplett abhanden zu kommen.

Lieber geilt man sich gegenseitig an schlecht programierten Spielen und desen sinnloser Speicherbelegung auf, und für was! Einfach nur um wiebei Megapixeln sich wichtig zu fühlen und sich ein zu reden man wurde nicht verarscht👍
 
  • Gefällt mir
Reaktionen: brueckmeister, CableGuy82, KlaraElfer und 2 andere
KraitES schrieb:
Fnde es schon interessant wie hier Menschen sich an der Speicherbelegung aufgeilen, ich wie auch knapp 30% anderer Steamuser Spielen mit einer 1050 mit 2GB.[...]
Völlige Zustimmung. Würde jedem, der nur FHD spielen und kein unnötiges Geld ausgeben möchte, eine 1650 super empfehlen oder halt eine rx580, wenn die Abwärme/Netzteil keine Rolle spielt. Da kommt man mit 150-170€ preiswert hin und die Karten werden auch in 2 Jahren noch einen vernünftigen Gebrauchtwert haben.

Wer 250 oder 300€ oder mehr ausgeben will, der soll das tun, ohne sich ständig darüber zu beschweren, das es auch preiswertere Karten gibt.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Cpt.Willard und KraitES
SV3N schrieb:
Die Spezifikationen zur kommenden Radeon RX 5600 XT von AMD waren schon länger ein offenes Geheimnis. Nun bestätigt ASRock die Gerüchte offiziell auf der hauseigenen Produktseite der neuen Grafikkarte.

@SV3N :
Falls ich diesen Bericht der PCGamesHardware richtig interpretiere hat die 5500XT ein auf 8 Lanes beschränktes PCIe-Interface und ist damit in Systemen mit PCIe3 in der Leistung kastriert. Bitte behaltet das Thema im Auge und warnt rechtzeitig, falls die 5600XT ebenfalls derart kastriert wird.
 
  • Gefällt mir
Reaktionen: KlaraElfer
KraitES schrieb:
😄 Welch Ironie 😂

Nvidia 6 GB, buähhh wie schlecht.

Amd, 6 GB 👍


Das Problem dabei ist, Nvidia hat dazu noch ein besseres Speichermanagment. 😘
Meinst du Kniffe wie bei der 970? Da hat Nvidia sicher einige parat
 
  • Gefällt mir
Reaktionen: KlaraElfer, CableGuy82, Rockstar85 und eine weitere Person
Blueline56 schrieb:
Oh man, als ob es keine Regler geben würde, Texturdarstellung um eine Stufe nach unten und gut ist, sieht man eh nur wenn man mit der Lupe danach sucht, bzw bei Standbildern, im Spiel selbst fällt es so gut wie nicht auf. Aber die Marketing-Maschinerie in Form von so Seiten wie PCGH oder auch CB, funktioniert ziemlich gut, den Herstellern von Grafikkarten freuts. Sich immer an der Grafik hochziehen, ja die Spiele schauen immer hübscher aus, aber inhaltlich haben sie im Gegensatz zu Spielen die vor 10 bis 20 Jahren erschienen sind, schwer nachgelassen, gerade im Singleplayer Bereich merkt man das sehr stark.
Warum sollte man am billigsten und effektivsten Grafikverbesserer runterstellen, nur weil man dumm eingekauft hat?
 
  • Gefällt mir
Reaktionen: KlaraElfer
Deathangel008 schrieb:
was den speicher angeht hätte sich AMD echt kein vorbild an Nvidia nehmen müssen. schade. sehr, sehr schade.
Das ist dem krummen SI geschuldet... Sonst haben wir eben so Geschichten wie 2GB mit nur 32bit angebunden.
Das ist Stand 2020 dann schon echt ärgerlich und einem Stillstand nahe.. Mal sehen ob die Gerüchte hier stimmen. Wenn die 1660Ti Super Duper dann 8GB hättte, wäre das noch ärgerlicher.. Mal schauen was der preis am Ende macht.

@KraitES
Welches bessere Speichermanagement? Das war bei GCN vllt wichtig, bei Navi ist das schon fast Makulatur. Die 6Gb bei Nvidia sind genauso schnell voll wie die 6GB bei AMD.. Hat die 5700Xt ja gezeigt.. Der einzige Bandbreitenvorteil ist eben PCIe4.. Ne 5600XT im Notebook könnte mit einem 4600U echt spannend werden..
 
  • Gefällt mir
Reaktionen: KlaraElfer
Hayda Ministral schrieb:
@SV3N :
Falls ich diesen Bericht der PCGamesHardware richtig interpretiere hat die 5500XT ein auf 8 Lanes beschränktes PCIe-Interface und ist damit in Systemen mit PCIe3 in der Leistung kastriert. Bitte behaltet das Thema im Auge und warnt rechtzeitig, falls die 5600XT ebenfalls derart kastriert wird.
Sowas gehört meiner Meinung nach von AMD viel mehr vermarktet. Das ist ja ein handfestes Ding und Grund vllt doch auf ein 570 Brett zu setzen. Momentan hat es doch die Mehrheit als netten Beifang mit Zwangsbelüftung im Kopf..
Amd und marketing..
 
  • Gefällt mir
Reaktionen: KlaraElfer und Rockstar85
Zurück
Oben