News AMD Radeon RX 5600 XT: ASRock nennt offizielle Spezifikationen

SKu schrieb:
Ich würde daher auch sagen, dass ein Spiel, das auf einer Nvidia GPU evtl. 6GB belegt bei AMD schon mehr als 6GB belegen würde.
Lässt sich pauschal so nicht sagen. Das ist Sache des Treibers wie er das handled.
Hier steckt im Nvidia Treiber sicher mehr Arbeit in Sachen Optimierung.
Ansonsten hätte ich Doom wohl nicht mit Nightmare Texturen auf einer 970 spielen können.

Sieh dir mal die Seite gamegpu.com an, die testen sehr detailliert.
Bis auf 100-200MB ist man hier immer gleich auf.
Wenn man sich dann zusätzlich noch den Ram Verbrauch ansieht, dann belegt ein Nvidia System hier im Gegenzug immer etwas mehr.
Leider testet kaum eine Seite so detailliert, sonst würde man das öfter mal beobachten.

Auch guru3d testet oft Vram mit Nvidia und AMD. Hin und wieder belegt auch Nvidia mehr.

Zudem sieht man es auch bei jedem YT Video wo man Grafikkarten vergleicht.

Edit: Z.B. hier ein kurzes Vergleichsvideo:
Das ist mal so mal so. Bei dem Video würde ich zwar zugegebenermaßen auch Nvidia etwas in Führung sehen, was die belegte Menge angeht, aber es ist eben nicht pauschal.

Zudem verhalten sich hier die Werte nicht zwingend so wie bei anderen Tests.
Bei BFV belegt AMD bei Guru3D weniger an Speicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Rockstar85
Soo abwegig finde ich es gar nicht, dass man evtl auch noch 12GB Versionen zu Gesicht bekommen wird. Eine 5500 "darf" zur Zeit ja auch mehr Speicher haben als eine 5600. Warum soll die nicht auch mehr haben dürfen als eine 5700. Rund wäre es mMn die 5700(XT) dann noch mit 16GB anzubieten. Dann hätte man bei allen Navis die Wahl zwischen einer großen und kleinen Speicherbestückung und kann das passende wählen.
Ansonsten hätte AMD die 5600er einfach bei 4GB belassen sollen. Einfach damit es ins Portfolio passt. Schade wäre dann aber natürlich gewesen, dass es keine 8GB unterhalb von 300€ gibt. Leistungstechnisch hätte es für mich wohl eine 5600XT getan. Aber in 6GB investiere ich nicht mehr, dann hoffe ich auf ein gutes Angebot für eine 5700 nächstes Jahr.
 
  • Gefällt mir
Reaktionen: TheGreatMM, KlaraElfer und katamaran3060
Wenn die 5600XT genau die PCI Anbindung wie die 5500XT hat, ist sie bei mir eh raus, auch wenn sie 8 GB hätte,

für die Karten braucht es Ryzen 3. Generation mit einem X570 Board, auf allen anderen Plattformen läuft die 5500XT mit PCI 3.0 x8,
nein danke, von einer Grafikkarte erwarte ich auf Systemen ohne PCI 4.0 zumindest 3.0 x16.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Poati
Poati schrieb:
Soo abwegig finde ich es gar nicht, dass man evtl auch noch 12GB Versionen zu Gesicht bekommen wird.

Das macht für AMD aus wirtschaftlicher Sicht wohl kaum Sinn. Der Grund, warum die Karte mit 6GB kommt ist schlicht und ergreifend technisch bedingt und wirtschaftlich die sinnvollste Lösung. Teildefekte Chips, die noch verwertet werden sollen. GDDR6 Speicher ist teurer pro Chip im Vergleich zu GDDR5. Einer Karte mit defektem Speichercontroller und geringerem Speicherdurchsatz mehr Speicher zu geben als einer 5700(XT), die zudem auch noch günstiger verkauft werden muss als die nächsthöhere Karte würde doch die teureren Karten zu stark kannibalisieren und AMD müsste hier ebenso den Speicher verdoppeln. Das ist in der Leistungsklasse nicht nur überflüssig, sondern auch für den Kunden nachteilig, da er so wesentlich mehr für die GPUs zahlen müsste.
Ergänzung ()

atlas77 schrieb:
Wenn die 5600XT genau die PCI Anbindung wie die 5500XT hat, ist sie bei mir eh raus, auch wenn sie 8 GB hätte,

für die Karten braucht es Ryzen 3. Generation mit einem X570 Board, auf allen anderen Plattformen läuft die 5500XT mit PCI 3.0 x8,
nein danke, von einer Grafikkarte erwarte ich auf Systemen ohne PCI 4.0 zumindest 3.0 x16.

Aktuelle GPUs werden nicht wirklich stark über PCIe ausgebremst. Selbst bei einer 2080ti sind 3.0 x 8 Lanes in vielen Szenarien noch nicht am Limit.

Eine 5700XT verliert im Schnitt 2% Leistung, wenn man sie mit PCIe 2.0 x 16 statt PCIe 4.0 x 4 (entspricht 3.0 x 8) betreibt in FullHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
SKu schrieb:
Aktuelle GPUs werden nicht wirklich stark über PCIe ausgebremst. Selbst bei einer 2080ti sind 3.0 x 8 Lanes in vielen Szenarien noch nicht am Limit.

Ja, das mag so sein, wobei bei Tests von PCGH da schon mehr Verlust rausgekommen ist, gerade bei der 4GB Variante der 5500XT,
irgendwie ist es aber auch so das Gefühl, eben nicht voll in der Spur zu sein :-)
 
  • Gefällt mir
Reaktionen: KlaraElfer
Ich denke mal eine 12 GB Karte werden wir erst in Form der radeon pro wx sehen, wenn überhaupt. :D aber für den selbstbauer ist das wohl ein Schuss in den Ofen. Naja man hat ja die 5700 und 5500xt wenn letztere noch etwas günstiger wird.

Die 5600 XT ist wohl wirklich was für die OEMs und Apple.
 
  • Gefällt mir
Reaktionen: KlaraElfer
PCI Express.jpg

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-dezember-2019

Die Unterschiede sind schon recht extrem.
Abhilfe schafft nur die Texturen eine Stufe nach Unten zu regeln.

Dafür kauft man sich aber normalerweise keine neue GPU, wenn man sofort die Settings nach Unten regeln muss.
 
  • Gefällt mir
Reaktionen: fox40phil, KlaraElfer, Draguspy und eine weitere Person
Warum sollte AMD ein VRam Monster erschaffen? Der VII hat es bei den Verkaufszahlen auch nix gebracht. 2080 8 GB gegen VII 16 GB.
Hat früher schon die Verkaufszahlen nicht erhöht, wird es auch heute nicht.
 
  • Gefällt mir
Reaktionen: KlaraElfer
atlas77 schrieb:
Wenn die 5600XT genau die PCI Anbindung wie die 5500XT hat, ist sie bei mir eh raus, auch wenn sie 8 GB hätte
Die 5600 XT basiert aber auf den Chip der auch für die 5700XT verwendet wird. Somit 16 Lanes.

SKu schrieb:
Eine 5700XT verliert im Schnitt 2% Leistung, wenn man sie mit PCIe 2.0 x 16 statt PCIe 4.0 x 4 (entspricht 3.0 x 8) betreibt in FullHD.
Die RX 5700(XT) hat aber auch 8 GB. Die RX 5500 8GB verliert auch nur wenige Prozente gegenüber PCIE 3.0. Es betrifft jetzt auch nicht jedes Game. Doch einige Games brauchen mehr als 4 GB und erst dann kann es zu Einbrüchen kommen, wenn nicht PCIE 4.0 genützt wird. Es geht hier einfach um die Zugriffe auf den Arbeitsspeicher.

Taxxor schrieb:
Aus dem Test der 5500XT
Das Spiel könnte am Ende aber auch einfach besser auf NV Karten laufen. Man ist hier ja sogar schneller als die 8GB.Die 4GB bricht einfach nur noch zusätzlich ein, aufgrund PCIE 3.0. Und auch die 2060 ist bei dem Spiel eine Spur schneller als die 5700.

Klar du und die 5500XT, ihr werdet bestimmt keine Freunde mehr. Trotzdem, gespannt bin ich trotzdem noch, wie Renoir und Navi 14 als Kombi so sein könnte. Vllt gibt es zur Abwechslung für Notebooks mal etwas interessantes. (Preis/Leistung)
Auch nicht so uninteressanter wäre eine Variante mit Navi 10.Angekündigt wurde ja bereits was.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Rockstar85
Lustig: KraitES beschwert sich über die angebliche Bevorzugung von AMD, dabei hatte sich niemand so geäußert. Werden Fakten eigentlich noch zur Kenntnis genommen, oder geht es nur noch um Fanboy-Gehabe?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tunichgut, KlaraElfer, CableGuy82 und 4 andere
Taxxor schrieb:
Aus dem Test der 5500XT
Das dürfte der Anbindung mit 8x PCIE4 geschuldet sein..Deswegen sagte ich ja auch 5700, denn sowohl sie, als auch die 2070 haben 8GB Ram und 16 fach PCIe

@HaZweiOh
Naja du kannst es dir ja denken.. Alternative Fakten eben

Deathangel008 schrieb:
schon klar dass man bei 192bit 8GB nicht gescheit anbinden kann. aber man hätte sich dieses krumme SI ja gar nicht erst ans bein binden müssen.
Nunja, vllt geht es von dem Aufbau des Chips nicht anders.. 128bit könnte ziemlich zu klein sein.. Aber mal schauen, AMD hatte schon öfter krumme SI... vllt gibts ja Custom Abhilfe.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Sternengucker80 schrieb:
Warum sollte AMD ein VRam Monster erschaffen? Der VII hat es bei den Verkaufszahlen auch nix gebracht. 2080 8 GB gegen VII 16 GB.
Hat früher schon die Verkaufszahlen nicht erhöht, wird es auch heute nicht.
Wenn die grundsätzliche Leistung des Chips nicht stimmt, hilft auch mehr VRam nicht.

@Topic:
Wie schön, ein neuer VRam Krüppel in 2020. Ernsthaft, wer kauft sowas?
 
  • Gefällt mir
Reaktionen: KlaraElfer
SKu schrieb:
die zudem auch noch günstiger verkauft werden muss als die nächsthöhere Karte
Trifft ja eben auf die 5500XT 8GB auch zu. Da stecken auch 8GB teurer GDDR6 drauf. Ebenfalls mehr Speicher als das höhere Modell und muss auch günstiger sein. Was aber wohl stimmt, 12 GB an dem Speicherinterface werden wirklich zu teuer in der Klasse. Da müssten ja 4GB Bausteine an die 3 Controller, das könnte teuer werden.
Interessant wäre noch gewesen, ob man es nicht hätte gleich mit 128bit Interface und dem schnellsten verfügbaren GDDR6 versuchen können. Dann wären 8GB zumindest kein Problem.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Rockstar85 schrieb:
Nunja, vllt geht es von dem Aufbau des Chips nicht anders.. 128bit könnte ziemlich zu klein sein.. Aber mal schauen, AMD hatte schon öfter krumme SI... vllt gibts ja Custom Abhilfe.
Hätte man nicht einfach nochmal 4CUs entfernen können? Also weiterhin 256Bit/8GB und dann 32 CUs mit dem Takt der 5700. Damit läge man dann ca bei 88% der Leistung der 5700, die 5500XT liegt bei 69%, also wäre die 5600XT dann recht genau in der Mitte.
Dafür fallen aber wahrscheinlich einfach nicht genug gute Chips ab um das preiswert anbieten zu können(wobei das bei Vega ja auch geklappt hat mit 8 CUs Unterschied) bzw. man müsste zu viele mit teildefektem SI wegwerfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und katamaran3060
Guten Morgen Community,

mir kam da grade ein Idee. Da fast so ziemlich alle Spezifikationen der 5600 XT bekannt sind, könnte man diese doch einfach durch eine RX 5700 simulieren?
Das wäre doch mal was schönes für jemand aus der Community, der eine RX 5700 besitzt.
Einzige Voraussetzung wären, es müsste in 1080p getestet werden, um sicher zu sein, dass die 6GB nicht der Flaschenhals sind und vielleicht auch nicht das neuste CoD testen, da dies ein großer Speicherfresser ist.
Ansonsten würde die 5700 durch 8 statt 6GB profitieren, was das Ergebnis verwässern würde.

Alles andere könnte man einstellen:
  • Powertarget auf -10% (gehen wir einfach mal von 160 Watt aus, im Grunde wird die Karte am Ende eh über den Gametakt limitiert)
  • Eingestellter max Takt im Treiber = Gametakt = 1460 Mhz (eigentlich müsste der ein wenig höher liegen, da der Gametakt ja nur ein Durchschnittstakt ist, aber wenn wir den maximalen Boosttakt einstellen würden, vermute ich, dass die Karte höher taktet als eine echte 5700, weil wir die Spannung nicht kennen. Ein Ausgleich ist aber, dass der Gametakt des Challenger Modells bereits eine OC-Version ist und somit etwas über dem Referenzdurchschnitt liegen müsste. Am Ende muss es ja auch keine 100% Punktlandung werden)
  • (Ergänzend könnte man die GPU-Spannung noch etwas niedriger einstellen, wenn man im ersten Anlauf merkt, dass die Karte den Gameclock nicht hält, weil sie immer noch zu viel verbraucht oder auch einfach das Powertarget erhöhen, bis die Karte den Gameclock hält)
  • Jetzt kommt der Trick bzgl Speichergeschwindigkeit. Würden wir einfach nur die Module auf 6.000 Mhz runtertakten, um die 12Gb Chips (statt 14Gb) zu simulieren, hätten wir immer noch eine Speicherbandbreite von 384GBs denn wir haben ja bei der RX 5700 ein 256-bit Speicherinterface. Wir wollen aber 288GBs um das 192-Bit Interface zu simulieren. Also takten wir den Speicher auf niedrige 4500 Mhz.
Diese simulierte RX 5600 XT ist wie der Name schon sagt eine Simulation und soll nur ein Gefühl für die zu erwartende Leistung der echten 5600 XT geben.
Ich hab leider hier keine 5700 rumliegen. Eine 5700XT eignet sich nicht aufgrund von 40, statt 36 CUs.

Irgendwelche freiwillige aus der Community?
@SV3N @Wolfgang und @MichaG würde sich bestimmt freuen ;)
 
  • Gefällt mir
Reaktionen: fox40phil und KlaraElfer
Chismon schrieb:
Was soll eigentlich der (teurere) GDDR6 auf einer RX5600 XT, den hätte man sich im wahrsten Sinne des Wortes sparen können und einfach nur GDDR5 darauf klatschen können, wenn der GDDR6 sowieso in ähnliche Gefilde herunter getaktet wird?

Ich denke ganz einfach, der RAM Controller der Navi GOU kann nicht mit GDDR5 umgehen. Ist ja nur eine abgespeckte 5700.
 
  • Gefällt mir
Reaktionen: Chismon und KlaraElfer
Die 8 GB und das gleiche Speicherinterface (wie der 5700) hätten sie der 5600XT spendieren können. Wäre keiner böse drum gewesen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
KraitES schrieb:
😄 Welch Ironie 😂

Nvidia 6 GB, buähhh wie schlecht.

Amd, 6 GB 👍


Das Problem dabei ist, Nvidia hat dazu noch ein besseres Speichermanagment. 😘


1. <8GB = kacke, immer
2. eben nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und CableGuy82
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
r4yn3 schrieb:
Wird so Pi x Daumen eine Punktlandung auf RX56 Niveau, zumindest die Referenz.
Custom etwas darüber.

Siehe auch: https://www.igorslab.de/amds-radeon...eger-mit-6-gb-ram-und-3-4-ausbau-nachgefragt/
Da kannste er die Specs aber auch noch nicht komplett, mittlerweile sieht die Meinung anders aus^^
FormatC schrieb:
Um wirklich auf Vega56 Niveau zu landen, müsste die Karte bereits rechnerisch mit gleichem Takt (GPU und RAM) wie die 5700XT daherkommen (3/4 Rechnung). Das wird aber nichts, schon gar nicht mit billigen 12 gbps Modulen.

Es ist erstmal eine 5700 mit 3/4 des SI, dazu auch noch mal deutlich weniger Takt, also mehr als 75% einer 5700 würde ich da nicht vermuten.
Damit läge man ~10% unter der Vega56 und ~20% über der 5500XT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und r4yn3
Zurück
Oben