News Radeon RX 6500 XT: AMD bringt RDNA 2 mit TSMC N6 für 199 $ in den Handel

Man muss sich hier wie überall die Frage stellen, wie schlimm die 4GB wirklich sind. Ich wiederhole mich zwar wieder, aber das ist deswegen, weil mich das Thema selber beschäftigt...

Die meisten Vergleichsbenchmarks zwischen (identischen) GPUs mit 2gb vs 4gb oder 4gb vs 8gb VRAM haben gezeigt, dass der Performanceverlust 0-20% sein kann (aber nicht höher). Das klingt zwar viel, aber wenn ein Spiel z.B. bei doppeltem VRAM mit 36 fps läuft, läuft es bei halbierten immer noch mit 30 fps. Das sind jetzt nicht Welten Unterschied.

Viel wichtiger ist, dass es nicht zu plötzlichen Rucklern kommt: Und das lässt sich verhindern wenn man genügend System-RAM hat. Es scheint bei allen Spielen so zu sein, dass das Swapping von VRAM zu SystemRAM o.ä. keine merklichen Ruckler produziert. Lediglich die insgesamten FPS sind (manchmal) geringer - aber stabil, wenn man genügend SystemRAM hat. Also wer sich da 32 GB System-RAM in den Computer tut, der wird wahrscheinlich mit einer 4GB VRAM Karte auch nicht allzuviel Probleme haben.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Es müssen ja nicht unbedingt Ruckler sein, dem kann man in gewissem Rahmen mit entsprechendem Texturenmanagement durch die Engine entgegenwirken. Wenn die Engine dynamisch geringer aufgelöste Texturen nutz, damit trotzdem möglichst viele in den Grafikspeicher passen, gibt's auch keine (oder wenige) Ruckler bzw. FPS-Einbrüche.
Nur führt "zu wenig Grafikspeicher" dann aber dazu, dass der Radius um die Spieler sinkt, in dem höher aufgelöste Texturen benutzt werden - man merkt also die Übergänge und den dynamischen Wechsel zwischen hoch & nied rig aufgelöst deutlicher, weil näher am Spieler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk
@mibbio @Faust2011 ich glaube das der Inf.Cache keinen Einfluss auf das Mining hat. Alleine die kastrierung auf 64Bit macht die Karte ziemlich uninteressant, gut und mit 4gb RAM ist zumindest etherium nicht mehr mineable.

Die 6900xt/6800xt/6800 haben praktisch die gleiche Hashrate ~63hm
Erst 6700xt reduziert deutlich auf 47hm
Und die 6600xt nochmal 32hm

Zu diesen Karten ist immer 64Bit reduzierter memory Bus. Und jeweils geht 15-16hm verloren. Und zwischen 6700xt und 6600xt wurde der Inf. Cache um 2/3 verkleinert. Von 6800 auf 6700xt nur um 1/4.
Die Anzahl der ROPs hat hier kaum Einfluss

Der Vorteil der 6600er Karten ist die geringe Strom Aufnahme, dadurch werden sie auch oft genommen.

Eine 6500xt mit 128bit + schnelleren Speicher +8gb RAM dürfte sogar sehr interessant für Miner werden
Ergänzung ()

Es ist sehr schade gewesen das AMD fast die komplette RX 5000er Serie eingestampft hat. Wenn 4gb Karten den Markt hätten etwas entspannen können, wäre die 5500xt(4gb) doch die Karte gewesen die man hätte weiterlaufen hätte können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk
Es wäre ja zu schön um wahr zu sein, wenn die Karte für Miner unbrauchbar wäre und sie in grossen Massen auf den Markt gebracht wird, so dass sich der Preis wirklich auch bei um die 100-200€ einpendeln wird, denn das könnte auch zu einem Abkühlen des Gebrauchtkartenmarktes führen, sodass man auch für den schmalen Taler was Brauchbares erhält.

Um die Preise wirklich zu drücken, fehlen jetzt nur noch Nvidia und Intel mit entsprechenden Mininguntauglichen Karten. Sehr schade, dass Intel auf der CES, die GPUs mit keinem Wort erwähnt hat.

Hoffen wir, dass der Preis dieser Karten, nicht zu sehr durch die Scalper beeinflusst werden wird.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
ich glaube das der Inf.Cache keinen Einfluss auf das Mining hat. Alleine die kastrierung auf 64Bit macht die Karte ziemlich uninteressant, gut und mit 4gb RAM ist zumindest etherium nicht mehr mineable.
Demzufolge bräuchte es für eine Anti-Mining–Variante mit 8 GB also mehr Infinity Cache, aber gleiches schmales Speicherinterface.
 
Die Frage ist natürlich in welchem Verhältniss Cache und speicherinterface indealerweise haben müssen. Ab 6700xt ist der Infi.Cache zahlen mäßig immer halb so groß wie das Speicherinterface 256bit/128MB 192bit/96MB. Erst darunter(Karten mit 8lanes) ist er nur noch 1/4 so groß. 128bit/32MB 64Bit/16MB (Ausnahme 6500M 128bit/16MB)

Eine 6600xt mit 128bit und 64MB Cache wäre vielleicht der 6700xt zu nahe gekommen, hätte ihr aber für wqhd gut getan.


Bin gespannt wie die Verhältnisse bei rx7000 aussehen wird. Soweit ich mal gehört habe sollen ja die untersten Klasse trotzdem mit RDNa2 kommen und Rdna3 für mittlere Oberklasse reserviert sein . Wie Polaris und Vega wahrscheinlich.
 
Kommt auch nur mit PCIe 4 x4!
https://videocardz.com/newz/amd-radeon-rx-6500-xt-is-limited-to-pcie-4-0-x4-interface

AMD-Radeon-RX-6000-PCIE-LANES.jpg

ASROCK-RX6500XT.png
 
  • Gefällt mir
Reaktionen: LamaTux und mibbio
chithanh schrieb:
Nein, selbst mit MST-Hub kann Navi24 maximal 2 Monitore unabhängig ansteuern
Uff, das ist übel.
 
Nur 4 lanes. Die Karte ist ein merkwürdiges Produkt. Welcher Designer hat hier denn Mitsprache recht gehabt.

Jetzt bin ich aber wirklich auf Tests gespannt. Die Karte soll für high Settings in Fhd reichen, bin gespannt.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Vincy schrieb:
Kommt auch nur mit PCIe 4 x4!
Dürfte aber für die Leistungsklasse sicherlich ausreichen. Würde auf einem Board ohne PCIe 4.0 ja immer noch PCIe 3.0x8 entsprechen.
 
  • Gefällt mir
Reaktionen: CableGuy82
mibbio schrieb:
Würde auf einem Board ohne PCIe 4.0 ja immer noch PCIe 3.0x8 entsprechen.
Das beschneidet das Aufrüsten eines älteren PC unnötig. Die haben PCIe 3.0 und mit 4 Leitungen noch 1/8 dessen, was eine vollwertige 16x Karte bei PCIe 4.0 hat.
Bei einem neuen PC mit PCIe 4.0 kann dann zwar gespart werden, aber zum Aufrüsten ist die Karte suboptimal.
Als Endkunde kommt man sich verarscht vor, wenn einem das gleiche eingeschränkte Zeug vorgeworfen wird, was bei OEM gerade reicht.
Die RX6500XT ist damit für mich schon verbrannt, bevor es sie zum Kaufen gibt.

Sollte die Karte bei Computerbase getestet werden, dann bitte auch mit PCIe 3.0.
 
  • Gefällt mir
Reaktionen: Nebula123, C4rp3di3m und Arcturus128
deo schrieb:
Das beschneidet das Aufrüsten eines älteren PC unnötig. Die haben PCIe 3.0 und mit 4 Leitungen noch 1/8 dessen, was eine vollwertige 16x Karte bei PCIe 4.0 hat.
Ist halt die Frage, ob die nur firmwareseitig auf 4 PCIe 4.0 Lanes limitiert ist (also nur, um die Anbindung auf 7,8 GB/s zu begrenzen). Die kann in einem PCIe 3.0 Slot dann ja trotzdem mit 8 Lanes (auch 7,8 GB/s) laufen, sofern die Kontakte dafür mechanisch und elektrisch vorhanden sind.
 
@Vincy da muss ein Fehler vorliegen. Unterhalb von x8 macht das ganze keinen sinn zumal auf dem Bild die elektrischen lanes für x16 gezeigt werden.

DSC_1735.JPG

Hier Mal ein Bild meiner beiden GPUs. Die 6900XT oben ist elektrisch mit x16 angebunden

Die WX3200 darunter hingegen nur mit x8 elektrisch über die x16 Slot länge.

Die elektrischen Leitungen sind somit nicht vorhanden. O ich weiß nicht was videocardz hier wieder verbrochen hat aber das haut Hinten und vorne nicht hin was die da gepostet haben
 
Da würden mich die Gründe sehr interessieren. Scheint ja offenbar zu reichen? Wer weiß. Ich würd erstmal abwarten. Solche Angaben auf Websites sind leider auch oft falsch
 
ruthi91 schrieb:
@3faltigkeit Damals war halt alles günstiger, auch Spielekonsolen.
Ich meine Nintendo Gamecube und Xbox 360 gabs für 100-150€, heute kostet ne Series X 500.
Derzeit überhäufen sich ja alle mit Ausbaustufen oder neuen Plänen für Halbleiterfabriken, aber bis die alle am Produzieren sind und man wieder ein Überangebot hat vergehen bestimmt noch 2-3 Jahre.
Sorry, das stimmt nicht! Die PS3 z.B. kostete am Start 600 Euro, die Xbox 360 479 Euro. Inflationsbereinigt ist das noch mehr. Bei der Series X bekommt man ordentlich Hardware, für die man im PC Bereich weit über 1000 Euro ausgeben müsste. Eigentlich wäre es geil, wenn man auf dem Ding einfach Windows installieren könnte. Ist doch aus dem gleichen Haus.
 
  • Gefällt mir
Reaktionen: Arcturus128 und Strahltriebwerk
mibbio schrieb:
Dürfte aber für die Leistungsklasse sicherlich ausreichen. Würde auf einem Board ohne PCIe 4.0 ja immer noch PCIe 3.0x8 entsprechen.
So funktioniert das aber nicht, wenn die Karte nur 4 Lanes hat, hat man mit einer CPU, die nur PCIe 3.0 hat auch nur 4× PCIe 3.0. Zum Beispiel bei AMDs noch mindestens für 6 Monate aktuellen Desktop APUs.
 
  • Gefällt mir
Reaktionen: deo
Philste schrieb:
So funktioniert das aber nicht, wenn die Karte nur 4 Lanes hat
Das ist mir schon klar, dass bei nur 4 angebundenen Lanes auch in den kleineren PCIe-Standards nur jeweils 4 Lanes nutzbar sein. So wie die Screenshots der Kontaktleiste aussehen, scheinen aber alle Kontakte verbunden zu sein. Es ist also möglich, dass die Firmware der Karte im "PCIe 4.0 Modus" halt nur 4 Lanes davon nutzt und in einem PCIe 3.0 Slot eben 8 Lanes nutzt, um auf die identische Übertragungsrate zu kommen.
 
Zurück
Oben