News Radeon RX 6500 XT: AMD bringt RDNA 2 mit TSMC N6 für 199 $ in den Handel

Tartush schrieb:
GPU Takt nahezu halbiert

Da hast du dich verlesen

Die 6500xt hat 250mhz mehr als 6600xt
Und ihr Speicher ist etwas schneller 18 Gbps gegen 16 Gbps.
 
  • Gefällt mir
Reaktionen: Mcr-King
rust_x schrieb:
Abgesehen von den durch Mining gestiegenen Preisen

Naja ist ja nicht nur Minnig auch Händler und jetzt die Hersteller selbst, auch AMD selbst sorry so wie ich die GT1030 und die GTX1050/ti kritisiert habe, genau so mache ich es bei der RX6500 XT, wo man sich dass XT auch sparen könnte echt nicht besser als NV. Da dagegen ist die never erscheinende RTX3050 noch echt nett von NV.
 
Mcr-King schrieb:
Richtig jede Xbox-Serie S

Lass doch mal die Konsolen aus dem Spiel.
Das ist doch was ganz anderes.

Weder kann ich sie in einen bestehenden PC einbauen, noch meine ganzen PC Games zocken geschweige diverse verschiedener Controller benutzen . Oder andere Aufgaben die nicht mit zocken Zutun haben dran verrichten.
 
  • Gefällt mir
Reaktionen: sp00kyoo7, McFritte und alex22
Northstar2710 schrieb:
Da hast du dich verlesen

Die 6500xt hat 250mhz mehr als 6600xt
Und ihr Speicher ist etwas schneller 18 Gbps gegen 16 Gbps.
Stimmt, mein fehler es ging hier um die theoretische Rechenleistung.
An meinem persönlichen Fazit ändert es allerdings nichts, sry.
 
  • Gefällt mir
Reaktionen: Mcr-King
Northstar2710 schrieb:
Weder kann ich sie in einen bestehenden PC einbauen, noch meine ganzen PC Games zocken geschweige diverse verschiedener Controller benutzen . Oder andere Aufgaben die nicht mit zocken Zutun haben dran verrichten.

Jain du kannst ganz viele verschiedene Controller nutzen und sogar Maus und Tastatur und wenn ich nur Gaming möchte reicht eine Konsole, davon ab gesehen sind OEM PCs mittlerweile günstiger auch Laptops reichen und sind günstiger dass ich dass mal sagen würde.
Ergänzung ()

Tartush schrieb:
Stimmt, mein fehler es ging hier um die theoretische Rechenleistung.
An meinem persönlichen Fazit ändert es allerdings nichts, sry.

Dafür nur noch mit 64Bit und PCie 4.0 4x angebunden und genau deswegen denke ich auch dass es ein aufgebohrter Notebook Chip ist.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Tartush
Sas87 schrieb:
Ich vermisse im Artikel ein wenig die Info, dass AMD die Karte so mit den Beschneidungen gestaltet hat um die Karte für die Miner uninteressanter zu machen.
Weil es kompletter Unsinn ist. AMD schiebt das als Grund vor, weil das bessere Puplicity ist als "Wir haben für den Preisbereich eigentlich gar keine GPU vorgesehen. Aber dann hat das Marketing entschieden, dass wir doch den beschnittenen Notebookchip als Grafikkarte verkaufen können, da gerade ohnehin alles für jeden Preis gekauft wird und wir das Geld gut gebrauchen können"

Wegen Mining von 8 auf 4GB meinetwegen, wenn man das über den Preis kompensiert. Aber warum dann nur 4 Lanes? Kein AV1? Kein Encoding? Nur 2 Display-Ausgänge? Alles Dinge, die rein gar nichts mit Mining zu tun haben, die allgemeine Nutzbarkeit der Karte aber komplett entwerten. Hätte die Karte nur 4GB, dafür aber wenigstens 8 Lanes gehabt und der Rest nicht beschnitten wäre die Stimmung hier anders.
So ist das Teil für den Desktop ein absoluter Fehlkauf. Und die meisten sind nicht so gut informiert wie wir, die kaufen das Ding dann für 400€, mangels Alternativen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlanK, ComputerJunge, Mcr-King und 5 andere
kachiri schrieb:
Wie kommst du darauf, dass AMD beim 6700G plötzlich 100% findet? [...] Die Zugewinne der letzten APUs waren ja nüchtern betrachtet eher so semi...
Der größte Unterschied wird DDR5 sein. Die APUs sind bisher immer an der Bandbreite 'verreckt'. Daher auch die geringen Zugewinne mit jeder Generation und das lange Festhalten an Vega: Mehr Leistung war bei der begrenzten Speicherbandbreite ohnehin nicht drin. Da hätte es auch nichts genutzt den GPU-Part weiter aufzublasen, die Leistung wäre verpufft.

Jetzt kommt mit DDR5 endlich die deutlich höhere Speicherbandbreite und dazu auch noch die deutlich modernere RDNA2-Architektur. In Summe ist eine enorme Leistungssteigerung sicher.
Nur: Ob die APUs in den Desktop kommen ist wohl noch völlig offen. Es fehlt an der passenden Plattform mit DDR5-Maiboards. Die kommen erst mit ZEN4 gegen Ende des Jahres. Eher sind daher auch keine APUs im Desktop möglich.

Zur 6500XT: Mit den fehlenden Codecs nun endgültig disqualifiziert... Und die Preise sind auch wie zu erwarten abenteuerlich. Kann mir nicht so Recht vorstellen dass die Irgendjemand zu Preisen über 300€ kauft... Aber es gibt auch keine 'aktuelle' Konkurrenz in der Preisliega unter 400€ und viele Kunden sind schlecht Informiert. Mal schauen wie sich die Preise entwickeln, aber über 200€ bleibt die Karte ohnehin uninteressant.

Viele Grüße
 
  • Gefällt mir
Reaktionen: CableGuy82, Mcr-King und kachiri
@Tartush Jeder hat seine Vorlieben und Einstellungen, was für einen selbst in Ordnung ist.

Das ändert aber auch nix an dem was momentan bekannt ist. Und hier können wir uns nur auf die Aussage von AMD verlassen. und die ist gut auf der Webseite zu sehen.
6500xt.JPG

test system:
Ryzen 5 5600X CPU, mit Smart Access Speicher aktiviert, 16 GB DDR4-3600, ASRock Taichi Plattform, Win10 PRO x64

Spiele getestet mit 1080p, Einstellungen hoch: Assassin’s Creed Valhalla (hoch), Battlefield 5 (hoch), Borderlands 3 (hoch), Call of Duty: Black Ops Cold War (hoch), Cyberpunk (hoch), Death Stranding (sehr hoch), Forza Horizon 4 (ultra), Horizon Zero Dawn (Favor Quality), Resident Evil: Village (Grafikvorrang) RX-703.


6500xt 1.JPG


Und AMD hatte in den letzten Jahren bei ihren Ergebnissen nicht wirklich geschludert.
 
SOWJETBÄR schrieb:
Was sind denn das für abenteuerliche Zahlen???

Das sind die Testergebnisse von Computerbase von 2016.
Die Ergebnisse sind ein mittel aus mehreren Spielen, mit einem auf 4,5ghz Skylake 6700K allcore OC.
Zum vergleich, in der selben Seite des Tests wird zb eine Radeon R9 mit 418W Gesamtsystemverbrauch angegeben.
1.JPG


2.JPG

Also du willst doch nicht behaupten dass Computerbase Falsche Zahlen angegeben hat oder ?
Und du willst doch nicht behaupten dass eine Radeon R9 390 Stolze 418W verbraucht hat oder ? (Die Karte hat nur eine TDP von 275W)

Ergo kann die RX480 garnicht so viel mehr Energie verbrauchen, als diese neue RX6500.
Wenn der Skylake + MB, Ram, 2x140mm Lüfter, 2 Festplatten, Maus Tastatur schon ohne OC bei Prime 95 138W zieht, mit OC dann theoretisch noch mehr.
Und dieses System mit Allcore 4,5ghz OC, soll mit der "quasi" Stock RX 580 nur 221 im durchschnitt ziehen.
Wenn man da 120W für CPU und Mobo etc abzieht, kann die Graka ja nur im schnitt 100W verbraucht haben.

Es handelte sich im Test um eine: "MSI Radeon RX 480 1.266 MHz GPU."
Und hier mal aus Wikipedia wie Hoch eine normale RX 580 taktet.
rx 580.JPG
 
Zuletzt bearbeitet:
10-20% Leistung hätten der Karte gut getan. 6GB ebenfalls. Eine kmplett für Mining uninteressante Budget FHD Karte wird trotzdem Ihre Abnehmer finden, wo RX580 grad für viel zu viel Geld verhökert werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Northstar2710 schrieb:
test system:
Ryzen 5 5600X CPU, mit Smart Access Speicher aktiviert, 16 GB DDR4-3600, ASRock Taichi Plattform, Win10 PRO x64
Naja PCIE 4.0 und SACS bestitz nicht jeder und dass bringt auch auf der RX5500 und RX6600 schon viel Boost. ;)

bei PCIE 3.0 bin ich mal gespannt wünsche mir dazu auf jeden fall ein Test von CB.
 
JunkyardSpecial schrieb:
RX6400/6500 ohne AV1 Decode und H.264/265 Encode: was soll das bitte?
😔 Ich wünsche mir schon so lange eine moderne 75W Karte mit vollem Featureset. .
 
  • Gefällt mir
Reaktionen: AlanK und Mcr-King
Nighteye schrieb:
Wenn man da 120W für CPU und Mobo etc abzieht, kann die Graka ja nur im schnitt 100W verbraucht haben.
bei diesem test sah es etwas anders aus


rx580.JPG


https://www.computerbase.de/2018-08/radeon-5770-6870-7870-270x-380-480-580-vergleich/

so wurde gemessen

Etwas neues bei der Leistungsaufnahme​

Bei der Leistungsaufnahme wird nur der Energiehunger der Grafikkarten gemessen. Da die 3D-Beschleuniger eine sehr unterschiedliche Performance aufweisen und deshalb das Messen bei identischer Last praxisfern wäre, hat die Redaktion aber die Methode geändert. Als Spiel kommt World of Warcraft zum Einsatz und in diesem wird die Leistungsaufnahme bei etwa 60 FPS in der Testszene gemessen. Das hat zur Folge, dass jede Grafikkarte bei unterschiedlichen Grafikdetails getestet wird. Damit sind zwar die Anforderungen immer unterschiedlich, doch bildet der Messwert auf diese Weise stets einen spielbaren Bereich ab, der so auch beim Spielen auftreten kann und nicht nur in der Theorie.
 
  • Gefällt mir
Reaktionen: Mcr-King
300€+ für ne Grafikkarte mit 64Bit-Speicherbus und vier PCIe-Lanes… 💩

Langsam wirds lächerlich.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Ned Flanders und Mcr-King
Die 6500 XT, ist für die Tonne. Gerade als x370/ B350 Besitzer. 4/5xxx APU's werden Dank BIOS nicht unterstützt, 2/3xxxg, gibt es nicht mehr und die anderen, haben keine IGPU. Hätte ich nie gedacht, das ich Intel mal gut finde. Lieber ne Mist GPU in der CPU, wie gar keine.
 
  • Gefällt mir
Reaktionen: Mcr-King
Geil, ASUS mal wieder. Bin eigentlich ein grosser Fan, habe Zenttausende von Euro bei denen gelassen. Aber die sind echt selbstbewusst geworden. Mal eben 50-75% auf die AMD-UVP draufgeschlagen für diese Gurkenkarten der TUF-Reihe, die nach nichts aussehen :p

In deren Shop, der alle Scalper zum schmunzeln bringt, sind es dann sicher 500. Da fehlen einem die Worte, von wegen es sind "nur die Händler und Scalper, die sich bereichern"
 
  • Gefällt mir
Reaktionen: Mcr-King
Northstar2710 schrieb:
bei diesem test sah es etwas anders aus

Ok dann ist die Belastung bei WOW wohl höher als bei den 3 Spielen die Computerbase im Jahr 2016 getestet hat.
Ändert aber nicht viel daran dass bei vielen Spielen die RX 580 anscheinend nur 100W zieht.
Auch Tomshardware schrieb zur RX480 damals (ist ja nur paar mhz unter RX 580)

"Power consumption during gaming is significantly lower.
The card never reaches the 150W barrier."

Und wie man sieht war die RX480 schon am Sweetspot was die Effizienz anging.
Ein paar hundert Mhz mehr, und schon schluckt die Karte 200W.
Daher eine RX580 einfach 10% verlangsamen (In den Wattman einstellungen) und man kommt sicherlich auf ca 60-80W im Wattman, und hat bei 1440p dennoch mehr Leistung als mit der neuen RX6500.

Darauf wette ich.
Computerbase soll das mal testen.
Aber in einem PCI-E 3.0 Mainboard System.
Am besten mit Zen+.
RX480 8GB vs RX6500 bei 1440p.
Mal sehen was effizienter ist.
6 Jahre alter Opa in 14nm, oder die neue Brut in 6nm Cyberhightech.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Mcr-King
Äh na halt, großes Missverständnis
Nighteye schrieb:
Das sind die Testergebnisse von Computerbase von 2016.
...
Also du willst doch nicht behaupten dass Computerbase Falsche Zahlen angegeben hat oder ?
Und du willst doch nicht behaupten dass eine Radeon R9 390 Stolze 418W verbraucht hat oder ? (Die Karte hat nur eine TDP von 275W)
Die meinte ich auch niemals, sondern deine Schlussfolgerungen daraus waren abenteuerlich.
Computerbase selbst berichtet hier von über 160 Watt Leistungsaufnahme der RX 480 (unübertaktetes Referenzmodell wohlgemerkt)

Nur um das zu bestätigen was auch andere hier schon schrieben.
Wie kann das also zusammenpassen? Na ganz einfach es gibt da einen Fehler:
Nighteye schrieb:
...
Ergo kann die RX480 garnicht so viel mehr Energie verbrauchen, als diese neue RX6500.
Wenn der Skylake + MB, Ram, 2x140mm Lüfter, 2 Festplatten, Maus Tastatur schon ohne OC bei Prime 95 138W zieht, mit OC dann theoretisch noch mehr.
Und dieses System mit Allcore 4,5ghz OC, soll mit der "quasi" Stock RX 580 nur 221 im durchschnitt ziehen.
Wenn man da 120W für CPU und Mobo etc abzieht, kann die Graka ja nur im schnitt 100W verbraucht haben
...
Aus deinem Zitat hab ichs mal fett hervorgehoben, was nicht zusammen passt. Oben zeigst du mir den Gesamtverbrauch GPU+CPU (+MB,RAM,...) in SPIELEN, dann schreibst du von Prime95 Auslastung. Zieh mal von den 221 Watt grob 150 ab und wir landen bei abgerundet 70 Watt für den Rest vom PC. Das ist dann halt das was Skylake + MB, Ram, ... tatsächlich hier verbraucht und nicht 138W.
Ich habs ja vorher schon geschrieben, aber nochmal Schritt für Schritt:
Die Vollauslastung von Prime95 der CPU ist nicht zu vergleichen mit der Last die bei Spielen auftritt. Spiele lasten CPUs deutlich weniger aus als ein Stresstest wie Prime95. Und ganz wichtig: OC ist nicht ausschlaggebend. Auch mit OC kann eine CPU weniger verbrauchen als ohne, einfach indem die Auslastung niedriger ist. Selbst wenn die nicht runtertaktet wenn gerade nichts zu tun ist. Damit ist die deutlich niedrigere Auslastung bei Spielen auch der Grund warum trotz OC der PC weniger brauchen kann als mit Prime95.
Wenn du das vergleichen willst müsstet du mit einem Benchmark kommen der Prime + Spielelast erzeugt, auch wenn dann wahrscheinlich die CPU die GPU zu wenig auslasten könnte und damit die Grafikkarte wiederrum nicht die Maximallast zeigen würde.

Und wenn man die typischen 107 W der 6500 hernimmt, ist da doch ein ordentlicher Unterschied zu den ~150-170+ W der Partnerkarten der Rx 480/580. Wenngleich ich doch bisschen überrascht bin das eine eigentlich mehr als doppelt so effiziente Karte wie eine 6nm RDNA2 keine alte Polaris deutlicher auf Abstand hält in Sachen Effizienz.

EDIT: Nein der Fehler ist schon zu glauben dass die 221W mit Prime auf der CPU auch zustande kommen würden. Ich hab noch kein Spiel gesehen wo bei voll ausgelasteter 480/580 nicht zumindest 150W standen. Aber ja, mit etwas niedrigerem Takt kann man das doch noch deutlich effizienter machen. Ich glaub aber es bestreitet keiner, dass die 6500 einfach nicht gut ist und man da halt möglichst einfach viel Marge raushauen will, egal ob jetzt Hersteller oder obendrauf sicher auch noch der eine oder andere Händler.
Schon alleine die Kombi 4GB + PCIe4 x4 macht ja von beiden Seiten die Karten unattraktiv:
Ich muss die billige Texturauflösung runterschrauben weil der Speicher so klein ist. Zusätzlich hab ich gerade wenn ich die Karte für ältere Rechner brauche (was bei der Leistungsklasse durchaus recht wahrscheinlich ist, bei den Preisen mit irgendwas möglichst billigem die noch teureren Karten zu überbrücken) nur PCIe3 und damit noch Probleme die 4GB zu kompensieren indem Texturen schneller geladen werden könnten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen und Mcr-King
Zurück
Oben