News Radeon RX 6500 XT: AMD bringt RDNA 2 mit TSMC N6 für 199 $ in den Handel

iGameKudan schrieb:
300€+ für ne Grafikkarte mit 64Bit-Speicherbus und vier PCIe-Lanes… 💩

Langsam wirds lächerlich.

Das klingt in der Tat eher nach einer Karte aus dem zweistelligen Eurobereich, die in Officerechnern steckt um mehr Monitore anschließen zu können :D

Schwer vorstellbar, dass die im Endkundenmarkt nennenswert verkauft werden wird.
 
  • Gefällt mir
Reaktionen: Blumentopf1989, C4rp3di3m, Ned Flanders und eine weitere Person
eukalyptus_now schrieb:
Schwer vorstellbar, dass die im Endkundenmarkt nennenswert verkauft werden wird.
Glaube leider dass die trotzdem gekauft werden wie blöde Hoffnung liegt auf einer WX6500 oder sowas in der Art.
 
SOWJETBÄR schrieb:
Zieh mal von den 221 Watt grob 150 ab und wir landen bei abgerundet 70 Watt für den Rest vom PC. Das ist dann halt das was Skylake + MB, Ram, ... tatsächlich hier verbraucht


Und wenn man die typischen 107 W der 6500 hernimmt, ist da doch ein ordentlicher Unterschied zu den ~150-170+ W der Partnerkarten der Rx 480/580. Wenngleich ich doch bisschen überrascht bin das eine eigentlich mehr als doppelt so effiziente Karte wie eine 6nm RDNA2 keine alte Polaris deutlicher auf Abstand hält in Sachen Effizienz.

Der Punkt ist, die leute sagten die Karte brauch 187W.
Und was wenn der Skylake @ 4,5ghz mit Mainboard und Komponenten mehr benötigt als die 70W die du hier in den raumstellst mr Bär ?
Was wenn das System schon 90W zieht ? (Müsste man mal separat testen)
Dann sind es weit unter 150W.
Und wie Tomshardware schon 2016 sagte, als die Karte im Furmark unter Künstlicher 100% auslastung 160W gezogen hatte.

"Power consumption during gaming is significantly lower.
The card never reaches the 150W barrier."

Dazu kommt was ich eben schon erwähnt habe.
Die RX580 läuft über dem Sweetspot.
Die Karten sind wesentlich Effizienter mit dem Standardtakt der RX480.

Ich kenne mich zufällig relativ gut aus, daher weiß ich dass die RX470 und RX480 und auch die RX570 und RX580 schon ab Werk mit zu viel Takt und Vcore in den markt kam.

Ich Zitiere mal Testseiten von damals die sich mit minimalstem Undervolting der RX480 beschäftigt hatten.

"We noticed 30W power reductions at the power outlet meter by undervolting the Radeon RX 480!"
default settings (1136mV) ->(1080mV)

Also um 80mV undervolten brachte schon bis zu 30W Ersparnis.
Und das ohne den Takt der GPU zu senken wohlgemerkt.

Auf Linus Tech Tipps wurden damals sogar 33W Ersparnis gemessen.

Ich habe gerade auch mal Life einen selbst Test gemacht.

Ich habe meine Karte mal um 200mhz Übertaktet.
Dann hatte ich in World of Tanks statt den üblichen 56W verbrauch, mal eben 98W verbrauch.
Also fast eine Verdopplung bei 200mhz.

Wenn man also sieht, mit wie viel Brachliegendem Potential die Polaris Karten damals auf den Markt kamen, wird es die RX6500 noch schwerer haben.
 
Nighteye schrieb:
Anhang anzeigen 1170478
Also du willst doch nicht behaupten dass Computerbase Falsche Zahlen angegeben hat oder?
Und du willst doch nicht behaupten dass eine Radeon R9 390 Stolze 418W verbraucht hat oder ? (Die Karte hat nur eine TDP von 275W)

Ich hab noch eine Sapphire Nitro 390x OC in einem aktiven System, Threadripper 1920x, 8 RAM Module, 3 HDDs, 1x m.2, 2 SSDs, 9 Lüfter.
Das ganze System Brauch in Games keine 418 Watt..
 
  • Gefällt mir
Reaktionen: Nighteye
Maxxx800 schrieb:
Ich hab noch eine Sapphire Nitro 390x OC in einem aktiven System, Threadripper 1920x, 8 RAM Module, 3 HDDs, 1x m.2, 2 SSDs, 9 Lüfter.
Das ganze System Brauch in Games keine 418 Watt..

Glaub ich dir. Denke der Intel war damals der Stromschlucker. Du hast ja einen wesentlich besseren AMD.
 
Beg1 schrieb:
Ich klinge sicher wie eine kaputte Schallplatte, aber Mining ist der Hauptgrund warum du Laptops/Smartphones/CPUs/Mainboards und co. zu normalen Preisen bekommst und GPUs eben nicht.

Miner nehmen quasi "unendlich" viele GPUs ab, durch den Erhalt des Wertes der GPU gehen sie nicht einmal ein großes finanzielles Risiko ein.
Ich weiß nicht ob das wirklich zutrifft. Wenn ich bei Geizhals gucke gibt es von AMD und Nvidia jeweils die Top 4 Karten mehrfach lagernd.
Wenn es wirklich so schlimm mit den Minern wäre dann hätten wir Zustände wie ende 2020 als man keine Karten bekommen hat und Wochenlang auf seine Bestellung warten musste.
 
@Nighteye auch PCGH hat im Test zur RX480 ca. 150W Leistungsaufnahme gemessen. Das kommt schon hin so. 70 W für den Rest des Systems scheinen auch realistisch.
 
  • Gefällt mir
Reaktionen: Mcr-King
ThePlayer schrieb:
Wenn es wirklich so schlimm mit den Minern wäre dann hätten wir Zustände wie ende 2020 als man keine Karten bekommen hat und Wochenlang auf seine Bestellung warten musste.

Die Karten kamen im September 2020 (Releasenachfrage ist extrem und es wird nicht extrem viel vorproduziert) auf den Markt, bis Ende Dezember 2020 gab es ständig Möglichkeiten die Karten zu kaufen, die Preise waren leicht erhöht (~10-40%) und hier im Forum wurde schon oft über die "Abzocke" diskutiert, dann verdreifachte sich der Kurs fast jeder Kryptowährung und die Preise der GPUs zogen extrem an.
cb hat auch hier (fast) alle relevanten Informationen:
https://www.computerbase.de/2021-05...grafikkarten-von-amd-und-nvidia-verdreifacht/

Du kannst die Karten aktuell kaufen, weil der Preis angepasst wurde, zu 2020er Preisen würde jeder Miner/Scalper bedenkenlos alles leer kaufen.


Damit möchte ich nicht sagen, dass gestrichene Rabatte, gestiegener MwSt-Satz, erhöhte Fertigungs- & Transportkosten keine Rolle spielen, aber der Hauptgrund ist in meinen Augen das Mining.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cruentatus
eukalyptus_now schrieb:
Das klingt in der Tat eher nach einer Karte aus dem zweistelligen Eurobereich, die in Officerechnern steckt um mehr Monitore anschließen zu können :D

Schwer vorstellbar, dass die im Endkundenmarkt nennenswert verkauft werden wird.
Ja und nein, ersteres stimme ich zu, bei letzteren würde ich sagen die verkaufen sich auch super, selbst bei 350-400€. Oft genug werden solche Karten als "Gaming" verkauft.
 
  • Gefällt mir
Reaktionen: Mcr-King
achje...ne neue Grafikkarte, die in Konkurrenz zur RX 570 (2017 midrange) und der GTX 1650 (immerhin 2019 low end) treten soll...für um die 300€ im freien Handel...hmm...das Hobby wird langsam zu teuer...
 
  • Gefällt mir
Reaktionen: Mcr-King
@novemberkind dennoch durchschnittlich 40-50% schneller als die 1650. Für low end zu low end garnicht mal so schlecht hm?

Die Preise sind halt wie sie sind. Kaufen oder nicht kaufen, je nach Bedarf und wunsch.
 
PS828 schrieb:
@novemberkind dennoch durchschnittlich 40-50% schneller als die 1650. Für low end zu low end garnicht mal so schlecht hm?
Möchte ich persönlich ehrlich gesagt erst einmal abwarten. Auf dem Papier mag sie 40-50% schneller sein.

In der Praxis bleibt abzuwarten ob die Anbindung mit 4 (!!) PCIE Lanes in der Praxis die GPU auf Systemen, die nur PCIE 3 beherrschen, einschränken wird.

Kann also sein dass die 6500XT damit schon von vornherein eine schlechte Wahl gegenüber der 1650 werden wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zumindest in den von AMD gezeigten spielen scheint es ja erstmal zu passen. Den Rest müssen die Tests zeigen.

Das was die 1650 schon nicht kann wird die 6500XT auch nicht können. Sämtliche AAA Titel oberhalb vom medium Texturen in FHD zum Beispiel^^
 
PS828 schrieb:
Das was die 1650 schon nicht kann wird die 6500XT auch nicht können. Sämtliche AAA Titel oberhalb vom medium Texturen in FHD zum Beispiel^^
High/Ultra Texturen sind bei den meisten Spielen nicht das Problem unter FHD...das kann selbst ne 1050ti mit 4GB...du kannst es, ob besserer HW, wohl nicht mehr so einschätzen bzw. nicht glauben...das geht schon...einfach mal youtube bemühen...

Die reine Rechenleistung ist halt nichts brauchbares...man tut sich mit einer 6500XT einfach keinen Gefallen...es ist kein wirkliches Upgrade zur entsprechenden HW von 2017/18...es ist einfach nur Gewinnmitnahme...unter Last derer, die es nicht besser wissen...
 
PS828 schrieb:
Zumindest in den von AMD gezeigten spielen scheint es ja erstmal zu passen. Den Rest müssen die Tests zeigen.
Na ja. Die werden das ja sicherlich auf einem System mit PCIE 4 getestet haben. Das es da keine Einschränkungen in der Leistungsklasse gibt ist verständlich.

Aber viele, für die eine solche Karte attraktiv sein könnte haben eben auch ältere Systeme mit PCIE 3 und dann sieht es unter Umständen ganz anders aus.


PS828 schrieb:
Das was die 1650 schon nicht kann wird die 6500XT auch nicht können. Sämtliche AAA Titel oberhalb vom medium Texturen in FHD zum Beispiel^^
Darum geht es mir ja gar nicht. Wenn aber die Leistung gar nicht abgerufen werden kann weil die PCIE Anbindung unter PCIE 3 nicht mehr hergibt wegen der beschnittenen Lanes dann ist die Karte eben schwer zu vermitteln. Und das würde ich erstmal abwarten wollen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Einfach nur traurig was hier abgeht. Die Karte für den Preis ist völlig unattraktiv!

Vergleicht man die Karte mit der RX580 wird schnell klar, dass man im Jahr 2022 fast die gleiche Geschwindigkeit für fast den gleichen Preis wie 2017 bekommt. Fortschritt = 0
 
  • Gefällt mir
Reaktionen: Mcr-King
aodstorm schrieb:
Einfach nur traurig was hier abgeht. Die Karte für den Preis ist völlig unattraktiv!

Vergleicht man die Karte mit der RX580 wird schnell klar, dass man im Jahr 2022 fast die gleiche Geschwindigkeit für fast den gleichen Preis wie 2017 bekommt. Fortschritt = 0
Nein, die RX580 war damals mit die Speerspitze des Angebots von AMD. Die 6500XT rundet das Angebot nach unten hin ab. Mit etwas weniger Transistoren, weniger Chipfläche und weniger Verbrauch.
Nighteye schrieb:
Der Punkt ist, die leute sagten die Karte brauch 187W.

Wenn man also sieht, mit wie viel Brachliegendem Potential die Polaris Karten damals auf den Markt kamen, wird es die RX6500 noch schwerer haben.
Ich sagte: Wikipedia gibt den maximalen Verbrauch bei 187 Watt an. Du siehst den Spieleverbauch, undervoltest eine Grafikkarte und behauptest sie verbraucht weniger.
Dann messe bitte auch eine 6500 XT nicht an ihrem maximalen Verbrauch, sondern am Spieleverbrauch undervoltet. Sie soll 108 Watt maximal verbrauchen. Sprich die wird man dann wohl im 60-80 Watt Bereich sehen.
Und dann ist sie in meinen Augen ein wirklicher Fortschritt.
Sie mag euch nicht gefallen und zu teuer für den Preis sein, das ist der Marktsituation geschuldet. Aber den Fortschritt sehe ich klar.
 
Nuklon schrieb:
Nein, die RX580 war damals mit die Speerspitze des Angebots von AMD. Die 6500XT rundet das Angebot nach unten hin ab. Mit etwas weniger Transistoren, weniger Chipfläche und weniger Verbrauch.

Ihr redet einfach von unterschiedlichen Dingen.
Bei der Kategorie Performance pro Dollar/Euro hat @aodstorm recht, da ist diese Karte sogar ein Rückschritt, was aber aufgrund der aktuellen Situation irgendwie erwartbar war.
Du redest von der allgemeinen Leistungsfähigkeit / Performance pro Watt der RDNA2-Generation, klar die Karten sind schneller geworden, was einst die Speerspitze war ist nun Einstiegsbereich. Bei Performance pro Watt ist die RX 6500XT sicher deutlich besser, was aber durch den deutlich besseren Fertigungsprozess ebenfalls logisch ist.

RX 6600XT vs. RX580 findest du PPW auch im Test von cb
https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/3/
Für Performance pro Dollar musste bei tpu schauen.

Allerdings hat die 6500XT natürlich noch andere Nachteile, ist eben eine sehr beschnittene Karte und auch wenn AMD uns verkaufen möchte, dass sie es aufgrund der Miner machen (4GB reichen nicht für ETH), glauben sollten wir das nicht.
 
Zuletzt bearbeitet:
Die Entwicklung ist wirklich schrecklich.
Überlege mir ob ich mir überhaupt noch einen PC zusammenstellet oder lieber eine PS5 kaufe.
 
Nightmar17 schrieb:
Die Entwicklung ist wirklich schrecklich.
Überlege mir ob ich mir überhaupt noch einen PC zusammenstellet oder lieber eine PS5 kaufe.
Bei mir genauso. Wenn sich diese hohen Preise jetzt auf Dauer etablieren sollten, war es das für mich nach 35 Jahren mit dem Hobby. Dann ist nicht die Konsole, das Tablet oder das Smartphone Schuld am Tod des PC, sondern die Hersteller der PC-Komponente selber.

Gier tötet Verstand...
 
  • Gefällt mir
Reaktionen: Nightmar17 und Mcr-King
Zurück
Oben