News AMD Radeon RX 6500 XT & 6400: Navi 24 soll die erste GPU in TSMCs N6-Prozess werden

Bleibt bitte ein wenig enger beim Thema. Hier geht es um eine derzeit noch garnicht veröffentlichte Einsteigerkarte und nicht darum wie schlimm ihr alle dran seit aufgrund der Preise ;) dieses thema ist toddiskutiert und macht jeden Beitrag unleserlich.

Looniversity schrieb:
Was bedeutet Einstiegslevel heutzutage in Sachen Leistung?
Derzeit unbekannt, aber das ding kann durchaus Recht potent werden. Ist noch nicht abzusehen wie sich der IC auswirkt und das Speichermanagement von AMD hat sich auch gebessert. Sicherlich wieder mit x8 4.0 Abschluss, also sollte die schon in einem 4.0 Slot Stecken, evtl führt man sogar 5.0 ein jetzt wo alder Lake draußen ist und Zen 4 vor der Tür steht. Würde das switchen aus dem VRAM beschleunigen und bisherige Probleme für FHD zumindest etwas abfedern wenn wir Glück haben.
 
  • Gefällt mir
Reaktionen: medsommer und Looniversity
PS828 schrieb:
Sicherlich wieder mit x8 4.0 Abschluss, also sollte die schon in einem 4.0 Slot Stecken, evtl führt man sogar 5.0 ein jetzt wo alder Lake draußen ist und Zen 4 vor der Tür steht.

Das wäre Grauenhaft.
Ein Zen+ von 2018 dürfte doch ein potentieller Kunde für solche Grafikkarten darstellen.
Wieso lässt AMD sich so viele Kunden durch die Lappen gehen ?
Ich kenne sogar noch viele die noch mit Sandy Bridge oder Haswell oder Skylake unterwegs sind, die auch nur 3.0 haben.
Einfach unverständlich.
 
Nighteye schrieb:
Denn eine RX570 zieht ja auch kaum mehr Strom als meine Baugleiche RX470.
Und die neue RX6500 soll mehr Strom ziehen als die 56W die meine RX470 benötigt

Wenn du schon einen Vergleich ziehen möchtest dann nimm bitte die specs, da hier deine Einstellungen Einfluss auf den Stromverbrauch haben.

Die rx470 hat 120watt tdp
Die Rx570 hat 150watt tdp
Rx6500 XT soll ca.109watt tdp
 
Die Anzeige in der Radeon Software zeigt nur den Verbrauch vom Grafikchip, nicht den der ganzen Grafikkarte. Da gehen sicherlich noch 15-20W drauf für PCB, VRAM, Spannungswandler und Co
 
@Nighteye das wird gemacht um Kosten zu senken. Zudem ist der x16 Bus für solche Karten fast immer überdimensioniert. Man verliert dadurch Nichts. An alte Plattformen zu denken ist auch überflüssig. Die wissen auf was man sich einlässt.
 
Nighteye schrieb:
Wieso lässt AMD sich so viele Kunden durch die Lappen gehen ?

Wieso durch die Lappen gehen? Es sind nur wenige Prozent Unterschied. Und die , die Aufrüsten wollen, haben größtenteils Karten die diese Leistung eventuell schon liefern. Das Konkurrenzprodukt ist ja auch noch nicht draußen.
Ergänzung ()

Ich würde gerne eine Ausprobieren.

Ich hoffe CB stellt bei einem Test auch die älteren Generationen gegenüber rx570/580 gtx970/1060 .
 
Looniversity schrieb:
Also genau die eine der zwei Optionen die ich genannt hatte.
Ja eventuell ein Missverständnis. Ich meinte am Desktop. Per Playsi und one X zocke ich ja. Der Desktop bei mir ist frei von Windows und ich komme mit dem Komplettestem aus dem anderen Hause super klar. Ist kein Lappi. Zwei Monitore reichen mir. Eventuell rüste ich auf einen großen den man auf zwei teilen kann.
 
  • Gefällt mir
Reaktionen: Looniversity
Einfach völlig uninteressant zu den Preisen mMn. Die 6400 ist eigentlich eine Karte um Defekte oder bei fehlenden codecs iGpus zu ersetzen. Langfristig werden die Preise den Markt kaputt machen, da junge Leute die Preise einfach nicht mitgehen können. Da bleibt nur noch Phone oder Konsole.
 
  • Gefällt mir
Reaktionen: Mister79
Ob wohl noch was kleineres als die 6400 geben wird? Ich würde dem Mediacenter gerne eine neue low end gpu gönnen, die vielleicht / hoffentlich einige Probleme löst.
Aber die 6400 ist preislich und leistungstechnisch eigentlich schon overkill
 
Linmoum schrieb:
... eine niedrigere UVP an den Marktpreisen rein gar nichts ändern würde? Die legen die Händler fest und sonst niemand. Niedrigere UVP heißt immer noch gleichbleibender Marktpreis, aber die Händler kriegen mehr vom Kuchen ab und AMD/NV weniger. Höhere UVP heißt mehr für AMD/NV und weniger für Händler. Natürlich setzt du dann als Unternehmen eine höhere UVP an, alles andere müsste man denen übel nehmen, wenn sie zugucken, wie die Händler sich das Geld in die Tasche(n) stecken.

... Intel würde die Chip- und Halbleiterknappheit austricksen und plötzlich Grafikkarten für normale Preise anbieten können. Wie soll das funktionieren?

Nur komisch, dass mit steigenden UVPs auch die Preise insgesamt immer weiter steigen, nicht?

Das muss ja eine tolle Kundenstrategie (von Dir und denen) sein und falls der Spuk irgendwann einmal ein Ende haben sollte, dann ist man fuer diese durchwachsenen Einsteiger-GPUs auf einem wahnwitzigen Preisniveau angekommen, welches die so unheimlich vorbildlichen Entwickler bestimmt nicht fuer Dich oder andere senken werden.

Wer kauft denn bei diesen Abzockhaendlern zu Mondpreisen noch Grafikkarten ausser irgendwelche Miner oder Leute, die keine Ahnung haben?
Man kann doch aktuell nur noch hoffen irgendwie bei Drops (nicht von Haendlern festgelegt) eine Referenzkarte (also dem ueberlaufenen AMD-Webseitenshop oder NBB im Falle von nVidia Founders Edition Karten) zu ergattern, fuer welche die UVPs gelten, aber das ist ohne Cheating (Warteschlange ueberspringen)/Bots mittlerweile wohl auch eher aussichtslos.

Die so unheimlich vorbildlichen Chipentwickler, AMD/RTG und nVidia, koennen einem mit Ihren 40-60% Gewinnmarge pro Grafikkarte (an Boardpartner/Haendler, nicht Miner, da duerfte es deutlich mehr sein) und den staendig ueberbotenen neuen Boersenrekorden wirklich immens Leid tun.

Die Grafikkarten werden nachweislich produziert (so viele wie noch nie zuvor), nur kommen kaum welche davon im Handel an, weil diese direkt fuer deutlich hoehere Preise an Kryptomining-Farmen gehen, so dass die eigentliche Zielgruppe nicht mehr bedient wird sondern dienjenigen, die die hoechsten Preise zahlen (koennen fuer die zweckentfremdete Nutzung/Mining).

Der einzige Boardpartner mit einem halbwegs stimmigen Verteilungssystem, welcher aber momentan nicht nachkommt und mittlerweile keine Bestellungen mehr entgegen nimmt, ist EVGA, denn da gibt es wohl eine Karte pro Person/Kreditkartennummer und SMS-ID ohne dass Bots/Scalper bevorteiligt werden, was nVidia und AMD/RTG bis heute nicht selber hinbekommen haben fuer deren Referenzkartenverkauf.
Etwas wovon andere nVidia Boardpartner und alle AMD/RTG Boardpartner noch etwas lernen koennten.

Ergo, erzaehle hier bitte keine Maerchen von den armen Chipentwicklern AMD/RTG und nVidia und wie toll es den Boardpartnern, Abzockhaendlern und Scalpern mit angeblich traumhaften Margen gehen soll.
Bei den Next-Gen Konsolen gibt es so eine Preisentwicklung mangels Mining auch nicht, auch wenn die Verfuegbarkeit da immer noch ziemlich limitiert ist.

Wie Intel das schaffen kann (ob Sie es machen werden, muss man abwarten), indem Sie (nicht aus wohltaetigen Gruenden) die eigentliche Zielgruppe vorrangig bedienen mit Gaming-Grafikkarten und sich nicht vorrangig von Profitmaximierung beim dGPU-Debuet leiten lassen - was AMD/RTG und nVidia mit deren Paperlaunches bis heute nicht geschafft haben, auch wenn deren verlogenenes Marketing etwas anderes behauptet (aber die naechsten Generationen an GPUs, RDNA3 und Lovelace, sollen naechstes Jahr schon kommen ohne bisher ueber einen Monat oder so UVPs erreicht zu haben, Hautpsache die Meistbietenden/Miner zahlen und diese absurden Preise werden weiter hoch gehalten) - und sich somit Marktanteile in grossen Umfang holen.

Ich hoffe AMD/RTG und nVidia bekommen fuer Ihre miserable Kundenpolitik durch Intels Einstieg Ihr Fett weg in den kommenden Jahren.

Wenn Intel mit den Arc Alchemist dGPUs jetzt nicht bald kommen wuerde (offensichtlich genuegend Wind macht), dann haette AMD/RTG keinen Grund gehabt schnell noch RX 6500XT und RX 6400 Karten aufzulegen, ebenso wie nVidia sich bizarre RTX 2050 mit 4GB und RTX 2060 mit 12GB Modelle haette sparen koennen.

So wie es aussieht soll Intel mit Arc Battlemage Gaming-Grafikkarten in 2023 schon das High-End bedienen wollen, das waere dann schon eher als vorbildlich einzustufen, wenn dadurch der Markt weiter entlastet und das Preisdiktat im GPU-Bereich nicht weiter zementiert wuerde, (neue) Konkurrenz belebt eben das Geschaeft (i.d.R. positiv).

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rolandm1 und Strahltriebwerk
4 GB VRAM und 64bit Speicherinterface im Jahr 2022.....
Das AMD sich damit nicht in Grund und Boden schämt.

Welche Kunden sollen mit diesen Krüppeln in Bezug auf VRAM und Speicherinterface angesprochen werden ?
Für Bürorechner reicht ne APU völlig aus und für ernsthaftes Gaming dürfte Navi 24 kaum zu gebrauchen sein ob der Einschränkungen. Leistungsmäßig in etwa bei ner RX 570/580 bzw. GTX 1660. Aber die hatten ein größeres Speicherinterface und 8 bzw. 6 GB VRAM. Die 4 GB VRAM Versionen der 470/570 waren damals schon ob des zu geringen VRAM nicht mehr empfehlenswert. Und dann kommt AMD allen Ernstes im Jahr 2022 erneut mit Karten mit nur 4 GB VRAM umd die Ecke und kastriert zusätzlich noch das Speicherinterface ?
Das doch lächerlich. Genauso wie der Marktpreis lächerlich hoch sein dürfte ....
 
  • Gefällt mir
Reaktionen: Öcher Tivoli, Mister79, Chismon und eine weitere Person
Falls diese Karten in ausreichender Menge und zu akzeptablen Preisen auf den Markt kommen, dürfte dies für eine Beruhigung auf dem Gebruachtmarkt sorgen, so dass man immerhin dort was Rechtes für sein Geld bekommt.

Hoffentlich werden Nvidia und Intel ebenfalls genügend Einstiegskarten auf den Markt werfen, sodass sich wenigsten in diesem Bereich, die Preise normalisieren.
 
  • Gefällt mir
Reaktionen: Chismon
PS828 schrieb:
Man verliert dadurch Nichts. An alte Plattformen zu denken ist auch überflüssig.
Bei der RX6600 wurde beim Pcie 3.0 vs Pcie 4.0 Test folgendes von Computerbase gemessen.
Zitat: "Die Durchschnitts-FPS fallen mit PCIe 3.0 gegenüber PCIe 4.0 um 10 Prozent ab, die Perzentil-FPS um 12 Prozent."

Das würde ich nicht als "Nichts" bezeichnen.
Und warum ist eine Plattform von 2018 die sogar für Windows 11 Spezifiziert ist, überflüssig ?
 
Beteigeuze. schrieb:
Meiner Meinung nach werden die Karten eh nicht für höhere Auflösungen wie FullHD taugen.
Naja, gibt doch aber genug Spiele abseits von AAA, wo man durchaus auf WQHD gehen kann. Auch mit 1650/1650 super Niveau. Simulatoren, Aufbauspiele usw. und dann natürlich größere Spiele die 5 Jahre+ älter sind.
Finds halt irgendwie immer Schade, wenn man dann da steht, die Leistung würde ausreichen, aber dann gibt's halt nen künstlichen Cap.
Hat Nvidia oft nicht anders gemacht (halt mit den sehr knappen VRAM Mengen), und dient alles letztlich zur Segmentierung - der Kunde soll dann halt gefälligst mehr ausgeben - aber gefallen muss mir dass ja trotzdem nicht.
 
Ich glaube zu der Karte ist alles hier gesagt worden.
Es soll ja Leute geben, die vielleicht nicht die aktuellen Titel spielen. Da wäre es eventuell noch eine Überlegung wert.
Ich denke für alle anderen fällt die Karte komplett hinten runter.
Meine RTX2060 kommt mit 6GB VRam schon oft genug an die Grenzen. Da würde ich mir eine mit "nur" 4GB nicht mehr antun.
Bin trotzdem mal gespannt, wo die preislich aufschlägt.
Bin ja nicht gegen Karten im Low-Cost-Bereich. Aber die wäre mir schon zu dünn ausgestattet.
 
Für GPU-Beschleunigung und Wiedergabe von 4K Video-Material mit HDCP blabla und Youtube und andere Sachen wo ältere CPUs und APUs nicht mehr mit klarkommen reicht so eine Karte auch ohne weiteres aus.
 
Scheint ja noch genug Blauäugige zu geben die denken das die Karte zu einem vernünftigen Preis kommt. Rx6600 hat nen Straßenpreis von 600€, da kann man sich ja ausmalen was ne rx6500xt kosten könnte., wohl so min um die 450€.
 
Elverado schrieb:
Naja, gibt doch aber genug Spiele abseits von AAA, wo man durchaus auf WQHD gehen kann. Auch mit 1650/1650 super Niveau. Simulatoren, Aufbauspiele usw. und dann natürlich größere Spiele die 5 Jahre+ älter sind.
Finds halt irgendwie immer Schade, wenn man dann da steht, die Leistung würde ausreichen, aber dann gibt's halt nen künstlichen Cap.
Hat Nvidia oft nicht anders gemacht (halt mit den sehr knappen VRAM Mengen), und dient alles letztlich zur Segmentierung - der Kunde soll dann halt gefälligst mehr ausgeben - aber gefallen muss mir dass ja trotzdem nicht.
ich finde die 4GBRam tragen genauso gut dazu bei dass die karte nicht unbedingt für höhere Auflösungen gedacht ist.
Die Wahrscheinlichkeit dass bei (älteren) Games es zu Einbrüchen kommt aufgrund des Speicherinterface aber gleichzeitig nicht aufgrund des geringen Vrams halte ich für sehr gering.
Anders gesagt: Wenn das SI limitiert dann auch der VRam.
 
  • Gefällt mir
Reaktionen: Elverado
Northstar2710 schrieb:
Die rx470 hat 120watt tdp
Rx6500 XT soll ca.109watt tdp
Dann dürfte die Karte bei ähnlichem Stromverbrauch, und 6 Jahre späterem Release und etlichen Architekturverbesserungen und nm verbesserungen ja deutlich schneller sein als meine betagte RX470 die evtl bald an Altersschwäche stirbt.
Denniss schrieb:
Die Anzeige in der Radeon Software zeigt nur den Verbrauch vom Grafikchip, nicht den der ganzen Grafikkarte. Da gehen sicherlich noch 15-20W drauf für PCB, VRAM, Spannungswandler und Co
Quelle ?

Northstar2710 schrieb:
Wieso durch die Lappen gehen?
die , die Aufrüsten wollen, haben größtenteils Karten die diese Leistung eventuell schon liefern.

Ich hoffe CB stellt bei einem Test auch die älteren Generationen gegenüber rx570/580 gtx970/1060 .
Na ich kenne viele die zb Spiele wie World of Warcraft noch mit Karten wie GTX970 zocken.

Also wenn die RX6500 ca 50% mehr Leistung als eine GTX970 bringt (GTX 970 ist ja auf RX470 niveau) wovon auszugehen ist bei 6 Jahren Fortschritt und gleichem Stromverbrauch wie RX470, käme diese doch gut in frage die alten Grafikkarten zu ersetzen.
Denn vielen reicht der Speed einer GTX970 noch. 50% Mehrleistung wären da schon mehr als genug.
Aufrüstgründe wären:
1.) Weniger Stromverbrauch.
2.) Grafikkarten verschleißen und sterben nach ca 7 Jahren im schnitt.
 
Mal sehen wo sich die Karten von der Leistung her einpendeln.

Aber holy shit, hab grad mal die Preise einer RX5500 und 1660 Super angeschaut.... meine Fresse... bei mir sind die verbaut aber die Rechner liefen seit über nem Jahr nicht mehr da ich ja nur noch den Laptop verwende.
 
Zurück
Oben