News Radeon RX 6500 XT: AMD bringt RDNA 2 mit TSMC N6 für 199 $ in den Handel

Jetzt kommt ein unpopuläres Statement, aber leider ist die Situation doch diese:

Im Ggensatz zu den letzten Jahrzehnten(!) gibt es eine ganz neue Situation:
Knappheiten bei fast allem. Sei es Fertigungskapazität, Rohstoffe, Ressourcen.

Selbst wenn AMD (oder auch nVidia etc.) nur 1:1 die Mehrkosten weitergibt, ohne selber mehr zu verdienen, würden die Grafikkarten deutlich teurer werden. Das Problem der Miner ist da noch gar nicht mit drin.

Bei den RX 570 / 580 gab es zudem einen großen Sondereffekt:
es wurden, im Rausch des Mining-Booms, viel zu viele (als viel viel viel zu viele) Chips von AMD produziert bzw. produziert lassen. Man hatte so volle Lager, dass man die fertigen KArten teils extrem günstig auf den MArkt geschmissen hat, da es kaum was schlimmeres gibt als gebundenes Kapital.

Also trifft eine Art "Preistief" von kurz vor Corona auf Rohstoff/Fertigungsknappheit + größter Mining Boom.

Daher kommt es zu den teils extremen Preisdifferenzen bzw. dem gefühlten "über den Tisch ziehen".

Und Hand aufs Herz, will man wirklich eine Situation wie bei der RTX 3060 bzw. 3080? Eine UVP, die nichts, aber auch gar nichts mit der Realität zu tun hat? Man hat ja schon mehrere Stimmen bei den Herstellern vernommen, dass die UVP der 3080 regelrechter Nonsens ist und selbst ohne Miningboom nur seltenst möglich gewesen wäre.
Oder halt bei der 3060, laufender Mining Boom, laufende Knappheit, dazu mitelfristig keine Besserung in Sicht. Was haben wir von einer solchen UVP?

Fühlen wir uns dann besser? Die 3060 ist gut bepreist. Ok, man bekommt sie zwar erst ab 800 Euro, aber die UVP stimmt! Das bringt doch alles nichts.
Dann lieber eine hohe UVP, die näher an der Realität dran ist.

Hätte nVidia die UVPs der RTX 3000 irgendwann 2021 angepasst, wäre das nicht schön, aber ehrlich.

Man sieht ja immer noch sehr schön, dass viele immer noch glauben, dass man eine RTX 3080 für 700 Euro anbieten kann (und dabei noch Gewinne machen, also so viele, wie grob vor Corona).

Die günstige Grafikkartenzeit ist bis auf weiteres vorbei. Die Zeiten, in denen man für 200-300 Euro eine 1080p, 60 fps in Ultra Details spielen kann, gibt es nicht mehr. Es gibt auch nciht den einen Schuldigen, es sind einfach zu viele Faktoren, die leider negativ für uns Gamer da rein laufen.

Am Ende sind AMD, nVidia, Intel und Co. auf Gewinne angewiesen. Ob uns das gefällt oder nicht. Auch sie müssen sich an die Gesetzmäßigkeiten der Wirtschaft halten.

"Ehrliche" UVPs würden doch (ungefähr) so aussehen:

RTX 3090 - 2500 Euro
RTX 3080 Ti - 1800 Euro
RTX 3080 - 1400 Euro
RTX 3070 Ti - 1150 Euro
RTX 3070 - 1000 Euro
RTX 3060 - 750 Euro

Aber leider gibt man eben keine realistischen UVPs an, um eben keinen Shitstorm abzubekommen. Das sieht man ja immer wieder in solchen Kommentaren, egal wo. Das man sich über hohe Preise ärgert ist ja vollkommen normal und verständlich, aber es ist eben nciht so, dass nVidia und Co. die gleichen "Einkaufspreise" hätten wir vor einigen Jahren. Ob die Gewinne jetzt zu groß geworden sind? Darüber kann man diskutieren, aber das die Preise grundsätzlich eben sind, wie sie sind, ist eben nicht wegen Halsabschneider zu erklären.

nV und Co liefern sogar so viele Grafikkarten aus wie noch nie. Und trotzdem reicht es nicht mal annähernd.


Es ist auch keine Krise, die über Nacht, wie ein schlechter Alptraum, zu Ende sein wird. Die Preise werden uns noch (sehr) lange begleiten. Mal etwas schlimmer, mal etwas "besser". Man wird die Stückzahlen eben nciht signifikant steigern können und die Nachfrage wird auch nciht geringer. Im Gegenteil, viele (mich eingeschlossen) warten halt aktuell ab und sobald sich die Lage etwas entspannt, schlagen dann wieder mehre zu => Konsequenz: Nachfrage explodiert, noch höhere oder wieder hohe Preise. Und der "Backlog" wird immer schlimmer.
Leute, die z.B. eine RTX 2070 haben, sind aktuell noch gut dabei. Aber z.B. in 2023 werden auch diese nach und nach aufrüsten wollen.
Ich sehe auch nicht, dass die Gaming-Industrie das kapiert hat und jetzt "schonender" programmiert bzw. auch für ältere Hardware optimiert. Ergo wird der Druck in Zukunft größer, entsprechend potente Hardware dann zu kaufen.


Das ist jetzt kein Abgesang aufs (PC)-Gaming, jedoch wird man wohl noch auf Jahre sich an die sehr hohen Grafikkartenpreise gewöhnen müssen. Ich sehe schlicht nicht, warum sich das in 2022 und auch 2023 wesentlich ändern sollte. Das es mal, wie im Sommer 2021, eine kurze "Erholung" gab und die Preise für wenige Tage / Wochen etwas erträglicher waren, wird es auch in Zukunft geben. Aber Preise, die zumindest in der Nähe der gewohnten UVPs sein werden, wird es (sehr) lange nicht (mehr) geben.


Von daher würde ich mich darüber "freuen", wenn die Hersteller ehrliche UVPs angeben. Dann weiss man direkt, wodran man ist. Auch wird für uns User der Schwachsinn erspart, dass Reviewer die viel zu niedrige UVP als Vergleichswert hernehmen und darüber argumentieren, dass Konkurrent X viel zu teuer ist.
Am Ende sind das Nonsens Argumente, die Preise gibt es nur in der Phantasie. Auch wenn es frstrierend ist, bitte ehrliche UVPs. Dann machen auch Vergleiche wieder Sinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82, Ulmo Blaustein, unich und 5 andere
Sun_set_1 schrieb:
dann könnte es tatsächlich sein, dass die Leistung einer 8 Jahre alten Grafikkarte heute teurer ist, als vor 8 Jahren.
Gut erkannt und da spricht auch leider (aus Kundensicht) nichts dagegen. Wo steht denn geschrieben, dass es für den Euro zwangsläufig immer mehr Rechenleistung geben muss? AMD, Nvidia und Intel verkaufen ihre Chips und wenn es die Nachfrage hergibt, dann wird der Kram halt teuerer. Neue Produkte werden auf den Markt gebracht, um neue Kaufanreize zu setzen. Für einen Besitzer einer 290/390/480 ist der an dieser Stelle sicherlich nicht gegeben. Wobei keine dieser GPUs irgendwie einen Vorgänger der 6500XT darstellt.

Ich bin ebenfalls Kunde und mir schmeckt das ganze auch nicht wirklich. Ich habe eine Zeit lang die Upgradestrategie verfolgt, dass ich mir was neues kaufe, wenn ich die doppelte Leistung zu 150-250€ bekomme. Davon musste ich mich seit meiner 290 (gebraucht für 150€ mal erworben) dann verabschieden. Immerhin hatte ich noch ein recht gutes Upgrade mit der 1660 Super für ca. 200€. Bis ich wieder ein sinnvolles Upgrade in der Preisklasse bekomme, brauch ich auch nicht zu warten.
 
  • Gefällt mir
Reaktionen: kawanet
Also jetzt mal im ernst AMD, was soll das?

Ihr hättet einfach eine RX 480 in aktuellem Fertigungsprozess auflegen können und gut wäre es gewesen, dann hätte man wenigsten 3 Monitor-Anschlüsse und evtl. 8 GB RAM.

Das jetzt wegen der Miner so zu machen ist eine faule Ausrede.

Ich fange schon an intel die Daumen zu drücken, dass deren GPU-Einstieg gut verläuft und dann die Preise auch mal wieder sinken.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Mickey Cohen
SANDTIGER schrieb:
einzig positive ist das die Miningnachfrage nicht so hoch bei der RX 6500 ist wie bei der 3050Ti. Vielleicht hatte das genau AMD mit 4GB bezweckt sonst sind die ja nicht mit dem Vram so knauserig . .....
Das ist laut einem Interview sogar die offizielle Erklärung, dass man sie für Mining unattraktiv machen wollte.

After originally filing this story, I had an opportunity to chat with AMD CEO Lisa Su and Radeon vice president Laura Smith as part of a small roundtable with journalists. They confirmed that the 4GB capacity for the Radeon RX 6500 XT was an intentional choice.

“There’s a lot of dynamics that are involved in the availability of the GPUs we have,” Smith said. “We have really optimized this one to be gaming first… You can see that with the way we’ve configured the part. Even with the four gigs of frame buffer, that’s a really nice frame buffer size for the majority of triple-A games, but it’s not particularly attractive if you’re doing blockchain-type or mining activities. We’ve tried to make some gamer-first transitions for the things we don’t control, but we have influence over, to optimize that card to be as accessible as possible to the use of gamers.”
Quelle: https://www.pcworld.com/article/563...in-amd-and-nvidias-new-budget-gpu-battle.html
 
  • Gefällt mir
Reaktionen: CableGuy82 und SANDTIGER
Poati schrieb:
Wo steht denn geschrieben, dass es für den Euro zwangsläufig immer mehr Rechenleistung geben muss?
Nennt sich Moore's Law! Ohne den gäbe es den technischen Fortschritt, den wir heute kennen, nicht. Technik muss billiger/besser werden, damit sie in der breiten Masse ankommt. Nur so erschließen sich neue Anwendungsmöglichkeiten. Jedes Smartphone hat mehr Rechenpower als ein teuer Gaming-Rechner aus den 90er oder frühen 00er Jahren. Hätte es keine bezahlbaren Computer für die Massen gegeben, dann gäbe es auch kein Internet, wie wir es heute kennen. Gleiches gilt für Mobiltelefone und später Smartphones usw. Anfangs waren die sündhaft teuer und wohlhabende Enthusiasten konnten sich das leisten.

Auf den Gaming-Markt bezogen bedeutet es, dass es sich nicht mehr lohnen würde, grafisch anspruchsvolle AAA Spiele zu entwickeln, weil es am Ende keine Kundschaft dafür gibt.
 
  • Gefällt mir
Reaktionen: coral81, EdgariuS, Ceberus und 3 andere
flappes schrieb:
Das jetzt wegen der Miner so zu machen ist eine faule Ausrede.

Das ist einfach Margenoptimierung durch Verwertung der Resterampe.

Für die 290 aka 480 als Neuauflage müsstest Du ja eigene Wafer belichten lassen.
Im Fall der 6500 nimmst halt das Material vom Wafer, das ansonsten als Defekt weggeschmissen worden wäre.

Und natürlich auch Software-Wartung. Navi24 pflegst Du ja im API-Stack sowieso,
GCN 1.1 hingegen ist doch raus ausm Support, meine ich.
 
@maximus_hertus Auf lange Sicht würde der PC-Gaming Markt sich dann aber auf wenige zahlungskräftige Gamer beschränken und wirklich zum reinen Luxus verkommen. Denn die Inflation verteuert ja alles andere auch. Noch scheint es genügend Leute zu geben, die diese Preise zahlen, ich bezweifel aber, dass das die Masse an Gamern ist. Zumal man immer wieder lesen kann, dass User X die X-te karte kaufen konnte. Und man darf nicht vergessen, dass diese des Öfteren die "guten" Preise abgreifen und manch Scalper dies wieder teuer in den Markt entlassen, egal ob privat oder als gewerblicher Händler.

Was das in Zukunft mit diesem Bereich macht wird sich zeigen und ob es wirklich einen deutlich schrumpfenden Gaming-Markt geben wird..dann lohnt es sich sicherlich immer weniger, Triple-A games für de PC mit horrenden Anforderungen zu entwickeln...natürlich wird das nicht von Heute auf Morgen passieren... ;)

P.S. Allgemein: Man möchte halt mit solch einer Vorstellung erreichen, dass auch Produkte nach unten hin mit aktueller Namensgebung und Technik präsent sind, auch wenn dies preislich nicht viel Einfluss hat.
 
  • Gefällt mir
Reaktionen: elmex201, Eisenherz und Cpt.Willard
Die Frage ist aber wenn man ein altes PCIE 2 oder 3 Mainboard besitzt ob die 4 Lanes da nicht zuviel bremsen.
Naja die Preise sind sowieso total überzogen.
Man muss sich nur die Karten ansehen.
So gut wie nichts darauf verbaut.
Da fragt man sich schon wer verdient da so extrem.
 
maximus_hertus schrieb:
Im Ggensatz zu den letzten Jahrzehnten(!) gibt es eine ganz neue Situation:
Knappheiten bei fast allem. Sei es Fertigungskapazität, Rohstoffe, Ressourcen.

Wenn Rohstoffe knapp wären, dürfte so eine Karte nicht produziert werden. Überhaupt keine GPU für den Endanwender, sondern nur in Rechenzentren, wo sich jeder seine Leistung abholen kann. Da laufen die halt 95% der Zeit auf Last, statt wie beim Endkunden nur ein paar Stunden die Woche genutzt zu werden.
duskstalker schrieb:
Was für ne Ressourcenverschwendung.
Ganz genau.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Alle Daten der Karte (4×PCIe, 2 Videoausgänge, kein Encoder, 64Bit Interface) sprechen eine deutliche Sprache: Navi 24 war nie für den Desktop geplant. Das war ein reiner Notebook Die als Geforce MX Konter.

64Bit Interface, im Notebook bei Lowend üblich.

Encoder, macht die iGPU.

4×PCIe auch typisch für die MX Reihe, auch weil viele U CPUs nur wenig Lanes haben.

Mehr Videoausgänge braucht eine Laptopkarte auch nicht zwingend.

Passt alles ziemlich gut.
Aber aufgrund der aktuellen Situation dachte man sich: "Hey, lass die Karte doch mit 100% mehr Powerlimit auf ein halbwegs annehmbares Leistungsniveau prügeln und sie für 199$ im Desktop verkaufen. Dank 4GB für Miner nicht brauchbar und damit wird der Straßenpreis nicht so stark über UVP sein wie sonst. So können wir diese 50W Laptop Karte mit mindestens doppelter Marge verkaufen, da alles darüber am Ende für den Kunden noch mindestens 200€ teurer ist, werden wir sogar das Ding verkaufen können."

Und so passiert es.
6500M mit 50W ~2200MHz Game Clock.
6500XT mit 107W ~2600MHz Game Clock
<20% mehr Performance bei >100% mehr Leistungsaufnahme
Im Desktop ist die Karte dank fehlender Encoder und co. eigentlich nur mit GT730/GT1030 zu vergleichen (bei denen fehlt nicht umsonst das X, GT heißt Multimedia und nicht Gaming), außer halt bei der Rasterizer Leistung. Man verkauft sie trotzdem als RX, sogar mit XT Endung.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Newbie_9000, C4rp3di3m und 7 andere
flappes schrieb:
Ich fange schon an intel die Daumen zu drücken, dass deren GPU-Einstieg gut verläuft und dann die Preise auch mal wieder sinken.

Dann drück mal bitte ganz fest. Denn so wie es aussieht verzögert sich der Start immer weiter. Frühestens Q2 2022. was ich noch nicht mal glaube. Und da sie ja auch bei tsmc produzieren lassen und es nicht selbst machen. Bleiben die Ressourcen knapp. Und Q4 2022 kommt auch die neue Gen von AMD/Nvidia. Billig wird Intel nicht werden, da sie nur eine kurze Zeit haben bessere Preise für ihre Hardware verlangen zu können . Nach erscheinen von AMD/Nvidia müssen sie mit ihren Preisen runter gehen.
Ergänzung ()

BigLA schrieb:
dann lohnt es sich sicherlich immer weniger, Triple-A games für de PC mit horrenden Anforderungen zu entwickeln

Naja, also alle Triple A Titel werden so produziert das sie auf den Konsolen vernünftig laufen. Und diese Spiele sind zum großen Teil mit einer APU spielbar. Und die Upscaling Technologien machen den Rest. Das Einzige was hier etwas problematischer wird, ist das man vielleicht eine andere Auflösung benutzen muss. Aber an der Aufwendigkeit der Spiele wird das nix ändern. Und nur weil man ein Spiel nicht mit 100fps spielen kann, verzichtet doch keiner darauf.

Hier sehe ich absolut kein Problem. Auch in den nächsten 10jahren nicht.

Und wir alle wissen , Grafikqualität steht nicht an 1 Stelle wenn sich ein AAA spiel gut verkaufen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
elmex201 schrieb:
Nennt sich Moore's Law! Ohne den gäbe es den technischen Fortschritt, den wir heute kennen, nicht.

Und an dieses Gesetz haben sich Konzerne oder Chiphersteller zu halten? Scheinbar nicht. Die These ist schon etliche Jahrzehnte alt und ging auch lange genug auf. Allmählich werden aber physikalische Grenzen, Produktionskosten und knappe Ressourcen zu Problemen bzw. Preistreibern. Also bei der Fertigung hat speziell Intel schon eingeräumt, dass die Sprünge nicht mehr zu machen sind.

Aber ja beruhe dich ruhig auf Herrn Moore und wende dich an AMD, dass das so nicht in Ordnung ist mit den Preisen.
 
Averomoe schrieb:
Schön wäre es, mehr als 1080p30 ist hier beim besten Willen nicht drin und das nur bei maximal mittleren Texturen. Da kann man sich auch gleich eine moderne APU von AMD holen ganz Ehrlich.
Die muss sich aber gerade die Speicherbandbreite mit der CPU teilen, dabei ist diese schon stark eingeschränkt, gegenüber einer 6400/6500.
Und Infinity Cache gibt es da leider auch nicht.
 
Strahltriebwerk schrieb:
199 Dollar für die Leistung einer RX 580 im Jahre 2022?! Die RX 580 konnte man vor ein paar Jahren für um die 150 Euronen bekommen, also weshalb um Himmels Willen, soll ich mich nun derart von AMD verarschen lassen? Die Karte sollte realistisch bei höchstens 150 Euro liegen, wobei 100 Euro angemessener wären.

Wo bitte schön hat AMD sich per Verpflichtung bereit erklärt, dich auf Lebzeiten mit günstiger Hardware zu versorgen? Möchtest du denn nicht auch deine Arbeit entsprechend gewürdigt zu wissen?

Angemessen wäre zu hinterfragen, wie rentabel solche damaligen Angebote waren.;)

mit frdl. Gruß
 
  • Gefällt mir
Reaktionen: CableGuy82 und Booby
Philste schrieb:
Im Desktop ist die Karte dank fehlender Encoder und co. eigentlich nur mit GT730/GT1030 zu vergleichen (bei denen fehlt nicht umsonst das X, GT heißt Multimedia und nicht Gaming), außer halt bei der Rasterizer Leistung. Man verkauft sie trotzdem als RX, sogar mit XT Endung.
Aber gerade eine Multimediakarte sollte doch Videos kodieren/dekodieren können. Deshalb passt die Deklaration schon als Gamingprodukt meiner Meinung nach. Das Fehlen der Kodierer ist vielleicht ohnehin ein wenig überschätzt, denn die Zielgruppe sind bei der Karte meiner Meinung nach keine Content Creator / Streamer.
 
BigLA schrieb:
Auf lange Sicht würde der PC-Gaming Markt sich dann aber auf wenige zahlungskräftige Gamer beschränken und wirklich zum reinen Luxus verkommen.
Nichts für ungut, aber ein PC-Gaming mit "High-End" Grafik ist ein Luxus Konsumgut, wenn auch noch im bezahlbaren Rahmen im Vergleich zu einem Tesla, einer Yacht und Co. Die wenigsten verdienen ihr Geld mit Gaming. Sonst ist es ein reiner Konsum und fürs Leben per se nicht notwendig.

Und die Zeiten wo Grafikkarten schon tatsächlich hinterhergeworfen wurden, war das andere Extreme, was für uns Kunden zwar super war, für die Unternehmen aber genau das Gegenteil war. Da kann AMD sicherlich ein Lied davon singen. Eine Zeit lang konnte AMD sich gerade noch mit Grafikkarten und Konsolenchips über Wasser halten. Wäre das schief gegangen, hätten wir jetzt genau die Option Intel und NV chips.

Es muss die Mitte wieder gefunden werden. Dass aber ein Bedarf an Gaming Chips da ist, merkt man nicht nur beim PC, sondern auch bei den Konsolen. Viele warten seit längeren überhaupt an eine aktuelle Konsolen Generation zu kommen.
 
  • Gefällt mir
Reaktionen: CableGuy82 und rust_x
Mickey Cohen schrieb:
klar, ich kauf mir für 200 euro ne 64bit karte 🤣
200€?? Das wäre ja noch ein schnäppchen! :D
Aber ich bin ernsthaft gespannt, ob Verfügbarkeit gegeben ist und dann zu welchem Preis:lol:
 
  • Gefällt mir
Reaktionen: Mickey Cohen
Northstar2710 schrieb:
Und diese Spiele sind zum großen Teil mit einer APU spielbar.

Nun ja, einer speziellen APU. Kein Vergleich zum Desktop. Das ist quasi eine dGPU, keine klassische iGPU.

Und an die Intel wird es richten Fraktion ;)

Selbst wenn Intel gut perfiormt und gute UVP Preise verlangt => aus sie können keine 10+ Millionen GPUs aus dem Hut zaubern. Es würde evtl. die Situation leicht bessern, aber nicht wesentlich. Dann gibt es die KArten für 50-100 Euro weniger als jetzt. Mehr würde da nicht passieren, wenn überhaupt.

Das kann man doch super an den Ryzen CPUs sehen. Der 5600X liegt immer noch bei knapp 300 Euro, obwohl dieser für diesen Preis klar langsamer als der i5 12600K ist.
Das gleiche bei den anderen Ryzens. Aber die NAchfrage ist so groß, dass man auch mit einem leicht schwächeren Produkt keine Angst haben muss, nicht gekauft zu werden.
Das gleiche bei den GPUs. Die Nachfrage ist so gigantisch, dass Intel da nicht die Lösung sein wird.
 
  • Gefällt mir
Reaktionen: DynamaxX
Zurück
Oben