Test Radeon RX 5500 XT im Test: Wachablösung für Polaris mit 4 oder 8 GB Speicher

Das ist mir bewusst - Fakt ist, dass ich 50 € mehr bezahlen musste, wenn ich ein mittelmäßiges Partnerdesign haben wollte. Der AMD-UVP ist für mich zum Release interessant, aber nicht mehr ~1,5 Monate danach, wenn die GPU schon auf dem Markt ist. Dann hätte man die Partnerdesigns eben auch zum Navi-Launch releasen müssen
 
kiffmet schrieb:
RX 590 Performance zum RX590 Preis. Die verbesserte Energieeffizienz lasse ich mal außen vor. Im ~200€ Segment herrscht also weiter Stillstand.
Nicht Stillstand. Es geht nur so langsam voran das man die Bewegung gar nicht wahrnimmt. Die RX480 ist ja deutlich langsamer ^_^
 
MaverickM schrieb:
Alleine die Tatsache, dass Du Entwicklungskosten für das 7nm Verfahren vollkommen ignorierst und dann Preise für eine geringere DIE Size, die ja vor allem durch den kleineren Fertigungsprozess zustande kommen, ignorierst, disqualifiziert sämtliche deiner Ausführungen.[...]

Und du kennst die durch den 7nm Prozess entstehenden zusätzlichen Kosten?

Das Argument wird immer wieder gebracht, hat aber bisher bei KEINEM Die Shrink dafür gesorgt, dass die Preise so drastisch angestiegen sind obwohl das neue Verfahren immer teurer ist.

Um mal einen sehr einfachen Vergleich zu bemühen, weil beide 399$ gekostet haben:
Vega 56
vega56.png

vs. 5700XT
rx5700xt.png


2017 konnte AMD für ~400$ einen ~500 mm² Die mit 8GB HBM auf einem Interposer raushauen, aber 2 Jahre später gibt es nur noch einen halb so großen Die mit insgesamt weniger Transistoren und gewöhnlichem GDDR Speicher?

Und die 3000er Ryzen sind trotz 7nm Chiplets und etlichen neuen Features nicht auf einmal erheblich teurer geworden, als die "ollen" 12nm 2000er Ryzen?

Wie passt das zusammen?
 
  • Gefällt mir
Reaktionen: Innocience, KlaasKersting, grossernagus und 7 andere
Wahnsinn wie teuer die Grafikkarten geworden sind. Wenn ich überlege das ich mir vor drei! Jahren eine neue 1060 für 169€ gekauft habe, sind die echt teuer geworden. Und dabei ist die neue Einsteiger Klasse gerade mal 7% schneller und das bei aktuellen 40€ Mehrkosten. Klar der Preis dürfte noch ein wenig fallen, denke aber nicht das die 8 GB schnell unter 170€ kommt.
Trotzdem schön zu sehen, dass AMD das W/FPS deutlich verbessern konnte. Wenn die Graka noch ein bisschen im Preis fällt, würde ich trotzdem bei einer Neuanschaffung zur Ihr greifen, allein weil ich AMD mittlerweile unterstützen möchte.
 
v_ossi schrieb:
Um mal einen sehr einfachen Vergleich zu bemühen, weil beide 399$ gekostet haben:
Obwohl ich bei der Argumentation bei dir bin, so ganz fair ist der Vergleich nicht, denn jeder der beiden chips hat 2 Ausbaustufen und du vergleichst die High CU Variante von Navi10 mit der Low CU Variante von Vega10.

Also du müsstest eigentlich entweder Vega10 XT und Navi10 XT oder Vega10 XL und Navi10 XL vergleichen.

Dann haben wir wahlweise $399 vs $499 oder $349 vs $399, wobei die Navi10XL(5700) ja recht schnell richtung $299 gefallen ist, weil der Preis eindeutig zu hoch war, bei Navi10XT(5700XT) war er im Vergleich passender.
Ergänzung ()

MaverickM schrieb:
Alleine die Tatsache, dass Du Entwicklungskosten für das 7nm Verfahren vollkommen ignorierst und dann Preise für eine geringere DIE Size, die ja vor allem durch den kleineren Fertigungsprozess zustande kommen, ignorierst, disqualifiziert sämtliche deiner Ausführungen.
Die RX480 nutzte bei Release ebenfalls den zu dieser Zeit komplett neuen 14nm Prozess, der auch doppelt so teuer war wie der 28nm Prozess, wo sind denn die Entwicklungskosten für das 14nm Verfahren dort im Vergleich zur R9 380X hin? Dazu war sie auch noch 50% schneller als die 380X, Genau wie die 5700 nun 50% schneller als die RX590 ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker und v_ossi
Simon schrieb:
Selbst wenn AMD es schafft, einen "Big Navi" zu bauen. Der Effizienznachteil, der schon in der Mittelklasse existiert, wird kaum durch das Hinzufügen von weiteren Ausführungseinheiten so einfach verschwinden. Ne RTX 2080 Ti ist 37% schneller als ne RX5700 XT, verbraucht unter Last aber nur 29% mehr.

Da wird man maximal gleichziehen können aber um ernsthaft an die 2080 Ti bei der Performance anzugreifen, dürfte die Boardpower doch am Ende wieder bei 300 Watt liegen, was schlicht lächerlich ist ist, dafür das man bei der Fertigung 1,5 Nodes voran ist.
Wer sich ein neues High-End System zusammen stellt, der kann ein gutes Gehäuse, Lüfter, Netzteil wählen und auch 300W zur Verfügung stellen, die Wärme abführen, aber es ist ein zusätzlicher Aufwand, den man gerne vermeidet. Flüsterleise geht dann nur noch mit Wasserkühlung. Nimmt man all den Aufwand zusammen, kann das schnell ein paar hundert Euro zusätzlich ausmachen und man greift zum effizienteren Modell, auch wenn es teurer ist.
Der Preis spielt da eine große Rolle. Sollte AMD versuchen, hier für die gleiche Leistung den gleichen Preis zu verlangen, auch wenn die Karte 100W mehr verbraucht, wird man keine Marktanteile gewinnen. Schöpft nVidia die Vorteile des Wechsels auf 7nm aus, wird sich die Situation der letzten paar Jahre Wiederholen. Das Zeitfenster für AMD, aufzuholen, ergab sich über die Entscheidung von nVidia, Turing auf 12nm zu fertigen. Dieses Fenster wird sich vermutlich Mitte nächsten Jahres schließen. Ich weiß nicht, wie es anderen geht, aber ich warte schon gespannt auf die 30x0 Serie, weil mir die High-End Turing Karten nicht ausgereift genug erschienen, um 700-1200€ als Preis zu rechtfertigen. Es fehlt mehr VRAM, vor allem bei der 2080 und generell war Raytracing der Zeit vorgegriffen. Mit der 30x0 hat man nun die Chance, ein runderes Paket zu schnüren.

Was die 5500 an geht, ist eigentlich schon alles gesagt, die Karte wird für Retail bedeutungslos, verpasst aufgrund der UVP das Weihnachtsgeschäft 2019 und muss 2020 vielleicht schon gegen einen 7nm refresh von nVidia bestehen.
 
Zuletzt bearbeitet von einem Moderator:
Besonders bei Nvidia sieht man doch sehr gut, dass R&D nie ein Problem für den Konzern war.
Der Aktienkurs ist seit Fermi gigantisch angestiegen, und hier bei CB und auch anderen Seiten liest man seit damals von Rekordmargen und Rekordgewinnen, meistens in Verbindung mit der Geforce-Sparte. Eine Marge ist übrigens schon R&D bereinigt. Es ist nackte Gier die hier den Markt bestimmt, weil man in vielen Bereichen fast konkurrenzlos ist. D.h. es ist absolute Relitätsverweigerung, wenn man dass nicht erkennen will.

Es bringt auch überhaupt nichts, wenn hier einige AMD-Fans anfangen Nvidias abartige Preispolitik zu verteidigen, nur damit AMD nicht schlecht dasteht, weil sie den Quatsch mitmachen. Das wird die Stagnation dahinter nur vertiefen.

Und man sieht es ja gut an Steam, wo die Top 10 von (ur)alten Maxwell und Pascal GPUs dominiert wird.

Was hier dringend gebraucht wird, ist endlich wieder mehr Dynamik im GPU-"Markt", so wie aktuell bei den CPUs.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: grossernagus und v_ossi
Zumal die TBP der 2080Ti sowieso schon bei 250W liegt und der Realverbrauch im CB Test bei 277W lag, da kann eine Navi Karte auf dem Level der 2080Ti auch gerne 300W verbrauchen, wenn sie dabei günstiger ist.
 
Chillaholic schrieb:
Sind sie zumindest in der Rangliste mittlerweile.
Intel wirbt auch wieder mit Max FPS.. Dabei sind die sowas von zweitrangig.

Zur Karte: wie das ganze erste Navi Lineup. Weder Fisch noch Fleisch. Aber die Effizienz ist massiv gestiegen.. Mal eben von Maxwell richtig Turing ist gut. Bin aber auch eher bei der 1660 oder S, weil die AMD noch zu teuer sind

@matty2580
Willkommen im Kapitalismus. Weder AMD noch Nvidia sind Samariter. Und auch die PCB Qualität kostet eben. Also pluster dich nicht so auf, wir haben das als Kunden selbst erzeugt
 
Taxxor schrieb:
wenn sie dabei günstiger ist.
Bei der aktuellen Generation habe ich eher das Gefühl, dass AMD - dank halbwegs konkurrenzfähigem Produkt - das Preisniveau von Nvidia anstrebt.
RX 5700 XT und 2060 Super kosten quasi gleichviel. Die AMD Karte ist minimal schneller, dafür ist die Nvidia Karte sparsamer und bietet zusätzlich noch RT und Tensor Cores - ob man die jetzt wirklich mit der Karte nutzen kann oder nicht, sei mal dahingestellt. Der Punkt ist einfach, dass man hier etwas "mehr" bei Nvidia bekommt.
Bei den RX 5500er Karten sieht's ja ähnlich aus: Ähnlicher Preis, etwas mehr Performance hier, etwas weniger Leistungsaufnahme dort, und bei AMD gibt's 2GB VRAM oben drauf. Aktuell sieht's dank der UVP ja sogar noch deutlich schlechter aus: AMD ist teurer und liefert (bis auf den VRAM) weniger. Aber ich denke mal, dass es nach Weihnachten dann einen Gleichstand gibt.

Und wenn das so weiter geht, kann ich mir nicht vorstellen, dass AMD nächstes Jahr eine RX 5999 rausbringt, die über den Preis punktet - zumal dann auch AMD mit dem RT Argument punkten kann.
Eine Ausnahme sehe ich allerdings: Nvidia bringt nächstes Jahr ihre Nachfolger Karten raus, die dann dank inzwischen gut gereifter 7nm Fertigung deutlich günstiger in der Produktion sein werden, nochmals effizienter, mehr Performance durch neue Architektur, etc. pp. Dann wäre AMD gezwungen die Preise deutlich nach unten anzupassen, um ihre Produkte noch irgendwie schmackhaft zu machen.

Ich denke, dass AMD sich diese Preise aktuell nur erlauben kann, weil sie in 7nm produzieren und sie dadurch ein Produkt auf Augenhöhe anbieten können. Aber sobald Nvidia nachzieht, sieht's sicherlich wieder so aus wie zu Vega Zeiten. Ich mein, Nvidia sind mit ihrer Steinzeit-Fertigung immer noch ein Stück vor AMD. Und ich habe so meine Zweifel, dass RDNA2 eine Revolution auslösen wird. Klar wird die Architektur besser sein als die aktuelle, aber einen Quantensprung erwarte ich nicht. Und bei Nvidia wird's ja auch eine neue Architektur geben, die auch wieder besser als die aktuelle ist.
 
Zuletzt bearbeitet:
Es ist halt beides wichtig, gute fps, und gute Frametimes.
Jetzt mit fast 50 sehe ich kaum noch ein Unterschied bei den Frametimes.
Daran können sich dann die jüngeren Generationen erfreuen. ^^
 
Replay86 schrieb:
AMD hat fertig. Mal schauen was Intel bringt. Dürfte nicht schwer werden für Intel den ewigen zweiten zu verdrängen.
Ich glaube erst dass Intel was bringt, wenn es da ist. Und es wird 1. Nicht so effizient wie Turing oder Navi und 2. Werden Treiber eine echte Herausforderung.
Ich sehe noch nicht Mitte 2020 eine Xe, die Nvidia und AMD Konkurrenz macht. Larrabee sollte auch so was werden, die Geschichte zeigt was es wurde
 
  • Gefällt mir
Reaktionen: duskstalker
Taxxor schrieb:
[...]so ganz fair ist der Vergleich nicht, denn jeder der beiden chips hat 2 Ausbaustufen und du vergleichst die High CU Variante von Navi10 mit der Low CU Variante von Vega10.

Also du müsstest eigentlich entweder Vega10 XT und Navi10 XT oder Vega10 XL und Navi10 XL vergleichen.
[...]

Ja und nein. Der Einwand ist schon berechtigt, aber ich habe hier bewusst den Preispunkt von ~400 gleich gehalten um aufzuzeigen, wie viel mehr man dafür vor 2 Jahren bekommen hat. Netterweise ist die Anzahl der Transistoren auch recht ähnlich, womit man eine weiteren Variable hat, die gleich ist.

Von Polaris aus, könnte man natürlich über die annähernd gleiche Die Größe argumentieren. Ist mMn genau so legitim und zeigt das gleiche Problem.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Rockstar85 schrieb:
Intel wirbt auch wieder mit Max FPS
Intel sagt auch den Redaktionen wie man am besten ihre ihre Prozessoren testen sollte, um ne Chance gegen AMD Prozessoren mit deutlich mehr Rohleistung zu haben. ;) Hochfrequenztakt ist halt nicht immer alles.

Zu Intels GPU-Ambitionen, die scheinen ja ernsthafter zu werden, wenn man sich anschaut wer da so alles erfolgreich abgeworben wurde.
 
Chillaholic schrieb:
Zu Intels GPU-Ambitionen, die scheinen ja ernsthafter zu werden, wenn man sich anschaut wer da so alles erfolgreich abgeworben wurde.
Zum ersten. Jo haste Recht ;)
Zum zweiten:

Es gibt erste Gerüchte, das Intel weder die Effizienz liefert, noch die Treiber zufriedenstellend laufen.
 
  • Gefällt mir
Reaktionen: ryzen-
Rockstar85 schrieb:
...., wir haben dass als Kunden selbst erzeugt.
Du vielleicht, aber ich nicht. ^^
Ich nutze eine GTX 580, seit langer Zeit, und mache den Preiswahnsinn nicht mit.
D.h. ich reagiere mit Kaufzurückhaltung, so lange bis sich eine neue GPU für mich nicht wie ein teurer Kompromiss anfühlt. Ich kaufe aber auch seit langer Zeit keine AAA-Games mehr.

Mein Ziel ist es auf Nvidias Ampere zu warten, und dann entscheide ich mich für eine neue GPU, entweder Navi oder Ampere.

"Aufplustern" ist aber schon sehr agro. Alles ok?
 
  • Gefällt mir
Reaktionen: grossernagus und Shoryuken94
Immerhin hängt AMD nur noch 1,5 Jahre hinterher und nicht mehr 3 Jahre.
Jetzt müssen sie dran bleiben, nvidia wird ja auch bald die bessere Fertigung nutzen.
 
Wie ist denn deine Einschätzung bei Ampere, also wenn Navi gegen Ampere antritt nächstes Jahr?
Sind es dann immer noch 1,5 Jahre?
 
matty2580 schrieb:
Es bringt auch überhaupt nichts, wenn hier einige AMD-Fans anfangen Nvidias abartige Preispolitik zu verteidigen, nur damit AMD nicht schlecht dasteht, weil sie den Quatsch mitmachen. Das wird die Stagnation dahinter nur vertiefen.[...]
Eine abartige Preispolitik führt zum Unternehmenskonkurs. Wer bei hohen Preisen noch Marktanteile gewinnt, hat ein sehr gutes Produkt, ist besser als die Konkurrenten. Da gibt es auch nicht viel rum zu interpretieren. Die hohen Preise werden weitere Konzerne animieren, in den GPU Markt einzutreten. Bis dahin hat nVidia durch die Technologieführerschaft garantiert hohe Renditen. Und auch danach müssen die neuen Herausforderer erst mal zeigen, ob sie an das Niveau von nVidia herankommen. Man kann da berechtigte Zweifel haben. AMD hat es mit dem rx5500 nicht geschafft, obwohl sie bereits in 7nm fertigen.

AMD konzentriert sich auf die CPU Sparte, weil es offenbar leichter ist, Intel heraus zu fordern. Intel hat, im Gegensatz zu nVidia, nämlich genau das getan, was du für den Graka Markt prognostizierst. Es hat sich in allen Bereichen ausgeruht und nur noch kleine Verbesserungen vorgenommen. Deswegen ist es nun leichter an zu greifen.

nVidia aber nicht, die haben alle Produkte von AMD zeitnah gekontert und es sieht keinesfalls danach aus, als würde sich das ändern.
 
Nein, gerade weil es keinen gesunden GPU-"Markt" mehr gibt, kann Nvidia seit Fermi machen was sie wollen. Das was du beschreibst sind Mechanismen eines echten "Marktes", also einer klassischen griechischen Agora, die es so aber nicht mehr im GPU-Bereich gibt.

Nvidia macht seit langer Zeit, wie schon fast aus einem BWL-Lehrbuch, vor was mit so extrem hohen Marktanteil möglich ist, und quetscht die Kuh bis nur noch Blut kommt.

Einzig der Einstieg von Intel ist hier ein kleiner Hoffnungsschimmer.
Koduri konzentriert sich hier aber extrem auf den professionellen Bereich, und nur mit viel Glück wird es eine kleine dedizierte GPU geben. Die werde ich übrigens sofort kaufen, nur um etwas Basteln zu können, und selbst zu testen was Intel da zusammen gebraut hat. ^^

Sollte Intel halbwegs erfolgreich sein, was ich sehr hoffe, selbst als AMD-Fan, wird dass Nvidia richtig weh tuen wenn sie im margenträchtigen professionellen Bereich Marktanteile an Intel verlieren.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben