News GPU-Gerüchte: Die AMD Radeon RX 5600 XT ist noch nicht vom Tisch

Ich spiel(t)e in 1080p. Mit einer RX 480/RX 5500 kommst du bei einigen neuen Spielen nicht mehr weit.
 
  • Gefällt mir
Reaktionen: latexdoll und fox40phil
@Benji18
Das Problem ist wohl eher das man die eierlegende Wollmilchsau entwickeln musste um sie möglichst flexibel einsetzen zu können, schließlich sind deren Entwicklungskapazitäten geringer als die der beiden großen Konkurrenten, müssen damit aber gegen beide bestehen.
Ich sehe auch beim besten willen noch kein Ende für die GCN Architektur sondern eher eine Verlagerung des EInsatzgebietes. Gerade da wo viel Compute Rechenleistung gefragt ist sehe ich für sie ein gutes Umfeld, weshalb ich auch denke das sie uns noch länger bei den normalen APUs begleiten wird, bei (Desktop) Grafikkarten und Konsolen aber durch RDNA abgelöst wird denn der Sinn der APUs ist ja jene Compute Leistung und deren Komplexität hat noch mehr als genug Spielraum für die Architektur.

Bei einer 5600XT gehe ich hingegen von 6-8 GB Speicher und damit einem 192 oder 256 Bit Seicherinterface aus. Bei 192 Bit rechne ich mit 6 GB GDDR6, bei 8 GB und 256 Bit eher mit GDDR5 oder relativ niedrig taktenden GDDR6. Dabei tendiere ich aber eher zu den 8 GB mit einem 256 Bit Speicherinterface da ich die halben Schritte vor allem von nvidia kenne.
 
Bierliebhaber sehe ich ähnlich. Wer warten kann wartet sowieso bis die PS5 raus ist. Werde 2020 noch mit meiner 970 verbringen^^
 
bigfudge13 schrieb:
Bei AMD dauert das mit den Grakas in letzter sooo lange...
Das wird auch noch eine Weile dauern. 8 Jahre haben sie nach Bulldozer Marktstart gebraucht, um in Sachen CPU wieder konkurrenzfähig zu sein, das ist auf Kosten der GPU-Entwicklung gegangen. GCN musste genau diese 8 Jahre für den Wettbewerb mit Nvidia herhalten. Da ist es schon erstaunlich, dass man so lange überhaupt Produkte bringen konnte, die zumindest bis zur untersten Oberklasse hin mitmischen konnten.

Auch RDNA2 wird meiner bescheidenen Meinung nach kein "Nvidia-Killer", dass braucht noch ein oder zwei Jahre Feinschliff und Weiterentwicklung, bis man nach grünen Sternen greifen kann. Schließlich hat Nvidia die Entwicklung neuer Chips nicht eingestellt und wann/in welcher Form Intel seinen Hut noch in den Ring wirft, weiß ja noch gar niemand. Wir können uns auf spannende Jahre im Grafikmarkt einrichten.
 
Zuletzt bearbeitet:
@f1freakdie verkaufszahlen der 1060 sagen allerdings das gerade im bereich 250 - 300 € ordentlich geld gescheffelt wurde. und jetzt wo prozessoren wie der ryzen 2600 für 100 - 120 € verfügbar sind, 16gb ram 50 - 60 € kosten, 500gb ssds für 50 €, sind 250 - 300 € perfekt für einen 600 - 800 € Pc
 
@Balikon eben. Aber jetzt hat AMD endlich mit Zen und RDNA eine grundsolide Basis, auf der man aufbauen kann.
 
  • Gefällt mir
Reaktionen: Revan1710, -Ps-Y-cO- und Balikon
wern001 schrieb:
Die Radeon VII hat irgendwie das Problem die brachiale Leistung die sie hat in Spiele umzusetzen. Aber in OpenCL Anwendung macht die Karte freude.


Das Problem ist, dass die Leistung zum einen gar nicht so brachial ist (eine gut gekühlte Vega 64 liegt dank ein paar mehr Shadern gar nicht so weit weg wie man denkt), zum anderen die Architektur halt auch weiterhin die alte Vega Architktur ist.


Vega hat halt viele Flaschenhälse. Allen Voran das zu schmale Frontend, womit die Shaderauslastung schwierig ist, weshalb die Architektur in Spielen auch nicht so toll mit mehr Shadern skaliert. Die Speichrbandbreite hat die VII behoben, ansonsten verhält sich die VII in Spielen wie eine stark übertaktete Vega.

Vega war von Anfang an eher als Computing Architektur ausgelegt. Navi hingegen ist ähnlich die letzten Nvidia Consumergenerationen ein reiner Gamingchip. Bzw. ein Chip der für Spieletasks entwickelt wurde und hier auch deutlich effizienter ist. Vega kann in Hardware halt sehr viel, aber Spiele sind nicht wirklich eine Stärke. In modernen Low Level API Spielen schlägt sich Vega aber recht wacker. In Red Dead 2 oder auch im neuen Modern Warfare liegt eine Vega nicht weit von einer 1080Ti entfernt (teils unter 10%).

Aber hier sieht man dann auch, dass die Radeon VII sich nicht stark absetzen kann. Die VII ist im PCGH Benchmark bei 1440p z.B. auch nur rund 10% schneller, als eine Vega 64. Kein Wunder. Bei den angegebenen taktraten liefert eine VII auch nicht mal 6% mehr Rechenleistung. Wenn das Spiel zudem nicht so stark Bandbreitenlimitiert ist, ist die VII nicht viel besser, als eine alte Vega.

Balikon schrieb:
GCN musste genau diese 8 Jahre für den Wettbewerb mit Nvidia herhalten. Da ist es schon erstaunlich, dass man so lange überhaupt Produkte bringen konnte, die zumindest bis zur untersten Oberklasse hin mitmischen konnten.

GCN wurde ja auch regelmäßig stark weiterentwickelt. Im Gamingsegent hat Nvidia ja auch ewigkeiten die Architektur nur optimiert. Kepler war ein riesen Schritt, Maxwell war Kepler 2.0 mit vielen neuen Features, ähnlich wie Vega auch viele Features zu GCN hinzugefügt hat und Pascal war im Grunde ein 16nm Shrink von Maxwell. Hier haben also beide älteren und gereiften Architekturen gegeneinander gekämpft. AMDs Konter hat halt immer nur recht lange gedauert und viele Schwachstellen konnte man bis heute nicht lösen.
 
Hauptproblem von GCN war - das sehe ich ähnlich wie @Wadenbeisser - dass GCN gleich zwei Märkte zu bedienen hatte. Und da im Profibereich die Margen besser sind, lag der Schwerpunkt entsprechend, was auf Kosten von Gaming und Stromverbrauch beim Gaming ging. Diesen Hauptmangel konnte man trotz Weiterentwicklung nicht beseitigen, schließlich war man mit den CPUs beschäftigt.

Erst jetzt kann AMD wieder zweigleisig fahren: GCN wird für den Profibereich weiterentwickelt, dort gehört GCN letztendlich auch hin und mit RDNA bzw. RDNA2 kann man sich wieder auf effizientes und leistungsfähiges, weil vom Compute-Ballast befreites - Gaming konzentrieren.

Ich hoffe, dass RTG jetzt ähnlich Fahrt aufnimmt, wie die CPU-Sparte.
 
Nvidias Ampere kommt nächstes Jahr, oder anders geschrieben in den nächsten 7 Monaten.
Ampere wird vor allen über die bessere Fertigung bei Samsung einen riesigen Sprung machen, plus Verbesserungen über die Architektur, die man jetzt noch nicht abschätzen kann.

Und AMD lässt sich alle Zeit der Welt, mit dem Release von weiteren Navi-GPUs.
Dazu kommt, dass AMD überhaupt keinen Preiskampf mit Nvidia führt, anders als im CPU-Bereich mit Intel, und Navi 10 bis heute nahezu unverändert im Preis ist nach Release vor Monaten.

Navi muss nächstes Jahr also in breiter Front gegen Nvidias Ampere antreten.
Da kann es nur einen Gewinner geben......

Übrigens ist RDNA nichts weiter als ein auf Gaming optimiertes GCN-Design, nur mit einem fetzigen Namen.
Dafür müsst ihr einfach nur erkennen, was GCN ursprünglich von der älteren Terrascale-Architektur unterschieden hat. Auch innerhalb von GCN gab es seit Tahiti viele Veränderungen, und besonders heftig bei Vega, wo AMD selbst von Next-Compute-Unites schrieb.
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Nvidias Ampere kommt nächstes Jahr, oder anders geschrieben in den nächsten 7 Monaten.
Ist das offiziell?
 
johnieboy schrieb:
+1, wobei ne (RDNA2?) Big Navi 5900 XT mind. ne 2080Ti +20% erreichen muss meiner Meinung nach.
Das kannste locker Knicken. Schürt doch nicht schon wieder solche Ansprüche/Erwartungen. Selbst schuld, wenn dann wieder die Mundwinkel bei Release nach unten fallen. Lieber tief stapeln und positiv Überraschen lassen - so ist es mir bei der 5700 gegangen - als andersrum.
RDNA ist am Anfang, da erwartet ich maximal ein Ein-, aber kein Überholmanöver. Mir persönlich reicht irgendwas zwischen alter 2080 und 2080 Super. Bei entsprechendem Preis hätte AMD schonmal einen Fuß im High Performance Segment.
 
Laphonso schrieb:
Ist das offiziell?
Ja, da der Release-Zyklus von Nvidia seit Fermi nahezu unverändert ist, ca. 2 Jahre.
Das währe sehr, sehr ungewöhnlich, wenn Nvidia sich plötzlich 3 Jahre Zeit lassen würde.
Alle Gerüchte bestätigen auch den Release von Ampere in 2020, mit Vorstellung wahrscheinlich zur Computex.
 
matty2580 schrieb:
Ja, da der Release-Zyklus von Nvidia seit Fermi nahezu unverändert ist, ca. 2 Jahre.
Das währe sehr, sehr ungewöhnlich, wenn Nvidia sich plötzlich 3 Jahre Zeit lassen würde.
Alle Gerüchte bestätigen auch den Release von Ampere in 2020, mit Vorstellung wahrscheinlich zur Computex.
Erneuter Versuch: Du schreibst: "Nvidias Ampere kommt in den nächsten 7 Monaten. "

Das ist wo und wann so bestätigt worden, offiziell? Also welche Quelle gibt es?
 
matty2580 schrieb:
Ja, da der Release-Zyklus von Nvidia seit Fermi nahezu unverändert ist, ca. 2 Jahre.
Das währe sehr, sehr ungewöhnlich, wenn Nvidia sich plötzlich 3 Jahre Zeit lassen würde.
Alle Gerüchte bestätigen auch den Release von Ampere in 2020, mit Vorstellung wahrscheinlich zur Computex.

AMD wird es sehr sehr schwer haben gegen Ampere. Die Frage bleibt nur, ob es Nvidia genötigt sieht mit Ampere die volle Leistung zu fahren oder wegen geringer Konkurrenz die Leistung drosselt, um später mit neuen Super Modellen weiter frischen Luft in den Markt zu bringen?
 
Laphonso schrieb:
Das ist wo und wann so bestätigt worden, offiziell? Also welche Quelle gibt es?
Diese Diskussion bringt nichts.....
Nvidia fährt seit langer Zeit eine Null-Info-Politik.
Turing kam auch ursprünglich aus dem Nichts, und wurde offiziell zur Gamescom 2018 vorgestellt.

Von mir aus "vertraue" darauf, dass nächstes Jahr von Nvidia nichts kommen wird. ^^
 
matty2580 schrieb:
Nvidias Ampere kommt nächstes Jahr, oder anders geschrieben in den nächsten 7 Monaten.
Ampere wird vor allen über die bessere Fertigung bei Samsung einen riesigen Sprung machen, plus Verbesserungen über die Architektur, die man jetzt noch nicht abschätzen kann.
Wollen wir wetten das die Chips kaum höher takten werden als die aktuellen, sie wegen der teureren Fertigung kleiner ausfallen und der Preis dennoch weiter durch die Decke geht?
Dein "riesen Schritt" dürfte schon deshalb deutlich kleiner ausfallen als von dir propagiert. Ich gehe aber davon aus das sie dadurch sparsamer werden.
 
Naja RDNA ist jetzt nicht so groß im Vergleich zu den Turings die halt auch RT/Tensor mitschleppen müssen. Mit 250mm² sollte man da im Notfall, wenn der Prozess besser ist, auch noch beim Preis nach unten gehen können um Ampere zumindest teilweise in Zaum zu halten.
Nvidia kann bei Ampere nicht einfach RT wieder fallen lassen.
 
@matty2580

Was für Wunder erwartest du?
TSMCs bisheriger 7nm Prozess soll ja bei gleicher Chip größe ca. doppelt so teuer wie der 14nm Prozess sein.
Der TU102 der 2080Ti ist bereits 754 mm² groß, um die Produktionskosten also halbwegs gleich zu halten müßte er erheblich schrumpfen, zumal noch nicht einmal klar ist ob so große Kekse überhaupt mit dem neuen Prozess sinnvoll herstellbar sind. geht man also davon aus dass die neuen Chips um die 400 mm² groß sein werden dann bleibt kaum Spielraum um die Komplexität zu erhöhen und darüber die Leistung zu erhöhen. Würde er dann auch noch kaum über die 2 GHz Marke kommen dann grenzt das die Leistungssteigerung massiv ein, weshalb ich auf ca. 15-20% bei weniger Strombedarf tippe. Das passt dann auch zur bisherigen Vorgehensweise erst mit einem kleineren, billiger zu produzierenden Chip zu kommen und den Big Chip deutlich später nachzuliefern um die Ausfrüstjunkies nochmal abzukassieren.
 
Zurück
Oben