News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

cypeak schrieb:
wieso? die konsolen haben zum teil 16gb für system und grafik - also genau diese 12gb wären ok finde ich. vor allem macht der preis die musik.

Für die Mittelklasse zu Mittelklassepreisen sage ich nichts dagegen. Bei Karten im 800+ Euro Bereich erwarte ich da mehr. Besonders wenn man seit Jahren 8GB in der Mittelklasse hat.

Ja die Konsolen haben 16GB Shared Memory, aber auch eine extrem schnelle SSD, mit der man Daten nachladen kann und eine darauf ausgelegte Systemarchitektur. Möchte ich bei einer über 800, 900 oder gar 1000€ Grafikkarte auf das gleiche Level wie bei einer 500€ Konsole? Mit dem unterschied, dass für die konsole deutlich mehr Optimierungsaufwand betrieben wird?

Das man damit nicht lange Spaß hat, hat die 780Ti gezeigt. Die Hatte 3GB Vram. Kam etwa zeitgleich mit den Konsolen raus. PS4 und Xbox hatten zwar 8GB ram, aber flexibel für Spiele Nutzbar waren auch nur 4,5GB, da der Rest für Systemressourcen reserviert war.

Hat nicht lange gedauert, bis die 3GB ein echter Flaschenhals für die 780Ti waren. Und das bwohl das Mehr an Speicher in den Regionen nicht die Welt kostet und man den Ram unabhängig von der GPU Leistung langfristig für vernünftige Texturen nutzen kann. Da sehe ich 16GB für eine Karte die man längerfristig nutzen möchte schon als angemessen an.
 
  • Gefällt mir
Reaktionen: Zubz3ro und NMA
Xes schrieb:
Und was war das "gute" bequit Netzteil? Ein uraltes billig L7?
Nein, es sind schon die guten und nicht ganz billigen wie DarkPower Pro und und Strait Power.
 
Ebu85 schrieb:
Dankö für die Erklärung!
Bitte gerne, auch wenn ich etwas gereizt gewirkt habe in meinen Augen. Dafür Entschuldigung.

Mal schauen, was kommt mit RDNA2, mit 5120 Shadern, wird das auf jeden Fall ein Brett und ich denke, die "Gerüchte" die letzten auf GameStar kamen, dass man ja NUR an die 2080Ti kommt und ansonsten mit 3080 und 3090 nicht mit halten könnte, werden sich da zumindest nicht Bewahrheiten.
 
KlaraElfer schrieb:
Ich kann diesen "Ballast" nicht wirklich sehen und die feinere Granularität ist eher eine Designfrage und keine Befähigung für hohe Computeleistung, denn auch da ist Navi überlegen und der nächste fette Compute Chip kommt sicher mit RDNA2 Architektur.

Würdest du die enorme FP64 Leistung der R7 nicht als Balast bezeichnen? Braucht eine Gaming Karte das wirklich?
 
@Shoryuken94 Die Szenarien in denen 8GB VRAM nicht ausreichen um die höchste Texturstufe fahren zu können, kann man aktuell an einer Hand abzählen.
Guru3D packt das immer in seine Tests rein und da war in den letzten ~2 Jahren glaube ich kein AAA Blockbuster dabei, der die 8GB überschritten hätte. RDR2, Metro, Tomb Raider, etc., alle kamen mit 8GB aus.
Wird (wilde Vermutung meinerseits) auch in Zukunft so sein, dass der GPU eher die Puste, denn der VRAM ausgeht. Immerhin ist 4k weiterhin die Zielauflösung und mehr fps (dank DLSS und anderer Rekonstruktionsmethoden aktuell eher der Trend als 'unnötig' höhere Auflösungen) brauchen nicht mehr VRAM.
 
BoardBricker schrieb:
Jetzt sitze ich in der Zwickmühle.
Einerseits würde ich schon ganz gerne die GraKa aufrüsten, um in WQHD weniger Kompromisse bei der Qualität für genügend FPS eingehen zu müssen. Da könnte die kommende Generation genau das Richtige sein.
Andererseits fürchte ich, dann am Gebrauchtmarkt deutlich weniger für meine Vega64 zu bekommen, als wenn ich jetzt einen Zwischenschritt auf eine vernünftige 5700XT mache.

PC Hardware ist keine Geldanalage. Der Wechsel von Vega 64 auf 5700XT lohnt doch auf keinen Fall.
Warte erstmal ab was grün und rot aus dem Hut zaubern.
 
ZeroStrat schrieb:
Würdest du die enorme FP64 Leistung der R7 nicht als Balast bezeichnen? Braucht eine Gaming Karte das wirklich?

Die hatte ja Vega gar nicht, im besonderen nur die Radeon VII. Selbst Hawai hatte ein DP Verhältnis von1:2.
Insgesamt sehe ich diese Ballast-Theorie um die schlechte Vega Performance zu erklären, als reinen Unfug an.
 
NMA schrieb:
Aber ist nicht das Vega Design für den "Professionellen" Markt erdacht, bzw eingeordet gewesen?
Ja und der "Nachfolger" ohne Rendering gedöns schlägt da auch gerade ein. Sehr viel Leistung bei wenig Verbrauch. Aber die sind KI only. Also wirklich ohne Grafikausgabe etc... Könnte also sein RDNA2 für Profis im Spiele Filmbereich CAD bekommen HBM2...
 
Loopman schrieb:
.........
bei jeder Generation davor haben die Konsolen die PCs bei Release weggefegt - besonders extrem zu PS1/2 Zeiten.
Bitte nicht. 3dfx lässt grüßen und wer sich damals ein 3dfx SLI Gespann leistete, konnte sicher auch in 1024 zocken. Vom Q3A FPS Zauber auf den damaligen Konsolen weiss ich nämlich nichts.

Damaliger Grafikkartenvergleich mit Zeitstempeln.

Hier die Pussy Konsole und ich hatte Tomb Raider mal auf einer PS1 Demo CD und weiss wie beeindruckend schlecht es auf der PS1 aussah.

-
Was das Kernthema mit AMD Navi betrifft, bleibe ich bei meiner mal ehemals getätigten Aussage. AMD hinkt gut zwei Generationen durch die reine Konsolenausrichtung hinter nvidia hinterher und wenn sich nvidia nicht aus Langeweile die Eier geschaukelt hat, was sie nicht im wichtigen, professionellen HPC Markt tun, können die auch ganz entspannt die größten AMD High-End Gaming Karten kontern. Ich werde eben auch aus dieser Einsatzflexibilität der nvidia Karten mit den besser unterstützten GPGPU Funtionen nächstes Jahr je nach Zustand der Corona Wirtschaft wieder zu nvidia greifen und verdammt, wie ich die AMD Radeon Treiberentwicklung nicht mag. Das was Frau Su an Aktienoptionen bekommt, könnte diese fehlgeleitete Managerin auch verflüssigen um mit guter Treiberentwicklung beim Endkunden zu überzeugen. Miningtreiber für VEGA wurden schnell nach gereicht, weil man sogar über der UVP verkaufen konnte, aber für den GPGPU Einsatz nach der Miningzeit kam nicht wirklich viel und in allen wichtigen Produktivanwendungen ist sogar die Mittelklasse RTX2060 ein Leistungsmonster.

https://www.pugetsystems.com/labs/a...-Roundup-NVIDIA-SUPER-vs-AMD-RX-5700-XT-1564/
Wenn auch ein etwas älterer Test von 2019, so muss AMD hier mit seinem kommenden RDNA 2 Shadermonster erst die Flexibilität der nvidia Karten brechen, die nicht nur die Gaming Anwendungen beherrschen. Daher sieht das Preis-, und leistungsverhältnis bei nvidia wieder besser aus. So lange keine AMD Informationen zu anderen Leistungsmerkmalen durch sickern, wird sich AMD unnötig andere Märkte und damit Kunden vorenthalten.
 
  • Gefällt mir
Reaktionen: NMA und Botcruscher
Ich hatte nie Probleme mit meinen bisherigen AMD Karten (Treiber oder Kühlung)
 
Teralios schrieb:
Bitte gerne, auch wenn ich etwas gereizt gewirkt habe in meinen Augen. Dafür Entschuldigung.

Mal schauen, was kommt mit RDNA2, mit 5120 Shadern, wird das auf jeden Fall ein Brett und ich denke, die "Gerüchte" die letzten auf GameStar kamen, dass man ja NUR an die 2080Ti kommt und ansonsten mit 3080 und 3090 nicht mit halten könnte, werden sich da zumindest nicht Bewahrheiten.

Ja, über RDNA2 ist einfach viel zu wenig bekannt, es ist eine weiterentwicklung dazu kommt ja auch noch RT usw. also es wird spannend. ich glaube die karte wird eine sehr gute alternative zu nv bieten aber nicht die leistungskrone abholen. obwohl ich glaube amd möchte auch gar nicht die schnellste karte am markt haben.
 
@Fighter1993
Ich will mit meinem schönen Hobby halt einfach nicht mehr Geld verbrennen, als unbedingt nötig. Meine Befürchtung ist, dass nach einer Vega bald kein Hahn mehr kräht bzw. man die Dinger dann quasi verschenken muss. Das wäre dann möglicherweise der größere Wertverlust, als wenn mir jetzt jemand die Karte noch zu einem vernünftigen Preis abnimmt, ich noch etwas drauflege und eine 5700XT anschaffe, mit der ich dann eben etwas länger auskommen muss. Außerdem können es ja durchaus diese ~+10% Leistung sein (und FidelityFX), die am unteren Ende darüber entscheiden, ob man die Qualität nochmal runterstellen muss, um auch die letzten gelegentlichen Ruckler loszuwerden oder auch so und mit besserem Bild hinkommt.
Mir wäre es natürlich auch lieber, wenn ich mir um die - sagen wir mal - bis zu 200€ Ersparnis/Mehrkosten weniger Gedanken machen müsste.
 
  • Gefällt mir
Reaktionen: Fighter1993
sdo schrieb:
Ich will 60 CUs für max. 300€ und 76/80 für max. 500€. Alles andere ist Abzocke und besiegelt den Tod vom PC wenn ich für 450-500€ für den Preis einer Grafikkarte eine gesamte Konsole mit gleicher Grafikleistung bekomme.

Naja, wenn die Fläche gleich bleiben soll oder ähnliches und man trotzdem mehr Leistung auf dieser Fläche haben möchte, dann muss man ab einer bestimmte Anzahl von CUs auf eine andere Verarbeitungsart/Technik setzen, die dies ermöglicht, aber dafür teuer ist. Schon mal was von abnehmenden Grenzerträge gehört? Nebenbei muss dann auch noch die Forschung dafür bezahlt wird. Wenn es ermöglicht wird, dann bedeutet es auch, dass es die potentielle Nachfrage gibt. Ein Unternehmen stellt nichts blind her.

Und einen PC mit einer Konsole zu vergleichen ist wie Äpfel mit Birnen zu vergleichen. Du implizierst hier die Annahme, dass der PC dann nur für das Zocken gedacht ist. Schon mal probiert auf einer Konsole mit Python oder Java zu programmieren u.s.w. ? Tja. Konsole dient wohl ausschließlich nur zum Entertainen. Sonst nichts. Ein PC kann jedoch für so vieles genutzt werden und die Grafikkarte kann bspw. für das Berechnen von Schritten in Algorithmen etc. genutzt werden. Bitte über den Tellerrand hinaus schauen. Außerdem wird niemand hier gezwungen etwas zu kaufen. Der Markt regelt sich eben von selbst.
 
ZeroStrat schrieb:
Würdest du die enorme FP64 Leistung der R7 nicht als Balast bezeichnen? Braucht eine Gaming Karte das wirklich?
Wenn man weiß, wie die ALUs bei GCN arbeiten, dann ist die FP64-Leistung bei AMD nicht unbedingt der große Balast, wie zum Beispiel bei NVIDIA.

Auch hier erneut: AMD arbeitet in einer CU mit Vec16/Vec32-ALU, die lassen sich mit "weniger" Aufwand für FP64-Berechnungen vorbereiten, als bei NVIDIA, die scheinbar auf skalare ALUs, dafür aber sehr viele setzen. (Ich find auch Informationen, dass NVIDIA "Vec4"-ALUs nutzt

KlaraElfer schrieb:
Insgesamt sehe ich diese Ballast-Theorie um die schlechte Vega Performance zu erklären, als reinen Unfug an.
Sie ist auch als ganzes Unfug. Das Problem für Vega64 war immer die Auslastung der ALUs.

Denn - auch wieder 2 oder 3 Beiträge vor diesem: Die CU berechnete zwar NUR "16" Werte mit einem Wave16-Befehl, denoch waren alle CUs "belastet", also verbrauchten Strom und zwar genau so viel, als wären alle Vec16-ALUs gefüllt gewesen.
 
  • Gefällt mir
Reaktionen: Iscaran, KlaraElfer und adAstra
KlaraElfer schrieb:
Insgesamt sehe ich diese Ballast-Theorie um die schlechte Vega Performance zu erklären, als reinen Unfug an.

Siehe Titan V: Verfügt über noch mehr Rohleistung als die Radeon VII, ein DP-Verhältnis von 1:2, 640 Tensorkerne und "nur" 12 GB VRAM. Trotzdem performt das Teil auch in Spielen durchaus akzeptabel und liefert beim Port-Royal-Raytracing-Test von 3D-Mark trotz fehlender RT-Kerne in etwa die Leistung einer RTX 2060 Super :D

@Teralios
Noch einmal ein fettes DANKESCHÖN für deine stets lesenswerten und lehrreichen Beiträge.

Teralios schrieb:
AMD arbeitet in einer CU mit Vec16/Vec32-ALU
Das war dermaßen nervig die OpenCL-Kernels auf diese AMD-Eigenheit entsprechend umzuschreiben ... hat bei mir schnell dazu geführt, dass ich mich nur noch mit Nvidia-Karten umgeben habe :D
 
Zuletzt bearbeitet von einem Moderator:
KuestenNebel schrieb:
Noch einmal ein fettes DANKESCHÖN für deine stets lesenswerten und lehrreichen Beiträge.
Aktuell auch wieder genug gute Laune dafür. Wobei ich noch etwas an mir arbeiten muss, dass ich wieder geduldiger werde. :D
 
Summerbreeze schrieb:
Ich hoffe ja, das sie damit den Vega Rohrkrepierer vergessen machen.

Naja, in den Renoir APUs ist (die darauf optimierte) Vega eigentlich sehr ordentlich geworden und eine Radeon VII ist im semi-professionellen Bereich auch wegen der 16GB HBM2 und hoher Bandbreite auch nicht zu verachten (es soll ja auch Leute geben die Grafikkarten nicht nur zum Spiele daddeln nutzen) ;).


Zum Thema, was wir aktuell wissen, ist immer noch ziemlich wenig hinsichtlich Big Navi RDNA2 von daher rechne ich auch nicht mit einem Marktstart dieser vor Ende Oktober 2020.

Es gibt ja Geruechte, dass erst die beschnittenen Big Navi RDNA Karte, auch als "Navy Flounder" bezeichnet, kommen wird und erst Anfang 2021 die Halo/Flaggschiff-Version mit der GPU im Vollausbau, als "Sienna Cichlid" aktuell bezeichnet.

Was die Speicherinterfaces angeht, weiss ich nicht, wie einfach/lohnend es waere mehrere Masken fuer GDDR6(X) und HBM2(E) Versionen nur fuer einen einzigen Grafikchip zu entwerfen (beide Interfaces generell mitzuverbauen halte ich fuer hanebuechen), zumal das auch eine logistische Komponente hat (man bei dem einen Modell dann evt. mehr produziert als nachgefragt wird und bei dem anderen weniger als der Bedarf produzieren koennte).

Das scheint mir weniger plausibel zwei Versionen mit unterschiedlichen Speicherinterfaces (fuer zwei Typen von Speichern) auf zu machen, anstatt zwei Versionen mit unterschiedlichen Speichermengenbestueckungen, also einer guenstigeren 8 GB und ein teureren 16GB Version - analog zur Vergangenheit (bspw. R9 390(X) und RX 470/480) - auf den Markt zu bringen und dieses fuer mindestens zwei Chipausbaustufen (d.h. Vollausbau bei 80/72 CUs und beschnitten bei 72/64 CUs).

Gut moeglich, dass AMD/RTG-typisch es kein Boardpartnerdesign fuer das Halo-/Flaggschiffprodukt geben wird und evt. wie bei der R9 FuryX eine Wasserkuehlung den Preis noch weiter anhebt, weil sonst die Karte (mit HBM2(E) Stapelspeicher) nur schwer kuehlbar sein koennte, aber das muss man abwarten.

Wuenschenswert waeren sicherlich auch Custom-Designs fuer den Vollausbau (ob mit oder ohne vorgeschriebene integrierte Wasserkuehlung) und wie von Igor schon erwaehnt, duerfte die Konkurrenz in Form der GeForce RTX Ampere nVidia Karten da auch mit der Kuehlung/Abwaerme (wie in weniger guten alten Fermio/Thermi Tagen?) zu kaempfen haben.

Mir ist dann eher bange um die Haltbarkeit/Langlebigkeit der Flaggschiffe beider Hersteller bei thermischer Dauerbelastung und evt. Schwachstellen im Kuehldesign, wenn keine passende Wasserkuehlung zum Einsatz kommt und zudem waere das fuer mich auch einer gute Entschuldigung zur guenstigeren, besser kuehlbaren beschnittenen Version (wenn diese noch erschwinglich/preislich vertretbar ausfallen sollte) zu greifen ;).

Eine HBM2(E) Speicherbestueckung mit mindestens 12 GB oder besser 16 GB wuerde ich aber schon gerne/lieber auf einer RX 6900 sehen als eine mit GDDR6(X) ;).
 
Zuletzt bearbeitet:
Chismon schrieb:
Radeon VII ist im semi-professionellen Bereich auch wegen der 16GB HBM2 und hoher Bandbreite auch nicht zu verachten

Du redest am Thema vorbei. Am Nutzen einer Radeon VII oder einer anderen Vega-Karte im professionellen Umfeld zweifelt ja niemand.
 
Zurück
Oben