News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

SirSilent schrieb:
Viele beschweren sich das high end früher günstiger zu bekommen war.
Das man aber heute mit einer Mittelklasse Karte wesentlich länger auskommt als früher mit High end darf man dabei auch nicht vergessen.
Das liegt wohl eher daran dass die Leistungssteigerungen damals erheblich größer waren als heute denn damals hatte man die Leistung auch auf Kosten des Strombedarfs gesteigert. Bei inzwischen ist dieser Weg aber mit dem erreichen der 300W Schallmauer erreicht, welche nur mit deutlich teureren Kühllösungen sinnvoll geknackt werden kann. Entsprechend kleiner fallen die Leistungssprünge aus, die Produktzyklen haben sich erheblich verlängert und mit der Preisentwicklung fange ich garnicht erst an.
Am Ende läuft es darauf hinaus das man heute nicht länger damit auskommen kann sondern wegen der geringeren Leistungssteigerung und der steigenden Preise länger damit auskommen muss.
 
Ich hoffe doch sehr, dass RDNA 2 mindestens ansatzweise im Markt so gut ankommt wie Zen 2 und wenn ja, dann dass AMD bitte nicht die immense Nachfrage unterschätzt wie sie es damals beim Zen 2 launch taten, wo man mehrere Monate warten und "F5" auf Retail-Seiten drücken musste, damit z.B. der Ryzen 9 3900X wieder endlich lagernd war.

Ich glaube, dass es bei BIG NAVI, falls es alle Erwartungen übertreffen sollte und auf Nvidia, wie Zen 2 auf Intel, aufschließen sollte, dann dass die Nachfrage weltweit EXPLODIEREN wird.
 
sdo schrieb:
Ich will 60 CUs für max. 300€ und 76/80 für max. 500€. Alles andere ist Abzocke und besiegelt den Tod vom PC wenn ich für 450-500€ für den Preis einer Grafikkarte eine gesamte Konsole mit gleicher Grafikleistung bekomme.
Edit: Wie hier einige völlig realitätsferne Kommentare bringen wie "ist doch schon immer so gewesen". Ach wirklich? Zeigt mir doch mal die Zeiten wo neue Konsolen schneller als 99% der PCs auf Markt waren.
Ich stimme dir da zwar zu, aber der Grund warum die Preise so gestiegen sind sollte auch klar sein und in gewisser Weise wuerde ich sagen das der Tod des PC Gaming damit noch beschleunigt wird/wurde.

Die Preise sind so gestiegen weil Nvidia den relativ ähnlichen Chip im Server/Machine Learning Segment für gut 3-5000 Euro verkauft. Daher haben sie bei den Gaming GPUs soweit nachgezogen. Weiters ist der Konzern massiv hoch bewertet im Vergleich zu vor 10 Jahren. Gaming ist für Nvidia quasi das Nebengeschäft. Es ist immer noch viel Umsatz aber kein Wachstum, die Börsenbewertung bezieht sich quasi ausschließlich auf die anderen Felder (Datacenter, Automotiv).

Das PC Gaming ist vor dem Preisanstieg auch schon stark zurückgegangen. Auch als die Konsolen noch vergleichsweise schwach waren. Die meisten Leute wollen eben lieber am Fernseher zocken. Und vor Nvidia haben wir durch Intel auch viele Jahre überteuerte CPUs gekauft. Hätte es die ganze Zeit AMD als Konkurrent gegeben wäre die durchschnittliche Gaming CPU sicher für 150 statt 350 Euro verkauft worden.

Ich denke das die goldenen Zeiten des PC gaming einfach vorbei sind. Die nächste Konsolengeneration wird ein gewaltiger Sprung in Sachen Leistung und vor allem Preisleistung bei den heutigen PC Preisen. RTS/Strategie spiele und Egoshooter mit Maus wird es weiter geben aber sie werden eben eher Nische als Mainstream sein. Eine Nische kann aber immer noch recht groß sein in einem gewaltigen Markt und der Gaming Markt wird weiter wachsen 10% von viel ist immer noch einiges.
 
duskkk schrieb:
Die Preise sind so gestiegen weil Nvidia den relativ ähnlichen Chip im Server/Machine Learning Segment für gut 3-5000 Euro verkauft.

Die Preise sind gestiegen, weil die Fertigungskosten immer höher und die Chips immer größer werden. Daran wird sich auch in der Zukunft wenig ändern.
1596541614398.png


1596541783062.png


AMDs Navi 10 Chips sind im Vergleich dazu mit ihren 251mm² winzig, aber auch das wird mit der kommenden Generation anders ausschauen, wenn sie RT und mehr Leistung bieten wollen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@duskkk

Das war früher aber auch nicht anders.
Es gibt einen recht einfachen Grund warum sie die Preise so hochgezogen haben, weil sie es können da sie dennoch genug davon absetzen.
Das Schlüsselprodukt für die Preistreiberei war dabei immer die Titan.
Man schoss sie als für diesen Marktbereich viel zu teures Produkt in den Markt und begründete den Preis mit Features aus dem professionellen Umfeld. Danach folgten bis zur zweiten Titan Xp weitere Varianten bei denen die Vorteile bis auf ein Minimum immer weiter abgebaut wurden und zog die knapp darunter liegenden Ti Modelle und den Rest der Produktpalette preislich mit nach oben. Mit der Titan V kab es dann den nächsten großen Satz nach oben den man wie bei der ersten begründete und auch die RTX Titan stand der preislich kaum nach, wobei die normalen Desktop Modelle beim Startpreis die erste Titan schon lange überflügelt haben.
Nur als Erinnerung, die erste Titan startete mit can 1000€ wärend die GTX 780 für ca. 650€ an den Start ging. Das Gegenstück der GTX780 Ti war übrigens die Titan Black.
Die RTX 2080Ti startete bei ca. 1200€, die RTX Titan liegt bei ca. 2800€ und wer weitere Verlauf der Preisentwicklung ist ohne weiteres absehbar.
Ergänzung ()

@xexex

Falsch denn bis 14/16nm war die Preissteigerung durch die Fertigung eher moderat und die GPU ist nicht der einzige Kostenfaktor.
Der GK110(b) der Kepler Generation hatte in 28nm bereits 561/533 mm², der TU102 der aktuellen Generation hat in 12nm 754mm². Damit könnte man vielleicht eine Preissteigerung von 50% rechtfertigen aber keine 200-300%.
 
Zuletzt bearbeitet von einem Moderator:
Was aber leider vergessen wird, daß die Rohstoffpreise (seltene Erden) sehr gestiegen sind, und ebenso zusätzlich die Produktionskosten. Gerade die Lithographen (Umstellung auf 5-7mn) kosten eine enorme Menge. Und es werden zwar viele hergestellt, aber es sind nicht die Massen, so daß sich die Preise dramatisch verändern würden.

Deshalb sind alle diejenigen, die von günstigen Preisen träumen, einfach nur Phantasten. Die Preise sind in allen Bereichen gestiegen (nicht nur IT, sondern auch beispielsweise Medizin und technische Geräte in diesen Bereichen usw.). Günstige neue Grafikkarten wird es weder von AMD noch von Intel geben, die Kosten sind zu hoch. Und die Margen (ca. 30 %) werden benötigt, um den Investitionfluß aufrecht zu erhalten und um liquide zu bleiben.

Es wird hier in allen Foren und Diskussionen nerdtypisch nur die reine Technik diskutiert und auf deren Grundlage Bewertungen abgegeben. Das halte ich aber in allen Belangen falsch, es hängt bei solchen Sachen ein riesiger komplexer Rattenschwanz dran, der den meisten für deren Preisvorstellung entgeht (oder ignoriert wird).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Das ist für die Rechnung aber irrelevant da bereits in der Grafik der Fertigungskosten enthalten.
 
Wadenbeisser schrieb:
Falsch denn bis 14/16nm war die Preissteigerung durch die Fertigung eher moderat und die GPU ist nicht der einzige Kostenfaktor.

Es ist nie ein einziges Kostenfaktor, es ist die Summe aus teureren Speicher, schlechteren Dollarkurs, Inflation, teurerer Fertigung und letztlich auch dem Wunsch eine höhere Marge einzufahren. Fakt ist halt nur, dass die Fertigungskosten explodieren und das in der Zukunft auch so bleiben wird. Die Zeiten wo man mit kleineren Strukturen Kosten sparen konnte und die Chips dadurch günstiger wurden, sind schon seit Jahren vorbei.

Schaue dir mal die Gewinne von AMD an, sie hätten sich mit den "mickrigen" Navi Chips, die teils zu Preisen ihrer doppelt so großen Nvidia Pendants verkauft wurden, eine goldene Nase verdienen müssen. Durch die hohen Kosten der 7nm Fertigung ist das aber nicht eingetreten.
 
Zuletzt bearbeitet:
CrustiCroc schrieb:
Das ist einfach nur schwach von AMD, und ich behaupte mal das diejenigen die sagen : Bei MIR läuft die 57 XT ohne Probleme, sagen wir mal nicht ganz die Wahrheit sagen.

Zumindest für meine RX 5700 (Powercolor Red Dragon) kann ich bestätigen, dass in rund 7 Monaten Einsatz (Gaming, Bild-/Videobearbeitung und CAD) kein Problem auftauchte. Habe alles auf Stock laufen, und es funktioniert super.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders, Chismon, Demon_666 und eine weitere Person
Ich bin wirklich gespannt was AMD abliefert und auch wie sich die Prozesse von Samsung und TSMC schlagen. So wie sich das liest ist Samsung 8nm ein etwas verbesserter 10nm und damit dem TSMC 7nm doch ein gutes Stueck unterlegen. Je nachdem wie gross die Nvidia Karten sind koennte es aber Sinn machen. Allerdings bin ich da etwas gespannter auf AMD als Nvidia, da letztere wohl hauptsaechlich auf RT und TC setzen und klassische Renderperformance eher durch mehr Einheiten erhoeht wird, als durch Verbesserungen.

Naja, mal schauen was da so kommt.

KuestenNebel schrieb:
Ich kann mit dem Ding wenig anfangen - meine wichtigste Bibliothek (Tensorflow) läuft da leider nicht so toll drauf :D

Zum einen gibt es da PlaidML, dass auch auf AMD ziemlich gut laeuft. Phoronix macht da immer wieder Tests und es ist teilweise krass wie AMD Karten da abgehen, je nach Task.

Zum anderen maintained AMD einen Fork TensorFlow ROCm. Der hinkt aber immer etwas hinterher und braucht etwas mehr Zuwendung. Die Tensorflow Entwickler haben leider absolut null Interesse AMD Hardware zu integrieren. Die sagen schlichtweg, gebt uns einen PR oder geht. Dafuer hat AMD aber nicht die Manpower.

SKu schrieb:
Wäre es ein kluger Schachzug seitens NVIDIA ihre kommenden RTX-GPUs schon diesen oder nächsten Monat releasen zu wollen?

Ja, einfacher Grund: Sie sind zuerst da, fuehren die Balkenlisten an und koennen zu fast beliebigen Preisen verkaufen. Nvidia steht ja nicht nur zu AMD in Konkurrenz, sondern im Endeffekt auch zu den Konsolen. Und falls die Nvidia Karten gar nicht so gut werden wuerden, dann wuerden sie trotzdem erstmal ordentlich Kohle einfahren, weil sie eben zuerst da waren.

.Sentinel. schrieb:
Bingo- Du verstehst es nicht und bist, wenn man Deinen Voreingenommenheit disbezüglich betrachtet, wohl auch nicht Willens es zu verstehen.

So viele Geisterfahrer auf der Autobahn?
https://www.computerbase.de/forum/t...dlss-2-0-und-fidelityfx.1958099/post-24391765

Ich tippe darauf, dass du aus dem Game Design Bereich kommst? Denn deine Aussagen zu wie DLSS funktioniert sind teils fehlerhaft. Du redest von vorhanden Informationen, bzw., dass man sie errechnen kann. Das stimmt aber so nicht. Was vorhanden ist sind im Endeffekt sehr komplexe Formeln, die mit einer gewissen Genauigkeit etwas berechnen koennen. Und nein, die Genauigkeit ist nicht 100% und wird sie auch in Zukunft nicht sein. Dass das Netz ein paar mehr Informationen als das Bild benoetigt ist nicht weiter verwunderlich und dient nur dazu die Genauigkeit zu erhoehen. Erhoeht halt auch die Komplexitaet. Was das Teil macht ist ein besserer "educated guess". Was dann halt zu Texturfehlern, bzw. teilweise auch zu verschwindenden Texturen fuehrt. Je nachdem wie man danach nochmal filtert.

Das wirklich spassige kommt aber erst je weiter man sich mit dem Grafikstil und den Texturen vom Trainigsset entfernt. Denn Generalisierung im KI Bereich ist gar nicht so einfach wie das manche so darstellen. Das fuehrt dann halt zu interessanten Ausgaben. Da helfen auch hoehere Texturaufloesungen zum Training nicht. Im Endeffekt muesste man das Trainingsset immer weiter aufblasen oder einen Weg finden es besser zu generalisieren aber dennoch eine hohe Genauigkeit beizubehalten. Das laesst aber alles die Komplexitaet explodieren und ist nur bis zu einem gewissen Punkt machbar.

Das was du postest ist hauptsaechlich Nvidia Marketing und laesst halt die Probleme weg. Ist kein Problem wenn es nicht dein Themengebiet ist, aber so einfach wie du es darstellst ist es eben nicht und die anderen sind eben keine Geisterfahrer.
 
@xexex

Und der Speicher der damaligen Modelle war ach so billig?
Die Kepler Karten sind gerade einmal 7 Jahre alt und der $ Kurs muss schon enorm zugelegt und die Inflation hierzulande massiv gewütet haben um die Preissteigerung damit zu rechtfertigen. Nebenbei ignorierst du dabei auch Ersparniseffekte durch eine bessere Wafer Ausbeute.
Das einzige was dafür wirklich von Relevanz ist ist der Punkt der Gewinnmaximierung und den sieht man recht deutlich anhand der Quartalszahlen.

Wie gesagt, sie treiben die Preise hoch weil sie es können da die Produkte dennoch gekauft werden.
 
Wadenbeisser schrieb:
Das ist für die Rechnung aber irrelevant da bereits in der Grafik der Fertigungskosten enthalten.
Was willst Du damit sagen? Die Rechnung wirkt sich doch auf den Endpreis aus. Daher, es wird keine günstigeren neuen Mittelklasse GPUs mehr geben.
 
@PHuV

Schreibe keinen Unsinn, die Kosten der Produktionsschritte sind Teil der Produktionskosten und damit auch im Wafer- und Chip Preis enthalten auf die sich die Grafik bezieht.
Ergänzung ()

Es wird von AMD keine ach so günstigen Karten geben weil es vom Markt nicht honoriert wurde und man sich durch die geringeren Erlöse nur selbst geschadet hat.
 
Wadenbeisser schrieb:
Die Kepler Karten sind gerade einmal 7 Jahre alt und der $ Kurs muss schon enorm zugelegt und die Inflation hierzulande massiv gewütet haben um die Preissteigerung damit zu rechtfertigen.

Man muss es in der Summe betrachten, du siehst hingegen nur Gewinnmaximierung. Ganz abgesehen davon, ja der Dollar hat "enorm" zugelegt.
1596543901502.png
 
Zuletzt bearbeitet:
@xexex

Der Wechselkurs hatte von 2013 zu 2018 um "enorme" 13% zugelegt und liegt aktuell wieder bei ca. 0,85€.
Die Verteuerung der Fertigung liegt lt. Grafik bei wieviel? Ca. 10-20%? Der Chip ist vielleicht 40% größer und Kosten für den Rest der Karte sind unbekannt.
Wo siehst du also das Potential für deine Rechtfertigung zu dieser Preissteigerung abseits der Gewinnmaximierung, welche sich auch gut in deren Geschäftszahlen finden läßt?
 
Kacha schrieb:
Ich tippe darauf, dass du aus dem Game Design Bereich kommst? Denn deine Aussagen zu wie DLSS ...
Dafür, das es nach deiner Meinung gar nicht richtig funktionieren kann/darf, sieht es inzwischen in der Praxis sehr gut aus. Um das zu bewerten reicht es schon es einfach nur zu benutzen. Das braucht keinen Fachmann aus dem Game Design Bereich.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Je näher wir den neuen GPU Generationen kommen desto mehr frage ich mich, wie teuer ein Modell wird, das meinen bescheidenen Wunsch nach 100+ FPS auf 1440p realisiert.

Meine Vega 56 Red Dragon stößt da zu oft an Grenzen und vermutlich bräuchte eine neue GPU dann auch mehr Feuer als von meinem Ryzen 2600..

Wobei mit der hoffentlich kommenden Preisschlacht an der Spitze unten doch sicher bezahlbare Modelle für 1440p "Abfällen" sollten, oder zu naiv gedacht?
 
Wadenbeisser schrieb:
Das ist für die Rechnung aber irrelevant da bereits in der Grafik der Fertigungskosten enthalten.
Ist mir entgangen, wärst Du bitte so freundlich zu sagen, was für eine Grafik Du meinst.
 
Zuletzt bearbeitet:
@PHuV

Du bist aber schon fähig die Grafik aus #288 zu den Fertigungskosten Yielden mm² zu lesen, oder?
Ernsthaf sind die erst ab 7nm gestiegen, also ab da wo die Geforce Karten noch nicht angelangt sind, die Radeons hingegen schon seit der VII.
 
Zurück
Oben