Bericht Nvidia Ampere: Die GA100-GPU im Vollausbau analysiert

Auch CB bringt viele halbgaren Gerüchte, nur nicht ganz so viele wie z.B. PCGH.
Das hat aber auch den Nachteil das man hier weniger Diskussionsbasis hat.

Denn von Nvidia direkt wird es erst 1-2 Wochen vor Release der Gamingamperes erste echte Infos geben, wodurch man das Thema GPU hier eigentlich abschreiben kann, wegen mangelnder Infos.
 
  • Gefällt mir
Reaktionen: gartenriese und Shoryuken94
Krautmaster schrieb:
Wenn AMD ihre Fette Karte für um 1000 raushaut (höher wird AMD kaum gehen denke ich) und diese etwa 5700 XT Mal 2 Leistung bringt dann kann Nvidia kaum Richtung 2000 Euro gehen. Ich denke die Konkurrenz nimmt eher zu als ab, das weiß Nvidia auch. Ich rechne eher mit 1500 fürs NonTitan Topmodell. Wenn die Die gegen 500mm² geht ggf auch etwas weniger. Noch weiß man halt wenig.

Das sich Nvidia der Konkurrenz bewusst ist, zeigt doch der Preis von dem großen Ampere. Die Preise sind nämlich ziemlich günstig, wenn man sich mal die Volta Produkte anschaut. Viele Spekulationen und Gerüchte gehen ja auch in die Richtung, dass Ampere preislich leicht unter Turing aber über Pascal liegen soll. Wenn es wirklich ein 500-600mm² Chip wird, dann könnte ich mir durchaus auch einen Preis von 1000€ für die 3080Ti vorstellen. Wird nicht zuletzt von AMD abhängen. Aber mit den Preisen für Navi hat AMD ja auch gezeigt, dass man nicht mehr die Billigschine fährt. Big Navi wird sicherlich auch 800-1000€ kosten. Nvidia wird die Preise etwas überbieten.

Nvidia ist nicht dumm. Ganz im Gegenteil. Bei Big Ampere scheinen sie sich schon ganz ordentlich auf AMD vorzubereiten und das wird man auch bei den Gamingkarten. Das Nvidia durchaus auch mal für eine preisliche Überraschung gut ist, haben Maxwel und Pascal gezeigt.

Aber ich bin mir sicher, dass Turing keine rosige Zukunft haben wird, die Karten dürften Preislich ziemlich abstürzen, wenn die neue Generation kommt.


Krautmaster schrieb:
Schön wäre es wenn 7nm beim OC richtig Potential bietet. Würde gern selbst 30% drauflegen ;)

Hätte auch nichts dagegen, wenn die Karten von Haus aus nahe an einem effizienten Limit laufen. So hat man als Kunde sehr viel von den Karten. Sieht man bei Turing sehr schön. Die Karten laufen ab Werk dicht am Taktlimit, sind aber sehr effizient. Deutliche Steigerungen kann man sich nur noch mit viel Aufwand bei der Kühlung und beim strom erkaufen. Im Grunde optimal.

Big Kepler (780Ti, Titan Black etc.) konnte man beispielsweise super übertakten. Aber auch nur, weil die Karten ab Werk mit angezogener Handbremse gelaufen sind.

Aber mal sehen was wirklich kommt und was AMD aus dem Hut zaubert, bin mir aber ziemlich sicher, dass wir den größten Sprung seit langem bei den GPUs sehen werden. Bei beiden Herstellern. Würde mich freuen, wenn AMD über alle klassen hinweg etwas konkurrenzfähges anbieten kann, wie zu TeraScale und GCN v1 Zeiten. Hier und da ein paar Prozent unterschied sind relativ egal, aber wenn sie im Gesamtpaket etwa gleichauf sind, wird das dem markt gut tun.
 
  • Gefällt mir
Reaktionen: gartenriese
Krautmaster schrieb:
Wenn AMD ihre Fette Karte für um 1000 raushaut (höher wird AMD kaum gehen denke ich) und diese etwa 5700 XT Mal 2 Leistung bringt dann kann Nvidia kaum Richtung 2000 Euro gehen. Ich denke die Konkurrenz nimmt eher zu als ab, das weiß Nvidia auch. Ich rechne eher mit 1500 fürs NonTitan Topmodell. Wenn die Die gegen 500mm² geht ggf auch etwas weniger. Noch weiß man halt wenig.

Wenn Big Navi wirklich 2x 5700XT Leistung bietet und für sagen wir 999€ kommt und die 3080Ti
nach aktuellen Schätzungen ca 50% schneller als die 2080Ti sein soll, dann sehe ich eine 3080Ti aber auch eher wieder bei max 1200€, da sie nur ca 15% schneller als Big Navi wäre.

Ich gehe eher davon aus, dass AMD Big Navi für 849€ bringen wird und die 3080Ti dann um die 1000€ liegt. Sie haben immerhin gesagt dass sie mit Big Navi die selbe "Disruption" im 4K GPU Markt erreichen wollen, wie sie es bei den CPUs mit Ryzen getan haben.
 
  • Gefällt mir
Reaktionen: gartenriese, Shoryuken94 und Krautmaster
Shoryuken94 schrieb:
Aber ich bin mir sicher, dass Turing keine rosige Zukunft haben wird, die Karten dürften Preislich ziemlich abstürzen, wenn die neue Generation kommt.
Normal. Dafür sind die Karten ja auch schon lange auf dem Markt.

Leistung ist ja auch relativ. Angenommen Big Navi und Ampere wären bei native gleich schnell, dann kassiert Nvidia sicher für RT und DLSS ab je nachdem wie AMD Featureset aussieht.

Denke aktuell wären mir das etwa 20% des Kaufpreises wert und bei Leistung (native) rechne ich auch das OC Potenzial mit rein.

Ich hoffe einfach dass beide Karten etwa zeitgleich aufschlagen und man gut abschätzen kann was Sache ist.
 
Zuletzt bearbeitet:
Dedizierte GPUs werden weiter teurer werden, und dass nicht nur bei Nvidia, sondern auch bei AMD, wie man bei Navi gut sehen konnte.

Polaris 10 und Vega 56 hatten lange Zeit ein überragendes P/L-Verhältnis, und waren über viele Monate attraktiver als Navi, bis heute wenn man Navi mit dem Gebrauchtmarkt vergleicht.

Der GPU-Markt ist damit in einer heftigen Schieflage, wenn man überhaupt noch von einem echten Markt schreiben kann.
 
Krautmaster schrieb:
Normal. Dafür sind die Karten ja auch schon lange auf dem Markt.

Glaube da werden sich einige umgucken. In den letzten Jahren waren die Karten bei Nvidia ja relativ preisstabil. Wenn dann die 2080Ti innerhalb kurzer Zeit von 1000+ € auf das Preisniveau einer Mittelklasse GPU fällt, werden sich wohl einige etwas umgucken. Ohne den Status der schnellsten Gamingkarte und mit entsprechenden neuen Karten wird sie sich dann Preislich dort einordnen, wo sie leistungstechnisch steht... etwa 35-45% über einer 5700xt.

Aber dann gibts immerhin vielleicht mal wieder einen richtigen Abverkauf wie früher und kein einfaches Auslaufen der Karten zum gleichbleibenden Preis.

Aber wie gesagt, einfach abwarten was Nvidia und AMD wirklich bringen

Taxxor schrieb:
Ich gehe eher davon aus, dass AMD Big Navi für 849€ bringen wird und die 3080Ti dann um die 1000€ liegt

Klingt durchaus realistisch und würde auch dem entsprechen, was viele Leaks vermuten. Da Preise jederzeit angepasst werden können, wird wohl letztlich alles von den Big Navi preisen abhängen. Und natürlich auch davon, wann die Karten wirklich kommen. Sollte eine 3080Ti früher als Big Navi kommen, dann dürfte sie relativ teuer starten und später wohl im Preis angepasst werden. Sollte Big Navi früher kommen, wird Nvidia gleich entsprechend "attraktive" Preise entsprechend der Mehr / Minderleistung ansetzen.

Aber wirklich spannend wird es wahrscheinlich in der Klasse darunter, also 3080 und der Mittlere RDNA2 Chip. Die dürften auch ein gutes Stück schneller als die aktuelle Generation sein und könnten Preislich für viele nicht uninteressant sein.
 
  • Gefällt mir
Reaktionen: gartenriese
Einen Faktor unterschätzen viele, die neuen Konsolen.
Rein aus P/L-Sicht wirken die wie ein Superschnäppchen gegenüber aktueller PC-Hardware.
Das wird auch bei Nvidia nicht spurlos vorbeigehen.

AMD kann das egal sein, da sie entweder über die neuen Konsolen, oder über PC-Komponenten die Endkunden erreichen werden. Nvidia dagegen ist nicht in so einer starken Position, und muss versuchen dass über andere Sparten auszugleichen.
 
  • Gefällt mir
Reaktionen: gartenriese
matty2580 schrieb:
Auch CB bringt viele halbgaren Gerüchte, nur nicht ganz so viele wie z.B. PCGH.
Das hat aber auch den Nachteil das man hier weniger Diskussionsbasis hat.

Denn von Nvidia direkt wird es erst 1-2 Wochen vor Release der Gamingamperes erste echte Infos geben, wodurch man das Thema GPU hier eigentlich abschreiben kann, wegen mangelnder Infos.
Ganz ohne Glaskugel ist ja auch langweilig. Die Mischung hier gefällt mir schon, weil man so den Gerüchten die hier mal veröffentlicht werden eben auch deutlich mehr beimessen kann, als woanders. Hundert Prozent Sicherheit wie etwas erscheinen wird erst wenn es lieferbar im Shop ist .
:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Shoryuken94 schrieb:
In den letzten Jahren waren die Karten bei Nvidia ja relativ preisstabil. Wenn dann die 2080Ti innerhalb kurzer Zeit von 1000+ € auf das Preisniveau einer Mittelklasse GPU fällt, werden sich wohl einige etwas umgucken.
Naja deswegen kauft man sich ne Grafikkarte kurz nach Erscheinen, jetzt ne 2080 TI zu holen wäre dämlich.

Die Preisstabilität kam daher dass die Zyklen immer länger wurden und AMD als Konkurrenz stark geschwächelt hat, was dazu führte dass Nvidia die folgende Gen schlicht im Preis nach oben angepasst hat statt die alte Gen im Preis zu reduzieren.
Ergänzung ()

matty2580 schrieb:
Einen Faktor unterschätzen viele, die neuen Konsolen.
Konsolen gibt es ja nicht erst seit gestern, aber ja. Ich spiele halt gern mit Maus und Tastatur max 1m vorm Bildschirm und keine 5m wie bei unserem TV. Egal welche Konsole ich schon hatte, suckt iwi immer.

Denke die neuen Konsolen ändern nichts an den 2 Welten.
 
  • Gefällt mir
Reaktionen: Vitec
Krautmaster schrieb:
Naja deswegen kauft man sich ne Grafikkarte kurz nach Erscheinen, jetzt ne 2080 TI zu holen wäre dämlich.

Die allermeisten dürfte sich eine Grafikkarte kaufen, wenn Sie eine (neue) brauchen. Sich Hardware nach Erscheinungstermin zu kaufen ist ein Luxusverhalten von Enthusiasten. Ist oftmals aber auch nicht so toll, da man dann auch alle eventuellen Startprobleme mitkauft.

Krautmaster schrieb:
Die Preisstabilität kam daher dass die Zyklen immer länger wurden und AMD als Konkurrenz stark geschwächelt hat, was dazu führte dass Nvidia die folgende Gen schlicht im Preis nach oben angepasst hat statt die alte Gen im Preis zu reduzieren.

Richtig, die Gründe sind wohl vielen bekannt, ändert trotzdem nichts daran, dass es mit Ampere wohl seit langem wieder einen harten Cut geben wird. Der fällt dann aber deutlich größer aus, da die Fallhöhe durch den starken Preisanstieg größer ist. Darunter leiden dann besonders die Karten mit "Luxuszuschlag" wie die 2080, 2080S und 2080Ti
Krautmaster schrieb:
Denke die neuen Konsolen ändern nichts an den 2 Welten.


Denke ich auch nicht, warum sollten Sie das auch. Die Vorteile sind ja noch immer die gleichen. Und auch der Hardwareabstand wird wieder deutlich wachsen. Das die Konsolen der PC Leistung näher kommen ist ja auch nichts neues. Die Xbox 360 war 2005 im Vergleich zu damaligen PCs auch nicht so schlecht aufgestellt..

Die Leute werden weiter nach ihren persönlichen Präferenzen kaufen, sehe da also auch keinen Grund, warum das mit den neuen Konsolen jetzt anders sein sollte
 
  • Gefällt mir
Reaktionen: gartenriese
Taxxor schrieb:
Das würde vorraussetzen, dass die Defekte alle exakt an einer Stelle sitzen, wo nur jeweilseinzelne Recheneinheiten betroffen ist, die auch sowieso im Binning deaktiviert werden könnten.
Und in dem Fall werden die Chips ja auch verwendet.

Es gibt aber genug Fälle, wo ein einziger Defekt ausreicht, also 99% des Chips intakt sind, um den kompletten Chip unbrauchbar zu machen.

20% der Fläche sind unique. Das heißt nicht redundant ausgelegt. Die Wahrscheinlichkeit einen total defekten Chip zu haben ist also kleiner als einen Chip mit vielen Deaktivierten einheiten.
 
ampre schrieb:
20% der Fläche sind unique. Das heißt nicht redundant ausgelegt. Die Wahrscheinlichkeit einen total defekten Chip zu haben ist also kleiner als einen Chip mit vielen Deaktivierten einheiten.

Also hast du bei jedem Defekt eine 20%ige Chance, dass der komplette Chip unbrauchbar ist.
Hast du auf so einem Chip 2 oder 3 Defekte, liegt die Chance schon bei 25-30%.

Um zu deiner Eingangsfrage zurück zu kommen "Warum schmeißt man solche Chips weg?": Woher weißt du denn, dass man viel mehr als diese komplett defekten Chips wegschmeißt?

Im Extremfall wäre es aber auch komisch, einen GT102 Chip mit 50% kaputten/deaktivierten Einheiten, der aber prinzipiell noch lauffähig ist, in eine RTX2060 zu packen, denn deren eigentlicher chip hat bei den nicht redundanten Parts sicherlich auch Unterschiede.
 
Ich finde ja DLSS 2.0 schon richtig gut und bin gespannt, ob DLSS 3.0 hier dann noch nachlegen kann. Mit den effizienteren Tensor Kernen sollten diese dann wohl auch bei den Einstiegskarten vorhanden sein können.
Bleibt nur die Frage wieviele Entwickler das in Zukunft auch einbauen wollen/werden.

RTX muss auf jeden Fall auch noch ein wenig zulegen, sollte aber nicht so das Problem sein, zumal ja spätestens mit Ende des Jahres die RDNA2 AMD Karten , Konsolen ebenfalls durchstarten und RT bieten. So sollte sich RT dann eigentlich schneller durchsetzen in Zukunft als bis jetzt.

Vorallem auch aufgrund der 7nm dürfte Ampere richtig lecker werden.
Also ich bin schon ein wenig gehypted, obwohl ich derzeit AMD Aktien besitze und AMD Rechner ;) .
 
  • Gefällt mir
Reaktionen: gartenriese
Wartet erstmal ab ob die gamingkarten überhaupt von TSMC kommen. Samsungs Prozesse sind ebenfalls möglich, da die benötigten Mengen vom Nvidia einfach zu groß sind für das was TSMC derzeit liefern kann. Apple und AMD bestellen ja auch fleißig.

Wir werden es erfahren, aber erst zu gegebener Zeit. Evtl sinds auch einfach 10nm oder 8 nm Karten aus dem Hause Samsung.
 
Shoryuken94 schrieb:
Die allermeisten dürfte sich eine Grafikkarte kaufen, wenn Sie eine (neue) brauchen.
Naja heute hat man ja in den allermeisten Fällen schon nen PC und zwingend ne neue GPU braucht man selbst dann eigentlich nicht wenn man die Plattform drunter ändert. Das war früher bei dem Wechsel der GPU Schnittstellen noch etwas anders. Ich habe schon zig Mal den PC aufgerüstet und die alte GPU weiter genutzt bis es sich anbot.
 
Ich glaube egal welcher Hersteller, ob AMD, Intel oder Nvidia, Preise wie bei Turing werden wir nicht mehr sehen. Vielleicht noch zum Release von Ampere, weil nicht genügend Grafikkarten verfügbar sind. Aber schaue ich mir in den USA an, wie sich dort derzeit der Arbeitsmarkt entwickelt mit über 30 Millionen Arbeitslose und das Ende ist noch nicht erreicht, dann Italien, Spanien, England die es auch hart treffen wird und auch in Deutschland wird es sicherlich 3 bis 5 Millionen Arbeitslose bis zum Ende des Jahres geben, wer soll dann eigentlich all die teuren Produkte kaufen.

Man sieht doch schon jetzt in vielen Branchen, das sich der Kunde zurückhält, weil keiner weiß, was noch kommen wird und ob er morgen noch Arbeit hat. Oder all die Branchen, die jetzt die ganzen Hygienemaßnahmen einhalten müssen, mit mehr Abstand und deutlich weniger Gästen, das wird sich sicherlich auch nicht positiv auf dem Markt auswirken.

Das Problem bei der ganzen Corona Pandemie ist ja, dass sich die Auswirkungen immer Zeitverzögert zeigen, was die wirtschaftlichen Folgen betrifft, werden wir wohl erst zum Ende und dann nächstes Jahr wissen, wohin die Reise geht. Im Moment wird alles versucht, die Firmen mit enormen Geldsummen am Leben zu halten, nur am Ende muss auch irgendwer all die tausende Billionen Euro/Dollar zurückzahlen und die tollen neuen Produkte kaufen.

Und zu glauben, nur, weil man ein bisschen die Mehrwertsteuer senkt, oder man vielleicht den Solidaritätszuschlag abschafft, wäre das Problem gelöst, der irrt sich gewaltig. Meine Erfahrung ist, habe ich kein Cash in Form von Bares, dann kaufe ich auch nicht und eine Mehrwertsteuer oder der Solidaritätszuschlag würde sich auch bei mir finanziell überhaupt nicht auswirken, da braucht es ganz andere Anschubmittel, davon hört man allerdings derzeit gar nichts!

Von daher sollten sich die Hersteller auch gerade im Hardware-Bereich von PC-Komponenten mal Gedanken machen, wer all die schönen neuen und teuren Produkte in naher Zukunft kaufen soll?
 
  • Gefällt mir
Reaktionen: gartenriese
Taxxor schrieb:
Also hast du bei jedem Defekt eine 20%ige Chance, dass der komplette Chip unbrauchbar ist.
Hast du auf so einem Chip 2 oder 3 Defekte, liegt die Chance schon bei 25-30%.

Um zu deiner Eingangsfrage zurück zu kommen "Warum schmeißt man solche Chips weg?": Woher weißt du denn, dass man viel mehr als diese komplett defekten Chips wegschmeißt?

Im Extremfall wäre es aber auch komisch, einen GT102 Chip mit 50% kaputten/deaktivierten Einheiten, der aber prinzipiell noch lauffähig ist, in eine RTX2060 zu packen, denn deren eigentlicher chip hat bei den nicht redundanten Parts sicherlich auch Unterschiede.

Das hat man sogar gemacht. Man hat manche GT104 als GT106 verkauft.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Nix für ungut aber bei den Dies wird ganz sicher nichts gebondet. (Anschlußdrähte an den Chiprändern)
Der bekommt auf der Chip Oberfläche kleine Löt Kügelchen mit denen er danach mit dem Package (Chip Gehäuse) verlötet wird und dieser BGA wird am Ende auf die Grafikkarte gelötet.
Da das Package entsprechend komplex und teuer sein muss glaube ich kaum das alles aufgebaut und erst am Ende getestet wird ob der Chip funktioniert oder als ganzes in die Tonne gekloppt werden kann.


Eventuell ein Missverständnis.... Ich rede von der Verdrahtung Die - Package. Wenn es ein Flip chip BGA ist dann gibt es keine bonding Drähte, bei BGA schon. Eventuell habe ich mich misverständlich ausgedrückt, da ich glaube das Package wird eher ein Flip Chip sein - ist aber auch Wurscht weil, was ich sagen wollte war: Das Produkt, also der Grafikchip ist erst fertig, wenn der Die im Package steckt. Der Sinn vom Wafer Test ist, für Dies die den nicht bestehen, brauche ich den kaputten Die nicht in ein Package stecken... So nach nach Motto ich teste den Motor eines Autos und wenn der läuft baue ich den ein. Dann teste ich die Fahrleistungen.... man kann auf dem Wafertester nicht alles testen....

1589660883445.png
 
Colindo schrieb:
Wobei ich mir auch vorstellen könnte, dass Nvidia zurzeit, wo man neu in N7 ist, noch schlechtere Ausbeuten hat als AMD, und sich einen größeren Spieler-Die nicht leisten kann.

Nvidia lässt Volta zu einem maßgeblichen Teil bei TSMC fertigen, AMD alles. Beide nutzen den gleichen Prozess N7 bei TSMC, also werden beide auch eine vergleichbare Ausbeute haben. Ich nehme an TSMC hat jeweils eigene Proudktionsstraßen für beide, deshalb nicht identische Ausbeute.
 
nazgul77 schrieb:
Nvidia lässt Volta zu einem maßgeblichen Teil bei TSMC fertigen, AMD alles. Beide nutzen den gleichen Prozess N7 bei TSMC, also werden beide auch eine vergleichbare Ausbeute haben. Ich nehme an TSMC hat jeweils eigene Proudktionsstraßen für beide, deshalb nicht identische Ausbeute.



Nein sorry diese Einschätzung teile ich nicht. 7nm Designs setzen eine gewisse Erfahrung vorraus mit dem Prozeß, da gab es sogar ein Statement von TSMC dazu... ich kann es nur gerade nicht finden. Und unterschiedliche Produktionstrassen haben die auch nicht.... wo hast Du denn das her...? Mitlerweile ist AMD ein größerer Kunde als Nvidia für die advanced Nodes (Volta war doch 12nm?) - also alles kleiner 12nm. Meine Vermutung zwischen Nvidia und TSMC hat es Meinungsunerschiede gegeben und Nvidia wollte/will mehr zu Samsung (billiger!)... nur da scheint der Prozess so einige Probleme zu haben.... Die Gerüchte sagen GA 102 kommt in 10nm Samsung? Muss nicht stimmen....
 
Zurück
Oben