Bericht Nvidia Ampere: Die GA100-GPU im Vollausbau analysiert

Grundgütiger schrieb:
Da halt die Frage wie dies zu Stande kommt und ob eine Konsumerkarte die gleiche Packdichte haben wird.

Wissen wir nicht, wäre aber ungewöhnlich, dass Nvidia für verschiedene Chips großartig verschiedene Packdichten nutzt. Zumindest hat man das bislang nicht gemacht. Warum Nvidia hier deutlich vorne liegt, wissen wir jetzt noch nicht. Kann man nur spekulieren. Wahrscheinlich wird es Architekturbedingt sein. Evtl. nutzt man auch schon einen etwas fortgeschritteneren Prozess.

Grundgütiger schrieb:
Lowpower Chips in N7 liegen bei ca. 85mio und AMD wird das sicher nicht zum Spaß eine so geringe Packdichte genommen haben.

Bei allen anderen Nodes hat man auch die High Performance Chips recht nahe an die Grenzen des Prozesses gebracht.

Warum AMD da so konservativ ist? Auch da können wir nur raten. Vega 20, Zen 2 und auch Navi setzen auf einen recht frühen 7nm Prozess und wurden gleich mit halbwegs gut ausgebauten Chips (sogar im Vollausbau) auf den Markt gebracht. Kann etwas mit der Yield Rate zu tun haben, es kann Taktgründe haben, es kann an der Architektur liegen...

Die Zen 2 Kerne haben beispielsweise auch eine höhere Packdichte, als die GPUs. Die Ryzen Chiplets kommen auf 51,3 MTr/mm². Die Intel 10nm Chips sollen wohl noch deutlich enger gepackt sein. Dazu findet man aber nicht auf die schnelle echte Zahlen.

Evtl. nutzt AMD bei RDNA2 in Desktopsystemen auch eine andere Packdichte. Wir werden es sehen.
bettsi schrieb:
Dafür hat man sich, vor garnicht all zu langer Zeit, Highend Systeme inkl. bester Graka gebaut.

Ja, die Halbwertszeit war aber auch deutlich geringer und Multi GPU ein heißes Thema im Oberklassebereich. Auch waren die schnellsten Karten damals noch deutlich näher am Sweetspot für die meisten rein leistungstechnisch. In den am meisten genutzten Einstellungen und Auflösungen ist eine 2080Ti heute vollkommen überdimensioniert für die meisten.

matty2580 schrieb:
Die Ampere Gaming-Chips werden oft deutlich kleiner sein als die professionellen Chips, bis auf den Nachfolger der 2080ti. Aber der wird auch wieder in so kleiner Stückzahl verkauft werden, dass er in der Steam-Statistik völlig untergeht.

Warum wieder untergehen? Die 2080Ti ist auf Steam sogar recht ordentlich vertreten, wenn man sich die Preisklasse anschaut. Liegt beispielsweise ein sehr gutes Stück vor der 5700XT in der Gesamtzahl. Und selbst wenn man ältere Mittelklassekarten anschaut... auf eine 2080Ti kommen beispielsweise nur 2,5 RX580 und selbst bei der beliebtesten Turingkarte (1660Ti) liegt das Verhältnis nur bei 1:3,2.

Ja die Karte ist schon seltener, aber es gibt durchaus einen relativ großen markt dafür und die Karten sind anders als beispielsweise die Titans auch in vielen privaten Rechnern dort draußen verbaut.
 
  • Gefällt mir
Reaktionen: gartenriese, Smartbomb und Affe007
Das Brot,- und Buttergeschäft für Nvidia ist im Desktopbereich bei der 2060 und darunter, und vor allem Notebookchips, wo Nvidia fast 100% des Gamingnotebookmarktes abdeckt.
 
matty2580 schrieb:
Für die Masse relevant wird der Nachfolger der 2060 und der GPUs darunter.
Wenn ich mir mal die veröffentlichten Verkaufszahlen von Mindfactory anschaue, dann hat sich die RTX 2070 gegenüber der RTX 2060 genau 2.165-mal mehr verkauft. Klar sind die Zahlen von Mindfactory nicht mit allen Online Shops in Deutschland vergleichbar, aber es zeigt doch einen Trend. Wie es auf der ganzen Welt mit den Verkaufszahlen aussieht, ist schwer zu sagen, aber ob das wirklich so klar ist, dass die Masse an Käufer sich nur für den Nachfolger der RTX 2060 interessieren, glaube ich persönlich nicht.

Das Problem der RTX 2060 ist der VRam, der mit 6.GB einfach zu gering und in dem ein oder anderen Spiel schon ein limitierender Faktor ist, was man in vielen Reviewer Videos und Online Portalen wie CB oder PCGH sehen konnte. Sonst würde es vermutlich anders aussehen!

Die RTX 2060 8.GB Versionen liegen meist im Bereich einer normalen RTX 2070 ohne S [Super], da gibt es eigentlich keinen Grund, die RTX 2060 einer RTX 2070 ohne S vorzuziehen!

Was unterhalb der RTX 2060 angeht, mag das sein, vor allem wegen der OEM Verkäufe, da diese oft viel zu schwache Grafikkarten einsetzen und mit einem Gaming PC werben, nur, weil dann eine einigermaßen akzeptable CPU verbaut ist. Nur macht eine CPU allein noch lange keinen Gaming PC.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese
Mindfactory deckt nur einen sehr kleinen Teil des Retrailmarktes ab.

Hier hat AMD z.B. einen extrem hohen Anteil.
Wirklich relevant ist dieser Nischenmarkt für Intel aber nicht.
Auch ohne den Retailmarkt hatte Intel ein bombastisches Quartal geschafft.
Hier sieht man gut wie die echten Relationen sind, und welche Märkte wirklich wichtig sind.
 
Zuletzt bearbeitet von einem Moderator:
Wenn man sich nur die Zahlen in bestimmten Bereichen anschaut, mag das so sein. Geht man ins Detail und schaut mal genauer hin, ist AMD dort auch kein Konkurrent. Aber da wo AMD seit Ryzen mitmischt, machen sie Intel das Leben mittlerweile wirklich schwer. Dazu kommt, das AMD ja auch im Grafikkartenmarkt mitmischt, auch wenn man da nach wie vor noch deutlich hinter Nvidia liegt.

Aber das dies nicht immer so bleiben muss, sieht man ja jetzt im Desktop-Bereich. Intel fängt jetzt ja gerade erst an, dezidierte GPUs zu entwickeln und dann auf den Markt zu bringen, wie gut sich da dann gegen die Konkurrenz von AMD und Nvidia behaupten kann, muss man erst noch sehen.
 
Taxxor schrieb:
Man schmeißt sie weg weil zuviel defekt ist, du beantwortest die Frage doch im vorherigen Satz selbst, oder nicht?

Ob ein Chip solche Defekte aufweist, findest du natürlich erst nach dem Belichten heraus.
Was willst du dann mit so einem Chip anderes machen? Wenn essenzielle Teile des Chips nicht funktionsfähig sind, dann kannst du da beschneiden so viel du willst, du wirst nie etwas herausbekommen, was du benutzen kannst.
Von daher halte ich es nicht für "Verschwendung"

Ein Chip der zu 50% defekt ist dürfte auch noch funktionieren. Es dürften sogar Chips noch gehen wo du nur noch 30% der Recheneinheiten hast. Die könnte man alle noch verwenden
 
Bei großen komplexen Chips sind die Yields nie besonders gut.
Hier hat Nvidia aber auch AMD keine andere Wahl als auch teildeaktivierte Chips mit zu verkaufen, damit sich die Fertigung irgendwie rechnet.

Nvidia macht aber mit Sicherheit eine Mischkalkulation von kleineren Gaming-Amperes bis zum größten Chip.
Dann rechnet sich das auch für Nvidia.

Aktuell ist aber noch nicht einmal die Fertigung der Gaming-Amperes bekannt, da hier auch Samsungs 8nm im Gespräch ist.

8nm bei Samsung wäre deutlich günstiger als TSMCs 7nm für Nvidia, was auch besser zu den fetten Margen von Nvidia passen würde, und auch den Shareholdern besser gefallen würde.
 
ampre schrieb:
Ein Chip der zu 50% defekt ist dürfte auch noch funktionieren. Es dürften sogar Chips noch gehen wo du nur noch 30% der Recheneinheiten hast. Die könnte man alle noch verwenden
Das würde vorraussetzen, dass die Defekte alle exakt an einer Stelle sitzen, wo nur jeweilseinzelne Recheneinheiten betroffen ist, die auch sowieso im Binning deaktiviert werden könnten.
Und in dem Fall werden die Chips ja auch verwendet.

Es gibt aber genug Fälle, wo ein einziger Defekt ausreicht, also 99% des Chips intakt sind, um den kompletten Chip unbrauchbar zu machen.
 
  • Gefällt mir
Reaktionen: Smartbomb und Krautmaster
domian schrieb:
Was hat das mit Schönreden zu tun... oder willst du Fakten leugnen?

https://m.3dcenter.org/news/die-entwicklung-der-grafikkarten-preise-1999-2015

Rechnet man Inflation, Kaufkraftverlust und steigende Kosten ein, sind die Preise gerade noch OK

Du suchst dir auch nur für dein Szenario passende Zahlen raus.

Du hast Zahlen bis 2015 rausgesucht, damals war die 980Ti top aktuell für 600-700Euro, nur 5 Jahre später sind deiner Meinung nach 1800Euro das gleiche nach abzug von Teurung und Inflation?

Bei Nvidia sollte man Marketing studieren😅
 
  • Gefällt mir
Reaktionen: gartenriese, Smartbomb, bettsi und 2 andere
HiT-Killer schrieb:
Du suchst dir auch nur für dein Szenario passende Zahlen raus.

Du hast Zahlen bis 2015 rausgesucht, damals war die 980Ti top aktuell für 600-700Euro, nur 5 Jahre später sind deiner Meinung nach 1800Euro das gleiche nach abzug von Teurung und Inflation?

Bei Nvidia sollte man Marketing studieren😅

Möchte noch hinzufügen:
Vergiss den guten Fakt nicht dass die Karten im Preis gesunken gesunken sind (wooow!!!)
Schau dir mal an was ne 980ti nach 2 Jahren gekostet hat.

So und nun haben wir die 2080ti welche am 27.Sept.2018 released wurde, kostet aktuell €1400~ lol.
Da haben wir nen Premium-Aufschlag von mindestens €500.

Der Premium-Hardwaremarkt ist irgendwie insgesamt nicht mehr das selbe.
 
  • Gefällt mir
Reaktionen: bettsi
HiT-Killer schrieb:
Du hast Zahlen bis 2015 rausgesucht, damals war die 980Ti top aktuell für 600-700Euro, nur 5 Jahre später sind deiner Meinung nach 1800Euro das gleiche nach abzug von Teurung und Inflation?

1800 Euro sind noch nicht in Stein gemeißelt. Darüber hinaus, siehe Kommentar von Shoryuken94 weiter oben. Die mögliche Power einer Ti Karte der 3000er Serie (wenn sie denn so heisst), ist nicht mehr mit einer Sweetspot-Karte wie der 980Ti zu vergleichen. Eher ist noch eine Leistungsklasse darüber angesiedelt worden, ohne das Namensschema zu überdenken (so meine Meinung).

Sorry eine andere Historie wie von 1999 bis 2015 habe ich nicht gefunden. Nicht zu vergessen ist auch der sehr gute Wechselkurs Euro - Dollar zwischen 2003 und 2014, der dazu beigetragen hat, dass die Preisentwicklung (unter anderem der Grafikkarten) nicht so wahrnehmbar war, wie eingetreten.

https://www.finanzen.net/devisen/dollar/chart

Wenn man jetzt noch die Entwicklung der Durchschnittsbruttolöhne in die Betrachtung einfließen lässt, die sich auch negativ auf die Preise auswirken können, ist es doch gar nicht mehr so dramatisch:

1589609927546.png


Also bitte nicht falsch verstehen, mir wären günstigere Preise auch lieber (wem nicht?), ich möchte ferner auch nicht die Oligopolstellung der Hersteller am Grafikkartenmarkt verteidigen, jedoch empfinde ich manchmal das mimimi um die steigenen Preise ein wenig unangebracht. Wer glaubt denn ernsthaft, dass Grafikkarten jemals (sag niemals nie ok) in der nächsten Generation günstiger werden?

bettsi schrieb:
Aber wie gesagt falscher Thread für so eine Diskussion. Zumal wir da eh komplett verschiedene Meinungen haben.

agree to disagree
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese
Dann nimm mal die x60er Karten. Die waren seit mal überlegen seit FX5600 immer so im 200€ Bereich. Und wo sind diese jetzt? Im 300€ Bereich (Radeon 5600XT) das ist gemessen an der Zeit (Inflation etc.) annehmbar. Die vergleichbare 2060 Rtx ist eher 300-400€. Aber wie gesagt falscher Thread für so eine Diskussion. Zumal wir da eh komplett verschiedene Meinungen haben.
 
Wenn AMD ihre Fette Karte für um 1000 raushaut (höher wird AMD kaum gehen denke ich) und diese etwa 5700 XT Mal 2 Leistung bringt dann kann Nvidia kaum Richtung 2000 Euro gehen. Ich denke die Konkurrenz nimmt eher zu als ab, das weiß Nvidia auch. Ich rechne eher mit 1500 fürs NonTitan Topmodell. Wenn die Die gegen 500mm² geht ggf auch etwas weniger. Noch weiß man halt wenig.

Schön wäre es wenn 7nm beim OC richtig Potential bietet. Würde gern selbst 30% drauflegen ;)
 
Grundgütiger schrieb:
Da halt die Frage wie dies zu Stande kommt und ob eine Konsumerkarte die gleiche Packdichte haben wird.
Es kann gut sein, dass das der Grund ist, warum die Karte nur 1400 MHz erreicht. AMD will ja bei der Playstation 5 bis 2,25 GHz, daist es hilfreich, die Packdichte nicht zu hoch zu schrauben.
Oder, wie @Krautmaster sagte, die Caches.
 
[wege]mini schrieb:
AMD kann es halt nicht. 3 kleine zu verkaufen ist deutlich einfacher und AMD hat noch einen weiten Weg zu gehen, um große Chips verkaufen zu können.

Nur sie bauen zu können, bringt noch keinen Gewinn.

mfg

Mit MCM Technik vor der Tür ist die Zukunft von riskanteren Großchips sowieso fragwürdig und so wie es aussieht, könnten doch Intel die ersten in dem Bereich sein, auch weil Raja Koduri - damals noch bei AMD/RTG angestellt - als erster die Idee hatte und kundgemacht hat, aber das evt. bei Frau Su nicht direkt Gehör fand und bei Intel dagegen sofort (evt. einer der Bausteine für Koduris Wechsel zu Intel) und nVidia kupfert die Idee dann mit Hopper natürlich ab und könnte wegen der größeren Ressourcen noch vor AMDs/RTGs RDNA3 GPUs (für die aktuell auch mit MCM Design gehandelt wird) auf den Markt kommen.

Ich hoffe nur Intels Ponte Vecchio schafft es als erste MCM GPU vor nVidias Hopper erfolgreich auf den Markt zu kommen, sonst rühmt sich "die Lederjacke" womöglich noch damit als erster MCM mit deren Hopper GPUs entwickelt/erdacht zu haben (auch wenn dessen Unternehmen als erstes aus Dual GPU Boards ausgestiegen ist, Chiplet Design ebenso kopiert und man erst nach Koduris Aussage wohl damit angefangen hat).
 
Zuletzt bearbeitet:
ums mal in Relation zu setzen.

GV100 = 5376 Shader = 815mm²
GT102 = 4608 Shader = 754mm²
entspricht -16% Shader / -8% Fläche

Es ist also so dass der Consumer Chip hier keine Platzersparnisse durch den Wegfall von zb FP64 hat, im Gegenteil, die Shader fallen etwas größer aus und RT usw kommt dazu.
Bei Ampere für HPC und Consumer gehe ich von aus das es anders aussieht da RT nicht wirklich wachsen soll, der HPC Chip sehr viel Cache hat (denke nicht dass der Consumer Chip das braucht) und weiter hat er 6 HBM SIs anders als GA102 der vermutlich weiter nur 384 Bit GDDR6 haben wird.

Spekuliert wurden ja etwa 5376 Shader, also wie Volta nur in 7nm. Setzt man das ins Verhältnis zur Fläche kommt man auf 542mm²

GA100 = 8192 Shader = 826 mm²
GA102 = 5376 Shader = 542 mm²

Denke um diesen Dreh ist auch realistisch. Dass die Shader nicht massiv ansteigen liegt an der zu Turing deutlich kleineren Die. Möglich dass Nvidia hier in der nächsten Gen noch ähnlich GA100 ein 7nm Modell draufpackt dass wieder gen 750mm² geht. Wobei das anders als bei 12/16nm ggf nicht nötig sein wird wenn man auf ggf 5nm wechseln kann.

540mm² wäre schon ein Fat Die, etwa so groß wie alle Big Die die Nvidia im Consumer Umfeld in der letzten Dekade brachte.
 
  • Gefällt mir
Reaktionen: gartenriese
Ich wüsste was davon das ich seit 2002 185% mehr lohn bekommen hätte
Die inflation betrug etwa 21% seit 2002 seit der euro Einführung
ich sehe da keinen Zusammenhang
Was den euro Dollar kurs angeht der ist seit 2014 extrem aufgeweicht und der euro ist total unterbewertet.
Dazu Danke draghi
Die aktuelöen preise sind allein dem mining betrug zu verdanken, und der Tatsache das amd seit 2011 hinter nvidia hinterherrennt
amd high end chip gegen nvidia performacechip bis zuletzt dem Einsteigerchip
Es ist zu wünschen das nvidia amd unterschätzt hat und amd in Leistung gleichzieht mit high end vs high end.
Das Preisniveau wird sich anhand der Konsolenpreise verringern zwangsweise.
viel spannender wird aber die software Entwicklung bei der Grafik.
UE5 war schon beeindruckend und das ohne dxr
Nur durch mehr vram und Datenrate
Mal sehen was wir demnächst min im PC haben müssen.
ich tippe auf
cpu 8 core ab 3ghz
ram 32gb
gpu min 8gb vram oder 16gb ideal ab etwa 10tf
2x m2 ssd pcie gen3 x4
ssm als os platte
Datengräber nur video audio
 
  • Gefällt mir
Reaktionen: chilchiubito
syfsyn schrieb:
Mal sehen was wir demnächst min im PC haben müssen.
ich tippe auf
cpu 8 core ab 3ghz
ram 32gb
gpu min 8gb vram oder 16gb ideal ab etwa 10tf
2x m2 ssd pcie gen3 x4
ssm als os platte
Datengräber nur video audio
CPU 8 Core ab 3,0 GHz? Wieso?

Ganz ehrlich, die meiste Zeit langweilt sich mein i5 8600K zu Tode mit seinen 6.Kernen ohne HT und so lange die meisten Software Programme unter Windows 10 so träge sind wie bisher und die CPU nicht mal im Ansatz fordern, geschweige denn auslasten, braucht man keine CPU mit 8.Kernen oder mehr. Im Gaming sind ja auch noch längst nicht alle Spiele auf hohe Multicore CPUs optimiert und bisher kann ich mich über die generierten Frames nicht beschweren.

Einzig wo ich den Sinn dieser CPUs sehe, wenn bestimmte User Gamen / Streamen und Videos rendern und das alles Gleichzeitig, da kann man dann nicht genug Kerne haben, aber solche Szenarios sieht man doch eher selten. Wenn man sich mal so anschaut, was außerhalb von einem Forum wie CB / PCGH oder dergleichen los ist, da sind noch ganz andere CPUs unterwegs, die deutlich weniger Leistung bringen, als mein kleiner i5 und selbst das Funktioniert. Von daher sehe ich die CPU bisher als eine Komponente, die mir am wenigsten zu schaffen macht, was Leistung betrifft.

Ich kann mich auch nicht erinnern, dass irgendwann mal mein Arbeitsspeicher mit den 16GB bisher zu Problemen geführt hat oder dass dieser mal annähernd voll ausgelastet gewesen wäre. Was will ich dann mit 32GB Arbeitsspeicher, meiner Meinung nach reine Geldverschwendung, da würde ich das Geld lieber in eine bessere Grafikkarte investieren.

Was die GPU betrifft, ist doch 8GB VRam schon ab der oberen Mittelklasse [GTX/RTX 1070/2070 oder bei AMD RX 5700 [XT]!] längst Standard. Da erwarte ich einfach, das Nvidia vor allem bei der nächsten Generation 3070 Ampere und weiter nach oben, nochmal eine Schippe an mehr VRam draufpackt. Nvidia hat uns ja jetzt lang genug mit den kleinen 8GB VRam Speicher hingehalten!

Was die Leistung der GPU betrifft, sollen die Hersteller draufpacken was geht, da kann man nie genug bekommen, vor allem, wenn man mit UHD unterwegs ist!

Was die Datengräber betrifft, würde ich mir auch sofort alles in SSD anschaffen, allerdings sind mir die Preise dafür noch etwas zu hoch. Ich brauch mindestens 4 bis 6TB mit Betriebssystem, da sollte eine 2GB SSD etwas unter 100,00 Euro kosten, dann wäre das interessant.

Ich würde mir wünschen, dass es für VRR eine Box geben würde, die man zwischen Monitor/TV und Grafikkarte schalten kann, unabhängig vom Hersteller der Grafikkarte und Monitor / TV, was die VRR betrifft um das Bild Synchron in Einklang zu bringen. Weil es das Spielgefühl einfach deutlich bereichert, wenn das Bild immer flüssig dargestellt werden kann, egal wieviel Hertz anliegen!
 
Zuletzt bearbeitet:
Jan schrieb:
Bitte! Und nicht vergessen: Nicht brüllen, nicht jeden Mist schreiben und nicht jeden Euro annehmen muss man sich leisten wollen, am Ende aber auch leisten können. :-)
Naja am Ende ist es ja genau das was CB ausmacht, und weswegen ich zb auch sehr gerne hier bin und Infos beziehe. Sogar zum "pro" Abo konntet ihr mich überreden. Das schafft eigentlich kaum jemand.

Also beschreitet ihr halt einen anderen Weg mit eurem Geschäftsmodell, sich aber hinzustellen und zu sagen dass man das ja nicht für die $$$ macht, find ich was heuchlerisch :D ihr seid einfach die die besten aufm Markt und gibt Qualität vor Quantität.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben