News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

SKu schrieb:
Dazu DLSS und ein Cyberpunk läuft auf 5120x1440 Pixel wie Butter. :)

Auch VR könnte mit den neuen Großchip GPUs beider Entwickler dann evt. langsam interessant werden.

Naja, 'mal abwarten ob es nur RTX Features in dem Maße oder wirklich um die Rasterisierungsleistung geht, wohingehend ich immer noch skeptisch bin, ob das ohne Nodenshrink so aus dem Boden gestampft werden kann/wird von nVidia.
Ergänzung ()

Krautmaster schrieb:
sind sicher okay, aber reichen vielleicht einfach nicht mehr aus.

Ich denke auch, dass mindestens 650W Gold Netzteile da idealerweise angesetzt werden sollten, bei mir wird's wahrscheinlich ein 750W Seasonic Focus+ werden, um auf der sicheren Seite/mit etwas Puffer zu bleiben und nicht nahe am Lastenmaximum das Netzteil oftmals/häufig "schwitzen" zu lassen.

Zudem, wer weiss schon, wie taktfreudig die Zen3 Vermeer 8 und 12 Kerne CPUs werden?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Können sicher, aber Nvidia will die Marge weiter pushen oder halten und setzt hier lieber auf den günstigen Samsung Prozesse. Den besseren TSMC hat man ja intern für GA100 am laufen.
Da nvidia ein börsennotiertes Unternehmen ist, werden sie meines Erachtens nicht wagen, die Marge weiter pushen.
Das ginge auf Kosten des Absatzes und damit Umsatzes und das sehen die Risikokapitalgeber und Aktionäre garnicht gern.
 
Zuletzt bearbeitet:
Wird man halt sehen wie dann die Preise sind. Bei der niedrigeren Voraussage hinsichtlich VRAM könnte der Preis ähnlich bleiben. Bekommen die Karten Aber den größeren Ausbau (mmn. Immernoch fraglich bzgl. Unterscheidung von Quaddro) wird's schwer die aktuellen Preise zu halten. Es werden ja doppelt so viele Chips verbaut da bei der Dichte Nichts passiert ist. Dazu das komplexe PCB und der umfangreiche kühler.

Mal sehen.
 
Linmoum schrieb:
So eine Karte sollte definitiv nicht in diesem Bereich landen, es wird immerhin grob ein Fullnodesprung werden.

Es wird ein Sprung von dem eh schon sehr effizientem 12FF auf ein 8nm Prozess, welche riesigen Effizienzsprünge erwartest du da, wenn selbst der Sprung von 16FF auf N7 um 60% von TSMC als Optimalfall angegeben wird?

DJMadMax schrieb:
Leistungssteigerung bei gleich ansteigender (oder gar höherer) Leistungsaufnahme ist keine Verbesserung bzw. gar ein technischer Rückschritt.

Dann gewöhne dich schon mal daran, dass was du als Leistungssteigerung wahrnimmst, wird es in der Zukunft praktisch nicht mehr geben. Schaue dir mal die "Sprünge" von N7 auf N6 oder N5 an, da wirst du überall maximal 30% weniger Energieaufnahme finden, bei gleichbleibender Leistung wohlgemerkt.
https://fuse.wikichip.org/news/2567/tsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging/

Die Zeiten wo man bei jedem Prozessschritt mal 1V oder wenigstens 0,5V mit der Spannung runtergehen konnte, sind schon seit Jahren vorbei, physikalisch ist die Entwicklung so gut wie am Ende.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Ich habe zwar nur eine 1080 Ti, die ist aber oft (bis auf Spiele mit Low Level APIs wie Red Dead Redemption 2) in etwa auf dem Level einer RTX 2070 und werde definitiv wechseln. Warum? Weil mir die 1080Ti einfach viel zu lahm ist.

Das wohl schlechteste Beispiel warum man eine Grafikkarte wechseln sollte. Das Spiel ist absolut beschissen programmiert, bringt selbst auf einer 2080TI nur etwas mehr als 60FPS auf FHD.
 
MXE schrieb:
Das wohl schlechteste Beispiel warum man eine Grafikkarte wechseln sollte.

Ich wechsel nicht wegen Red Dead 2. Ich wollte dir nur klar machen das ich auch mit RTX 2070 Leistung definitiv wechseln werde, was sie 1080 Ti halt bringt wenn man nicht RDR2 spielt. Mir ist eine GPU in der Leistungsklasse zu lahm. 3440x1440 @ 100HZ wollen gefüttert werden.

Wobei das Spiel meiner Meinung nach NICHT schlecht programmiert ist. Es sieht auf Ultra einfach unglaublich, wirklich unglaublich gut aus. Bei Crysis hat damals auch keiner gemeckert das es mit High End Hardware nichtmal Richtung 60 FPS ging ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
3x 8-Pin, kann man schon so machen.
Irgendwie habe ich das Gefühl, dass diese Karten einiges an Strom wegziehen werden.

Meine aktuelle Karte zieht 260W, das ist schon ein ordentlicher Schwall Abwärme der da aus dem Gehäuse raus kommt. Die letzten Tage habe ich mit 50% Powerlimit spielen müssen, aber das hat immerhin gut funktioniert.
Meiner Erfahrung nach würde ich daher keine Karte haben wollen, sie sich 350W genehmigt. Muss ja nicht sein. Aber wenn im Gegenzug die Frametate stimmt...WaKü wäre mal ne Überlegung wert, dann stelle ich mir draußen ne Regentonne als Reservoir hin und gut ist :lol:
 
  • Gefällt mir
Reaktionen: TorgardGraufell
Neue Fertigung heißt nicht mehr bessere Effizienz, so auch bei TSMCs 7nm, oder Samsungs 8nm, was TSMCs 10nm entspricht.

Schon jetzt steht fest, dass die HPC-GPUs deutlich mehr verbrauchen bei Nvidia als die Turing Gen.
D.h. für uns, dass mehr Leistung auch wieder mit mehr Verbrauch erkauft wird.

Nvidia hat aber seit Kepler die Margen deutlich erhöht. D.h.das hier die Fertigung bis heute nur eine untergeordnete Rolle spielt, denn Margen sind schon R&D bereinigt, und seit Fermi deutlich gestiegen bei Nvidia, auch in der Geforce-Sparte.

Sucht selbst einmal hier bei CB nach, Nvidia, Rekordmarge, und ihr werdet sehr viele Einträge auf CB finden. D.h. unterm Strich, dass Nvidia massiv seit Fermi die Margen erhöht hat, und eine teurere Fertigung immer mit großem Aufschlag an die Endkunden weiter gegeben hat, so dass am Ende nur Nvidia dabei gewinnt, und nicht mehr wir Endkunden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chismon
Wenn die Leistung stimmt, bin ich dabei! Man wird aber wohl sowieso wieder eine Weile auf passende Wasserkühler warten müssen.


Pisaro schrieb:
Bei Crysis hat damals auch keiner gemeckert das es mit High End Hardware nichtmal Richtung 60 FPS ging ;)
Ich glaube da täuscht dich deine Erinnerung aber ein wenig. ;)
Ergänzung ()

DriveByFM schrieb:
Jedes gute 550-650W Netzteil hat 4x8Pin verstehe also das Problem nicht.
Naja. Bei BeQuiets StraightPower Serie z. B. bekommst du 4x PCIe erst ab 650W aufwärts, nix mit 550W.
 
Zuletzt bearbeitet:
matty2580 schrieb:
Schon jetzt steht fest, dass die HPC-GPUs deutlich mehr verbrauchen bei Nvidia als die Turing Gen.
D.h. für uns, dass mehr Leistung auch wieder mit mehr Verbrauch erkauft wird.
Da hätte ich gerne einen Link zur ausführlichen Messung.

Nvidia hat aber seit Kepler die Margen deutlich erhöht.
Um wieviele Prozent mit welcher SKU?

D.h.das hier die Fertigung bis heute nur eine untergeordnete Rolle spielt, denn Margen sind schon R&D bereinigt, und seit Fermi deutlich gestiegen bei Nvidia, auch in der Geforce-Sparte.
Welche Quelle von nvidia hat Dir das verraten? Gibt es einen Anhaltspunkt dafür oder irgendeine Referenz für diese Behauptung?

Ich hätte das gerne genau und nicht diffus aufgeschlüsselt, schließlich wird hier ja mehr oder weniger behauptet, dass nvidia akute Preistreiberei und vielleicht sogar Wucher betreibt.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Warum soll ich jetzt für dich suchen, wenn ich so gar die Suchparameter angebe?
Aber gut, ich lasse mich einmal auf dass Spiel ein, und werde einige Links für dich heraus suchen....

CB schrieb:
CEO Jen-Hsun Huang zeigte sich zufrieden mit dem Ergebnis und erklärte, dass vor allem die Grafiklösungen auf Basis der GPU-Architektur „Kepler“ ihren Teil zu einer erneuten Rekordmarge beigetragen hätten: „Kepler erobert Anteile unter Spielern, stärkt unsere Workstation- und Supercomputing-Bereiche und wird die Wachstumschancen unserer Server-Grafik-Lösungen GRID anheizen.
https://www.computerbase.de/2013-05/nvidia-mit-rekordmarge-dank-kepler-im-1.-quartal/

CB schrieb:
Der Wachstumsmotor bei Nvidia ist und bleibt das GPU-Geschäft. 2,77 Milliarden US-Dollar wurden damit umgesetzt. Ein Umsatzwachstum von 77 Prozent gegenüber dem Vorjahr zeigt, wie groß die Nachfrage in diesem Bereich ist. Ein Treiber ist auch Mining, den Effekt nennt Nvidia aber nur zu einem Teil: 289 Millionen US-Dollar verbucht Nvidia beim Umsatz über die OEM-Sparte direkt zu Mining-Lösungen. Darin inbegriffen sind aber nicht die klassischen Grafikkarten für Spieler, die für den Einsatz in Mining-Systemen erworben wurden. Deren Gaming-Bereich wuchs um ebenfalls 68 Prozent, die Datacenter-Sparte dank Auslieferungen von zusätzlichen Volta-Lösungen sogar um 71 Prozent von 409 auf 701 Millionen US-Dollar.
https://www.computerbase.de/2018-05/geforce-grafikkarten-nvidia-rekordzahlen/

CB schrieb:
Alle Sparten laufen gut
Nvidias Chief Financial Officer Colette Kress geht in ihren Erläuterungen zum Quartalsbericht auf die einzelnen Sparten des Unternehmens ein. Den Löwenanteil am Gesamtumsatz hält mit rund 85 Prozent oder 1,7 Milliarden US-Dollar naturgemäß das GPU-Geschäft. Das entspricht einer Steigerung von 53 Prozent gegenüber dem Vorjahr. GeForce-Gaming- und Datacenter-Lösungen auf Basis der Pascal-Architektur haben laut Kress immens zum Erfolg beigetragen. Mit Datacenter-Produkten wie Tesla, Grid und DGX-1 hat Nvidia 240 Millionen US-Dollar umgesetzt, 193 Prozent mehr als vor einem Jahr.
https://www.computerbase.de/2016-11/nvidia-quartalszahlen-q3-2017/

CB schrieb:
Bei den Plattformen erweist sich das Gaming-Segment erneut als mit Abstand stärkste Kraft mit über 1,3 Milliarden US-Dollar Umsatz. Dazu zählen vor allem die GeForce-Grafikkarten für Desktop-PCs und Notebooks sowie der Handheld Shield und der neue Streaming-Dienst GeForce Now.
https://www.computerbase.de/2017-02/nvidia-quartalszahlen-q4-2017/

CB schrieb:
Bei Betrachtung der verschiedenen Sparten zeigt sich, dass auch im letzten Quartal das Gaming-Segment rund um die GeForce-Grafikkarten mit knapp 1,5 Milliarden US-Dollar den höchsten Anteil an den Einnahmen hatte, obgleich es gegenüber dem dritten Quartal um 10 Prozent zurückging.
https://www.computerbase.de/2020-02/quartalszahlen-nvidia-q4-2020/

Auf die Schnelle habe ich einmal 4 Links heraus gesucht. Man findet allein auf CB aber viel mehr Links dazu. Und wenn ich meine Recherche auf PCGH, Hardwarelux, Toms Hardware, u.s.w. erweitern würde, könnte ich dich mit Links dazu erschlagen......

Die Geforce-Sparte ist und bleibt die wichtigste Sparte für Nvidia, auch wenn die anderen Sparten prozentual zulegen. Und Nvidia macht mit der Geforce-Sparte nach wie vor den meisten Gewinn.

Das wäre gar nicht möglich wenn R&D so drastisch steigen würden.
Der aktuelle Aktienkurs, die Dividenden die ausgezahlt wurden, bestätigen mich zusätzlich.
 
Zuletzt bearbeitet von einem Moderator:
Hi

Also mit 12 Pin sehe ich das ganze auch nicht so dramatisch.
Lastspitzen haben die jetzigen Karten auch und davor.
Es wird ja Zeit für ein neueres Design.
Igor hat es eh gut erklärt.

Gruss Labberlippe
 
matty2580 schrieb:
Schon jetzt steht fest, dass die HPC-GPUs deutlich mehr verbrauchen bei Nvidia als die Turing Gen.
D.h. für uns, dass mehr Leistung auch wieder mit mehr Verbrauch erkauft wird.

Ohne konkrete Leistungswerte sagt der Gesamtverbrauch relativ wenig über eine GPU aus. Ohne den konkreten Leistungszuwachs heranzuziehen sagt uns der Mehrverbrauch recht wenig...

Denn ohne die Effizienz zu betrachten, kann man nichts über den Chip sagen. Bei gesteigerter Effizienz wäre auch eine kleinere GPU mit mehr Leistung möglich. Bei der GA100 GPU hat Nvidia den Shrink aber massiv in das Transistoren Budget investiert. Aber ich bin mir ziemlich sicher, dass Leistungszuwachs und Leistungsaufnahme nicht 1 zu 1 skalieren.

matty2580 schrieb:
Sucht selbst einmal hier bei CB nach, Nvidia, Rekordmarge, und ihr werdet sehr viele Einträge auf CB finden. D.h. unterm Strich, dass Nvidia massiv seit Fermi die Margen erhöht hat, und eine teurere Fertigung immer mit großem Aufschlag an die Endkunden weiter gegeben hat

Nvidia hat die Produkte entsprechend der Marktgegebenheiten bepreist. Beim Beispiel Kepler. Hier reichte der Stepdown GK104 bereits aus, um es mit AMDs damals schnellster GPU aufzunehmen. Wenn Midrangehardware ausreicht, um mit den High End Lösungen der Marktbegleiter zu konkurrieren, dann bepreist man diese auch entsprechend.

Ich möchte aber auch nicht wissen, wie es heute aussehen würde, hätte Nvidia den GK110 für 500€ in den Markt gedrückt hätte und den GK104 für 250€ in der Mittelklasse verkauft hätte. Damit wäre AMDs Lineup mit einem Schlag obsolet gewesen. Nvidia hat die Gelegenheit genutzt und den technologischen Vorsprung genutzt. Und diesen Vorsprung auch bis heute entsprechen behalten. Mit entsprechendem Druck durch die Konkurrenz, würde Nvidia auch andere Preise für die Gamingableger aufrufen. Aber GPUs teils über Jahre ohne Konkurrenz bleiben, hat man auch alle Argumente der Welt entsprechende Preise aufzurufen. In Bereichen mit Konkurrenz bepreist Nvidia Produkte auch anders.

matty2580 schrieb:
so dass am Ende nur Nvidia dabei gewinnt, und nicht mehr wir Endkunden.


Ich mach dir deine Illusionen nur ungerne kaputt, aber Nvidia ist ein gewinnorientiertes Unternehmen und nicht die Wohlfahrt. Nvidia bietet ein Produkt an, weil Sie Gewinn damit erwirtschaften möchten. Nichts anderes macht AMD. Dann musst du aber auch Navi an den pranger stellen. Dort hat AMD mal locker flockig den Preis zum Midrangevorgänger Polaris verdoppelt. Und warum? Weil auch AMD nicht die Wohlfahrt ist und entsprechend die Preise aufruft, die der Markt bereit ist für eine bestimmte Leistung zu zahlen.

AMD und Nvidia haben eine breite Range an Produkten in vielen Preisklassen. In Bereichen wo sie Leistungstechnisch konkurrieren liegen sie auch preislich nicht so sehr weit auseinander und ein Aufpreis seitens der Nvidia Alternative kann durch entsprechende Mehrleistung oder Mehrfunktionen meist gerechtfertigt werden.
 
  • Gefällt mir
Reaktionen: Lübke82
matty2580 schrieb:
Auf die Schnelle habe ich einmal 4 Links heraus gesucht. Man findet allein auf CB aber viel mehr Links dazu. Und wenn ich meine Recherche auf PCGH, Hardwarelux, Toms Hardware, u.s.w. erweitern würde, könnte ich dich mit Links dazu erschlagen......
Danke für die Mühe, die Du Dir gemacht hast. Dennoch habe ich ja explizit darum gebeten, die Behauptung mit Zahlen zu belegen.

Im ersten Zitat wird Marge mit Nettogewinn verwechselt.
Im zweiten und den folgenden Zitaten geht es auch wieder nur um Umsatz und Gewinn.

In den gesamten anderen Betrachgungen der Marge von nvidia, die ich gefunden habe, wird auch immer nur ein Mix verschiedener Sparten angedeutet, womit wiederum kein Rückschluss auf die tatsächliche Marge eines Turing- oder Keplerchips gezogen werden kann.

Die Preisdiskussion auch bezüglich der Verhältnismäßigkeit ist so lange überflüssig und bestenfalls als Spekulation zu bezeichnen, so lange hier niemand zweifelsfrei nachweisen kann, was nvidia z.B. an einem TU102 Chip nach abzug ALLER Kosten verdient.

Ansonsten höre ich aus den Posts bezüglich Umsatz und Gewinn nur heraus, dass man diesen der Firma nicht gönnt, bzw. automatisch dadurch das eigens gekaufte Produkt als zu teuer betrachtet wird, will man ja indirekt schließlich nicht gezwungen sein, nicht nur in das Produkt zu investieren, sondern auch noch in die Firma die dahintersteht.

Ist so ein bißchen das Crytek- Prinzip, wo sich in die Hirne gepflanzt hat, dass man mit dem Kauf von Spielen dieser Firma (natürlich immer zielgerichtet ignorierend, was für einen Aufwand, Risiko und Entberungen der Aufbau mit sich gebracht haben kann), die Firmenfahrzeuge der Yerli- Brüder finanziert.

Klar kommen da viele in Konflikte, die hier sonst gerne moralisieren. Geniesst nvidia nunmal nicht den Ruf, eine wohltätige Firma zu sein un die soll man nebst ihres Produktes (für welche man seine Moralvorstellung gerade so noch über Bord werfen kann), dann auch noch für ihr anderweitiges Tun bezahlen bzw. zu deren Gewinnen beitragen? Für all das Böse wie den Kapitalmarkt, Risikokapitalgeber, Gehälter von Managern usw. usf.?
Und plötzlich ist man Teil des "Bösen"?

Damit kommen einige nicht klar, da sie sich dann dessen bewusst werden, wie oft sie wohl selbst mit zweierlei Maß messen und ihre Moralvorstellungen, wenns um den eigenen Vorteil geht, ohne zu zögern begraben.

Wäre man objektiv, würde man erkennen, dass es völlig egal ist, wieviel der Hersteller an dem Produkt meiner Begierde verdient, wenn man es kauft. Offenbar misst man ja mit dem Kauf des Produkts, diesem bereits den zugedachten Wert zu und möchte der Firma durch den Kauf oftmals auch signalisieren, dass man deren Produkte schätzt und diese beibehalten/weiterentwickelt werden sollen.

Da kann man ganz schnell in die Extreme gehen (z.B. Textilindustrie). Laufen genug mit Markenklamotten rum.
Dass dort oftmals die geliebte 100,-€ Jeans für 2-6$ hergestellt wird (Vorzeigeunternehmen wie Trigema mal ausgenommen), interessiert offenbar niemanden. Hauptsache das Markenlogo klebt dran und man fühlt sich gut beim Tragen eben dieser.

Sehr komplexes Thema, dessen Berwertung hier einige mit deutlich zu engem Blickwinkel vornehmen.
 
Zuletzt bearbeitet:
Für mich als Selbstbauer mit luftgekühltem Mini-ITX-Kleinstgehäuse und entsprechenden Restriktionen bei der Abwärme dürften die neuen Nvidia-Spitzenmodelle wohl nicht nur möglicherweise zu teuer, sondern vor allem auch zu heiß werden eingedenk der vermutlich sehr hohen TDP. Trotzdem bin ich sehr gespannt, was die Grafikkarten der oberen Mittelklasse bzw. unteren Oberklasse zu leisten imstande sein werden. Für mich käme auch ein Ampere-Modell in Betracht, das ungefähr die gleiche oder gerne auch etwas mehr Leistung abliefert als meine gegenwärtige 1080 Ti FE, solange das VRAM bei mindestens 12 GB liegt und die entsprechende Ampere-Graka deutlich kühler und leiser ist. Ob das realisierbar ist, wird sich zeigen...
 
Zuletzt bearbeitet:
yummycandy schrieb:
Ich höre tatsächlich zum ersten Mal, dass sich die Architektur bei Nvidia mit Ampere ändern soll. Bin bisher vom A100 ausgegangen, wo innerhalb der Shader keine Änderungen stattgefunden haben. Es wurde nur von allem mehr.
Zu deinem Bild kann ich aber anmerken, dass eine Erhöhung der FP32-Leistung sich nicht beim Raytracing auswirkt. Raytracing braucht ungewöhnlich viele Integerleistung der Shader, aber sonst nur die Raytracing-Cores. Deswegen habe ich mal spekuliert, dass das der Grund für Nvidia war, die Integerleistung bei Turing so aufzubohren. Die hier beschriebene Reduzierung des Verhältnisses ist eher eine Rückbesinnung und damit effizientere Flächennutzung, die die Produktionskosten von Ampere senken könnte. Nvidia hat mal angegeben, dass sie mit einem Integeranteil bei der Berechnung von Spielen von 30% ausgehen, würde also passen.
xexex schrieb:
Die angekündigten Chips sollen trotz Shrinks in etwa die gleiche Die Größe haben
Die Die-Größen in deinem Bild scheinen aber nicht aktuell. 5FF soll eine Skalierung von 1,8 gegenüber 7FF bieten, nicht nur 45%. Allerdings hast du Recht damit, dass die Energieeffizienz der Transistoren kaum steigen wird.
.Sentinel. schrieb:
schließlich wird hier ja mehr oder weniger behauptet, dass nvidia akute Preistreiberei und vielleicht sogar Wucher betreibt.
Da kommt dein Einwand aber zwei Jahre zu spät. Du hast zwar beim Turing-Launch viel gegen die Preisbeschwerderei gemacht, auch mit deinem Technik-Thread, aber es gilt allgemein als anerkannt, dass Nvidia wenig gute Gründe vorweisen kann, um die Turing-Preise zu rechtfertigen.
Shoryuken94 schrieb:
Dann musst du aber auch Navi an den pranger stellen. Dort hat AMD mal locker flockig den Preis zum Midrangevorgänger Polaris verdoppelt.
Bei AMD ist die Situation (wie so oft) von Nvidia verschieden. Nvidia nutzt eine ältere Fertigung für deutlich angewachsene Die-Größen. Je nach den genauen Zahlen liegt die Verteuerung der Herstellung zwischen gleichbleibenden Kosten und einem mittleren Anstieg, aber ich erwarte keine Skalierung zu den Turing-Preisen.

AMD hat sehr transparent dargestellt, wie die Kosten des Navi-Die im Vergleich zu Polaris angestiegen sind. Der Graph war immer für einen 250mm²-Die, und entspricht fast einer Verdopplung des Preises. Außerdem bleibt AMD weiterhin günstiger im P/L-Verhältnis als Nvidia.
 
yummycandy schrieb:
... doch wie bei allem keine Gesamtleistung, sondern wieder nur in Teildisziplinen. Wenn sie FP auf Kosten von Int erhöhen, dann kann nicht beides so stark steigen. ;)
Primär ging es anscheinend wirklich darum, die RT-Leistung zu steigern. Wie der Rasterizer drauf reagiert, steht noch in den Sternen. Und so ganz ohne negative Effekte ist das auch nicht gegangen. (Leistungsaufnahme)

Ich hab erst vor kurzem einen Artikel aus dem HPC Bereich gelesen, bei dem davon gesprochen wurde, daß zukünftige Leistungssteigerungen generell auch mit höhere Leistungsaufnahme einher gehen werden. Weshalb man wohl von 250W Basisaufnahme, auf mindestens 400 gehen wird. Die Effizienzzunahme durch neue Prozesse ist einfach nicht mehr so hoch, wie es früher war. Auch wenn das außerhalb vom HPC-Bereich sicherlich niemand gern wahrhaben wird. Durch rapide steigende Waferkosten ist es für die meisten Hersteller sowieso wichtiger, die Packdichte zu steigern.

Das denke ich auch, dass irgendwo Kompromisse gemacht werden muessen, selbst wenn man dichter packt als zuvor, daher auch meine Skepsis. Dass die RT-Raytracing-Leistung deutlich zulegen wird, davon geht aktuell sowieso fast jeder aus, aber interessanter wird wohl zu sehen sein, wie die Rasterisierungsleistung zulegt.

Bei letzterer duerfte es Druck von AMD geben und somit muss man sich vielleicht deswegen so strecken (eine Vollausbau GA102 Gaming-GPU auflegen, nachdem vorher jahrelang nur noch die abgespeckten Grosschips zum Einsatz kamen beim Gaming-GPU Flaggschiff von nVidia, und damit zusammenhaengend die 80er Serie mit der Einfuehrung von RTX Ampere zum Grosschip hoch zu stufen).

Eventuell wird man nicht mehr so glaenzend/dominant aussehen wie noch zu RTX Turing Zeiten was die gruenen GPU-Benchmarkbalken an der Spitze von Spieletests angeht, aber gut es gab ja auch keine RDNA1 Grosschip-GPU von AMD/RTG.

Es wird zwar straendig bessere Leistung pro W beworben, aber ich denke auch, dass man sich absolut gesehen immer mehr bei relativ gleichbleibender Fertigungstechnik einer Effizienzschranke naehert, da die Nodenschritte nicht mehr so gewaltig sind und so muss der Leistungsgewinn auch neue Architektur und Technik verlegt, insbesondere, wenn man gleichzeitig anspruchsvollere Features und Technik (z.B. RT-Raytracing und VR) ausreichend fluessig und werbetraechtig zum laufen bringen will.

Im Endeffekt wird es wohl - wie bei RTX Ampere - darauf hinauslaufen, auch wenn man netto mehr Stromverbauch und Abwaerme generiert, dieses mit einem deutlichen Leistungszuwachs zu begruenden, was der nVidia Effizienzwerbeschiene der Vergangenheit (als die Effizienz fuer manche scheinbar das wichtigste Kriterium fuer einen (nVidia) GPU-Kauf war) paradoxerweise entgegen stehen wuerde.

Das kann natuerlich auch eine Ausnahme sein, weil man kapazitaetstechnisch wohl bei nVidia nicht wie erhofft bei TSMC zu gewuenschten Preisen zum Zuge gekommen und wohl versucht hat mit in Aussicht gestellter Fertigung bei Samsung die Preise bei TSMC zu druecken.
Inwiefern das spuerbare Nachteile haben wird oder nicht, wird man sehen muessen; die teureren nVidia GPUs (A100) werden aber nach wie vor auf TSMCs 7nm Prozess gefertigt und nicht mit Samsungs 8nm Fertigung.
Ergänzung ()

xexex schrieb:
Wie soll es anders funktionieren, wenn durch Prozesse heutzutage folgende Verbesserungen möglich sind.

Das geht schon, nur eben auf Kosten der Gewinnmitnahme, aber dazu ist man bei nVidia zu gewinnorientiert/-maximiert und wohl gierig (schliesslich sollen ja immer neue Boersenrekorde her).

nVidia haette sicherlich auch deutlich frueher schon auf 7nm gehen koennen, das wurde doch bei den RTX Turing GPUs schon von einigen (mich eingeschlossen) kritisiert (auch angesichts der ueberzogenen Preise/Gewinnmarge, die einige mit der halbgaren und deutlich verspaeteten RTX-Feature-Einfuehrung begruendet sehen wollten), dass solche fett bepackten Grosschips angesetzt wurden.

Natuerlich naehert man sich mit der aktuellen, in kleineren Schritten als frueher geshrinkten Noden ohne Frage dem Limit aktueller Fertigungstechnik in Sachen Effizienz.

Womoeglich ist bei GPUs auch schon ein Bigger-Smaller GPU-Ansatz (analog zum Lakefield und Alder Lake-Modell bei den aktuellen und kommenden Intel CPUs) zusaetzlich zum in Entwicklung befindlichen MCM-GPU Design (mit mehreren, kleineren und effizienteren GPU-Chiplets) im Gespraech und koennte beruecksichtigt werden.

Das wuerde ebenfalls zur Investitionstrategie von nVidia - bzgl. der Uebernahme von ARM, gehandelt wird der Spaetsommer (ich hoffe ja immer noch, dass TSMC und/oder Foxconn da in Teilen mit zum Zuge kommen oder irgendein europaeisches Tech-Konsortium mitbietet, dass die Technik strategisch wichtig wieder in Europa beheimatet) - sehr gut passen, denkbar ist da einiges ;).
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Jein. Ja geht gut, aber nicht um nur Strom zu sparen. Man kann die Effizient damit steigern, aber den verbrauch nicht groß senken. Dafür wird man mit massig mehr Takt belohnt. UV lohnt sich nur mit gleichzeitig aufgezogenem Powerbudget. Zum sparen hilft nur Powerlimit begrenzen und etwas UV.

Je nach Spiel / Auflösung büßt man dann halt einiges an Leistung ein.

Man kann einen Mittelweg gehen. Etwas mehr Takt und man spart trotzdem grob 30 - 50 Watt. Z.b einen Vega 56 wird die 1450 MHZ Stock niemals sehen, weil das Powerlimit in der Regel begrenzt.

Ich habe auch das Gefühl das PC die Temperaturen im Zimmer leicht auf heizen, vielleicht sind es 1 - 2 Grad. Im Sommer brauch man dann einfach einen Ventilator oder etwas ähnliches. Das brauch man aber auch ohne einen PC.:)

Jedenfalls so ein 350 Watt Monster würde ich mir nie im Leben einbauen. Bis 250 Watt kann man sicher noch gut mit Luft kühlen, dann wird es aber kritisch. Wie gesagt im Sommer ist die Luft wärmer, was auch ein Problem sein kann.
 
@Chismon Nun, beide Firmen haben massiv ihre Shaderanzahl erhöht. Das konnte Nvidia vorher so nicht und AMD wollte nicht. Logischerweise geht das nicht ohne Mehrverbrauch, es sei denn, man baut die Architektur komplett um, was bei keiner der beiden Firmen passiert.
 
Colindo schrieb:
Du hast zwar beim Turing-Launch viel gegen die Preisbeschwerderei gemacht, auch mit deinem Technik-Thread, aber es gilt allgemein als anerkannt, dass Nvidia wenig gute Gründe vorweisen kann, um die Turing-Preise zu rechtfertigen.
Genau, wie es ewig lang entgegen meines Redens allgemein als anerkannt galt, dass schneller Speicher bei Computerplattformen keine Geschwindigkeitsvorteile brächte?
Wird die Meinung einer sich irrenden und ratenden Mehrheit nur aufgrund der Anzahl an Anhängern und Wiederholungen zur Wahrheit?
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben