News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

cypeak schrieb:
ich habe in keinem wort was von verbieten gesagt. wo kommt eigentlich diese mentalität her anderen etwas so anzudichten?

aber ja, es wäre tatsächlich mal angebracht nachzudenken ob so manche entwicklung (gerade bei computern) so begrüßenswert ist.
"Ich habe nicht gesagt das ich dafür bin, aber ich bin dafür!"

Es war bereits aus dem Kontext deines vorherigen Posts absehbar in welche Richtung du schießen willst.
 
Inzwischen sind für mich News zu Grafikkarten total uninteressant geworden:
  • der Stromverbrauch ist mir zu hoch
  • die Kartenpreise sind mir zu hoch
  • viele Games setzen nur noch auf Optik, das Spielerlebnis ist dann meistens aber Mist.

Ich spiele inzwischen lieber Spiele wie SimAirport, Another Brock in the Mall usw.
Die haben zwar eine "einfache" Grafik, dafür wurde Wert auf das Spielerlebnis gelegt.

Das grafikintensivste Game aktuell bei mir ist Witcher 3, da ist aber auch die Story und das Gameplay verdammt gut.

Gaming wird immer uninteressanter, leider 😒
 
  • Gefällt mir
Reaktionen: DrTimeWaste, McTheRipper, dohderbert und eine weitere Person
@SV3N : kleiner Typo im update: soll dann mit der Radeon-RX-6000-Serie auf Basis der RDNA-3-Architektur konkurrieren - das wollen wir doch nicht hoffen - oder? :)
 
  • Gefällt mir
Reaktionen: SVΞN
Die Entwicklung wäre vergleichbar mit dem Fahrzeugmarkt, wenn BMW & Co jedes zweite Jahr noch größere Motoren mit noch mehr Verbrauch (und Leistung) anbieten würden.
 
cypeak schrieb:
es wäre tatsächlich mal angebracht nachzudenken ob so manche entwicklung (gerade bei computern) so begrüßenswert ist.
Meine Meinung? Die Technologie wie man sie bisher kannte ist in diesem Bereich an der Grenze des machbaren angekommen. Mehr geht nur mit noch mehr (Energie). Die Effizienz ist sicher noch immer besser als bei den Produkten von vor 10 oder 20 Jahren, nur geht das eben mit einem Energieeinsatz einher, der für so manchen nicht mehr akzeptabel ist, die Gründe seien hier egal.
Jedoch wird in allen Bereichen nach immer mehr Rechenleistung gefordert, um die Prozesse weiter zu optimieren und zu beschleunigen. Allein das Märchen vom autonomen Fahren, das intelligente, weltumspannende Stromnetz. Das braucht enorme Kapazitäten.
Da spielen Spieler kaum eine Rolle. Um das zu bewältigen, muss man eben diese Menge an Energie einsetzen, um das geforderte Leistungsziel zu erreichen.
Jetzt plötzlich weniger Leistung zu liefern, oder zu bekommen, nur um Energie zu sparen, wäre faktisch ein Schritt zurück und damit bliebe das Märchen vom autonomen Fahren, der Industrie 4.0 und das intelligente sich selbst steuernde Stromnetz auch auf ewig ein Märchen.
 
  • Gefällt mir
Reaktionen: xexex
Nicht schlecht... 71,4% mehr CUDA Kerne.(GA102 vs. AD102)
Bei 200% weniger verbrauch bitte.
Ich liebe es nähmlich wenn man mir Dinge verspricht, die unsere Naturgesetze nicht zulassen.
Ausserdem bin ich immer gezwungen, das größte und teuerste Produkt vorzubestellen.

Zum ersten Vergleich oben noch die Ergänzung.
Bei der letzen Generation war es ein Sprung um 37% mehr CUDA Kerne.
 
  • Gefällt mir
Reaktionen: ThirdLife und Newbie_9000
NDschambar schrieb:
Sollten sich die Annahmen bezüglich der Stromaufnahme bewahrheiten, bin ich aus Team grün raus. 600W+ sind in heutigen Zeiten einfach lächerlich.

Denen ist die Stromaufnahme ein lästiges Problem. Im Vordergrund steht einfach Rechenleistung um jeden Preis. So lange es keine bedeutende Entwicklung wie z.B. Umstellung von Alu auf Kupfer wird sich da auch nicht viel ändern.
Hat jemand Lust nachzurechnen wieviel Watt eine Geforce 9x0 brauchen würde um an die Leistung einer RTX 3090 zu kommen?
 
Ich bin neben dem Verbrauch,
auch sehr auf die vram Menge gespannt.

Die 4090 wird mit ihren übertriebene 24gb wohl immer noch „ausreichend“ bestickt sein.

Die Frage ist wie sich das (je nach Anbindung) nach unten hin verteilt.
4090 24gb
4080ti 16gb
4080 12gb
4070 10gb

So in der Art?
Jedoch schreit das bei der derzeit starken Konkurrenz dann wieder nach refreshes und unsinnigen ti Varianten, so das hoffentlich diesmal von Anfang an eine ordentliche Bestückung vorliegt.

4090 24gb
4080ti 20gb
4080 16gb
4070 12gb
 
  • Gefällt mir
Reaktionen: Vitec und Shoryuken94
Tiimati schrieb:
Nicht schlecht... 71,4% mehr CUDA Kerne.(GA102 vs. AD102)
Bei 200% weniger verbrauch bitte.

bei -200% verbrauch müsste das Ding dann Strom erzeugen.
 
  • Gefällt mir
Reaktionen: narf_, Newbie_9000, GERmaximus und eine weitere Person
Mal sehen ob NVIDIA seinen VRAM Sparkurs weiter vortsetzt. Würde mich nicht wundern wenn die 4070 mit 10 GB und die 4080 mit 12 GB kommt.
 
cele schrieb:
Angenommen in D zocken abends 1 Million gleichzeitig mit 800 Watt Graka + 300 Watt System.
Macht 1100 Megawatt oder über 200 große Windkraftanlagen auf Vollast.
Ich will abends aber auch noch mein E Auto aufladen mit 11kW...🤪
 
  • Gefällt mir
Reaktionen: DrTimeWaste und gua*
GERmaximus schrieb:
4090 24gb
4080ti 20gb
4080 16gb
4070 12gb
4090 und 4080/Ti nutzen den GA102. Demnach gibt es zwei Möglichkeiten:
4090: 24 GB
4080/Ti: 12 GB
4070: 8/10 GB

Oder:
4090: 32 GB
4080/Ti: 16 GB
4070: 8/10/12 GB
 
  • Gefällt mir
Reaktionen: Vitec
Tiimati schrieb:
Den nächsten Satz gelesen?

und? Naturgesetze hin oder her. Das ist etwas was wir und jetzt noch nicht vorstellen können. Früher hieß es mal die Erde wäre flach, dann hieß es niemand kann schneller fliegen als der Schall

Wie wäre es wenn man Kupfer durch Supraleiter ersetzt und statt Silizium Diamant als Trägermaterial?
 
Ich finde es irgendwie irritierend, dass die erste, nach einer Wissenschaftlerin benannte Nvidia-GPU, deren Vornamen nutzt. Diese Inkonsistenz verursacht Stirnrunzeln. Der Gebrauch von Vornamen ist sonst eher in der Kunst üblich - allerdings ist da dort wiederum eine sehr hohe "Auszeichnung". (Bedeutet: Immer nur der bedeutendste Künstler, der diesen Vornamen trägt.)

Die GPU hätte auch einfach "Lovelace" mit Namensschema "GL10x" heißen können.
 
hmmm, starkes update für AD102 und AD103 - AD104 mit einem, wie ich sagen würde normalen Zuwachs, AD106 mit einem "na ja" aber AD107 ziemlich enttäuschend!
Ich glaube hier hat jemand Angst das die Masse der Full-HD Gamer nicht mehr Mittelklasse kaufen würde wenn man diese Karten zu stark macht.
Da kommen gleich weitere Befürchtungen hoch, dass man diese ebenfalls beim Speicher hart beschneiden könnte - sozusagen als Entscheidungshilfe.
Ich fürchte die Versionen mit 4 / 6 / 8 GB wird es auch weiterhin geben. Könnte sogar einen Rückschritt bei der Stufe der 3060 --> 4060 bei der Speicherausstattung geben!
 
Irgendwie ergeben die Gerüchte so für mich keinen Sinn. Von Samsungs 8nm auf TSMC 5nm ist der Sprung sehr groß, das sind eigentlich 2 komplette Nodes. Dazu kommt, dass TSMC Chip sich tendenziell besser takten lassen, ohne die Brechstange rauszuholen. Dass es keine 3090Ti gibt, hat ja seine Gründe.

Nun soll der TSMC Chip trotzdem 450W und mehr verbrauchen? In der Vergangenheit hat NV ~50% mehr Leistung bei gleichem Verbrauch aus einem Node-Shrink geholt. Natürlich kamen da noch Architekturverbesserungen zu, aber ich kann mir nicht vorstellen, dass man dieses mal nicht versuchen würde, die Auslastung der Shader zu erhöhen. Nach dieser Logik wären 125% Mehrleistung realistisch, und die 80% die die Shaderzahl impliziert sollten eigentlich eher am unteren Ende der Erwartung liegen.

Da macht es für mich keinen Sinn, dass der Verbrauch plötzlich nochmal um über 100W ansteigen soll, um diese Mehrleistung (80% geistern ja schon länger herum) zu realisieren. Eher das Gegenteil wäre zu erwarten, 80% bei unter 300 Watt.
Bin mal gespannt woher dieser enorme Mehrverbrauch kommt, denn die Gerüchteküche ist sich was das angeht ja ziemlich einig. Spendiert NV eine massive Steigerung an RT Cores? Wird der Speicher genau so viel verbrauchen wie die GPU?
 
  • Gefällt mir
Reaktionen: CaptainPiett
polyphase schrieb:
Das grafikintensivste Game aktuell bei mir ist Witcher 3, da ist aber auch die Story und das Gameplay verdammt gut.
CP 2077, Dying Light und God of War sind auch sehr gut, aber wenn man nur mit Scheuklappen durch die Gegend läuft...

Thanok schrieb:
Dass es keine 3090Ti gibt, hat ja seine Gründe.
Angeblich macht der VRAM Probleme. Was das mit Samsungs 8nm Node zutun haben soll, ist mir schleierhaft.

Thanok schrieb:
Nun soll der TSMC Chip trotzdem 450W und mehr verbrauchen?
Der Verbrauch steigt um ~22% und die Leistung um 80-150%. Was ist daran so abwegig, wenn man bedenkt, dass alleine die Anzahl der Shader schon verdoppelt wird?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ThirdLife und Newbie_9000
owned139 schrieb:
Angeblich macht der VRAM Probleme. Was das mit Samsungs 8NM Node zutun haben soll, ist mir schleierhaft.
Angeblich bekommt man nicht genug Chips hin, die die benötigten Taktraten zuverlässig schaffen ohne direkt zu verglühen. Außerdem ist wohl die Stromversorgung bei "günstigen" Modellen ein großes Problem. Falls eine 3090Ti auf den Markt kommt, dann eher Modelle wie die Kingpin, die auch 800W Verbrauch durch die SpaWas decken könnte.

Samsungs Prozess skaliert ab einem gewissen Punkt nur noch sehr schlecht mit der Spannung. Ja, das ist auch bei TSMC so, allerdings kommt diese "Wand" bei TSMC deutlich später, wodurch TSMC Chips mehr Luft nach oben haben und sich daher besser übertakten lassen. Die 3000er Reihe ist bei vielen Modellen schon an dieser Grenze, bzw. minimal darüber hinaus. Die 3090Ti geht dann tief in das kritische Gebiet rein, und da kriegt Samsung einfach nicht die Qualität hin, die es für den Chip braucht.

Das sieht man ja schön, wenn man sich die Verbräuche gegenüber der Mehrleistung anschaut. 30% mehr Verbrauch für 50% mehr Leistung bei besserer Fertigung spricht entweder für eine miserable Architektur, eine schlechte Fertigung, oder aber einem Betriebspunkt weit vom Sweet-Spot entfernt. Für letzteres spricht, dass man mit leichten Takteinbußen die Verbräuche von Ampere schnell auf das Niveau der Vorgänger bringen kann, und die Effizienz massiv nach oben geht.
Ampere fühlt sich so an wie Vega, eine Architektur die zur Grenze gepusht wurde, nur um konkurrenzfähig zu sein. Wenn man sie etwas von der Grenze wegbringt, schaut sie auf einmal gar nicht so schlecht aus.
 
Zurück
Oben