News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

cele schrieb:
Hast du ein Passivhaus mit 1 Meter Dämmung und ohne Fenster?!

Nein, Kein Passivhaus, aber Fenster. Ist ein KFW40 Haus, 17,3kW/m²/a, wonach mein EFH mit 300W rein rechnerisch auf 20°C kommt. Deswegen habe ich auch einen 500W Heizlüfter der das Haus auf 22°C bekommt. Das habe ich vor 3 Jahren getestet als die Heizung ausgefallen ist, mit dem Ergebnis den Lüfter nicht 24h bei voller Leistung zu betreiben, in einer Sauna muss ich wirklich nicht leben.
 
  • Gefällt mir
Reaktionen: PegasusHunter und [wege]mini
Ich bin mit meiner RTX 2080 bisher noch voll zu Frieden, und so lange diese die Spiele in 190x1080 flüssig mit maximalen Details abspielen kann wird sich daran nichts ändern. So eine 4080 klingt sehr verlockend, aber warum neu kaufen, wenn es die "alte" tut? Auch sollten wir über 500 Watt gehen werde ich mir schon lange keine Karte kaufen oder diese limitieren, denn Strom in DE ist teuer.
 
ThirdLife schrieb:
Auch ist ja bekannt dass Samsungs 8nm Node nicht besonders prickelnd läuft. Gut zu sehen anhand der 6916 Shader A100er Karte, die ist nochmal knapp 32% fetter als ne 3090, hat 40GB HBM2 Speicher und zieht bei 1410 Mhz Takt nur 250W - basiert eben auf TSMC 7.

Die A100 hat keine RT Einheiten, keine Displayengine und eben nur 1400 Mhz Takt. Der Grundtakt ohne Boost liegt gar bei weit unter 1000 Mhz. Das ist nun so gar nicht mit der Gamingkarte vergleichbar.
TSMC 5NM Node ist vielleicht 25-40% sparsamer als Samsung 8NM aber das war es auch.
 
Topflappen schrieb:
Nein, Kein Passivhaus, aber Fenster.

Die neu gebauten Häuser sind wirklich geil und mMn wäre es ein Verbrechen an der Zukunft unserer nachfolgenden Generationen, diese neuen Häuser anders zu bauen.

Ich habe hier (als Beispiel) aber ein Jugendstilhaus von 1906, welches unter Denkmalschutz steht. Gott sei Dank, haben die Staatsdiener kein Denkmalpflege Haus daraus gemacht. Das könnte kein Mieter bezahlen, wenn man mit aktuellen Maßstäben, dieses versuchen würde zu "dämmen".

Wenn es einfach wäre, wäre es längst erledigt und wir würden uns nicht darüber unterhalten.

btt:

Die Abwärme soll sinnvoll verwendet werden und durch das Wissen, welches in den letzten Jahrzehnten angehäuft wurde, kann man auch vernünftig damit umgehen. Reflexartig immer nur die hohen Zahlen zu bejammern, bringt niemanden weiter.

Wenn meine Mieter in ihrer Wohnung mehrere Rechner stehen haben und selbst im Winter die Fenster öffnen, damit bei meinen Wohnungen kein Schimmel entsteht, ist das nicht mein Problem.

So ein "Steinzeit" Deckenfluter verbrauchte auch 800 Watt und davon laufen heute noch unglaublich viele. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Newbie_9000
[wege]mini schrieb:
Die neu gebauten Häuser sind wirklich geil und mMn wäre es ein Verbrechen an der Zukunft unserer nachfolgenden Generationen, diese neuen Häuser anders zu bauen

Nicht nur die neuen Häuser.
Unser Haus ist 2000 gebaut worden, hat schon damals sehr gute zweifachverglaste Fenster bekommen.
Schon damals mussten wir 16cm Dämmung aufbringen, heute wären es 18cm und schon bald sind es 21cm, was aber nicht mehr viel mehr bringt. Auch die neuen Fenster sind nur noch minimal besser.

Wir brauchen mit einer grossen Privatwohnung, einem Studio und zwei Ferienwohnungen nur 1500 L Öl im Jahr bei 700 Quadrahtmetern Nutzfläche, hoch in den Alpen, mit der ursprünglichen Ölheizung.
Es geht also nur sehr wenig Wärme raus, im Sommer kommt damit auch nur wenig Hitze hinein.
Auch die Schalldämmung ist dadurch sehr gut.
 
  • Gefällt mir
Reaktionen: [wege]mini
modena.ch schrieb:
Unser Haus ist 2000 gebaut worden

In den Zeiten, in denen ich rechne, ist ein 20 Jahre altes Haus immer noch neu.

Ich darf z.B. keine Dämmung von außen anbringen, da der Stuck an der Fassade unter Denkmalschutz steht.

Schön aber zu hören, dass man selbst im Jahr 2000 schon begriffen hatte, worum es in der Zukunft geht.

Es muss besser werden.

Beim Thema Rechenleistung jedoch sich immer darüber aufzuregen, warum es immer mehr wird, ergibt von meinem Standpunkt betrachtet keinen Sinn.

Mehr Leistung, mehr Verbrauch. Aber das Ziel ist immer, weniger zu verbrauchen, als der Zugewinn an Leistung ist.

200% mehr Leistung und dafür 100% mehr Verbrauch, klingt für mich sehr gut. Ich hätte auch gerne weniger Menschen, die immer und immer mehr wollen, das ist aber leider weltfremd.

mfg
 
  • Gefällt mir
Reaktionen: Newbie_9000
[wege]mini schrieb:
Die neu gebauten Häuser sind wirklich geil und mMn wäre es ein Verbrechen an der Zukunft unserer nachfolgenden Generationen, diese neuen Häuser anders zu bauen.

Du kannst dir nicht vorstellen wie blöd ich geschaut hatte, für die Zeiten wenn die Heizung nicht läuft so einen popeligen 500W Heizlüfter übergeben bekommen zu haben. Dieser geringe spezifische Energieverbrauch ist wirklich Wahnsinn, vorher habe ich für ein drittel der Fläche als Mietwohnung fast 290€ jeden Monat nur für die Heizung (ohne Warmwasser) bezahlt.
Jetzt mit allem und dazu noch auf 22,5°C eingestellt macht das mit Wärmepumpe mit unter 100€ im Monat. Dank Solarbatterie sehr wahrscheinlich sogar noch spürbar weniger.

Deswegen bin ich entschieden gegen 600W Grafikkarten, weil ich mit 300W jetzt schon in Unterhose spielen kann. Der kleinere Prozess sollte doch nicht für so was missbraucht werden, das ist ein Produkt dem sich die EU gerne annehmen lasen kann, und da vernünftige Verbrauchsobergrenzen festlegen sollte. Da kommt ganz sicher der Einwand, Privatsache -klar. Bleibt so am Ende jedem selbst überlassen diesen Schweinezyklus zu folgen.
 
  • Gefällt mir
Reaktionen: [wege]mini
modena.ch schrieb:
Die A100 hat keine RT Einheiten, keine Displayengine und eben nur 1400 Mhz Takt. Der Grundtakt ohne Boost liegt gar bei weit unter 1000 Mhz. Das ist nun so gar nicht mit der Gamingkarte vergleichbar.
TSMC 5NM Node ist vielleicht 25-40% sparsamer als Samsung 8NM aber das war es auch.
Jo, lass RT noch dazukommen und den Output, dennoch ist die Rohleistung massiv und das basierend auf TSMC 7 bei relativ moderatem Verbrauch.

Und 40% sparsamer bei gleichzeitigem Shaderanstieg von 80% ggü. einer 3080 Ti fürs Topmodell mit 9216 Shadern macht unterm Strich für mich immer noch nur +40% Verbrauch ggü. dem Gekreische das hier wieder abgeht. Da reden wir von 490 W für eine 4090 vs. 350W für ne 3090 aktuell und nicht von 850W Dauerpower.

Kommt jetzt halt noch drauf an wie sehr man an der Taktschraube dreht und wie effizient die 5er Node tatsächlich mit den GPUs ist, da könnte man dann in Richtung 600W gehen bei hohem Takt. Ich gehe davon aus, dass selbst wenn man die GPU auf 300W einbremst liegt man dennoch bei +50% Mehrleistung ggü. einer 3090.

Halb so wild, 95% der Menschen kaufen eh eine 4070 und darunter und die liegen nicht bei diesem Verbrauch sondern eher zwischen 200 und 300W. Wenn man dafür die Performance einer 3090 heute kriegt ist das doch alles prima.

Ist hier teilweise fast wie in Autoforen wo alle kreischen wenn ein neuer Veyron/Chiron etc. rauskommt und man dessen Spritverbrauch auf sich selbst bezieht und darüber abheult. Tut ja jeder so als ob man das haben müsse und keine anderen Möglichkeiten hätte.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Topflappen schrieb:
das ist ein Produkt dem sich die EU gerne annehmen lasen kann, und da vernünftige Verbrauchsobergrenzen festlegen sollte.

Wie ich schon mehrfach sagte (ich suche jetzt aber nicht nach eigenen Zitaten), wird in der Zukunft die maximale Stromaufnahme für Daddelkids, irgend wann, von irgend welchen Menschen begrenzt werden.

100 Watt Glühbirnen wurden verboten und die Zukunft für den Verbrauch von Halbleitern wird in die gleiche Richtung gehen.

Ob ich diese Entwicklung schlecht oder gut empfinde, ist total egal.

Die Käufer haben das Heft des Handelns jederzeit in der Hand und diese Menschen müssen verstehen, was sie machen.

Jeder einzelne muss begreifen, was er mit seiner Kaufentscheidung bewirkt.

Die Tatsache, dass diese neue Technik nur von Menschen benutzt oder auch missbraucht wird, muss jeder einzelne Mensch begreifen.

mfg
 
  • Gefällt mir
Reaktionen: guzzisti und Möhrenmensch
xexex schrieb:
Eine RTX 2080 hatte knapp 3000 CUDA Cores, die neuen Generation soll im Vollausbau 18500 mitbringen. Dich wundert es wenn die GPU dabei mehr Strom verbrauchen wird? Die Fertigung macht schon lange keine >50% Schritte bei der Energieeffizienz und dementsprechend steigt auch der Verbrauch.
meines wissens war der vollausbau der tu102 in der titan rtx mit ~4600 cores und das bei 280 watt.
ich wundere mich nicht dass "mehr" transistoren mehr strom verbrauchen, sondern dass die steigerungen des verbrauchs quasi als "gottgegeben" akzeptiert werden.

wenn man über die fertigung alleine keine großen einspaarungen mehr erreichen kann, wäre es zumindest angebracht darüber nachzudenken ob die formel "mehr-vom-gleichen" noch akzeptabel ist.

bitte nicht falsch verstehen; unterm strich haben sowohl nvidia als auch amd es mit den jetzigen generationen, trotz des höheren verbrauchs geschafft grob rund 30% mehr performance pro watt herauszuholen - der rest kam dadurch dass man schlicht mehr cores reingepackt hat und den höheren stromverbaucht akzeptiert hat - aber das ist doch kein rezept dass man jetzt mit generation weiterspinnen sollte.
ich weiß nicht ob es so toll ist, wenn man irgendwann die doppelte performance der jetzigen rx6000 und rtx3000 serien haben kann, diese in der perf-per-watt betrachtung 20-30% besser dastehen, dafür aber dann wirklich 600-800watt ziehen.
wie ich erwähnte, ist dass irgendwann auch ein problem der kühlung und der stromversorgung..
 
Zuletzt bearbeitet:
cypeak schrieb:
ich weiß nicht ob es so toll ist, wenn man irgendwann die doppelte performance der jetzigen rx6000 und rtx3000 serien haben kann, diese in der perf-per-watt betrachtung 20-30% besser dastehen, dafür aber dann wirklich 600-800watt ziehen.
wie ich erwähnte, ist dass irgendwann auch ein problem der kühlung und der stromversorgung...
Dann kauf doch eine 4060, dann hast du Performance für kleinen Strom! Was ist denn euer Problem? Kauft das was euch passt, aber verbietet doch nicht jedem anderen das zu kaufen was bei ihm individuell passt.

Ich kauf doch auch nicht einen 12900k, um mich dann zu beschweren, dass mein 160w Office Netzteil nicht genug Leistung bringt, der sowieso viel zu schnell für meine Office Programme ist und auch gar nicht in meinen Am4 Sockel passt.

Ich kauf mir doch auch nicht nen 65" Fernseher, und merke dann, dass er gar nicht in meine Vitrine aus Vorkriegszeiten passt.

Aber nur weil es bei mir nicht passt muss ich doch nicht meine Stimme erheben "das gehört verboten!", wo kommt denn diese Mentalität her? Wenn es danach geht haben wir demnächst nur noch 4 Kerner, weil auf denen auch alles läuft und was nicht läuft muss der softwareanbieter eben nachbessern... Weniger Kerne brauchen einfach weniger Energie!
 
  • Gefällt mir
Reaktionen: Lemiiker, ThirdLife und estros
Artikel-Update: Gerüchteküche liefert weitere Details zu GeForce RTX 4000
In der Zwischenzeit wurden weitere Details zu den Grafikprozessoren der GeForce-RTX-4000-Serie alias „Ada“ alias „Lovelace“ veröffentlicht.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Erstmals lässt sich damit ein direkter Vergleich zwischen den neuen Grafikprozessoren AD102, AD103, AD104, AD106 und AD107 und den Generationen Ampere und Turing ziehen.

[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]

Den jüngsten Gerüchten nach könnte die GeForce-RTX-4000-Serie im September dieses Jahres erscheinen und soll dann mit der Radeon-RX-7000-Serie auf Basis der RDNA-3-Architektur konkurrieren.
 
  • Gefällt mir
Reaktionen: [wege]mini
Für die Rechnerei ist es seit Ampere relativ einfach finde ich, da alle Karten immer im Powerlimit hängen braucht man nur die Effiziensteigerungen von Samsung 8nm auf TSMC N5 und erwartete µArch-Verbesserungen zu addieren und dann z.B. von der RTX 3090 350W hochzurechnen auf evtl 600W TDP.
Also bei der Effizienz sind mindestens 30% zu erwarten und von 350W auf 600W sind nochmal 70%,
so ist doppelte Performance möglich ... theoretisch. ;)
 
  • Gefällt mir
Reaktionen: Yesman9277
Dank dem Hack kennt ihr jetzt die neue Architektur Ada.😆
 
  • Gefällt mir
Reaktionen: Yesman9277
3,5 Slot Luftkkühler und 1,2kg beim Referenzedesign und 1,5kg+ bei Customs, ich sehe es schon kommen...
 
Den jüngsten Gerüchten nach könnte die GeForce-RTX-4000-Serie im September dieses Jahres erscheinen und soll dann mit der Radeon-RX-6000-Serie auf Basis der RDNA-3-Architektur konkurrieren.
Ich nehme an hier ist die RX-7000 Serie gemeint. Die RX-6000 Serie gibt es schon längst.
 
Tawheed schrieb:
Spiele grakas in der Leistungsaufnahme begrenzen. Für computing und workstations keine Begrenzung.
Weil einige Schweine gleicher sind als andere?
Oktaederfeld schrieb:
In Zeiten des Klimawandels für mich ein Schritt in die falsche Richtung. Überall wird versucht den Stromverbrauch zu senken wo es nur geht. Bei Kühlschränken, Waschmaschinen, Staubsaugern (max. 900W per EU-Gesetz) usw. ist das Energielabel mit das wichtigste. Bei Autos wird auch auf CO2 und Spritverbrauch geschaut. Beim Computer ist das dann wieder alles egal, hauptsache mehr Leistung. :kotz:
Das EU Diktat (617-2013) gibt es schon lange. Auch wenn da unfähige Amateure am Werk waren kann man wohl sehr wenig sinnvolles gegen stetig effizientere Chips verordnen. Realitätsfern sinkende Grenzen, wie im Automobilbau, kann man kaum vorschreiben, da man es ja nicht ins Verbot laufen lassen kann/will wie bei den Verbrennern.

Deine Beispiele sind zudem eigentlich meine, weil du sie dir nicht genau angesehen hast.
  • Kühlschränke verbrauchen pro Liter Nutzraum immer weniger, werden also als effizienter angegeben. Sie werden aber immer größer-> die insgesamte Verbrauchsentwicklung ist also eher so wie bei den Chips
  • Staubsauger haben auch früher keine 1700 W Dauerlast verbraucht, das war nur die Spitze die gezogen werden konnte.
  • Waschmaschinen werden auch immer größer, wer sie nicht voll macht hat nichts von der Effizienzsteigerung.

Der Computer ist so ziemlich das einzige Feld bei welchem man die Effizienzsteigerung fast verlustfrei nutzen kann, wenn man nur die alte Leistung abruft.
 
  • Gefällt mir
Reaktionen: Newbie_9000, ThirdLife und Martinipi
Der AD 102 legt halt bei den Shadern ordentlich drauf, da könnte ich mir evtl. auch ein 512bit SI vorstellen, was dann mit kaum vorstellbaren 32GB und der reinen Rohleistung, die Energieaufnahme erklären könnte.
Wenn man hier allerdings eine kleinere 4090 ableitet und mit 448bit 28GB VRAM rausbringt, dürfte das dann vielleicht noch im 500W Berreich landen für Consumer.
Wenn meine Vermutung stimmt, würde das zumindest die 800W beim Vollausbau erklären und dort dann aber auch angemessen der Leistung ausfallen.

Interessanter werden hier die 4070/4080, die mit denselben Specs wie aktuell die 3080/3080Ti/3090 rauskommen könnten und damit diese ablösen. Beim VRAM legt Nvidia hier hoffentlich gleich mit 24GB bei der 4080 und 20Gb bei der 4070 los.
Und wenn NV hier wirklich mal überdimensioniert Vram oben anbieten wird dürfte das auch ein paar Watt benötigen, wie man an 3090 vs. 3080Ti sieht.
Am interessantesten dürfte hier wie immer die Mittelklasse werden- 4060/4060TI mit 16Gb vram.
Unten rum dann noch ne 3050TI mit 12GB und ne 3050 mit 8Gb und fertig NV, mehr braucht es nicht.

Dazu gibt es ja noch potential bei den RT Kernen mit Gen 3.0? und Tensor Gen 4.0?

Sehe da auch ein interessantes technisches Duell zwischen der RTX 2060S(TU106) und einer AD106, was den Leistungsgewinn und Effizienz über 2 Generationen angeht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Vitec schrieb:
Und wenn man die Grakas in Zukunft 4 Slot breit macht und einen 80mm Lüfter vorne Reinblasen lässt und der Restliche Kühlblock dann die Luft hinten rausbläst. Ist die Frage, ob sich die Hersteller trauen 4 Slots nur mit der Grafikkarte zu belegen und wie die Grafikkarte das Gewicht stemmen soll ;)

Gigabyte hatte mal eine 680 mit fünf 40mm-Lüftern in Pull-Anordnung:


Bezüglich der Architektur sollte man vielleicht erwähnen, dass es da so eine Schmuddelfilmdarstellerin (heute wäre die Bezeichnung eher Onlyfans/Bornhap Creator ;)) namens Linda Lovelace (bürgerlich Boreman) gab, der Name war nVidia dann doch zu heiß, dafür wirds dann mit >400W TGP schon heiß genug. :evillol:
 
  • Gefällt mir
Reaktionen: Novasun und cypeak
Zurück
Oben