News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

@SV3N was ist den mit dem Nvidia Hack? Wollt ihr da nicht mal Berichten?
 
  • Gefällt mir
Reaktionen: Pchelp88, guzzisti und Apple ][
Es nahen die Zeiten, wenn man beim Spielen die ganze RGB-Beleuchtung im Rechner abschalten muß, um genug Stromreserven für die Grafikkarte zu haben.
 
  • Gefällt mir
Reaktionen: StevenB, guzzisti, MicHannes und 2 andere
Spiele grakas in der Leistungsaufnahme begrenzen. Für computing und workstations keine Begrenzung.
 
Ich weiß noch als ich vom Phenom II auf den Xeon umgestiegen bin und begeistert war, dass gleich einige Watt weniger gezogen wurden. Mittlerweile geht der Verbrauch ja stetig hoch. Bei CPU und GPU. Bisher stand nvidia bei mir immer für Effizienz (und Knickrigkeit beim VRAM). Hoffentlich sind die Karten im Mittelfeld dann wirklich nicht so stromhungrig.
Wenn man bedenkt, dass ein Staubsauger nicht mehr als 900 Watt verbrauchen darf und der ja vielleicht nur maximal eine Stunde die Woche an ist.
 
  • Gefällt mir
Reaktionen: Viper816
Schaut so aus als werde ich die diesjährige Generation überspringen, aber was alle Komponenten angeht...
Nicht weil ich irgendwann von sinkenden Preisen ausgehe sondern vlt. verschieben sich meine Prioritäten einfach woanders hin. Urlaub in der Post-Corona-Zeit wäre ja auch mal wieder was tolles :).
 
Grade meinen Lottoschein geprüft.......... Die RX580 muss noch ne Weile bleiben.
 
  • Gefällt mir
Reaktionen: Mr. Rift, Pchelp88, Necrosly und 7 andere
Ich glaube bei Grafikkarten Themen sollte hier im Artikel einfach nichts mehr zum Thema Leistungsaufnahme gesagt werden. Endet ansonsten immer darin, dass sich mindestens 2/3 aller Kommentare darauf bezieht.

Topic:

Wird bei AMD und Nvidia eine spannende Generation. Beide dürften den größten Leistungssprung zwischen zwei Generationen seit sehr vielen Jahren machen.

Ich muss mal gucken, ob es eine Rote oder Grüne wird oder ob ich dieses Jahr einfach aussetze und eine Generation überspringe. Hängt am Ende von der wirklichen Mehrleistung ab. Gibt auch zu viele andere Dinge, in die man gut Geld investieren kann. Von daher mal abwarten und überraschen lassen.
 
  • Gefällt mir
Reaktionen: Newbie_9000, Onkel Föhn, S.Kara und eine weitere Person
Kann mir die 600 Watt aufwärts auch nicht so richtig vorstellen, von 800 und mehr ganz zu schweigen. Grundsätzlich stört mich ein hoher Stromverbrauch nicht, die daraus resultierenden folgen wie preis, Abwärme und die damit verbundene Lautstärke hingegen schon. Wenn selbst die 4060 300 Watt und mehr zieht überspringe ich ebenfalls, und suche ne gebrauchte 3000er.
 
Draco Nobilis schrieb:
Leider muss man sagen, das die Zeichen für eine breite Verfügbarkeit außerhalb des Mining Sektors sehr schlecht stehen. Jedenfalls sehe ich keine positiven.

Irgendwie werde auch ich das Gefühl nicht los, dass nach der "Ampere"-Erfahrung nun Ada aka Lovelace vor allem mit dem Fokus Mining entwickelt wurde. Aber ist natürlich nur ein Gefühl und natürlich die jahrelange Erfahrung mit nvidia.:rolleyes:

Schliesslich wird Ampere laut nvidia Buchhaltung ja vor allem an Gamer verkauft, was aber schon vielfach wiederlegt worden ist.

PS: Vieleicht solltet ihr noch erwähnen, dass die Info aus dem nvidia-Hack stammt
 
Zuletzt bearbeitet: (PS)
  • Gefällt mir
Reaktionen: Onkel Föhn und NDschambar
600W Leistungsaufnahme? Benutzen die kein kleineres Fertigungsverfahren?
Das ist mir echt zu blöd. Die Konsolen werden wieder viel interessanter...
 
  • Gefällt mir
Reaktionen: guzzisti, Daggy820, MicHannes und eine weitere Person
Ich werde diese Generation auslassen. Habe meine RTX 3080 erst 1 Jahr. Die würd noch 2 Jahre gefahren. Verbrach Der nächsten Generation ist mir viel zu viel.
 
Topflappen schrieb:
Model Brechstange wird das vermutlich nicht werden, aber brachial ist die kolportierte Leitung allemal.
Mit 600W kann ich mein ganzes Haus locker warm halten, über 150m² auf kuschelige 23°C.
Geschichten aus dem Paulanergarten ? :D
Ich kann mit meiner 3080 Ti und 450W + 150W CPU nichtmal mein 60qm Wohnzimmer heizen.

Anderes Universum ? Die Physik scheint bei dir zumindest komplett anders zu funktionieren.

CiX schrieb:
Wenn selbst die 4060 300 Watt und mehr zieht überspringe ich ebenfalls, und suche ne gebrauchte 3000er.
Jo klar. Und holst dir eine dann gleich schnelle 3080 die 320W+ braucht ? Klingt logisch.

Wo haben alle immer nur ihre Zahlen her ? Da ist die Rede von Server-Arch und 850W und alle mutmassen dass eine 4050 auch gleich drölfzig Watt zieht. Eieiei.
 
  • Gefällt mir
Reaktionen: Newbie_9000, fox40phil, Kenshin_01 und 5 andere
2020 erst von 520W auf 750W für 200 Taler gewechselt, da die 2080Ti in Leistungsspitzen das erste mal ein Seasonic von mir überlastet hat. Das obwohl ich nie mehr als 440W am Messgerät gesehen habe! Nun ja … 750W wird für die nächsten 5-6 Jahre hier definitiv bleiben und höher gehe ich auch 100% nicht. Ist doch bekloppt. Bei dem Verbrauch kann ich nicht mehr in Ruhe meinen Spaß am PC haben, da es einfach zu heiß werden würde! Ich habe schon bei der 3080 vor der Veröffentlichung zu mir gesagt: die Mehrleistung von 2080 -> 3080 erkauft sich nVidia nur mit Mehrleistung bei der Stromaufnahme und so war bzw ist es ja auch. Die Zeiten wo die Verkleinerung der Strukturbreite eine Leistungssteigerung darstellt scheinen vollends vorbei?!
 
Ich kann mir nicht vorstellen das diese Angaben zum Verbrauch die Dauerleistung der Consumer-GPU darstellen. Das wäre schon sehr extrem und pornös. Was ich mir vorstellen kann ist das Nvidia an die PSU-Hersteller ran getreten ist und denen im Zusammenhang mit dem neuen PCI-Stecker mal heimgeleuchtet hat mit welchen Lastspitzen man da zu rechnen hat. Das könnte geleakt worden sein und jetzt die Runde machen. Aber schauen wir mal. Nur weil ich es mir nicht vorstellen kann heißt das ja nicht das es ausgeschlossen ist. Ich (und sicher viele andere) konnte mir bis vor wenigen Tagen so einiges nicht vorstellen.
 
  • Gefällt mir
Reaktionen: Coeckchen und NDschambar
MeisterOek schrieb:
Das erste Mal, dass eine Grafikkarte nach meinem Netzteil auswählen würde. Habe erst vor einem Jahr ein 850Watt Netzteil für die 3000er Serie gekauft (ganz schön optimistisch, da nicht bekommen für UVP) und möchte nicht wieder ein neues kaufen. Also ist die 4090 dann wohl schon ausgeschlossen.
Denke die xx90er lohnen sich eh nie. Dann lieber die xx70er für die Hälfte kaufen und nach zwei Generationen nochmal für den Rest ne neue xx70er aufrüsten die dann schneller und moderner ist.

Hoffe nur dass Nvidia in Zukunft beim Speicher nicht so geizig ist. 12-16Gb für ne xx70er sollten schon drin sein. Die xx80er dann mit 16Gb sowie die xx60er mit 8-12Gb und alles ist gut.

Glaube aber eh nicht dass die 850W Wirklichkeit werden. 450-500W TDP denke ich sollte für normale Karten das Maximum sein - Mehr bekommt ja keiner oder WaKü oder noch extremere Maßnahmen gekühlt. Und die Heizung kannst Dir auch sparen...
 
Ich bin aus Gründen des Umweltschutzes nicht für derart hohe Wattzahlen beim Verbrauch von Grafikkarten. Im Gegenteil, mein nächster Laptop (Thinkpad T16) wird wohl ein AMD Ryzen 6850U mit max. 28 Watt TDP und iGPU sein (Radeon 680M). Der kann alles was ich will und läßt sich mit LPDDR5 6?00 bestücken, was ebenfalls stromsparend ist. Ich will den Computer auch notfalls mit einer eigenen, noch zu bauenden Solarstromanlage betreiben können, und der scheint mir dafür optimal geeignet zu sein. Externe Grafikkarten mit 600 und mehr Watt sind m.E. nicht zukunftsgerichtet.:cheerlead:
 
  • Gefällt mir
Reaktionen: guzzisti, floTTes und fox40phil
Silencium schrieb:
Ich habe schon bei der 3080 vor der Veröffentlichung zu mir gesagt: die Mehrleistung von 2080 -> 3080 erkauft sich nVidia nur mit Mehrleistung bei der Stromaufnahme und so war bzw ist es ja auch. Die Zeiten wo die Verkleinerung der Strukturbreite eine Leistungssteigerung darstellt scheinen vollends vorbei?!
Und auch das stimmt (leider?) nicht. Die 3080 ist mit ein bisschen optimieren sowohl schneller als auch sparsamer als die 2080 Ti. Dass nVidia hier mit der Brechstange noch ein paar Prozent zusätzlich holt ist unerheblich.

Auch ist ja bekannt dass Samsungs 8nm Node nicht besonders prickelnd läuft. Gut zu sehen anhand der 6916 Shader A100er Karte, die ist nochmal knapp 32% fetter als ne 3090, hat 40GB HBM2 Speicher und zieht bei 1410 Mhz Takt nur 250W - basiert eben auf TSMC 7.

Jetzt lass mal TSMC 5 ran und du siehst wie sich das alles schnell relativiert. Die Zeiten von Leistungssteigerung sind noch lange nicht vorbei, aber man kann eben nicht erwarten bei jedem Node-Step 50% mehr Leistung und 50% mehr Effizienz zu kriegen. Irgendwo muss man einen Tradeoff machen ob man will oder nicht.
 
  • Gefällt mir
Reaktionen: Newbie_9000
kingkohn schrieb:
600W Leistungsaufnahme? Benutzen die kein kleineres Fertigungsverfahren?
Das ist mir echt zu blöd. Die Konsolen werden wieder viel interessanter...
Wenn dir die Konsolensettings ausreichen, brauchst du kein Highend-Modell mit 600W Leistungsaufnahme.

Da wird vermutlich eine RTX 4050 oder 4050 Ti vollkommen ausreichen.
 
  • Gefällt mir
Reaktionen: Vendetta192, Onkel Föhn und owned139
Matthias B. V. schrieb:
Denke die xx90er lohnen sich eh nie. Dann lieber die xx70er für die Hälfte kaufen und nach zwei Generationen nochmal für den Rest ne neue xx70er aufrüsten die dann schneller und moderner ist.

Ich kauf alle 2-3 Generationen die 80er und das hat bisher auch immer sehr gut funktioniert. Nach meiner 1080 war eigentlich die 3080 dran.....aber ja, ich denke nicht, dass die 4080 non-Ti so viel verbrauchen wird.
 
  • Gefällt mir
Reaktionen: Matthias B. V.
Zurück
Oben