News Blackwell-Nachfolger: Nvidia gibt Ausblick auf Rubin (Ultra) und Feynman

Man muss Nvidia neidlos zugestehen, dass sie ihre Wette auf die KI konsequent und mit Nachdruck durchziehen und nicht nachlassen.

Die Nachfrage nach ihren sündhaft teuren Produkten gibt ihnen Recht und ich würde im Moment auch nicht unbedingt gegen Nvidia wetten wollen.

Schon beachtlich welchen Vorsprung sie in diesem Bereich mittlerweile haben. Das muss man anerkennen.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Zarlak und SweetOhm
Werde glaub noch ein "paar" NV Aktien nach ordern tun ... :freaky:
 
shortex schrieb:
Der erste Impuls, ja das ist echt krass und der Preis wird krasser....
Und allein schon der stromverbrauch😂 bin gespannt ob nicht endlich mal ein extra gehäuse kommt für die karten.
 
Eins ist sicher, der T800 wird auf ARM setzen.
 
  • Gefällt mir
Reaktionen: f00bar, Nekkepenn, LamaMitHut und eine weitere Person
KillerGER87 schrieb:
Das wirst du in den kommenden Jahren kaum noch sehen. Die Fertigungen geben es einfach nicht mehr her. Ab jetzt gibt es mehr Leistung quasi nur noch durch Architektur Fortschritte oder Mehrverbrauch.
Sollte man dann nicht überlegen wie NVIDIA dieses Gigantische Strommenge die für Ihre „noch“ (ja ich bleibe dabei die Welt würde auch ohne KI funktionieren) Sinnlosen Produkte benötigt wird irgendwie kompensiert.
Alle reden von Klimawandel und hier wird rausgehauen was geht und alle schreien ja!
 
  • Gefällt mir
Reaktionen: Ichthys und mKstan
SVΞN schrieb:
Man muss Nvidia neidlos zugestehen, dass sie ihre Wette auf die KI konsequent und mit Nachdruck durchziehen und nicht nachlassen.

Die Nachfrage nach ihren sündhaft teuren Produkten gibt ihnen Recht und ich würde im Moment auch nicht unbedingt gegen Nvidia wetten wollen.

Schon beachtlich welchen Vorsprung sie in diesem Bereich mittlerweile haben. Das muss man anerkennen.
Und nicht nur Hardware sondern auch Software. Die sind gerade dran die ganzen Compute libraries dich AI libraries als dropin replacement zu ersetzen, aufbauend auf cuda.
Die fressen sich direkt fest überall.
Ergänzung ()

Rickmer schrieb:
Und wir Gamer werden vermutlich kaum bis garnicht mehr VRAM erhalten. Wer will mit mir wetten, dass wir nächste Generation bei 32GB verbleiben?

600kW pro Rack... wie viel Durchfluss braucht man da, wenn man sich auf 10K Temperaturdifferenz ein- und ausgehend beschränkt?
32gb reichen doch noch ewig, selbst die 24gb vorher wäre ich bei Gaming noch an keinen limitierenden Faktor gekommen.

Das Data Center könnte man ja direkt an die fernwärme anschließen ;-)
 
Ich frage mich ja eher, wo Nvidia so landen würde, wenn sie sich mit Apple SoC anlegen würden. Die Teile hier runter skaliert in der selben Fertigung klingen nicht schlecht, kommt aber auch darauf an wie gut das skaliert.

Aber die selbe Fertigung wird wohl nicht drin sein können, Apple kauft ja die komplette Kapazität bei TSMC und hat damit einen riesigen Vorteil bei der Effizienz. Sollte Intel sich da irgendwie mit den eigenen Fabs auch nur in die Nähe manövrieren, könnte es auch für AMD eng werden. Den Preiskrieg mit Apple um die Top Notch Fertigung könnten sie nicht gewinnen.

Fighter1993 schrieb:
Alle reden von Klimawandel und hier wird rausgehauen was geht und alle schreien ja!
Sagt ja niemand, dass Rechenzentren sich nicht ans Fernwärmenetz koppeln könnten um mit der Abwärme ein paar Kosten zu decken. Die Umwandlung vom Strom wird dann leider nur 1:1 sein aber immerhin.
 
Diese Gigawatts sehe ich zwar auch kritisch an, aber stellt mal vor, durch diese Neue KI mit 10 hoch 100 Tokens wird es möglich sein neue Entdeckungen in Bereichen Physik, Medizin oder Technik zu machen?
Dann wären diese Gigawatts sehr gut "verbraten" - quasi für den guten Zweck ;)

Quasi die Menschheit würde in der Entwicklung eine Stufe höher kommen.
 
Die USA werden sehr bald Strompreiserhöhungen erleben die sich gewaschen haben.
Denn, wenn die KI-Farmen das meiste pro Megawattstunden Energie bringen, dann werden diese auch bevorzugt beliefert und das für höhere Preise!

Der US-Bürger kann sich schon mal warm anziehen!
 
Fighter1993 schrieb:
Sollte man dann nicht überlegen wie NVIDIA dieses Gigantische Strommenge die für Ihre „noch“ (ja ich bleibe dabei die Welt würde auch ohne KI funktionieren) Sinnlosen Produkte benötigt wird irgendwie kompensiert.
Alle reden von Klimawandel und hier wird rausgehauen was geht und alle schreien ja!
Der Betreiber wäre für die Kompensation zuständig, oder nicht?
Der Hersteller kompensiert bestenfalls das CO2 das bei der Produktion anfällt.
 
Absolut gigantisch wie schnell sich die Technik in dem Bereich entwickelt. Da werden Chips designed und produziert, von denen man vor ein paar Jahren nur geträumt hat.

Ich hoffe von der Entwicklung kommt letztendlich auch was bei der Consumer-Hardware an. Bezweifle ich aber, da im Datacenter weitaus höhere Margen drin sind.

Zumindest 64Gb HBM auf den nächsten GPUs oder Konsolen wäre nett :) man darf noch träumen..
 
Das erste was mir dazu eingefallen ist: "Möchte Nvidia SkyNet bauen und aktivieren?"
Es ist schon beeindruckend was Nvidia dort entwickelt hat.
 
Quantität schrieb:
So what? Energie ist mit all den neuen Atomkraftwerken genug da, Effizienz ist was für demokratische Apokalyptiker und schließlich wird AI die Welt retten, ist doch geil diese Zukunft oder nicht? :alien_alt:
:D
Maxminator schrieb:
Die USA werden sehr bald Strompreiserhöhungen erleben die sich gewaschen haben.
Denn, wenn die KI-Farmen das meiste pro Megawattstunden Energie bringen, dann werden diese auch bevorzugt beliefert und das für höhere Preise!

Der US-Bürger kann sich schon mal warm anziehen!
Genau das. Da drüben haben zu viele einfach noch nicht verstanden, dass Atomstrom vor allen Dingen eines ist: Verdammt teuer und dementsprechend auch nicht in der Lage, die Leistungsaufnahmeprobleme zu lösen.
Ergänzung ()

Sebbi schrieb:
aber die Skalierung dazu stimmt nicht und die Effizenz sinkt eher als das die steigt - Fortschritt durch Mehrverbrauch und Ineffizenz nennt man das eher
Was vor allen Dingen bei den letzten Evolutionen massiv steigt ist die Standflächeneffizienz, die Integrationsdichte und die Beschleunigung bestimmter (sprich: vereinfachter) Berechnungen. Wenn man es will wird dadurch auch die Einbindung in Fernwärmenetze einfacher.
 
Der Text wirft munter GPUs, Chips, Teile von Chips, zusammengeklebte Chips aus Chips, Racks und was weis ich noch alles durcheinander. Es ist entweder unverständlich oder ich bin noch nicht munter.
 
  • Gefällt mir
Reaktionen: Kantonspital und Kadett_Pirx
Atomstrom ist sowieso eine sinnlose Lösung für kurz- bis mittelfristig entstehenden Mehrverbrauch, da neue Reaktoren Bauzeiten von Jahrzehnten haben. In den USA wäre man wahrscheinlich mit Solar + Pufferspeicher am besten bedient, die haben ja riesige Landstriche die sehr konstant Sonne sehen
 
Mich interessiert eigentlich nur ob wir Rubin in einer RTX 6090 sehen werden.
 
Ardadamarda schrieb:
Ohne Witz, das war auch mein erster Gedanke.

Diese Gigafactories können dann wohl selbstständig Terminator bauen 🤣
Witzig, hab gestern noch 1-4 guckt :D
Und selbst meiner 13 Jährigen Tochter fiel auf: "Als die Filme gemacht wurden gabs das alles noch nicht. Heute schon. Terminator sagt die Zukunft voraus " xD
 
  • Gefällt mir
Reaktionen: Gepi87 und Ichthys
Sollten vielleicht eine Partnerschaft mit dem Mini-Atomkraftwerk-Startup von Bill Gates anstreben ;)
 
Zurück
Oben