News Nvidia-Roadmap: 2026 kommen Rubin mit HBM4 und die Vera CPU

Icke-ffm schrieb:
naja erinnert mich an Intels Tick/Tock nur alle 2Jahre was wirklich neues
war ja nicht die schlechteste idee und hat intel fest im sattel gehalten - bis man es eben etwas zu locker hat schleifen lassen hat und nur noch "das mindeste" ablieferte.
das gepaart mit den problemen bei der entwicklung/forschung der fertigungsprozesse hat intel erst in die heutige schwierige lage gebracht....
Ergänzung ()

Jaffech schrieb:
So eine 5095Ti mit voll aktiviertem GB200... Lecker, brauch ich 5 Jahre keine GPU mehr :evillol:
was immer vergessen wird, ist auch der preis für spitzentechnologie.
natürlich kann nvidia da das beste herausholen und im besten fertigungsverfahren arbeiten und das maximale an speicher drauflöten - nur dann kostet so eine spitzenkarte keine 2000€ sondern eher 6000€ oder 8000€ (oder gar mehr).
das ist dann zwar interessant um die performancekrone im abo zu buchen und sicherlich einige high roller abzuholen, denen die kosten weitestgehend egal sind, aber die musik spielt 1-2 marktsegmente darunter; da wo der asp und die stückzahl am besten gewinn abwerfen, und das ist meistens das was wir als "massenmarkt" bezeichnen...
 
Zuletzt bearbeitet:
Manches ist halt auch eine Wette auf die Zukunft. Sie muss ja nicht immer gewonnen werden. Im Moment hat man bei nVidia ein gutes Haendchen. Das ist halt eine Roadmap fuer Komponenten fuer ihr Oekosystem. AMD und Intel werden softwaretechnisch nachziehen. Huang versucht sein Unternehmen immer wieder oeffentlich darzustellen, um es quasi als alternativlos zu praesentieren. Zu viel Proprietaeres und Gaengelung sollte man allerdings nicht wagen, um Konkurrenz aus dem Wettbewerb zu nehmen. Wer haette denn vor Jahren gedacht, dass die Kartellwaechter ihren Blick auf Google, Meta, MS und Apple richten. Interessant wird auch sein, wenn Hersteller wie AMD/Xilinx und Intel vllt. zumindest partiell zusammenarbeiten werden, um fuer etwas Waffengleichheit zu sorgen.
 
Zuletzt bearbeitet:
man muss einfach anerkennen dass huang und nvidia mit ihrem geschäft bisher einfach richtig lagen. manchmal reicht es dazu schlicht der erste in einem feld zu sein und keinen überbordernden mist zu bauen - das war mit cuda so; den wirkliche konkurrenz gab es hier nie.

auch technologisch hat nvidia einen guten riecher bewiesen und hat schon sehr früh gelernt technische schwächen der konkurenz zu erkennen und sie dort auszuknocken; ich sage dazu nur 3dfx und deren fehlendes 32bit rendering gewürzt mit allerlei trieberproblemen mit der voodoo3 generation.
das kann man nvidia kaum zum vorwurf machen, denn keiner von uns wir ein gutes angebot ablehnen, wenn wir das gefühl haben eine gute lösung für unser geld zu erhalten.

ich muss zugeben dass ich persönlich nicht der fanatische nvidia fan bin, denn dazu finde ich dass viele deren entwicklungen und vermeintlichen vorteile keine vorteile für mich als user sind, sondern vor allem als vorteile für nvidia auf den weg gebracht werden. beispielsweise dlss - so sinnvoll die idee hinter der technik auch ist, rein proprietäre lösungen, wo eigentlich universelle schnittstellen hingehören, sind auf dauer alles andere als sinnvoll, denn keiner von uns will sich technisch in eine herstellerabhängigkeit begeben.
trotzdem wird dlss bedingungslos bejubelt und sogut wie niemand wagt einen etwas kritischeren blick auf diese entwicklung.
so kann man ein unternehmen auch groß machen.
 
  • Gefällt mir
Reaktionen: Laphonso, Banjo und CyLord83
Majestro1337 schrieb:
Selbstverständlich ist der Trend um AI ein glücklicher Umstand für Nvidia.

Eher konsequente Business Aufstellung,
https://www.zdnet.com/article/nvidia-ai-research-points-to-an-evolution-of-the-chip-business/

Catanzaro was the first person doing neural network work at Nvidia when he took a job there in 2011 after receiving his PhD from the University of California at Berkeley in electrical engineering and computer science.

Huang realised AI’s potential in 2012 when a group including Ilya Sutskever, now OpenAI’s chief scientist, employed Nvidia technology to train a neural network called AlexNet to recognise images
https://www.ft.com/content/22c2aab0-74ed-4a36-933a-b30245275dea

Siehe auch https://www.newyorker.com/magazine/2023/12/04/how-jensen-huangs-nvidia-is-powering-the-ai-revolution

Mit Glück hat das so gar nichts zu tun. Das waren - 2011 mitgerechnet- per heute rund 15 Jahre = 1,5 Jahrzehnte Weichenstellung, Forschung und Investitionen bei Nvidia.
Die haben das halt wesentlich früher erkannt als andere. „Glück“ war hier kein Faktor. Multimilliarden R&D investiert man nicht auf der Glückskarte, das ist kein Lottospiel ;-)

Ergänzung: ML & AI per se sind ein quasi seit 1950ern ein Thema.

1997 Deep Blue ist vielleicht der bekannteste „Durchbruch“ öffentlich für meine Generation.


https://www.techtarget.com/whatis/A-Timeline-of-Machine-Learning-History
https://www.algotive.ai/blog/the-hi...ce-machine-learning-and-deep-learning#ancla_4

Nvidia hat vor 15 Jahren AI&ML usecases als Portfolio Entscheidung zum Businessschwerpunkt gemacht. Das war durchaus visionär. Nun cashen sie aus, quasi.

Glück haben sie m.E. nur mit dem übertriebenen Hype. Aber nicht mit dem Erfolg an sich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [SM]Valen, d0zer und raPid-81
Zurück
Oben