OpenSystemFan schrieb:
Ich glaube nicht, dass die Aktien von nvidia wirklich von dern Gamergrafikkarten abhängig ist.
Zum aktuellen Zeitpunkt? Nicht wirklich. Abseits der Tech-Nerd-Bubble, interessiert sich die Welt nicht für die Gaming-Grafikkarten von Nvidia.
Nvidia war bis quasi vorletztes Jahr so gut wie niemanden bekannt. Jetzt mit KI und den dafür entwickelten Karten, sind sie in aller Munde, aber selbst jetzt werde ich oft noch schräg angeschaut, wenn man darüber spricht.
Laphonso schrieb:
Nein, auf keeeeeeeeeeinen Fall!
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Die ganzen Beleidigungen (Eine Auswahl:
"Idioten", "Opfer", "Trottel", "Komplexinhaber", "Lemminge", "Melkvieh" etc.) und Abwertungen und toxischen Herabwürdigungen kommen aus der puren Mitfreude und dem Gönnen für die anderen, good vibes unter Gamern, ist klar ^^
Total normale Kommunikation! ;-)
Sowas muss nicht unbedingt etwas mit Neid zutun haben. Solche Sachen auf "Neid" zu verkürzen, wird oft der Komplexität nicht gerecht.
Wer andere als Idioten, Opfer, Trottel und Co beleidigt, hat in der Regel einfach nur kein Niveau. Am Ende führen aber verschiedene Ansichten dazu, nicht unbedingt der Neid. Ich könnte, besser hätte mir auch eine RTX 5090 für knapp 3000 - 4000 € leisten können, habe ich allerdings ganz bewusst nicht gemacht, da ich den Preis so nicht zahlen möchte und will. Das ist es mir persönlich nicht wert, ich hab jetzt für das Geld was ganz anderes gekauft und bin damit dann auch Happy.
Und ich schreibe auch dazu, dass ich Menschen, die jetzt bei den Scalpern für 4000 - 5000 € eine RTX 5090 oder die 2000 - 3000 € für eine RTX 5080 durchaus in meinen Augen sich teilweise doch recht "unintelligent" verhalten und zumindest ihre Impulskontrolle verloren haben. Bin ich auf die Leute deswegen neidisch?
Es war irgendwo klar, dass gerade innerhalb der ersten Tage es schwer wird RTX 5000 Grafikkarten zu bekommen, wenn man für 1000 - 2500 € eine der Wunschkarten schießen konnte, ist das toll. Aber ich persönlich würde über bestimmte Preise garnicht hinaus gehen.
-- Ach ja, mein Tauschangebot ist durchaus ernstgemeint, RTX 5080 gegen RTX 4090. XD --
Fighter1993 schrieb:
Wenn man an Gamer eig nichts verkaufen möchte dann sollte man das auch kommunizieren und nicht vorher auf der CES alle verrückt machen und dann nichts zur UVP liefern können.
Gaming ist für Nvidia gar nicht so unwichtig, klar es macht nicht mehr den Löwenanteil aus, aber knapp 10 % macht es immer noch aus.
Dazu kommt, dass gerade den Großen die Abhängigkeit von Nvidia alles andere als schmeckt. Nvidia weiß das.
Grestorn schrieb:
Ich meine, es steht außer Zweifel, dass NVidia den Launch verbockt hat. Aber absichtlich sicher nicht. Das ist einfach nur absurd.
Dessen kann man sich bei Nvidia an der Stelle so nicht ganz sicher sein. Wenn es stimmt was Der8auer da so veröffentlicht hat und auch was so an weiteren Infos herumgeistert, dann war das, was hier jetzt passiert ist, nicht nur absehbar, sondern ist so auch in Kauf genommen worden.
Ich hab scherzhaft davon gesprochen, dass Nvidia vermutlich bei TSMC pro Monat ein Wafer für RTX 5090 und RTX 5080 bestellt hat, so wie es es sich aktuell abzeichnet, hat Nvidia quasi erst ab Dezember angefangen Wafer für die GB202 und GB203 zu bestellen und hat quasi die Chips frisch aus der Fabrik zu den Herstellern geschafft und diese haben ihre Karten frisch aus der Fabrik an die Händler geliefert, wo sie direkt an die Kunden verkauft wurden.
Keine Vorproduktion um ein paar Karten auf der Halde zu haben, sondern alles ganz frisch. Quasi vom Erzeuger direkt zum Konsumenten.
Quidproquo77 schrieb:
Gerade Mega Geometry und Neural Shading senken den VRAM Bedarf und ist somit keineswegs wertlos.
In wie weit Mega Geometry als auch dann später die Neural Shader den VRAM-Bedarf wirklich senken können, ist erst einmal Zukunftsmusik.
Die Mega Geometry ist primär dafür ein Werkzeug, Ray-Tracing-Effekte auf die vollen Geometeriedetails zurückgreifen können, während aktuell je nach LOD mit vereinfachten Strukturen gearbeitet werden muss. Das kann auf den VRAM positive Auswirkung haben, es kann am Ende jedoch bedeuten, dass der VRAM-Bedarf auch ebenso steigt.
Auch bei den Neural Shadern ist das so eine Sache, in wie weit sie den VRAM Bedarf senken ist absolut nicht bekannt, sondern erst mal nur eine Marketingaussage. Dazu kommt, dass es zwar sein kann, dass mit den Neural Shadern der theoretische VRAM-Bedarf sinkt, in absoluten Zahlen jedoch durch noch mehr Details und Co sogar ansteigt.
Der aktuelle VRAM-Bedarf in den letzten Jahren ist durch immer höher auflösende Texturen, immer feinere Polygon-Modelle und immer mehr Details in den Spielewelten gestiegen, und ebenso dadurch, dass Objekte immer seltener mehrfach verwendet werden.
Sollte der Trend entsprechend hier weiter gehen, dann wird Neural Shading als auch die Mega Geometry den Mehrbedarf an VRAM eindämmen, aber am Ende nicht wirklich sinken lassen.
Quidproquo77 schrieb:
Größere Änderungen an der Mikroarchitektur, den SMs,
Die Änderungen an den Streaming Mutliprocessors sind bei Blackwell überschaubar und von einem Turing 2.0 kann man hier nicht wirklich sprechen.
Blackwell verliert eine Fähigkeit, die Turing gebracht: INT und FP Instruktionen können nicht mehr parallel ausgeführt werden. Blackwell ist hier sogar ein "kleiner" Rückschritt. Klar, verkauft Nvidia es jetzt so, dass man 32 INT-Operationen ausführen kann, nur das konnte bereits Maxwell / Pascal bereits auch. Entweder alle 32 Kerne des Sub-Slice konnten INT oder FP berechnen.
Was jetzt wohl gekommen ist - das müsste man aber noch mal nach lesen oder warten, bis die ersten Devs entsprechende Experimente gemacht haben - dass der Tensor-Kern durch das Neural Shading auch "direkt" mit wirken kann und der zweite Port entsprechend am Tensor-Kern hängt. Aber da geben die Whitepaper nicht viel her zu. Da ist man dann auf Entwickler angewiesen, die das alles mal ausprobieren und sich ansehen.
Wie gut oder schlecht Blackwell als Generation wirklich ist und ob die Versprechen, die Nvidia heute gemacht hat, auch gehalten werden, wird man erst in einigen Jahren wirklich beurteilen können, wenn die nächste Generation da ist oder gar erst die übernächste.