News Nvidia GeForce RTX 5090 & RTX 5080: Wie ernüchternd lief der Marktstart und wird AMD profitieren?

Solche Firmen können einem das Hobby wirklich komplett ruinieren. Wirklich nur ne Frage der Zeit bis ich da mal zu ner Konsole wechsle und als Zocker-PC nur noch ein kleines, günstiges Midrangesystem von AMD habe um dort die Älteren und sonstigen Sachen zu spielen die ich auf der Konsole nicht habe und als Arbeitsgerät dann noch irgendwas von Apple. Nvidia kann mich dann mal gepflegt am Arsch lecken und können gerne mit ihrem KI-Scheiss zur Hölle fahren.
 
  • Gefällt mir
Reaktionen: eXe777, Windell und dermatu
Da man mittlerweile auch mit Maus und Tastatur an der Konsole spielen kann ist es vielleicht gar nicht so schlecht. Alles andere was keine High End GPU braucht kann man ja noch am PC spielen ...
Aber naja da bin ich schon noch etwas weit weg, bevor das bei mir passieren wird.
 
  • Gefällt mir
Reaktionen: HyperBeast_GER
OpenSystemFan schrieb:
Ich glaube nicht, dass die Aktien von nvidia wirklich von dern Gamergrafikkarten abhängig ist.
Zum aktuellen Zeitpunkt? Nicht wirklich. Abseits der Tech-Nerd-Bubble, interessiert sich die Welt nicht für die Gaming-Grafikkarten von Nvidia.

Nvidia war bis quasi vorletztes Jahr so gut wie niemanden bekannt. Jetzt mit KI und den dafür entwickelten Karten, sind sie in aller Munde, aber selbst jetzt werde ich oft noch schräg angeschaut, wenn man darüber spricht.
Laphonso schrieb:
Nein, auf keeeeeeeeeeinen Fall! :D Die ganzen Beleidigungen (Eine Auswahl: "Idioten", "Opfer", "Trottel", "Komplexinhaber", "Lemminge", "Melkvieh" etc.) und Abwertungen und toxischen Herabwürdigungen kommen aus der puren Mitfreude und dem Gönnen für die anderen, good vibes unter Gamern, ist klar ^^
Total normale Kommunikation! ;-)
Sowas muss nicht unbedingt etwas mit Neid zutun haben. Solche Sachen auf "Neid" zu verkürzen, wird oft der Komplexität nicht gerecht.

Wer andere als Idioten, Opfer, Trottel und Co beleidigt, hat in der Regel einfach nur kein Niveau. Am Ende führen aber verschiedene Ansichten dazu, nicht unbedingt der Neid. Ich könnte, besser hätte mir auch eine RTX 5090 für knapp 3000 - 4000 € leisten können, habe ich allerdings ganz bewusst nicht gemacht, da ich den Preis so nicht zahlen möchte und will. Das ist es mir persönlich nicht wert, ich hab jetzt für das Geld was ganz anderes gekauft und bin damit dann auch Happy.

Und ich schreibe auch dazu, dass ich Menschen, die jetzt bei den Scalpern für 4000 - 5000 € eine RTX 5090 oder die 2000 - 3000 € für eine RTX 5080 durchaus in meinen Augen sich teilweise doch recht "unintelligent" verhalten und zumindest ihre Impulskontrolle verloren haben. Bin ich auf die Leute deswegen neidisch?

Es war irgendwo klar, dass gerade innerhalb der ersten Tage es schwer wird RTX 5000 Grafikkarten zu bekommen, wenn man für 1000 - 2500 € eine der Wunschkarten schießen konnte, ist das toll. Aber ich persönlich würde über bestimmte Preise garnicht hinaus gehen.

-- Ach ja, mein Tauschangebot ist durchaus ernstgemeint, RTX 5080 gegen RTX 4090. XD --
Fighter1993 schrieb:
Wenn man an Gamer eig nichts verkaufen möchte dann sollte man das auch kommunizieren und nicht vorher auf der CES alle verrückt machen und dann nichts zur UVP liefern können.
Gaming ist für Nvidia gar nicht so unwichtig, klar es macht nicht mehr den Löwenanteil aus, aber knapp 10 % macht es immer noch aus.

Dazu kommt, dass gerade den Großen die Abhängigkeit von Nvidia alles andere als schmeckt. Nvidia weiß das.
Grestorn schrieb:
Ich meine, es steht außer Zweifel, dass NVidia den Launch verbockt hat. Aber absichtlich sicher nicht. Das ist einfach nur absurd.
Dessen kann man sich bei Nvidia an der Stelle so nicht ganz sicher sein. Wenn es stimmt was Der8auer da so veröffentlicht hat und auch was so an weiteren Infos herumgeistert, dann war das, was hier jetzt passiert ist, nicht nur absehbar, sondern ist so auch in Kauf genommen worden.

Ich hab scherzhaft davon gesprochen, dass Nvidia vermutlich bei TSMC pro Monat ein Wafer für RTX 5090 und RTX 5080 bestellt hat, so wie es es sich aktuell abzeichnet, hat Nvidia quasi erst ab Dezember angefangen Wafer für die GB202 und GB203 zu bestellen und hat quasi die Chips frisch aus der Fabrik zu den Herstellern geschafft und diese haben ihre Karten frisch aus der Fabrik an die Händler geliefert, wo sie direkt an die Kunden verkauft wurden.

Keine Vorproduktion um ein paar Karten auf der Halde zu haben, sondern alles ganz frisch. Quasi vom Erzeuger direkt zum Konsumenten.
Quidproquo77 schrieb:
Gerade Mega Geometry und Neural Shading senken den VRAM Bedarf und ist somit keineswegs wertlos.
In wie weit Mega Geometry als auch dann später die Neural Shader den VRAM-Bedarf wirklich senken können, ist erst einmal Zukunftsmusik.

Die Mega Geometry ist primär dafür ein Werkzeug, Ray-Tracing-Effekte auf die vollen Geometeriedetails zurückgreifen können, während aktuell je nach LOD mit vereinfachten Strukturen gearbeitet werden muss. Das kann auf den VRAM positive Auswirkung haben, es kann am Ende jedoch bedeuten, dass der VRAM-Bedarf auch ebenso steigt.

Auch bei den Neural Shadern ist das so eine Sache, in wie weit sie den VRAM Bedarf senken ist absolut nicht bekannt, sondern erst mal nur eine Marketingaussage. Dazu kommt, dass es zwar sein kann, dass mit den Neural Shadern der theoretische VRAM-Bedarf sinkt, in absoluten Zahlen jedoch durch noch mehr Details und Co sogar ansteigt.

Der aktuelle VRAM-Bedarf in den letzten Jahren ist durch immer höher auflösende Texturen, immer feinere Polygon-Modelle und immer mehr Details in den Spielewelten gestiegen, und ebenso dadurch, dass Objekte immer seltener mehrfach verwendet werden.

Sollte der Trend entsprechend hier weiter gehen, dann wird Neural Shading als auch die Mega Geometry den Mehrbedarf an VRAM eindämmen, aber am Ende nicht wirklich sinken lassen.
Quidproquo77 schrieb:
Größere Änderungen an der Mikroarchitektur, den SMs,
Die Änderungen an den Streaming Mutliprocessors sind bei Blackwell überschaubar und von einem Turing 2.0 kann man hier nicht wirklich sprechen.

Blackwell verliert eine Fähigkeit, die Turing gebracht: INT und FP Instruktionen können nicht mehr parallel ausgeführt werden. Blackwell ist hier sogar ein "kleiner" Rückschritt. Klar, verkauft Nvidia es jetzt so, dass man 32 INT-Operationen ausführen kann, nur das konnte bereits Maxwell / Pascal bereits auch. Entweder alle 32 Kerne des Sub-Slice konnten INT oder FP berechnen.

Was jetzt wohl gekommen ist - das müsste man aber noch mal nach lesen oder warten, bis die ersten Devs entsprechende Experimente gemacht haben - dass der Tensor-Kern durch das Neural Shading auch "direkt" mit wirken kann und der zweite Port entsprechend am Tensor-Kern hängt. Aber da geben die Whitepaper nicht viel her zu. Da ist man dann auf Entwickler angewiesen, die das alles mal ausprobieren und sich ansehen.

Wie gut oder schlecht Blackwell als Generation wirklich ist und ob die Versprechen, die Nvidia heute gemacht hat, auch gehalten werden, wird man erst in einigen Jahren wirklich beurteilen können, wenn die nächste Generation da ist oder gar erst die übernächste.
 
  • Gefällt mir
Reaktionen: Millennial_24K, Viper2000, minalion und 4 andere
DevPandi schrieb:
Dessen kann man sich bei Nvidia an der Stelle so nicht ganz sicher sein. Wenn es stimmt was Der8auer da so veröffentlicht hat und auch was so an weiteren Infos herumgeistert, dann war das, was hier jetzt passiert ist, nicht nur absehbar, sondern ist so auch in Kauf genommen worden.
Geraune gibt es immer. Gerade bei den YouTubern.

Was hat denn NVidia zu gewinnen durch dieses Fiasko? Am Ende bleiben Mindereinnahmen und ein massiver Reputationsverlust.
 
Iongy08 schrieb:
Du akzeptierst auch so antworten wie "Einfach weil ich Geld habe" oder muss man dir als völlig fremde Person genau erklären wieso man sein Geld für etwas ausgibt?
Niemand muss irgendwas erklären -selbstverständlich. Bin nur am gegenseitigen Austausch interessiert.

Die Antwort "weil ich Geld habe" ist nicht sooo informativ. Aber trotzdem danke.
Wahrscheinlich denken viele so.
 
Iongy08 schrieb:
Die sollen ja bewusst etwas sticheln. Immerhin lebt das Forum aktuell von diesem Shitstorm der hier künstlich erzeugt wird. Schau dir den anderen Beitrag an der zwischenzeitlich geschlossen wurde, da wurde die Messlatte immer tiefert weil viele sich massiv reinsteigern.

Und das bei einem Forum bei dem eigentlich jeder sowieso nie weder Interesse hatte an der 50er Generation, noch je eine Karte kaufen würde. Ist alles sehr glaubwürdig.
Ich hätte mir von der Redaktion ein höheres Niveau erwartet.
 
Ich meine mich erinnern zu können, dass der Wechsel von Geforce 8000 auf 9000 lächerlich gering war, wenn es um die Leistung ging. Preise und Verfügbarkeit hab ich allerdings nicht mehr im Kopf, aber ich denke das war alles in einem angemessen Rahmen.
 
CMozzarella schrieb:
Laut Umfrage switchen einige von einer RTX 4090 auf eine 5080.
Wie kommts dazu? Mich würden die Hintergründe echt interessieren.
Verstehe ich ehrlich gesagt auch nicht ganz ! Wenn dann doch auf eine 5070, jene soll ja laut NV schneller sein tun ... 😉
 
Grestorn schrieb:
Was hat denn NVidia zu gewinnen durch dieses Fiasko? Am Ende bleiben Mindereinnahmen und ein massiver Reputationsverlust.
Das wäre in einem funktionierenden Markt so. Aber hier ist es eben ein Monopol und da hat es eben keine Konsequenzen.

Da es nur NV gibt, werden "alle" auch "immer" NV kaufen und das Image - was ja auch nur im Detail tech-Nerds sehen, der normale Media Markt-Käufer bekommt ja von dem Fiasko kaum was mit - verliert ja damit auch nicht.

Die einzige Gefahr für NV im Bereich Gaming wäre, dass der PC-Gamingmarkt massiv schrumpft aufgrund dieser wenig beeindruckenden Serie. Passiert aber nicht und selbst wenn, hat es intern auch keine Auswirkungen, da ja alle angeblich schon immer gewusst haben, dass der PC-Markt (nicht Laptop) sowieso tot ist.
 
  • Gefällt mir
Reaktionen: eXe777, DevPandi und Wintermute
Azeron schrieb:
Solche Firmen können einem das Hobby wirklich komplett ruinieren. Wirklich nur ne Frage der Zeit bis ich da mal zu ner Konsole wechsle und als Zocker-PC nur noch ein kleines, günstiges Midrangesystem von AMD habe um dort die Älteren und sonstigen Sachen zu spielen die ich auf der Konsole nicht habe und als Arbeitsgerät dann noch irgendwas von Apple. Nvidia kann mich dann mal gepflegt am Arsch lecken und können gerne mit ihrem KI-Scheiss zur Hölle fahren.

Du kannst für den Preis einer PS5 Pro (oder vielleicht für 1.000 EUR) ein System bauen, dass schneller als eine Ps5 Pro ist und alle Vorteile eines PCs bietet. Nur weil der absolute Highend-Bereich verkorkst ist, ist ja das Hobby nicht tot. Schaut man sich die Steam Hardware Survey an, dann sind die 5090 Fans vielleicht 2% der gesamten Spielerschaft, für alle anderen ist das nur absurd.
 
  • Gefällt mir
Reaktionen: Azeron
CMozzarella schrieb:
Laut Umfrage switchen einige von einer RTX 4090 auf eine 5080.
Wie kommts dazu? Mich würden die Hintergründe echt interessieren.

Col. Jessep schrieb:
@CMozzarella Das frage ich mich auch, so ein Wechsel macht gar keinen Sinn.

Wie Jan und Fabian im Podcast bereits gesagt haben, der Unterschied in den Klassen xx80 zu 5080 oder xx90 zu 5090 ist dieses Mal so gering wie selten zuvor, das sagt doch eigentlich alles aus, nur die Preise bleiben arg hoch.

Ich habe selbst eine RTX4090 und spiele mit dem Gedanken auch auf einen RTX5080 zu switchen, warum?:
  • Ich habe einen neuen all white Build aber die "alte" Grafikkarte übernommen und die ist schwarz)
  • Ich habe meine RTX4090 auf 360Watt gedrosselt
  • ich spiele in UWQHD da ist der Vorsprung der 4090 nochmal etwas geringer und die 16GB VRAM spiel nicht so eine große Rolle
  • Bei der nächsten Gen kaufe ich mir sowieso eine neue Karte
  • die RTX5080 lässt sich extrem gut übertakten und ich könnte sie mir in Weiß kaufen
  • Bei entsprechender Verfügbarkeit wäre die 5080 günstiger als der Wiederverkauf der 4090, ich würde als Geld rausbekommen

Dagegen spricht:
  • Aufwand für mich
  • 24GB VRam
  • deutlich bessere Path Tracing Leistung der 4090
  • es ist ne 4090 :D
  • MFG ist absoluter Müll
 
DerRico schrieb:
Das wäre in einem funktionierenden Markt so. Aber hier ist es eben ein Monopol und da hat es eben keine Konsequenzen.
"Keine Konsequenzen" heißt immer noch nicht, dass sie davon etwas gewonnen haben. Also Absicht zu unterstellen ist m.E. total daneben.

Wenn NVidia kein Interesse an den Gamern hätten, dann würden sie gar nichts mehr investieren. Das sehe ich aber nicht. NVidia ist am Gaming Markt als zweites Standbein interessiert. Und außerdem treibt die Gaming-Technologie auch den Fortschritt an, den man für die AI Themen gut brauchen kann.

Wenn jemand aus meiner Sicht fast gar nichts mehr für die Gamer tut, dann ist das AMD. Leider.
 
Tamron schrieb:
Du weißt schon, dass Gaming mittlerweile fast irrelevant für NVidia ist oder? 80% des Umsatzes wurden im Datacenter letztes Jahr gemacht. Milliarden an Dollar an Vorbestellungen für Datacenter Karten. Wen juckt ein paar Gamer?
Genau das ist was die Gaming Fans nicht begreifen wollen.🙄
Der "Gaming Fan" Markt ist viel zu klein für Nvidia, da haben die kein wirkliches Interesse mehr dran.
Da wird nur noch versucht die Leute mit möglichst wenig Aufwand abzuzocken!.🤷‍♂️

Da wird es IMO auch in Zukunft von Nvidia nur kleinste Schritte an Zuwachs geben.
(Wenn ich schon sehe ca. 30% mehr Performance bei 100% mehr Stromverbrauch 🙄)
Das Ende der Fahnenstange ist erreicht.

Da am Freitag mein GMKtec Mini-PC gekommen ist, habe ich ihn am WE gleich mal getestet.
Hatte trotz modernere CPU (8845HS) und Speicher (DDR5) mit nur etwa der Leistung meines aktuellen Desktop mit Radion 6750XT GPU und 5700G CPU bei Spielen gerechnet.

Aber was soll ich sagen, er ist trotz dem er nur eine 780M IGPU hat besser.😎
Und das schon wenn ich der IGPU nur 8GB an Ram zuweise, und im BIOS das ganze auf "Balance" stelle.
(Wobei er dann null zu hören ist😉)
Bei "Performance" und 16GB Ram für die IGPU ist er deutlich besser, und auch wenn er in höhere Belastung geht so gut wie nicht zu hören. (Nur wenn man darauf achtet, ein sehr leises Rauschen im Hintergrund!)

ICH werde mit dem Teil sicher die nächsten 10 bis 12 Jahre zurecht kommen, und mir außer mehr RAM (hat 32GB und kann bis 96GB) nichts neues dazu kaufen.😎👍

Und das ganze hat mich nicht ganz 600 Euro gekostet.😁
 
Immer diese Wertungen überall, und die möchtegern-Vorwegnahmen, statt einfach sachlich zu berichten - aber das zieht sich durch die gesamte Presse.
 
NikkyD schrieb:
Ich kaufe grundsätzlich keine GraKa über 300€ und fahre mit dieser Taktik seit Jahrzehnten gut.
Vermutlich aber nicht mehr lange ... 😉
 
Laphonso schrieb:
Hauptsache die 100 YOUTUBER TECH-Kanäle bekamen die 5090er lol
Die bekommen die idR nicht geschenkt sondern die werden nur herumgegeben.
Einen Tech-Youtuber den ich gestern gesehen hatte, hatte nur 1 Tag Zeit sich mit der Gigabyte Aorus Master zu beschäftigen bevor er sie wieder weiter schicken musste.
Fand ich schon interessant, weil ich eigentlich auch immer dachte das die meisten die Dinger "einfach so" bekommen würden.
 
  • Gefällt mir
Reaktionen: Grestorn
Iongy08 schrieb:
Ich habe eine 5080 hier die in meinem PC neben mir werkelt. Insofern alles okay. Wenn man Preis komplett ausblendet wars Easy. Freitag Mittag bestellt, Samstag Zustellung.

Aber keiner muss meinen das ich mich damit 100% wohl fühle. Ich werde zeitnah keine 5080 mehr haben :)
Scalper 4 life oder zum Scalperpreis bestellt?
 
Tamron schrieb:
Also ich bin mit meinem OC der 5080 4% hinter der 4090 laut CB Test. Ich glaube daran könnte es auch liegen. Einfach MFG und co. mitnehmen sowie Gewinn realisieren.
Nur bei einer 4090 kann man auch OC betreiben, und jene hat 50 (!) % mehr RAM ! Und wieviele Titel/Games unterstützten bisher MFG (mit weniger Grund FPS und höherer Latenz) ?
 
Balikon schrieb:
Noch laufen CDNA und RDNA getrennte Wege. UDNA soll erst mit der nächsten Generation kommen.
Die Info fehlte mir. Also sollten wir mal lieber sehr wenig erwarten, außer eben FSR4, weil das die besseren KI Hardware benutzt.
 
Zurück
Oben