News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

ColinMacLaren schrieb:
Also ich habe es bei den günstigeren versucht und nach drei Versuchen mit Frage nach Abholung
Wollen ja viele nicht. Viele wollen Versand machen
ColinMacLaren schrieb:
dann sagt er, er habe schon mehrere Angebote über 1.500 EUR und warte nur ab, ob er am Donnerstag was bekomme.
Ja machen die meisten. Die haben die Karte noch verbaut. Ist doch klar das die erste verkaufen wenn was neues da ist. Die wollen zum einen noch die Karte nutzen aber hoffen trotzdem davor höhere Preise mitzunehmen. Allerdings kann es halt auch passieren das einer dann weniger bekommt weil die verfügbarkeit und die Preise und die Tests noch mit reinspielen :)
 
MehlstaubtheCat schrieb:
Aber mit einem Punkt kann ich niemals leben und das ist nur mit "60 FPS" zu zocken!

Naja ich hab ne n 165HZ WQHD Monitor und nen großen OLED TV mit 60HZ.
Spiele ich auf dem OLED und beschränke die FPS auf 60 mit VSync fühlt sich das z.b. bei Indiana Jones subjektiv deutlich besser an, als wie 80-90 FPS auf dem WQHD Monitor. Erst wenn ich da FG dazu schalte und die Frames nochmal nen Sprung machen, wirkt es flüssig.
 
mMn völlig überteuert. Kann sich NVidia warm wegpacken den Mist. Wenn ich ne neue Grafikkarte brauchen sollte, würde ich eher auf die RX 9070 XT warten, denn diese unverschämte Preispolitik ist absoluter Dreck und sollte nicht unterstützt werden. Die 4070 ist schon überteuert gewesen mit 600 Euro oder was ich damals dafür gezahlt hab, aber über 1000 Euro? Die haben doch was am Helm.
 
Ich wollte auch unbedingt von der 4090 auf die neue 5090er wechseln, aber die Tests waren so enttäuschend, dass ich mir für das Geld lieber den 39" 21:9 Oled von Asus gönne - da hab ich mehr davon^^
 
dahkenny schrieb:
Würde sagen bin schon sehr enttäuscht von der 5090. So viel erwartet habe ich tatsächlich nicht, aber am Ende doch so viel, dass ich meine 4090 schon verkauft habe. Ob ich eine 5090 kaufen werde, bezweifel ich aktuell. Aus den anderen Lagern spricht nur leider noch weniger an. Denke ich werde die Generation aussetzen und warten, was die nächste Gen so bringen wird.
dahkenny schrieb:
Da ich in letzter Zeit kaum was zocke, wird mir die iGPU ausreichen (müssen). Die 80er Karten waren die letzten Generationen mMn den 80er Titel nicht wert. Zu wenig VRAM und zu schlechtes P/L Verhältnis.
Deine Beiträge lassen mich ein wenig verwirrt zurück: :D :confused_alt:
Du hattest offensichtlich geplant eine RTX 5090 zu kaufen, die (das war ja schon bekannt) über 2000€ kosten wird. Jetzt lässt du es bleiben weil du von der Leistung enttäuscht bist und planst dein ansonsten richtig starkes und entsprechend teures Highend System bis zur nächsten Generation (in zwei Jahren?) nur noch mit der iGPU zu betreiben?

Warum hattest du denn überhaupt geplant eine RTX 5090 zu kaufen, wenn die Karte eh nicht zum Einsatz kommen wird?
Warum die restliche, extrem starke Kiste nur mit der iGPU betreiben?
Oder hast du abseits vom Gaming Tasks die von derart viel CPU-Leistung und RAM profitieren können? Lohnt es sich da nicht trotzdem zumindest eine Mittelklasse GPU einzubauen (Videoschnitt, Cad, lokale KI, evtl. doch gelegentliches Gaming usw.)?
Falls du die Leistung nicht mehr brauchst, warum dann dieses für Office und Multimedia absolut oversized System weiter betreiben und nicht auf einen schlanken Mini-PC (NUC, Mac Mini oder ähnliches) downsizen?

Das ist jetzt keine Kritik, vorschreiben was du mit deinem Geld tun sollst oder sonstwas, was einem hier schnell unterstellt wird, es wirkt auf mich einfach nur so seltsam eine derart stark ausgestattete Highend Plattform komplett ohne zumindest halbwegs starke GPU laufen zu lassen. :D
 
  • Gefällt mir
Reaktionen: dahkenny
Ano_Dezimal schrieb:
Wollen ja viele nicht. Viele wollen Versand machen
:)
Wenn ich, wie geschrieben, drei Stunden später die Warnmeldung von kleinanzeigen wegen Betrug oder gehackten Account erhalte, dann wollten die was ganz anderes :) Und das ist bei kleinanzeigen bei Technik nahezun immer der Fall, wenn der Preis gut ist.
 
ColinMacLaren schrieb:
Wenn ich, wie geschrieben, drei Stunden später die Warnmeldung von kleinanzeigen wegen Betrug oder gehackten Account erhalte, dann wollten die was ganz anderes :)
klar, lockt halt auch solche Leute an sowas :)
Ergänzung ()

Xes schrieb:
Warum hattest du denn überhaupt geplant eine RTX 5090 zu kaufen, wenn die Karte eh nicht zum Einsatz kommen wird?
Vermutung: Die alte Karte wurde im Vorfeld verkauft und man steht jetzt ohne da ^^
 
jotka24 schrieb:
Dieses Chart zeigt das sehr krass - Nvidia wird in Zukunft 90% seiner Einnahmen mit Non-Gaming generieren - vorbei die Zeiten, als der Gaming-Zweig die stabilste Einnahmequelle war.
Anhang anzeigen 1574930

B2C trägt das GPU-Geschäft nicht mehr, und das ist praktisch über Nacht passiert.
Es zeigt nur, dass die Ära "Can it run Crysis?" endgültig vorbei ist.

Für die westliche Videospielindustrie und deren exklusive Kundschaft waren nun Jahrzehnte lang "Rechenleistung" und "Videospielen" fest miteinander verknüpfte Größen. Für den Rest der Welt gilt das nicht, denn deren Endgerät ist überwiegend das Smartphone. Der absehbare Niedergang der westlichen Videospielindustrie wird das noch deutlicher machen.
 
JiJiB! schrieb:
Von der auf die 5090 zu wechseln, da brauch man schon gute Gründe.
Naja: Wenn du keine RTX 5090 hast, hast du keine RTX 5090.
Schon die RTX 4090 war absolut "unvernünftig" wenn man damit nur spielen wollte.
Wer so eine Karte kauft, macht das auch für das Gefühl: "die beste Karte die es gibt zu besitzen" und das aktuell technisch maximal machbare erleben zu können.
Das hast du nun defakto nicht mehr, wenn du "nur" eine RTX 4090 besitzt.
Wenn das Geld keine Rolle spielt, ist das ein guter Grund.
Ano_Dezimal schrieb:
Vermutung: Die alte Karte wurde im Vorfeld verkauft und man steht jetzt ohne da ^^
Das hatte er ja geschrieben, aber warum dann das System mit iGPU weiter betreiben? Das macht in meinen Augen einfach wenig Sinn. Entweder man holt sich trotzdem wieder eine GPU (muss ja nicht zwingend eine 5090 sein) um das restliche System auslasten zu können, oder man tritt alles ab, und baut sich ein schlankes Office/Multimedia System.
Ein derart starkes System mit "gezogener" Handbremse in Form der winzigen iGPU bis zur nächsten GPU-Generation weiter zu betreiben wirkt einfach seltsam. (Außer er hat entsprechend andere Anwendungen, die keine GPU-Leistung, wohl aber CPU und RAM benötigen.)

jotka24 schrieb:
Dieses Chart zeigt das sehr krass - Nvidia wird in Zukunft 90% seiner Einnahmen mit Non-Gaming generieren - vorbei die Zeiten, als der Gaming-Zweig die stabilste Einnahmequelle war.
wechseler schrieb:
Es zeigt nur, dass die Ära "Can it run Crysis?" endgültig vorbei ist.
Diesen Abgesang auf PCs, bzw. Gaminghardware hören wir doch immer wieder. Für Nvidia gab es auch in der Vergangenheit immer wieder gigantische "Trend-Geschäfte" abseits des Gamings, siehe z.B. , Cloudgaming oder ganz extrem die Kryptominingphase, die über einige Jahre enorme Gewinne einbrachten.
Es lässt sich aber auch nicht abstreiten, dass klassische Gaminghardware seit der Gründung in den 90ern weitestgehend konstant stabile Einnahmen generiert hat.
Hätte Nvidia sich vor ein paar Jahren auf Kryptomining spezialisiert weil das damals die mit Abstand größten Gewinne generiert hat, wäre man damit langfristig auf die Nase gefallen, denn das spielt heute ja kaum mehr eine Rolle, während sich Gaminghardware weiterhin verkauft.
Heute sind wir mitten in einem KI-Hype, der zwar meiner Überzeugung nach auch langfristig relevant bleiben wird, wie sich das Ganze aber entwickelt, ist aktuell kaum abzusehen.
Gaminghardware wird sich wohl auch weiterhin verkaufen. Es stimmt zwar, dass ein Großteil der Menschheit dafür Smartphones nutzt, aber die "Core-Gamer", Leute die das als "echtes Hobby" betreiben, sind idr. eher auf "richtiger Gaminghardware" unterwegs, das sehe ich auch bei jüngeren Leuten.
In Asien sehe ich da sogar eher Potential für mehr Gaming-Pcs und Konsolen, da Esport (welcher eher nicht auf Smartphones stattfindet) dort ein großes Thema ist und sich mit einer wachsenden Mittelschicht mehr Leute Gaming-Hardware leisten können.
 
wechseler schrieb:
Für die westliche Videospielindustrie und deren exklusive Kundschaft waren nun Jahrzehnte lang "Rechenleistung" und "Videospielen" fest miteinander verknüpfte Größen.

Eigentlich distanzieren sich viele eSports- und Indie-Spiele schon seit längerer Zeit vom Hardware-Wettrennen. Quake 3 und UT waren zu ihrer Zeit richtige Hardwarefresser, Overwatch dagegen lief von Anfang an auf jeder Kartoffel.

Chinesische Gacha-Games sind auch für Mobile und Kartoffel-PCs ausgelegt. Konsolenports erscheinen verspätet, wenn überhaupt. Mit dem angenehmen Nebeneffekt, dass sie oft besser mit Maus/Tastatur zu steuern sind, als die westlichen AAA-Games, die regelrecht zum Controller nötigen.

Der AAA-Markt schafft sich selbst ab. Eigentlich hätte ich meine letzten beiden Grafikkarten gar nicht gebraucht, weil ich fast nur Overwatch und Gachas spiele, und die laufen hervorragend auf einer 8 Jahre alten GTX 1070.
 
haha gerade erst im Test die Lautstärke vom Astral Teil gesehen...51db...da brauchst ja ohrstöpsel
 
Xes schrieb:
Für Nvidia gab es auch in der Vergangenheit immer wieder gigantische "Trend-Geschäfte" abseits des Gamings, siehe z.B. , Cloudgaming oder ganz extrem die Kryptominingphase, die über einige Jahre enorme Gewinne einbrachten.
Inzwischen hat nVidia als Unternehmen erfolgreich den Absprung aus der "Gaming"-Nische geschafft und hat 2023 die lang etablierte IBM überholt:

25305.png

Wer sich daran erinnert, was IBM im 20. Jahrhundert für eine Hausnummer in der IT war - die IBM hat unter anderem Intel, AMD und Microsoft in ihre heutigen Marktpositionen angeschoben - darf sich darüber klar werden, in was für einer Liga nVidia nun spielt.

Und "Gamer" spielen dabei absolut keine Rolle, sie waren immer nur das "Stupid Money", das für das "nötige "passive Einkommen" gesorgt hat, damit die Bude im kapitalintensiven Geschäft integrierter Schaltkreise nicht untergeht.

Xes schrieb:
Es stimmt zwar, dass ein Großteil der Menschheit dafür Smartphones nutzt, aber die "Core-Gamer", Leute die das als "echtes Hobby" betreiben, sind idr. eher auf "richtiger Gaminghardware" unterwegs, das sehe ich auch bei jüngeren Leuten.
Diese ausgedachten Kategorisierungen gibt es außerhalb des Westens gar nicht. Das siehst du ja schon an den Schwierigkeiten, den Kunstbegriff "Core Gamer" überhaupt in eine andere Sprache als Englisch zu übersetzen.

JMP $FCE2 schrieb:
Eigentlich distanzieren sich viele eSports- und Indie-Spiele schon seit längerer Zeit vom Hardware-Wettrennen.
Selbstverständlich. In dem größerem Markt außerhalb der westlichen Nische assoziiert niemand "Videospiel" mit "hoher Rechenleistung" und entsprechend teurer und aufwendiger Hardware. Selbst das erfolgreichste westliche Videospiel (Minecraft) lief auf jeder "Potato". Sogar letzterer Jargon ist komplett westlich und gar nicht sinnvoll aus dem Englischen übersetzbar. Hat auch was mit dem Anbau- und Verbreitungsgebiet dieser Bodenfrucht zu tun:

Herkunfts-und-Verbreitungsgebiete-der-Kartoffel_Bild_idb1152175315_1024.png
 
Ano_Dezimal schrieb:
Kauf dir eine gebrauchte :)
Gebraucht für einen höheren Preis als die neue Generation?

Ich warte erstmal ab wie die Preise im Sommer aussehen....
 
Ginge es vorwiegend um Anwendung/KI-Workloads wäre die 5090 durchaus interessant, soviel VRAM und Shader sehen gegenüber den Workstation-Karten schon auch preiswert aus. Aber ob sich deswegen viele Gamer das letzte Bein rausreissen, obwohl die ältere Generation 4090 praktisch genauso effizient abliefert, darf doch sehr bezweifelt werden. In dem 5000er Portfolio klaffen weiterhin riesige Lücken, und mit dem Füllen dieser Lücken kann nvidia nochmal 2 Jahre entspannt absitzen...
 
GOOFY71 schrieb:
Wartenden potenziellen Käufern wurde sehr viel Wasser in den Wein gekippt, die 5090 ist eher eine 4090Ti. Aber das hatte ich schon einmal angedeutet. Für mich fällt die Karte vom Preis und Verbrauch her aus dem Raster bei einem Neukauf im März.
Roman der8auer hatte in seinem Review zur 5090 diese auch als 4090Ti bezeichnet.
Ich finde die Bezeichnung eher passender ;)
Ergänzung ()

Phoenix3000 schrieb:
Ich bin eigentlich garnicht enttäuscht. So kann ich meine 4090 behalten und spare eine Menge Geld.
Jetzt wird auch verständlich warum man die 4090 vom Markt genommen hat vorab.
Die wäre weiter munter gekauft worden :daumen:
 
wechseler schrieb:
Diese ausgedachten Kategorisierungen gibt es außerhalb des Westens gar nicht. Das siehst du ja schon an den Schwierigkeiten, den Kunstbegriff "Core Gamer" überhaupt in eine andere Sprache als Englisch zu übersetzen.
Mag sein, in der Praxis ist das auch bei uns ein "fließender Übergang" denn auch in den Steamcharts dominieren Grafikkarten, die viele hier im Forum als veraltet und nicht mehr "spieletauglich" ansehen würden. Das bedeutet aber nicht, dass es keinen, oder einen abnehmenden Markt für alles überhalb von Smartphonegaming gibt. Es gibt weltweit Leute die Videospiele als ihr Hobby ansehen und gerne, sofern es ihnen möglich ist, extra Geld ausgeben um ein besseres Spielerlebnis zu erhalten.
wechseler schrieb:
Und "Gamer" spielen dabei absolut keine Rolle, sie waren immer nur das "Stupid Money", das für das "nötige "passive Einkommen" gesorgt hat, damit die Bude im kapitalintensiven Geschäft integrierter Schaltkreise nicht untergeht.
...und mmn. wird es das auch bleiben:
Ein weiteres, wenn auch im Vergleich mittlerweile recht kleines Standbein, welches für sich selbst trägt, verlässlich Gewinn abwirft und so dafür sorgt, dass man breiter aufgestellt ist. Zumal es Synergien zwischen anderen Bereichen gibt. (z.B. Raytracing Beschleunigung wird auch in den Renderingfarmen der Film- und Medienbranche benötigt, KI wird in Spielen und zur Videospielproduktion eine immer größere Rolle spielen usw..)
Es spricht eigentlich nichts dafür, dieses Segment in irgendeiner Form einzustampfen, abzutreten oder als komplett unwichtig zu ignorieren, auch wenn es sicherlich nicht mehr im primären Fokus stehen wird.
wechseler schrieb:
In dem größerem Markt außerhalb der westlichen Nische assoziiert niemand "Videospiel" mit "hoher Rechenleistung" und entsprechend teurer und aufwendiger Hardware. Selbst das erfolgreichste westliche Videospiel (Minecraft) lief auf jeder "Potato".
Nochmal:
Nur weil sich ein großer Teil der Leute mit Candycrush und ähnlichen asiatischen Vertretern. zufrieden gibt, gilt das eben nicht für alle.
Es gibt neben diesem gigantischen Markt der casual Mobile Games eben auch noch das nächste GTA, oder speziell auf Asien bezogen Black Myth Wukong, welches dort gut ankam und damit für einen ordentlichen Anstieg der Steamnutzerzahlen gesorgt hat.
In Teilen von Asien waren (evtl. auch noch sind, da bin ich aktuell nicht so informiert) Videospiel-Cafes sehr beliebt und verbreitet, weil die Leute dort günstig spielen konnten. Mittlerweile sind wohl Smartphones das günstigste Mittel um Spiele spielen zu können.
Ich würde aber behaupten, wenn du dort einen jungen Menschen der grundsätzlich an Videospielen interessiert ist fragen würdest, ob er lieber auf seinem Smartphone billige f2p oder an einem leistungsstarken Gaming-PC AAA-Blockbuster spielen würde, würde er letzteres sagen, auch wenn er/sie sich ihn nicht leisten kann.
In China ist der Anteil an Leuten, die zur Mittelschicht zählen in den letzten 10 Jahren praktisch explodiert (laut kurzer Suche vervierfacht zwischen 2015-2022) und auch wenn es dort gerade (wie überall) kriselt, dürfte sich dieser Trend fortsetzen und langfristig ermöglichen, dass sich mehr Menschen den Luxus leisten können für ein besseres Gamingerlebnis Geld auszugeben.

Sollte der KI-Markt dann in den nächsten Jahren etwas gesättigt sein, wenn die Großkunden alle ihre Serverfarmen samt Mini Atomkraftwerk stehen haben, gibt es evtl. auch wieder freie Fertigungskapazitäten die Nvidia nutzen kann um gewinnbringend Gaming-Grafikkarten zu verkaufen. Das bringt pro stk. nicht die gleichen riesigen Gewinne, garantiert aber stabile Umsätze bis zum nächsten großen Ding der Techbranche, wofür sich GPUs gut eignen.
 
lottepappe schrieb:
War ja eigentlich abzusehen.. diese Grafikgenerationen sind für die Einführung neuer "Technologien"...

Damals von der 1080 auf 2080 gab es auch kein wahnsinns großer Sprung.. und von der 2080er auf die 3080er war ganz okay.. wir sind halt mit der 4000er verwöhnt, weil das ja wirklich ein mächtiger Sprung war.
Der reelle Performancezuwachs von 1080 auf 2080 war durch DLSS aber viel größer. Eine 1080(Ti) kann kein DLSS. Eine 2080(Ti) aber schon. Klar, man kann jetzt mit Softwarelösungen, wie FSR/XeSS, argumentieren, aber viele Spiele unterstützen ausschließlich DLSS oder haben dies zumindest zum Release.
 
Ich gebe zu, ich mag wie die 5090 aussieht. Da hört es aber auch schon auf, deswegen werde ich mein System so lassen wie es ist.

Zumal ich irgendwie keine Games spiele oder momentan auf der Agenda habe die mein System völlig aus der Puste bringen würde.

Ich bin froh, weil ich so mein ganzes System nicht auseinander bauen muss. Die Investition wäre noch begleitet worden von einer neuen CPU und einem neuen Mobo, mal sehen was dann so in 2 Jahren verfügbar ist.
 
Zurück
Oben