News GeForce RTX 50 & RDNA 4: Wie ist euer Erst­eindruck zu den Grafik-Neuheiten der CES?

Ich habe dort nichts präsentiert bekommen, was auch nur im entferntesten einen Kaufreflex auslösen würde.

Fakeframes finde ich in etwa so ansprechend wie Silikonbrüste.

Vielleicht, je nach Geschmack, ganz nett anzusehen. Aber sobald man Hand anlegt, merkt man sofort, dass etwas nicht stimmt.

Aber es passt natürlich wunderbar zum Zeitgeist von Snapchatfiltern, Ki-Gedöns und Oberflächlichkeit.

Zu meinem Glück stellen die meisten wirklich guten Spiele keine sonderlich hohen Ansprüche an die Grafikkarte :-)
 
jotka24 schrieb:
Schade, dass Nvidia beim Thema VRAM wieder mit angezogener Bremse unterwegs ist. Und ich rede nicht von der 5070.

  • die 5080 hat für ihre Leistung zu wenig VRAM
  • die 5090 hat auch zu wenig VRAM, weil 32GB für AI zu wenig (kaum Mehrwert zu 24GB, z.B. kaum LLM-Modelle), es hätte mind. 48GB sein können.

Das sage ich aus dem Kontext heraus, dass es sich bei Nvidia um ein Unternehmen handelt, dass an der Speerspitze zu KI stehen will und dann das Thema VRAM (das dafür absolut zentral ist) so rigide einschränkt. FAIL!

Das ist aus Anwendersicht betrachtet deutlich ungünstig.Aus Gamersicht vielleicht kein Problem (16GB und mehr scheinen je nach Spiel und insb. Texturqualität aktuell völlig ausreichend), aber ist zu kurz gedacht. Kommende LLM-Modelle, z.B. für NPCs in RPGs, werden auch im VRAM untergebracht werden müssen. Die künstliche Verknappung von Generation zu Generation hemmt und verzögert die Spieleentwicklung in dem Bereich. Verzögert auch den Impact von z. B. ACE, da schießt sich Nvidia ins eigene Bein.
Naja die Karten werden ja zum absoluten Großteil von Endverbrauchern und zum Gaming gekauft / produziert.

Und mit dieser "Verzögerung" eines vernünftigen Angebotes, schießen sie sich bestimmt nicht ins eigene Bein.
So besteht immer weiter ein Bedarf und sie können den Markt schön in Zukunft weiter melken.

Im Bezug auf die Spieleentwicklung haben sie doch bereits das absolute Traumszenario für sich selber geschaffen mit solchen "Erfindungen / Einführungen" von Technologien wie Raytracing, die unglaublich leistungshungrig sind, aber im Vergleich dazu jetzt nicht so unglaublich viel an den Visuals ändern.
Der Markt ist einfach komplett unproportional geworden.
So sehen Spiele von 2024 oft sogar noch schlechter aus, als bereits Spiele vor einem Jahrzehnt oder 7 Jahren, was ja eigtl. ein absoluter Quantensprung in diesem Universum ist.
 
  • Gefällt mir
Reaktionen: Norebo
Brrr schrieb:
Meine 6900XT ebenso. Spiele aktuell eh nur gut gealterte Games.
Absolut - hab mich endlich mal in Witcher 3 festgebissen (Next Gen mit Upscaling auf 4k ohne RT) und es sieht schon so absolut fantastisch aus!
Das einzige was ich noch grafisch verbessert wünscht wäre eine Haarsimulation, die besser aussehende Haare und Felle darstellt, ein bissel bessere Vegetation, die auch nah mehr nach echtem 3D aussieht, dann im Bereich Rüstung, Kleidung eine bessere Stoffsimulation und vielleicht noch allgemein Physik.
Aber grafisch ist das Spiel so eine Bombe, genau wie Cyberpunk (ohne RT), ich seh nichts, was ich sonst noch verbessert haben wollte - ich mag es wenn man auch hochwertige Spielecomputergrafik als solche erkennt.

Diese AI Fetzen mit Deep Fakes, die inzwischen als Vids auftauchen sind verstörend und nur noch an ihren Unsinninhalten zu erkennen - sowas lehn ich total ab!

Aber mann, gute Grafik hat schon seit vielen Jahren ein Niveau, das selbst heute von unerfahrenen Teams mit modernen Mitteln nicht erreicht wird und dank DLSS und Konsorten wird daran noch mehr gespart, weil die AI hübscht es ja auf - der Endzustand sind dann prozedual generierte Grafiken, die bei jedem Nutzer und Nutzen anders aussehn und gar keine definierten Originalpixel mehr enthalten!
 
  • Gefällt mir
Reaktionen: Kenjiii und Brrr
BDR529 schrieb:
Sorry, aber gähnen kann ich langsam nur mehr über immer die selbe VRAM-Leier... jedes Mal... unter jedem Artikel, unter jeder News...
Ja, das nervt. Und die Leute plappern das überall auch nach.
Dabei sieht es nicht gerade danach aus, als wären 16GB in den nächsten Jahren irgendeine Bremse.
 
  • Gefällt mir
Reaktionen: Fallout667
Von der 5090 hätte ich etwa mehr erwartet, nicht von der höheren Performance sondern vor allem auch in Sachen Effizienz! Also ich komme mit der 4090 und dem 850 Watt Netzteil bestens zurecht und sehe es null ein wegen einer 5090 so einen große Aufpreis zu zahlen und dann auch noch ne neue CPU, neues Netzteils mit min 1000 wenn nicht besser 1200 Watt und ggf noch einen neuen 4k@240Hz OLED Monitor zu kaufen. Da ist der Preis der 5090 ja ein Witz gegen die Kosten, die man insgesamt treffen muss, um von der 5090 wirklich zu profitieren!
 
9070XT wird gekauft, noch schnell die 7800XT auf eBay mit ganzen 20€ Verlust verkauft. (Im Vergleich zum Erwerb von vor 9 Monaten)

Ist vielleicht nur eine Sidegrade, aber hey mich juckt es in den Fingern. :D
 
  • Gefällt mir
Reaktionen: Norebo
1000 Watt reichen da völlig aus: bei den Games verbrauchen die CPUs gerne um 100 Watt, nicht mehr!
 
Maxminator schrieb:
das ist es ja. Jeder kriegt eine wenn einer es möchte. Kein Mangel, keine Scalper! Passt soweit ;)
Das wäre schon mega geil, aber ich bezweifle das. Selbst die 4090 war schon ausverkauft damals, glaube deshalb nicht das die 5090 eine bessere Verfügbarkeit hat.
Die meisten Händler haben wahrscheinlich eh nur ein paar Karten, so dass man sich bei allen Händlern durchwühlen muss bis man die Version findet die man auch kaufen will.
 
Loopman schrieb:
Ja, das nervt. Und die Leute plappern das überall auch nach.
Dabei sieht es nicht gerade danach aus, als wären 16GB in den nächsten Jahren irgendeine Bremse.
Trotzdem sind 16gb in einer 1000€+ Preisklasse einfach ein Witz und haben ist besser als brauchen… das nervt das ihr das nicht versteht…🤷🏼‍♂️

Gibt Menschen die Nutzen eine Grafikkarte nicht nur bis zur nächsten Generation und die 3080 10gb läst grüßen.
 
  • Gefällt mir
Reaktionen: -Stealth-, eXe777, Player49 und 4 andere
nene, die Hersteller haben diesmal so viele Versionen auferlegt - so was macht man nicht wenn man von NVIDIA mit den Chips unterversorgt wird!
 
Gamingboar schrieb:
Aber selbst aktuelle Games meistert die doch super.
"Super" ist Ansicht des Betrachters.
Am Ende ist sie doch weniger als halb so schnell wie die 5090, das nach 4 Jahren und auch nur wenn man RT ausklammert.
Klar wenn man Spiele ohne RT spielt oder RT nicht mag, dann kann man noch immer gut in 4k mit 60FPS dank Quality Upscaling spielen. Für viele wird dies reichen.
In Spielen wie CP2077 ist aber ne 5090 mit vollem PT dann aber mind 4 mal so schnell, OHNE DLSS4. Und ohne Frame Gen spielbar.

Mein Anspruch ist aber nicht 60FPS in 4k, sondern 120FPS.
Ob das eine 5090 ohne Frame Gen in allen RT! Titeln schafft, ist noch abzuwarten. Upscaling würde ich aber nutzen.

HighPerf. Gamer schrieb:
Ja alle. Der Absolute Stromverbrauch steigt seit Jahren. Früher war es so das man die Grenze von 300Watt nur ungerne brechen wollte. Die Karten setzten neue Leistungsmaßstäbe aber sind lange Zeit im 250 Watt Bereich als Top Tier Karte geblieben. Klar gabs Ausreisser als Dual GPU aber ich spreche hier von einfachen Karten.
Die RX9070 ist sogesehen in der Mittelklasse angesiedelt und soll laut Leaks biszu 330W verbrauchen und nur so schnell sein wie eine 4080 Super, welche allerdings ne 320W TDP hat und normal unter 300W läuft...
Und ja 330W bei 3Ghz bei einem etwas größeren Chip als ne 7800XT (263W) ist durchaus vorstellbar.
Meine 4090 hat übrigens undervoltet auch selten über 300W verbraucht. Zur Not setzte man ein Powerlimit neben dem UV.

BTW wenn du wirklich niedrigen Verbrauch haben willst, solltest du dann nicht DLSS4 und Multi Frame Gen begrüßen? Gerade das senkt den Verbrauch, da die GPU deine Ziel-FPS mit wenig Eigenarbeit erreicht...

Tevur schrieb:
Kaum gestiegene Rohleistung, die neuen Nvidia-Karten wirken wie DRM-Tokens für deren neue FG-Software.
Und AMD stellt gleich gar nichts vor außer einer RX7900 mit weniger VRAM.
AMD hat auch ein DRM-Token names FSR4 für RX9000 vorgestellt...

Was Rohleistung angeht, sehe ich in den nächsten Generationen auch keine großen Sprünge kommen.
Nvidia muss sich mal entscheiden ob sie eine Gen nur mit Effizienz bringen, weiter nach oben ist keine Lösung und desweiteren auch nicht möglich. Die 5090 wird die letzte Karte mit einem größeren Sprung sein.
 
  • Gefällt mir
Reaktionen: Norebo
SVΞN schrieb:
Ein Ryzen 9 9800X3D und 96 GiByte DDR5-6000 CL28 liegen schon bereit und warten jetzt noch auf das Asus ROG Crosshair X870E Apex und eine GeForce RTX 5090.

Ich bin gespannt wie gut die FE wird, würde aber am liebsten eine Noctua-Edition nehmen.

Wenn der 9950X3D auch auf dem CCX mit 3D V-Cache die vollen 5,7 GHz (oder nahe dran) schafft, gebe ich den 9800X3D original verpackt weiter und nehme den 9950X3D, welcher dann im Game Mode mit 8C/16T läuft und beim produktiven Arbeiten umgestellt wird.

Ich gehe aber nicht davon aus. So oder so habe ich jetzt wieder 5 Jahre Ruhe. :D
Bis das nächste UE Update alle diese Hoffnungen obsolet macht... :D
 
Ich kauf erst nächstes Jahr die 5090 in Form einer 6070 dann für 549$ 😎. Ach Nvidia… das ist schlicht Marketing Beschiss/Unsinn + wieder geplante Obsoleszenz durch 12GB. Wenn das deren tolle Präsentation sein soll, dann lieber gar keine. Da ist mir AMD einfach mittlerweile sympathischer. Und dass sie paar Tage später, aber dafür im Detail präsentieren, find ich ok. Man wartet über ein Jahr auf die neue Generation. Wie manche dann keine weitere paar Tage ruhig abwarten können 😅
 
  • Gefällt mir
Reaktionen: Norebo
Mayima schrieb:
Dann wirst du in naher Zukunft wohl nur noch Klassiker aus der Vergangenheit spielen können - oder musst dein Hobby aufgeben 👍😁

Übrigens: jedes Frame in einem Spiel ist "fake". JEDES! ☝️
Ist halt nicht die Realität.

Und mir als Enduser kann es am Ende doch sche1ssegal sein, wie die Grafik auf den Monitor kommt. Hauptsache sie kommt und sieht gut aus.
Und schon in Kürze wirst du wahrscheinlich auch keinen Unterschied mehr zu "früher" erkennen können.

Was waren das noch Zeiten, als sich Gamer über neue Techniken und neue Ansätze gefreut haben.
Heute alles nur noch weichgespülte.... na, ich lass es lieber.
 
  • Gefällt mir
Reaktionen: Atnam und Holgmann75
gartenriese schrieb:
Wieso schreibst du dann "typisch Nvidia"? Das trifft doch genauso auch auf AMD zu?

Weil Nvidia das auf die Spitze treibt ? Aber damit du ruhig schlafen kannst werde ich Jensen's Ehre damit wiederherstellen das ich auch nun böse auf Lisa gucke
Nicht schön Lisa ! :mad:
 
  • Gefällt mir
Reaktionen: SweetOhm und Norebo
Gamingboar schrieb:
Aber selbst aktuelle Games meistert die doch super.
Klar, aber die interessieren mich zurzeit nicht. Zocke oft am TV in 4K, da würden ganz aktuelle Titel vorallem mit RT nicht schön laufen auf der 6900. Mit ein bisschen Settings Tweaking wärs aber auch ganz ok.
 
Maxminator schrieb:
nene, die Hersteller haben diesmal so viele Versionen auferlegt - so was macht man nicht wenn man von NVIDIA mit den Chips unterversorgt wird!
Schön wärs!
Wobei man auch sagen muss, ein großer Teil der 5090er sind auch noch so "überteuerte" Dinger mit AIO oder anderem BlingBling.
Hoffe die FE ist einigermaßen verfügbar.
 
Ich fand die Nvidia Keynote sehr enttäuschend. Um die neuen RTX Karten ging es nur beiläufig und auch nur höchstens 10 Minuten, der ganze Rest drehte sich um AI, AI, AI und noch mehr AI. Es war mehr als offensichtlich, dass Jensen kein Interesse mehr hat an klassischen Grafikkarten.

RTX Blackwell ist auch eher enüchternd. Für mich ist das nur ein AI Chip mit ein paar Shadern drum herum. Die reine Rasterleistung steigt bestenfalls um 20-30%, die größte Steigerung gibt es - welch Überraschung - bei den AI TOPS. Denn wir sollen in Zukunft nur noch Frames generieren statt rendern. Die Entwicklung bei den GPUs ist mehr als besorgniserregend.

theGucky schrieb:
Die 5090 wird die letzte Karte mit einem größeren Sprung sein.
Welcher große Sprung? Gegen die 4090 ist die 5090 ein lauwarmer Aufguss ...
 
  • Gefällt mir
Reaktionen: Norebo
Also ich bin hin und hergerissen. Möchte zu meiner 3070er ein Upgrade, das Raytracing in WQHD ein paar Jahre packt. Eine 5070er mit 16GB wäre da super gewesen, die TI Version ist mir ein bisschen zu happig zumal ich auch ein neues Netzteil benötigen werde. Bin noch gespannt was jetzt AMD letztendlich leisten wird und zu welchem Preis.
Eine gute gebrauchte 4070er TI Super ziehe ich auch in Erwägung.
Ich könnte mir problemlos eine 5090er kaufen, aber das ist für mich jenseits der Vernunft. Mit fortschreitendem Alter wird man ja doch ein bisschen genügsamer. Kann aber jeden verstehen, der heiß darauf ist!
 
  • Gefällt mir
Reaktionen: Norebo
Loopman schrieb:
Dann wirst du in naher Zukunft wohl nur noch Klassiker aus der Vergangenheit spielen können - oder musst dein Hobby aufgeben 👍😁

Das mache ich sowieso schon, da mich moderne AAA-Spiele maximal langweilen ;-)
 
  • Gefällt mir
Reaktionen: Norebo und Hatsune_Miku
Zurück
Oben