News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

RAZORLIGHT schrieb:
Dann lese noch mal und schau dir Benchmarks an.
Ich hatte vor der 2070 super eine 1080ti hat dann aber innerhalb der Garantie den Geist aufgegeben, hab dann von Amazon das Geld erstattet bekommen, da die 1080ti nicht mehr lieferbar war.
Da brauche ich mir keine Benchmarks anzusehen. Meine 1080 TI macht auch jede 3060 noch platt. Ich streame damit nach wie vor aktuelle Games. Klar nur Full HD aber...läuft.
 
  • Gefällt mir
Reaktionen: PrimeskyLP und LETNI77
iron_monkey schrieb:
Sorry, deine persönlich Meinung intressiert mich in diesem Fall nicht!
Pisaro hat recht, es ist kein Umtauschgrund. Jedoch habt man in der EU das Recht, dass man es zurückschicken kann ohne Angabe eines Grundes.
Ich kann es gut verstehen, aber es hat einen Beigeschmack, wenn man 5x zurücksendet.
 
  • Gefällt mir
Reaktionen: Pisaro und PrimeskyLP
Tests ohne Frame Generation und DLSS zeigen die unverfälschte Leistung zu der Vorgeneration, wenn ich auf meiner 4090 Frame Generation aktiviere, dann habe ich zwar 144Fps und das Bild wirkt sauberer, aber die Eingabe zwischen Maus und Monitor liegt bei der Hälfte der Bilder (sehr sehr schwammig)

Mal schauen wie die das mit der 50xx Serie hinbekommen. Jedoch kann ich sagen das die extrem hohen Bilder eine Täuschung sind da es keine Software gibt (MSI Afterburner, CapFrameX oder sonstige) welche die Fake Frames erkennen und rausrechenen können. Auch dass dieses Feature gerade "nur" in der Disskusion erwähnt wird, zeigt wo der Fokus bei dieser Generation liegt.
 
  • Gefällt mir
Reaktionen: dermatu, PrimeskyLP, Syrato und eine weitere Person
Drummermatze schrieb:
Man stelle sich mal ein Leben ohne DLSS vor. Dann würden wir heute immer noch kein 4K mit >100FPS schaffen.
Ich bin froh dass es das gibt. Da ist 4K selbst für meine 4070Ti kein Problem mehr.
FG bzw. MFG ist dann das Mittel der Wahl um die Karte noch 1-2 Jahre länger zu nutzen.
Tja, viele Menschen wollen sich eben gern selbst betrügen, gern auch mit falschen Zielen - und da muß eben ein 4k oder demnächst 8k auf biegen und brechen "geschafft" werden, auch, wenn es für das Spielerlebnis völlig unerheblich ist.
 
Sennox schrieb:
Ich hab mich vorrangig auf Gamer in den Steamcharts bezogen, am Mining haben aber auch AMD wie Nvidia verdient.
Mir geht es vorrangig um das Image bzw die Bekanntheit die AMD meiner Beobachtung nach bei Gamern und normal Verbrauchern inne hat und da spricht das Beispiel 1060 vs 480 Bände
Auch in Steam-Charts waren die RX 400er und RX 500er Karten ganz oben, relativ zum Marktanteil gesehen.

Dass AMD NVIDIA nicht das Wasser reichen kann - ist klar.

Aber auch Intel war vor einiger Zeit eine Übermacht.
 
nn|none schrieb:
Ganz recht, die werden dafür bezahlt. 😉
natürlich werden die bezahlt für Werbung, daran liegt es aber nicht, sonst würde man ja auch 4K Monitore sehen….




 
Die Karten für sich alleinstehend sind schon klasse. Kritik würde ich an der 5070 mit 12gb was gerne hätten 16 sein dürfen und an der 5080 die gerne hätte 24 haben dürfen anbringen.

Aber für sich allein genommen. Echt gute Karten.

Nur lohnt sich der umstieg wenn man schon eine 4090/4080 in Rechner hat halt quasi gar nichts.

Die präsi mit Fokus auf MFG zu halten war ein cleverer und bewusster Schachzug und wenn man sieht wie viele auf "5070 ist so schnell wie 4090" rein fallen, hat sie auch funktioniert - unabhängig davon was ich persönlich davon halte.

Positiv ist das auch 4xxx Besitzer ein verbessertes FG wie auch Reflex bekommen. Schade ist das nur 5xxx mfg bekommt. Aber unterm Strich: wenn ich 45-50 fps brauche um FG vernünftig nutzen zu können , und das auch für mfg brauche, ändert sich am Ende nur die Ziel fps, ist aber in beiden Fällen so hoch das es zum fluffigen gamen reicht.

Dazu muss das Feature auch erstmal überall eingebaut sein und vernünftig funktionieren.

Ich erwarte im Grunde eigentlich nur das sich FG mit Reflex 2 nun öfter gut benutzen lässt und mfg rüber kommen wird wie FG heute. Also darf das eh erstmal reifen.
 
Kadett_Pirx schrieb:
Tja, viele Menschen wollen sich eben gern selbst betrügen, gern auch mit falschen Zielen - und da muß eben ein 4k oder demnächst 8k auf biegen und brechen "geschafft" werden, auch, wenn es für das Spielerlebnis völlig unerheblich ist.
Den Zusammenhang musst du mir mal erklären.
Es soll auch Menschen geben, die arbeiten UND zocken. Natürlich mit dem selben Monitor.
Einfach mal über den eigenen Tellerrand schauen. :)
 
  • Gefällt mir
Reaktionen: Wichelmanni, Col.Maybourne und Holgmann75
iron_monkey schrieb:
Was hat das jetzt mit mir zu tun oder wolltest deinen Frust mal an irgendwem loswerden?
Hast du meinen Post gelesen?
Durch sein Verhalten und das vieler andere ist das alles ausgelöst worden.
 
ich bin mal gespannt, ob es diesmal wieder verschmorte 12V-2x6 gibt, wenn man den Stecker jetzt noch wesentlich mehr an der Grenze betreibt als es bei der 4090 der Fall war - 575 W alleine für die Graka ....
 
  • Gefällt mir
Reaktionen: Sennox
Alles in allem muss man abwarten wie viel Zuwachs in der Realität noch wirklich ankommt.

Sich hinzustellen dass selbst mit 5090 Cyberbug mit 28 FPS läuft ist ein Armutszeugnis aller beteiligten. Da kann ich es aber auch auf Software schieben.

Das jetzt aber mit 1:3 fake frames aufzuwiegen was die Latenz nochmal erhöht und sich dann wirklich wie 30 fps anfühlen obwohl 200+ auf dem Monitor stehen ist halt eine wirklich düstere Zukunft.

Was stehen bleibt sind ein Viertel mehr Fläche, Transistoren und Stromverbrauch und raus kommen vielleicht 30% Mehrleistung sodass die Leistung pro Chipfläche ungefähr gleich bleibt.

Wirklicher Fortschritt sieht anders aus.
 
  • Gefällt mir
Reaktionen: Sebbi, Sennox, HerrRossi und 3 andere
AxelStu schrieb:
Ghosting, smearing, flickern, flackern, schimmern...
Ich würde gerne DLSS nutzen, aber ich sehe da fast immer etwas, das mir das bild unruhig macht.
Selbst mit DLAA.
Letzte Beispiele für mich waren Horizon FW und Indiana Jones.
Ohne AA hast du flickern und flackern aus der Hölle. Mit DLSS flickert/flackert da gar nichts.
In Indiana Jones hast du dann wie gespielt? Mit TAA, dass noch schlimmeres Ghosting und Smearing aufweist? Achso.
 
  • Gefällt mir
Reaktionen: KuroSamurai117 und dermatu
PS828 schrieb:
Alles in allem muss man abwarten wie viel Zuwachs in der Realität noch wirklich ankommt.

Sich hinzustellen dass selbst mit 5090 Cyberbug mit 28 FPS läuft ist ein Armutszeugnis aller beteiligten. Da kann ich es aber auch auf Software schieben.

Das jetzt aber mit 1:3 fake frames aufzuwiegen was die Latenz nochmal erhöht und sich dann wirklich wie 30 fps anfühlen obwohl 200+ auf dem Monitor stehen ist halt eine wirklich düstere Zukunft.

Was stehen bleibt sind ein Viertel mehr Fläche, Transistoren und Stromverbrauch und raus kommen vielleicht 30% Mehrleistung sodass die Leistung pro Chipfläche ungefähr gleich bleibt.

Wirklicher Fortschritt sieht anders aus.
Ich bin zwar kein Chip designer aber hätte man da nicht einfach mehr RT Kerne und Cuda Kerne reinpacken können für mehr Leistung? AI hin oder her ist zwar nice to have bei Consumer karten aber sowas sollte eigendlich eher bei Profesionellen Karten oder eigen TPU Karten zuhause sein.
 
PrimeskyLP schrieb:
Hört sich für mich nach Nvidia AI fanboy an. Ich will meine Spiele gestochen Scharf haben und nicht verschommen. Mit DLSS und dem ganzen anderen kram hat man niemanden einen gefallen getan, anstatt das 4K Erlebniss zu verbessern wird die Technik nur genutzt um Spiele nicht mehr Optimieren zu müssen um Geld zu sparen, bestes beispiel Monster Hunter bei dem man für 1080p MINIMUM DLSS benötigt für MONSTER HUNTER das Game sieht ja nicht mal wirklich Gut aus.
Irgendwie witzig, dass du über ein Spiel urteilst, das noch gar nicht erschienen ist und das dann als Beispiel dafür aufführst, dass Spiele unoptimiert sind.
Das neue Monster Hunter istn Open World Spiel. Diese Art von Spielen hat schon immer extrem Leistung gefressen und sah dabei nicht gut aus. Das war noch nie anders.
WoW hat Comicgrafik und lief in Raids wie ein Sack Schrauben auf Highend PCs, aber Hauptsache der AMD Fanboy hat mal wieder gegen DLSS geschossen mimimi :(
 
gedi schrieb:
Eine 5090 liegt ohne FG ganze 25% vor einer 4090 mit RT. Sorry, aber die Dinger sind slightly fail!
Wenn ich mir die Leistung einer 4090 ansehe, dann sind 25% mehr schon deutlich.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
@PrimeskyLP sie haben halt ihre Prinzipien des GA102, also des 4090 chips genommen und entsprechend vergrößert. Nichts anderes kann man drauf ableiten.

Die HPC karten sind sowieso nochmal anders aber da muss man schauen was Nvidia wirklich beim Endkunden sehen will. Der Umsatzanteil von GeForce ist wirklich sehr klein geworden
 
  • Gefällt mir
Reaktionen: PrimeskyLP
ElliotAlderson schrieb:
Also Motionsickness? Sollte davon eigentlich nicht auftreten. Sitzt du vielleicht zu nah am Bildschirm?
Nein, mit der Nähe zum Monitor hat das nichts zu tun. Das Problem kommt bei mir eher daher, dass ich bei FG unterbewusst auf gewisse Artefakte reagiere. Ist in dem Fall auf meine Hypersensibilität zurückzuführen.

Das sind aber individuelle Probleme, die den Einsatz bei mir verhindert. Es kann halt sein, dass das mit MFG besser wird, weil die "Bildfehler" nicht mehr im Wechsel stattfinden, sondern sich das entspannen könnte.
 
z-R-o- schrieb:
Verdammte 2300€ für eine GPU? Dafür habe ich vor grob 10 Jahren zwei komplette PC's in der oberen Mittelklasse gebaut.

Ja, FRÜHER war natürlich alles besser!!11 Die Titan X zum Beispiel, welche inflationsbereinigt heute 1400 Euro kosten würde. Klar sind das noch keine 2300 Euro, aber die Zielgruppe ist die gleiche. Die 5090 ist doch keine "Massenkarte". 95% aller Spieler werden doch mit einer 5070 oder 5080 locker auskommen. Bzw. in weiterer Folge mit einer 5060 oder einer Karte von AMD.

Keine Ahnung, warum sich hier soviele auf die 5090 einschießen. Nvidia sollte sie wirklich wieder anders benennen, sodass sofort klar ist, dass diese Karte nicht auf das FullHD/WQHD/60fps Publikum abzielt.

Ich bin Jahrzehnte lang gut mit den zweitschnellsten oder gar drittschnellsten Karten gefahren. Warum heute alle glauben, eine 5090 haben zu müssen, ist mir schleierhaft. Dass Nvidia das natürlich gerne annimmt, verwundert mich hingegen nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NoPCFreak, Kraeuterbutter, WhiteRabbit123 und eine weitere Person
Zurück
Oben