News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

alkaAdeluxx schrieb:
4090 1.949 Euro
5090 2.329 Euro
Also wenn 380€ für dich kein(e) Geld (Erhöhung) ist, kannst du mir das jeden Monat auf mein Konto überweisen :daumen:
😂😂
Ich wusste schon, dass sowas kommt.
Die 5090 meinte ich auch nicht primär. Wobei ich selbst hier denke, dass sich die Straßenpreise nicht groß vom Vorgänger unterscheiden werden, zumindest nicht wenn nicht künstlich verknappt wird. Wird sich schon einpendeln.

Man muss ja auch dazu sagen, dass 80% hier immer von 3000 Euro aufwärts geredet haben.
In deren Augen ist die 5090 jetzt ein echter Schnapper.😂😜

Allerdings kann Nvidia mit den xx90 Käufern nicht wirklich Marktanteile halten, und das weiß Nvidia, deswegen sind die Preise der anderen Karten auch nicht ausgeartet.
 
  • Gefällt mir
Reaktionen: Cinquedea und alkaAdeluxx
just_fre@kin schrieb:
Gerade die RTX 5070 könnte für viele trotz 12GB VRAM die Brot-und-Butter-Karte werden.
Raff von PCGames Hardware hat es in einem Statement auf deren Youtube Kanal nach der Show von letzter Nacht glasklar angesprochen: Finger weg von der 5070 !
Gerade mit dem ganzen Voodoo Hokuspokus wie MFG, mit deren Hilfe Nvidia 4090 Performence der 5070 vorgaukelt, wird die Karte elendig an dem viel zu kleinem VRAM verrecken.

So eine Aussage, gleich nach der Keynote und weit vor dem Test einer 5070, ist schon eine Ansage und unterstreicht nur nochmals deutlich, wie es Nvidia gerade in den unteren Leistungsklassen mal wieder mit dem VRAM Geiz massiv übertreibt. Und das dann bei Karten, wo bei Custom Modellen mit Sicherheit 650-700€ auf den Preisschildern stehen werden.
 
  • Gefällt mir
Reaktionen: Raidiri, Windell, alkaAdeluxx und 2 andere
Ichr werdet die 5090 zur UVP alle so sehen wie ein Schwein die Sterne, das wird alles bis runter zur 5070 TI weggescalpt... ^^
 
alkaAdeluxx schrieb:
4090 1.949 Euro
5090 2.329 Euro
Also wenn 380€ für dich kein(e) Geld (Erhöhung) ist, kannst du mir das jeden Monat auf mein Konto überweisen :daumen:
wobei:
wenn du die Inflation seit Okt. 2022 mit einkalkulierst, entsprechen diese 1949Euro heute dann
2186,82 Euro

dann hatte die 4090 "nur" 24GB VRAM,
die 5090 aber derer 32GB

man kann jetzt wohl nicht sagen, wie teuer GGDR7 RAM ist, aber er macht wohl einen großen Teil der Gesamtksoten einer Karte aus..

sprich: die 5090 kostet nach deinen Zahlen - Inflationsbereinigt - 6,5% mehr als die 4090

hat aber deutlich mehr Speicher, und auch deutlich schnelleren Speicher
 
Wer nen Horrortrip will der schaut sich die Keynote von NVidia an und danach Subservience den Film....Viel Spaß. :)
 
Wir haben 2025 und sind immer noch bei 16GB Speicher... bei ner 1200€ GPU 🤡
 
  • Gefällt mir
Reaktionen: valnar77, Windell und alkaAdeluxx
Apocalypse schrieb:
Ich hoffe mal das bei 20x dann Schluss ist, klingt nicht zielführend darüber hinaus zu gehen ... oder braucht man wirklich mehr als 2000hz Displays? 120hz CRT war ja ziemlich nett, hat 200hz wirklich noch mehr Schärfe in Bewegung gehabt?
Ja, ich hab einen 280hz monitor und einen 144 Hz nebeneinander, man merkt es noch recht stark, wenn man den browser hin und her schiebt, fühlt sich 144hz im vergleich ruckliger an, denke aber man merkt es eben nur im direkt vergleich, in cs2 zocken die pro´s nicht umsonst mit high hz monitore
 
  • Gefällt mir
Reaktionen: Cinquedea
Ich hatte Probleme mich für eine Hardware zu begeistern, bei deren Presentation in jedem 2. Satz erwähnt wird wie wichtig doch KI ist um das gezeigte zu berechnen.

Die software hingegen fand ich beeindruckend.
 
Interessant für Vergleiche bleibt am Ende nur der FPS Wert ohne MFG und ähnliche Frame Generation Technologien. Dass die Möglichkeit besteht sowas anzuschalten ist im Alltag sicher ein nettes Feature, wenn man es mag, aber langfristig zählen auch bei Grafikkarten die inneren Werte und Natürlichkeit. 😁
Ergänzung ()

Easy1991 schrieb:
in cs2 zocken die pro´s nicht umsonst mit high hz monitore
Ganz recht, die werden dafür bezahlt. 😉
 
  • Gefällt mir
Reaktionen: Nine-tailed Fox
legenddiaz schrieb:
Nochmals für euch....

Fake ist es nur, wenn die fps Anzeige einem was vorgaukeln will aber das spielerlebnis tatsächlich nicht besser ist!!

Oder gehört ihr zu den leuten, die sagen dlss sei garnicht besser und Millionen spieler, magazine und computerbase sehen das anders!!

Wenn die Wahrnehmung durch MFG eine bessere ist, dann interessiert es mich 0,000% ob die Hardware, Software oder KI dafür zuständig sind!

Ihr habt die Karten nichtmal in eure Händen, also wie könnt ihr da von fake reden?!

Hm ich kenne das von wo her .....


Ja unrecht hast nicht, aber das sind auch keine "Fakt Frames".
 
  • Gefällt mir
Reaktionen: bogge101
Ich weiß wie gesagt gar nicht so richtig was Ihr wollt.
MFG scheint schon ziemlich brauchbar zu sein und eben zusätzlich mit Reflex sehr brauchbar:

Vorteile von MFG:
  • Erhöhte Leistung: Durch die Generierung zusätzlicher Frames wird die Bildrate signifikant erhöht, was besonders in schnellen Spielen von Vorteil ist.
  • Verbesserte Bildqualität: Die KI erzeugt detaillierte und stabile Bilder mit weniger Artefakten wie Ghosting.
  • Effizienter Ressourceneinsatz: MFG arbeitet effizienter und benötigt weniger Videospeicher (VRAM) als frühere Modelle.

2. Die Neuerungen in Reflex 2

Mit Reflex 2 führt NVIDIA die Frame Warp-Technologie ein, die die Latenz um bis zu 75 % reduzieren kann. Dies funktioniert folgendermaßen:

a. Was ist Frame Warp?

Frame Warp ist ein Ansatz, bei dem Bewegungsdaten des Spielers in Echtzeit analysiert werden.

"Wenn ein Spieler z. B. die Kamera schwenkt, passt Frame Warp den nächsten Frame dynamisch an, bevor er auf den Bildschirm ausgegeben wird. Dadurch fühlt sich die Steuerung direkter und flüssiger an, da Frames schneller angepasst und dargestellt werden."

b. Vorteil: Keine Anpassung durch Entwickler nötig

Ein großer Vorteil von Frame Warp ist, dass es keine speziellen Anpassungen durch Spieleentwickler erfordert. Reflex-kompatible Spiele können automatisch die neuen Vorteile von Reflex 2 nutzen, sobald die Spieler die neuesten Treiber und eine unterstützte NVIDIA-GPU installiert haben.


Somit ist das alles im Allen nicht einfach nur Fake-FPS, der Begriff ist eine Beleidigung!
Nvidia hat es geschafft, den großen FPS-Anforderungen gerecht zu werden, mit Ausmerzung der Nachteile der jetzigen Generation bei FG. Ich finde hier tut man Nvidia regelrecht unrecht oder, Entschuldigung wenn sich das etwas arrogant anhört, vielleicht verstehen viele hier die neue Technik überhaupt nicht.

MFG ist gekommen um zu bleiben..

Zusätzlich kann noch DLSS-Feature wie DLAA dazu geschalten werden.. Das Bild wird wie geleckt aussehen und ein super Spielgefühl bieten..
Ihr werdet sehen, wie gut das laufen wird.

Wer noch Nativ-Fetischist ist, sry der lebt heutzutage hinter dem Mond anno dazumal 2000
Man kann hier wirklich sagen, es ist Rocket-Science!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, jak80, Cinquedea und 4 andere
wer zu diesen preisen kauft, der will einfach hohe preise

die einzig halbwegs bezahlbare karte kommt mit ganzen 12GB RAM, obwohl wir jetzt schon bei einigen spielen sehen, dass das selbst für 1440 schon zu wenig ist.
5070 auch noch viel mehr TDP als die 4070, also holt man sich die rasterleistung einfach durch mehr strom reinpumpen

die 5060 also wieder mit 8GB RAM?

sowas gehört boykottiert, aber wie wir wissen werden sie das zeug trotzdem verkaufen.... leider
 
  • Gefällt mir
Reaktionen: Simonsworld, Öcher Tivoli, Sennox und 4 andere
Del.. Sonst kommen hier die Mods..

Muss ruhig bleiben, alles gut :)
 
Easy1991 schrieb:
, ich hab einen 280hz monitor und einen 144 Hz nebeneinander,
Nicht vergessen, LCD zu CRT hast du einen ticken mehr als Faktor 16 dazwischen von der Bildschärfe im Bewegung.
Also 120 zu 200 ist wie 2000 zu 3333hz und FPS.
Mit den 280hz hast du ja nicht mal die alte Pal Glotze an Motion Clarity.

Und da wundern sich manche warum Fußball schauen heute einfach nimmer das selbe ist wie früher. ;-)
Also klar, ist 280hz deutlich besser. Und 480hz ist nochmal besser, etc

Standbilder und Screenshots sind heute halt toller. Und auch bei der Grafik in Spielen ging einiges weiter, RT ist ja toll, und wenn so ne 4090 noch einen Composit ausgang hätte, dann wäre RT auf so einem alten 1080p Fernseher mit 30 FPS wahrscheinlich auch viel geiler, als was die ganze AI-DLSS MFG Rechnerei so auf ein 240hz OLED Zaubern kann.

Aber CRT war halt bei bei 42" schon iirc über 100kg schwer und mehr als 45" sind iirc nie gebaut werden, einfach weil so eine riesige Vacuumröhre viel zu aufwendig und schwer wird. Da war halt Ende von Gelände bei Fernsehern. Schade das wirs für Monitore auch aufgegeben haben. So einen 100 Kilo 36" CRT hätte ich mir schon noch zum spielen auf einen Tisch gestellt.
 
ElectricStream schrieb:
Muss ruhig bleiben, alles gut :)
😆
Nix für ungut.
 
  • Gefällt mir
Reaktionen: ElectricStream
DaBas schrieb:
und unterstreicht nur nochmals deutlich, wie es Nvidia gerade in den unteren Leistungsklassen mal wieder mit dem VRAM Geiz massiv übertreibt.
Das würde ich so nicht unterschrieben. Die 12 GB sehe ich als vollkommen in Ordnung an, die reichen bis QHD für fast alles, nur halt eben nicht für 4K mit Max-Settings. Problematischer finde ich eher die Preise und die gleichzeitige (widersprüchliche) Einstufung der 5070 in die "untere Leistungsklasse" von einigen Leuten. Preislich ist es Oberklasse, leistungsmäßig Mittelklasse, und gefühlt für viele Gamer offenbar Einstiegsklasse. Irgendetwas passt da doch nicht.

Als Nutzer einer 4070 Ti mit "nur" 12 GB kann ich sagen, dass dieser VRAM-Fetisch absoluter Schwachsinn ist. Die meisten, die das kritisieren, drehen halt alle Regler auf "Ultra" und erwarten dann das uneingeschränkte Premium-Erlebnis mit 120+ Hz in QHD+ oder 4K, was dann aber eben auch weit über die Mittelklasse hinausgeht - und erst recht über die "Unterklasse", in die sie die Karte einordnen. Doppelmoral pur.
 
Ich bin mir sicher, das, wenn die Community gefragt würde, lieber mehr VRAM favorisiert würde als DLSS 4.

Warum ist das nicht möglich? Bringt einfach eine neue Generation an Karten raus, die das gleiche kann wie der Vorgänger, aber mehr VRAM von Einstieg bis High End hat.

Ich glaube damit wären alle glücklicher, als mit dem neuesten KI Schnulli, den eh kein Game unterstützt.
KI ist schon geil, aber wenn die Spielfigur in eine Mauer fällt, bleiben die Arme in selbiger stecken.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
legenddiaz schrieb:
Wenn die Wahrnehmung durch MFG eine bessere ist, dann interessiert es mich 0,000% ob die Hardware, Software oder KI dafür zuständig sind!
Die Latenz ist ja aber gerade eben schlechter durch MFG als ohne. Das hat Nvidia doch ganz klar so kommuniziert gestern. Spürbar schlechter, da die Verhältnisse dieselben sind wie bei FG. aber die "Motion Clarity" wird jetzt 2x so stark verbessert mit MFG als mit FG, passenden Monitor mal vorausgesetzt.

Das ist super, weil es sieht trotzdem flüssiger aus. Was auch kein Wunder ist, siehe oben. Sample and Hold Displays sind eben noch weit weit weg von guter Darstellung von bewegten Bildern.
 
Haha xD

Ja mich nervts einfach so dermaßen hart, das hier nicht mehr frohlocket wird.
Verabschiedet euch von der Rohleistung.. Nvidia hat die komplette Veränderung eingeleitet von dem was wir bisher als Grafikerzeugung kennen..

Aber ist okay, ist gut wenn sich viele Leute aufregen, dann kann ich mir am 30 schön ne Karte sichern..
 
  • Gefällt mir
Reaktionen: Kommando, Quidproquo77, jak80 und eine weitere Person
Zurück
Oben