News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

TigerNationDE schrieb:
Aber auch nur mit DLSS dank AI und Softwareoptimierung. DAS ist der entscheidende Punkt. Wir werden abwarten müssen was ohne dieses Feature nachher aus der Karte kommt.Ich hab das so verstanden das wir bei 2x von "Rohleistung" und diese 2x -4x eben mit DLSS meint.
Ich habe das so verstanden das 2x die "Rohleistung" meint und 2x - 4x mit DLSS.
 
Phil Spencer meinte damals, er wird die Xbox nicht billiger anbieten, da Sony sonst auch mit den Preis runter geht... und dann würden BEIDE weniger Geld verdienen.

Ich befürchte AMD denkt sich das gleiche...
 
  • Gefällt mir
Reaktionen: TigerNationDE
DRVNabsolute schrieb:
Ich habe das so verstanden das 2x die "Rohleistung" meint und 2x - 4x mit DLSS.
Die ganzen Videos dazu von MSFS und CP2077 waren alle mit DLSS. Für mich war das ziemlich eindeutig.
 
Kann unabhängig von den Grafiken nicht bewerten in wie weit die Leistung stimmt.

Aber rein vom Preis: Macke?!

Chipmangel etc hin oder her. Aber die Preise gehen doch nicht mehr. Sorry.

Meine ersten Rechner waren damals um die 1000€ und auch nicht so schlecht. High End nie aber gehobenes Mittelfeld. Wie soll man das heute noch machen?
 
Zerbich schrieb:
Phil Spencer meinte damals, er wird die Xbox nicht billiger anbieten, da Sony sonst auch mit den Preis runter geht... und dann würden BEIDE weniger Geld verdienen.

Ich befürchte AMD denkt sich das gleiche...
Das ist einfach der typische Lauf der Wirtschaft. AMD hat die selben Vorgängerkarten am Markt wie nVidia auch, wieso sollten DIE also ihre Vorgeneration quasi verbrennen?
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Ich finde die 4080 16GB ist auch problematisch, da preislich relativ nahe an der 4090, aber drastisch weniger Cuda-Cores
 
  • Gefällt mir
Reaktionen: Corpus Delicti
TigerNationDE schrieb:
Aber auch nur mit DLSS dank AI und Softwareoptimierung. DAS ist der entscheidende Punkt. Wir werden abwarten müssen was ohne dieses Feature nachher aus der Karte kommt.

Sollte die Qualität von DLSS 3 gut bis sehr gut sein (sprich keine Probleme mit Latenz und Bildqualität) und die Verfügbarkeit in Grafikintensiven Titeln ebenfalls dann ist es vollkommen egal ob das auf AI "Magie" oder Rasterrohleistung basiert.

Dann kommt am Ende nur bei raus "Läuft auf Nvidia wesentlich schneller". Das Ergebnis am Ende muss stimmen. Der Weg dahin ist absolut sekundär.
 
  • Gefällt mir
Reaktionen: RogueSix, .Sentinel. und B.L. Swagger
Immer wieder liest man die 4090 soll 2-4x Leistung der 3090Ti haben.

Aber doch nur mit DLSS 3.0. Egal wie schön DLSS 3.0 ausschaut ist es doch grundsätlich falsch.

Sie kann zwar die Frames verdoppeln, aber die Hälfte der Frames sind keine echten Frames aus der Engine. Egal wie gut das auschaut, es ist von der Wortwahl her falsch. Und vor Allem es läuft grundsätzlich nicht mit allen möglichen Games.
 
  • Gefällt mir
Reaktionen: eXe777, MegaManX4, Dai6oro und eine weitere Person
Humbertus schrieb:
Sollte die Qualität von DLSS 3 gut bis sehr gut sein (sprich keine Probleme mit Latenz und Bildqualität) und die Verfügbarkeit in Grafikintensiven Titeln ebenfalls dann ist es vollkommen egal ob das auf AI "Magie" oder Rasterrohleistung basiert.

Dann kommt am Ende nur bei raus "Läuft auf Nvidia wesentlich schneller". Das Ergebnis am Ende muss stimmen. Der Weg dahin ist absolut sekundär.
Und was bringt dir das, wenn du nicht weisst ob und welche kommenden Titel DLSS3 haben werden?
Ergänzung ()

Sun-Berg schrieb:
Immer wieder liest man die 4090 soll 2-4x Leistung der 3090Ti haben.

Aber doch nur mit DLSS 3.0. Egal wie schön DLSS 3.0 ausschaut ist es doch grundsätlich falsch.

Sie kann zwar die Frames verdoppeln, aber die Hälfte der Frames sind keine echten Frames aus der Engine. Egal wie gut das auschaut, es ist von der Wortwahl her falsch. Und vor Allem es läuft grundsätzlich nicht mit allen möglichen Games.
Ein Blender eben ;)
 
B.L. Swagger schrieb:
Die 4090 soll viel weniger Spannungs schwankungen haben als Ampere und NV empfiehlt ja nicht umsonst für die ein 850W Netzteil was mit dem beiligenden Adapter betrieben werden kann.
Ja die Adapter... das ist nochmal so ne extra Sache....
Der Punkt ist, die Karte "darf" sich 200% max Power genehmigen für 100µs oder so (IIRC). Das ist gemäß Specs "ihr gutes Recht". Ein ATX2 Netzteil < 1000W hat daher immer das Risiko, daß spontan der PC ausgeht oder neustartet oder sonst irgendwelchen seltsamen Dinge tut.

Dann gucken wir Corsair. Die verteilen derzeit ein 12VHPWR Kabel mit 600W fest verdrahtet. Sprich jede 4090 die "warum auch immer" übertaktet wird - und sei es nur auto OC -- darf plötzlich 600W nominativ, egal was für ein NT da dranhängt, und darf 1200W, solange sie nur nach spätestens 0.1s damit wieder aufhört.
Kann man machen. Da mujß man aber wissen was man tut. Konkret Corsair hat seine NT (inzwischen) in der Überwachung, aber die muß man auch angucken. 900W ATX2, oder sogar noch kleiner, wäre mir für 4090er Karten - die 2000+ Euro kosten WERDEN, zumindest zu Anfang --- ein komplett vermeidbares Risiko gewesen.

Und da reden wir noch nicht von potentiell zu kleinem Querschnitt des 12VHPWR oder der Frage, ob die Karte auch wirklich 50A gleichmäßig auf die sechs Leitungen verteilt (für <=9A/line) oder nicht (50A/line) -- nach meinem Verständnis gibt es da tatsächlich Tests, die exakt solche Situationen nachgewiesen haben, weil die Anschlußleitungen nicht verbunden waren.
 
Tom-S schrieb:
Ich finde die 4080 16GB ist auch problematisch, da preislich relativ nahe an der 4090, aber drastisch weniger Cuda-Cores
Und genau da wird AMD sich platzieren. Das Topmodell langsamer als die 4090 aber deutlich effizienter, darunter werden sich die kleineren Karten platzieren und immer noch besser sein als die Konkurenz, insbesondere bei der Effizienz. Die AMD Grafikkarten werden jenseits der 3GHZ aggieren und unglaublich effizient sein, aber auch konkurenzfähig sein, wenn nicht sogar besser sein.
 
Bullet Tooth schrieb:
Und genau da wird AMD sich platzieren. Das Topmodell langsamer als die 4090 aber deutlich effizienter, darunter werden sich die kleineren Karten platzieren und immer noch besser sein als die Konkurenz, insbesondere bei der Effizienz. Die AMD Grafikkarten werden jenseits der 3GHZ aggieren und unglaublich effizient sein, aber auch konkurenzfähig sein, wenn nicht sogar besser sein.
Deine Glaskugel hätte ich gerne. Ich seh den späten Launch eher so, das man sich absolut nicht sicher ist, wo man am Ende landet.
 
Was Verteilung der Karten angeht, wird es bei AMD sicherlich besser aussehen.
Da für viele aber "Gaming-GPU=Geforce" ist, wird AMD wohl nur wenige Marktanteile gewinnen können
 
  • Gefällt mir
Reaktionen: TigerNationDE
Ayo34 schrieb:
DLSS3 macht ein Bild (Bild3), speichert es, generiert aus Bild1 + Bild3 ein Zwischenbild2, zeigt dieses und erst dann das aktuelle Bild3.
Leider falsch!

Verwendet werden die 'motion vectors', so dass Bild 2 die Prognose darstellt, wo bewegte Blöcke (aus Bild 1) als nächstes liegen könnten.

Das Ergebnis katapultiert zwar die FPS nach oben, aber die Bilder gleichen der Prophezeiung eines Schamanen der aus Eingeweiden liest. Völlig unbrauchbar.

Wird die NV-Jünger nicht davon abhalten Hohelieder anzustimmen.
 
Zuletzt bearbeitet: (klammer ergänzt)
  • Gefällt mir
Reaktionen: MegaManX4
DrFreaK666 schrieb:
Was Verteilung der Karten angeht, wird es bei AMD sicherlich besser aussehen.
Da für viele aber "Gaming-GPU=Geforce" ist, wird AMD wohl nur wenige Marktanteile gewinnen können
Das ist son Ansatz der mir seit Jahren ein wenig aufstößt bei AMD. Man könnte theoretisch ohne viel Aufwand ne viel größere AMD Gaming Kampagne fahren. Warum man das nicht tut, ist mir seit der 5000er Reihe schon ein Rätsel. Man fing da mit dem "Team Red" echt gut an, hat dann aber komplett abgebaut.
 
PHuV schrieb:
Betreibe mal ein Spiel mit 4k UHD und 144Hz und mehr Hz. Es gibt schon 240 und 360 Hz Monitore, was glaubst Du, wer hier die hohen Frameraten liefern soll? Eine 3060TI bestimmt nicht.

Gut, ich bin kein competitive Gamer, aber mein 4K OLED kann halt "nur" 120 Hz Gsync, dann ist schluss. Und mit DLSS bekomm ich die meisten Games locker auf über 90 FPS in 4K.

Spider Man läuft z.B. im Schnitt mit 90-100 FPS im CPU limit. Was will ich da mit mehr Leistung? Selbst mit Raytracing ist die GPU in 4K nicht der limitierende Faktor dank DLSS.

Aber auch in den meisten anderen Open World Games fängt bei 100-120 FPS langsam das CPU limit an, die 240 oder 360 Hz kann man sich bis auf wenige E-Sport Titel eh in die Haare schmieren.

Dann schau ich mir das neue CoD an und sehe auch dort. 120-140 FPS, CPU limit. . Was will ich da mit einer 4090, wenn wahrscheinlich 70-80% der Leistung ungenutzt bleibt?

Ich will ja nicht bestreiten, dass es keine Anwendungsfälle oder Daseinsberechtigung gibt, denn die gibt es, aber im Schnitt bin ich in 20 Jahren noch nie so gut mit einer mittlelklasse Karte ausgekommen, wie diesmal, hatte bisher immer die 70er oder 80er Karten. Bei der 3060ti wäre ich anfangs davon ausgegangen, dass die spätestens nach nem Jahr wieder fliegt. Aber nein, die wird jetzt schön ihre 4 Jahre machen und dann schau ich mal, was der Markt so bietet. Bis dahin bin ich wunschlos glücklich.
 
  • Gefällt mir
Reaktionen: dideldei und Sun-Berg
TigerNationDE schrieb:
Deine Glaskugel hätte ich gerne. Ich seh den späten Launch eher so, das man sich absolut nicht sicher ist, wo man am Ende landet.
Ich sehe den späten Launch eher so, daß sich AMD seiner Sache sehr Sicher ist, und erstmal die Lager füllen wird, damit auch jeder eine abbekommen kann. Das Chiplet Design braucht ein paar zusätzliche Arbeitsschritte, deswegen dauert es etwas länger.
 
Die Wafer sind so teuer, wir mussten die Preise erhöhen weil wir sonst nichts zu essen haben...

Während der Corona-Pandemie profitierte Nvidia von einer starken Nachfrage nach Gaming-Ausrüstung und Technik für Rechenzentren. Allein im 2. Quartal des laufenden Fiskaljahres 2021 stieg der Umsatz auf einen Rekordwert von 6,5 Milliarden US-Dollar bei einem Gewinn von 2,4 Milliarden US-Dollar.[21] Damit ist beim Gewinn eine Steigerung um 276 % gegenüber dem gleichen Quartal des Vorjahres zu verzeichnen.
https://de.wikipedia.org/wiki/Nvidia#Umsatz-_und_Gewinnentwicklung

Behaltet den Kram. Brauch ich nicht.
 
So lange es wirklich modelle mit zwei Stromsteckern im High End von AMD gibt hoffe ich ja, dass der "Optimismus" der letzten Frage eintritt ;)
 
Die Umfragen sind immer ganz schön.

Ich werde definitiv keine RTX 4000 kaufen.

Denke aber trotzdem der Plan geht für nVidia auf.
Mit der 4090 (und Ausbau TI in Zukunft) wird man AMD schon unter Kontrolle haben.

Zumindest was die Leistung betrifft.

Mein Wunsch wäre, das AMD nur leicht weniger Leistung bietet. Dabei aber exorbitant weniger Energie verbrät und die Preise auf "Marktanteil erobern" ausgelegt werden.

DLSS ist für mich definitiv kein Game Changer, sondern eine Manipulation der Nativen Bilder.

Kann man mögen... kann Vorteil haben.
Aber für mich zählt weiter die "normale" Leistung ohne diese Optionen wie DLSS oder FSR.

Auch RT ist weiter eine Nische.
 
  • Gefällt mir
Reaktionen: Eller und PHuV
Zurück
Oben