News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober

iSteven schrieb:
Kein Diagramm zeigt den Leistungssprung ohne DLSS oder irre ich mich?

Finde ich auch merkwürdig, es wurde gesagt 2x Rasterizer, ohne die Einschränkung DLSS, aber die ausgewählten Leistungssteigerungen waren scheinbar mit DLSS 3.0 (wovon RTX 3000 nicht profitieren kann und welches zum Launch auch nur 35 Titel unterstützen, von denen die meisten Trash sind).
MSFS 2x Performance, aber nur mit DLSS 3.0?
Portal RTX 3x Performance, mit RT (und DLSS?)
Racer X 4x Performance, mit RT (und DLSS?)

Mich interessiert die Raytracing-Performance ehrlich gesagt nicht sonderlich stark, da es noch immer ein absolutes Nischenfeature ist, welches in den meisten Spielen kaum Mehrwert bietet (nur RT Shadows etc.).

Durch den extremen Unterschied an Cuda Cores kann ich mir auch die ~20% Leistungsdifferenz zwischen RTX 4090 und RTX 4080 nicht erklären, außer man hat die Werte im CPU-Limit mit DLSS 3.0 ermittelt... auf der anderen Seite kostet die RTX 4080 16GB ziemlich exakt 25% weniger, also darf die Differenz eigentlich auch nur 20% betragen.

Schade, diese Präsentation hätte eigentlich bei einer Kaufentscheidung helfen sollen und nach dem 2x Rasterizer Performance wollte ich auch noch 2000€ bezahlen. Durch die ganzen Ungereimtheiten warte ich nun doch lieber Tests ab.
 
  • Gefällt mir
Reaktionen: McTheRipper
Revan1710 schrieb:
Bin mal gespannt, ob sich die Leistungsangaben bewahrheiten. Bin da etwas skeptisch mit der Angabe
4090 = 3090 Ti + 200-400 % 100-300 %
4080 16G = 3080 Ti + 200 - 400 % 100-300 %
Ich zitiere mich mal selber:
johnieboy schrieb:
https://twitter.com/perschistence/status/1572284630568517636

Unbenannt.PNG


Das wird gerade in verschiedenen Hardwareforen gepostet. Ohne RT wird es wohl hart für Nvidia werden.
Es gibt nen Grund warum Nvidia die ursprüngliche Folie wieder gelöscht hat, aber das internet vergisst nicht.
 
  • Gefällt mir
Reaktionen: up.whatever, cmok, McTheRipper und 3 andere
Ist denn bereits bekannt ab wann das NDA für die Tests fällt?
 
Würde wegen VR sehr gerne mein 3080FE auf die 408016GB upgraden aber wie bei anderen hier im Forum ist das auch für mich einfach zu viel Geld, vor allem wegen der aktuellen Inflation in Deutschland.
Aber wenn man es nüchtern betrachtet, hätte es bei einer UVP von 700€ für eine 408016GB FE ein Freudenfest für die Scalper gegeben und man hätte über einen längeren Zeitraum eh keine Karte zu dem Preis bekommen können.
 
Ok damit bin ich dann endgültig raus aus dem PC-Gaming. Dachte nach dem Ende von Mining und Corona könnte ich meine defekte 1080 mal ersetzen.
Aber dank der hohen Preise für die neuen Karten werden die alten 3000er Karten auch nicht wirklich günstiger auf dem Gebrauchtmarkt. Das kann ich mir einfach nicht mehr leisten. Kann froh sein wenn ich mir im Winter noch leisten kann zu heizen.
Hätte wohl besser BWL studiert anstelle von Biologie...
Naja, dann gibt es halt nur noch analoge Hobbys.
 
  • Gefällt mir
Reaktionen: MeisterOek, zobl93, Newblader und eine weitere Person
Eigentlich wundert der Preis mich nicht. Du siehst ja was NV ausgewählt hat: Die wollten einen monolitischen Chip. Vielleicht haben sie es auch mit TSMC 5N getestet, aber vielleicht war die Leistungsaufnahme zu hoch oder instabil, also hat man das viel teurere 4N genommen. Vermutlich haben die schon diesmal auf die Effizienz geschaut, da AMD ja wieder eine extreme Effizenzsteigerung angekündigt hatte (und die haben sich auch immer bestätigt). Also hat man gleich ein größeren Sprung gemacht um schneller als die Konkurenz zu sein und mit dem Wissen das trotz der Mondpreise in der Produktion, die jetzt am Kunden weitergegeben werden, genügend Leute die Karte sich holen werden und Nvidia kann sich halt wegen seiner Größe so ein Risiko leisten. Dabei ist es unabhängig wie billig die AMD-Karten sein werden, den die haben eine große Fangemeinde und die entscheiden ob sie den Preis mittragen oder nicht. Zudem das Vendor-Lock mit Software für den professionelen Umfeld, aber da wird NV sicher viel vorsichtiger den Preis umgehen, weil die Konkurenz auch nicht schläft (HIP kann jetzt mit CUDA mithalten, OptiX (Raytracing) hat dagegen NV immer noch ein Alleinstellungsmerkmal, und im Linuxumfeld ist das Vendor-Lock mit NV mit Wayland glücklicherweiße gescheitert).

Und zudem hat mich der eine Vortrag im August mich gestört, da redet NV über die Geforce ist die Konsole für den PC oder sowas und sagt schlicht der Einstiegpreis heutzutage 600+$ sein sollte (man weiß nicht genau auf welche Leistung sie beziehen aber vermutlich die gleiche GPU-Rohleistung wie eine PS5).

Vielleicht wird meine aktive RTX2060S meine letzte grüne Karte vorerst wenn die Preisentwicklung nur noch eine Richtung kennt. Ich hoffe sie wird noch lange seinen Dienst tun.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Laphonso schrieb:
Raytracing on erfüllt Cyberpunk, Metro, Control , Spiderman oder Watchdogs mit wesentlich mehr Immersioń, Atmosphäre und Realismus.

Im 1:1 Vergleich macht fehlendes Raytracing die Licht+Schatten+Reflektions Szenen (je nach Game) blass und künstlich.

Wenn man nach 4 Jahren RTX 5 Spiele nennen kann in denen Raytracing einen Mehrwert bietet (und man etwas wie Watch Dogs erwähnen muss...), dann ist das kaum ein echtes Kaufargument.
Sicherlich wird Raytracing in der Zukunft noch ausgebaut, aber aktuell ist RT-Performance für 99% der Gamer nur am Rande interessant und die wenigsten Spiele unterstützen es.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Dai6oro, up.whatever und 8 andere
Ich fand sogar RT in Control ziemlich bescheiden.. Vor allem bei dem Performance-Verlust.
 
  • Gefällt mir
Reaktionen: McTheRipper und RaptorTP
QuerSiehsteMehr schrieb:
aber selbst ich mach hier ein Schlussstrich
isso ! Ich war eigentlich immer super gerne mit vorne dabei xD

Aber der Hype hat mich verlassen.
"Vielleicht" kommt nochmal eine stärkere CPU auf das AM4 Brett .... aber auch nur vielleicht.

Alles andere sollte so bleiben.
Ich gestern abend dem Nvidia Stream durchgespult und fertig.

Ich bin gespannt ob die Ampere Serie was vom DLSS 3.0 hat.
Das feiere ich schon ! Es sieht sehr gut und manchmal besser aus und spart Energie oder bringt FPS, wie man das eben handhabt ;)

Werde es verfolgen aber auf keinen Fall mit der Absicht was zu kaufen.
Auch was den Plattformwechsel angeht, bleibe ich da sehr gerne bei AM4.

Wer ne neue Kiste will, kauft sich eine neue Plattform, logisch. ;)
 
Die UVP der RTX 3080 FE (10 GB) lag bei 719 €, nun liegt die RTX 4080 FE (12 GB) bei 1099€ => +380€
RTX 4090 FE bei 1949€, RTX 3090 FE bei 1549€ => +400€

Tja...
 
vergisst bitte die Auflösung bei der Grafikkartenwahl NICHT!

Eine 3440 x 1440 Auflösung mit ihren 5 MPixel braucht keine RTX 4090, da reicht auch eine RTX 3090 völlig aus!
 
Puh, vergleicht man die bisherigen GPUs aus Samsungs 8nm-Prozess mit diesen hier, drängt sich der Verdacht auf dass nahezu alles Positive - abseits von DLSS3, das kann man sowieso nicht objektiv beurteilen - erstmal aus dem Prozesswechsel kommt.
Und ja, dieser neue Prozess ist bei einem 600mm² Chip sauteuer.
Dafür gibt es aber kein Mitleidsgeld von mir, das ist nVidias Entscheidung, also sollen sie damit leben. Vermutlich wird Ada als Architektur langfristig - und nicht bei jetzigen Spielen - noch Vorteile bieten. Aber im Augenblick wirkt das wie die Silizium-Holzhammer-Methode. Viel teurerer Prozess, doppelt so viele Transistoren - gib ihm und Dir wird gegeben...
 
  • Gefällt mir
Reaktionen: Icke-ffm, McTheRipper, BatCatDog und eine weitere Person
Beg1 schrieb:
Wenn man nach 4 Jahren RTX 5 Spiele nennen kann in denen Raytracing einen Mehrwert bietet (und man etwas wie Watch Dogs erwähnen muss...), dann ist das kaum ein echtes Kaufargument.
Für mich schon, weil das SPielerlebnis in 200+ Stunden, die ich alleine in Metro, Cyberpunk, Watch Dogs, und Control verbracht habe, ein wesentlich besseres ist durch die die Immersion und Atmosphäre.
Die dunklen Passagen z.B. in Metro sind mit Raytracing einfach nur der Hammer.

Das ist quasi der Mehrwert, den ich habe in dieser Zeit.

Manche machen den Fehler, die eigene Bewertung auf andere zu projezieren.

Klar ist, wenn Raytracing keine Rolle spielt, hat man mehr Auswahl.

In einigen Jahren werden wir die Debatte anders führen, weil wir dann auch eine prevalence von Raytracing tauglichen GPUs haben.

Nvidia war hier Pionier und ist erst in der dritten Generation. Wie lange haben wir gebraucht für die Grafik Evolution bei den klassischen 3D Beschleunigern und den devkits für das Grafikdesign bis zu dem, was eine UE4 leistet z.B. aufgrund der Optionen durch die GPU Power und Features?
 
  • Gefällt mir
Reaktionen: guillome und Schokolade
Abgesehen von irgendwelchen Nischenanwendungsfällen gibt es doch eigentlich keinen Titel, der die Anschaffung einer solchen Karte rechtfertigt.
Wer einigermaßen Regler schieben kann und nicht 4k 144HZ befeuern will, ist auch mit Ampere die nächsten Jahre wohl gut gerüstet.
Dies in Verbindung mit der Flut an Mining Karten die auf die üblichen Gebrauchtwarenvertriebsplattformen zurollt, sorgt wahrscheinlich für sehr eingeschränktes Interesse an Karten der "über 1000€" Klasse.
Ich warte einfach bis der Markt sich regelt, sehe mit meiner 3070 und WQHD keinen Grund aufrüsten zu müssen.
 
  • Gefällt mir
Reaktionen: McTheRipper
Beg1 schrieb:
Finde ich auch merkwürdig, es wurde gesagt 2x Rasterizer, ohne die Einschränkung DLSS, aber die ausgewählten Leistungssteigerungen waren scheinbar mit DLSS 3.0 (wovon RTX 3000 nicht profitieren kann und welches zum Launch auch nur 35 Titel unterstützen, von denen die meisten Trash sind).
Immerhin wird jedes DLSS 3.0 Spiel auch weiterhin DLSS 2 unterstützen, da es einer der Grundbausteine ist auf dem DLSS 3.0 basiert. Daher kann man auch davon ausgehen das auch DLSS 2 weiterentwickelt wird.
johnieboy schrieb:
Ich zitiere mich mal selber:

Es gibt nen Grund warum Nvidia die ursprüngliche Folie wieder gelöscht hat, aber das internet vergisst nicht.
Ich sehe das ein bisschen wie in der Medizin "Wer heilt hat recht", nur hier "Wer FPS liefert hat recht". Wie die am Ende zustande kommen ist mir egal, hauptsache das Endergebnis ist gut. Das ganze steht und fällt dann natürlich mit der Qualität von DLSS 3.0 und der Anzahl der Spiele die das unterstützen.
 
  • Gefällt mir
Reaktionen: RaptorTP
Maxminator schrieb:
da reicht auch eine RTX 3090 völlig aus!
Ja dann ! xD ... 3090, die neue Allerwelts-Karte xD

Eine RTX 3080 12GB sollte auch noch eine ganze Weile halten und kommt so laaangsam in dem Bereich des möglichen was eben Geld angeht. Keine Frage ! Das ist immer noch ein Haufen Kohle !

Stand heute: ~830€

RTX 3070 geht ab ~ 530€ los.

Ich vermisse die Zeit in der man mit 250€ beinahe die dickste Graka hatte ;) < Single GPU versteht sich.
 
  • Gefällt mir
Reaktionen: Icke-ffm, MeisterOek, zobl93 und 2 andere
nato44 schrieb:
Die UVP der RTX 3080 FE (10 GB) lag bei 719 €, nun liegt die RTX 4080 FE (12 GB) bei 1099€ => +380€
RTX 4090 FE bei 1949€, RTX 3090 FE bei 1549€ => +400€

Tja...
Ich würde eher sagen RTX 3080FE lag bei 719€, nun liegt die RTX 4080FE (16GB) bei 1469€ -> +750€

Die RTX4080 mit 12GB ist für mich die eigentliche 4070 und nix anderes. nVidia nutzt hier nur die Bezeichnung um das Preisgefüge weiter zu ihren Gunsten verändern zu können.

Mir ist schon klar warum die Preise so hoch liegen. Inflation, Chipkrise, steigende Kosten und die Läger sind noch voll mit RTX3000 die man ja noch los werden muss.
 
  • Gefällt mir
Reaktionen: BGnom
Mr_Cenk schrieb:
Ich kann es mir nicht leisten" kommt dieser Unsinn ala "2000 sind nicht viel Geld für mich aber ich kaufe trotzdem nicht
Und was daran ist das Problem? Ich kenne solche Leute persönlich. Ein Kollege von mir ist zwar nicht reich, verdient aber gutes Geld als Ingenieur bei Mercedes und hat einiges durch Aktien/Kryptro reingeholt. Hat sich erst ne neue E Klasse gekauft, aber hadert mit 1,2K€ für nen kompletten Rechner ;)

2K für eine GPU können sich viele leisten die einen halwegs brauchbaren Job haben. Das WOLLEN ist faktisch eine andere Sache.
 
  • Gefällt mir
Reaktionen: Dai6oro, MeisterOek, McFritte und 4 andere
Zurück
Oben