News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Schon vernichtend wie hier abgestimmt wurde.
Dem ganzen Marketing Kram mit DLSS 3.0 und 200%+ mehr Leistung kann ich überhaupt nichts abgewinnen.
nVidia schließt ihre eigenen last gen aus während FSR 2.0 für fast alle GPU freigeschaltet wird?
Dazu werden die Grafikkarten einfach mit mehr Shader-Einheiten überladen und steigen demensprechend katastrophal im Preis.
Das wird mit Sicherheit kein großer Wurf.
Bin auf echte Tests und AMD gespannt.
 
  • Gefällt mir
Reaktionen: joxe, baizer, LamaMitHut und 3 andere
AMD muss nur 2 Punkte erreichen.
1. RDNA3 muss auf Augenhöhe mit NVIDIA sein, 10% darunter wären auch kein Beinbruch.
2. Stückzahlen liefern
Wenn Sie am Ende dann noch über den Preis gehen, wird nvidia gezwungen sein die Preise nach unten zu korrigieren. Besonders bei dem Fall wenn AMD bei der Raster-Leistung vorne sein sollte.
 
Obwohl Zocken schon einen hohen Stellenwert bei mir hat halte ich es so, dass ich nicht mehr als 800 Euro für eine Highend GPU ausgebe und da muss schon Bedarf für sein oder der Bastelfaktor sehr hoch. Bisher bin ich auch mit weniger ausgekommen aber die Preise sind wie sie sind und eine generelle Teurung gibt es nicht nur bei Hardware seit den letzten 5 Jahren. Da muss man auch mit seiner Budgetvorstellung bisschen realistisch bleiben. Dank Mining und generell hohen Preisen hat es diese Generation geklappt ,dass ich meine Pc´s von mir und der Familie innerhalb meiner Vorstellung aufrüsten konnte und bin zufrieden mit der Leistung. Deshalb werde ich vermutlich keine neuen GPU weder von AMD noch von NV zu diesen Preisen kaufen bis wieder GPU´s präsentiert werden, die preislich in der Range liegen und die Aktuellen deutlich überflügeln und auch nur wenn ich Bedarf sehe was hauptsächlich von den Games abhängt. Bei Games sehe ich es nicht ein miese Optimierung mit Leistung zu kompensieren.
 
Für mich ist es bisher enttäuschend was Nvida gezeigt hat. Ja Leistung schön und gut aber man kann getrost noch zu einer 3000er oder einer 6000er greifen und auf die nächste Gen warten. Dann lohnt sich auch ein 4k 144hz Monitor. Bis dahin bleibe ich bei meiner RX6800er und meinem 4k 60hz Monitor, die ein gutes Zusammenspiel haben
 
  • Gefällt mir
Reaktionen: daknoll
Ich kaufe Grafikkarten definitiv nur noch gebraucht. Die Preise sind doch ein Witz.
 
Wäre interessant zu wissen, wie die Diskussion im Kern verlaufen würde gäbe es die aktuelle Energie- und Preisentwicklung nicht. Ich vermute anders und ich würde mich da nicht mal ausschließen wollen.
 
PHuV schrieb:
Nochmals, denk dir 100 $ drauf, und der Rest ist der aktuell schwache € im Vergleich zum Dollar, wie oft den noch?
Das "wie oft denn noch" macht deine Rechnung auch nicht plausibler.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Humbertus schrieb:
DLSS allgemein gibts in bereits über 200 Spielen und für 3.0 sind auch bereits 35 Titel angekündigt sowie Engine Support.
Wirklich jeder Titel der davon profitieren könnte wirds am Ende wohl nicht haben, aber ich denke Nvidia wird viel Wert darauflegen, dass die wichtigsten Spiele es unterstützen.
Was sind denn die wichtigsten Spiele? Wohl vor allem tripple A Spiele. Und wenn ich ganz ehrlich bin, gehen mir mittlerweile 98% der ganzen tripple A Spiele am A vorbei.
Ich hatte in den letzten Jahren den meisten Spaß beim Zocken mit Indiegames und kleineren AA Spielen und die aller aller wenigsten Indiegames haben DLSS. Da brauch ich Rohleistung.
 
  • Gefällt mir
Reaktionen: Geringverdiener und Ork from Mork
Falc410 schrieb:
Sie haben gesehen was die Leute bereit sind an die Scalper zu zahlen in den letzten Jahren.
Ob diese (vermutlich für nVidia Verhältnisse) bescheidene Anzahl an Scalperpreis-Käufern lohnt das Gaming-GPU Geschäftsmodell aufrechtvzu erhalten ist eher fragwürdig ;).

Es werden jetzt sicherlich wieder eine Menge Leute wechseln (ohne Profite für nVidia noch zu generieren) oder ganz aussteigen.
 
Ab 1000,-€? Die Preisgestaltung ist für mich nicht nachvollziehbar und ist weit über meine Schmerzgrenze. Ich kaufe keine 4000er Karte wenn sich nichts daran ändert.
 
Vitali.Metzger schrieb:
AMD muss nur 2 Punkte erreichen.
1. RDNA3 muss auf Augenhöhe mit NVIDIA sein, 10% darunter wären auch kein Beinbruch.
2. Stückzahlen liefern
Wenn Sie am Ende dann noch über den Preis gehen, wird nvidia gezwungen sein die Preise nach unten zu korrigieren. Besonders bei dem Fall wenn AMD bei der Raster-Leistung vorne sein sollte.
Wird aber schwer, da einmal eine schlechtere Fertigung und zudem noch kleinere Chips auch bei zusammengefassten Chiplets . Nvidia ist sich bewußt, dass AMD von der Performance wohl nicht an sie rankommt. Das Einzige wie es klappen könnte, dass der Takt extrem hoch ist ....
 
Zuletzt bearbeitet:
Nvidia hat 3 Probleme:

1. diese verdammten abgetauchten Miner
2. diese verdammt dicht auffahrende Konkurrenz
3. dieses verdammt miese Image

Daneben vermute ich noch gewisse Probleme mit den kleineren Chips, diese verkappte 4060TI und die riesigen Lücken in der erwarteten Leistung zwischen den Karten können so nicht beabsichtigt gewesen sein.

Für mich ist das die erste Grafikkarte die ausdrücklich um eine Software herum designt wurde. Vorher wurde die Software so weit es geht angepasst, hier läuft die Nvidia Vorhersage nur mit der Software. Hier scheint eine Grenze in der Technik vorzuliegen, oder war der Kniff mit DLSS 3x von langer Hand geplant?
 
Für mich glücklicher Weise ohnehin gar keine Option. Meine nächste wird wenn überhaupt RDNA3 und dann auch wieder eine PowerColor
 
Laphonso schrieb:
Mehr RT taugliche GPUs = Basis für die Entwickler, dass sich die Adaption lohnt.

Dass es so Diggel Daggel Raytracing in manchen Games gibt, liegt ja nicht zuletzte auch an AMD, die bei Resident Evil und Far Cry 6 verhindern mussten, dass RDNA2 bereits von den alten Turing GPUs deklassiert wird.
Es liegt also sogar sehr viel an AMD (und spätestens an der Playstation 6 irgendwann) , dass Raytracing Chips ein fester und leistungsstarker Bestandteil werden auf Konsumer Hardware.

Beide Konsolen mit jeweils zig Millionen Exemplaren verfügen über Raytracing-Fähigkeiten, die Verbreitung ist also schon weit fortgeschritten.
Und nein, es liegt nicht wirklich an der RT-Performance von AMD, wenn selbst die Playstation 5 ordentliches Raytracing schafft und wenn man 4K/30fps (Fidelity) nicht mag, dann gibt es meist noch einen RT Performance Mode - 60 fps (bzw. dank VRR auch 80-120) bei ~1440p render resolution und leicht angepassten Grafiksettings.

Ich möchte damit nicht sagen, dass es nicht besser geht, aber wenn man Raytracing auf einem Niveau von Ratchet & Clank oder Spider-Man Remastered + Miles Morales auf der PS5 hinbekommt, dann liegt es nicht an der verfügbaren Leistung, sondern an der Unfähigkeit der Entwickler.

Sicherlich wird AMD mit RDNA3 die RT-Leistung verbessern, aber die Hauptplattform für die Spieleentwicklung bleiben die aktuellen Konsolen und da dort bereits vernünftiges RT möglich ist, sehe ich die Schuld für wenige und schlechte RT-Games in erster Linie bei den Entwicklern.

Und aus diesem Grund habe ich auch wenig Hoffnung, dass sich RT innerhalb der RTX 4000 Generation zu neuen Höhen aufschwingt, vor allem wenn nvidia proprietäre Features wie DLSS pusht, die auf Konsolen nicht verfügbar sind, denn selbst mit 80% Marktanteil am PC hat nvidia nur sehr wenig Einfluss im Gamingsektor (siehe vorgestellte Games wie RacerX / Portal Mod RT...). Zudem sind diese 80% der Karten häufig nicht einmal RT-fähig...
Deswegen investieren die wenigsten Entwickler wirklich viel in die PC Versionen, Ausnahmen wie CDPR oder 4A, die eine große PC-Fanbase haben sind Ausnahmen.
 
Zuletzt bearbeitet:
Ich warte ab.
450/600 Watt Karten sind aus vielerlei Gründen für mich Glibberk**ke.

Notwendiges neues ATX 3.0 Netzteil, vielleicht schmelzende Versorgungskabel, grotesk beschissenes Leistung/Watt/€ Verhältnis und Heizlüfter-artige Abwärme, unter anderem.

Stürzen die Preise nicht weiter, sehe ich mich nach einem neuen Monitor um, denn meiner kann nur G-Sync.
 
Was haben sich die Leute früher aufgeregt, wenn ein Filter etc. das Bild schneller machten, aber nicht mehr 100% so wiedergegeben haben. Ja, lang ists her.
 
bondki schrieb:
Bei den Preisen und der Verarsche was die 4080 12GB (und auch die normale 4080 mit ~70% aufpreis) angeht, kann man nur hoffen, dass NVidia vollkommen auf die Fresse fliegt.
Ja werden sie wie mit der 970 und ihren 3,5+0,5 GB.

Warum die Karte performt doch,
Bei mir läufts,
Ich kaufe nach Leistung nicht nach dem Modell,
Dann kaufe es halt nicht,
Ist doch nur der Name…
 
  • Gefällt mir
Reaktionen: LamaMitHut
Manche Kommentare zeigen doch hier schon das Nvidia schon gewonnen hat. Da wird schon RDNA3 abgeurteilt, obwohl diese nichtmal draußen ist. Und bis heute wenn ich so im Umfeld höre herscht immer noch "kaufe nur Intel un NV", selbst wenn AMD die Leistungskrone sich ergattert. Ich hoffe einfach von AMD einfach nur ein solides Produkt das locker mithalten (kann auch ruhig 10% langsamer sein) kann und preislich schon ein Stück günstiger ist.
 
  • Gefällt mir
Reaktionen: joxe, mibbio und eXe777
Bereue es wirklich immer mehr dass ich mir damals zwei native GSYNC Monitore gekauft habe. Würde gerne ne AMD Karte kaufen, aber mir deswegen zwei neue Monitore anzuschaffen macht einfach gar keinen Sinn.
 
  • Gefällt mir
Reaktionen: Geringverdiener und Sturmwind80
Zurück
Oben