News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Ich vermute, NV wird mit der 4090 die schnellere Karte haben, aber zu einem hohen Preis, denn sie so schnell nicht drücken können. Außerdem wird der 5nm Prozess vermutlich billiger sein als der 4N Prozess. Wo AMD dann punktet? About 33% der Chipfläche den NV für L2Cache, Si usw benötigt, hat AMD in 6nm Chip ausgelagert.
Die GPU hat ca 608 mm^2. Nehmen wir die 33% ca weg bleiben ungefähr 407 mm^2 für den Rest übrig. Das Top Modell von AMD soll im Vergleich 308 mm^2 großen Chip haben. Wenn wir als Kunden Glück haben, bekommen wir also eine GPU bei hoffentlich der 4080 Performance mit einem Preis der richtig Druck auf NV CEO Aussage macht, dass doch Chips immer teurer werden, als ihre Vorgänger.
(Nicht zu vergessen, AMD verwendet weiterhin normalen GDDR6 der nicht nur Preis sondern auch Verbrauch senkt)

Erinnert alles wenig an Ryzen1 Gen. Zwar nicht der Schnellste, aber aufgrund des Angebotes und Preises teils ein nobrainer.
 
Beg1 schrieb:
DLSS 3.0 zeigt bereits im Promomaterial fette Bildfehler (siehe Spider-Mans verschwundene Arme etc.), vor allem in Bewegung, wann und ob nvidia das in den Griff bekommt steht auch wieder in den Sternen.
Fehlende Arme 😂.
Schlecht für unseren netzschwingenden Freund 🤪.
Zu Fuß wird es a bisserl schwierig mit der Verbrecherjagd 🤣
 
bigfudge13 schrieb:
Dass jetzt die 4070 mehr als das doppelte kostet als noch die 3070, ist schon, keine Ahnung, wie ich das beschreiben soll. Ich hoffe, dass sich diese Preisgestaltung nicht etabliert.
Man sollte das Kind beim Namen nennen. Kundenverarsche oder auch Abzocke. Da wird eine 4070 zur 4080 umgelabelt.
Nicht nur das die 12GB Fake 4080 weniger CUs hat ist es noch ein kleinerer Chip. Ich hoffe das sich kaum Abnehmer für die Preise finden und die Preise dann im neuen Jahr stark fallen. Denn AMD wird bei den Preisen auch mitgehen.
 
  • Gefällt mir
Reaktionen: DagdaMor und bigfudge13
habe mir heute eine neue 3090ti bestellt (suprim x), da selbst wenn die 4080 16g im idealfall 20% flotter ist (nur bei Spielen der kommenden Generation) benötige ich aber noch zusätlich ein neues Netzteil und für die Karte bei Release +300€ uvp . So komme ich insgesamt günstiger weg und für WQHD bin ich bestens gerüstet.
 
  • Gefällt mir
Reaktionen: Sittich01 und Ruebennase
RayZen schrieb:
Ich werde definitiv meine 3090 gegen eine 4090 ersetzen. So viel Mehrleistung gab es noch nie.
Warte Mal die Tests ab. Dann sehen wir wie viel es wirklich ist.
 
  • Gefällt mir
Reaktionen: Geringverdiener
Geringverdiener schrieb:
habe mir heute eine neue 3090ti bestellt (suprim x), da selbst wenn die 4080 16g im idealfall 20% flotter ist (nur bei Spielen der kommenden Generation) benötige ich aber noch zusätlich ein neues Netzteil und für die Karte bei Release +300€ . So komme ich insgesamt günstiger weg und für WQHD bin ich bestens gerüstet.
Ich gehe davon aus das ATX 2.4 bzw ein gutes Markennetzteil hier völlig reichen wird und falls es nicht so sein sollte dann kann man darüber immer noch sprechen ein neues zu kaufen denn falls es doch reicht ? hat man geldgespart

Darf ich fragen was du für die 3090 Ti bezahlt hast ? nur aus Neugier
 
  • Gefällt mir
Reaktionen: Geringverdiener
Wenn man den Artikel von WCCFtech gelesen hätte wüsste man, das bei dreifach Adapter auf 16pin eine ungleichmäßige Lastverteilung stattfindet die den zulässigen Bereich weit überschreitet. Außerdem unterstützen alte Netzteile mit 16pin Adapter nicht die 4 zusätzlichen Signalleitungen, die den Bedarf der GPU mit dem Netzteil aushandeln. Inwieweit das Auswirkungen auf den Betrieb und das Overclocking der RTX 4xxx
Karten hat, ist bisher nicht öffentlich.
 
Eine 4090 Suprim X hätte ich schon sehr gerne.
Aber nicht zu Release, mal schauen wie sich die Preise (nicht nur bei den Grafikkarten, lol) entwickeln.

Die 4090 macht, gerade bei dem Preisgefüge, am meisten Sinn. Außerdem hat man dann wirklich erstmal Ruhe und braucht so schnell keine neue Grafikkarte mehr.
Der Sprung von meiner 3070 zur 4090 wäre gewaltig.
 
Die Fragen zielen leider hauptsächlich auf Leistung und Features, was aus Konsumentensicht ja nur ein Teil der Gleichung ist. Überzeugen die Karten auf Leistungsebene? Sieht bisher so aus. Würde ich eine 4000er zu einem Preis kaufen, der im Kontext der digitalen Freizeitgestaltung gerechtfertigt ist? Vielleicht. Würde ich eine der momentan angebotenen 4000er zu den aufgerufenen Preisen kaufen? Mit absoluter Sicherheit nicht. Da ist mir auch egal, ob die kleine 4080 letztlich 4080, 4070 oder Lederjacke heißt.

Wenn die kleinste angebotene PC-Grafikkarte mehr als 2 Konsolen der neusten Generation kostet, darf sich am Ende halt keiner wundern, wenn der PC-Spieler immer mehr zur Randgruppe wird und damit auch für Studios und Publisher immer uninteressanter.
 
Thermaltake ATX 3.0 waren schon kurzfristig lieferbar aber sofort vergriffen, neuer Liefertermin von Alternate
5-11 Tage. Wer die vorhandenen wohl so schnell weggekauft hat ???
 
Hab mich lange Zeit geweigert Raytrancing zu akzeptieren weils für mich einfach nur Software war...und meiner GTX 1080 genug Reserve zur Verfügung stand. Auf Raytrancing in Cyberpunk konnt ich pfeifen , war auch ohne für 100stunden interessant.GTA online lief super auf der Karte und auch alles weitere was noch in meinem Interessengebiet lag, machte keine Zicken. Zuletzt Anno 1800
Mitlerweile habe ich zwischen den Treiberversionen ( alte 352.XX ) und aktuellen Treibern 50X.XX aber schon 35% Leistungsverlust gehabt...und das in Gurken wie Terraria oder Farming Simulator 19.

Nachdem mir also die starken Leistungsverlust im Laufe der letzten 8 Wochen beim testen aufgefallen sind, ist Sie mir trotz Wasserkühlung letzte Woche den Pixeltot gestorben. 6 Jahre ein treuer Begleiter, 2 mal neue Wärmeleitpaste, Umbau auf wakü..
RIP Kleine...

Der Ersatz wird vermutlich ne 3080/3080TI/3090...
Mal sehen was der Markt bis Weihnachten macht und welche Ergebnisse die überteuerte RTX 4000er Serie erzählt...

Wunsch-denken: " bitte Herr im Pixelhimmel lass meine zukünftige RTX 30XX auch wieder mindestens 6 Jahre halten "
 
Cool Master schrieb:
Man kann die Preise auch nicht mit der Vergangenheit vergleichen da die alten Karten keine RT-Cores oder KI-Cores hatten. Das treibt den Preis natürlich nach oben. Ist das gut?
Ähm leidest du an Alzheimer oder so? Also wie erklärst du dir die schon fast Kundenfreundlichen UVPs von Ampere. Oder hätten die keine Tensor und RT Cores oder habe ich was verpasst?
Und nein es ist nicht gut.
Und falls sich das so etabliert mit den Fantasiepreisen von Nvidia und AMD und Intel ziehen da die nächsten Jahre immer mit dann habe ich mit der 6800XT das letzte Mal eine neue Karte gekauft.
Dann wird nur noch gebraucht gekauft. Weil verarschen kann ich mich auch selber.
 
  • Gefällt mir
Reaktionen: Geringverdiener und Tom-S
Spätestens, wenn es die Generation 3000 nicht mehr gibt, erfolgt der Umstieg zwangsläufig. Wenn man bei diesem Hersteller bleiben will. Ich glaube nicht, daß die noch lange parallel produziert werden.
 
Geringverdiener schrieb:
@Ruebennase

Die neuen Netzteile mit PCI 5.0 und ATX 3.0 welche für die Karten empfohlen werden, erscheinen erst nach dem Release von Nvidia und werden ca 240€ kosten (1000watt)

https://www.hardwareluxx.de/index.p...erden-atx-3-0-und-pcie-5-0-unterstuetzen.html

240 Euro geht ja noch für ein Gutes Netzteil. Ich werde erstmal meins Testen was ich Aktuell habe und falls es nicht reichen sollte dann muss ich halt nochmal Geld in die Hand nehmen

Ab 2149 Euro so ca habe ich mir die Preise für die Custom vorgestellt
 
  • Gefällt mir
Reaktionen: Geringverdiener
RayZen schrieb:
Ich werde definitiv meine 3090 gegen eine 4090 ersetzen. So viel Mehrleistung gab es noch nie.
Mit dieser Aussage wäre ich sehr vorsichtig. Nvidia zeigte fast nur DLSS 3.0-Werte. Das ist aber Trickserei, da in einer deutlich geringeren Auflösung gerechnet wird und teilweise auch niedrigere Frameraten temporal aufgeblasen werden. Spiele müssen die Technik zudem explizit unterstützen.

Viel wichtiger ist daher letztlich die reine Raytracing- und Rasterizer-Leistung. Und bei solchen Spielen sehen die neuen Karten gar nicht so viel besser aus. Letztlich kann man erst nach unabhängigen Benchmarks wie z.B. von CB ein Urteil fällen - und idealerweise auch die AMD-Karten abwarten.
 
whyme schrieb:
Sicher? Nvidia scheibt in ihrem Q&A, dass DLSS3 Reflex benötigt, weil sonst die Latenz steigen würde.

Die Latenz dürfte aber nicht steigen, wenn die Frames vorhergesagt werden. Das kann nur passieren, wenn die Frames interpoliert werden und das aktuelle Frame dafür zurückgehalten werden muss.
Lies bitte noch einmal, was ich als Antwort auf die Interpolation von Bildern schrieb. Ayo34 schrieb von Interpolation und ich habe dagegen gehalten.
Die Latenz steigt ja auch nicht bei Verwendung von bereits erstellten Bildern, die schon angezeigt werden.
Aber wenn du mehr weißt, dann erleuchte uns bitte, statt rhetorische Fragen zu stellen.
 
Diese Werte von den beiden Spielen würde ich einschätzen wie effektiev die neue Generation sein wird. Da diese Titel kein Dlss unterstützen und nur die reine Renderleistung der Karten verwendet wurde

In diesem Video werden Fragen der Community von Nvidia beantwortet, die (Meiner Meinung) nicht sehr vielversprechend sind 🥺
DLSS 3 Details (Latency, Frame Generation on/off, etc) | Nvidia SER, OMM & DMM details | More News!

Screenshot (62).png
 
Zuletzt bearbeitet von einem Moderator:
DRVNabsolute schrieb:
Oh, entschuldige, das ich nicht komplett ins Detail gegangen bin🙄
Kann es einem nicht einfach mal egal sein? Weil es so ist?
 
NDschambar schrieb:
Mit dieser Aussage wäre ich sehr vorsichtig. Nvidia zeigte fast nur DLSS 3.0-Werte. Das ist aber Trickserei, da in einer deutlich geringeren Auflösung gerechnet wird und teilweise auch niedrigere Frameraten temporal aufgeblasen werden.
Wie beim Rastern halt inzwischen grundsätzlich auch. Nur dass die Tricksereien eben nicht über die Shader laufen müssen, sondern dann von den dedizierten Kernen beschleunigt werden, die für diesen Zweck deutlich effizienter sind.

NDschambar schrieb:
Spiele müssen die Technik zudem explizit unterstützen.
Jeder moderne AAA Titel liefert die benötigten Informationen sowieso. Kein modernes Spiel mit einigermaßen entwickelter Grafikengine kommt ohne eine temporale Technik aus.
NDschambar schrieb:
Viel wichtiger ist daher letztlich die reine Raytracing- und Rasterizer-Leistung.
Das verliert zum Glück immer weiter an Gewicht. Im Augenblick machen wir Softwareseitig RIESIGE Sprünge in Sachen stochastischem Rendern. Jede Information, jedes Pixel verhilft zum Vorteil solange es nicht erneut berechnet werden muss.
Dadurch steigert man die Effizienz. Wer mit 4K 60FPS Framecap und DLSS3 spielt, wird sich auf deutlich niedrigeren Stromverbrauch einstellen können.

NDschambar schrieb:
Und bei solchen Spielen sehen die neuen Karten gar nicht so viel besser aus. Letztlich kann man erst nach unabhängigen Benchmarks wie z.B. von CB ein Urteil fällen - und idealerweise auch die AMD-Karten abwarten.
Natürlich auch ein sehr wichtiger Punkt, da stimme ich überein. Die Tests werden zeigen, aus welchem Holz die neuen Karten geschnitzt sind (Wortspiel beabsichtigt) :)
Ergänzung ()

Geringverdiener schrieb:
Diese Werte von den beiden Spielen würde ich einschätzen wie effektiev die neue Generation sein wird. Da diese Titel kein Dlss unterstützen und nur die reine Renderleistung der Karten verwendet wurde
So verstehe ich das auch - Somit sollten die Top- Karte rein rastertechnisch 50%-70% schneller sein...
 
  • Gefällt mir
Reaktionen: NDschambar, Maggolos und Humbertus
Zurück
Oben