Chismon schrieb:
Natürlich ist es verständlich, wenn andere Features (z.B. DLSS/FSR/XeSS, und RT-Raytracing) und Boardpartner bzw. deren Kartendesigns auch als Kaufkriterien mit einfließen, aber das ist das keine realistische Vergleichsbasis mehr, da die Features eben immer noch nur in der großen Minderheit der Spiele genutzt werden kann (nicht alle Spiele sind AAA und nVidia oder AMD/RTG-gesponsort) und somit nicht wirklich etabliert oder ausgereift sind.
Also die Spiele die kein DLSS / FSR supporten brauchen idR auch nicht den Boost den das brächte. Ich brauch zB kein DLSS in AoE 4 oder einem Mass Effect Andromeda oder Stellaris.
Und die Spiele die massiv davon Profitiere (Cyberpunk, Flightsim, Metro etc.) die supporten dies.
Chismon schrieb:
Wenn man nur ein ganz bestimmtes RT-Raytracing Spiel spielen will die ganze Zeit, dann ist das sicherlich überproportional relevant, aber wer macht das schon bzw. kauft vordergründig nur für die Feature-Spiele eine Grafikkarte?
Ich würde die 4090 aktuell nur für zwei Games holen (CP2077 und FS 2020). Im Rest der Games profitiere ich dafür von einer brutal hohen Effizienz weil ich die Karte nur mit 100W betreiben muss um in 4K zocken zu können.
Chismon schrieb:
Das ist doch alles Marketing, dem einige hier gehörig auf den Leim gegangen sind und für einige, die eingestiegen sind durch Hype/mit Fokus auf diese Features, macht sich dann schnell auch Ernüchterung breit und im nachhinein wünschten diese oft, dem nicht auf den Leim gegangen zu sein, wie ab und zu hier oder in Rezensionen auf Kaufportalen, bspw. zum technisch noch unausgereiften, auf wenige Merkmale begrenzten, im Spiel zu suchenden/schwer zu erkennenden oder nur phasenweise implementierten RT-Raytracing, nachzulesen.
RT ist halt der nächste Schritt. Das kann man ablehnen oder hassen, dahin wird die Reise gehen. Ob man deswegen JETZT schon eine 4090 kaufen muss ? Eher nicht. Für 95% aller Games ist eine 3080 bei weitem genug
Chismon schrieb:
Dazu kommen dann noch die Vorstellungszeiträume und dahingehend ist eine RX 6950 ganz klar als Pendant zur RTX 3090Ti angesetzt worden und ja, bei den
RX 6950 vs
RTX 3090 Ti fällt das Ganze - trotz aktueller RTX 3090Ti Angebote mit höheren Händlerpreisabschlägen - mit 300 Euro Preisdifferenz noch mehr zugunsten von AMD/RTG und ungunsten von nVidia aus.
Dabei unterschlägst du aber dass die 3090 (Ti) 8 Gig mehr, schnelleres und auch teureres VRAM mitbringt. Dass das nicht gratis kommt sollte klar sein. Und bestimmte Workflows profitieren halt massiv von CUDA, Dinge wie zB Tensorflow. Ich betreibe das nicht professionell, möchte aber dennoch die Performance dafür haben, auch wenns nur Hobbymäßig ist.
FPS in Rasterizer Games ist halt nicht alles. Ob es einem das Wert ist muss jeder für sich selbst entscheiden. Es ist jedenfalls nicht komplett ungerechtfertigt, dass die eine Karte teurer ist als die Andere.
Chismon schrieb:
Der Geekbench Benchmark als, für Spiele wenig relevanter, erster Leistungsindikator zur RTX 4090 ist übrigens geleakt worden mit (nur) 60% höherer Leistung als bei der RTX 3090Ti.
Das wäre zwar ein stattlicher Zuwachs generationsübergreifend, aber für einige doch unter den Erwartungen des von nVidia CEO angekündigten/geschürten mindestens 2x Leistungspotential in seiner Märchenmarketingpräsentation und ohne DLSS 3 scheint eine solche Leistungssteigerung (in Spielen) schwer machbar zu sein.
Am Ende wird dort auch nur mit Wasser gekocht
.
Geekbench ist hier nur bedingt aussagekräftig, da er die GPU kaum richtig auslastet, ich krieg selten mehr als 30-40% Powerlimit angezeigt (114-150W) mit drei kurzen Peaks auf 85% (320W). Da brauchs dann schon etwas das mehr Druck erzeugt.
Ich komme in dem Bench übrigens auf 264.453 Punkte. Mit gut 13% Mehrleistung ggü. Stock und einem ähnlichen OC bei einer 4090 (womöglich mehr Headroom dank besserer Fertigung) wären sicher 470-480k Punkte drin was dann schon fast eine Verdoppelung ist.
https://browser.geekbench.com/v5/compute/5603552
Leistung is halt abhängig davon welche Featuresets man nutzen kann. Rohe CPU Leistung eines Apple M1 Pro ist auch "nur" auf 3900X Level, wenn man dann aber Software hat die bestimmte Erweiterungen gut nutzt liegt man schnell auf Level 3-4x so starker Hardware.
Letztlich werden wir sehen müssen wie sich das auf Spieleleistung transferieren lässt.