Test Nvidia GeForce RTX 5070 Ti im Test: Die GeForce RTX 4080 mit DLSS 4 MFG und Full-RT-Schwäche

@Ghostfacekalle Deswegen wurde ja die P/L-Empfehlung mit Hinweis auf die UVP gegeben. Dann sollte einem als Käufer im Umkehrschluss schon von alleine klar sein, dass es es keine gute P/L mehr ist, wenn man deutlich mehr als die UVP zahlt, oder?

Verstehe aber immer noch nicht, weshalb man ein Schnäppchen gemacht haben soll, wenn man das doppelte der UVP gezahlt hat...
 
  • Gefällt mir
Reaktionen: Sennox
Laphonso schrieb:
Why not both? :confused_alt: Ich mache beides.
Wo sage ich, dass man sich für das eine oder das andere entscheiden muss?
 
Rockstar85 schrieb:
Du meinst in Wahrheit war das alles ein Projekt der heute Show? Könnte sein, denn eine 4080S mit etwas Preisnachlass hätte es auch getan
Und das OC Potenzial der 50er Gen, wie bekommt man das dann?
Meine Karte packt mit Max OC nochmal 15-20% drauf. Mit dem 24/7 Setting und knappen 3,2Ghz und +1500Mhz beim Speicher definitiv 4090 Niveau.

Das war vorher so nicht möglich.
mydayyy schrieb:
Das sehe ich anders. Wenn in 4k kaum die 50 fps an Rohleistung auf die Straße kommt ist die Latenz furchtbar.
Wie hast du dann früher spielen können? Heute hast du eine niedrigere Latenz inkl. FG als früher und die flüssigeren Bilder auf dem Schirm. 50 FPS mit Reflex und FG entsprechen von der Latenz etwa 65 FPS, das ist sauber spielbar. Man zockt damit keinen FPS Shooter im MP.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Antimttr schrieb:
Ich hatte auf eine gute 5060 / 5060 Ti gehofft, aber ich glaube das wird nichts.
So einige haben auf ein gutes RTX50 Lineup vom Marktführer gehofft, aber ich glaube das wird nichts :D
 
Capthowdy schrieb:
Wo sage ich, dass man sich für das eine oder das andere entscheiden muss?
Du hast es so insuniert:
Capthowdy schrieb:
einen schönen Urlaub machen, statt immer nur in der Bude zu hocken
Urlaub statt PC zocken.
Das ist dann "entweder oder"

Ggf. hast Du es unglücklich formuliert ;)
Ergänzung ()

Quidproquo77 schrieb:
Und das OC Potenzial der 50er Gen, wie bekommt man das dann?
Meine Karte packt mit Max OC nochmal 15-20% drauf. Mit dem 24/7 Setting und knappen 3,2Ghz und +1500Mhz beim Speicher definitiv 4090 Niveau.

Das war vorher so nicht möglich.
Der Verdacht einer 5080TI erhärtet sich ja daher bei vielen, auch wenn ICH das nicht glaube.
Aber sie würde reinpassen bei dem offensichtlichen OC Potenzial der 5080.
 
Ähm, ist da jetzt irgendwas? Bin auf mehreren Websites und da war keine Sekunde lang irgendein Angebot ;>
 
Also im Msi Shop hätte ich geschafft eine zu kaufen. Habe es getestet. 1 Minute später war es dann nicht mehr möglich.
 
Pisaro schrieb:
Danach sind es allerdings "nur" Erinnerungen.
"Nur" ist gut. Nenne mir gerne etwas aus dem Consumer-Elektronik Bereich, das so viele Jahrzehnte ohne Wertverlust problemlos überdauert und komplett individuell auf dich zugeschnitten ist. ;)

Ich sage es ja: dieser Vergleich ist dermaßen absurd, dass ich nicht nachvollziehen kann, wieso er immer wieder angestellt wird. Dann vergleicht lieber Äpfel mit Birnen, das wäre deutlich passender.
 
  • Gefällt mir
Reaktionen: thom_cat
Mimir schrieb:
Das passiert ja "nur" in pathtraced spielen. Das ist mMn schon okay.

In den meisten anderen Spielen hat man ja mit Upscaling dann deutlich mehr FPS und dann sind die Latenzen auch sehr gut.

Mit DLSS4 Upscaling kann man in 4K locker bis zum Performance Modus runter gehen und hat immernoch ein deutlich schärferes und stabileres Bild, als bisher mit DLSS3 im Quality Modus.


Wenn man natürlich bei grafisch aufwändigen Singleplayer Spielen grundsätzlich mit dem Anspruch rangeht, dass nur 200 echte FPS mit Reflex gut genug sind, dann brauchen wir nicht diskutieren. Dann ist FG grundsätzlich sinnfrei. Aber dann kann man auch Raytracing und pathtracing streichen.

Aber scheinbar ist seit dem Aufkommen von Frame Generation jeder Spieler hyper sensibel was Latenzen angeht, obwohl wir vor wenigen Jahren noch komplett ohne Reflex auskommen mussten (AMD user auch heute noch) und so die Latenzen allgemein viel höher waren.

Aber muss jeder selbst wissen...
Absolut verständlich. Ich habe da auch mit anderen Karten und auch mit DLSS 4 keine Erfahrung bisher. Aber ja in Stalker 2 stört es schon enorm finde ich. Da ist aber auch jeder verschieden und bei jedem Spiel. Daher bin ich mal gespannt was FSR 4 bringt. Mich würde ein Latency Testvergleich aber schon sehr interessieren zwischen Nvidia und AMD.

Wie hast du dann früher spielen können?
Mit normaler Rohleistung. Und wenn ich jetzt auf 40 fps spiele und dann FSR und FG einschalte dann ist es nun mal viel zu klar spürbar. Wenn Nvidia und AMD das in den Griff bekommen ist alles fein aber aus anderen Quellen höre ich das es immer noch ein Problem ist.
 
Zuletzt bearbeitet:
Also, nun mal meinen Senf dazu.
Ob Intel, NV oder AMD, die Prioritäten haben sich in den letzten Jahren nunmal deutlich verändert in Richtung KI wie wir alle Wissen.
Dem kommen aber zusätzlich noch weitere "erhebliche" Faktoren hinzu die viele nicht im Kopf haben und auch nie wirklich zur Diskusion stehen.

Fangen wir mal damit an, das DX12 Games meist an sich sehr Ugly sind. Schaut man sich DX11 Games an, was diese grafisch boten im Verhältnis zum Leistungsbedarf, steht DX 12 massiv schlecht da. DX11 Grafikbomben wie zB die Battlefield / Battlefrontreihen und natürlich noch viele weitere sind Paradebeispiele die mehr als deutlich Aufzeigen wie problematisch DX12 in der Realität umgesetzt wird. Grafisch gibt es kaum Vorteile, die Overhead oder Shaderberechnungsvorteile verpuffen oft im nichts, im Gegenteil werden diese sogar so oft so schlecht umgesetzt, das diese mehr Leistungsbedarf / Vorbereitungszeit benötigen als DX11.
Außer einer Handvoll DX12 Games die wirklich auch grafisch davon profitieren und wo es auch gut optimiert ist, gibt es nicht, zumindest da wo man noch gegen DX11 vergleichen kann.
Im Gegenteil sind sogar immer mehr Games einfach nur noch Blurry mit noch schlechteren Texturen und unoptimiert die man als AAAA+X Titel den Gamern auf den Tisch rotzt.
Damit sind also nicht nur die VRam Thematiken gemeint, denn auch hier sieht man deutlich das die Spieleschmieden einen großen Anteil am kaum noch stillbarem Hardwarehunger haben.

Zu oft und gerne nimmt man die Grafikkartenhersteller in die Krtitik, statt "die Übeltäter hinter dem Spiel" was selbst auf FHD auf aktueller Hardware nicht rund läuft und die Hardware (inkl Energiekosten) schlicht völlig unnötig frisst.

Dann kommen die Anforderungen noch dazu, HDR/Dolby usw, 4K mit höheren Farbtiefen und Trillionen Herz vordern ihren Tribut, und das Expotentiell.

Das allein in Summe übersteigt schon längst den technischen Fortschritt und die Halbleitertechnik wird immer aufwändiger und damit auch teurer mit immer weniger tatsächlichen Leistungsvortschritt. Auch das gehöhrt zu Wahrheit dazu und muss bei vielen erstmal in die Köpfe.

Deswegen ist es auch nicht verwunderlich das der Weg hin zu Software und Ki gegangen wird um einen gewissen Ausgleich zu schaffen. Was natürlich auch sehr stark in die "Vergleichbarkeiten" von realen "Rohleistungswerten" einzubringen ist.

Dem steht zusätzlich als nächstes großes Problem noch die Ressurcen und Mengenabfrage (Nachfrage) im Weltmarkt gegenüber. Nicht zuletzt die Fertigungsmöglichkeiten und Konzernpolitiken, die durch Monopolisten wie zB TSMC usw auch Maßgeblich die technologische Angebotsabdeckung und Grundpreise bestimmen. Dazu gehöhren auch Landes- und Staatspolitken die mit Sanktionen, Steuern und Zöllen den Weltmarkt stark beeinflussen.
Eine Grafikkarte besteht eben weit mehr aus nur einem Teil, und nur mal ein Beispiel: Während AMD noch großzügig mit billigem GDDR6 um sich wirft, auch bei den kommenden GPUs, hatte NV ihren Karten schon teuren GDDR6x und jetzt 7 "gegönnt", der erheblich teurer und schlechter verfügbar ist. Auch sowas geht meist bei den Betrachtungen und Preisdepatten unter.

Und sicher, zu guter letzt will auch Intel, AMD und Nvidia "Verdienen", so läufts nun mal. Das soll natürlich gewisse Umstände wie NVs Powersteckerentscheidungen nicht entschludligen, keinesfalls.

In Summe findet kein "Endnutzer" diese Preisentwicklungen gut, ich auch nicht, wenn man aber mal nachschaut was eine 4090 in der Herstellung ohne GPU und GDDR6X Vram kostet (Stücklistenpreis im Netz zu finden) und dann noch die teuersten Posten für beides + Herstellungskosten, Entwicklungskosten inkl. Software, Marketting, Langzeitsupport (auch für die Spiele / Ki Entwickler) usw ist nach UVP gerechnet eigentlich keine so oft vorgeworfene "Abzocke" erkennbar, vor allem nicht wenn man obige Faktoren mit einbezieht und nicht immer gleich "Losmeckert".
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: mydayyy
Laphonso schrieb:
Du hast es so insuniert:
Zunächst kaufe ich ein i und ein n. ;)

Danach sage ich, dass es eine Reaktion darauf war, dass du hiermit insinuiert hast, dass eine Grafikkarte mehr wert wäre, als ein Urlaub:
Laphonso schrieb:
eine GPU nutze ich aber ggf tausende Stunden, den Urlaub habe ich 10 Tage oder 2 WOchen
 
Capthowdy schrieb:
Danach sage ich, dass es eine Reaktion darauf war, dass du hiermit insinuiert hast, dass eine Grafikkarte mehr wert wäre, als ein Urlaub:
Ach so, dann formuliere ich das um: Jeder Urlaub ist toll mental und hat einen Erinnerungswert für mich.
Die GPU kann ich aber täglich nutzen, und ist damit viel besser in meinem Kosten-Nutzen Verhältnis; und ich kann sie sogar verkaufen.

Beides ist WERTVOLL aber die GPU hat mehr und dauernden Nutzen, materiell und emotional, täglicher Escapismus statt 10 oder 14 Tage.

In diesem Kontext werden viele ihre Ausgaben für eine GPU ebenso für sich betrachten. Daher werden "diese" Preise gezahlt, siehe sogar die 5070Ti, die bis 1300 Euro weggehen.
 
  • Gefällt mir
Reaktionen: mydayyy
Laphonso schrieb:
Und in diesem Rahmen bzgl "Luxus" und Konsum bekommen die GPUs dann einen anderen Wert für andere hier, weil sie ggf. nicht verreisen können oder wollen oder das Geld lieber im Gaming lassen.
Im Wert des Nutzens kommen sogar 5090er besser weg als jeder ordentlich Urlaub.
Ich meine, ist ja toll wenn das für dich so ist, aber so richtig überzeugend ist das für mich nicht. Und ich bin Reisemuffel.

Aber die paar Stunden Gaming die Woche, werden ja irgendwie auch nicht komplett ein anderes Erlebnis nur weil die GPU jetzt ne 5090 statt einer 4070 super oder RX6800. Am Ende Spielen sich die Spiele doch eh gleich.

Was übrigens nicht bedeutet das man das Geld nicht ausgeben soll, wenn man eh nix besseres mit dem Geld anzufangen weiß, hübscher ist hübscher und Freude an der Technik kann ich auch nachvollziehen.
 
  • Gefällt mir
Reaktionen: Capthowdy und Laphonso
Apocalypse schrieb:
Aber die paar Stunden Gaming die Woche, werden ja irgendwie auch nicht komplett ein anderes Erlebnis nur weil die GPU jetzt ne 5090 statt einer 4070 super oder RX6800.
Für mich schon. Ich hätte noch mehr Hobbygeld über, wenn mir GRafikqualität und fps "egal" wären, dann würde ich alle 5-6 Jahre mal neu kaufen.
Aber eine 4070 Super oder RX6800 würden mich in eine Immersionskrise stürzen, sorry :D

KCD2 mit 120 fps in maxed Experimental (= Ultra plus) Settings tausche ich nicht ein.

Meinen Casuals privat (die zocken unregelmäßig mal einen Sonntagnachmittag und Abend) empfehle ich nur noch eine PS5, denn die stören auch 30 oder 40 fps nicht in den Singleplayer Games. Ich würde tilten, aber so unterschiedlich ist die Rezeption ^^

Aber ja, ansonsten stimme ich Dir zu, dass das "Erlebnis" es eine persönliche, subjektive Präferenz ist, Apocalypse. Geht ja nicht um "rational" bei Leuten wir mir ^^
 
  • Gefällt mir
Reaktionen: Apocalypse und mydayyy
aspro schrieb:
Die 4000er waren lange Zeit gut verfügbar. Jeder hatte die Chance eine zu kaufen.
Es gibt diese z.T. immer noch relativ zahlreich, zumindest was die RTX 4070Ti "Super" angeht (29 verschiedene Angebote derzeit laut Geizhals.de), die marginal/kaum schwächer als eine RTX 5070Ti ist (und ebenso 16 GB verbaut hat) und es deutlich günstiger zu kaufen gibt:

Untitled.jpg


Mir wäre das trotzdem zu wenig Mehrwert für den Preis oder auch die RTX 5070Ti für den angekündigten UVP, aber ob man sich von nVidia (und deren Märchen-Marketing) einfangen lässt oder nicht, muss jede/r selber wissen.
 
Chismon schrieb:
Es gibt diese z.T. immer noch relativ zahlreich, zumindest was die RTX 4070Ti "Super" angeht (29 verschiedene Angebote derzeit laut Geizhals.de), die marginal/kaum schwächer als eine RTX 5070Ti ist (und ebenso 16 GB verbaut hat) und es deutlich günstiger zu kaufen gibt:

Anhang anzeigen 1586399

Mir wäre das trotzdem zu wenig für den Preis oder auch die RTX 5070Ti für den angekündigten UVP, aber ob man sich von nVidia (und deren Märchen-Marketing) einfangen lässt oder nicht, muss jede/r selber wissen.
Wo ist das "deutlich günstiger" oder bin ich blind?
 
bickid schrieb:
"deutlich günstiger" oder bin ich blind?
Schrieb ich "deutlich günstiger"(?), ich denke nicht, und ja, als die veranschlagten RTX 5070Ti Scalperpreise dürfte es immer noch deutlich günstiger/lohnender sein so eine leicht überteuerte RTX 4070Ti "Super" zu kaufen (insbesondere, wenn die günstigsten RTX 5070Ti Modelle vergriffen sind).

Vielleicht sollte man aber auch besser erst auf RDNA4 warten und hoffen.
 
  • Gefällt mir
Reaktionen: Chismon und bickid
Nixdorf schrieb:
Die GTX 1070 Ti kam für 469€ Listenpreis raus.
Und das gerade mal vor 7 und ein wenig was Jahren, heute wären das 615€ Inflationsbereinigt. Und das war auch nur ein 314 mm² Chip, auf einem im Vergleich zu heute spottbilligen Prozess.
Und dann aber immerhin 95% der ALUs vom 1080 Chip ... der natürlich aber ebenfalls winzige 314mm² war.

Wobei natürlich der größte Chip Pascal Chip dann 610mm² groß war, und auch tatsächlich mehr als zweimal soviel Transistoren hatte, und erstaunlich stark an den Unterschied der 5090 zur 5080/5070ti erinnert.

Dann bleibt ja zu hoffen das es bald ne 5080ti gibt.
 
Zurück
Oben