4080 / 4070ti Customs, von denen abzuraten ist?

Jakes Brother schrieb:
das spiegelt sich vielleicht auch in meiner Asuwahl wieder 4070 ti für "Vernunft" und man kann die Regler ja auch nach links stellen in (naher) Zukunft ... 4080 für "Gönn dir" und die Regler bleiben länger auf rechts)
von Vernunft kann man wohl aktuell bei keiner GPU sprechen, die sind insgesamt alle zu teuer. Bei NV kommt halt noch der geiz mit dem VRam hinzu, die 4070Ti ist deshalb aber keine schlechte Karte. Aber mir war es eine 4080 einfach nicht wert. Wer eine 4090 hat und will, bitte, meinen Segen hat er.

Ich bin eigentlich nur aus der Gewohnheit bei NV geblieben, die waren immer am sorglosesten und wenn man mal wechseln wollte gabs wieder irgendein Problem.

Bei AMD ist aber der Linuxsupport löblich und bei NV für den Popo. Von daher könnte es in ein paar Jahren vielleicht doch mal so weit sein.
 
Die Vernunftlösung wäre mit der 6700XT auszuharren bis zu nächsten Generation.
Neukauf bei WQHD bedeutet in der Regel 4070 oder ne 6900XT (ab 620€).
Jakes Brother schrieb:
bisher RX XFX QICK 6700XT, bewusster Wechsel zu grün, aufgrund besserer Raytraycing Performance angestrebt
Wo ruckelt es?
In Cyberpunk kannst du das Raytracing auch auf OVERDRIVE stellen und eine 4090 erreicht nicht mal 30fps.
Oder du nutzt eben aktuelle Features wie FSR und DLSS.
 
... Vernunft ist eine sehr relative Größe ;), aber an sich gebe ich dir recht, was das Ausharren angeht. Zu Vernunft zählt aber der Bedarf in der Familie, wo die 6700 XT gut unterkommt + die Chance zumindest noch 70€ (Diablo 4) zu sparen, welches ich mir so oder so holen würde.

Wo es ruckelt ... noch nirgends, ich hab RT bisher bei Control oder Metro Exodus mal ausprobiert, da war mir aber der Wow-Efefekt im Vergleichzum fps-Minus zu gering. Ich finde aber die Bilder von Pathtraycing in CP schon sehr eindrucksvoll und da der Titel auch noch auf meiner Bucke-List ist, wäre der eine Option, die so mit Team Grün + DLSS 2-3 sinnvoll laufen könnte.
 
Also bei Nvidia würde ich zu der PNY Verto XLR8 oder zu einer Zotac wegen den 3 bzw. 5 Jahren Garantie greifen. Ich würde auch eher eine 4080 nehmen.
 
  • Gefällt mir
Reaktionen: Jakes Brother
Also wegen der Pathtracing Showcase/Machbarkeitsstudie CP77 würde ich nicht kaufen. Da hast du dann 15 FPS die du mit dlls 3 auf maximal 60 drückst. Du hast aber eine unterirdische Latenz. Für den normalen Spielbetrieb völlig ungeeignet. Für alles andere bist du mit einer 7900xt besser aufgestellt, auch wenn die wieder andere Probleme hat.

Wenn du skippen kannst, dann mach das. Für die Familie kann man auch eine günstige 6600 xt besorgen, aber jetzt 1000 Euro in eine halbgare Karte stecken? Ich habe mich dagegen entschieden. Warten bis zur nächsten gen, obwohl ich eine potente 4k Karte schon gebrauchen könnte. Wiederum auch nicht, weil es noch ganz gut läuft.

Bei der 4070ti wirst du in nicht allzu ferner Zukunft wahrscheinlich ärgern und die 4080 war ja schon immer unbeliebt. Selbst nach den Preisanpassungen ist das value immernoch etwas armselig.
 
@Jakes Brother
Du musst die Upselling-Strategie von Nvidia ja nicht schlucken. Mach einen Bogen um die 4070 Ti und die 4080 und nimm den Köder Diablo IV einfach in Form der RTX4070 mit. Die kostet dann als günstige Variante und mitsamt Spiel sehr schön gerechnet um die 500€ und die zusätzliche Karte für die Familie ist somit freigegeben.
 
  • Gefällt mir
Reaktionen: mrcoconut und C0rteX
Also meine 1080 erreicht bei D4 in WQHD 70 fps in max Settings... Vielleicht auch mehr, ich cappe eh weg. Und die hat nur 8 böse GB VRAM und ist steinalt. 😆 Spass beiseite. Seit mal nicht so verbissen. Ist nur ne Grafikkarte.

AMD wäre hier ne Option. Wie bereits erwähnt eine 7900XT mit 20GB VRAM. Preislich attraktiver als alle Nvidia Karten und auch schnell genug für alles. Ich persönlich würde keine 1000 Euro+ für ne Grafikkarte ausgeben.

Dann lieber mit der Familie in den Urlaub^^ Entscheide Du, ist dein Geld.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Revolvermann01
ruthi91 schrieb:
4K Monitore kosten ab 250€ bzw. sind in vielen Haushalten einfach schon als Fernseher vorhanden.
Und wer schließt seinen PC an den Fernseher an? Außer die paar verrückten, die einen LG OLED mit 42" oder gar 48" Zoll auf ihren Schreibtisch stellen?
Ich glaube, auf die Idee den PC an den TV anzuschließen, kommt eher nicht Otto-Normal. Der stellt sich vermutlich weiterhin einen 1080p 24-Zöller auf den Schreibtisch. Vielleicht mit 1440p und ganz verrückt schon einmal als 27-Zoll (wahlweise mit 1080p oder 1440p)

Hier für WQHD schon eine 4080 zu empfehlen... Genau der Kundschaft, die für 250 Euro dann einen 4k-Monitor kaufen soll. Genau mein Humor.

Aber ist halt klar. Wenn Spiele am PC spielen. Dann nur in Ultra Settings rolleyes

Benchmarks aus unabhängigen Quellen? Genau. Benchmarks, die quasi durchgehend auf Ultra Settings gemacht werden... Die Grafikeinstellungen sind nicht nur zum Angucken.
 
  • Gefällt mir
Reaktionen: sikarr
Ich sage nur das 4K Auflösung (seit Jahren) nichts exotisches mehr ist.
 
Ich habe meinen OLED C1 an meiner graka. Auf dem Schreibtisch steht ein wqhd. Ist nun wirklich nichts ungewöhnliches mehr. Besonders hier im Forum.
 
  • Gefällt mir
Reaktionen: Gsonz
"Exotisch" vielleicht nicht. Wobei man definieren müsste, was exotisch ist. Aber zumindest laut Steam Survey (ja ja, böse Quelle) liegt der Anteil der 4k-Monitore bei unter 3%... WQHD (~12%) und FHD (~66%) machen dagegen immer noch gut 3/4 aus...
Über die Verteilung der GPU will ich da gar nicht sprechen. Bin zu faul zu zählen. Dürfte aber in Richtung 40% gehen für Karten im Bereich einer x50 bzw. x60.
 
Ja, aber wieviele von diesen Otto normalos von denen du hier redest, würde knapp 1000 Euro oder mehr für eine graka ausgeben? Ich gebe auch keine 1000 Euro aus um dann am Tag eins schon nicht für mindestens 3 Jahre VRAM save zu sein. Wenn man sich die Rückmeldung bezüglich Verkaufszahlen so ansieht, sehen das viele ähnlich...

Das ultra von heute ist das high von morgen. Bescheidener wird die UE 5 engine auch nicht. Da reden die Entwickler von bis zu 20 gb vram verbrauch.
 
Zuletzt bearbeitet von einem Moderator:
sikarr schrieb:
Du wirfst 100% VRAM Unterschied in den Vergleich + Ältere Architekturen? Klar sind 12Gb für 4K nicht mehr oder kaum ausreichend, habe ich auch nicht anders gesagt, ausser das die 4070Ti keine 4K Karte ist.
Warum sollte sie keine sein? Die kann auch 4k. Nur weil Nvidia sie nicht im 4k Bereich platziert, sagt ja nicht, das sie keine 4k Karte ist. Selbst mit der rx6800 habe ich alles in 4k(2160p) gespielt und das war/ist vin der produktplatzierung seitens AMD, alles andere als eine 4k karte. Und beim vram Vergleich ist es doch wurscht ob letzte Generation oder nicht, die Aussage ändert sich nicht, das 12gb vram für 4k ab einer bestimmten Qualität, nicht drin ist, mit 12gb vram. Dazu kommt noch die beschnittene Bandbreite mit 192bit Interface und letztendlich ist der Preisunterschied zu einer brauchbaren 4080 auch nicht die Welt
Ergänzung ()

C0rteX schrieb:
Spiel das mit der 6700 xt in 4k HDR und FSR 2 mit 70-90 fps
Warum nutzt du dann das Gegenstück,fsr2, von dlss, wenn man es nicht braucht? Oder, deine Karte kann kein dlss, was aber zwischen braucht man nicht und kann es nicht, einen großen Unterschied macht.
 
feidl74 schrieb:
Warum sollte sie keine sein? Die kann auch 4k.
Du hast die Antwort ja selber bereits gegeben. Weil 12GB für 4K eben nicht mehr Ausreichend sind, bei WQHD sieht das anders aus.
feidl74 schrieb:
Und beim vram Vergleich ist es doch wurscht ob letzte Generation oder nicht, die Aussage ändert sich nicht, das 12gb vram für 4k ab einer bestimmten Qualität, nicht drin ist, mit 12gb vram. Dazu kommt noch die beschnittene Bandbreite mit 192bit Interface und letztendlich ist der Preisunterschied zu einer brauchbaren 4080 auch nicht die Welt
Das sind die Punkte die hier und in anderen Post auch immer wieder vorgeschoben werden das 12GB eben zu wenig für 4K sind und jetzt kommst du und sagst das sie doch eine ist, entkräftest deine Aussage dann aber einen Absatz weiter selbst, muss man nicht verstehen?
 
Zwirbelkatz schrieb:
@Jakes Brother
Du musst die Upselling-Strategie von Nvidia ja nicht schlucken. Mach einen Bogen um die 4070 Ti und die 4080 und nimm den Köder Diablo IV einfach in Form der RTX4070 mit. Die kostet dann als günstige Variante und mitsamt Spiel sehr schön gerechnet um die 500€ und die zusätzliche Karte für die Familie ist somit freigegeben.

... bei der 4070 wäre mir der Leistungszuwachs zu wenig, wenn ich schon neu kaufe. Ich möchte, dass es beim Raster mindestens 50% mehr, beim RT mindesten 100% mehr zu meiner 6700 XT wird. Da liegt die 4070 beim Raster knapp drunter.

Viele Dank für die vielen Hinweise, ich werde bis heute Abend nochmal Kopf lüften und die Sache ruhen lassen und dann entscheiden :)

... übrigens ist der Diablo4-Deal bei NB mit deren BlackWeek-Angebot (das seit heute läuft) kombinierbar, beträfe zwei 4080 und eine 4070 Ti von KFA². Das wären dann (D4 bereits abgezogen) 1.099€, 1.029€ bzw. 769€ Ist aus dem "normalen" Shopzugang so nicht ersichtlich, aber wenn man bspw. über den Link von Nvidia die NB-Promo-Seite zu D4 aufruft, sind die Karten dort inkl. BlackWeek gelistet. Dass das kombinierbar ist, hat mir der Telefonsupport eben nochmal bestätigt.
 
Bei WQHD machst du im Raster 50% und RT 70% plus.
In 13-14 Monaten sind wahrscheinlich schon RTX 5090 und 5080 am Start.
Vielleicht ist also der Zwischenschritt mit einer 4070 ideal und du kannst dir dann die 5080 gönnen und "Cyberpunk GOTY Complete Edition" mit allen Reglern ganz rechts genießen.
 
sikarr schrieb:
hast die Antwort ja selber bereits gegeben. Weil 12GB für 4K eben nicht mehr Ausreichend sind, bei WQHD sieht das anders aus.
Die sind ausreichend, wenn man auf seine ingame settings achtet....
 
@feidl74

Worauf wolltest du mit deinem Zitat auf meinen Beitrag hinaus? Ich nutze FSR weil es in Diablo gut umgesetzt ist und ich die Performance brauche um über 60 FPS zu kommen. Dlss können nur Nvidia Karten. Ich habe nie behauptet das ich es nicht nutzen will. Also was genau willst du mir mit deinem Beitrag sagen? Ist für mich nicht nachvollziehbar.

Also mit settings kann ich alles begründen. Zu wenig FPS? Stell doch die settings runter? Die Frage die man sich stellen muss ist, will man 800 Euro oder mehr ausgeben mit der Gewissheit, dass die 12 GB in WQHD in nicht allzu ferner Zukunft problematisch werden. Wir sind hier User die auf Leistung und Optik abfahren. Die meisten wollen wenig bis keine Kompromisse machen in diesem Preisbereich.

Relativieren kann man alles, aber ob das für den Nutzer für diese Summen ausreicht, eine ganz andere. Wer fast 1000 Euro ausgibt, will sich eigentlich erstmal keinen platte um sowas machen. Im Preisbereich von 300 Euro natürlich, aber doch nicht bei 800+. Ich lasse mir ja auch nicht einen Golf zum Preis eines Porsches andrehen.

Und ich kaufe eine garka für neue Games mit hohen Anforderungen. Für ältere Games die bereits laufen, brauche ich auch keine neue Karte. Und da geht meiner 6700xt langsam die Puste aus. VRAM ist zum Glück derzeit gerade noch so ausreichend, dass es nicht Matschtexturen sein mussen. Bei Hogwarts, the Last of US und Diablo ohne Upscaling komme ich aber schon über die 12 GB in WQHD. Nvidia ist zwar etwas effizienter mit dem VRAM, aber auch meist mindestens 50 Prozent unter der VRAM Menge von AMD in der gleichen Preisklasse. Das bedeutet die VRAM Mauer wird nur etwas länger hinausgezögert bei gleicher Menge an VRAM. Bei 50 Prozent mehr VRAM fährst du langfristig immer besser.

Wir haben ja bei der 3070 gesehen wie die gegen eine 6800 heutzutage in neueren Games performt. Teilweise nur 11 mindest FPS und dann sogar langsamer in Raytracing.
 
Zuletzt bearbeitet von einem Moderator:
C0rteX schrieb:
Die Frage die man sich stellen muss ist, will man 800 Euro oder mehr ausgeben mit der Gewissheit, dass die 12 GB in WQHD in nicht allzu ferner Zukunft problematisch werden
Du meintest du brauchst kein dlss sondern nutzt fsr. Richtig wäre gewesen, meine Karte kann kein dlss, deswegen nutze ich fsr.
Ja die settings machen was aus in 4k. Auf einer 1070 GTX mit settings sehr hoch bin ich unter 60 FPS, nur mit hoch auf bzw. Über 60 in 4k ohne fsr oder dlss. Die RX6800 schafft ca 100-120, die 4080 noch Mal 30-45 FPS mehr, mit den gleichen settings.
 
Ich habe natürlich gemeint man brauche kein dlss 3 für Diablo 4 bei einer 4070 ti, weil die fps mit normalen upscaling bei Karten dieser Preisklasse schon sehr hoch sind. Um präzise zu sein meinte ich Frame Generation, weil das würde ich da auf jeden Fall auslassen. Die Unterscheidung dlls 2, 3 und frame Generation ist derzeit leider nicht immer überall gegeben. DLLS 3 ohne FG können ja auch RTX 30 und 20 Karten. Selbst Nvidia macht diese Unterschiedung leider nicht immer klar und nennt es einfach nur DLSS 3.

Ich benutze upscaling bei Diablo auch wegen der Verbesserungen bei der bildquali. Ob Dlss oder FSR ist mir eigentlich ziemlich egal. Ich brauche es wenn dann für 4k und jedes der beiden Verfahren hat durch die Qualität der Implementierung seine starken und schwachen Beispiele. Das DLSS derzeit Overall etwas besser performt, damit kann ich leben. Ich setze auf den offenen Standard. Allein schon weil die Konsolen FSR ebenfalls nutzen können und da nunmal AMD drin steckt. Wir haben bei freesync vs gsync gesehen wie sowas ausgehen kann.
 
Zurück
Oben