4070 TI - Empfehlung bis 900€?

ferris19 schrieb:
Ich weiß auch nicht ob es der Sinn ist, wenn ich mir eine Karte für 900€ kauf, dass ich jetzt schon mit DLSS& Co. hantiere, nur weil der Hersteller keine adäquate Vram Politik bei den Produkten machen kann.
Ist nach wie vor Zukunftsmusik. So Spiele wie Hogwarts werden dem ein oder anderen Entwickler schon zu denken geben. Ein Großteil der potenziellen Kunden hat 8 GB VRAM oder weniger. Wenn Spiele in 1 Jahr nur noch mit 16 GB VRAM bei gescheiter Texturqualität laufen und alle anderen auf Low stellen müssten, garantiere ich für ein Flop bei jedem einzelnen davon. Insofern immer mal den Ball flach halten. Ich meide so technischen Müll ja eher ;)

Ich halte es aber aktuell grundsätzlich für sinnvoller eine 4070 zu holen als eine 4070 TI. Da umgeht man mit einem deutlich geringeren Preis das Thema etwas, weil man dann potenziell in 2-3 Jahren einfach wieder tauscht gegen eine evtl. 5070 oder irgendwas von AMD. Eine 4080 garantiert mir auch nicht, dass ich in 2-3 Jahren noch alles auf Anschlag drehen kann. Vom VRAM vllt. aber wenn der Rest mies aussieht, bringt mir das auch nichts. Und da zahle ich aktuell den doppelten Preis einer 4070.
 
  • Gefällt mir
Reaktionen: Sinatra81
ferris19 schrieb:
Ich habe selber die 4090, würde mich aber wenn ich zwischen der 4070Ti und 7900xt entscheiden müsste, mich für die 7900xt entscheiden, einfach wegen des größeren Vrams und der höheren Rasterizer Leistung. Der TE will ja auch die Details so hoch wie möglich drehen, da scheint mir der höhere Vram sinnvoll für ihn.
Ich würde gerne meine 6900xt durch eine 4070ti ersetzen, ist mir aber den momentanen Aufpreis nicht wert, da du nur ein Appel&Ei für eine ehemals 1,2k Karte bekommst zumindest wenn sie von AMD ist und so stark technisch hinterher hinkt.
Jemand wie ich ,der i.d.R. nicht solang auf der Hardware hockt und technikaffin ist, nimmt da lieber die technisch und featureseitig fortschrittlichere Karte und beliebtere Marke für den späteren Verkauf. Da die Karte eh nicht 10 Jahre lang halten muss lebe ich lieber mit dem Risiko irgendwann früher wechseln zu müssen als ich es ohnehin selber angedacht habe. Denke aber nicht, dass das jemals passieren wird, da ich kein Problem damit hätte den Grafikregler mal auch nach links zu schieben zur Not. Wegen Harry Potter oder Spiderman hätte ich heute mit einer 3080 10GB in 4k jedenfalls immer noch keine Schweissperlen auf der Stirn wenn man mal den Rant über diese Karte überdenkt. Viele dürften immer noch sehr glücklich damit sein.
 
  • Gefällt mir
Reaktionen: alan_Shore
Ich dachte echt die VRAM Diskussionen haben ein Ende. Vor Monaten war das noch harte Arbeit, aber eine der letzten Sonntagsumfrage im Forum haben da eigentlich ein klares Bild abgegeben, was die Leute darüber denken.

Last of US, Diablo 4, RE....
Alles nur bedauerliche Einzelfälle....
UE 5 legt da noch Mal einen Zahn zu beim Speicherverbrauch in echten AAA Titeln. Wer bessere Grafik will, brauch heutzutage meist 32 GB RAM und einen wesentlich potenteren Prozessor als noch vor wenigen Jahren. Aber 8 GB VRAM von 2016 müssen natürlich noch für die nächsten Jahre reichen, weil Jensen das sagt?

Neue 8 GB Karten sind totale Verkaufsflops.

Wer triple AAA Spiele in guter quali spielen will, kann das zukünftig mit zu wenig VRAM vergessen. Da ist 12 GB für Full HD und 16 für wqhd einfach sinnvoll.
 
  • Gefällt mir
Reaktionen: ferris19
Tornavida schrieb:
Wegen Harry Potter oder Spiderman hätte ich heute mit einer 3080 10GB in 4k jedenfalls immer noch keine Schweissperlen auf der Stirn wenn man mal den Rant über diese Karte überdenkt. Viele dürften immer noch sehr glücklich damit sein.
So schauts aus...in Zeiten von FSR/DLSS sind viele VRam Probleme Hausgemacht.
https://www.pcgameshardware.de/comm...ew.cfm?article=1424271&page=1&draft=-1&rank=3

Gerade Hogwarts in 4K mit Raytracing getestet. Bei den FPS ist es mir völlig egal ob der VRam ausgeht
a.jpg

...warum sollte man auch DLSS/FG anmachen....wegen den 60% mehr FPS....vielleicht weil man weniger VRam benötigt...dem besseren Bild?
b.jpg

...genau deswegen. Wer tatsächlich meint er kommt schon in 1440p mit 12GB VRam nicht mehr aus sollte sich eine Konsole kaufen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sethdiabolos und Tr8or
DaHell63 schrieb:
warum sollte man auch DLSS/FG anmachen....wegen den 60% mehr FPS....vielleicht weil man weniger VRam benötigt...dem besseren Bild?

Immer wieder faszinierend was NVidia mit DLSS rausholt.
Eigentlich müssten sie sich auf alte Kartennamen besinnen: Voodoo 4070 :)
 
Kann mir kurz jemand erklären, wo der Mehrwert bzw. Unterschied von der Asus TUF mit bzw. ohne OC liegt? Kann ich die normale TUF nicht selbst auf das Niveau der OC hochdrehen?
 
Leicht höhere Taktraten. Ja theoretisch kannst du das.

Die Asus Karten weisen aber vermehrt Spuhlenfiepen auf. Nur als Hinweis.
 
Guckst Du hier. War schon mal Thema. (Binning, Taktrate etc…)

Musst selbst entscheiden ob der Mehrwert den Mehrpreis rechtfertigt. ✌️
 
C0rteX schrieb:
https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xt-pulse/

Verzeihung, es sind sogar nur 8 prozent in praxisnahen RT Szenarien. Pathtracing steckt noch in den Kinderschuhen. Gibt es überhaupt eine relevante Menge an Games die sicher damit kommen? Selbst normales RT hat ja nun Jahre gedauert bis es Mal etwas mehr vertreten war und auch einen optischen Mehrwert bietet.

Pathtracing ist normales Raytracing, nur eben vollumfänglich und nicht nur partiell. Das, was Du als normales Raytracing empfindest waren nur einzelne Elemente, die auch noch in teils schlechten Unterstufungen bereitstanden. CP 2077 ist der Richtwert wo sich zukünftig die Karten einsortieren werden, wenn die Entwickler mehr auf Raytracing gehen, was sie auf jeden Fall machen werden. Letztendlich hat sich die Industrie ja darauf geeinigt und auch AMD hat dafür unterschrieben.

Du geht darauf ein, dass man nicht so viele Marketingfolien lesen sollte. Darum wirst Du sicherlich verstehen, dass AMD eine schlechtere Speicherverwaltung, sowie ältereren und stromfressenderen Speicher verbaut, das aber mit der Menge kompensieren möchte und darauf verweist, was für tolle Anschlüsse man für die Monitore im Jahr 2035 verbauen kann? Beide Hersteller sind sich nicht zu schade zu tricksen und zu blenden, wo es nur geht, technologisch gesehen ist Nvidia AMD aber aktuell gut 1-2 Generationen voraus. Beim Raytracing spürt man es am meisten.
 
DaHell63 schrieb:
So schauts aus...in Zeiten von FSR/DLSS sind viele VRam Probleme Hausgemacht.
https://www.pcgameshardware.de/comm...ew.cfm?article=1424271&page=1&draft=-1&rank=3

Gerade Hogwarts in 4K mit Raytracing getestet. Bei den FPS ist es mir völlig egal ob der VRam ausgeht
Anhang anzeigen 1375466

...warum sollte man auch DLSS/FG anmachen....wegen den 60% mehr FPS....vielleicht weil man weniger VRam benötigt...dem besseren Bild?
Anhang anzeigen 1375469

...genau deswegen. Wer tatsächlich meint er kommt schon in 1440p mit 12GB VRam nicht mehr aus sollte sich eine Konsole kaufen
wow, was ein riesenunterschied, total der Spasskiller...NICHT! 12GB reichen noch locker 2-3 Jahre. Aber klar, man muss ja als Youtuber und Zeitschriften, die Firmen bauchpinseln...
 
Zurück
Oben