News Umfragen zum Verkaufsstart: Wie (un)beliebt ist die RTX 4070 Ti in der Community?

Früher hätte ich das Wettrüsten ja mitgemacht. Aber für 95% der Spiele, die ich spiele, ist meine Sapphire nitro+ 5700 xt auf meinem Monitor mit 3440*1440 mehr als ausreichend. Und nur ein cyberpunk ist es mir nicht Wert.

Also werde ich diese Generation genauso wie die letzte überspringen - es sei denn ich stolpere per Zufall über ein Modell dieser oder letzter Generation zum Spottpreis.

Persönlich glaube ich eh es macht Sinn zu warten bis die unreal engine 5 sich weiter verbreitet hat, dann wird man sehen was man wirklich braucht.
 
  • Gefällt mir
Reaktionen: Real_S_Seagal, Benji18, Norebo und eine weitere Person
CrustiCroc schrieb:
Absolut korrekt.

VRAM Allokierung ist den wenigsten hier ein Begriff.

Genau das!
Hatten wir doch letztens hier erst im Forum.

Behauptung: Horizon Zero Dawn braucht 14GB VRAM @ 4K.
Wahrheit: HZD braucht in keiner Situation mehr als 8GB.

Der diese falsche Behauptung aufstellte zockte HZD mit ner 4090...

modena.ch schrieb:
NV hat die 2080 TI schon als 4K Karte beworben und das geht ja auch so halbwegs.
Wieso sollte das mit 45-50% Mehrleistung nicht gehen?
Und dafür fehlt halt wirklich Speicher und die Speicherbandbreite bei der 4070 TI.
Der Speicher ist halt der Rohleistung der GPU nicht passend angeglichen worden.
Sprich sie ist wieder unnötig schnell ein Auslaufmodell.
Aber das ist natürlich Absicht um sich schneller einen Nachfolger kaufen zu müssen.

Das darf man sicher kritisieren.

Ja damals damals damals.

Die Anforderungen haben sich aber in 2 großen Punkten massiv geändert.

1. Die Games verlangen deutlich mehr Leistung als vor 3-4 Jahren.
2. Die Highend PC Gamer haben andere Ansprüche, will doch keiner mehr 30-60 FPS @4K.
Zumindest viele nicht. Auch haben sich die Monitore weiter entwickelt. 4K IPS 144Hz usw...

Ich habe mit meiner 3080 Ti auch 4K probiert, war mir persönlich zu wenig FPS und bin zurück auf WQHD 240 Hz. Den kann ich auch richtig perfekt befeuern.

Und da sind wir beim Punkt wo ich nicht sehe das die 4070 Ti eine 4K Karte ist, dazu muss sie auch nicht gemacht werden um sie zu kritisieren. 4K ist für diese Karte nicht der Sweetpott, ideale Usecase.

Also brauchen die ganzen Dunkelroten Hater hier wieder nicht alles kaputt treten wie unter jeder News.

Die 4070 Ti ist die effizienteste WQHD GPU die es gibt.
Schaut euch die Tests von Roman und co an. Habe oben das Video verlinkt.

Wenn es euch so wurmt das RDNA 3 so massiv ineffizient ist, sagt das AMD aber macht nicht immer anderes schlecht nur um euch besser zu fühlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo, ThirdLife und CrustiCroc
Thukydides schrieb:
@kalude

Leider sehr falsch. 4K kann man sofort sehen und auch 8K kannst du auf einem ganz normalen 27" Monitor direkt erkennen. 8K auf 27" sind gerade mal 300 ppi, das ist die Grenze die Apple mal als Retina ausgerufen hat.

Ich denke 16K auf 27" wäre das Optimum, danach kanns du dann wirklich keinen Unterschied mehr sehen.
Wie gesagt, wenn Du mit der Nase ganz nah dran gehst, dann siehst Du das. In Bewegung bei Spielen ist das wirklich egal. Durch 4K erkennst Du da nicht mehr oder hast irgendeinen Vorteil. Dass weit im Hintergrund eine Linie weniger flackert, was eigentlich dank anisotropischen Filter kaum noch ins Gewicht fällt, hat eher einen Empfindungscharakter.

Die Leute lassen sich durch 4K verrückt machen. Auf Fernsehern ab 42“ macht das Sinn. Auf 27“ Monitoren ist das wirklich nur eine Gefühlssache.
 
  • Gefällt mir
Reaktionen: ThirdLife
Hutzeliger schrieb:
Genau das!
Hatten wir doch letztens hier erst im Forum.

Behauptung: Horizon Zero Dawn braucht 14GB VRAM @ 4K.
Wahrheit: HZD braucht in keiner Situation mehr als 8GB.

Der diese falsche Behauptung aufstellte zockte HZD mit ner 4090...
Okay, auch da war die Behauptung Grütze.
Meistens ist das in der Vergangenheit ein Pro AMD Argument gewesen.

So wie „Fine Wine“. Kompletter Käse, Nvidias Treiber reifen genau so.
Gibt genügend Videos und Artikel zur Leistungssteigerung durch Treiberupdates im Laufe einer GPU Generation mit der Erkenntnis, das AMD zwar in der Tat mehr Steigerung erfährt, allerdings im Rahmen von 1-2 % mehr als dies Nvidia tut.

Das wird aus Fine Wine eher ne Apfelschorle.
 
  • Gefällt mir
Reaktionen: ThirdLife
Was soll das überhaupt mit „Fine Wine“. Sowas nennt man nach wie vor Bananensoftware weil die Hersteller so inkompetent sind eine fertige Software auf den Markt zu bringen
 
  • Gefällt mir
Reaktionen: Mumusud
GutGilliganHyde schrieb:
Ich zocke fast nie alleine, niemand mit dem ich ab und zu daddel, wäre auch nur ansatzweise bereit, so viel Geld für eine GPU auszugeben.
Desktop-GPUs sind tot. EVGA ist nicht ohne Grund komplett (!) aus dem Geschäft ausgestiegen. Man hätte ja auch mit AMD oder Intel verhandeln können, aber man weiß schon, daß da Ende Gelände ist.

Und das liegt NICHT (!) an den Preisen. ONU kauft keine Grafikkarten mehr, ganz egal was die kosten.

GutGilliganHyde schrieb:
Lässt sich neben Haus/Garten/Kinder und wesentlich lohnenswerteren Hobbys nicht rechtfertigen.

Selbst meine Frau und ich sind nicht bereit diese Preise zu zahlen und wir verdienen mit der HW in erster Linie Geld und haben die Spieleperformance eher als Dreingabe...
Aus früheren "3D"-Karten, die nichts anderes konnten als Texel, dann Geometrie und Shader sind inzwischen zweckentfremdete Koprozessoren geworden, die vor allem fürs "Number Crunching" da sind. Und die gehören mit ihren Leistungsdaten (vor allem was Strom angeht) in den Rackserver ins RZ und nicht in den Spiele-PC. Dafür nämlich ist auch der PCIe 5.0 12VHPWR-Stecker da - nicht für DAUs, die zu dumm sind, einen Stecker einzustecken und dann ihr buntes Fenstergehäuse nicht mehr zubekommen. An die hat man dabei nicht im Geringsten gedacht, dieser Markt ist völlig irrelevant. Sieht man ja auch schon daran, daß alle Probleme haben, ihren "Grafikprozessor" überhaupt auszulasten.

Diese Entwicklung hat auch rein gar nichts mit dem Mining-Boom zu tun. Den Mining-Boom mit "GPUs" gab es nur, weil das eigentlich keine "Grafik"-Karten mehr sind. Deswegen gibt's auch keine "Mittelklasse" oder "Einstiegsklasse" mehr. Denn solche Chips wie bspw. den GP107 auf Steckkarten zu produzieren ergibt wirtschaftlich schlicht keinen Sinn mehr. Denn im Rack will man ja eine möglichst hohe Dichte an Rechenleistung auf die verfügbaren PCIe-Slots haben. Übrigens gibt es deshalb auch kein SLI mehr: Das braucht man dort schlicht überhaupt nicht.

Ach ja, die "Mittelklasse"-Chips, also die echten Volumenmodelle landen nun samt und sonders unter bekannten Nummern in Notebooks. Und den "Einstieg" bieten dort ebenso APUs. Deswegen muß sich auch niemand irgendwelche Sorgen um AMD oder nVidias Umsätze machen, wenn die paar "Grafikkarten" jahrelang in irgendwelchen Containern herumgammeln. Denn die Notebooks verkaufen sich schon. Und beim nächsten Nachfragesprung gehen die lagernden GPUs einfach wieder in die nächstbesten Rackserver, was auch immer die dann "minen". Wie toll diese Uraltkarten dann beim "Raytracing" sind, ist dort nämlich ebenso egal.
 
Alphanerd schrieb:
Mit Direct storage sieht es doch noch schlimmer aus am PC. Solange da noch so viele PCs mit SATA ssds betrieben werden,, lohnt es sich für die Entwickler einfach nicht. zu kleine Verkaufsbasis.

Das ist eine Sache von 50€, und einem Win 11-Upgrade, das in weniger als 3 Jahren sowieso fällig wird.

Neulich bei dem Sonderangebot habe ich mich mit zwei Samsung 980 Pro für je 100€ eingedeckt, das ist bereits Luxusklasse. Kostenmäßig also nicht zu vergleichen mit einer GPU mit >8 GB.

Außerdem setzen beide Next-Gen-Konsolen auf SSD-Swapping, die Anpassung einer Multiplattformentwicklung an Direct Storage dürfte also weniger Aufwand machen, als Extrawürste für PCs ohne dieses Feature.
 
Bible Black schrieb:
Die 4070 Ti mit ihren 12GB ist einfach ein massiver VRAM Krüppel.
Lächerlich, es gibt heute kaum ein Spiel, was in 4K maxed out den V-ram auffrisst.
Von daher wird es die nächsten 2 Jahre auch nicht so schnell passieren, schon gar nicht in UWQHD.
Und sollte es mal so sein, kann man halt nicht auf das Maximum aufdrehen.
Bible Black schrieb:
Und 3 Generationen zur 1080 später, soll man wieder 12GB nehmen? Absolut lächerlich.
Wieso wieder? Die 3080 hatte gerade mal 10GB.

Bible Black schrieb:
Mal abgesehen davon, dass die ganze Aktion rund um die Karte ("4080 12GB") purer Betrug war und dass man plötzlich die UVP um 300€ senken konnte... Aber Nvidrones werden das zu verteidigen wissen.
Die UVP wurde um 100 Dollar gesenkt.
IXI_HADES_IXI schrieb:
Gibt genug Games die mittlerweile mehr Verbrauchen und ihn auch nutzen und nicht nur belegen.
Bitte um Belege. Ansonsten komplett undifferenzierter "Hate Popanz".
Wenn die Karte 10GB gehabt hätte, dann hätte ich es verstanden.
 
highwind01 schrieb:
Kurzer Realitätscheck: AMD verkauft und vermarktet die quasi gleiche Raster-Leistung (bei deutlich geringerer RT-Leistung) nicht als 7700 XT, nicht als 7800 und nicht als 7800 XT, sondern schreibt da allen ernstes 7900 XT drauf!
Nvidia hat bis vor 2 Monaten eine RTX3090 mit weniger Raster und selber RT Leistung für mehr geld verkauft.
die RTX4070 bietet 26% weniger Raster und ist ein Speicherkrüppel.
selbst die RX7900xt ist Raster 8% schneller und RT 16% hinter kostet aber das selbe und die 20GB werden sicher länger reichen wie die 12GB.

vor 2 Jahren haben 8GB selbst im UHD gereicht ohne das der Speicher ausgeht, heute reichen selbst die 10GB der FE nicht mehr für UHD.
in 2Jahren werden sicher die ersten Gams auch von 24GB gebrauch machen
https://www.computerbase.de/2020-09...s_mit_raytracing_in_full_hd_wqhd_und_ultra_hd
ich würde selbst in FHD nicht mehr unter 12GB kaufen.
12GB für 800€ ist ein schlechter Witz alles ab 600€ sollte minimum 16GB haben, 12GB für 4-600€ als untere Mittelklasse, eine 8GB karte ist in 2023 max 400€ Wert reicht gerade noch um das ein oder andere Game zumindest in WQHD noch ohne Leistungsverlust zocken zu können
 
  • Gefällt mir
Reaktionen: Windell und Eller
amd_24 schrieb:
3070 Nutzer hier. Wollte umsteigen, aber bei dem Preis lehne ich dankend ab. Sollte hauptsächlich mehr FPS auf ein WQHD Monitor zaubern, aber Nvidia belohne ich erstmal nicht. Wer nicht unbedingt kaufen muss, jetzt einfach mal abwarten und mit Spaß zusehen, was denn passiert, wenn die Mehrheit nicht bereit ist 900+ für ein Mittelklassechip auszugeben. Bin gespannt. ^-^
Das kann ich dir jetzt schon prognostizieren: nix wird passieren weil die einfach weniger Karten produzieren und es immer noch genug gibt die halt wollen und "brauchen", zB von einer 1060 kommend etc.

Und am Ende wirst dann auch kaufen weil - oh Wunder - die Karten nicht plötzlich für 499€ vertickt werden. Hast einfach nur Zeit verloren, die kann man im Gegensatz zu Geld aber nicht dazuverdienen. 🤷‍♂️

Icke-ffm schrieb:
Nvidia hat bis vor 2 Monaten eine RTX3090 mit weniger Raster und selber RT Leistung für mehr geld verkauft.
die RTX4070 bietet 26% weniger Raster und ist ein Speicherkrüppel.
selbst die RX7900xt ist Raster 8% schneller und RT 16% hinter kostet aber das selbe und die 20GB werden sicher länger reichen wie die 12GB.

vor 2 Jahren haben 8GB selbst im UHD gereicht ohne das der Speicher ausgeht, heute reichen selbst die 10GB der FE nicht mehr für UHD.
in 2Jahren werden sicher die ersten Gams auch von 24GB gebrauch machen
https://www.computerbase.de/2020-09...s_mit_raytracing_in_full_hd_wqhd_und_ultra_hd
12GB für 800€ ist ein schlechter Witz alles ab 600€ sollte minimum 16GB haben, 12GB für 4-600€ als untere Mittelklasse, eine 8GB karte ist in 2023 max 400€ Wert reicht gerade noch um das ein oder andere Game zumindest in WQHD noch ohne Leistungsverlust zocken zu können
Dann ist die optimale Karte also eine Radeon VII oder ? Die hatte ja 16GB super schnellen HBM Speicher, zeig mir doch wie gut die Cyberpunk 2077 darstellt gegenüber einer sagen wir 3070 mit 8GB. Darf auch gern UHD sein und ohne RT.

Ist ja schliesslich viel zukunftssicherer die Karte mit dem vielen tollen Speicher ! 🤣

Und der avg. RT Benchmark zeigt ja, dass selbst in UHD eine 3080 mit 10 GB 40% mehr Leistung bietet als eine 11GB 2080 Ti. Ich seh jetzt nicht wo das auch nur EINE deiner Hypothesen bestätigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Falc410, Hutzeliger und PaKu80
el_zoido schrieb:
Jup das denke ich auch. 12gb wird bald das gleiche Schicksal ereignen wie seinerseits die 3080 10gb. Theoretisch genug Rohrleistung für 4k max aber praktisch wird man doch leider runterregeln dürfen.
Wenn ich in der Preisklasse unterwegs bin will ich in UHD zocken und eine 4070 ti bringt es siehe Tests nicht in UHD da dort küstlich die UHD Performance mit den 192 Bit limitiert wurden. Selbst meine RTX 3070 Hat 256bit. Das ist ein Grund um küstlich Leistungsunterschiede zu machen. Die Karte könnte mehr aber man will sich ja in der Leistung nicht selber Konkurrenz machen
 
AMDFX schrieb:
Wie viele die 4090 wählen.. da freut sich die Lederjacke aber 😂
Er freut sich sicherlich am meisten über die 4080 Käufer denn da ist die Marge höher wie bei den 4090&4070
bei der 4080 spaart er 38% Wafferfläche und 8GB Speicher ein für einen Preisnachlass von 25%
bei der 4070 spaart er nur noch 22% Waffer und 4GB Speicher für einen Preisnachlass von 35% zur 4080
 
JMP $FCE2 schrieb:
Außerdem setzen beide Next-Gen-Konsolen auf SSD-Swapping, die Anpassung einer Multiplattformentwicklung an Direct Storage dürfte also weniger Aufwand machen, als Extrawürste für PCs ohne dieses Feature.
Direct Storage und Unified Memory (16 GB GDDR6-Hauptspeicher) sind jetzt (!) in diesem Moment gerade maßgeblich bei Videospieltiteln, die sich in Entwicklung befinden und die in ein paar Jahren auf den Markt kommen. Davon weiß natürlich die CB noch nichts, weil Publisher solche Entwicklungen im Frühstadium nicht öffentlich machen.

Niemand, wirklich niemand mehr entwickelt dieses Jahr noch für PCs mit über PCIe angebundenen "VRAM" (ganz egal, ob das 24 GB sind), und "Dateien" auf "Festplatten", die indirekt über einen Controller angesprochen werden müssen, um dann erstmal in einen langsamen DDR4- oder DDR5-Hauptspeicher geladen zu werden. Das ist Geschichte, Leute! Das kommt nicht mehr wieder.

Das Systemdesign des Windows-PCs spielt bereits heute in der Entwicklung von AAA-Spielen keine Rolle mehr. Danach richtet sich niemand mehr.
 
AMDFX schrieb:
Wie viele die 4090 wählen.. da freut sich die Lederjacke aber 😂
Nicht nur er. Ich freu mich auch. :daumen:
 
Moin,

ich hab heute für 939 EUR eine 4070 Ti bestellt.

Ja es ist teuer, aber auch ja, ich möchte meine Radeon Vega 64 aus 2017/Kauf 2018 gegen eine effiziente aktuellere GPU tauschen, um in WQHD mit >100fps zu zocken.

Es ist nach 20 Jahren Team Red GPUs mal wieder Team Green. Die fast 1000 EUR sind allerdings ebenso ca. 35% aller meiner GPU Ausgaben all-time (seit 2001).

Gründe für den Wechsel von AMD zu nvidia - DLSS, Raytracing und generell höhere Featurekompatibilität. Wie viele zahllose Nächte ich zu AMD Driver Errors/Bugs/Issues etc. recherchiert habe. Hoffentlich läuft mein Adaptive Sync/Freesync Acer Screen im G-Sync compatible mode.

Übersicht aller GPU Ausgaben all-time:

Manufacturer (Chip)ModelPrice (excl. shipping)Date of purchase
MSI / nvidiaGeForce 2 MX150,00 €14.06.2001
nvidiaGeForce 4 Ti 4200130,00 €01.07.2003
AMDRadeon 9800 Pro130,00 €01.07.2006
Powercolor / AMDRadeon X1950 Pro Extreme155,89 €28.07.2007
Sapphire / AMDRadeon HD4870 VAPOR-X148,53 €16.07.2009
Sapphire / AMDRadeon R9 270 OC141,79 €26.11.2014
Sapphire / AMDRadeon R9 390 Nitro344,70 €11.12.2015
Sapphire / AMDRadeon RX Vega 64489,00 €19.12.2018
Gigabyte / nvidiaGeforce RTX 4070 Ti939,00 €07.01.2023
Summe2.628,91 €
 
  • Gefällt mir
Reaktionen: el_zoido, paganini und brabe
ThirdLife schrieb:
Ich glaub das kannst dir sparen. Manche werden es nie verstehen und alle 2 Jahre geht der Bumms mit der "zukunftssicheren" Speichermenge von vorne los. Bis der Speicher der 4070ti zb in WQHD wirklich massiv zu wenig ist, kotzt der ADA Chip selber schon lange ab...
 
  • Gefällt mir
Reaktionen: Benji18, mrcoconut, ThirdLife und eine weitere Person
Ich vermisse die Antwort bei warum ich keine gekauft habe:
- Weil ich eine Grafikkarte mit einer maximalen TDP von unter 250 W suche.
Ich bin gespannt, ob es eine 4060 gibt, welche mir so gut gefällt wie meine 3060. Ich liebe diese Karte. 170 Watt, auch im Sommer bleibt der Rechner kalt.
 
paganini schrieb:
Tja die einzige UVP die nahezu konstant geblieben ist ist die der 4090. Daher hat sie auch für mich das beste Gesamtpaket (obwohl natürlich dennoch teuer!)
Ja traurig. Rein technisch gesehen ist die 4090 das beste Angebot (bis auf den Preis). Weil kein Kompromiss...
Alle anderen Karten sind so übel Kompromiss behaftet... AMDs Karten leider noch wegen den Problemen...
Wenn FSR 3 auch für die alten AMD Karten kommt sind stand heute die 6800 bis 6900 die besten Karten... (Obwohl auch da die Preise an sich nicht OK sind)
 
  • Gefällt mir
Reaktionen: scheru und paganini
Warum ich keine kaufe und weiterhin den Markt boykottiere, möchte ich durch ein Eigenzitat erläutern:
ShiftC schrieb:
GTX 770400$2013
GTX 970330$2014
GTX 1070380$2016
GTX 1070 Ti470$
RTX 2070500$2018
RTX 2070 FE600$
RTX 3070500$2020
RTX 3070 Ti600$
RTX 4070 Ti800$2023

Natürlich mit der Bemerkung, dass andere Leistungsklassen teilweise von wesentlich absurderen Erhöhungen betroffen sind.
 
  • Gefällt mir
Reaktionen: Schmarall
Zurück
Oben