Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

Zitterrochen schrieb:
Eigentlich ne geile Karte hätte sie 16GB und für ~600€

Hoffe die 7800XT geht dann in die Richtung.

Abwarten und Tee trinken
Auf die 7800XT schiele ich auch...und ich denke, dass 16GB hier ziemlich sicher verbaut sein werden. Aber mit 600-650€ rechne ich schon, eher noch 700€.
Wenn mir die Grenze aber dann doch zu weit oben ist, gibt es halt nur eine RX7800 oder 7700XT.

Hab keinen Schmerz damit meinen 4K Monitor damit zu befeuern. In dem ein oder andern Game macht das auch jetzt schon meine RX5700. Ansonsten wird eben Auflösung und/oder Detailregler bedient. Geht alles :)

Auch wenn ich AMD sympathischer finde. Aber die absurd hohen Preise mach ich nicht mit, egal wie gut die Karten sind und von welchem Hersteller sie kommen.
 
Ragnarök88 schrieb:
Immerhin bekommt man jetzt eine 3090Ti für 400 Euro weniger.
Finde das eigentlich gar nicht mal so schlecht.
Ich finde das mal ganz übel, weil es schlicht falsch ist !
Wenn die 4070 Ti 24 GB VRAM hätte, dann ja. Hat sie aber nicht. Die 3090 Ti hat 100% (!) mehr VRAM als die vergoldete 4070 Ti. Sowas ist Schönreden der absurden Preise und Rosinenpickerei im Bezug zur Leistung.
Aber das war so klar, das die 4070 Ti von einigen wieder mit dem Totschlagargument 3090 Ti Leistung für jetzt nur 1000€ massiv schöngeredet wird.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Munkman, Orcon und 5 andere
Bin froh eine 4090 nah am UVP bekommen zu haben, klar zu teuer aber dafür die beste Karte, mit der 4070TI, die sie als 4080 verkaufen wollten, würde ich mir verarscht vorkommen weil man die nie im Leben zu den Preisen bekommen wird.
 
eine tolle 550€ GPU. Oh Moment
 
  • Gefällt mir
Reaktionen: Rockstar85 und TKessel
_Flattermann_ schrieb:
Gegen meine RTX 3080 10GB macht diese Karte, meiner Meinung nach, keine besonders gute Figur.
Tja Laut NV gibt es diese ja nicht, denn die UVP der 3080 war ja viel viel höher ^^ Leider fallen auf diesen Marketingblödsinn auch hier viele Rein. Und ich wette mit dir, wenn DLSS3 auf der 30er Serie dann mal geht, dann sind die Leistungen noch dichter beieinander. Derzeit kommt mir DLSS3 als einziger Upsellingpunkt zur 30vor und dass lässt sich Nvidia mit bis zu 400 USD Aufpreis fürstlich bezahlen.
 
  • Gefällt mir
Reaktionen: _Flattermann_
SVΞN schrieb:
Soweit ist es schon gekommen. 900 Euro+ für einen Mittelklasse-Chip und 12 GB VRAM werden als fair angesehen. Wahrlich absurd diese Entwicklung.

Damit hat dann Nvidia das erreicht was auch Apple geschafft hat... Die Normalisierung der Premiumpreise für non-premium Hardware. Und auch wenn Einige das ablehnen, so wird sich das durchsetzen. Das ist gekommen um zu bleiben. Ich finde das persönlich eine Katastrophe. Man kann hier lediglich auf Althardware setzen um für sich persönlich die Konsequenz zu ziehen aber mehr geht auch nicht...

Aber die Entwicklung ist nicht GPU Exklusiv. Mainboards mit Mainstreamsockel für 500 - 600 Euro gibt es ja auch mittlerweile. Und die müssen ja scheinbar auch gekauft werden. Kannste Dir nicht ausdenken...

Ich finde es gut das Ihr die Preisentwicklung kritisiert ! In zwei Jahre müssen wir noch mal gucken was dann die preisliche Normalität ist. Ich bin der festen Überzeugung das mein Ryzen die letzte Neuanschaffung für mich war. Alles was danach kommt wird gebraucht sein.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Newblader, Bänki0815, McFritte und 7 andere
Wolfgang schrieb:
Mit der GeForce RTX 4070 Ti bringt Nvidia Ada Lovelace erstmals für weniger als 1.000 Euro in den Handel und verspricht eine Leistung über dem Niveau der RTX 3090 Ti. Damit wäre auch die teurere Radeon RX 7900 XT geschlagen. ComputerBase klärt im Test, wie schnell die Grafikkarte in welchem Szenario wirklich ist.

Zum Test: Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen
Euer Fazit ist viel zu "nice" für diesen "moneygrab". Die Karte ist Stagnation. Bekam man früher mehr Leistung für weniger Geld, bekommt man bei dieser Karte exakt die selbe Leistung oder je nach Spiel auch mal weniger. Wie man derart überzogene Preise gutheißen kann, verstehe ich nicht. Bedenkt man auch noch das 3090/Ti 2nd Hand mittlerweile um 700€ gehandelt werden mit doppelter Speichermenge, kann man von diesem Launch nur von DOA reden. Bin auch gespannt, wie lange die 915€ halten werden. Ich vermisse tatsächlich eine kritische Aufarbeitung des gesamten Nvidia Desasters. Man stelle sich vor, diese Karte hätte wirklich 4080 geheißen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, hurcos, JohannesMG und 2 andere
Und jeden Tag Grüßen die Grafikkarten. Ohne Fanbrille betrachtet ist das alles nicht besonders toll. Die 4070ti ist zu teuer für das Gebotene. 12GB VRAM sind auch kein Kaufgrund für eine Karte in der Preisklasse, das ist einfach so. Die XT und XTX werden wieder schlechter gemacht als sie sind, weil nur das tolle Nvidia Featureset am Ende zählt. Die 7000er Serie ist von der Effizienz enttäuschend, darüber brauchen wir nicht reden.

Unter dem Aspekt ist es aber auch die 4070ti wenn Sie das gleiche braucht wie eine 4080. Einfach mal ein bisschen neutral bleiben, alles hat sein für und wieder. Die Heilsbringer Karte ist immer noch keine der neuen Modelle, meinetwegen die 4090, denn Nvidia hat es halt geschafft die Karte mit jedem Tag der vergeht für das Geld schmackhafter zu machen.
 
  • Gefällt mir
Reaktionen: MojoMC
Für eine 12GB VRAM Karte 900 Euro zu verlangen, ist einfach abartig.
Bei dem Preis sind 16GB angesagt. Selbst damit würde noch genügend Gewinn bleiben.

Ich bin ja gespannt, wie weit das Preisspielchen noch getrieben wird. Wer kann heutzutage noch 1000 Euro und mehr nur für die Grafikkarte ausgeben? Anscheinend noch immer viel zu viele und das wird von den Herstellern ausgenutzt und anscheinend auch ausgetestet.
 
  • Gefällt mir
Reaktionen: Kaito Kariheddo
  • Gefällt mir
Reaktionen: Schultzie, McFritte und Rockstar85
Lan_Party94 schrieb:
12GB sind einfach zu wenig
Du willst wissen wie viel GB RAM die nächsten Jahre ausreichen - schau wieviel die Konsolen haben. Die XBOX Series S hat 10GB RAM, wovon 8GB hauptsächlich für die GPU reserviert sind. Also wird man locker mit 10 GB RAM in hohen Einstellungen in 1440p auskommen, bis diese Generation endet.

Für das "MEGA ULTRA TO THE MAX" Texture-Pack, das nur existiert um zu zeigen, dass GPU XY zu wenig RAM besitzt mag das dann natürlich nicht reichen...
 
  • Gefällt mir
Reaktionen: Bright0001
hamju63 schrieb:
Beim Jammern über die Preise kommt mir zwischendurch auch in den Sinn, dass meines Wissens nach Menschen unter ca. 35 in diesem Land gar nicht wissen, was Inflation überhaupt ist.
Weisst du es? Denn ...
hamju63 schrieb:
Ihr seid mit absolut konstanten Preisen aufgewachsen die letzten mindestens 20 Jahre.
... die Inflationsrate vom 01.01.2002 bis zum 31.12.2022 liegt bei 47.9 %. Die letzten Preiserhöhungen gab es nicht zur Euro-Einführung.

Aber wenn du die Inflation ins Spiel bringst, kannst du dir gerne die Preise inflationsbereinigt anschauen. Spoiler: Die Inflation rechtfertigt nicht die aktuellen Preissprünge, nicht mal annähernd.
Und angesichts der Rekordgewinne von nVidia ist es auch fraglich, ob die supply chain issues der ausklingenden Pandemie und der Krieg in Europa für den Rest der Preissteigerungen verantwortlich sind.
 
  • Gefällt mir
Reaktionen: Bänki0815, McFritte, JohannesMG und 5 andere
Rock Lee schrieb:
900 EUR für faktisch 3090ti-Performance ist schon eine krasse Enttäuschung.
Ähnlich nutzlos wie die 7900XT. in 4k fällt die Karte dann sogar stark ab.
Immerhin sind Verbrauch und Lautstärke absolut im Rahmen.
Kein Wunder, daß sie abfällt, wenn man die Speicherbandbreite derart beschneidet...
 
  • Gefällt mir
Reaktionen: Steini1990 und Rock Lee
Verstehe nicht ganz warum die Energieeffizienz in dieser Preisklasse überhaupt noch so "wichtig" sein sollte. Wenn es um Effizienz geht geht es ja primär darum Kosten zu sparen, vielleicht sekundär darum das die Karte potenziell leiser laufen KÖNNTE (Lautstärke ist ja noch von sehr vielen weiteren Dingen abhängig).

Und hier gibt man gut 1000 € für eine Karte aus. Besonders stark ins Gewicht würden Effizienzunterschiede aber nur fallen, wenn die Anschaffungskosten der Karten absolut gesehen gering ausfallen (d.h. im Verhältnis zu den Stromkosten, z.b. wenn die Karte 4070 Ti nur 500€ kosten WÜRDE). Das ist hier aber nicht der Fall. Stattdessen sind 7900 XT und 4070 TI praktisch gleich teuer.


Ein Szenario was vielleicht ganz gut die Realität einiger Anwender widerspiegelt wäre:

Leistungsaufnahmedifferenz zwischen den beiden Karten, sowohl im Gaming als auch bei UHD-Youtube und ähnliches ganz grob ca.:

50 W

Wenn man neben Gaming und Youtube-Glotzen noch ein anderes Leben hat nehme ich mal an:

0,5 Std. / Tag für YT +
0,5 Std. / tägl. übers ganze Jahr hinweg zocken (oder anders ausgedrückt, an manchen Tagen 2 Stunden Gaming/YT, dann wieder paar Tage Pause / Urlaub / Arbeit etc.)
= 1 Std. / Tag liegen die 50W Differenz an
Macht 0,05 kWh/Tag bzw. 18,3 kWh/annum

Strompreis eher konservativ/pessimistisch angesetzt für die nächsten Jahre: 60 ct/kWh

= 10,95€ / Jahr Kostenersparnis durch Minderverbrauch der 4070 Ti

Nutzungszeit der Karte vielleicht 5 Jahre:

= 55€ Kostendifferenz über die Gesamtnutzungszeit

Anschaffung:
1000€ (bei beiden gleich angenommen)

Verbrauch während Gaming der effizienteren Karten grob (und zugunsten der effizienteren Karte eher niedrig angesetzt):
250W (RTX 4070 Ti) -> 0,5 Std./Tag war ja angesetzt
= 45,6 kWh / annum
-> 27,38 € / annum
-> 136,88 € über die Gesamtnutzungszeit (5 Jahre)

Gesamtkosten 4070 Ti:
1000€ + 136,88€ (+ Youtube-Verbrauch der Karte: ist aber nahe null, zur Vereinfachung und konservativen Schätzung also mit null angesetzt)
= 1137 €

Gesamtkosten 7900 XT:
1000€ + 136,88€ + 55€ (Extrastromkosten durch Mehrverbrauch in Youtube und Gaming)
= 1192 €


Wen bitte soll dieser Effizienzvorteil beeindrucken? Man sollte sich wirklich mal die Relationen vor Augen halten.
Durch das preisliche Ausgangsniveau und den hohen Grundverbrauch ändert sich relativ gesehen an den Gesamtkosten sowieso praktisch nichts mehr. In dem Szenario hat man über die Gesamtnutzungszeit nicht mal ganze 5 Prozent mehr ausgeben müssen bei Wahl der 7900 XT, dabei hat man aber durch den erheblich größeren VRAM die sehr viel zukunftssicherere Karte.

Wenn die Karten nur 200 - 300 € Kosten würden (Träum...) oder wenn es primär um Mining gehen würde (also fast 24h/7d Auslastung der Karte) wäre es natürlich anders. Aber davon sind wir ja sehr weit weg...
 
  • Gefällt mir
Reaktionen: Schultzie
Enigma schrieb:
Genau. Für eine Mittelklassen-Karte sehe ich es auch so:
250 Euro wäre gut
300 Euro wäre okay
400 Euro wäre ertragbar, aber teuer
500 Euro wäre schon zu teuer, aber für 2023 vermutlich kein rotes Tuch
900 Euro ist: Danke fürs Gespräch, tschüss
Sieh es mal anderes, du gurkst noch mit einer GTX 780 rum.
Ich hatte nach meiner GTX 780 noch eine Vega 56 und eine 6900XT und aktuell eine 4080.

Bei dir könnte keiner was sagen wenn du jetzt fürn Taui wieder aufrüstest.
Und den Bums lange nutzt.
 
  • Gefällt mir
Reaktionen: ComputerJunge und Rockstar85
t3chn0 schrieb:
Für mich richtet sich "Highend" nach dem technisch machbaren. Die schnellsten Karten sind für mich Highend, egal was der Median bei Steam, oder der Kaufpreis sagt.

Nur die schnellsten Karten können Highend sein. Alles andere macht per Definition keinen Sinn.

Dass die Hersteller das gerne so definiert sehen, wundert mich nicht, bei Konsumenten allerdings schon. Ist High-End für dich nur die beste aller gehandelten Karten? Und die besten Karten der Vorgeneration sind dann auch kein High-End mehr? Offensichtlich sind die Zyklen doch länger.

Die Klasse sagt etwas über die Gesamtqualität des Zockens aus, nicht welche Karte der gleichen Generation 15% oder 20% mehr oder weniger Leistung bringt. Aber das dürft ihr natürlich gerne betrachten wie ihr wollt, nur sich dann aber auch nicht beschweren, wenn ihr nicht den High-End-Preis einer High-End-Karte bezahlen wollt, bzw. bitte nicht auf irgendwelchen Bezeichnungen rumreiten.
 
Rockstar85 schrieb:
Tja Laut NV gibt es diese ja nicht, denn die UVP der 3080 war ja viel viel höher ^^ Leider fallen auf diesen Marketingblödsinn auch hier viele Rein. Und ich wette mit dir, wenn DLSS3 auf der 30er Serie dann mal geht, dann sind die Leistungen noch dichter beieinander. Derzeit kommt mir DLSS3 als einziger Upsellingpunkt zur 30vor und dass lässt sich Nvidia mit bis zu 400 USD Aufpreis fürstlich bezahlen.

Richtig. DLSS 3 ist ein wunderbares Marketinginstrument. Exklusiv für die neuen teuren Modelle. Damit ließe sich die 3000er Reihe massivst beschleunigen, ist aber nicht gewollt.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
wahli schrieb:
Für eine 12GB VRAM Karte 900 Euro zu verlangen, ist einfach abartig.
Bei dem Preis sind 16GB angesagt. Selbst damit würde noch genügend Gewinn bleiben.

Ich bin ja gespannt, wie weit das Preisspielchen noch getrieben wird. Wer kann heutzutage noch 1000 Euro und mehr nur für die Grafikkarte ausgeben? Anscheinend noch immer viel zu viele und das wird von den Herstellern ausgenutzt und anscheinend auch ausgetestet.
Naja, nvidia hat doch vorgesorgt, du beommst eine popelige RTX 4050 in einem Notebook ab 1000€ :D
Definiere "genügend Gewinn". Der Lederjackenmann versteht darunter etwas anderes, als Du :D
 
  • Gefällt mir
Reaktionen: Bänki0815
Beatmaster A.C. schrieb:
eine tolle 550€ GPU. Oh Moment
Linus bringt es auf den Punkt...
Aber demnächst testen wir einfach die Nvidia 50 Serie gegen die Geforce 2 :D
 
  • Gefällt mir
Reaktionen: TKessel
Gortha schrieb:
Hammer Karte, sobald die unter 900€ier fällt, gehört mir eine.

Meiner Meinung nach das beste Produkt im 4000er Lineup. Auch AMD hat im 7000er Lineup nichts dagegen zu setzen.
Leistung einer 3090Ti in Raster und RT zum fairen Preis. (WQHD)
Wird sie schon nicht, keine Sorge.
Die 899/915€ sind Launchpreise, dann wird der Preis wieder steigen und die Karten werden wie Blei in den Regalen liegen, außer wenn Du sie kaufst... Wer 900€ zahlt für 12GB, naja, dem kann ma nimma helfen.
 
Zurück
Oben