Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

Einfach nur ein Traum 90% Leistungsplus zu einer 3060TI und kostet mehr als zwei 3060TI.

Das ist echter Fortschritt wo ich keinen sinn mehr sehe Geld auszugeben.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Icke-ffm, MrUnchained und 2 andere
Habe schon damals vor 2 Jahren gesagt: die RTX 3090 wird DIE Karte für 5 Jahre werden - und ich werde Recht behalten!

Nicht zuletzt dank 24GB RAM
 
  • Gefällt mir
Reaktionen: DeltaPee
muvmend schrieb:
wieso soll amd falsche Namen gegeben haben und nicht Nvidia? Problem ist die 4090 die aus der Reihe tanzt und vielleicht auch nicht so heissen sollte (Titan? Showcase Slut). Und du bist ja wirklich nicht besser mit deinem Gifteln...im Endeffekt ist der Markt leider gerade ziemlich uninteressant - in beiden Lagern :(
Ehm Nvidia hat falsche Namen gegeben, das wurde zu recht angeprangert und der Name wurde geändert. Einige meinen nun der Name der 4070ti sei immer noch falsch und das Teil müsste osgar 3060ti heißen. Was sagt das denn bitte über die 7900xt aus die auf dem gleichen Niveau performt? WTF
 
  • Gefällt mir
Reaktionen: Apocalypse
Rockstar85 schrieb:
Sorry Gortha, aber DAS war ein Eigentor

Kauf dir ruhig deine 4070Ti aber bitte tu mir einen Gefallen und höre auf andere zu missionieren. Ich persönlich habe keine Lust auf knapp 1000€ für obere Mittelklasse.
Nein, Namen sind Schall und Rauch.... das zu dem was ich nicht von dir Zitiert habe.

Ich finde du hättest eher das hier von mir geschriebene berücksichtigen sollen:

Warte mal auf den Preis der normalen RTX 4070. Diese wird 46 SMs wie auch die RTX 3070 haben. Sollte der Preis nicht signifikant "normaler" sein, dann kann man meckern.
 
Rockstar85 schrieb:
Kauf dir ruhig deine 4070Ti aber bitte tu mir einen Gefallen und höre auf andere zu missionieren. Ich persönlich habe keine Lust auf knapp 1000€ für obere Mittelklasse.
4k/60 bzw 1440p/120 ist halt nicht mehr Mittelklasse, 70er Name hin oder her. Diese Karte ist eine der 10 besten, die es zu kaufen gibt, auch eine der 10 teuersten und du gehörst, wenn du damit tatsächlich auf 4K spielst, zu den "oberen 3%" aller Spieler weltweit. Dass die Relationen im offensichtlich verwöhnten deutschsprachigen Raum andere sind, mag sein.

Das heißt nicht, dass man sie kaufen muss, denn meiner Meinung nach ist die 6900xt immer noch der bessere Deal, weil Raytracing frühestens mit der nächsten Konsolengeneration sinnvoll werden könnte. Weiß wirklich nicht wie Nvidia das geschafft hat, Raytracing als Verkaufsargument zu platzieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrUnchained, ThirdLife und Maxminator
Hairworks gab es auch mal von Nvidia, oder?

Alles ist vergänglich ;)

3D Grafik aus Polygonen haben auch viele nicht wahr haben wollen - wer nicht mit der Zeit geht, geht mit der Zeit ;)

Wenn RT in 5-8 Jahren wirklich salonfähig sein soll, dann muss es mehrere Generationen an einer Entwicklung vergangen worden sein. Und genau da sind wir gerade. Was macht AMD in 8 Jahren?
Machen sie plötzlich eine RT-Graka? Wohl kaum!
 
@Gortha
Lies dir mal durch was Huang im September sagte... (Huang selbst sagte 2019, Moore'S Law ist nicht tot, also ein Reiner Marketingmove)
Sorry aber das ist schon Naiv was du da von dir gibst..
Die Normale RTX 4070 wird zwischen 800 und 700€ Kosten.. Und damit ist es ein Rückschritt der mit ~10-15% auf die 3080 bezahlt wird..
Ich falle nicht auf den Marketingblödsinn rein und war gestern bei 3x eine 3090Ti raus. Nur wenn DLSS3 aktiv ist, merkt man einen Mehrwert, sonst ist das auf dem Niveau, dass eine 3090/6900XT oder auch eine 3080/12 plötzlich nicht mehr spielbar sind.
Und man meckert nicht erst, wenn das Kind in den Brunnen gefallen ist, sondern vorher, vllt erbarmt sich Lederjacke dann ja und gibt uns Gamern eine 600€ 4060 ;)
Wie kann man so sehr unkritisch diesen RTX Zuschlag jedes Jahr aufs neue zahlen. Du bist echt der Ideale Marketingkandidat.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Icke-ffm und Apocalypse
Dribbelkasper schrieb:
Für Singleplayer Games ist das natürlich ein cooles Feature aber wenn man sich die Steam Charts anschaut ist es für mindestens ebenso viele irrelevant. Deswegen sollte man nicht so tun als ob es das Killerfeature wäre wie einige es tun.
Naja es ist halt der nächste Schritt was die Grafikqualität bzw. die Qualität der Beleuchtung angeht.

Grafikdetails gehen schon Richtung Fotorealismus. Was möchtest du daran noch verändern, wenn die Spiele teilweise schon aussehen wie die Realität. Genau die Berechnung von Lichtstrahlen, denn die funktionieren noch nicht wie gewünscht.

Was die Steamcharts jetzt damit zutun haben verstehe ich nicht? Ist Counterstrike da noch ganz oben? Finde ich ziemlich irrelevant. Für die, die RT nutzen ist es trotzdem ein Killerfeature.
 
  • Gefällt mir
Reaktionen: ThirdLife und Gortha
Raider_MXD schrieb:
eher der Nachfolger der 3060 als der 3080.

Völlig richtig.

Gortha schrieb:
Nur in deiner Welt...

Die 4070Ti hat signifikant mehr Ausführungseinheiten als der Vorgänger.
Die 4080 hat nur in geringerem Maße mehr Ausführungseinheiten als 3080.
Die kommende 4070 wird fast gleich viele Ausführungseinheiten wie 3070 haben.

Völlig falsche Analyse, du musst natürlich den Takt miteinbeziehen um irgendetwas vergleichen zu können.

Dann zeichnet sich ein düsteres Bild für die neue Gen.
Namen sind nur noch da um die Kunden zu veräppeln. Scheint ja super zu klappen.


GPUCore CountBoost ClockCore * ClockCore*Clock % of FlagshipShould be Named
4090 AD104163842.52GHz41,289100%4090
n/a12800ish2.51GHz32,12878%4080
4080 16GB AD10397282.51GHz24,32059%4070
4080 12GB AD10476802.61GHz19,96848%4060ti


GPUCore CountBoost ClockCore * ClockCore*Clock % of Flagship
3090102401.66GHz16,998100%
308087041.71GHz14,88488%
307058881.72GHz10,12760%
3060Ti48641.67GHz8,12348%


Hab das mal schamlos von Reddit gestohlen Quelle mit Vergleich bis Maxwell (2014!).

(Die 3080 war die "beste" Karte der letzten 10 Jahre von Nvidia, wenn man Preis / Leistung relativ zur Stärksten Karte der jeweiligen Generation betrachtet!)

Die aktuelle Gen ist eine Frechheit, wenn man sich die letzten 10 Jahre ansieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, MikeLitoris, iceshield und 4 andere
Langsam wirds frustrierend.

Habe momentan ne 1070 welches ich schon letztes Jahr ersetzten wollte. Doch irgendwie fühlt man sich mit der momentanen Lage verarscht. Während Corona waren die GraKa´s unbezahlbar durch die Scalper und jetzt sind die vom Hersteller aus so teuer. Ich habe momentan das Gefühl das ich bestraft werde desto länger ich warte. Aber die Preise kann ich mir einfach nicht rechtfertigen.
 
  • Gefällt mir
Reaktionen: Zueroc und MrUnchained
was spricht gegen eine gebrauchte 3090Fe?!
Wäre ein super Upgrade: GTX 1070 --> RTX 3090
 
  • Gefällt mir
Reaktionen: MrUnchained
Raider_MXD schrieb:
Die Bildqualität mittels RT hochzuschrauben, um sie dann mit Upscaling wieder zu verschlechtern, ist unter dem Strich ein suboptimaler Ansatz. Letzlich handelt es sich bei DLSS um eine Krücke, die angepriesen wird, weil man nicht willens oder in der Lage ist, die nötige Rohleistung für das vielbeworbene RT-Feature zu halbwegs massentauglichen Preisen anzubieten.
Bei Deiner ersten Aussage stimme ich Dir voll zu. Ich vermute dennoch, dass Upscaling wichtiger wird und tatsächlich gibt es ja Spiele, wo man FSR / DLSS gar besser aussehen als nativ.

Bei der letzten Aussage bin ich nicht Deiner Meinung: RT war eine reine Spielerei für ein paar Effekte. Mittlerweile gibt es (Overkill wie CP mal aussen vor) viele neue Spiele, die mit besser aussehen als ohne. Auch da werden aber nur Teile der Bildes mittels RT berechnet / ergänzt und auch noch längst nicht alle Möglichkeiten ausgeschöpft. Da die RT-Kerne am Ende viel teure Chipfläche kosten und nur für einen kleinen Teil der Spieler und Spiele relevant sind, ist jeder Chip ein Kompromiss aus Shader / RT / KI-Leistung - Wofür bezahlt man als Spieler "am Liebsten"? Eine Karte, die die "notwendige" RT-Leistung für eine reine Darstellung eines Spiels auf den RT-Kernen hätte aber auch als Fallback genug Shaderleistung für alte Spiele, wäre ja quasi eine 50% grössere 4090er (also mit mindestens doppelter RT-Leistung). Das kann niemand monolithisch herstellen aktuell und erst recht niemand bezahlen und kühlen.

Zu Zeiten der 20xxer Karten waren die RT-Kerne verschwendete Chipfläche, aber die war damals auch noch billiger. Bei den 30xxern war es ab der 3060ti aufwärts schon häufiger nett die RT-Kerne zu haben (waren aber auch schon deutlich mehr) und nun wird es wohl zum Must Have werden, wo jede neue Karte RT (zumindest theoretisch) beherrscht. Dafür braucht man aber nun auch Unmengen an Transistoren zusätzlich zu den Shadern, die es teuer machen, warum jetzt gerade alle meckern. Der wahre Fortschritt findet dabei ja gerade im Bereich RT / KI statt, nicht bei der nackten Shaderleistung und Bandbreite.

Wenn die Leute die Wahl hätten (wie bei der iGPU zum Beispiel) zwischen einer 4070ti mit RT und einer ohne, die z.B. 20-30% günstiger wäre, würden die meisten wohl die letztere wählen. Ich vermute, dass AMDs Ansatz mit prozentual weniger RT und KI, dafür mehr Shaderleistung an sich der aktuell klügere ist, da die RT-Leistung für die paar Effekte, die man für ein schöneres Bild braucht locker reicht. Aber die Käufer einer teuren Karte wollen halt "mit alles", auch wenn sie es nicht immer brauchen - bin auch so einer.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Gortha
der8auer hat ein Video veröffentlicht und endlich mal das PT auf 70% gesenkt und sich die Power Consumption vs. Performanceverlust dargestellt. Das habe ich hier beim CB Test wahrlich vermisst!


Spoiler Alarm: 10% Performanceverlust, Karte braucht aber nur 170W - spart also gut was ein.
 
  • Gefällt mir
Reaktionen: Gortha und Apocalypse
Tolles Ding, 1000€-Karte welche bei der mittlerweile doch nicht mehr ganz so neumodischen Auflösung UHD in ein Bandbreitenlimit rennt.
Sparmodell zum Luxuspreis.

Das einzig gute an der Karte: das ist die erste Karte welche zumindest AMDs überteuerte 7900XT mal gerade rückt.

Der andere Aspekt: dass die Firmen ihre Altbestände abverkaufen (müssen) indem die neuen Karten alle preislich drüber sind, also der Preis der alten Karten nicht fallen muss, ist pervers. Und gehört, wie alles zuletzt am Markt, sabotiert.
Ergänzung ()

Falc410 schrieb:
der8auer hat ein Video veröffentlicht und endlich mal das PT auf 70% gesenkt und sich die Power Consumption vs. Performanceverlust dargestellt. Das habe ich hier beim CB Test wahrlich vermisst!

Hat mich auch gewundert dass der übliche Teil mit niedrigerem PT und UV gefehlt hat.
 
  • Gefällt mir
Reaktionen: Klever
Stahl91 schrieb:
Langsam wirds frustrierend.

Habe momentan ne 1070 welches ich schon letztes Jahr ersetzten wollte. Doch irgendwie fühlt man sich mit der momentanen Lage verarscht. Während Corona waren die GraKa´s unbezahlbar durch die Scalper und jetzt sind die vom Hersteller aus so teuer. Ich habe momentan das Gefühl das ich bestraft werde desto länger ich warte. Aber die Preise kann ich mir einfach nicht rechtfertigen.
Besorg dir doch erstmal einen schönen 1440p Monitor und dann eine gebrauchte 1080 ti bis Weihnachten 2023. Die verliert bis dahin keine 100€ an Wert. Und dann hälst du nach einer 6800xt für 400€ Ausschau.
 
  • Gefällt mir
Reaktionen: MrUnchained
Stahl91 schrieb:
Aber die Preise kann ich mir einfach nicht rechtfertigen.
Wenn man nicht nur im grünen Lager schaut, erhält man für ca. 570 bis max. 700 Euro zZ noch eine neue RX 6800(XT). Und das ist mehr als ein fettes Update gegenüber einer GTX 1070 ...
 
Galaxytourist schrieb:
Wenn Du bereit bist weit überzogene Preise zu bezahlen, dann ist das Deine Sache, Ich bin es nicht. Du bist dann am Ende des Tages halt einer der Kunden über die sich jeder Verkäufer freut.
Die Diskussiojn kannst du ja mal versuchen mit deinem Bäcker zu führen, weil seine Brötchen dir zu teuer geworden sind. Viel Spass mit der Antwort.
 
  • Gefällt mir
Reaktionen: shaboo
Neben den diversen, in Tests beschriebenen Knackpunkten, kommt bei mir noch einer dazu.

Eigentlich hatte ich mit einer RTX 4070 Ti als Nachfolger für meine RTX 2080 geliebäugelt. Die TDP ist die selbe und sollte somit meinem 650W-Netzteil keine Probleme bereiten. Dummerweise sind aber fast alle 4070Ti, die ich mir angeschaut habe, in mindestens eine oder gleich alle drei Dimensionen 10-30mm größer als meine fette ASUS ROG STRIX!

Die STRIX war damals eine der größten 2080er-Karten und dabei einer der besten/leisesten Kühler, die CB jemals getestet hat (was der Hauptgrund war, dass ich bereit war so viel dafür auszugeben). Warum müssen jetzt die 4070er-Karten, die zumindest auf dem Papier nicht mehr verbrauchen, so viel größer sein? :grr:

So müsste ich erstmal den Messschieber rausholen und genau nachmessen, was vielleicht gerade so doch noch in mein µATX-Gehäuse passen könnte. Würde definitiv sehr eng. Aber bei dem hohen Preis und Nachteilen wie (schon wieder) knapp bemessenem Speicher usw., ist mir im Augenblick sowieso eher danach zumute, diese Generation nochmal auszusitzen.

Darauf, mir ein ganz neues System mit Big-Tower-Gehäuse und 1KW-Netzteil anzuschaffen, habe ich jedenfalls keine Lust.
 
  • Gefällt mir
Reaktionen: Maxminator
peakyblinder schrieb:
4070Ti ist nur wegen DLSS 3.0 interessant. Wer mehr Speicher will, greift lieber zur 3090.
Sehe ich nicht so. Erst ab 4K ist sie vielleicht - ist nicht gesagt, da 12 GB fast immer reichen - interessanter.
Die 4070Ti ist aufgrund ihrer Effizienz 3090(ti) um Längen überlegen.
 
Ist das wirklich so? Ne, da nehme ich lieber eine Karte mit 24GB statt 12GB
 
  • Gefällt mir
Reaktionen: Icke-ffm, peakyblinder, m.obermueller und eine weitere Person
Zurück
Oben