Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

Das für mich wirklich interessante bei allem ist:

AD103: 379 mm²
AD104: 295 mm²

Navi31: 300 mm²
96 Cus 384Bit SI = 24 GB => 6 × MCD
80 Cus 320Bit SI = 20 GB (-15% weniger Performance) => 5 × MCD (ca 50 watt weniger im schnitt 300 TDP)
72 Cus 256Bit SI = 16GB (-15% weniger Perfromance ca 6950XT Performance) => 4 × MCD (ca 50 watt weniger ? ca 250 watt tdp ?)

Also ich bin gespannt ob nicht vllt doch noch ein dritter Chip seitens AMD kommt. Man hätte nämlich dann einen Chip knapp über der 4080, einen zwischen 4080 und 4070TI und einen knapp unter 4070ti.
Produktionskosten wären aber vermutlich besser, da der MCD für alle drei Varianten verwendet werden kann (plus Navi 32 mit den dann 60 CUs 7700XT mit 8-16 GB ?! und 200-230 watt tdp ?! ).
Was ich damit sagen will, AMD kann da recht flexibel reagieren. Produziert einen ähnlich großen Chip in 5nm wie AD103 und AD104 und einen recht günstigen Chip in 6nm.

Das Packaging_ 2.5D Elevated Fanout Bridge
https://www.anandtech.com/show/1705...00-accelerator-family-cdna2-exacale-servers/2
Compared to a traditional interposer, such as what was used on the MI100, the benefits are obvious: even with the added steps of using EFB, it still avoids having to use a massive and complex silicon interposer. Meanwhile, compared to bridge-in-substrate solutions like EMIB, AMD claims that EFB is both cheaper and less complex. Since everything takes place above the substrate, no special substrates are required, and the resulting assembly process is much closer to traditional flip-chip packaging. AMD also believes that EFB will prove a more scalable solution since it’s largely a lithographic process – a point that’s particularly salient right now given the ongoing substrate bottleneck in chip production.
Somit die Größe eines herkömmlicher Interposer-Chip ist keine Grenze mehr.

Kurz um, ich bin gespannt wie AMD jetzt reagiert. Ein Dritter Chip gegen AD104 ? Oder Preise senken? Gemittelt dürfte AMD vermutlich günstiger wegkommen, als NV mit zwei Chips in Fertigung.
Gegen den größten Chip AD102 fehlt AMD aber die Konkurrenz. Erinnert alles ein wenig an RDNA1. Sprich mich würde es nicht wundern, analog dann zu RDNA2, dass bei RDNA4 dann wieder ein großer Chip kommt. Aber gut das ist Spekulation meinerseits. Wird aber dann spannend, weil ja erst ab 5nm< laut AMD Folien Cache nicht mehr so skalieren soll.

1672860762342.png


Zum Test. Also für mich ergibt sich so immer mehr ein Bild. Scheinbar skaliert der kleinere Chip nach unten schlechter und der Sweetspot ist AD103 alias 4080. Das zeigt auch die Performance/Watt dass in beiden Auflösung 4080 am weitesten voraus ist. Es könnte auch sein dass ausgerechnet die AD103 jener Chip war, der am meisten überrascht hat und der hohe Preis aber eben den Chip deshalb so "mies macht", damit die 4090 attraktiv bleibt. Denn wenn man Chipgröße / Performance anschaut, ist AD103 knapp etwas mehr als die Hälfte von AD102. AD104 ist eine tolle 1440p Karte und klare Empfehlung für 1440p, wenn auch Preise noch abgewartet werden muss. Wem RT Performance noch nicht so wichtig ist, der kann alternativ aktuell zu einer 6800XT-6950XT im Abverkauf greifen. Die 7900XT sehe ich Btw um 1000 Euro und 20GB sicherlich nicht als schlechtes Angebot. Wir sind bei weiten nicht bei Verbrauch Szenarien wie damals zur R9 290 Zeiten. Klar reden wir da von 100-50 Watt, aber wir reden hier auch von Karten von 250-450 Watt TDP. Nach damaligen Kriterien, würde hier keiner so eine Karte heute kaufen, weil alle aus damaliger Sicht durchs gaming pleite wären, um es überspitzt auszudrücken ;)

Es ist nicht der richtige Zeitpunkt, jetzt schon über die nächste Generation zu sprechen, aber mit dem bisher gesehen wird es spannend. Bei NV wird immer RT Performance und die Vorreiter Position gelobt. Aktuell ist der Bias 20% RT-Performance bei vergleichbar großen Chips. Die Frage was ich mir aber trotzdem stelle wie sieht es dann bei 3nm Chips aus. Und hier kommt eine Spekulation. Falls NV l2Cache Größe ähnlich belasst mit GDDRX6 384 Bit Si, könnte es passieren, dass AMD in Relation zur Chipfläche und Packdichte ähnlich große 3nm Chips wie NV präsentiert, in Relation aber wesentlich mehr Shader inne hat.
AMD behauptet Infinty Cache und I/O machen im schnitt 30% (muss noch mal nachlesen wieviel ca waren) aus. RT Performance RDNA3 vs ADA ist aber bei RT 20% schneller. Was sehen wir aktuell ? Dass ein knapp gleich großer Chip Navi31 mit 300 mm^2 5nm Chip vs ein AD104 295 mm^2 Chip die gleiche RT Performance hat.

Kurz: Die für mich spanende Frage stellt sich aber bei dem Test jetzt schon.
  • Ist Navi32 mit 6 MCD Chips wesentlich teurer als AD104 ? Durch Einsatz N4 Prozess seitens NV ähnlich teuer ? und kaum zu glauben, vllt sogar günstiger, sobald mal das ganze Line Up da ist?
  • Und ist das AMDs Strategie bezüglich RT durch mehr CUs in der aktuellsten Fertigungsstufe das Gap schließen (die Grenzen des möglichen kann auch so mehr ausgenutzt werden. BSP wäre 600 mm^2 eine Grenze => NV mit 80% an Shader vs AMD zu 100% Shader, ideal gedacht mit Video Beschleunigung ignoriert) ? Dazu dass RT Cores auch Fläche brauchen, diese aber immerhin Generation zu Generation effektiver und weniger werden, weniger Fläche einnehmen.

Weiteres: laut Design Architekt von RDNA3 verursacht bei jedem Node Shrinke die I/O Schaltung an Arbeitszeit für das anpassen. Wird RDNA4 dann die selben MCD Chips verwenden? Gut das sind Zukunftsfragen, die lassen wir dann für Ende 2023 oder Anfang 2024 offen^^
Würde mich also nicht wundern dass am Ende ein neuer RDNA4 Chip schneller kommt, als gedacht ? Oder auch ein RDNA3 4N ist schneller möglich.

Zusammengefasst:
Also ich sag wie es ist. ADA ist ein Spitzenmodell und zeigt was ein herkömmlich gutes Design kann. Wie damals Intel eben. Aber ich habe trotz allem dem verdacht, dass AMD hier viel zu sehr unterschätzt wird. Und die eigentlichen Grenzen sich erst zeigen werden. Dann kann es schnell heißen, dass AMD der Konkurrenz eine Generation voraus ist. HBM hatte NV auch nicht von heute auf morgen umgesetzt.

PS: Ihr könnt meine Hypothese gern zerreißen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, TKessel, m.obermueller und 2 andere
Ayo34 schrieb:
3080ti war teurer und schlechter als die 4070ti!
Du verlierst das große Ganze vor den Augen. Wenn du den Radius beim Vergleichen klein hältst, dann wirst du die Preise immer irgendwie rechtfertigen können. Die 4070 Ti kostet heute fast doppelt so viel wie ihr Vorgänger vor 4 Jahren.

Das relativiert nicht den Umstand, dass sie besser als eine 3080 Ti ist, denn die 80er Reihe ist genau so von absurden Preiserhöhungen betroffen. Nach deiner Argumentation ist der Preis ok, wenn es unterhalb eines ohnehin schon überteuerten Modells liegt. Damit kann man auch eine 4000€ Karte gut reden, weil sie weniger als eine 4100€ kostet, auch wenn ihr Vorgänger vor paar Jährchen noch 2000€ gekostet hat.
 
  • Gefällt mir
Reaktionen: Enyo79 und Wintermute
Syrato schrieb:
Das kannst du sicher, Punkt für Punkt, aufschlüsseln?
Hat @DevPandi ein paar Seiten vorher schon ausgeführt

~100 Chip, ~100 VRAM, ~50 für PCB, Kühler etc
 
Caramelito schrieb:
Schön, was kostet die Nitro XTX denn?

Wenn erhältlich, dann 1600?

Die würde ich auch kaufen. Aber naja ;-)

1349€ bei Alternate! So habe ich sie bestellt und bekommen.
 
Simanova schrieb:
und brauchen Power um die 120-240Hz zu befeuern.
Naja, Bildwiederholfrequenz eines Panels hat jetzt in erster Linie mal nix mit FpS zu tun.
In Zeiten von Monitoren mit variabler Refreshrate sowieso nicht.
Grundsätzlich stimme ich deinem Beitrag schon zu, aber nur weil ein Display zB. 144Hz kann, heißt das nicht dass man immer und in jeder Situation immer mindestens/konstant 144FpS braucht.
Da sollte man schon immer differenzieren.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Ich habe seit dem Cyberpunk Release (26 Monate) 143€ für Geforce Now ausgegeben und dabei wirds dieses Jahr wohl auch bleiben wenn ich diese Preise sehe...
In der gleichen Zeit habe ich übrigens mehr als die bezahlten 143€ am Strom gespart durchs streaming :)
 
RTX 4070: ~750-800 Euro.
RTX 4060: ~600-650 Euro.
RTX 4050: ~400-450 Euro.
Mission accomplished (das mit dem "average" war bloß ein Tippfehler bis Freudscher Verquassler -- "minimum" war gemeint)

#meinpreiskampf
 
  • Gefällt mir
Reaktionen: MojoMC
Azzkickr schrieb:
2) ich habe eben mal den aktuellen "Earnings-Report" von nVidia angeschaut. Also im Vergleich zum Vorjahresquartal hat sich die "gross margin" um 11.6% verschlechtert. Das "net income" ist um 72% eingebrochen. Auch im Vergleich zum vorletzten Jahr liegt das "net income" immer noch um etwa 50% geringer. Die "operating expenses" sind offenkundig durch die Decke gegangen.
Klar: da spielen auch noch die anderen Geschäftsbereiche mit rein. Und ich bin kein Experte beim Lesen von Geschäftsbilanzen. Aber das spricht doch eher dafür, dass sich nVidia hier nicht heimlich die Taschen vollmacht und die Inflation nur als Vorwand benutzt.

Ich habe keine konkreten Zahlen aber gerade NVIDIA war ja bei der 3000er Serie beim Auftragsfertiger Samsung. Die Kosten dürfte deutlich unter denen von TSMC gewesen sein, zumal NVIDIA hier den neusten Scheiß bekommt, d.h. 4nm was zum Beispiel auch im iPhone14 Pro genutzt wird. TSMC wird sich den Wiedereinstieg von NVIDIA sicherlich gut bezahlt haben lassen.

Außerdem dürfte NVIDIA durch den Mining Boom deutlich mehr verkauft haben.

Das Beste wäre vermutlich wenn NVIDIA bei den kleineren Karten wieder auf Samsung als Fertiger geht um Kosten zu sparen.
 
  • Gefällt mir
Reaktionen: shaboo und Meister1982
Chilisidian schrieb:
Ich sehe da zum Beispiel ein Plague Tale, als eins der ersten Spiele, die nicht mehr Cross Gen sind und schwups, sind Mid Range Karten der letzten Gen komplett raus. Und das ist erst der Anfang.
Einzeln, äußerst schlecht optimierte Spiele bilden aber nicht die Bedürfnisse sehr vieler Gamer weltweit, und auch ein nicht unerheblicher Teil hierzulande ein starkes Einsteiger- und Midrange-Segment will/braucht, was momentan aber nach oben weggepreist wird.

Azzkickr schrieb:
2) ich habe eben mal den aktuellen "Earnings-Report" von nVidia angeschaut. Also im Vergleich zum Vorjahresquartal hat sich die "gross margin" um 11.6% verschlechtert. Das "net income" ist um 72% eingebrochen. Auch im Vergleich zum vorletzten Jahr liegt das "net income" immer noch um etwa 50% geringer. Die "operating expenses" sind offenkundig durch die Decke gegangen.
}nVidia hat die letzten 6 Jahre Rekordgewinne gemacht, und die Preissprünge deutlich über der Inflation gibt es auch nicht erst seit dem Vorjahresquartal.

Nvidia GuV (Angaben in Millionen USD)​

Geschäftsjahre201420152016201720182019202020212022
Umsatz4.1304.6825.0106.9109.71411.71610.91816.67526.914
Jahresüberschuss4406316141.6663.0474.1412.7964.3329.752

Das spricht doch eher dafür, dass sich nVidia hier die Taschen vollmacht und die Inflation nur als Vorwand benutzt.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Icke-ffm, TKessel und 11 andere
Cleric schrieb:
CB gibt sich ja noch zurückhaltend.
Ich finde den 4070Ti Test und das Computerbase Fazit hier differenziert und kritisch, es gibt doch gar keine Kaufempfehlung.

Nur weil Computerbase den reaction Youtube Clickbait Titel Müll nicht mitmacht, sind sie „zurückhaltend“?

Ich finde das so journalistisch und redaktionell souverän und authentisch.

Wer findet, dass die 4070Ti als Gesamtpaket hier gut wegkommt, hat den Test sehr selektiv gelesen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, time-machine, TKessel und 7 andere
Ragnarök88 schrieb:
Wenn dich 15% in Raster und 60% in RT nicht stören, dann leistet sie natürlich "ähnliches". Dann leistet aber auch eine RTX 4070Ti ähnliches wie eine 7900XTX für weniger Geld, warum kaufst du dann nicht die?

Du nervst seit der RTX 3000er Generation in jedem Thread mit "RT wuahhh". In Online-Spielen will kein Schwein RT wegen den massiven Einbußen.

Und warum kommst du nun mit den 7000er Karten? Sowohl RTX 4000 als auch Radeon 7000 sind beide massiv zu teuer.

Daher kann man getrost Geld sparen und sich die Rasterleistung deutlich günstiger zulegen in Form der 6900 XT. Warum du nun mit allen Mitteln versuchst wieder eine nVidia ins Spiel zu bringen, leuchtet mir bisher nicht ein.
 
W0lfenstein schrieb:
Dir ist schon klar das du den5800X3D NICHT übertajken kannst auch nicht mit pbo ?
AMD hatt das hardlocked um die CPU nicht zu beschädigen. PBO reagiert auf die CPU nichtmal.
Ist auch keine Übertaktung sondern ein Undervolt.
Funktioniert Prima, Cinebench Temps von 90°C in 5 Sekunden mit einem Klick runter auf gerade so 80-81°C über die ganze Laufzeit
Screenshot 2023-01-04 205214.png
 
  • Gefällt mir
Reaktionen: W0lfenstein
Ich sag es immer wieder. Das ist einfach eine Mittelklasse Grafikkarte und bei 250€ einzuordnen. Mehr gibts dafür von mir nicht. Die Preise der letzten Jahre sind eine bodenlose unverschämtheit und werden von mir nicht toleriert. Ganz klar werde ich das nicht bezahlen was da selbst für die lächerlichsten Einsteiger Grafikkarten aufgerufen wird.
Nur noch lächerlich die ganze Vorstellung.
 
  • Gefällt mir
Reaktionen: Weltraumeule
Azzkickr schrieb:
ich sitze hier jetzt schon seit acht Jahren auf meiner 980 Ti und ich könnte verrückt werden, dass ich immer noch nicht aufrüsten kann.
Du könntest schon, du willst nur nicht.
Geizkragen.... :D
(Ich hab übrigens noch die kleine Schwester deiner Ti mit den 4GB aus dem selben Grund) ;)
 
  • Gefällt mir
Reaktionen: Azzkickr
Interessant dass die Performance/Watt geringer ist. Interessante Karte. Starke Konkurrenz zu 7900XT.

Danke für den Test

Hauwexis schrieb:
Ich sag es immer wieder. Das ist einfach eine Mittelklasse Grafikkarte und bei 250€ einzuordnen. Mehr gibts dafür von mir nicht.
30€ mehr und du bekommst ne RX 6600. Ist leise, effizient, schnell genug. Also ich kann ohne RT leben. Und mit FSR Q kannst du auch locker in 1440p60 zocken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Neronomicon
pipip schrieb:
Also ich bin gespannt ob nicht vllt doch noch ein dritter Chip seitens AMD kommt. Man hätte nämlich dann einen Chip knapp über der 4080, einen zwischen 4080 und 4070TI und einen knapp unter 4070ti.
Produktionskosten wären aber vermutlich besser, da der MCD für alle drei Varianten verwendet werden kann (plus Navi 32 mit den dann 60 CUs 7700XT mit 8-16 GB ?! und 200-230 watt tdp ?! ).
Was ich damit sagen will, AMD kann da recht flexibel reagieren. Produziert einen ähnlich großen Chip in 5nm wie AD103 und AD104 und einen recht günstigen Chip in 6nm.
Alles schön und gut das AMD flexibel reagieren kann, bringt mir nur nicht viel wenn die ganzen Karten auch außerhalb von Lastszenarien immer noch soviel Strom verbrauchen. Hinzu kommt das eine prognostizierte 7700XT bei knapp 230W bei dir wäre, was gefühlt nicht nach Fortschritt klingt, sondern eher nach mehr Leistung Allein durch Strom. Weißt du ich würde gerne aktuell was neues kaufen (habe mich schon seit Tagen mit dem Gebrauchtmarkt auseinandergesetzt) aber gerade der Strom im leerlauf, youtube oder 2 Monitore Aufwärts macht bei AMD kein Spaß.
 
  • Gefällt mir
Reaktionen: pipip
T-Horsten schrieb:
Auf Gamers Nexus wird die Karte ja regelrecht vernichtet:o
Ja, der nimmt aber auch kein Blatt vor den Mund, scheinbar sind ihm die Folgen auch egal.
 
  • Gefällt mir
Reaktionen: Weltraumeule
Herrenlos schrieb:
Es war gar nicht böse gemeint, aber man fühlt sich halt veräppelt, wenn der Gegenüber im Verlauf eines Dialogs keiner logischen Linie folgt und aberwitzige Argumente liefert. Das ich mit dieser Aussage richtig liegen müsste, kann man anhand des Zuspruchs von anderen Lesern ersehen (siehe Beiträge #76 & #210).
Ah ja... wohl eher nicht.
 
Zurück
Oben