Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

rumpel01 schrieb:
Es bleibt nur leider nach wie vor unklar, wie sich das begründet. Die RTX 4090 basiert gemessen an ihren Vorgängern eigentlich ein auf einem ziemlich konventionellen Chip für die Leistungsklasse:

1080ti: GP102-350-K1-A1 "Pascal", 28SM, 471mm²
2080ti: TU102-300X-K1-A1 "Turing", 68SM, 754mm²
Titan RTX: TU102-400-A1 "Turing", 72SM, 754mm²
3090ti: GA102-350-A1 "Ampere", 84SM, 628mm²
4090: AD102-300-A1 "Ada Lovelace", 128SM, 608mm²

verfügt die 4090 über überdimensioniert viel Speicher mit 24GB? Nein, die 3090 hatte genauso viel. Ist das Speicherinterface breiter? Nein. Handelt es sich beim AD102 um den Vollausbau des Chips? Nein.
Nö, aber in deiner Betrachtung fehlen die Waferkosten. Der Chip hier ist so groß wie 2x 2080 Ti's, braucht etwas weniger Fläche kostet jedoch pro mm² 4,25x soviel Kohle. Gegenüber einer 2080 Ti reden wir also von unterm Strich etwa 3,5x höheren Kosten pro Chip. Etwas kleiner, dafür massiv teurer zu fertigen.

Und "konventionell" ist an einem 120SM Chip der 3Ghz drückt echt gar nix. Das ist der Schwere Gustav ggü. einer Walther PPK wenn man sich die Shaderanzahl der letzten drei Gens ansieht.😂
Ergänzung ()

lynx007 schrieb:
Der mm² ist doch bei TSMC nicht 300 % im Preis gestiegen. Die Preiserhöhung liegt in keinem Verhältnis zur Inflation. Man sollte und darf sich nicht Verarschen lassen.
Doch ist er. Von 4000 pro Wafer auf 17k$ pro Wafer.

Ums mit deinen Worten zu sagen "man sollte und darf gern lesen lernen".
 
  • Gefällt mir
Reaktionen: Gortha
rumpel01 schrieb:
:) Würde ich weiterhin so sehen.
Nur woran machst du das fest ? Reiner mm² Flächenangabe ? Weil dein Chip die Leistung aus der Fläche generiert und nix anderem ?

Sehr spezielle Betrachtung.
 
  • Gefällt mir
Reaktionen: Gortha
Gortha schrieb:
Das ist eben Ansichtssache. Er spricht glaube ich von minimal 4% bis 10% mehr FPS.
Ja und die 10 Prozent relativiert er auch gleich wieder, weil sie in Cyberpunkt aufgetreten sind, wo aufgrund der eh sehr niedrigen FPS eine geringe Verbesserung gleich zu starken Prozentwerten führt. In seinem Video war es ein Sprung der min. FPS von 20 auf 21 FPS, bei denen er sogar erwähnte, dass diese genauso auch Messtoleranz hätte sein können.
 
  • Gefällt mir
Reaktionen: Miuwa
rumpel01 schrieb:
Was Du "enorm" nennst, ist für mich ein ansprechender Generationensprung nach zwei Jahren. Die Erhöhung der Einheiten ist schlicht auf die Verbesserung der Fertigung zurückzuführen, aufgrund der höheren Dichte.
Das sehen aber alle die sich mit Ada Lovelace beschäftigt haben anders, schon in derer Entwicklung wurde diese Gerüchte von bis zu 18000+ Shadern und ich meine 144 SMs bekannt und das ist eben sehr viel. Alle die sich schon länger mit 3D Karten tiefer beschäftigen - z.B. die leute im 3DCenter, Guru usw. - waren erstaunt über diesen 4nm BigChip Boliden und taten das erstmal als Spinnerei ab bis es immer konkreter wurde.

Aber was solls. Entweder man sieht, dass eine 3080 bis 3090Ti auf dem selebn Chip GA102 basieren, mal mehr, mal weniger bis garniciht beschnitten sowie dass diese wenig auseinander liegen. Auf der anderen Seite 4090 AD102 als BigChip vs 3080 AD103 UpperclasChip, zwischen denen schon Welten liegen. Oder man sieht es einfach nicht :mussweg:

Schönes WE.

@scheru auch für dich evtl. eine neue Erkenntnis^^
 
AvenDexx schrieb:
Ja und die 10 Prozent relativiert er auch gleich wieder, weil sie in Cyberpunkt aufgetreten sind, wo aufgrund der eh sehr niedrigen FPS eine geringe Verbesserung gleich zu starken Prozentwerten führt.
Wie gesagt, 4K und RT nativ, ist auch für blöde. Wie will man da unterschiede messen. Wenn schon mit DLSS2.
Hat er eigentlich auch den Speicher OC mit WQHD getestet?
 
Die Defektraten sind auch bekannt? Und dass diese bei einem Riesenchip im Vergleich zu zwei kleinen auf der selben Fläche ebenfalls etwas ausmacht? Wie gesagt, ich finde da ist zuviel unklar. Und weiterhin bleibt es dabei, dass die GPU nur ein Faktor ist.

Gortha schrieb:
Dir auch. TSMC 4N ist ein 5nm-Prozess. :)
 
  • Gefällt mir
Reaktionen: edenjung
@Nolag
Das erklärt aber erst recht nicht warum die 4090 mit 2,63$(MSRP/mm2) günstiger ist, als die 4080, wo der mm² 3,17 $ mm² kostet.
Da ein kleinerer Chip einr höhere Yield hat, sollte der auch günstiger sein. Das ist aber nicht mehr so.
 
  • Gefällt mir
Reaktionen: Rockstar85, Scheinriese und rumpel01
Gortha schrieb:
Wie gesagt, 4K und RT nativ, ist auch für blöde. Wie will man da unterschiede messen. Wenn schon mit DLSS2.
Hat er eigentlich auch den Speicher OC mit WQHD getestet?
Du zogst sein Video für deine Beweisführung heran und hast eine Behauptung aufgestellt, die so in dem Video weder gesagt, noch zu sehen ist. Darauf habe ich dich nur aufmerksam machen wollen. Jetzt aber sind die Tests in dem Video plötzlich doch nicht so aussagekräftig. Hmmm... ;)
 
  • Gefällt mir
Reaktionen: Miuwa
@ThirdLife
@Gortha

Glaube nicht, dass die 4090 jemals ernsthaft bezüglich Preis/Leistung kritisiert wird? Tolle Karte!

Das Trauerspiel beginnt darunter.
 
  • Gefällt mir
Reaktionen: edenjung und rumpel01
JonaHH schrieb:
Was hätte ich jetzt für 900 € machen können, um in Spielen spürbar mehr Performance herauszuholen?

Ich habe ein Tipp für 0 €: Das System weiter nutzen und die Grafikregler auf Mittel- Hoch stellen. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Ake, voalirus und whtjimbo
ThirdLife schrieb:
Nö, aber in deiner Betrachtung fehlen die Waferkosten. Der Chip hier ist so groß wie 2x 2080 Ti's, braucht etwas weniger Fläche kostet jedoch pro mm² 4,25x soviel Kohle. Gegenüber einer 2080 Ti reden wir also von unterm Strich etwa 3,5x höheren Kosten pro Chip. Etwas kleiner, dafür massiv teurer zu fertigen.

Und "konventionell" ist an einem 120SM Chip der 3Ghz drückt echt gar nix. Das ist der Schwere Gustav ggü. einer Walther PPK wenn man sich die Shaderanzahl der letzten drei Gens ansieht.😂
Ergänzung ()


Doch ist er. Von 4000 pro Wafer auf 17k$ pro Wafer.

Ums mit deinen Worten zu sagen "man sollte und darf gern lesen lernen".
Und Sie dürfen gern Mathe nachholen. Denn man muss eigentlich kein Genie sein das etwas Stinkt wen eine 4090 mit 2,63$ pro mm² gute 20% billiger angeboten wird als der eigetnlich kleihnerer und günstigerer Chip der 4080t, wo pro mm² 3,17$ MSRP veranschlagt werden.
.
 
  • Gefällt mir
Reaktionen: McTheRipper, Miuwa, DeltaPee und 2 andere
Ragnarök88 schrieb:
Weil Gamersnexus und die anderen Youtuber das sagen was ihre Follower hören wollen.
Ich habe lieber neutrale Testberichte und Fakten anstatt polemisches Geplapper.
So ist es. Youtube lebt wie Boulevardzheitung von zackigen Überschriften und den Leuten zum Teil nach dem Maul reden. Auch wenn es da enorme Unterschiede gibt.... jeder schlägt mal übers Ziel hinaus.
 
Ich habe meine 3080 Ti verkauft und mir nun eine 4080 und eine 4070 Ti gekauft für ultrawide gaming - habe auch einen 4k oled fernseher, da zock ich aber selten

ich habe nun beide karten getestet und muss sagen, es ist unglaublich, die 4080 ist im idle einfach mal nur 25 grad, die 4070 Ti tuf etwa 35 grad hingegen

performance mäßig ruckelt witcher 3 und portal mit rtx mehr, sonst hab ich bei allen spielen keine probleme im direkten vergleich

jetzt ist natürlich die frage ob sich die 4080 für 500 euro mehr wirklich lohnt, denke mal ich werde sie zurückschicken und die tuf behalten

wieso ich die 3080 ti verkauft habe? wurde mir einfach zu laut und zu heiß immer (80 grad beim zocken vs 50 grad mit der 4000er serie)
 

Anhänge

  • 0fbc0c79-e133-4e79-940c-327d337a55d0.jpg
    0fbc0c79-e133-4e79-940c-327d337a55d0.jpg
    118,4 KB · Aufrufe: 196
lynx007 schrieb:
Denn man muss eigentlich kein Genie sein das etwas Stinkt wen eine 4090 mit 2,63$ pro mm² billiger günstiger als die 4080 geweorden ist, die mit 3,17$ mm2 zu buche schlagt.
Die 4090 war einfach eine angenehme Überraschung. Die Karte ist sicher teurer zu fertigen als eine 3090ti, die für $1999 gestartet ist. Das ändert aber nichts daran, dass die Karten darunter nicht teurer geworden sind als sie früher waren. Die Karten, die früher $699 gekostet haben, hatten einen $60-80 Chip. Der Chip der 4070ti dürfte aber eher $120 kosten. AMD hat den Ryzen 7950x mit $60 Silizium für $699 zum Launch verkauft. Da war der Aufschrei nicht so groß.
 
  • Gefällt mir
Reaktionen: Gortha
AvenDexx schrieb:
Du zogst sein Video für deine Beweisführung heran und hast eine Behauptung aufgestellt, die so in dem Video weder gesagt, noch zu sehen ist. Darauf habe ich dich nur aufmerksam machen wollen. Jetzt aber sind die Tests in dem Video plötzlich doch nicht so aussagekräftig. Hmmm... ;)
Du drehst dir meine Aussagen auch wie du sie verstehen möchtest.

Nein, aber wenn man mit DLSS2 gestetet hätte, wäre es sichtbarer gewesen. Dann wären aus 10% mehr FPS eben auf einmal 4 oder 5 FPS geworden. Und das merkt man.

Wie gesagt, mal sehen was es bringt und das werden jetzt noch einige sicher testen und online stellen.
Ergänzung ()

lynx007 schrieb:
Und Sie dürfen gern Mathe nachholen. Denn man muss eigentlich kein Genie sein das etwas Stinkt wen eine 4090 mit 2,63$ pro mm² gute 20% billiger angeboten wird als der eigetnlich kleihnerer und günstigerer Chip der 4080t, wo pro mm² 3,17$ MSRP veranschlagt werden.
.
Dir ist schon klar, das das auf den msrp der gesamten Karte bezogen ist und daraus irgendeine krude Rechnung auf Kosten pro mm² Chip errechnet wird? hmmm...
Mathe kann man ja gerne machen aber wer Unsinn richtig rechnet, hat trotzdem ein unsinniges Ergebnis.^^
 
Gortha schrieb:
Du drehst dir meine Aussagen auch wie du sie verstehen möchtest.
Du selbst hast geschrieben:

"[...]und in seinen 4k Tests schloss sich dann die Lücke weitestgehend zwischen dem Abstand zur 3090(ti) in 21604p vs 1440p[...]"
Genau das ging aus seinem Test aber gar nicht hervor. Das bemängelte ich, woraufhin du da schriebst:

"[...]Das ist eben Ansichtssache. Er spricht glaube ich von minimal 4% bis 10% mehr FPS[...]"

Das empfandest du als ordentlich, wobei er seine hohen Werte selbst relativierte! Das war dann auch mein Kommentar auf deine Antwort, woraufhin du dann plötzlich seine Tests als mehr oder weniger ungeeignet darstellen wolltest, weil eben ohne DLSS, etc. und man es deswegen nicht wirklich erkennen könne.

Du stelltest eine Behauptung auf, die so im Video, entgegen deiner Aussage, weder zu hören, noch zu sehen war. Im Grunde hat Roman sogar das Gegenteil ausgesagt. Du vermutest nur und wolltest deine Vermutung schon im Vorfeld, mit Hilfe des Videos, als faktisch bewiesen darstellen, was aber eben nicht der Fall war.

Letztlich bestätigst du das sogar, weil du zum Schluss ja selbst schreibst, dass man mal sehen muss, was es bringt.

So und jetzt wiederhole nochmal deine Aussage, dass ich deine Aussagen so drehen würde, wie ich sie verstehen möchte!
 
NVIDIAs BWLer Abteilung weiß einfach wie man Kasse macht!! :evillol:
Das Maximum an Konsumentenrente der weniger preissensiblen Kundschaft für sich abschöpfen.
Für 900 € scheinen sich ja noch einige hier zu finden.

Einfach mal gönnen ;)
Also NVIDIA, weil sie gut Kasse machen und den Gamern die nun ihre 4000er Karte betüdeln dürfen.
Ach wie schön das ist, nicht?
 
  • Gefällt mir
Reaktionen: McTheRipper und lynx007
scheru schrieb:
@ThirdLife
@Gortha

Glaube nicht, dass die 4090 jemals ernsthaft bezüglich Preis/Leistung kritisiert wird? Tolle Karte!

Das Trauerspiel beginnt darunter.

Und genau das wundert mich nach wie vor!

Auch dieser Test zeigt wieder, dass die 4090 wirklich underperformt!

Die 4080 mit ihren 26% mehr Recheneinheiten liefert brav auch im Mittel +25% Performance gegenüber der 4070ti.

Die 4090 mit ihren 113%!! mehr Recheneinheiten kommt aber nur auf ca. +70% Performance.

(alles immer mit 4K und ggf. RT betrachtet)

Ich hoffe immer noch auf ein verstecktes CPU Bottleneck und nicht z.b. ein Bug im Chiplayout oder zu geringe Cachegröße.

Ansonsten bin ich natürlich zufrieden mit meiner 4090, aber es müsste eigentlich noch mehr kommen, bei 16384!! Shadern!!
Wie gesagt, aus meiner Sicht liefern 4070ti und 4080 relevant mehr Performance, als nach der Anzahl der Recheneinheite zu erwarten wäre!
Die Speichermenge ist aber für VR Anwendungen auch mit 16Gb zu knapp.
 
Zurück
Oben