News Nvidia GeForce RTX 4070 Ti: AD104-Grafikchip ist nur halb so groß wie GPU der RTX 4090

Shoryuken94 schrieb:
GA102 = 84smGPU% aktiviertA102 = 144 SMGPU% aktiviert
82 SM309097,6 %128 SM409088,9 %
80 SM3080Ti95,2 %
70 SM3080 12GB83,3 %

Bei der 4090 sind ca. 88,9% der GPU aktiv. Bei der 3080Ti waren es über 95%. Unter Ampere wäre die 4080 also nicht mal eine 80Ti gewesen :D Da hat Nvidia also schon einiges an Puffer einbezogen, um teildefekte Chips auch in der 90er Karte loszuwerden. Macht aber dieses mal dann die 90Ti auch nicht so überflüssig.

Jetzt sind wir auch wieder in der Mimik der Abstände, die zwischen der 2080 und der 2080Ti lagen und zwischen der 1080 und 1080Ti sowieso der 980 und 980Ti etc.

Die Ampereflotte, die mit 5 GPUs (3080, 3080-12, 3080Ti, 3090, 3090Ti) nur so rund 20 % auseinanderlag, war einfach ungewöhnlich und der Fertigung geschuldet.
Ergänzung ()

aid0nex schrieb:
Aber doch nicht für einen vierstelligen Europreis...
Was spricht denn dagegen, RDNA2 und Ampere Schnapper zu machen? Wären ein Top Upgrade von Deiner 1080.
 
  • Gefällt mir
Reaktionen: Shoryuken94
aid0nex schrieb:
Wäre ein super Ersatz für meine GTX 1080 gewesen die nun eeeeeeeeeeendlich in Rente will.
Die GPU selbst hat keinen Sinnesverstand und will sicher nicht in Rente, nur du willst mehr Grafik und die GPU soll in Rente.
 
Laphonso schrieb:
Was spricht denn dagegen, RDNA2 und Ampere Schnapper zu machen? Wären ein Top Upgrade von Deiner 1080.

Ja habe ich auch schon drüber nachgedacht. Danke nochmal für den erneuten Denkanstoß. Trotzdem traurig, dass man nach solchen "Workarounds" schauen muss. Ich würde gerne einfach 500€ für eine gute neue Grafikkarte hinlegen und fertig.
Ergänzung ()

GM206 schrieb:
Die GPU selbst hat keinen Sinnesverstand und will sicher nicht in Rente, nur du willst mehr Grafik und die GPU soll in Rente.

Hattest du keine Rhetorik im Deutschunterricht?

Kleiner Nachschlag weil du mir ja so ein Korinthenkacker zu sein scheinst:
"Mehr Grafik" gibt es auch nicht, höchstens mehr Leistung, die benötigt wird um die neuesten Spiele spielen zu können.
Siehste? Kann ich auch. Macht aber keinen Spaß.
 
  • Gefällt mir
Reaktionen: Laphonso
aid0nex schrieb:
Ich würde gerne einfach 500€ für eine gute neue Grafikkarte hinlegen und fertig.
Vielleicht sinken die 69xxer und 3080xxer doch noch unter 600 Euro Anfang 2023.
Da hilft nur Geduld.
 
  • Gefällt mir
Reaktionen: aid0nex
aid0nex schrieb:
Hattest du keine Rhetorik im Deutschunterricht?

Kleiner Nachschlag weil du mir ja so ein Korinthenkacker zu sein scheinst:
"Mehr Grafik" gibt es auch nicht, höchstens mehr Leistung, die benötigt wird um die neuesten Spiele spielen zu können.
Siehste? Kann ich auch. Macht aber keinen Spaß.
Doch schon aber das ist die personifizierte Gier nach mehr,
Würden die Menschen rational handeln würde keiner eine RTX 4090 um 2000€ kaufen,
hoppla das tun die wenigsten Millionäre, die halten ihr Geld zusammen und lassen das Geld für sich Arbeiten.

Als Aktionär mit 0,07% von Nvidia finde ich es auch gut das sich Opfer eine GTX 4090 kaufen, denn das sind am Ende Dividendengewinne für mich. Als passionierter Spieler ist es natürlich schade, aber ich kauf mir keine GK um 2000€ die nur 1000€ Wert ist.
 
GM206 schrieb:
Als Aktionär mit 0,07% von Nvidia finde ich es auch gut das sich Opfer eine GTX 4090 kaufen, denn das sind am Ende Dividengewinne für mich.

Du bist nicht nur überheblich und beleidigend, sondern kommst auch dermaßen vom Thema ab dass der Kommentar weg gesplittet gehört.
Da du ja neu zu sein scheinst, hier ein Tipp vom alten Hasen:
Bitte lese dir noch einmal die Forenregeln durch und frage dich anschließend, ob du hier wirklich richtig bist.
 
  • Gefällt mir
Reaktionen: Viper816 und schini
aid0nex schrieb:
Ja habe ich auch schon drüber nachgedacht. Danke nochmal für den erneuten Denkanstoß. Trotzdem traurig, dass man nach solchen "Workarounds" schauen muss. Ich würde gerne einfach 500€ für eine gute neue Grafikkarte hinlegen und fertig.

So ist es leider. Aktuelle Technik wird immer weiter vorangetrieben, wird dadurch aber auch immer teurer. Die fertigung kostet deutlich mehr als früher, Platinen und Kühler die 300+ Watt abführen können sind teurer etc.

Ich denke der Gebrauchtmarkt und ältere Generationen werden zukünftig eine immer größere Rolle spielen. Die Karten sind aber auch heute deutlich länger im Einsatz bzw. nutzbar. Eine tolle UHD Karte wird zwei Jahre später noch sehr gut in WQHD zurecht kommen und irgendwann auch in Full HD noch lange laufen können. Das mit einer Generation gleich ein ganzer Schwung an Kunden umsteigt, weil über Nacht die alte Technik obsolet geworden ist, werden wir wohl so schnell nicht mehr sehen.

Aber gerade RDNA2 ist gerade wirklich interessant. Die 6800XT wird langsam richtig günstig und wird wohl noch weiter im Preis fallen und das ist für die meisten einfach eine tolle Karte. genauso wie die 6900XT oder 6950XT. Und sind wir ehrlich. Die 4070 wird außerhalb von RT nicht wirklich schneller sein, als eine 6900XT. Hat dafür weniger Vram, aber etwas weniger Durst. Wobei letzteres auch eher zu vernachlässigen ist, wenn man sich die wahrscheinliche Preisdifferenz anschaut.
 
Shoryuken94 schrieb:
So ist es leider. Aktuelle Technik wird immer weiter vorangetrieben, wird dadurch aber auch immer teurer. Die fertigung kostet deutlich mehr als früher, Platinen und Kühler die 300+ Watt abführen können sind teurer etc.

Demzufolge müsste ja sämtliche Technik teurer werden, was aber nicht der Fall ist. Heute bekomme ich mehr als brauchbare Riesen-Smartphones mit super Technik verbaut für 200-300€. Früher hast du für das Geld nur Plastikschrott bekommen. Klar gibt es noch die 2.000€ Boliden, die hat aber nicht jeder. Nur GPUs verlassen diesen Markt einfach komplett.
Ergänzung ()

Shoryuken94 schrieb:
Ich denke der Gebrauchtmarkt und ältere Generationen werden zukünftig eine immer größere Rolle spielen.

Also so wie bei Autos... Super. :(
 
  • Gefällt mir
Reaktionen: schini
Wo sind eigentlich die ganzen "500W Netzteil reicht für Highend locker Sektenprediger"?
Wenn man sich so ansieht was die neuen CPUs und GPUs inkl. der Bretter so ziehen wird mir schlecht.

Und dann noch die "Preis ist voll gerechtfertigt Relativierer"
Wo kommen denn die riesigen Milliardengewinne der Hersteller her?
 
  • Gefällt mir
Reaktionen: s1ave77
Shoryuken94 schrieb:
Aber gerade RDNA2 ist gerade wirklich interessant. Die 6800XT wird langsam richtig günstig und wird wohl noch weiter im Preis fallen und das ist für die meisten einfach eine tolle Karte.
Nichts davon ist interessant wenn ich meine Spiele im halben Refresh (72 FPS zu 144 Hz, caped auf 77 FPS) mit mittel Details spielen kann und das auf einer 8 Jahre alten Grafikkarte um damals 329€.

Gebe ich heute 2022 also 8 Jahre später 329€ aus bekomme ich keine GPU die auf Mittel in 1080p 144 FPS im refresh des von 144Hz Monitors hält.

Ein I3 10105F reicht bis zu einer 3060TI um 500€.
Das ist lächerlich ich zahl für eine 60TI sicher keine 480€, wo 2014 eine x70 noch 329€ war.

Hier frolocken schon Leute mit einer 70TI die eine 60 wäre um 1000€,
dafür kauf ich mir eine Quadro zum Arbeiten (Studio Treiber und ECC RAM) und Spielen.
 
aid0nex schrieb:
War ein absolut valider Satz im Jahr 2017.
War eigentlich damals schon ein Blödsinn die NTs bis und über der Kotzgrenze zu belasten.
Aber egal sie werden es halt jetzt auch so handhaben.
Nur eben mit 750W NTs.
Und alles übertakten natürlich weil es ja Strom spart.
 
Shoryuken94 schrieb:
Ich denke der Gebrauchtmarkt und ältere Generationen werden zukünftig eine immer größere Rolle spielen.
Bei dem momentanen Preisgefüge, wird auch dieser Markt immer lukrativer für Scalper und artverwandte Profiteure, die momentan die Miningkarten en Masse aufkaufen und damit die Preise nach oben drücken. Die Tendenz ist zu sehen und wird nicht so schnell verschwinden.
 
  • Gefällt mir
Reaktionen: aid0nex
cbtestarossa schrieb:
War eigentlich damals schon ein Blödsinn die NTs bis und über der Kotzgrenze zu belasten.
Aber egal sie werden es halt jetzt auch so handhaben.
Nur eben mit 750W NTs.
Wenn jemand die beste Performance pro Watt haben will geht dieser instant auf Notebooks oder Mini PCs,
da Spielt der Desktop niergendwo mit.
Ergänzung ()

mae1cum77 schrieb:
Bei dem momentanen Preisgefüge, wird auch dieser Markt immer lukrativer für Scalper und artverwandte Profiteure, die momentan die Miningkarten en Masse aufkaufen und damit die Preise nach oben drücken. Die Tendenz ist zu sehen und wird nicht so schnell verschwinden.
Nein durch Raytracing als neues Physix wird der Markt der Gebrauchten recht niedrig gehalten.
Und das ist gut so, jeder der Kein Raytracing braucht ist am Second Hand Markt besser bedient als mit Raytracing eine RTX 3050 um 300€ haben will.
 
  • Gefällt mir
Reaktionen: Vitec
aid0nex schrieb:
Bitte lese dir noch einmal die Forenregeln durch und frage dich anschließend, ob du hier wirklich richtig bist.
Bei der Marktkapitalisierung von 407 Milliarden Dollar der NVIDIA Corp hätten 0,07% der Anteile einen Börsenwert von rund 280 Millionen Dollar. Bezweifle mal, dass das stimmt.
 
  • Gefällt mir
Reaktionen: m.obermueller, schini und aid0nex
Laphonso schrieb:
Das ist ja das was ich immer wieder sage, Raytracing war Marketing Mist…., bis AMD es brachte.
DLSS war eine fps Krückenhilfe und Pixel Matsch….bis AMD FSR erbrachte.
Framegeneration ist jetzt Fake Frames…., aber dann super sobald AMD mit FSR3 eine eigene Option bietet.
AMD hat aber letztendlich auch nur vergleichbare Techniken gebracht, weil diese Hilfsmittel für ein ausreichend hohe Zahl von Kunden ein Kaufkriterium war bzw. ist (auch bedingt durch das Marketing von Nvidia) und deswegen zu Nvidia gegriffen haben.
 
  • Gefällt mir
Reaktionen: daknoll und aid0nex
mcmurphy100 schrieb:
Was für ein Quatsch!
Einfach nur mit Die Size und Interface eine Rechnung aufmachen zu wollen.

GTX 460 von 2010: Fertigungsprozess 40nm, Chiptakt 475 MHz, nur 1,9 Mrd Transistoren und 336 Shader ...

In der Zwischenzeit wurden viele neue Fabs für zig Milliarden Dollar gebaut um die heutigen Fertigungsprozesse zu ermöglichen, für die auch nvidia als Auftraggeber bezahlen muss.
Außerdem ist der Aufbau heutiger Chips über Jahre erst entwickelt worden, damit sie die Leistung abliefern.

Als nächstes schlägst Du vor, die Fertigungsprozesse mit nem Fön zu schrumpfen und erwartest Preise von unter 40 Euro. Oder? Oder?
Damals hat der 40nm Wafer auch schon über 5000$ gekostet. Der ist jetzt zwar teuerer aber nur um den Faktor 3, nicht um den Faktor 6 wie der Preis.

Und wenn du unbedingt ein neueres Beispiel willst. GTX 1070
314mm2 -256bit. > 379$


Die RTX 2070 hatte dann einen die der mit 445mm2 und 256bit Interface 1.5x größer war als der aktuelle die. Und die wurde für 499USD verkauft

In der 3000er Serie wäre der nächste Vergleich ne rtx 3060 mit einem Preis von 329$

Aber klar das muss jetzt so teuer sein, weil Gründe
 
  • Gefällt mir
Reaktionen: schini
Zurück
Oben