News Nvidia GeForce RTX 4070 Ti: AD104-Grafikchip ist nur halb so groß wie GPU der RTX 4090

Mit der 12Gb 4080 eingefahren und jetzt eine 4070TI machen. 1a peinlich....
 
  • Gefällt mir
Reaktionen: McLovin14 und -=[CrysiS]=-
Die haben doch den Schuss nicht gehört mit den Preisen, ich denke, das viele ins rote Lager wechseln werden, wenn die sich etwas zusammen reißen und nicht die Gier siegt.
 
Einfach schade, dass diese technisch interessanten Karten und Raytracing in einer Zeit der Rezession erscheinen. Der Qualität der Spiele dürfte diese Entwicklung nicht zugute kommen, da bezahlbare Hardware fehlt, um eben jene Titel mit voller Pracht und insbesondere zu Release zum Vollpreis genießen zu können.
Unfertige Produkte dürften den Publishern & Spielestudios noch mehr auf die Füße fallen, als bisher. Es sei denn, der Verkauf über mehrere Plattformen spielt Geld ein.

Langsam komme ich mir wieder so vor wie 1998 als in der GameStar die Anzeigen mit den Grafikkarten für 400DM inseriert waren und ich kein Einkommen hatte. Im Gegensatz zu damals gibt es heute zusätzlich 25 Jahre Spielgeschichte und unzählige geschenkte sowie Indie-Titel zum Zeitvertreib, die sich in Full-HD für wenige 100€ genießen lassen.

Meine Preisbereitschaft für eine 4070ti 12GB läge bei vllt. 700€.
 
  • Gefällt mir
Reaktionen: Romanow363
crustenscharbap schrieb:
Also wie eine GTX 980 damals. Was kostete die? 400€.

Im günstigsten Fall hat man die Founders mit Kack-Kühler für 499€ bekommen, gute Modelle von EVGA oder Palit lagen eher bei 550-650€. Die 980 war aber auch nicht das Spitzenmodell, es gab noch die Titan XM für ab 1000€ (gute Modelle ab 1200) und die 980Ti, was jetzt in etwa die 4080 16GB ab 680€ und gute Modelle für 750-800€.

Der Euro stand da aber 20% besser da, es gab keine Inflation von fast 20% und die MwSt. hätte auch nicht so massiv zugelangt. Wenn man es hochrechnet würde eine 980Ti auch locker 1000€, vmtl. eher 1200€ aktuell kosten und die Technik ist im Vergleich Steinzeit.

Mir wären niedrigere Preise auch lieber, aber Sprit hat 2016 auch nur die Hälfte gekostet und eine billige Packung Wurst lag bei 79 Cent und nicht 1,29-1,49€.
 
  • Gefällt mir
Reaktionen: juwa und shaboo
malajo schrieb:
Die haben doch den Schuss nicht gehört mit den Preisen, ich denke, das viele ins rote Lager wechseln werden, wenn die sich etwas zusammen reißen und nicht die Gier siegt.
die karten kosten ja genausoviel.. Nvidia hat halt ihren Premiumaufschlag, wie immer..


Die Karte hätte meine 2070 im 2. Pc ablösen können. Statt 700-800 vor paar Monaten für ne 3080 auszugeben gedacht lieber warten. Aber war ja abzusehen mit den Preisen.. ev gibs bald mal eine 6800xt für 499.. :D
auf jeden fall mal abwarten wie sich die Preise in paar Wochen entwickeln werden.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Die Ada Architektur ist schon gut ... nur hab ich das Gefühl Nvidia hat sich mit den Chips etwas verrannt. Man wollte wohl die 4090 als Leuchtturm haben, der alles in Grund und Boden rendert. Das hat man zwar geschafft, aber zum Preis, dass man für nun dann drei GPUs zwischen 4070ti und 4090 halt drei verschiedene Chips fertigen lassen muss. In der Ampere Generation hat man damit das ganze Portfolio von 3050 bis 3090 gemacht.

Das macht das ganze dann halt auch sehr teuer. Ein Teildefekter AD102 kann für nichts aktuelles mehr gebraucht werden - der geht in die Tonne oder auf Halde falls man irgendwann diese Wahnsinnige Performance-Lücke zwischen 4080 und 4090 doch mal schließen will. Aber das macht es halt teuer.

Auch wenn das AMD Chiplet konzept sich auch erst noch beweisen muss, so sehe ich doch AMD da deutlich im Vorteil. Wenn man einfach zwischen einem und acht dieser kleinen Teile wählen kann, dann skaliert man von der Einsteiger-GPU leicht bis in den High End - und der Ausschuss in der Produktions ist wegen der kleinen Chips auch nicht so groß, weshalb man (hoffentlich) günstiger fertigen kann.
 
Novasun schrieb:
Also für die 1400€ wird schon was ordentlich geboten...
Spannend, bei der 1200 Euro 2080Ti ist genau das Argument in der Preisdebatte eskaliert.

AMD bringt nun 2 GPUs, die mit 1200 Euro jeweils genau teuer sind bzw. mit 1400 Euro teurer sind.
"Für Raster". Unvorstellbar wenige Jahre vorher.

Durchaus amüsant wie AMD sich im unverschämten Hochpreissegment etabliert und damit durchkommt, oder? ;)

Die AMD Mittelfinger hat dieses Forum schon immer anders bewertet irgendwie.

1669895147662.png


Ergänzung ()

Lolliedieb schrieb:
dann skaliert man von der Einsteiger-GPU leicht bis in den High End
Wo und wann genau bieten denn AMD und Nvidia nextgen Einsteiger GPUs?

Beiden kassieren die High End Lemminge wie mich und Euch ab.

Es gibt hier kein "Einsteiger" Segment "bis 300" Euro und kein Midrange Segment mehr "bis 500" Euro, für das, was der Großteil des Forums als hinnehmbar sieht.

AMoneyD ist Ngreedia minus x Euro geworden. Unterhaltsam ist nur wie viele das hinehmen.

FÜr Leute, die sich einen 2023 Gaming PC mit 1500-1800 Euro bauen wollen und eine Top End GPU wünschen, sage ich weiterhin "skip RNDA3 und Ada" und kauft Euch RNDA2 (6800, 6900, 6950) , wenn RT nicht die Rolle spielt oder eine 3080-12 oder 3080Ti, wenn RT (respektive DLSS) eine Rolle spielt. Langt dicke für full hd und 1440p, und dann einfach 2 oder gar 4 Jahre nochmals aussitzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=[CrysiS]=-, Benni16it und Shoryuken94
Lolliedieb schrieb:
Die Ada Architektur ist schon gut ... nur hab ich das Gefühl Nvidia hat sich mit den Chips etwas verrannt. Man wollte wohl die 4090 als Leuchtturm haben, der alles in Grund und Boden rendert. Das hat man zwar geschafft, aber zum Preis, dass man für nun dann drei GPUs zwischen 4070ti und 4090 halt drei verschiedene Chips fertigen lassen muss. In der Ampere Generation hat man damit das ganze Portfolio von 3050 bis 3090 gemacht.

Viele verschiedene Chips lohnen sich immer dann, wenn die Fertigung teuer ist. Nvidia hat bei dem teuren 5nm aka 4nm Prozess keine Lust nur zwei Chips zu bringen, wo sie dann für die niedrigeren Klassen haufenweise totes Silizium ausliefern, was sie trotzdem bei TSMC zahlen müssen.

Lolliedieb schrieb:
Das macht das ganze dann halt auch sehr teuer. Ein Teildefekter AD102 kann für nichts aktuelles mehr gebraucht werden - der geht in die Tonne oder auf Halde falls man irgendwann diese Wahnsinnige Performance-Lücke zwischen 4080 und 4090 doch mal schließen will. Aber das macht es halt teuer.

Nö nicht wirklich. Der AD 102 in der 4090 ist schon ordentlich abgespeckt. Da landen schon die meisten Teildefekten Chips. Viel höher dürfte die Defektrate auch nicht sein. Und selbst wenn man die Lagert, bis man daraus eine Quadro, 3080Ti etc. macht. Die Lagerkosten halten sich da bei GPUs sehr in Grenzen.

Lolliedieb schrieb:
Auch wenn das AMD Chiplet konzept sich auch erst noch beweisen muss, so sehe ich doch AMD da deutlich im Vorteil. Wenn man einfach zwischen einem und acht dieser kleinen Teile wählen kann, dann skaliert man von der Einsteiger-GPU leicht bis in den High End - und der Ausschuss in der Produktions ist wegen der kleinen Chips auch nicht so groß, weshalb man (hoffentlich) günstiger fertigen kann.


Der Vorteil von Chiplets ist die Skalierbarkeit, das erkauft man sich durch höhere Kosten beim gesamten GPU Package. Ein e kleine Chiplet GPU kann dadurch teurer werden, als eine kleine monolithische. Aber da wird die Zukunft hingehen. Wobei es aktuell noch nicht so richtig relevant ist, zumindest bei den GPUs. Nvidia arbeitet auch an der Technik, stand heute ist der Vorteil bei GPUs aber relativ begrenzt. Auch AMD hinkt mit nur einem Compute Die noch weit hinter dem wahren potential zurück. Aber in 2-3 Generationen werden beide wohl komplett auf Chiplets setzen und das ganze auch mit mehreren Compute Dies. Aber an dem Punkt ist auch AMD trotz viel Erfahrung in dem Bereich noch nicht.
 
  • Gefällt mir
Reaktionen: Laphonso
Shoryuken94 schrieb:
Der AD 102 in der 4090 ist schon ordentlich abgespeckt.
Waren das nicht sogar über 15%? Völlig Banane, wenn man überlegt, dass Nvidia noch eine 2299 Euro "UVP" 4090Ti hinterhershcieben wird.
 
phanter schrieb:
Ich wiederhole mich hier einfach nochmal

RTX 4070 Ti - AD104
-Die size 295 mm² - Interface 192bit

GTX 460 - GF104
-Die size 332 mm² - Interface 256 bit

Wird doch also unter 200€ kosten. Oder? Oder?
Was für ein Quatsch!
Einfach nur mit Die Size und Interface eine Rechnung aufmachen zu wollen.

GTX 460 von 2010: Fertigungsprozess 40nm, Chiptakt 475 MHz, nur 1,9 Mrd Transistoren und 336 Shader ...

In der Zwischenzeit wurden viele neue Fabs für zig Milliarden Dollar gebaut um die heutigen Fertigungsprozesse zu ermöglichen, für die auch nvidia als Auftraggeber bezahlen muss.
Außerdem ist der Aufbau heutiger Chips über Jahre erst entwickelt worden, damit sie die Leistung abliefern.

Als nächstes schlägst Du vor, die Fertigungsprozesse mit nem Fön zu schrumpfen und erwartest Preise von unter 40 Euro. Oder? Oder?
 
  • Gefällt mir
Reaktionen: Laphonso
Schon irgendwie unfreiwillig komisch, dass vergleichbare Raytracing Leistung wie bei Ampere von einen Tag auf den anderen 0,00€ Mehrwert haben sollen wenn AMD das ganze bietet.

;-)
 
  • Gefällt mir
Reaktionen: daknoll
mcmurphy100 schrieb:
Als nächstes schlägst Du vor, die Fertigungsprozesse mit nem Fön zu schrumpfen und erwartest Preise von unter 40 Euro. Oder? Oder?

Einige Jahrzehnte lang war das die typische Entwicklung bei PC-Komponenten. Es wurde durch technische Fortschritte und bessere Fertigungsverfahren nicht nur alles immer leistungsfähiger, sondern gleichzeitig auch billiger.
Wenn ich mich richtig erinnere, kostete ein IBM AT anfangs um die 12000DM. Ein 10 Jahre später bekam man einen Pentium-PC der Spitzenklasse für um die 3000DM.

Wenn der Trend halbwegs so weiter gegangen wäre, dann wären heutzutage Gaming-PCs für 100€ und High-End-Grafikkarten für 40€ nicht unrealistisch.

Bei den Grafikkarten war der Preis bis vor einigen Jahren wenigstens einigermaßen Stabil. High End kostete 500-600€.
 
  • Gefällt mir
Reaktionen: s1ave77
Nice try Nvidia!
Einen so kleinen Chip für über 1000€ verkaufen zu wollen, da gehört eine gute Portion Halsabschneiderei dazu, das muss man sich erst Mal leisten können. Sehe ich mir die letzte PCGH Umfrage zum Preis der 4080 an, bei der tatsächlich der Großteil der Teilnehmer 1000€ für eine 4080 für gerechtfertigt halten, kann ich den Vater des Gedanken aber schon sehen.

Hoffe Intel setzt dem mit Battlemage ein Ende und wir sehen Mal wieder etwas Preiskampf, das AMD versucht einen Stück vom Nvidia-Kuchen abzuhaben, ist zwar irgendwie verständlich (wenn die Leute ihr Geld so sehr hassen, wieso sollte man dem Konkurrenten die Marge allein gönnen?), mitgehen und es gut heißen muss ich es dennoch nicht.

600-700€ für eine High End Karte waren schon immer eine Ansage, aber das ist doch langsam nur noch lächerlich. Mit Inflation brauchen mir die Hersteller auch nicht kommen, deren Quartalszahlen sind dank Börse einsehbar und gerade bei Nvidia sehe ich eher ein Verhalten wie bei einigen Supermärkten, die die Preise anheben weil sie einen Sündenbock haben und garantiert keinen Cent mehr an die Produzenten abdrücken. Vom Verhalten gegenüber Boardpartnern und der Presse ganz zu schweigen.

Meine RTX 3080 Mobile aka 3070 Ti wird noch viele Jahre werkeln, bevor ich mir auch nur überlege eine GPU zu kaufen - und die wird, sollten die Preise bestehen bleiben (was ich nach einigen Kommentaren glaube), sicher ein Gebrauchtkauf.
 
  • Gefällt mir
Reaktionen: Viper816
LamaMitHut schrieb:
Schon irgendwie unfreiwillig komisch, dass vergleichbare Raytracing Leistung wie bei Ampere von einen Tag auf den anderen 0,00€ Mehrwert haben sollen wenn AMD das ganze bietet.

;-)
Das ist ja das was ich immer wieder sage, Raytracing war Marketing Mist…., bis AMD es brachte.
DLSS war eine fps Krückenhilfe und Pixel Matsch….bis AMD FSR erbrachte.
Framegeneration ist jetzt Fake Frames…., aber dann super sobald AMD mit FSR3 eine eigene Option bietet.

Und Nvidia Grafikkarten über 1000 € waren eine Verarschung, bis AMD damit auch anfing und mittlerweile das Ganze wiederholt und sogar zwei in diesem Segment zum Release direkt präsentiert.

Bei Nvidia war der Mehrwert im Forum Konsens hier nicht gegeben, bei AMD wird er aber gerechtfertigt, dass IST in der Tat unfreiwillig komisch.

Mittelfinger Preise sind unverschämt , aber nur wenn Nvidia sie verlangt.
Sobald AMD diese Preise aufruft, benutzt man genau die Argumentation …die man vorher Nvidia vorgeworfen hat 😁
 
  • Gefällt mir
Reaktionen: aid0nex
Laphonso schrieb:
Wen interessiert in dieser PReisregion noch Raster?
Ich gebe doch nicht 1400 Euro aus, wenn ich eine 6950XT als Rastermonster für 800+ Euro snipen kann.

Sämtliche neue (AAA) Games bekommen Raytracing, die bereits releasten wie Witcher 3, Fall Out 4 und Elden Ring bekommen RT Refresh und RTX Remix zeigt als Tool, wie man Uralt Schinken wie Portal optisch deutlich aufwerten kann. Wir betreten neue Technologiegebäude, und mir ist das denial hier im Forum bewusst ebenso die Anti RT Haltung.

Aber die Realität und die Zukunft (und AMD ist dabei!) machen klar: Raster ist durch, aus und wird verdrängt. Noch nicht im Ansatz vollständig, aber es geht längst los.

Wer ernsthaft so viel Geld aus gibt für "nur Raster", wer bin ich, das zu bewerten. Ich gebe selbst immer irrational Gaming PC Geld aus :D
Ich bewerte es daher nicht, ich stelle nur die Frage, siehe oben:
Wer kauft sich eine 1400 Euro GPU nur für Raster...
..... die in DLSS3 Games 50 fps hinter einer 4080 liegen wird?
Die 4080 ist eben selbst auch keine Raster GPU. Wer sich eine 4080 nur für Raster kauft....
Die Umfrage seitens CB zeigt doch ziemlich deutlich das DU mit deinem RT Gehype eher die Nische bist.
Anfangs hab ich wirklich Freude an deiner schon fast kindlichen Begeisterung für die 4090 und RT gehabt, jetzt wirst du aber wirklich mühsam.
In jedem Thread dieselbe Leier von dir.
Finde dich damit ab das sich nicht jeder eine 4090 für Cyberpunk kauft bzw dass das allgemeine Interesse an RT noch sehr zurückhaltend ist.
Dein Usecase ist die Nische der Nische, aber nicht allgemein gültig.
 
  • Gefällt mir
Reaktionen: kat7, Snoop7676 und s1ave77
Laphonso schrieb:
Waren das nicht sogar über 15%? Völlig Banane
GA102 = 84smGPU% aktiviertA102 = 144 SMGPU% aktiviert
82 SM309097,6 %128 SM409088,9 %
80 SM3080Ti95,2 %
70 SM3080 12GB83,3 %

Bei der 4090 sind ca. 88,9% der GPU aktiv. Bei der 3080Ti waren es über 95%. Unter Ampere wäre die 4080 also nicht mal eine 80Ti gewesen :D Da hat Nvidia also schon einiges an Puffer einbezogen, um teildefekte Chips auch in der 90er Karte loszuwerden. Macht aber dieses mal dann die 90Ti auch nicht so überflüssig.
 
  • Gefällt mir
Reaktionen: Laphonso
Dafür 1000€ läppen ein NFS Unbound in Mittel läuft auch auf einer GTX 970 und I3 10105F mit 77 FPS im Cap.
(Der i3 langweilt sich mit einer Auslastung von peak 65%)

Für Curentgen Konsolen 800€ für eine PS5 läppen wo eine Series X im Mediamarkt ab Lager um 499€ ist,
Sony ist am Arsch.
 
Och man ey, mittlerweile ist es nicht mehr lustig sondern nur noch ätzend. Die Specs dieser Karte sind super, einen modernen Chip der nicht die gleiche Größe und damit auch Leistungsaufnahme wie so eine BFGPU wie die 4090 hat sondern eben nur halb so viel, ohne dabei einfach nur eine Teildeaktivierung zu sein. Wäre ein super Ersatz für meine GTX 1080 gewesen die nun eeeeeeeeeeendlich in Rente will. Aber doch nicht für einen vierstelligen Europreis... Nein, niemals. Leute ich glaub' ich werd' einfach Konsolero. PC Gaming macht keinen Spaß mehr. Zocke in letzter Zeit eh immer häufiger auf meiner Series X.
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben