News Nvidia GeForce RTX 4070 Ti: GeForce RTX 4080 12 GB unter neuem Namen wird günstiger

SonyFriend schrieb:
Niedriger nehm ich gerne!!
Aber ich hab keine Glaskugel. Du?
Man braucht keine Glaskugel, um es höchst plausibel zu finden, dass der UVP-Euro-Aufschlag gegenüber dem Dollar-MSRP bei der 4070Ti genau derselbe sein wird, wie er es derzeit bei ALLEN anderen neuen Modellen BEIDER Hersteller auch ist. Aber vielleicht ist dir das auch einfach zu logisch ...
 
Kilinari schrieb:
Ich hab letztes Jahr in den sauren Apfel gebissen und mir eine RTX 3080 geholt.
Ich spiele Warhammer 40k Darktide richtig gerne, mit Raytracing im Schnitt ca. 60FPS@1920x1080 teilweise mit massiven Framerate Einbrüchen...
War am überlegen eine GraKa der neuen Generation mir zu holen und mir ein blaues Auge beim verkauf der 3080 zu holen um den Anschaffungspreis quasi abzufedern.
Nach derzeitigen Benchmarks lohnt es sich trotzdem nicht.
Fazit: Raytracing aus, stabile 120 FPS, leider nicht ganz so schöne Grafik, dafür über 1500€ gespart
Davor hatte ich eine GTX 1070 und davor eine GTX 570.

Ich bezweifle, dass meine 3080 4 Jahre in meinem Rechner verbleibt, wie die GTX 1070 :(
Naja, ich spiel mit meiner 4080 in max settings inkl. Raytracing in 1440p bei über 100 FPS - dank Frame Generation.

Ist natürlich trotzdem viel Geld und wenn ich schon vorher eine 3080 gehabt hätte (ich hatte vorher eine RX 580), hätte ich es auch nicht gemacht, aber der Unterschied ist schon nicht gering.
 
SVΞN schrieb:
Davon kannst du mal ausgehen. Ich glaube, an solche Preise möchte sich niemand gewöhnen müssen.

Ich würde es lieben. Warum? Weil dann Leute endlich wieder zu der Schluß kommen, dass eine GPU auch mal für 3, 4 oder 5 Jahren genutzt werden kann und nicht alle 1-2 Jahre gewechselt werden muss. Dazu kommt, dass die Spiele Entwickler dann nicht mehr nur mit Grafik werben können sondern ggf. mal wieder auf Story oder Gameplay achten. Aber das mit den Spieleentwickler ist Wunschdenken und wird auf jeden Fall niemals mehr passieren.
 
  • Gefällt mir
Reaktionen: Hal14, Apple ][, pipip und eine weitere Person
Gigi2309 schrieb:
Eine Frage an die Runde.
Was denkt ihr, wie wird sich die aktuelle Corona Situation aus China, auf die Grafikkarten Preise entwickeln?
Eigentlich gar nicht, allerdings werden sich Lieferungen vermutlich verzögern. Das wird den gesamten Elektronikmarkt betreffen. Zumal auch das Chinesische Neujahr ansteht. Diesmal sogar vorgezogen, viele Firmen haben jetzt schon dicht gemacht und werden erst wieder Mitte Februar loslegen. Die offiziellen Angaben die man auf Google findet, stimmen diesmal nicht.
Allerdings... wenn Produkte Mangelware sind, werden die Shops die Preise anziehen solange die Nachfrage da ist. Und erst wieder senken, wenn die Nachfrage abnimmt. Man sieht es ja gut bei den AM5 CPUs. Die liegen wie Blei in den Regalen.
 
  • Gefällt mir
Reaktionen: Gigi2309
Crifty schrieb:
Der Vergleich ist sogar noch einfacher,
3070ti MSRP 599$
4070ti MSRP 799$

jetzt könnte man denken "Hey die Erhöhung im Preis ist zwar hoch aber noch okay"... falsch gedacht, weil die Daten zur 4070ti eher darauf schließen lassen das wir hier keine 4070ti haben, sondern eher eine 4060ti.
Die 3070ti basiert auf einem $40 Chip. Der Chip der 4070ti kostet dagegen das Doppelte. Eine 4000er GPU mit einem $40 Chip wird wahrscheinlich sogar günstiger sein als eine 3070ti.
 
bensen schrieb:
Es wurde dir doch schon erklärt. Das bedeutet null Fortschritt. Fortschritt ist, wenn man bessere Technik zum gleichen Preis bekommt (Inflationsbereinigt). Besser Technik nur für immer höhere Preise funktioniert auf Dauer nicht, da es keiner mehr bezahlen kann.
Ja aber es wird doch seit Maxwell bezahlt.. Sorry aber du bist genauso lange im Business wie ich, wenn nicht länger.. Seit dem NVidia ihren Karten diesen "Premium Touch" verabreicht hat, wird das Zeug auch für 2000€ gekauft.. Erinnerst du dich noch an die TITAN karten? Ich schon
Und solange Influencer von NV diese GPUs geschenkt bekommen um zu flexen, wird AMD nicht gekauft.. Fakt.
Ich habe die Diskussion mit der x700XT nun durch und die Person meckert nun über zu wenig VRAM der 3060Ti.. Aber RT ist ja sooo wichtig.. Ja nun hatter sich ne 6800XT gekauft für viel zu viel Geld.

@Nolag
Das doppelte sicher nicht, aber auch sicher ~60USD...
Und der 3070Ti Chip basierte auf N8, der schlichtweg nicht gut war. Ich weiß nicht was Samsung an Preisen macht, aber TSMC ist nicht Samsung. Wenn NV ende 2023 die Net Margin auf 25% erhöht hat, wissen wir eh bescheid.
 
Gamefaq schrieb:
Und du fragst wirklich warum du das tun solltest?
Selbstverständlich, sonst hätte ich das nicht geschrieben.

Ich sitze hier heute noch mit meiner Vega 56 und habe keine der von Dir zitierten Generationen gekauft. Was hat es mir preislich gebracht?

Ich weiß, wenn nur "ausreichend" genug Menschen Kaufverzicht übten, dann sinken die Preise ganz schnell.

Dieser Fall wird aber nicht eintreten, weil es sich um keinen Massenmarkt (mehr) handelt, welcher kurzfristig auf Seite der Nachfrage reguliert wird. Dazu gab und gibt es einfach nicht die ausreichende Anzahl an Anbietern.
Und es werden weltweit immer genug Kunden existieren, die individuell zu der Einsicht gelangen, einen der Preise widerwillig zu akzeptieren. Laut Deiner Signatur hast Du ja auch noch Turing gekauft, und zwar aus Gründen, die ich ganz sicher nachvollziehen würde.

Weder AMD noch nVidia werden die gesetzten Preisniveaus jemals wieder aufgeben. AMD hätte ja als "Jäger" auch einfach die UVPs um weitere 10% oder 20% niedriger ansetzen können. Haben sie aber nicht.

Daran ändern auch ein paar zukünftige Abverkaufsaktionen von Händlern nichts. Ich erwarte hier keine breiten Preissenkungen bei den nun alten Generationen mehr. Ich würde mich aber freuen, wenn ich falsch läge.


Gamefaq schrieb:
Was ist das für eine verdrehte Logik von dir?

Du hattest Folgendes formuliert.
Gamefaq schrieb:
Trotzdem ist es jetzt wichtig die weiterhin günstigeren Karten von AMD zu wählen um Nvidia zu einer Reaktion zu zwingen.
Wie soll ich das anders interpretieren? Verkürzt steht da: Wenn, dann (nur) AMD.

Oder etwas sarkastischer: Ich kaufe als die nicht ganz so überteuerten Karten, damit die richtig überteuerten Karten auf das nicht ganz so überteuerte Niveau kommen - auch wenn die richtig überteuerte Karte zum Zeitpunkt des Kaufes für mich preiswerter ist.

Oder ich habe Dich falsch verstanden?
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Nekkepenn
Rockstar85 schrieb:
Das doppelte sicher nicht, aber auch sicher ~60USD...
Wenn Ian Cutress für die Dies des 7950X bereits $60 ausrechnet, dann wird der größere monolithische AD104 sicher deutlich teurer sein.
 
Nein, er redet eben NICHT von einem Die sondern dem Package.. Und das ist der feine Unterschied, da das Packaging bei AM4 komplexer ist. Und wir reden nicht von einem Die, sondern von 2 Die und dem I/O Modul..
Also ~22USD Pro Die und ~17USD für den I/O und der Rest ist Package und Testing..

Und du kannst deine GPU drauf verwetten, dass NV auch bessere Abnahmepreise bekommt, sonst wäre man nicht von Samsung weggegangen. Selbst mit einer 17,17mm Kantenlänge (also Quadratisch), sind es immer noch >90% Yield.. Also sehr wohl im AMD Rahmen. Auch der Kostenunterschied zwischen N5 und 4N sollte gering sein.
 
Zuletzt bearbeitet:
Gerithos schrieb:
Die breite Masse kauft sich keine Karte für 1k.
Die Karten kosten wohl 900, respektive 700 Euro Tendenz fallend, das sind weniger als 1K, klar ist das die breite Masse für PC Gaming. da die Menschen immerhin rund 500 bis 800 Euro im Schnitt ausgeben.
Gerithos schrieb:
Keine Ahnung warum du immer so unreflektiert alles abfeieret was nvidia so treibt...
Ich habe mit keinem Wort irgendetwas abgefeiert, schon gar nicht das gestiegen Preisniveau bei Grafikkarten.
Ich erwähnte lediglich den Fakt, dass Nvidia ihre Karte peislich deutlich unterhalb der 7900XT anbietet.
 
Rockstar85 schrieb:
Und du kannst deine GPU drauf verwetten, dass NV auch bessere Abnahmepreise bekommt, sonst wäre man nicht von Samsung weggegangen.

Das glaube ich nicht. Man ist von Samsung weg weil der Prozess nicht gut genug war. An was es nun genau lag sei es Qualität oder Stückzahl kann niemand sagen aber das zurück kommen lässt sich TSMC natürlich bezahlen.
 
Rockstar85 schrieb:
Nein, er redet eben NICHT von einem Die sondern dem Packaging.. Und das ist der feine Unterschied, da das Packaging bei AM4 komplexer ist. Und wir reden nicht von einem Die, sondern von 2 Die und dem I/O Modul..
Also ~22USD Pro Die und ~17USD für den I/O und der Rest ist Package und Testing..
Der IO Die mit seinen 120mm2 ist in 6nm gefertigt. Die $60 sind dabei reine Die Kosten ohne Packaging. Der AD104 hat mehr Fläche und ist rein in 4nm gefertigt und ist damit garantiert teurer als die Dies des 7950X.
 
Cool Master schrieb:
Das glaube ich nicht.
Da bin ich mir nicht mal sicher.. Fakt ist ja, dass durch Freiwerden der Apple Kapazitäten das passierte. Aber Nvidia stellt ja auch Hopper bei TSMC her. Ich lehn mich mal aus dem Fenster und sag, dass irgendwo da zwischen die Wahrheit liegt.

@Nolag
Nein, denn 4N ist ein Modifizierter N5 Prozess, also NIX 4nm..
Ich habs Video verlinkt, aber lassen wir das, kein Bock auf Streit wegen Kleinigkeiten. Selbst wenn wir von 5USD unterschied reden, isses für das Produkt unerheblich. Im Schnitt nimmt NV 150USD RT Aufschlag. Cutress reden von 61USD Gesamtkosten für alle 3 und 8USD Packaging.. Schau dir dazu bitte das Ende an.
According to reports, the Nvidia RTX 40 GPU is based on the 5nm TSMC 4N process, the N in “4N” should stand for Nvidia custom.
Da passen dann meine 60USD für den AD104 ganz gut... Auch wenn wir nicht die wirklichen Kosten kennen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cool Master
Nolag schrieb:
Dort kostet ein 7700X oder 7950X auch das 10-fache der Dies und da bekommt man keine komplette GPU für sein Geld.
CPUs sind was anderes und deshalb würde ich bei GPUs als Vergleich bleiben. Deshalb habe ich meinen Bezug auf die RX 7000 Serie geschrieben.
Die Margen trotzdem immer noch recht ordentlich.
Ich sprech davon, dass durchaus mehr möglich wäre, wenn man müsste. Damit meine ich niedrigere Preise... Aber wenn man nicht muss, wieso sollte man dann. Gibt scheinbar genug Käufer...

Nolag schrieb:
Man sollte so fair sein und die Launchpreise in $ vergleichen. Das wären dann $699 für die 3080 gegen $799 bei der 4070ti, wobei anzunehmen ist, dass die 4070ti auch etwas teurer in der Herstellung ist als die 3080.
RTX 2000 12nm Fertigung, RTX 3000 10nm Fertigung bei Samsung. Wenn schon dann die GTX 1080 als Vergleich (14nm TSMC)..gleich großer Chip wie bei der 4080, ca 300 mm^2.
499 USD UVP. Damals 14nm und aktuellste Fertigung am Markt. 4080 hat 1399 UVP.
Wenn wir jetzt nach Chipnamen gehen :
GP104 (anno 2016) vs AD104 alias 4070Ti 799 USD.
(799-499)/499 = 0,6
2022-2016=6 Jahre
0,6/6Jahre = 0,1

In Relation müsste auf die UVP bedacht die Fertigung in den letzten Jahren mind 60% teurer geworden sein. Ist das der Fall? Oder das drum herum ist immer teurer geworden..platinen layout, Speicher...
Nichts für ungut aber auch die 3000 Serie war nicht günstig, sie war aber günstiger als die 2000, die wesentlich teurer war als die 1000 Serie, da RTX. Die 4000 ist jetzt nur wieder wesentlich teurer, aber in Relation, aber scheinbar linear. Mich würde also nicht wundern wenn wie @SVΞN es schrieb die kommende Generation ähnlich im Preis steigt.

Und so sehr wie einige AMD da gerne haten. Kann man nur hoffen dass deren Chiplet Design das Muster bricht, in dem es günstiger wird..
Weil auch der CPU Preis denn du heran nimmst, ist irgendwo weniger, als was wir jetzt vermutlich mit Intel hätten..denn die würden die Preise deutlich höhere schrauben, wenn sie könnten, weil aktuelle Intel 7 / 10nm++ Chips für Desktop recht groß sind und weit weg von damaligen Margen pre-Ryzen sind.
Ps Ryzen 7000 sind im Preis unterhalb der 7000 Serie, weil die UVP hoch angesetzt sind. Intel hat AMD hier einen Strich durch die Rechnung gemacht und war schneller mit ihren jetzigen Chips als anfangs allgemein von der Mehrheit gedacht ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Alphanerd schrieb:
Aber aufgrund der Treiber betreibt man dein besagtes number crunching nicht auf einer "Spielzeuggrafikkarte". Wer damit Geld verdient, zahlt den kleinen Aufpreis zur quadro gerne. Auch weil es dann für die genutzte Software vernünftigen Support braucht.
Ist das ein kleiner Aufpreis?

Die Quadro-Leute sind doch die, die irgendwelche "zertifizierten" Toolchains für ihre Software in fünf- bis sechstelligen Preislage brauchen. Da ist dann in der Tat der Aufpreis für die GPU nicht mehr relevant. Und wir wissen ja alle, wie teuer irgendwelche "Zertifikate" Dinge machen. Das sieht man immer dann, wenn die Bundeswehr mal wieder einkaufen muß.

Aber wenn ein kleiner Freelancer einfach auf einer GPGPU irgendwas rendern will, dann braucht der doch keine Quadro, da tut es die (nicht mehr so) günstige "Spiele-GPU" doch auch. Und das ist nun mal der Anwendungszweck, für den diese PCIe-Coprozessoren primär entwickelt werden, deshalb ist eine GTX 4090 jetzt mit vielen hundert Watt (die es zum Zocken gar nicht braucht) eben so und so viel Prozent effizienter als die Vorgängerserie, bringt also einen echten Mehrwert, weil der Job so und so viel schneller fertig ist und mit so und so viel weniger Stromverbrauch.

Pathtracing und Zockerei ist da schlicht nur ein Abfallprodukt.
 
Rockstar85 schrieb:
Nein, denn 4N ist ein Modifizierter N5 Prozess, also NIX 4nm..
Ich wollte damit auch lediglich aussagen, dass der Chip monolithisch in 4N gefertigt ist. Da wir nicht wissen ob das teurer als 5nm ist, kann man das nicht berücksichtigen.
Rockstar85 schrieb:
@Nolag
Ich habs Video verlinkt, aber lassen wir das, kein Bock auf Streit wegen Kleinigkeiten. Selbst wenn wir von 5USD unterschied reden, isses für das Produkt unerheblich. Im Schnitt nimmt NV 150USD RT Aufschlag. Cutress reden von 61USD Gesamtkosten für alle 3 und 8USD Packaging.. Schau dir dazu bitte das Ende an.
Ja, in dem Video erklärt Ian, dass es sich bei den $61,59 um die reinen Die kosten handelt. Was willst du mir also erklären? Ich habe das sogar auf $60 abgerundet. 120mm2 sind davon sogar in einem günstigeren Prozess gefertigt. Rechne doch selber mit einem Wafer Kalkulator nach. Da wirst du auch auf etwa $80 für den reinen AD104 kommen.
 
  • Gefällt mir
Reaktionen: bensen
@pipip
AMDs Gros Margin liegt bei 45%, das ist halt auch kein Geheimnis.
Ob und wie die Chiplets im GPU Bereich die Marge verbessern , werden wir eben 2023 sehen.
Ich glaube, dass die Mehrkosten für die Produkte zur Herstellung den Vorteil egalisieren. Man hätte zB anstatt Chips in der EU zb die Rohstofflieferketten härten können.. Aber naja
Und der Preis eines CCD für AM5 ist in Cutress Beispiel ~20USD und das bleibt dann auch dabei, denn man bezahlt ja pro Wafer. Manche hoffen ja immer noch auf Intel als Foundry, aber ich glaube da nicht mehr dran.

@Nolag
Nope, komm ich nicht, aber okay.. Und nochmal 4N ist ein Nvidia Custom Prozess, ja der wird etwas mehr kosten, aber es ist und bleibt ein N5.. AMDs N5 Prozess dürfte auch etwas mehr als ein N5 für Qualcomm kosten, aber auch hier ist erheblich, wie viel Dies man abnimmt. Und da kannste Sicher sein, dass NV mehr abnimmt.
 
Nolag schrieb:
Ja, die 3050 hat sogar einen $80 niedrigeren Launchpreis als die 970.
Das Wesen der Chipentwicklung der letzten 50 Jahre war, dass wir mit jeder Generation eine massive Erhöhung der Leistung zum gleichen Preis oder eben die gleiche Leistung für deutlich weniger Geld bekommen.

Das mag sich verlangsamen, aber zu sagen, wir sind zufrieden, wenn wir in 5 Jahren null Entwicklung bekommen zum gleichen Preis ist schon harter Tobak.

Es scheint aber insgesamt einen Trend zu geben, dass Leute zufrieden sind damit, am technischen Fortschritt nicht mehr zu partizipieren, sondern den Gewinn zu 100% dem Hersteller und dem Fiskus zu lassen.

Sei es nun beim Auto, wo die Preise in den letzten Jahren massiv angezogen haben, die Autos sich aber mit weniger Aufwand denn je fertigen lassen. Oder bei ganz einfachen Dingen wie einem Brot, das heute von der Saat / Ernte des Korns bis zur Lieferung in den SUpermarkt / Bäcker vollautomatisiert hergestellt wird. Die Preise gehen trotzdem hoch aufgrund von künstlicher Inflation und Gewinnmaximierung, die all diese Fortschritte auffressen. Ich kann das nicht leider gut finden.
 
  • Gefällt mir
Reaktionen: Ceberus, BlinkBlink, MojoMC und 2 andere
pipip schrieb:
Das Wesen der Chipentwicklung der letzten 50 Jahre war, dass wir mit jeder Generation eine massive Erhöhung der Leistung zum gleichen Preis oder eben die gleiche Leistung für deutlich weniger Geld bekommen.
Das funktioniert nur, wenn die Preise sinken. Der Chip auf der 3050 kostet etwa das gleiche wie der Chip auf der 970.
 
Zurück
Oben