News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Selbst dafür ist sie zu schlecht
 
SVΞN schrieb:
Eigentlich nicht richtig.
richtiger:
Nvidia streicht Grafikkarte wegen weltweiten User-Protesten.

'Falsch' kann die Bezeichnung niemals sein. - Es haben garantiert hunderte von hochbezahlten Managern am Ranking, den Bezeichnungen, den Spezifikationen uswusf. der gesamten neuen Serie gearbeitet, vermtl. auch noch das Chef-OK abgeholt. Man will doch mit dem Stempel 'falsche Bezeichnung' nicht sagen, dass der komplette Konzern monatelang falsch gearbeitet hat?
/Ironie off
 
Es ist einfach nur noch zum lachen...
Ja, technisch und Featuremäßig sind die Karten gut, das muss man so sehen.

Was sich NV da aber wieder erlaubt und wie die Kunden gemolken und gleichzeitig verarscht werden... einfach nur lächerlich.
Da stellt man wegen des Shitstorms fest, dass das dann doch alles Käse war und cancelt alles.
Machen die sich vorher keine Gedanken?

Sie habens einfach auf die Spitze getrieben, gibt aber genügend Lemminge die der grünen Marke verfallen sind und blind die 4090 kaufen, satter Preisaufschlag - egal, Hauptsache das Ding steht in der Signatur drin :D
 
  • Gefällt mir
Reaktionen: steve127
Da braucht es erst einen riesen Shitstorm damit nVidia das auffällt 🤣
 
Unfassbar Nvidia

Ich hoffe das endlich alle aufhören eure kacke zu kaufen und das Geld AMD geben.

Bei mir habt ihr verschissen!

Erst das mit denn mining Mist Treiber und jetzt das :sex:
 
  • Gefällt mir
Reaktionen: Gene Jackman
Also wenn man sich die Vorgänger anschaut und die Leistung dementsprechend einordnet:

3070 entspricht 2080Ti beim Verbrauch einer 2070 Super
-> 4080 12GB (4070) entspricht 3080Ti beim Verbrauch einer 3070Ti

Ist die Frage, ob und wann DLSS 3.0 wirklich Sinn macht... abgesehen von ein paar neuen Marketing-Games..

Vom P/L ist somit die 3080 (12GB) für 849€ und die 3080Ti für 999€ eindeutig vorzuziehen, sollte die UVP von 1099€ bleiben und die Customs noch teurer werden....

P.S.: Für die 4060 wird es dann wohl so aussehen (und für vermeintlich kommende 4060Ti):

3060 entspricht 2070 Super beim Verbrauch einer 2060 Super
-> 4060 entspricht 3070Ti beim Verbrauch einer 3060Ti

3060Ti entspricht 2080 Super beim Verbrauch einer 2070
-> 4060Ti entspricht 3080 (10GB) beim Verbrauch einer 3070
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman
Ich sehe es schon kommen, die 4080 12GB wird dann halt als 4070 Ti/Super mit nochmals ~150€ Aufpreis kommen und die von Nvidia vorgesehene "echte" 4070 dann für den Preis der 4080 12GB.

Die Karten wurden ja bereits Produziert und Nvidia gibt sich bestimmt nicht die blöße die 4080 12GB als normale 4070, die sie ja eigtl. auch ist, zu verkaufen.

Denn eines ist klar, Nvidia hat hiermit eindeutig bewiesen das man die 4070 einfach zur 4080 hochstufen wollte.
 
Zuletzt bearbeitet von einem Moderator:
Ich bezweifle, dass der "unlaunch" wirklich mit der Benennung (und resultierender Verwirrung) an sich zu tun hat, wie das viele hier so darstellen (bzw. Nvidias Darstellung folgen).
Wenn man sich die Benennungshistorie der Hardwarehersteller anschaut hat die das nämlich noch nie viel gestört.
Wahrscheinlicher ist der sich gerade verändernde Markt. Die (bis dato) 4080 12GB kann als Vollausbau des AD104 hergestellt werden. Im Gegensatz zur 4090 (und anfangs wahrscheinlich auch 4080 16GB), wo auf den ungewöhnlich fetten und damit teuren AD102 zurückgegriffen werden muss (AD102 ist ca genauso groß wie GA102; AD104 hingegen deutlich(!) kleiner als GA104), kann man den AD104 höchstwahrscheinlich zu verhältnismäßig günstigen Preisen herstellen.

Da - wie bereits erwähnt - der Markt sich rapide (zum negativen für die Hersteller) ändert, und AMD in dem Segment auch definitiv irgendwas vergleichbares anbieten wird (-> Konkurrenz), würde ich es für wahrscheinlicher halten, dass sie den Preis hiermit nochmal 'nachträglich' korrigieren wollen. Um das aber den Aktionären nicht als "Preissenkung" verkaufen zu müssen, kommt man jetzt mit dem Grund der Benennung.
Wird halt später als 4070(TI) kommen mit niedrigerem Preis.

Es kann natürlich auch noch irgendein anderer Punkt sein. Aber dass man eine bereits angekündigte Karte wieder zurücknimmt, ist m.M. nach ein viel zu drastischer Schritt (selbst eine Umbenennung nach Ankündigung wäre schon äußerst ungewöhnlich), wenn es nur wegen einer "verwirrenden Bezeichnung" wäre (die in diesem Fall keine rechtlichen Auswirkungen hätte. - Etwas anderes wäre es, wenn die Speichermenge falsch wäre o.ä., aber die Produktklassen sind ein rein von Nvidia definiertes Konstrukt, dass sie dementsprechend auch beliebig verwenden können.)
 
cypeak schrieb:
das sehe ich nicht so - die gpu der 4090 ist von vornherein als ein wahres monster designet worden - das zeigt auch die riesige lücke die zw. der 4080 und er 4090 existiert.
und man sieht dass die 4090 zur zeit noch vielerorts in ein cpu limit läuft - das ding ist quasi ein shader-muskelprotz sondergleichen.
Die Lücke ist so groß, weil die 4080 auf einem so kleinen Chip basiert. Mal zum Vergleich:

BezeichnungChipGrößeFertigungs-verfahren
RTX 2080 (Super)TU104545 mm²12 nm TSMC
RTX 3080GA102 cutdown628 mm²8 nm Samsung
RTX 4080 16 GBAD103379 mm²4 nm TSMC
RTX 4090AD102609 mm²4 nm TSMC

AD103 hat nur etwa 60% der Chipfläche von AD102. Wo soll Leistung auch sonst herkommen?

Bzgl. AMD:
Du bezeichnest AD102 als "Schader-Muskelprotz". Was ist dann Navi31 für dich? Immerhin geht man von 5.120 Shadern auf 12.288 (laut Gerüchten, Faktor 2,4).
AD102 vs. GA102: 100% mehr Rohleistung
Navi31 vs. Navi21 (Achtung Glaskugel): Faktor der Recheneinheiten x Faktor der Taktsteigerung = 2,4 x 1,2 = 2,88; 188% mehr Rohleistung.
Wenn man das irgendwie ausgelastet bekommt, kann die Leistungssteigerung enorm sein. Aktuell sind es ziemlich genau +100%, die die RTX 4090 auf die RX6900XT hat. AMD muss in meinen Augen schon hart reinscheißen beim Chiplet-Design, dass sie in Raster-Performance nicht mindestens gleichziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eller
Unter Umständen Releasen sie als Nächstes gar nicht diese GPU sondern sparen Sie doch für eine später erscheinende 4070 ti 12GB auf, da es ja der Vollausbau ist und werfen stattdessen erstmals eine schwächeren Ableger als 4070 10GB auf den Markt. Wäre Dann aber wohl nicht viel schneller als eine 3080. 🤔

Na man darf gespannt sein.
 
Alleine schon der Versuch die 3090 Leistung mit 12 GB für über 1000€ zu verkaufen, war einfach nur richtig dreist. Aber nun gut, wir kennen die grünen Agenten auch nicht anders und das Internet vergisst nie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman
bigfudge13 schrieb:
.


Sehr schlecht sogar.
Wie kommst du drauf, dass die 4080 16gb um 1500 die 4070 sein sollte?
Ergänzung ()

Vitali.Metzger schrieb:
Alleine schon der Versuch die 3090 Leistung mit 12 GB für über 1000€ zu verkaufen, war einfach nur richtig dreist. Aber nun gut, wir kennen die grünen Agenten auch nicht anders und das Internet vergisst nie.
Aber DLSS 3. Aber RT Kerne.

*Ironie
(bevor mich n roter anfeindet) :D
 
Elverado schrieb:
Wird halt später als 4070(TI) kommen mit niedrigerem Preis.

Denk ich auch, und als Produkt wird es richtig nice sein.
Leider hat das Teil keine Upgrade-Qualitäten, wenn man von einer 3080 kommt.

Da tut man sich schon mit der 4080 16GB schwer, obwohl +40% durchaus in der upgrade Range liegen, aber halt nur 20% stärker als die 3090ti, und die 4090 ist mal knapp doppelt so schnell im Raster.

es fehlt eine attraktive 4080ti :)
also aktuell ist es halt 4090 oder nichts. Von meiner Warte aus. :)
 
  • Gefällt mir
Reaktionen: LTCMike und Elverado
McLovin14 schrieb:
Die Lücke ist so groß, weil die 4080 auf einem so kleinen Chip basiert. Mal zum Vergleich:
Schau dir mal lieber die Anzahl Transistoren oder die Steigerung zur nächsten Generation an. Die Chipfläche ist vollkommen unerheblich, wenn teilweiser auf alten Fertigungsprozessen hergestellt wird.
12 nm war nur ein Lauer Aufguss von 16 mm und 8nm ist auch veraltet gewesen. AD103 hat erheblich mehr Transistoren als GA102.
Ein TU104 hat nur etwas mehr als ein GP102 und ein GA104 kaum mehr als ein TU102.

Was jetzt neu ist, dass AD102 einen neuen Prozess direkt voll ausnutzt. Das war vorher nie der Fall. Ein GP102 hatte nur 470 mm², erst TU102 ging in die vollen.

Die Namensgebung 4080 12 GB war sicher daneben. Aber wenn manche meinen, das wäre eine 4060, dann ist das genauso lächerlich. Der AD104 hat genau so viele Transistoren wie ein GA102. Das wurde vor Ampere x080 genannt. Ab Ampere x070.
Der Abstand zum Top Chip ist sicherlich größer, aber der ist eben auch ungewöhnlich groß geworden.
AD103 als 4080 und die AD104 als 4070 ist vollkommen ok.

McLovin14 schrieb:
Bzgl. AMD:
Du bezeichnest AD102 als "Schader-Muskelprotz". Was ist dann Navi31 für dich? Immerhin geht man von 5.120 Shadern auf 12.288 (laut Gerüchten, Faktor 2,4).
AD102 vs. GA102: 100% mehr Rohleistung
Navi31 vs. Navi21 (Achtung Glaskugel): Faktor der Recheneinheiten x Faktor der Taktsteigerung = 2,4 x 1,2 = 2,88; 188% mehr Rohleistung.
Wenn man das irgendwie ausgelastet bekommt, kann die Leistungssteigerung enorm sein.
Und wenn es nicht ausgelastet werden kann, dann ist die Leistungssteigerung mittelmäßig.
Ampere hat auch bei den FP32 Flops 170% auf Touring zugelegt. Die Performancesteigerung kenne wir.
Und letzte Gerüchte besagen, dass die ALUs pro CU verdoppelt werden, wie bei Ampere.
 
Zuletzt bearbeitet:
Melu76 schrieb:
Da tut man sich schon mit der 4080 16GB schwer, obwohl +40% durchaus in der upgrade Range liegen,
Für mich kommt erst wieder ein Upgrade in Frage wenn ich +100% mehr für 750€ bekomme, ausgehend von meiner 6900xt. Bei der kommenden Generation kann ich es wahrscheinlich knicken, mal sehen was die nächste in 2 Jahren so bringt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Das ist schlecht, damit steigt der Preis der Karte, denn jetzt müssen alle Verpackungen entsorgt werden und eine Mannschaft hochbezahlter Produktdesigner Monate lang an einem neuen Verpackungsdesign arbeiten. Und wer hat Schuld? Wir alle. Hätten wir doch lieber einfach die Bezeichnung so annehmen und nicht darüber meckern sollen.
 
  • Gefällt mir
Reaktionen: Frozzy
Zurück
Oben