News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

@SFVogt

Insgesamt bleibt der monotlitische trotzdem teurer in der Herstellung.
Hat man ja wunderbar bei Ryzen VS core I gesehen und wurde auch mehrfach erläutert.

Und der Ausschuss bei der Diegröße ist gerade in den ersten Monaten nicht zu unterschätzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, eXe777, Icke-ffm und eine weitere Person
SVΞN schrieb:
Add-in-Board (AIB) Partners = Hersteller von Custom-Designs auf Basis der GPUs von beispielsweise Nvidia und AMD.

Das ist nicht ganz korrekt. Die Terminologie AIB hat nichts mit Customs-Designs zu tun. Jede Grafikkarte ist AIB, völlig unabhängig vom Design, dem PCB oder der Kühlung. Ein AIB Partner kauft halt die Chips der Hersteller und bastelt, sofern mit den Herstellervorgaben konform, seine eigene Lösung. Eine Founders Edition ist aber auch eine AIB. Eigentlich ist AIB nur ein Synonym für eine GPU, da alle GPUs AIBs sind.
 
  • Gefällt mir
Reaktionen: bensen
SVΞN schrieb:
Ich hoffe für Nvidia, dass das nicht passieren wird. Das wäre nämlich dann gleich der nächste Fail hinsichtlich der Produktbezeichnung und nicht weniger unpassend wie die Bezeichnung GeForce RTX 4080 12GB zuvor.
Ist halt schwierig, weil ja auch noch interessant wird, wo sich der Relaunch preislich positionieren soll. Als 4070 dürfte ein gutes Stück unter den bisher als 4080/12G geplanten 1099€ landen. Da steht Nvidia jetzt vor dem Problem, die Karte entweder weiterhin irgendwie naher der 1099€ (also 4070 Ti) zu positionieren oder korrekt entsprechend der Leistung als 4070 non-Ti bringen, dafür aber ein gutes Stück günstiger.

Und dann ist auch die Frage, wer trägt die Differenz zur geplanten UVP der 3080/12GB? Je nachdem, wieviel Nvidia den Partner für die Chips in Rechnung gestellt hat, werden die nicht viel Spielraum mit dem Preis haben, bevor sie in den Verlustbereich kommen. Die Alternative wäre, Nvidia kommt den Partnern entgegen und (rückwirkend) einen Preisnachlass auf die Chips.

Die Preisnachlässe sehe ich aber nicht wirklich, wenn Nvidia bisher gerade mal bei den Verpackungskosten entgegen kommt. Die dürften doch der kleinste Posten in den Produktionskosten der Karten sein und die Erstattung ist eher eine PR-Maßnahme als ein wirkliches Entgegenkommen.
 
SVΞN schrieb:
Ich hoffe für Nvidia, dass das nicht passieren wird. Das wäre nämlich dann gleich der nächste Fail hinsichtlich der Produktbezeichnung und nicht weniger unpassend wie die Bezeichnung GeForce RTX 4080 12GB zuvor.

Ich hoffe, Nvidia hat aus dem wirtschaftlich eher unproblematischen, aber nicht weniger peinlichen Move etwas gelernt und ordnet die Grafikkarte dort ein, wo sie hingehört. Maximal als GeForce RTX 4070, aber wirklich maximal.
Das ist hier aber nun mal nicht Wünsch-Dir-Was, und das Zurückziehen einer Karte wird Nvidia mit Sicherheit nicht dazu veranlassen, mehr über den Haufen zu werfen als unbedingt nötig.

Produktbezeichnungen waren (nicht nur Nvidia) schon immer egal und die lassen sich auch nicht einklagen. Wenn's danach geht, dürfte die 16-GB-4080 auch nicht 4080 heißen, weil sie - anders als noch die 3080 - nicht denselben Chip wie die 90er verwendet, sondern den AD103 statt dem AD102. Sie heißt aber trotzdem 4080. Und jetzt?

Und wo du gerade von Peinlichkeit sprichst: Was glaubst du denn, wie peinlich es für Nvidia wäre, das Ding als 4060Ti zu bringen, nur um sich von den Leuten dann - zu Recht - empört fragen zu lassen "Echt jetzt?! Und das Ding wolltet ihr uns ernsthaft mal als 4080 verkaufen?" Das wäre doch direkt der nächste Riesenlacher und PR-GAU. Will. Not. Happen.

Das Ding kommt als 4070Ti. Weil es für Nvidia maximal gesichtswahrend ist und weil man so die 4070 und alle Karten darunter genau so bringen kann, wie man es von Anfang an vor hatte. Alles andere ist reine Träumerei.
 
catch 22 schrieb:
Des weiteren, gibt es denn überhaupt schon bezahlbare UHD 120+Hz OLED Displays in 32 und 27"? Nicht jeder will sich Monster mit 44" (?) und mehr auf den Schreibtisch stellen, da womöglich der Platz (Breite wie auch Sitzabstand) nicht vorhanden ist.
Märchen.
42" LG OLEDs C2 z.B. kostet auf Amazon ca. 1000-1500€, hat alles was du brauchst und lässt sich locker bei 80cm Abstand optimal genießen, ohne das es Gesundheitsschädlich wird...
Hatte den 48", der war zu groß. 42" ist für Tische mit 50-70cm Tiefe ausreichend.
Optimal werden 38" oder 32", die kommen bald.
120Hz reichen hier auch aus. Die Optik des Bildes ist hier 100x mehr wert als jedes FPS über 120...
Und JEDER der hier labert er würde dem nicht so sein, ärgert sich nur dumm und dämlich für seinen VA/IPS 32" oder 27" 4K Klopper 1000-2000€ gezahlt zu haben!
Woher ich das weiß? Weil ich Dämlack an dem Punkt war :D

Und wer sich für 2K ne 4090 leistet, hat auch das Geld für nen gscheiten OLED von LG und da die Graka in 4K eh keine 120 FPS Maxed Out ohne Upscaling schafft (oder gerade so), passt das eh ;)


Achja und zum Thema:
NV ist echt langsam das letzte.... ich hoffe AMD regelt das jetzt.... und wenn ich schlechteres RT bekomme und selbe Rasterizing Leistung bei max. 1500€ kauf ich die mutmaßliche 7900XT!
Zum Glück hab ich letztens wieder Vernunft walten lassen und die 4090 bei Mindfactory aus dem Warenkorb geschmissen ....
 
  • Gefällt mir
Reaktionen: Bright0001, Nicop, Onkel Föhn und 3 andere
shaboo schrieb:
Auch wenn bisher erst 4080 und 4090 erschienen sind, wird Nvidia von Anfang ein eine ziemlich präzise Vorstellung davon gehabt haben und haben, wie 4050 bis 4070 und sämtliche Ti-Modelle aussehen werden, und diese Vorstellungen werden nicht einfach dadurch komplett auf den Kopf gestellt, dass die 12-GB-4080 jetzt doch nicht so kommt, wie sie kommen sollte.
Ich könnte mir auch vorstellen, dass Nvidia die Karte erst gar nicht als 4080 sondern als 4070 geplant hat und sich dann aus irgendeinem Grund umentschieden hat (3000er verkaufen sich nicht so schnell ab wie gedacht und Ada muss höher im Preis bleiben oder AMD ist schwächer als gedacht).
Dass so eine Dual 4080 von Anfang an geplant war, ist jetzt nicht so zwingend.
4060 Ti ist aber trotzdem lächerlich. Ich weiß gar nicht wo solche Hirngespinste herkommen. Als was sollen kleinere GPUs verkauft werden? 4020?
 
  • Gefällt mir
Reaktionen: BatCatDog und shaboo
bensen schrieb:
Ich könnte mir auch vorstellen, dass Nvidia die Karte erst gar nicht als 4080 sondern als 4070 geplant hat und sich dann aus irgendeinem Grund umentschieden hat (3000er verkaufen sich nicht so schnell ab wie gedacht und Ada muss höher im Preis bleiben oder AMD ist schwächer als gedacht).
Genau das würde ich so ähnlich auch vermuten. Mittlerweile dürfte Nvidia wohl auch eingesehen haben, dass sie das Ding besser entweder als 4070 oder - so lange man Ampere noch abverkaufen und nicht für unnötig Konkurrenz sorgen will - erst mal gar nicht gebracht hätte. Nach dieser PR-Lachnummer ist aber jetzt halt erst mal Schadensminimierung angesagt, und vor diesem Hintergrund wäre 12-GB-4080=4070Ti definitiv die logischste Variante.
 
bensen schrieb:
4060 Ti ist aber trotzdem lächerlich. Ich weiß gar nicht wo solche Hirngespinste herkommen. Als was sollen kleinere GPUs verkauft werden? 4020?
Vergleich doch einfach mal Chips, Ausstattung und Perfomance-Unterschiede der letzten Generationen und dann der jetzigen 4000er.......da sieht man absolut kinderleicht das die 4080 12GB maximal eine 4060 TI sein kann und die 4080 16GB maximal eine 4070.

Das Ergebnis aus dem Umstieg Samsung - TSMC hat Nvidia überrascht und als Resultat hat man schnell diese Melkidee an den Mann gebracht.

Lächerlich ist nur diese bei stark erhöhtem Preis als was anderes zu kaufen. Aber funktioniert ja trotzdem ganz gut, warum also nicht wenn sich genug Deppen finden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, alkaAdeluxx, ThePlayer und 11 andere
bensen schrieb:
4060 Ti ist aber trotzdem lächerlich. Ich weiß gar nicht wo solche Hirngespinste herkommen. Als was sollen kleinere GPUs verkauft werden? 4020?
Diese """Hirngespinste""" kommen von der Cuda-Core-differenz zur x90. Die 4080-12GB hat nur 41.7% im Vergleich dazu hat eine RTX3070 54.8%. Das sind gute 10% weniger bei der RTX40. Siehe dazu den Reddit Thread hier: https://www.reddit.com/r/hardware/comments/xxetms/geforce_4000_cards_relative_position_to_3000/
 
  • Gefällt mir
Reaktionen: eXe777, BatCatDog, ThePlayer und eine weitere Person
Gr33nHulk schrieb:
Vergleich doch einfach mal Chips, Ausstattung und Perfomance-Unterschiede der letzten Generationen und dann der jetzigen 4000er.......da sieht man absolut kinderleicht das die 4080 12GB maximal eine 4060 TI sein kann und die 4080 16GB maximal eine 4070.
Genau, wenn ich jede Klasse mit den vorigen Generationen vergleiche, dann ist's eben ne 4080 und 4070.
Eine 3070 hatte 2080Ti Performance und eine 4080 12 GB wird 3080Ti Performance haben.

Innerhalb der 4000er Generation ist der Unterschied zwischen 102 und 104 größer als sonst, weil der Sprung beim AD102 diesmal abnormal groß ist.

4080 12GB war absoluter Käse, aber 4070 passt voll und ganz.
Ergänzung ()

Slayher666 schrieb:
Diese """Hirngespinste""" kommen von der Cuda-Core-differenz zur x90. Die 4080-12GB hat nur 41.7% im Vergleich dazu hat eine RTX3070 54.8%. Das sind gute 10% weniger bei der RTX40. Siehe dazu den Reddit Thread hier: https://www.reddit.com/r/hardware/comments/xxetms/geforce_4000_cards_relative_position_to_3000/
Siehe oben, der AD102 ist abnormal groß:
Man kann sich mal die Transistoren anschauen:
GM200 zu GP102: x1.5
GP102 zu TU102: x1.55
TU102 zu GA102: x1.52
GA102 zu AD102: x2.7

Die anderen GPUs sind eben nicht x2.7 gewachsen, sondern im üblichen Maße.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen und BatCatDog
Gr33nHulk schrieb:
Vergleich doch einfach mal Chips, Ausstattung und Perfomance-Unterschiede der letzten Generationen und dann der jetzigen 4000er.......da sieht man absolut kinderleicht das die 4080 12GB maximal eine 4060 TI sein kann und die 4080 16GB maximal eine 4070.
Das kann man gerne noch weitere tausendmal schreiben (auch wenn es mittlerweile auch der Letzte mitbekommen haben wird), ändert aber nichts daran, dass das Nvidia schlicht nicht kümmert. Als ob die selber nicht genau wüssten, wie ihre Vorgängergenerationen ausgesehen haben! Und wer ernsthaft glaubt, dass das Canceln der kleinen 4080 daran etwas grundlegend geändert hat oder ändern wird, der glaubt auch, dass Zitronenfalter ... na, ihr wisst schon.
 
shaboo schrieb:
Das kann man gerne noch weitere tausendmal schreiben (auch wenn es mittlerweile auch der Letzte mitbekommen haben wird), ändert aber nichts daran, dass das Nvidia schlicht nicht kümmert.
Kann man gerne auch tausendmal schreiben bis es der letzte mitbekommt: es interessiert niemanden ob Nvidia das kümmert, darum geht es doch in keinsterweise! Den Kunden sollte es kümmern, das ist was zählt!
 
  • Gefällt mir
Reaktionen: PegasusHunter und LamaMitHut
bensen schrieb:
Siehe oben, der AD102 ist abnormal groß:
Man kann sich mal die Transistoren anschauen:
GM200 zu GP102: x1.5
GP102 zu TU102: x1.55
TU102 zu GA102: x1.52
GA102 zu AD102: x2.7

Die anderen GPUs sind eben nicht x2.7 gewachsen, sondern im üblichen Maße.
Trotzdem sind die Differenzen von Generation zu Generation relativ konstant gewesen.
Also der relative Unterschied von xx70 zur nächsten xx70 war ähnlich dem Unterschied für die xx80er.

Hier ist jetzt nur der Unterschied von 3090 zu 4090 groß, die restlichen Karten haben weit weniger Unterschied.
Während die 4090 ~85% schneller ist als die 3090, sind es bei 3080 zu 4080 nur noch 50%.
Und selbst wenn Nvidia die 4080 12GB nun einfach genau so als 4070 bringen sollte, liegt der Unterschied von 3070 zu 4070 ebenso nur bei ~55%. Ich gehe aber davon aus, dass die finale 4070 schwächer wird.

Und das passt halt nicht zum Preisunterschied zum jeweiligen Vorgänger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1 und Onkel Föhn
Gr33nHulk schrieb:
Kann man gerne auch tausendmal schreiben bis es der letzte mitbekommt: es interessiert niemanden ob Nvidia das kümmert, darum geht es doch in keinsterweise! Den Kunden sollte es kümmern, das ist was zählt!
Wir diskutieren hier aber gerade darüber, ob und in welcher anderen Form die 12-GB-4080 von Nvidia auf den Markt gebracht wird, und dafür ist es selbstverständlich relevant, was Nvidia kümmert und was nicht. Sollte logisch sein.
 
shaboo schrieb:
Das kann man gerne noch weitere tausendmal schreiben (auch wenn es mittlerweile auch der Letzte mitbekommen haben wird), ändert aber nichts daran, dass das Nvidia schlicht nicht kümmert. Als ob die selber nicht genau wüssten, wie ihre Vorgängergenerationen ausgesehen haben! Und wer ernsthaft glaubt, dass das Canceln der kleinen 4080 daran etwas grundlegend geändert hat oder ändern wird, der glaubt auch, dass Zitronenfalter ... na, ihr wisst schon.
Genauso kann man diese Gegenargumentation so oft bringen wir man möchte, es ändert nichts daran, das NV hier klar Versucht hat die Leute nicht nur max zu Melken, sondern regelrecht abzuziehen, was selbst für den Laden ein neues Hoch für moralische Tieflage darstellt.

Du kannst nicht erwarten, das ein Klassifizierungsschema, welches seit über 10 Jahren besteht, einfach über Bord geworfen werden kann, ohne das es jemandem negativ aufstößt. Denn hier geht es nicht nur um Namen, sondern Leistungsversprechen, auf die man sich wie gesagt schon seit vielen Jahren verlassen hat. Wenn du weniger als die Hälfte der Cores und ein abgespecktes Speicherinterface hast, dann hat das auch Konsequenzen. Diesem Chip würde viel eher die Puste ausgehen als es der Name suggeriert. Wenn die ersten richtigen Tests zu diesem Produkt kommen, wird ganz schnell klar werden, das hier nicht durchschnittlich 3080ti/3090 performance heraus kommt, sondern eher Zwischen 3070ti und 3080 12Gb, je nach Spiel und setting. Mehr ist mit so einem derart beschnittenen Chip nicht zu holen. Jede Klasse hat ihr Preissegment, und daher ist sehr wohl ein Problem wenn du 60 Klasse performance zum Preis von einer 80ti verkaufen willst. Das geht sogar schon Richtung arglistige Täuschung.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, ThePlayer und Onkel Föhn
Neodar schrieb:
Was das in Sachen Ressourcenverschwendung und Umwelt bedeutet, ist natürlich auch klar. Tausende Verpackungen werden ungenutzt vernichtet. Eine Verschwendung sondergleichen.
Na ja, unnötig und unschön ist das ganz sicher, aber eine Verschwendung sondergleichen?

Ich weiß natürlich nicht, wieviel Kartonagen bereits angefertigt und bedruckt waren. Verglichen mit dem, was hier in Deutschland aus dem Online-Versand arbeitstäglich im Altpapier landet, dürfte das jedoch nicht besonders ins Gewicht fallen (lt. Statista wurden z.B. im Jahr 2021 3,9 Mrd Pakete versendet).
Das macht es wie geschrieben nicht besser, aber immerhin lässt sich ein Großteil der Ressourcen der Wiederverwendung zuführen.
 
  • Gefällt mir
Reaktionen: Cohen und Bright0001
SFVogt schrieb:
Ich habe auf deine provokante 1300Eur AMD vs 3000Eur nVidia Aussage reagiert, nichts interpretiert. Bei nVidia und dem EVGA Thema hieß es, die 3090 (Ti) wird bei dem Preislevel wo sie jetzt stehen ~1.100 bis 1.300 Euro mit Verlust verkauft, also gar keine Marge mehr bei vermutlich billigerem Samsung Chips. Dann glaubst du AMD haut ein ähnlich aufwendiges Produkt was PCB, Speicher etc. mit deutlich teurer 5nm Fertigung und vielen Chips auf dem Package für 1.300Eur raus und macht noch 50% Marge? Was ist das wenn nicht Träumerei? Wenn das möglich wäre, könnte die EVGA Aussage wohl nicht der Wahrheit entsprechen.
Ich glaube tatsächlich nicht, dass dies die volle Wahrheit war.
Erstmal kennt man die Marge der Abteilungen von AMD und Nvidia und deren Marge ist bei 54- 68 % !!
Zweitens, wer weiß schon was Evga da gerechnet hat. Wahrscheinlich mit Grantie und Ersatzgeräten + man weiß ja, dass man sehr viel Geld in Luxus-Kondensatoren investieren kann.
Ob das zweckmäßig ist, wage ich zu bezweifeln und dann kommen noch die ganzen Garantieansprüche bei Evga dazu, weil sie die letzten Jahre oft Mist gebaut haben.

Jedes Unternehmen macht Verlust, wenn es pro verkaufter Einheit zweimal liefern muss.

Irgendwer hatt mal ausgerechnet was eine Karte wie die 6900XT in der Produtkion kosten würde, es war güsntig genug um noch mit der 650 Euro-Karte 6800XT Gewinn zu machen.

Vielleicht hat da jmd. fundierte Information ???
Anbei faire Preise nach Leistung

Ich habe hier mal gerechnet:
http://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer

ein 330m² Chiplet kostet dann ca. 85$
dazu kommen dann noch 6 IO Dies für meinetwegen noch mal 60$
Das scheint mir machbar mit einem Endpreis von 1299 Euro, aber ich bin bereit bis 1399 Euro zu zahlen.

https://videocardz.com/newz/this-is...-should-cost-based-on-their-performance-alone
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
^Q^ schrieb:
Jede Klasse hat ihr Preissegment, und daher ist sehr wohl ein Problem wenn du 60 Klasse performance zum Preis von einer 80ti verkaufen willst.
Natürlich ist das ein Problem und ich habe auch mit keinem Satz gesagt, dass ich das in Ordnung finde. Ganz im Gegenteil finde ich das komplett kacke und habe mich selber auch ausgiebig darüber aufgeregt. Siehe hier: https://www.computerbase.de/forum/t...her-bezeichnung.2107861/page-26#post-27395690

Mich überrascht einfach nur der Optimismus, dass sich das jetzt um 180 Grad drehen wird und dass alles korrigiert wird und alle zukünftigen Karten "korrekt" klassifiziert werden. Nvidia hat doch gerade erst gezeigt, zu welchen totalen Ass Moves sie in der Lage und bereit sind. Von daher würde ich erwarten, dass die Abzocke und das Verwirrspiel in genau dem Maße weitergehen werden, wie man beim Kunden damit durchkommt, und beim Kunden kommt man bekanntlich mit so einigem durch. Natürlich würde ich mir das auch anders wünschen, aber man muss halt unterscheiden zwischen (eigenem) Wunsch und realistischer Erwartung.

Eines ist doch auch klar: Wären die drei Karten genau so auf den Markt gekommen, stünden seit Wochen in den Läden und hätten sich allesamt bestens verkauft, dann wäre der Shitstorm exakt der gleiche gewesen, aber er hätte exakt null bewirkt, weil die Verkaufszahlen Nvidia Recht gegeben hätten.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
shaboo schrieb:
Das sehe ich zu 100% genauso. Eine Richtigstellung wäre, die Karten 4060ti und 4070 zu nennen und entsprechend zu bepreisen. Egal wie sie die 4080 Clown edition nun bezeichnen, sie wird def. nicht den gerechtfertigten preispunkt haben. Eine 4070 für 1100€ können sie sich sonst wo hinschieben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: alkaAdeluxx, Gene Jackman und Wintermute
Schon arg, wenn eine Firma so eine Vormachtstellungen im Markt hat, das sie sich so eine Blamage geben kann und eigentlich nichts zu befürchten hat.

Intel kann nicht schnell genug konkurrenzfähig werden und hoffentlich jat AMD was richtiges parat im 4070/80 Segment.
 
  • Gefällt mir
Reaktionen: eXe777, Recharging und Onkel Föhn
Zurück
Oben