News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Syrato schrieb:
Könnte so ein Abschnitt auch in den Artikel, mit dieser konkreten Haltung?
Da es sich in erster Linie um die Sicht der Dinge respektive den Kenntnisstand des Autors handelt und es sich um eine News und keinen Kommentar handelt, ist das hier im Forum schon ganz gut aufgehoben.

Danke dir für das positive Feedback mein Freund.
 
  • Gefällt mir
Reaktionen: ChrFr, konkretor, simosh und 2 andere
mykoma schrieb:
Wäre auch meine Vermutung, der Chip des 12 GB Modells ist ja schon ein anderer als auf dem 16GB Modell.

Ich denke, das Nvidia hier versucht aus ihrer geplanten Kundentäuschung noch eine gute Werbung rauszuholen, aber ich gehe davon aus, das sie vor allem das Ziel haben, möglichen rechtlichen Konsequenzen, insbesondere in den USA aus dem Weg zu gehen.
Kundentäuschung und rechtliche Konsequenzen? Weil die technischen Daten nicht zum Namen passen?
Jeder ist doch selbst verantwortlich, ob er etwas zu einem bestimmten Preis kauft und ob ihm der Name gefällt.
 
Gerithos schrieb:
Das ist nichts persönliches, aber ich kann diesen Satz nicht mehr lesen, da hat nvidia ganzen Arbeit geleistet
Das fühl ich komplett. Ein Kumpel von mir is auch in dem G-Sync-System gefangen und freundet sich jetzt so ganz langsam mit dem Gedanken an, seinen Monitor vielleicht mal zu verkaufen und durch einen entsprechenden adaptive-Sync-Monitor zu ersetzen, um beim nächsten Grafikkarten-Kauf mehr Freiheit zu haben. Is aber schon ein emotional schwerer Prozess.
 
RotkohlRitter schrieb:
Bin mal gespannt, ob die dann als 4070/ti mit niedrigerer UVP kommt.
Niedrigerer UVP, der war gut :P ;)

Auch wenn ich sagen muss, für 799 EUR würde ich mir die "ex." RTX 4080 12 GB vielleicht sogar kaufen.

Aber mein Tipp: Die wird RTX 4070 Ti genannt, am Preis ändert sich nichts.
Von der RTX 4080 12 GB sind ja schon tausende produziert worden, die wird man wohl kaum weg werfen. Muss man ja "nur" um labeln und eine neue Firmware drauf. Die Kartons dürften aber wohl alle weg geworfen werden. Fragt sich nur, wer das zahlt. ;)
 
Metallmann schrieb:
die 60er reihe kostete immer um die 200
die 70er reihe kostete immer um die 300-400
die 80er reihe kostete immer um die 500-600
Passiert ist eigentlich nur, dass Nvidia - wie auch viele andere Unternehmen in und abseits der IT-Branche - ihre Preise unter dem Deckmantel der "allgemeinen Pandemielage und weltwirtschaftlichen Situation" in absurde Dimensionen treiben. In Wahrheit haben wir in erster Linie einfach nur verkappte Preissteigerungen und da wir (und mir "wir" meine ich "der Westen") abseits aller Unkenrufe nach wie vor in sehr großem Wohlstand leben, sind die Leute dazu bereit, die hohen Preise zu bezahlen. Dazu kommt, dass Nvidia - so zumindest meine langjährige Erfahrung und die Erfahrung in meinem gesamten technikaffinen Umfeld - als Firma zwar recht unsympathisch ist, dafür aber sehr gute und zuverlässige Produkte abliefert und damit fast schon in Richtung eines Monopols rückt. AMDs immer mal auftauchende "nette Karten" zwischendurch reichen nicht, um Nvidia langfristig ernsthafte Konkurrenz zu machen, da muss mehr bei rum kommen zu besserem Preis.

SVΞN schrieb:
Die Aktion, so peinlich sie auch ist, sorgt einzig in der „Szene“ bzw. der Branche für Gesprächsstoff und Lacher. Für Nvidias Business ist das überhaupt kein Problem. Hier wird natürlich reiflich darüber diskutiert, wirtschaftlich ist die Sache eine kleine Nummer, auch wenn Jensen die peinliche Geschichte nicht gefallen wird.
Ich würde "die Szene" nicht unterschätzen. Als damals AMDs "Ryzen" Prozessoren aufkamen, war/ist der Erfolg der Reihe, in erster Linie den ganzen "roten Fanboys" geschuldet, die zum Teil abartig in Foren wie diesen Werbung dafür gemacht haben bzw. sehr wohlwollende Worte gefunden haben und das schwappt dann irgendwann auf die breite Masse über. Die Prozessoren waren objektiv natürlich sehr gut, aber der entstandene Hype und die nach und nach immer besser werden Verkäufe waren nicht AMDs Marketingabteilung zu verdanken, sondern in erster Linie Foren wie diesem hier.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und simosh
  • Angst vor möglichen Konsequenzen [insbesondere in den USA] in Form von Rechtsstreitigkeiten wegen einer möglichen Kundentäuschung?
  • Angst, den Abverkauf der noch reichlich auf Lager liegenden GeForce RTX 3090 Ti, 3090, 3080 Ti und 3080 zu gefährden?
  • Angst, den bereits langsam einsetzenden Shitstorm der Szene über die unpassende Produktbezeichnung aussitzen zu müssen?
  • Einsicht, dass die Produktbezeichnung wirklich nicht gelungen und der Versuch eine 4060 Ti als 4080 zu verkaufen in die Hose gegangen ist?
  • Kenntnis über die Leistungsfähigkeit der RX 7800 XT, 7900 XT und [ggf.] 7950 XT?

Was auch immer Nvidia zu der Korrektur der ursprünglichen Entscheidung gedrängt haben mag, wir werden es nie erfahren.

Innerhalb der Branche und in der Szene der Nerds, zu denen ich uns alle zähle, sorgt das Umkippen Nvidias zwar für reichlich Gesprächsstoff, doch auf wirtschaftlicher Ebene ist das für Nvidia keine große Geschichte.

Wahrscheinlich müssen jetzt erst einmal die Boardpartner besänftigt werden. ^^

Insgesamt eine ungewöhnliche und diskussionswürdige Geschichte, über die aber spätestens zum Release der RTX 5000 niemand mehr sprechen wird.*

*) es sei denn, Nvidia stellt eine 5080 16GB und 5080 12GB vor. 😄
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Smartbomb, LTCMike und 13 andere
SVΞN schrieb:
Solche Entscheidungen werden mindestens auf L2-Ebene getroffen und in der Regel auch der L1-Ebene zur Abnahme vorgelegt.

Mit der ursprünglichen Entscheidung, eine 4090 und zwei 4080 anzukündigen, hat die Marketingabteilung rein gar nichts zu tun.
Klar entscheidet das nicht Marketing allein. Aber die sitzen bei so einem großen Produktlaunch sicher mit am Tisch, wie andere Abteilungen auch.
Man hat einfach gedacht, dass man die Kunden nach oben weiter schröpfen kann. Deswegen hat man mal gleich 2 Karten als 80er etablieren wollen (wie bei der 3080 ja auch schon mit der ti sogar 3 Modelle). Denn nur so kann man die riesigen Preislücken abdecken. Im Grunde ist die 4080 16Gb eine normale 4080. Ist also schwer zu erklären, warum die sich ggü. der 3080 mal eben preislich mehr als verdoppelt. Man versucht den gleichen Trick wie damal mit der Turing und fliegt aber richtig auf die Fresse, weil wir uns in Regionen bewegen, wo keiner mehr mithalten kann, während die Turing seinerzeit die Pascal nach oben hin "nur" nach 1000Eur ergänzt hat und jetzt nicht mal mehr 2000 Eur reichen (zur Erinnerung: wir reden hier von einer 4090 und nicht von einer 4090 Ti, wenn man die Parallen zur 2080Ti heranzieht).
NV hat sich selbst ins Knie geschossen, da die 4080 12Gb ein absoluter Rohrkrepierer ist, denn dann fährt man ja selbst mit einer überteuerten 3090 besser weil sie wenigstens 24GB hat, oder kann gleich zur 3080Ti greifen. Wenn das alles ist, was von NV nach 2 Jahren und den großen Ankündigungen übrig bleibt, dann gute Nacht.
SVΞN schrieb:
Die Aktion, so peinlich sie auch ist, sorgt einzig in der „Szene“ bzw. der Branche für Gesprächsstoff und Lacher. Für Nvidias Business ist das überhaupt kein Problem.

SVΞN schrieb:
Hier wird natürlich reiflich darüber diskutiert, wirtschaftlich ist die Sache eine kleine Nummer, auch wenn Jensen die peinliche Geschichte nicht gefallen wird.
Ich sehe das nicht so entspannt. Denn es entsteht der Eindruck, dass der Launch überhastet und unüberlegt erfolgte, und das bleibt im Gedächtnis. Deswegen wird NV nicht pleite gehen, das ist schon klar. Aber ein Stückweit besteht schon der Eindruck, dass man sich verzockt hat und mit der Hand im Honigtopf erwischt wurde, weil man einfach nicht genug bekommen kann. Man hat im Eindruck des Letzten Jahres erwartet, dass Kunden alles mitmachen und alle Preise bezahlen und hat die Änderungen der letzten 6 Mo offensichtlich verdrängt. Andererseits ist das ein Fail mit Ansage, wenn man auf die vollen Lager mit 3xxxer Karten schaut. Sonst würden die nicht wie blei in den Lagern liegen. Die Leute haben halt gerade keine 1000-2000 eur für eine Grafikkarte, wenn die Lebenshaltungskosten gerade explodieren (von ein paar mal abgesehen, die 2500 Eur für eine 4090 auf den Tisch legen, weil es sie nicht juckt).

Für das Business hat das sehr wohl Auswirkungen. Welche Karten will man jetzt verkaufen? Da braucht es dringend die 4070 und 4060, und das wahrscheinlich schneller als NV lieb ist und sie es selbst erwartet haben. Denn der Kundenstamm, der 4stellig in Grakas investiert, ist übersichtlich und kein Massenmarkt, der die 10mrd Mehrinvestitionen in die Fertigungsmenge refinanziert.
NV ist also unter Druck und muss jetzt liefern. Die 4070 für 1000 Eur kauft aber auch keiner. Da sie ja gemessen an den bisherigen Karten kaum schneller als eine 3080 sein dürfte (wenn die 4080 12GB schon nur 10% schneller als diese war.)
Man darf gespannt sein. Aber nach meinen Eindruck hat NV den Vorteil des frühen Launches gerade verspielt.
Und nur um das klar zu machen, ich bin weder NV noch AMD Fanboy.

EDIT: Und noch zu ergänzen. Natürlich hat das auch Auswirkungen aufs Business. Karten wurden bestellt, Marketing vorbereitet. Verträge mit Kunden geschlossen, etc. Die Karte vom Markt zu nehmen, ist ja nicht kostenlos, da wurden sicher Millionen in den Sand gesetzt. Vielleicht wird das später kompensiert, indem man sie unter einem anderen Label verkauft (4070ti z.B.), aber für den Moment ist das erstmal richtig teuer und unangenehm.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: end0fseven, Tanzmusikus, Pille90 und eine weitere Person
Creeping.Death schrieb:
Was für eine Aufregung mal wieder …:rolleyes:

Es ist mit persönlich sowas von egal, wie sie die Karten nennen. Wenn man ungefähr wissen möchte, wie schnell eine Karte ist muss sowieso Benchmarks studieren.
Die ganzen dämlichen Modellbezeichnungen bestehend aus Nummer und eventuellen Zusätzen wie „Ti“ oder „Super“, vielleicht auch mal „Titan“ waren doch schon immer total unübersichtlich. Genauso Banane wie 3080 mit 10 oder 12GB.

Ich zitiere mal aus einem engl. Forum:

List of highest level GeForce GPUs in each generation with a 192 memory bus width:

GTX 760
GTX 960
GTX 1060
GTX 1660
RTX 2060
RTX 3060
RTX 4080
Ausgenommen Super oder Ti Versionen, die 60er ab der 700er Serie waren immer mit 192er Bus. (auch bei der 760/960er gabs Abweichungen aber immer ein 192bit Modell).
Also ist die 4080 12GB eigentlich ne 4060. Und kann mir keiner sagen, dass das bei nvidia keiner wusste.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: end0fseven, Tanzmusikus, Celinna und 2 andere
Die dicke FE mit komplett ausgereizter Technik+ dicker Qualität und dann die Boardpartner mit dem Unlaunch überraschen... Damit erklärt sich mir zu 100% die Posse um EVGAs Ausstieg.
Abseits dessen glaub ich nicht das die Community so einen großen Eindruck auf NV mit der Kritik hat, ich hoffe eher das sie Wind von AMDs Lineup bekommen haben und uns hier (4090 ausgenommen) ein neuer angepasster Preis-/Leistungskampf erwartet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, Tanzmusikus und MGFirewater
In zehn Jahren brauchen wir dann extra Tabellen von Usern für User, bei dem allem eine passende Bezeichnung gegeben wird.
 
mcmurphy100 schrieb:
Weil die technischen Daten nicht zum Namen passen?
Genau das, siehe GTX 970 in den USA.
Nvidia hat den dortigen Kunden Geld zurückzahlen müssen, da die Karte falsch angepriesen wurde.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und simosh
Zwirbelkatz schrieb:
In Diskussionsforen wird zuweilen Kritik geübt.
Kritik ist doch völlig legitim. Die Einteilung der Karten und die Namenswahl ist umstritten und unter Umständen verwirrend, ich sehe das ganz genau so.

Am Ende bringt es auch nicht viel wenn die Karte nun 4070 Ti oder 4070 heißt.
Viel günstiger wird sie dadurch auch nicht.
 
RogueSix schrieb:
Demnach muss man von AMD erwarten können und dürfen, dass sie da bei der 4000er Serie ebenso angreifen können. No excuses.
sehe ich so einfach nicht.
von dem balkenvergleiche hat man als kunde sowieso wenig; an den balken können sich flache charakter gerne abarbeiten - entscheidend ist dass man als kunde möglichst viel bang-for-buck bekommt. wenn man sowieso nicht vorhat 2000€ für eine gpu auszugeben, dann hofft man eben dass das paket dass man in seinem budget bekommt, das beste ist was man kaufen kann.

oder anders: supersportwagen anschauen ist auch schön, aber in seinem budget fährt man dann doch den 5er m-bmw oder einen benz amg...
 
  • Gefällt mir
Reaktionen: Tanzmusikus und catch 22
ShiftyBro schrieb:
Ein Kumpel von mir is auch in dem G-Sync-System gefangen … um beim nächsten Grafikkarten-Kauf mehr Freiheit zu haben. Is aber schon ein emotional schwerer Prozess.

Ein bisschen kleiner haben wir es aber heute nicht, was? Der Monitor funktioniert auch mit Grafikkarten anderen Hersteller, nur eben ohne G-Sync. Da muss man nicht so tun als wäre das ein Totalschaden.

mcmurphy100 schrieb:
Kundentäuschung und rechtliche Konsequenzen? Weil die technischen Daten nicht zum Namen passen?

Ja, aber nur bei Grafikkarten. Und vorzugsweise bei nVidia-Karten. Hier gibt es scheinbar die unmündigsten und hilflosesten Kaufinteressenten des ganzen Techbereichs.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Smartbomb
McLovin14 schrieb:
AD103 hat nur etwa 60% der Chipfläche von AD102. Wo soll Leistung auch sonst herkommen?
ernsthaft? man stellt eine tabelle hin die sogar zeigt dass unterschiedliche fertigungsverfahren zum einsatz kommen und nimmt dann die chipfläche als argument???
 
Ano_Dezimal schrieb:
Eine typische Unterstellung. Wie man diese eben kennt von Communitys.
Dass der kleinere Chip einen größeren Namen bekommen hat ist keine Unterstellung. Das ist der Ausgangspunkt.

Der Rest ist eine Vermutung basierend aufgrund von 20+ Jahren (Industrie)erfahrung und meines Bildungswegs (mehr geht nicht im wirtschaftlichen Bereich außer einer Promotion evtl. noch).

Was ist denn deine Erklärung? Dass "aus Versehen" der Name falsch gewählt und ein paar hundert Dollar mehr UVP aus dem Himmel gefallen kamen?
 
  • Gefällt mir
Reaktionen: Innocience, Gnodab, aldaric und 3 andere
SVΞN schrieb:
  • Angst vor möglichen Konsequenzen [insbesondere in den USA] in Form von Rechtsstreitigkeiten wegen einer möglichen Kundentäuschung?
  • Angst, den Abverkauf der noch reichlich auf Lager liegenden GeForce RTX 3090 Ti, 3090, 3080 Ti und 3080 zu gefährden?
  • Angst, den bereits langsam einsetzenden Shitstorm der Szene über die unpassende Produktbezeichnung aussitzen zu müssen?
  • Einsicht, dass die Produktbezeichnung wirklich nicht gelungen und der Versuch eine 4060 Ti als 4080 zu verkaufen in die Hose gegangen ist?
  • Kenntnis über die Leistungsfähigkeit der RX 7800 XT, 7900 XT und [ggf.] 7950 XT?
Das erste kann ich mir nicht so recht vorstellen. Denn dann gäbe es da jetzt ja auch schon Probleme 3080 8GB 3080 12GB. Oder gab es die, und ich habe es nicht mitbekommen?
Das andere eher, wobei ich auch beim letzteren eher Zweifel hätte, denn die 7800XT kommt doch erst nächstes Jahr oder? Klar, wenn die 7900XT für 1000 Eur kommen sollte, hätte eine 4080 12GB für 1000 eur ein großes Problem, ich fürchte aber eher, dass AMD sich in den Reigen der teuren Neuprodukte einordnen wird.
Der Knackpunkt wird der eingebrochene Markt sein. Wenn ich sehe, dass für eine 3080 10GB immer noch 800 Eur aufwärts aufgerufen werden, während die 6800 bei unter 600 Eur, die 6800XT bei 650 Eur und sogar die deutlich schnellere 6900XT mit 16GB für um die 700 Eur zu haben ist, dann hat AMD den Abverkauf besser eingeläutet als NV (auch wenn ich nicht weiß, ob mehr Karten verkauft werden). Also wird NV vermutlich mit Abverkauf der 3xxx die Preise nach unten setzen müssen, um die überhaupt los zu werden. Damit wird die 4080 (insb. die 12GB) noch unattraktiver. Dass die 4080 12GB eine Auswirkung auf den Abverkauf der 3xxx hätte, sehe ich da nicht. Eher anders rum, denn die 4080 12GB ist viel zu unattraktiv dafür.

Ich vermute eher, dass man sich bei NV verzockt hat und gedacht hat, die hohen Preise bleiben ewig. Nicht umsonst macht man die Karten gerade wieder attraktiv (versucht es zumindest) und nimmt die Miningsperren raus. Man hat mit einer anderen Nachfrage gerechnet weshalb man auch 10 mrd in Produktskapazitäten gesteckt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, Hopa und cypeak
bigfudge13 schrieb:
Ein wahrer Fanboy lässt sich melken und kauft alles blind, wie man ja an gewissen Kommentaren hier sieht.
Stimmt, der wahre Fan hat sich in der Hoffnung eine 6900XT für 1000 Euro gekauft und sieht jetzt mit an wie die Karte mangels RT Leistung den Anschluss verliert. 😉
 
  • Gefällt mir
Reaktionen: Wubziz
Zurück
Oben