News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Blumentopf1989 schrieb:
Wäre gut für uns alle, auch wenn ich keine AMD kaufe (G-Sync Monitor).
Das ist nichts persönliches, aber ich kann diesen Satz nicht mehr lesen, da hat nvidia ganzen Arbeit geleistet
 
  • Gefällt mir
Reaktionen: Sombatezib, Gnodab, ShiftyBro und 4 andere
SaschaHa schrieb:
Wenn du wirklich glaubst, dass der Preis vollkommen egal ist und alle Leute bereit oder in der Lage sind, >2000 € für eine Grafikkarte + die höhere Stromrechnung zu zahlen, dann lebst du in einer vollkommen fremden Welt.
Ist ja interessant welche Implikationen du aus meiner Kritik an deiner Behauptung, die Kunden würde Effizienz ihrer Spielzeuge irgendwie kratzen herauszulesen magst. Der Preis ist nicht egal, das habe ich nie behauptet, nur leider wird es vermutlich mal wieder das einzige sein womit AMD kontern wird.
 
  • Gefällt mir
Reaktionen: Cadilac
Laphonso schrieb:
Ich hoffe für uns alle, dass das nicht der Fall ist.
Die 4090 ist irrelevant für AMD, sollte sie sie sein.

Warum das denn? Die RX 6950XT (oder wie die heißt) ist ja nun nicht sooo weit von der RTX 3090 entfernt. Es gibt/gäbe für AMD überhaupt keine Entschuldigung, dass sie die RTX 4090 nicht erreichen können.

Das wäre extrem schwach, wenn AMD an die RTX 4090 nicht wenigstens -ohne RT- auf 5% bis 10% rankommen würden, zumal ja riesige Hoffnungen und Erwartungen in das Chiplet-Design gesteckt werden.

Mit RT werden sie vermutlich etwas auf Distanz bleiben, was aber auch als sehr schwach einzuordnen wäre, denn sie haben ja inzwischen genug Zeit gehabt, um sich ausgiebig Gedanken über das Schließen der RT-Lücke zu machen.

AMD haben mal wieder den Luxus nicht vortanzen zu müssen, sondern sie konnten sich nVidia's Vorlage jetzt in Ruhe ansehen und müssen in Sachen Produktportfolio und Preis nun nur noch den Sack zumachen.
Insofern gebe ich Dir recht, dass es inzwischen locker zwei Elfmeter (oder eher Siebenmeter ;) ) auf das leere Tor ohne Torwart sind. Leichter hatte es AMD noch nie. No excuses. Sie müssen dat Ding jetzt nur machen...
 
  • Gefällt mir
Reaktionen: Sly123
Gerithos schrieb:
Das ist nichts persönliches, aber ich kann diesen Satz nicht mehr lesen, da hat nvidia ganzen Arbeit geleistet
Drum prüfe, wer sich ewig bindet.
Das ganze kann aber auch in die andere Richtung gehen. Ich habe Nvidia aus uA diesem Grund gemieden.
Wurde erst mit GSync-Compatible wieder eine Option.
 
  • Gefällt mir
Reaktionen: daknoll
xexex schrieb:
vermutlich mal wieder das einzige sein womit AMD kontern wird.
Bis auf rt war rdna2 rundum gelungen, das einzige würde ich jetzt nicht sagen 🤷
Und es haben hier auch einige offen gesagt, wie wichtig effizienz ihnen ist, viele haben Ampere auch UV weil es einfach einen enormen Mehrwert hat. Daher gehe ich mit deiner Aussage, die Leute wollen 5 Prozent mehr leistung bei 30 Prozent mehr Verbrauch, nicht mlt
 
  • Gefällt mir
Reaktionen: AssembIer, eXe777, daknoll und 2 andere
Krass, solch eine Kehrtwende hätte ich nicht gedacht. Hätte eher vermutet man muss jedes mal kopfschüttelnd 2x hinschauen welche 4080 denn gerade hier und dort verbaut ist. :D Mich würde rein aus Produktionssicht ja mal interessieren: Sind nicht bereits unzählige Verpackungen für diese Karte gedruckt? Ich meine ein Release im November? Wenn das 12 Gb Modell auch dann hätte erscheinen sollen, wären doch sämtlichen Prozesse dafür schon in Gange. :smokin:
 
Gerithos schrieb:
Und es haben hier auch einige offen gesagt, wie wichtig effizienz ihnen ist
Früher wurde oft Nvidia ggü. AMD bevorzugt mit dem Argument, dass erstere effizienter waren. Heute wird Nvidia bevorzugt, wenn sie etwas schneller sind aber dafür viel mehr Strom verbrauchen.
Man dreht es sich halt, wie es einem grad passt.
 
  • Gefällt mir
Reaktionen: Rockstar85, ThePlayer, Hatch und 7 andere
Gerithos schrieb:
Das ist nichts persönliches, aber ich kann diesen Satz nicht mehr lesen, da hat nvidia ganzen Arbeit geleistet
Naja G-Sync kompatibel ist z.B. einfach schlechter meiner Erfahrung nach.
 
Merkt man da wirklich nen Unterschied beim Spielen außer vl beim direkten Vergleich bzw. wie äußert sich der?
 
Kaum ein Bereich im Leben ist so gründlich dokumentiert wie Hardware der Nerds. Wir haben es hier mit Sheldons zu tun und auf der anderen Seite Verkäuferin Penny vom NV Marketing, die Naturgesetze malerisch umschreibt und glaubt damit durchzukommen xD
1+1 = 42, fällt bestimmt keinem auf...
 
  • Gefällt mir
Reaktionen: Rockstar85
bigfudge13 schrieb:
Kann der kein GSync Compatible?
Glaube nicht, ist aber eh meiner Erfahrung nach schlechter, hatte mal einen solchen Monitor.
Ich kann es nicht so richtig beschreiben, es fühlt sich nicht so "flüssig" an.
 
Gerithos schrieb:
Daher gehe ich mit deiner Aussage, die Leute wollen 5 Prozent mehr leistung bei 30 Prozent mehr Verbrauch, nicht mlt
Dann schaue dir mal die Preise der AMD und der Nvidia Karten an, dann siehst du wie wichtig Effizienz den Käufern ist. Wären die AMD Karten nicht durch die Bank im Anschaffungspreis billiger, würde AMD noch weiter in Bedeutungslosigkeit abrutschen und damit meine ich nicht die paar AMD Fans hier im Forum, sondern den Gesamtmarkt.

Die Leute interessiert Leistung! Wenn sie die Leistung noch zu einem geringeren Preis als bei der Konkurrenz bekommen, dann umso besser. Aber "niemand" kauft sich zum gleichen Preis eine Karte, die 10% langsamer ist, aber dafür effizienter.
 
HansDetflefAndi schrieb:
Kaum ein Bereich im Leben ist so gründlich dokumentiert wie Hardware der Nerds. Wir haben es hier mit Sheldons zu tun und auf der anderen Seite Verkäuferin Penny, die Naturgesetze malerisch umschreibt und glaubt damit durchzukommen xD
1+1 = 42, fällt bestimmt keinem auf...
Ich würde eher sagen, dass Huang der Sheldon wäre, eiskalt kalkulierend, nur auf den eigenen Vorteil bedacht, ohne Rücksicht auf Andere.
Die Nerds wären dann die Lennards, die sich darüber empören.
Und die Wissenschaftlerinnen, die Sheldon anhimmeln, wären die Fanboys.
 
xexex schrieb:
Ganz abgesehen davon, dass in anderen Ländern der Energieverbrauch so ziemlich egal ist, würde auch hierzulande kaum ein Mensch zu einer Karte greifen die 10% langsamer als die der Konkurrenz ist, nur weil sie effizienter arbeitet.
Aber hallo! In den aktuellen Zeiten, bei denen es nicht nur ums Ideologische ("Greta") sondern auch ums Finanzielle geht, warum sollte man sich da nicht für die effizientere Karte entscheiden? Das Argument "ich könnte doch undervolten/ Leistung beschränken" kann da kaum zählen, das kann ich schließlich bei beiden Karten. Aber warum sollte ich einen Hersteller unterstützen, der ab Werk die Karte mit ungefähr 150 Watt zu viel "einstellt", wenn ich zur Auswahl einen zweiten Hersteller habe, der die Karte direkt passend abstimmt, bzw. zumindest deutlich näher dran?
 
  • Gefällt mir
Reaktionen: Rockstar85, Hal14, Chismon und eine weitere Person
The_Mat_91 schrieb:
Krass, solch eine Kehrtwende hätte ich nicht gedacht. Hätte eher vermutet man muss jedes mal kopfschüttelnd 2x hinschauen welche 4080 denn gerade hier und dort verbaut ist. :D Mich würde rein aus Produktionssicht ja mal interessieren: Sind nicht bereits unzählige Verpackungen für diese Karte gedruckt? Ich meine ein Release im November? Wenn das 12 Gb Modell auch dann hätte erscheinen sollen, wären doch sämtlichen Prozesse dafür schon in Gange. :smokin:

Ja klar, die werden die Karten jetzt wieder auspacken und in die neuen Verpackungen umpacken müssen. Das ist in Zeiten moderner Logistik nicht das Problem. Vielleicht wird auch nur überklebt. Sieht zwar Scheiße aus, aber wäre die billigste Lösung :D .

Ich denke, dass der überwältigende Erfolg des RTX 4090 Launches diesen Extraaufwand aber zu Peanuts werden lässt.
Das ist doch kein Zufall, dass nVidia wenige Tage nach Launch der RTX 4090 auffällt, dass es ein klein wenig Kritik an 2x RTX 4080 gegeben hat.

Das ist Strategie. Die RTX 4090 geht dermaßen gut weg, dass nVidia sich überlegt haben dürften, dass man die kleine RTX 4080 erst mal wieder abzieht vom Markt, um mit der RTX 4090 und RTX 4080 16GB noch so lange gut Kasse zu machen wie es geht.
Dafür werden beide Produkte in nicht zu großen Kontingenten in den Markt gegeben werden, um Knappheit zu suggerieren und FOMO zu triggern.

Die Welle will gesurft und geritten werden, denn es ist klar, dass sie irgendwann bricht. Die Folgen der Inflation und Energiekrise werden unerbittlich zuschlagen. Insofern wird nVidia im Q4 vor Weihnachten noch jeden Cent und jedes Prozent Marge mitnehmen wollen, das noch zu haben ist.
Die umgepackte und umbenannte RTX 4080 12GB kann man dann irgendwann immer noch bringen. Erst mal Kasse machen...
 
  • Gefällt mir
Reaktionen: Cadilac
xexex schrieb:
Die Leute interessiert Leistung! Wenn sie die Leistung noch zu einem geringeren Preis als bei der Konkurrenz bekommen, dann umso besser. Aber "niemand" kauft sich zum gleichen Preis eine Karte, die 10% langsamer ist, aber dafür effizienter.
Nur um dann die Karte mit einem niedrigeren Powerlimit zu betreiben, um 30% weniger Verbrauch zu haben, die 10% Minderleistung wird dankend in Kauf genommen :freak:
Also genau so, wie es sie fix fertig zu kaufen gäbe.
 
  • Gefällt mir
Reaktionen: SaschaHa
bigfudge13 schrieb:
Ich würde eher sagen, dass Huang der Sheldon wäre, eiskalt kalkulierend, nur auf den eigenen Vorteil bedacht, ohne Rücksicht auf Andere.
Die Nerds wären dann die Lennards, die sich darüber empören.
Und die Wissenschaftlerinnen, die Sheldon anhimmeln, wären die Fanboys.
Sheldon sind Prinzipien zu wichtig als das er eine 4070 und 4060Ti als 4080 bezeichnen könnte. Penny hätte damit aber kein Problem
 
Auch gut möglich.

RogueSix schrieb:
Ja klar, die werden die Karten jetzt wieder auspacken und in die neuen Verpackungen umpacken müssen. Das ist in Zeiten moderner Logistik nicht das Problem.
So nennt man heute also die (Kinder-)Arbeiter in China? :D
 
  • Gefällt mir
Reaktionen: RogueSix
Als ob nvidia so blöd wäre. Die wollte die Käufer verarschen und sind aufgeflogt. Huch
 
RogueSix schrieb:
Kompliment an nVidia. So geht Marketing... so geht Sales. So wird's gemacht. Grandios.
Keine Ahnung, wie man bei sowas zur Schlussfolgerung "Grandios." kommen kann. Für den Endverbraucher ist das eher "katastrophal", anstatt "grandios".
Deine Einschätzung zu dem Ablauf teile ich allerdings, genauso, bzw. so ähnlich wird es wohl gewesen sein. Die einzige Hoffnung aus Sicht der Endverbraucher wäre jetzt, dass AMD günstiger launcht und zudem entsprechende Stückzahlen liefern kann, so dass das Preisgefüge einigermaßen auf dem Niveau der Vorgängergeneration gehalten wird und nicht bei den anvisierten +500 bis 1.000,- € Aufschlag von Nvidia landen wird.
 
  • Gefällt mir
Reaktionen: zeedy und daknoll
Zurück
Oben