News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Smartin schrieb:
Und weil damals Leute für 400, 500 Eur Karten gekauft haben, zahlen Leute heute 1500 Eur oder gar über 2000, weil sie auf die einzig wahre 4080 oder 4090 umsteigen?
Keine Ahnung
Smartin schrieb:
Ich fand dieses "Problem" damals auch gar nicht so schlimm. Es gab genug, die die 970 gekauft haben, weil es trotzdem ne gute Karte war, die eine tolle Leistung geliefert hat.
Natürlich hat die Karte bis 3,5gb gut geliefert. Aber du kannst dich doch nicht über die abgespeckte aber immerhin ehrliche 4080 12gb beschweren, dann aber die 3,5gb Betrugskarte als gute Karte beschreiben. Das passt doch nicht.

Smartin schrieb:
Aber auch egal. Solange ihr euch selbst in die Tasche lügt und euch als Kunde alles egal ist, solange werden Hersteller auch mit solchen Aktionen durchkommen.
Moment, das Problem ist doch dadruch "schlimm" geworden das es Leute gibt, die eben genau das sagen wie du:
Smartin schrieb:
Ich fand dieses "Problem" damals auch gar nicht so schlimm. Es gab genug, die die 970 gekauft haben, weil es trotzdem ne gute Karte war, die eine tolle Leistung geliefert hat.
Genau das ist doch das Problem. Es wird dennoch gekauft und noch gesagt, ach das Produkt war ja dennoch gut. Wie kannst du nvidia die 12gb der 4080er ankreiden, aber nicht die 3,5gb? Nur weil es unterschiedliche Preise sind? Der 3,5Gb Betrug hat nichts geändert, selbst heute reden es sich die Leute passend.
Für mich ist es Doppelmoral, sich über die 4080 12gb zu beschweren, im selben Atemzug aber die 970 als gute Karte zu bezeichnen!

UNd Smartin, ich will dich hier jetzt nicht persönlich ankreiden, aber das ist genau das was mir bei vielen Auffält und ich bin da auch nicht wirklich viel besser:

WAS 12gb für die 4080, Nvidia das geht nicht na warte, da muss sich was ändern
Was 8gb für die 3070, Nvidia das geht nicht, na warte da muss sich was ändern
Selber Kunde in 2015: ach die 3,5gb der 970 sind doch voll ok und die Karte ist trotzdem toll...
 
  • Gefällt mir
Reaktionen: Ragnarök88, SFVogt und Slayher666
Wer übernimmt eigentlich die Kosten für eventuelle Kühlerumbauten, BIOS Flashes etc.?
Vermutlich einzig Nvidia selber?
 
Samuelz schrieb:
Also ich nutze es 2019 hat damals mit Control angefangen, was ohne RT ein ziemliches visuelle Downgrade ist. Mittlerweile hat eigentlich jedes neue AAA Spiel der letzen 2 Jahre RT.
Ich spiele halt keine VOLL GEILE AAA RT Spiele. Wenn man keine Spiele wie CP, Witcher, Controll usw. zockt, fällt RT ganz schnell ins Hintertreffen.

Aber wenn man statt RT nutzen möchte, kommt man fast nicht an Nvidia vorbei, ist leider einfach so. Aber wenn man RT auf 144Hz und WQHD spielen möchte, sollte man sich gleich die 4090 gönnen ;) .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayher666
Sas87 schrieb:
Wer übernimmt eigentlich die Kosten für eventuelle Kühlerumbauten, BIOS Flashes etc.?
Vermutlich einzig Nvidia selber?
So wie ich das verstanden habe ist die 4080/12gb eine reine Partnerkarte ohne eigene FE Version

Die kühler muss man zwar nicht umbauen..

Aber man muss die produzierten Karten umflashen und dann umpacken

Die Kosten haben gröstenteils die Hersteller der costums an den backen..



Was raytracing angeht.. bei etwa 95% der spiele macht es optisch kaum einen unterschied..
Meistens sieht es einfach nur anders.. aber nicht besser aus..
Kostet aber ca 50% der FPS
Dementsprechend ist das ganze in meinen Augen nur unnötig hoch gehypt.

Wer wirklich seine Bildqualität verbessern will der sollte es mit ordentlichen HDR und nem Oled Mal probieren.. bringt mehr als raytracing einzuschalten
 
  • Gefällt mir
Reaktionen: Icke-ffm, Oppagolf und Sas87
@GERmaximus : Der Punkt ist doch, dass an der 4080 nichts ehrlich ist. Ein anderer Chip verlangt auch eine andere Typenbezeichnung.
 
Bei 4090 machen die alles gut, was danach läuft alles falsch.
 
  • Gefällt mir
Reaktionen: Goldeagleno1
Sas87 schrieb:
Wer übernimmt eigentlich die Kosten für eventuelle Kühlerumbauten, BIOS Flashes etc.?
Vermutlich einzig Nvidia selber?
Die Kühler sind ja schon seit Monaten fertig - da wird vermutlich nichts ausgetauscht. BIOS flashen ist kein großer Akt, und hätte vermutlich bei einem regulären 4080 12GB Release stattgefunden. Viel schlimmer sind die weggeworfenen Verpackungen, Sticker, Beschriftungen und Plastikteile für die Custom 4080.
 
  • Gefällt mir
Reaktionen: Tinpoint und Sas87
Nordbadener schrieb:
Vielleicht lesen wir kommende Woche folgende NV-Pressemitteilung:

[Die GeForce RTX 4080 16 GB ist eine fantastische Grafikkarte, aber sie trägt nicht das richtige Preisschild.
Die erste UVP war viel zu teuer und zu verwirrend. Die neue UVP für Europa liegt bei 799,- Euro. Das ist der Preis, den eine reine xx80ér Karte maximal kosten darf.]
Never, denke aber, dass sie relativ schnell eine Preissenkung machen werden müssen, für 1500 Euro wird kaum Jemand zuschlagen. Wer soviel Geld ausgibt, legt auch 400-500 Euro drauf und besorgt sich gleich die 4090. 1500 Euro wäre für ne 4080Ti die bis auf Speichergröße vergleichbar und fast gleich schnell wie die 4090 ist angemessen
 
Odium schrieb:
Auch nicht der Release der 4090 hat jetzt irgendwas am Kurs spürbar verändert, war wohl schon alles eingepreist.
Die Aktien von nVidia waren ähnlich wie bei anderen Tech-Unternehmen (z.B. Tesla) auch masslos überbewertet und künstlich aufgebläht durch den Kryptomining-Boom, so gesehen ist so eine Wertkorrektur nur natürlich und richtig/wichtig und ich sehe den Kurs von nVidia im kommenden Jahr (ebenso wie den von Intel, AMD, Apple, Amazon, Google, Microsoft, etc.) weiter sinken.

Schade nur, dass diese falsche Kunden- und Produktpolitik und Einschätzungen zur Marktentwicklung leider keine Konsequenzen für die oberste Managementetage im Unternehmen haben dürfte.

Eine RTX 4090 oder die gesamte Ada Lovelace dPU-Generation zu diesen Mondpreisen ist auch kein Allheilmittel und wird Leute eher dazu veranlassen sich anderswohin (Konkurrenz, Konsolen, oder für lange Zeit ganz aus dem Markt aussteigen) von nVidia Grafikkarten zu verabschieden.

Für die scheinbar kaum abgetragenen, gelagerten Ampere dGPU-Bestände sieht man bei nVidia auch keinen Handlungsbedarf und ich könnte mir vorstellen, dass seitens der Händler da auch nur minimal nachbestellt wird (wenn überhaupt), solange sich da preislich nichts tut (dazu kommt dann noch derGebrauchtmarkt mit günstigeren Mining-dGPUs) ... der Fall nach einem Boom ist immer groß, insbesondere, wenn die gesamte Branche zunehmend mit einer stark abkühlenden Nachfrage zu kämpfen hat.

Übrigens ist LHR komplett mit dem neuesten (RTX 4090) Treiber von nVidia auch in Ampere Grafikkarten deaktiviert worden. Scheinbar wünscht man sich die Mining-Zeiten/-Käufer sehnlichst zurück ;):


 
Zuletzt bearbeitet:
Wie Nvidia und die AiB-Partner mit den bereits produzierten Grafikkarten mit AD104-GPU umgehen und ob diese unter einem anderen Namen zu einem angepassten Preispunkt auf den Markt kommen wird, darüber kann aktuell aber nur spekuliert werden.

Da haben sich die Partner sicher unheimlich darüber gefreut. :D Grafikkarten produzieren, die man dann direkt in großen Mengen erst gar nicht verkauft, sorgt bestimmt für richtig gute Stimmung.
 
  • Gefällt mir
Reaktionen: Wintermute
Entweder hat Nvidia die Konsumenten (unter ignorieren der politischen Weltlage) falsch eingeschätzt oder die Konkurrenz. Ich bin auf die nächsten Quartalszahlen gespannt. Es wird ein Ruck durch die Branche gehen.
 
  • Gefällt mir
Reaktionen: Recharging, JanMH und Slayher666
Ich denke EVGA ist umso glücklicher diesen Markt verlassen zu haben, zumindest als nVidia exklusiver Hersteller.

Es werden evtl. einige AIBs, ihre bereits mit dem Schriftzug "RTX 4080" versehenen Kühler, modifizieren müssen. Das kostet im Worst-Case einen fetten Haufen Geld und im Best-Case hatten die meisten AIBs für die 12 und 16GB Modelle die selben Kühler angedacht.

Gute Entscheidung für den Kunden, ein weiterer Schlag ins Gesicht für alle nVidia-Partner. Die sind das hoffentlich mittlerweile gewohnt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, Wintermute und Slayher666
GERmaximus schrieb:
Natürlich hat die Karte bis 3,5gb gut geliefert. Aber du kannst dich doch nicht über die abgespeckte aber immerhin ehrliche 4080 12gb beschweren, dann aber die 3,5gb Betrugskarte als gute Karte beschreiben. Das passt doch nicht.
Naja, dass die Bezeichnung der 12-GB-4080 als 4080 "verwirrend" war, ist wohl der Nvidia-Euphemismus des Jahres. Wir wissen alle, dass nicht die Verwirrung das Problem war, sondern die schlichte Tatsache, dass die Gesamtperformance der Karte nicht annähernd dem entsprach, was man von einer Karte mit diesem Namen und zu diesem Preis erwartet hat. "Ehrlichkeit" sieht für mich nun wirklich anders aus, auch wenn das natürlich eine andere Art von Unehrlichkeit ist als der 3,5-GB-Schwindel. Was mindestens den Preis angeht, hat ja auch die 16-GB-Variante der 4080 ein massives Problem. Mal schauen, wann Nvidia auch das merkt bzw. zu spüren bekommt, und sich auch hier zu einer entsprechenden Reaktion gezwungen fühlt.
 
  • Gefällt mir
Reaktionen: Recharging, JanMH, GERmaximus und eine weitere Person
Syrato schrieb:
Ich spiele halt keine VOLL GEILE AAA RT Spiele. Wenn man keine Spiele wie CP, Witcher, controll usw. zockt, fällt RT ganz schnell ins Hintertreffen.

Aber wenn man statt RT nutzen möchte, kommt man fast nicht an Nvidia vorbei, ist leider einfach so. Aber wenn man RT auf 144Hz und WQHD spielen möchte, sollte man sich gleich die 4090 gönnen ;) .
Wenn man keine AAA Spiele reicht ja auch sowas wie ne GTX 1050 Ti. Aber deswegen holt man sich sicherlich keine RTX Karte der letzen 2 Jahre.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Slayher666
Samuelz schrieb:
Wenn man keine AAA Spiele reicht ja auch sowas wie ne GTX 1050 Ti. Aber deswegen holt man sich sicherlich keine RTX Karte der letzen 2 Jahre.
Tripple A, hat nichts mit der Grafik usw. zu tun, sonder mit dem Budget und es gibt viele mehr schöne und vorallem bessere Spiele, als diese "möchtegern" AAA Titel.
Die brauchen auch Leistung und je nach befinden möchte man da auch eine 6900/3080 oder höher verwenden.
 
Ein Schritt in die richtige Richtung, man kann nur hoffen das Nvidia die neue 4080-12GB auch richtig als 4060Ti bezeichnet. Wenn Sie die als 4070 bezeichnen dann wäre das immer noch ein Witz:freak:.
 
Unverschämt dass Nvidia es versucht hat aber es zeigt dass Konkurrenz und Druck der Konsumenten doch wirken.

Deswegen ist es wichtig nicht alles hinzunehmen und durch Druck über Foren, Social Media etc. als auch durch Konsumverzicht klar Stellung zu nehmen.

Würden dies mehr Menschen tun hätten wir bessere Produkte und Preise!
Ergänzung ()

~HazZarD~ schrieb:
Fehlt nurnoch, dass sie die 4080 16GB endlich als 4070 renamen und die 4080 12GB anschließend als 4060 relaunchen.
Ich könnte mit der 4080 16GB leben wenn der Preis passt.

Aber ja es wäre geil wenn die 4080(Ti) eine beschnittene 4090 20GB 320 Bit wäre und die 3070 16GB 256 Bit hat. Die 4060 mit 12gb und 192 Bit und eine 4050 mit 8Gb 128 Bit wäre dann passend. So war es ja auch bei vorherigen Serien eingeteilt.

Je nachdem wie sich der Cache und Preis verhält kann es auch anders sein aber eine 3080 12GB ist was Leistung und Preis angeht einfach mehr als unverschämt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JanMH und Gaspedal
Gut, das Nvidia hier reagiert. Die wahren Gründe hinter dieser Entscheidung werden wir vielleicht nie erfahren.

Ob dann aber die RTX 4080 16GB wirklich die richtige Bezeichnung hat, darüber könnte man sich vielleicht auch streiten.

Die 3090 und 3080 hatten beide noch den GA102 Grafikchip, bei der 3080 wurde nur ein Teil der Ausführungseinheiten deaktiviert.

Die 4080 16GB basiert hingegen nur auf dem AD103 Chip, der dem AD102 der 4090 meilenweit unterlegen ist...
 
  • Gefällt mir
Reaktionen: Icke-ffm
user_zero schrieb:
Aber produziert sind die Karten doch schon, oder?
Belege gibt's dafür bisher keine, alle unterstellen bisher das die 4080 12GB schon massenhaft produziert wurde, weil man daran glauben will, diese Karte stand kurz vor der physischen Markteinführung. Ähnlich der Thematik beim AMDchen 3. November. Aber war dem jemals so?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LTCMike
Zurück
Oben