News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

shaboo schrieb:
Mich überrascht einfach nur der Optimismus, dass sich das jetzt um 180 Grad drehen wird und dass alles korrigiert wird und alle zukünftigen Karten "korrekt" klassifiziert werden.
In keiner Aussage ging es bei mir um Optimismus, daß Nvidia Einsicht zeigt.....auch wenn es eben das einzig richtige wäre.
Klar machen die was sie wollen, mit maximaler Gewinnorientierung. Das kann man aber halt auch nur solange machen wie Kunden es mit sich machen lassen.

Und man sieht ja, daß noch zu viele völlig vernebelt nicht begreifen wie sie da abgezogen werden......daraus ergab sich zumindest mein Diskussionsansatz.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Taxxor schrieb:
Hier ist jetzt nur der Unterschied von 3090 zu 4090 groß, die restlichen Karten haben weit weniger Unterschied.
Das habe ich ja geschrieben.
Taxxor schrieb:
Während die 4090 ~85% schneller ist als die 3090, sind es bei 3080 zu 4080 nur noch 50%.
Und selbst wenn Nvidia die 4080 12GB nun einfach genau so als 4070 bringen sollte, liegt der Unterschied von 3070 zu 4070 ebenso nur bei ~55%. Ich gehe aber davon aus, dass die finale 4070 schwächer wird.
So wie früher halt auch. Passt also.
Taxxor schrieb:
Und das passt halt nicht zum Preisunterschied zum jeweiligen Vorgänger.
Der Preis ist eine völlig andere Geschichte. Von der Performance her passt 4080 und 4070 für AD103 bzw. AD104.

4080 12 GB war natürlich vollkommen Käse.
Ergänzung ()

SFVogt schrieb:
Vorallem wenn irgendein Chip der vielen nach dem draufpappen nicht 100% funktioniert, wird das ganze Package dann Ausschuß...?!
Die Chips werden ja vorher getestet. Beim Packaging selber wird der Ausschuss minimal sein.
Ein negativ Argument ist eher, dass Siliziumfläche für den Interconnect drauf geht. Und energetisch muss sich zeigen ob die Lösung überzeugen kann.
Multi Chip wird aber die Zukunft sein. Ob AMDs explizite Umsetzung die optimale ist wird sich zeigen.
 
Zuletzt bearbeitet:
bensen schrieb:
So wie früher halt auch. Passt also.
Wie früher auch?


1070 vs 970 = +61%
1080 vs 980 = +64%
1080Ti vs 980Ti = +66%

2070 vs 1070 = +31%
2080 vs 1080 = +40%
2080Ti vs 1080Ti = +35%

3070 vs 2070 = +48%
3080 vs 2080 = +52%
3080Ti vs 2080Ti = +47% (3090 vs 2080Ti = +50%)


Verglichen mit jetzt:

4090 vs 3090 = +85%
4080 vs 3080 = +50%
4070 vs 3070 = +40-50%(?)

Innerhalb der letzten 3 Generationen betrug der Unterschied zwischen dem Leistungssprung der xx8Ti und dem der xx80 maximal 5 PP und im Schnitt ~4PP und 2mal war dabei der Unterschied bei der 80 sogar größer als bei der 80Ti

Die Performance der 4080 müsste, verglichen damit, auch mind. 80% über der 3080 liegen.

Und würde man diese 80% auf eine 3070 aufschlagen, würde man ziemlich genau bei der 4080 16GB landen, weswegen man eigentlich auch diese "unlaunchen" und als 4070 bringen müsste.
Danach ist zwischen einer solchen 4070 und der 4090 immer noch mehr als Genug Platz sowohl für eine richtige 4080 (AD103 Vollausbau mit 84SM) als auch eine 4080Ti(AD102 Cut mit ~100 SM).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cyberwiesel, polyphase, Icke-ffm und 8 andere
Wo is das Problem? Einfach paar Sticker überkleben und gut is :)
Naja die ganzen 4090 Käufer finanzieren diese Unkosten mit..ach iwo..dafür gibs ja wieder Versicherungen..Mensch was fürn Marketingdesaster das aber ist!
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Laphonso schrieb:
Nachtrag, KuroSamurai:
“Zum Glück”, sage ich mal, liegst Du falsch. :-)
Bereits die noch junge Playstation 5 (!) ist hier schon raus und kann das technisch schon im kommenden dritten Jahr nicht mehr abliefern:

https://www.dsogaming.com/news/pc-will-be-the-only-platform-to-support-gotham-knights-with-60fps/

Weitere Games werden folgen.
Sorry, du wirst immer einen Entwickler finden der zu faul ist zum Optimieren und Alles mit roher Hardwarepower zu erschlagen versucht. Gerade bei Multiplatt. Der soll dann der Gradmesser sein? Erinnere nur an schlechten Port von Nier Automata wo ewig kein Patch von SE kam und Spiel selbst auf One X besser lief.
Die wirst auf beiden Seiten immer Spiele finden die nicht gut angepasst sind. Sag nur Project Cars damals auf AMD GPUs. Hast teilweise mit stärksten Karte keine 60fps geschafft.

Gotham Knight zeigt nichts was technisch außergewöhnlich wäre. Open World Coop geht mit anderen Games schon mit 60fps auf Konsole. Selbst bei The Division 2, Halo, GTA V Online usw.
Jetzt soll es plötzlich mit Game im DC Universum nicht gehen? Klingt nach 30fps Cap wie bei NFS Rivals Damals am PC.

Da ist Assets-Switch in 1 Sekunde bei R&C ja technisch eindrucksvoller auch das Sony Marketing da auch zu viel reininterpretiert.

Erst wenn wir neue Engine sehen die auch besseres Datenstreaming können damit bei HD Texturen bei Far Cry kein Nachladeruckrln auf vielen PC entsteht weil es selbst von SATA-SSD zu lahm ist und über 12GB belegt ohne ein optischer Kracher zu sein dann wird sich zeigen was bremst.
 
  • Gefällt mir
Reaktionen: Mcr-King
Das sich die 4090 halbwegs gut verkauft wundert mich nicht, es gibt genug die das schnellste haben wollen und das Leistungsplus ist auch gewaltig.

Nur frage ich mich welcher Normalo kauft sich eine 4080 und 4070 zu den Preisen die Nvidia verlangt???
Bei einem 50% LeistungsPlus zahlt man keine 100% mehr und das selbe bei 4070.
Die normale Leute haben aktuell andere Sorgen als für eine Mittelklasse Graka über 1000€ zu blechen.....bin echt gespannt wie es weitergehen wird.

Ich hoffe auf AMD, dass sie, dank günstigeren Herstellung und nicht so sehr gierigen Aktionären wie bei Nvidia, über den Preis NVidia richtig schön in den Arsch treten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kandalfus, polyphase, DirtyHarryOne und 6 andere
Unti schrieb:
Märchen.
42" LG OLEDs C2 z.B. kostet auf Amazon ca. 1000-1500€, hat alles was du brauchst und lässt sich locker bei 80cm Abstand optimal genießen, ohne das es Gesundheitsschädlich wird...
Hatte den 48", der war zu groß. 42" ist für Tische mit 50-70cm Tiefe ausreichend.
Optimal werden 38" oder 32", die kommen bald.
120Hz reichen hier auch aus. Die Optik des Bildes ist hier 100x mehr wert als jedes FPS über 120...
Und JEDER der hier labert er würde dem nicht so sein, ärgert sich nur dumm und dämlich für seinen VA/IPS 32" oder 27" 4K Klopper 1000-2000€ gezahlt zu haben!
Woher ich das weiß? Weil ich Dämlack an dem Punkt war :D

Und wer sich für 2K ne 4090 leistet, hat auch das Geld für nen gscheiten OLED von LG und da die Graka in 4K eh keine 120 FPS Maxed Out ohne Upscaling schafft (oder gerade so), passt das eh ;)

Tjo, so unterschiedlich können Geschmäcker sein: ich habe den LG G1 letztes Jahr zurückgehen lassen weil er mir zu dunkel beim HDR war. Und meine 4090 befeuert nun einen Samsung Mini LED QN92A. Hat auch 120Hz VRR, tolles Schwarz …und brennt dir beim HDR die Pupillen weg. 😉

Und was das mit dem Thema des Threads zu tun hat? Absolut NIX. 😎 Ich muss nur von Zeit zu Zeit der „Religion OLED“ mal ihre Grenzen aufzeigen. Ich bin ja letztes Jahr auch fast darauf reingefallen. 😉😁 Die sind schlimmer als die Zeugen Jehovas mit dem Gebetsbuch vor der Haustür…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, _Flattermann_, Gaspedal und eine weitere Person
Vitec schrieb:
Macht doch keine Unterschied , ausser für die Nörgler. Nun kommt diese Grafikkarte als 4070 (oder was auch immer) aber mit derselben uvp wie die 4080 12gb von daher wird sich da nicht viel ändern ausser der Name.
Meine Meinung 🤑 .
Das wäre schon hart, so 200 Dollar muss man mindestens runter, sonst geht der Zug komplett nach hinten los.
Ergänzung ()

fox40phil schrieb:
Für das Firmwareupdate müssen die echt jede Karte wieder aus dem Karton holen und einstecken. Echt heftig...
was eine schweinerei für die Arbeitskraft und Ressourcen.
In China ist zwar auch eine Arbeitskraft im Verhältnis noch günstig, die Preise von vor 10 Jahren sind das aber auch nicht mehr, von daher sind das wirklich massive Mehrkosten bzw. zumindest ist das Personal gebunden und kann keine anderen Dinge verpacken/herstellen.
 
  • Gefällt mir
Reaktionen: fox40phil
Taxxor schrieb:
(....)
Und würde man diese 80% auf eine 3070 aufschlagen, würde man ziemlich genau bei der 4080 16GB landen, weswegen man eigentlich auch diese "unlaunchen" und als 4070 bringen müsste.
Der UVP der 3070 war übrigens 519€, woraus 1.469 bei der 4070 geworden sind.

Immer diese Inflation. ;-)
 
  • Gefällt mir
Reaktionen: Kandalfus, alkaAdeluxx, eXe777 und 7 andere
fox40phil schrieb:
echt jede Karte wieder aus dem Karton holen und einstecken
Ich würde fast behaupten, die regeln das irgendwie über den Treiber.

Die können doch nicht zehn Tausende von Karten noch mal aus und wieder einpacken. Plus die Zeit, die es benötigt, um das BIOS zu flashen. 🤯

Arbeitsbeschaffungsmaßnahme für die Praktikanten: Bau auf, reiß nieder, hast du Arbeit immer wieder! 🤣
 
  • Gefällt mir
Reaktionen: CiX und fox40phil
Wow, na immerhin sind sie noch so klug gewesen und haben diesen absolut bekloppte Idee nicht 100% realisiert. Wer sowas durchwinkt sollte wohl gleich freiwillig einpacken xD
 
  • Gefällt mir
Reaktionen: lubi7
Krasser Speed und krasse Preise. Aber ich kaufe eh immer P/L Sieger und das heißt erstmal warten.
 
  • Gefällt mir
Reaktionen: Gaspedal, Onkel Föhn, lubi7 und eine weitere Person
Taxxor schrieb:
Wie früher auch?
Früher war der Abstand zwischen den Topmodellen 80 und 80Ti deutlich größer.

Ähnlich wie bei der 4090 und 4080 16GB.
Ganz grundsätzlich betrachtet ist die 4090 aber eine 3080 Ti, rein vom Ausbau.
 
Ragnarök88 schrieb:
Früher war der Abstand zwischen den Topmodellen 80 und 80Ti deutlich größer.

Ähnlich wie bei der 4090 und 4080 16GB.
780Ti vs 780 = +20%
980Ti vs 980 = +28%
1080Ti vs 1080 = +35%
2080Ti vs 2080 = +27%
3080Ti/3090 vs 3080 = +11/13%
4090 vs 4080 = ~ +42%

Keine vorherige Generation hatte so einen großen Abstand zwischen 80 und 80Ti/90 wie Ada. Bis auf Pascal lag man immer unter 30%.

Zumal das auch irrelevant ist, da die Abstände von 80 zu 80 trotzdem gleich mit denen von 80Ti zu 80Ti waren.

Gerade dadurch, dass wir bei 3090 zu 4090 nun einen so großen Sprung haben, obwohl die 4090 im Gegensatz zur 3090 nicht mal in der Nähe des Vollausbaus ist, sollte der Sprung von 3080 zu 4080 mindestens genau so groß ausfallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute
Blumentopf1989 schrieb:
In China ist zwar auch eine Arbeitskraft im Verhältnis noch günstig, die Preise von vor 10 Jahren sind das aber auch nicht mehr, von daher sind das wirklich massive Mehrkosten bzw. zumindest ist das Personal gebunden und kann keine anderen Dinge verpacken/herstellen.
Bis Januar oder sogar Q1/2023 ist doch noch viel Zeit :daumen:
 
LTCMike schrieb:
Bis Januar oder sogar Q1/2023 ist doch noch viel Zeit :daumen:
Meinste erst dann kommt die umgelabelte 4080 12G?
 
Ja ja. Mm

Sind die Kunden doch nicht so dumm.
Enttäuschend.
Die Begründung ist fade ohne eine Entscheidung.
 
Gesualdo schrieb:
Ja ja. Mm

Sind die Kunden doch nicht so dumm.
Enttäuschend.
Wenn sie die Karten kaufen sind sie de facto trotzdem so dumm. Ausser der Bezeichnung ändert sich ja nix.

Ist mir persönlich egal wie sie die Karten nennen, ob Dönerbox 2000 oder RTX 4090 Lite spielt doch keine Rolle.

Am Ende zählen Benchmark-Balken und Preis und daraus entscheidet sich ob Kauf oder kein Kauf. Die Bezeichnung ist einem normalen Käufer mit genügend Rest-IQ doch sowas von Scheissegal (ausser den sowieso immer über alles wimmernden Foristen weltweit). 😂

Sache ist einfach die: NVidia wird zusehen sich daran schadlos zu halten, die AIBs auch, dementsprechend evtl. auch die Preise setzen und am Ende zahlen dann die ewig wimmernden Foristen NOCH mehr für ihre verschissene 4070 als vorher wo sie noch 4080/12 hieß. 🤣

Hat "die Community" gut gemacht. Nix gewonnen. Pyrrhussieg. :daumen:
 
  • Gefällt mir
Reaktionen: Hutzeliger, elmex201 und FGA
Zurück
Oben