News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Apocalypse schrieb:
Schafft der i9 12900K überhaupt mehr? Das würde ich doch gerne nochmal mit einem 5800x3D sehen, der schafft iirc deutlich mehr! Also zumindest im Flight Sim, das ist ja seine Paradedisziplin.
jap, der 5800x3D schafft ordentlich mehr.
Je nachdem, was man so an Benches findet mit einer 6900xt / 3090(ti) jeweils zwischen 10 und 30%, teilweise wohl sogar auch mehr (je nach Auflösung und was im FS2020 gerade abgeht). In UHD scheinen es wohl überwiegend um die 10 bis 15% mehr FPS zu sein, soweit ich das mitbekommen habe. Das dumme ist, die unterschiedlichen Benches zum FS2020 sind schwer zu vergleichen und lassen sich auch kaum zusammentragen, um einen Meta Bench im Stil von 3DCenter.org zu erstellen.
Ort, Höhe, Wetter, Uhrzeit / Beleuchtung, Blickrichtung, Außen- / Innenansicht, bis hin selbst zu Mods haben allesamt einen teilweise sehr gehörigen Einfluss auf die FPS. Daher am besten nur auf Benches mit einem vanilla Client in Bodennähe (Start / Landung / Rollen am Boden / Tiefflug, Livewetter und Außenansicht, idealerweise immer am gleichen belebten Flughafen) achten, da unter diesen Umständen die Performance generell am schlechtesten ist, aber auch einheitlicher. Darüber hinaus sind das auch die Situationen, in denen man ein gute Framerate haben möchte, denn wenn hier alles in Ordnung ist, dann ist es in 30000Fuß Höhe erst recht der Fall.

Deswegen hatte ich bei meinen Screenshots oben versucht das so gut wie möglich der 4k Szenerie über Tokio aus dem Video nachzustellen (gleicher Ort über Tokyo, Blick aufs Inland, Live Wetter, Höhe, Außenansicht, sehr wenig Himmel, Uhrzeit wegen Stadtbeleuchtung - der FS2020 braucht einfach einen eigenen festen Benchparcours :mad:).

Der 12900K und ein 5800x sollten afaik relativ nahe beieinander liegen. Wirklich interessant wird die 4090 Lovelace Performance im FS2020 vermutlich eh erst mit dem Zen 4 mit 3D Cache, wobei ich schon vermuten würde, dass die "alten" Karten mit der CPU auch zulegen dürften.



Habe übrigens gesehen, dass ich bei den Screenshots kein Anti Aliasing / TAA an hatte... mit aktivierten TAA (welches beim FS2020 im Allgemeinen favorisiert wird) sind es unter WQHD es 2 bis 3FPS und unter UHD Auflösung es 3 bis 4FPS weniger.
Mir sagt der optische Effekt durch TAA allerdings im FS2020 unter UHD an einem 32" Display (seitdem ich von FHD weg bin, eigentlich eher generell, ich merke, wie ich das immer öfter deaktiviere) nicht wirklich zu, deswegen hab ich es deaktiviert / auf kein Anti Aliasing gestellt.
 
  • Gefällt mir
Reaktionen: Apocalypse und el_zoido
Samuelz schrieb:
Den RT Krüppel kann man Ende 2022 einfach nicht mehr empfehlen. Sry, das geht gar nicht.

Die 4090 liefert in UHD in Cyberpunk mit max RT ~30 fps. Da haste deinen RT-Krüppel.

RT ist ne feine Sache, wenn ich es in voller Pracht flüssig genießen kann. Solange keine GPU dazu in der Lage ist und ich entweder Auflösung oder RT-Level reduzieren muss, brauche ich es nicht. Dann sind mir hohe fps wichtiger und da braucht sich eine 6900/6950 XT nicht vor einer 3090 und erst recht nicht vor einer 3080 Ti zu verstecken.

Wir weichen aber vom Thema ab. Das Thema ist doch, dass nvidia mal wieder ihre Kundschaft beschei**en und denen eine 4060/4070 als 4080 unterjubeln wollte und als letzter in der Kette die Erleuchtung hatte, dass das eine ganz dumme Idee war.

Hat offensichtlich Tradition bei nvidia, dass in der Verpackung nicht drin ist was auf der Verpackung drauf steht. Bei der 970 fehlten auch faktisch 12,5% der beworbenen Speichergröße.

Jedes Unternehmen pflegt da so seine eigene Tradition.
 
Schwer vorstellbar, dass AMD seine 7900xt über 1500 Euro platziert und die 4080 16GB nicht locker in die Tasche steckt.
Raytracing ist in seiner jetzigen Form auch noch nicht wirklich ansprechend genug. Da wird noch nicht genug berechnet als dass es wirklich einen gravierenden Unterschied macht.

DLSS ist für mich allerdings schon seit längerem das interessanteste Feature bei Grafikkarten. DLSS3 ist davon allerdings noch ausgenommen, da die Latenzen noch nicht stimmen.
Was will man mit so vielen FPS wenn das Bild nicht entsprechend flüssig ausschaut.
Leider habe ich dadurch einen ganz dezenten Hang zu Nvidia Karten.
Würde aber als nächstes gerne AMD kaufen, wenn die Rohleistung stimmt. FSR hängt ja nicht sooo weit hinterher.

Aber für 1500 Euro wird die verbliebene 4080 ohnehin ein Ladenhüter, spätestens nachdem die erste Charge an die hardcore Fans ausgeliefert wurde.
 
  • Gefällt mir
Reaktionen: el_zoido
NV wollte mit der kleinen 4080 jene ködern, die über die geringere Anzahl an Shadern drüberweg lesen. Für mich grenzte das schon an ein kalkuliertes Täuschungsmanöver.
 
  • Gefällt mir
Reaktionen: ragnarok666 und polyphase
Sollte im Januar/Februar wirklich schon ein 7950X3D verfügbar sein und die 7900XT keine Enttäuschung werden, steige ich 100% auf AMD um (nach sehr vielen Jahren Intel + Nvidia).
Da lasse ich wesentlich lieber ein paar tausend Euro einfließen, wie bei Nvidia welche mit solchen Bauernfängerei-Tricks immer und immer wieder unterwegs sind UND obendrauf auch noch veraltete Technik inklusive schlechter Ausstattung mit ihren hochpreisigen 4000er Karten unter die Leute jubelt.

Der Launch der 4000er Generation gehört zu den schlechtesten des Unternehmens und bei dem was Nvidia über die Jahre an Erfahrung hat, sollte dies eigentlich eine steigende Lernkurve sein und nicht drastisch fallend.......da wird (typischerweise) schneller ein Refresh kommen wie manche ihre überteuerten Karten aus der Packung nehmen können, welcher dann wirklich die 3000er Generation und die paar Karten der 4000er ablöst und um die ganze Situation wieder glatt zu bügeln.
 
CiX schrieb:
was @Blackfirehawk sagt, dass ein hdr fähiger oled mehr bringt als raytracing, stimmt schon @Ragnarök88 ;)
Dass ist was sich am PC noch Ewigkeiten leider nicht durchsetzen wird, auf meiner PS5 mit QLED TV auch schon jetzt hammer aussieht.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Apocalypse und Beg1
Die 12GB Variante war eh ein Witz...von den Einschnitten her und vom Speicher sowieso.
Selbst die 4070 müsste eigentlich 16GB haben, 4060 12GB und 4050 8GB. Alles andere wäre irgendwie nicht mehr zeitgemäß.
 
  • Gefällt mir
Reaktionen: Cronos83, Dancefly, rumpeLson und eine weitere Person
So viel zum Thema: "Was kann man als Kunde schon bewirken?"

Man stelle nur mal vor, was sonst noch möglich wäre.
 
  • Gefällt mir
Reaktionen: Mcr-King und polyphase
Ich bin gespannt, unter welchem Namen die Karten erscheinen werden. Laut GN will sich NVidia an den Kosten für das Umlabeln (neue Verpackung, V-BIOS Flash, etc.) beteiligen.

Eine Preissenkung dürfte allerdings recht teuer werden, wenn die kolportierten 5-10% Marge für Boardpartner korrekt sind. NVidia müsste die Differenz dann ja zurückzahlen. Eine Preissenkung wäre gleichzeitig ein Eingeständnis dafür, dass sie schlicht den Profit maximieren wollten. Wenn die Karten plötzlich für 700 Euro in den Regalen der Händler liegen würden, wäre die Presse vermutlich nicht sonderlich positiv.
 
Soweit ich weiß, hatte Nvidia den AIBs verboten, die reduzierte Zahl der Cores auf den Karton der 4080 12GB zu drucken 🤔

Daher sieht es für mich so aus, als hat Nvidia die Intelligenz seiner Kundschaft doch zu niedrig eingeschätzt und versucht nun den Shitstorm zu minimieren.

Ich denke das solche Spielchen mit ein Grund waren, warum EVGA hingeschmissen hat, Prototypen hatten sie ja schon entwickelt und gebaut.
 
Simanova schrieb:
Die Kühler sind ja schon seit Monaten fertig - da wird vermutlich nichts ausgetauscht. BIOS flashen ist kein großer Akt, und hätte vermutlich bei einem regulären 4080 12GB Release stattgefunden. Viel schlimmer sind die weggeworfenen Verpackungen, Sticker, Beschriftungen und Plastikteile für die Custom 4080.

jetzt gesehen das du ähnlich kommentiert hast wie ich Klick
Bei den Custom ist das ggf ist das aber echt ein Kostenfaktor, man muss das Betriebswirtschaftlich sehen Für uns ach Karte flaschen usw aber mach das mal mit 5000 Karten, Verpackungen, Beschriftungen alles ändern .. Personalaufwand/kosten sind nicht ohne
 
Beg1 schrieb:
Nie wieder die uralte Technologie, da liegen Welten zwischen, das ist vergleichbar mit dem Wechsel von 60 auf 120 Hz, keine Ahnung warum sich viele andere 4090-Käufer noch mit IPS abfinden, ist so, als würde man nen Porsche mit komplett verdreckten Scheiben fahren.

Sehe ich ganz genauso und ich frage mich ebenfalls, wie jemand mit genug Geld für ne 4090 nicht noch einen tausender ausgeben will für nen oled, einfach weils so ein verdammt starkes visuelles upgrade ist. Selbst später mit ner 5090 wird das spiel nur flüssiger laufen, aber eben nicht "besser" aussehen, wenn ein Bildschirm einer alten gammeltechnologie benutzt wird wie ips oder va.
 
  • Gefällt mir
Reaktionen: Beg1
Offenbar hat das sehr positive Beispiel von NVidia Schule gemacht: Audi hat den geplanten A8 4030mm/60KW jetzt auch gestrichen und denkt über eine Neubenennung in A1 / 80000 Euro nach. Sehr löblich !
 
  • Gefällt mir
Reaktionen: huhuhu-tigger
Mcr-King schrieb:
Dass ist was sich am PC noch Ewigkeiten leider nicht durchsetzen wird, auf meiner PS5 mit QLED TV auch schon jetzt hammer aussieht.
Überlege auch allen ernstes mir für meinen fernseher vor der couch ne xbox zu holen, einfach weil das rumlümmeln und zocken so entspannt damit ist und für 500€ bei bereits vorhandenem 65` oled ein unschlagbares P/L Verhältnis bieter, jedenfalls zum PC.
Das einzige was mich abhält ist, dass meine bevorzugten genres (shooter/moba) auf Konsole so gar nicht bocken.

So wirds Ende des Jahres doch ein weiterer kleiner oled für den PC. Ist für mich spannender als der Kauf einer neuen graka wie der 4090, aus bereits genannten Gründen ;)
 
Falc410 schrieb:
Die 970er war eine super Karte die viele Jahre gehalten hat und ihr ist nie der VRAM ausgegangen. [...]
Spätestens mit GTA 5 gab es damals erhebliche Probleme, weshalb ich auch gewechselt bin. Durch die Nutzung des langsam angebundenen 512MB VRAM, hat die Welt so lange geladen, das man durch eine unsichtbare Welt gefahren ist, oder aber es gab erhebliche Nachladeruckler.
 
Chismon schrieb:
Die Aktien von nVidia waren ähnlich wie bei anderen Tech-Unternehmen (z.B. Tesla) auch masslos überbewertet und künstlich aufgebläht durch den Kryptomining-Boom, so gesehen ist so eine Wertkorrektur nur natürlich und richtig/wichtig und ich sehe den Kurs von nVidia im kommenden Jahr (ebenso wie den von Intel, AMD, Apple, Amazon, Google, Microsoft, etc.) weiter sinken.

[...]

Übrigens ist LHR komplett mit dem neuesten (RTX 4090) Treiber von nVidia auch in Ampere Grafikkarten deaktiviert worden. Scheinbar wünscht man sich die Mining-Zeiten/-Käufer sehnlichst zurück ;):

Das war schon immer ein Problem der Gamingszene, dass sie ihre eigene Bedeutung für die Hardwaremacher überschätzten. Gerade auch beim Kurs von Nvidia kann man gut sehen, dass der Miningboom in den letzten drei Jahren einfach lächerliche Summen in die Kassen der Firma gespült hat. Das und der Chipmangel.

Das ist jetzt erstmal vorbei.

Jetzt erstmal wieder die blöden Zocker zufrieden stellen, die ständig nur auf den Kaufpreis rummeckern. Sollen sie doch mit einem Kuchen spielen!
Das eigentliche Problem von Nvidia ist ja jetzt, dass Spiele gar nicht mehr die gleichen Anforderungen wie vor 20 Jahren haben. Selbstverständlich gibt es immer noch Vertreter wie Cyberpunk 2077, die da etwas mehr Power gebrauchen könnten, aber nie waren so viele PC-Spielerinnen wie heute mit ihrer alten Hardware zufrieden. Es gibt eine Diskrepanz bei Leistung und breiter, durchschnittlicher Leistungsanforderung. Wo man früher eben noch alle zwei oder drei Jahre etwas neues kaufen musste, um ruckelfrei spielen zu können, geht es jetzt um rein kosmetische Fragen wie Raytracing oder 100 vs 120 FPS. Wenn überhaupt. Ich vermute mehr als 95% der Neuerscheinungen laufen heute hervorragend auf einer Maschine, die man 2015 gebaut hat.
Das ändert auch nichts daran, dass die GraKa das inzwischen wichtigste Bauteil ist. Wie die Redaktion sich bei den CPU-Tests bemüht hat, ein Bottleneck herzustellen um überhaupt den Einfluß da zu ermitteln...

Ich könnte mir vorstellen, damit man zu diesen Verhältnissen wie 2021 zukommt, dass man in Zukunft Gaming mit Mining irgendwie besser und natürlicher verbindet. Zocken und gleichzeitig ingame-Währung schürfen und damit auch für Gelegenheitsspieler den Druck erhöht, eine teure Karte zu kaufen.
 
  • Gefällt mir
Reaktionen: Chismon und Melmoth
Lamaan schrieb:
Ich finde interessant, was du so alles in meinen Post interpretierst.
Die Botschaft ist ja wohl, dass ich warte was da von AMD kommt.

Deine feuchten Träume und das echauffieren, kannst Du für Dich behalten, meinetwegen noch bei anderen Kommentaren vorzeigen, aber das sagt mehr über Dich oder Deine Beziehung zu dem Thema aus, als über mich.

1299Euro erscheint mir als vernünftige Obergrenze, bei diesem Preis kann man sich noch vorstellen, dass eine Marge von 50% dabei ist. Daher nenne ich den Preis und 3000Euro sind auch immer noch mehr als 2000, die Nvidia verlangt.
Wer es braucht soll doch klaufen, aber dann später nicht meckern.
Ich warte jedenfalls, weil ich so eine Situation vermeiden möchte. Auch wenn Nvidia gar nicht teurer als AMD ist, aber dafür langsamer, wäre das ein Grund für mich AMD zu kaufen. Einfach weil ich nicht 2000 Euro für die 2. schnellste Karte ausgeben möchte.
Ich habe auf deine provokante 1300Eur AMD vs 3000Eur nVidia Aussage reagiert, nichts interpretiert. Bei nVidia und dem EVGA Thema hieß es, die 3090 (Ti) wird bei dem Preislevel wo sie jetzt stehen ~1.100 bis 1.300 Euro mit Verlust verkauft, also gar keine Marge mehr bei vermutlich billigerem Samsung Chips. Dann glaubst du AMD haut ein ähnlich aufwendiges Produkt was PCB, Speicher etc. mit deutlich teurer 5nm Fertigung und vielen Chips auf dem Package für 1.300Eur raus und macht noch 50% Marge? Was ist das wenn nicht Träumerei? Wenn das möglich wäre, könnte die EVGA Aussage wohl nicht der Wahrheit entsprechen.
 
Das "verschwinden" der 4080/12 war quasi die einzig richtige Entscheidung seitens Nvidia. Die Bezeichnung "RTX 4080" ist/war schlicht und ergreifend doppelzüngig.
 
Zurück
Oben