News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Also Nvidia mag jetzt seine Partner? RTX 4080 12GB zu streichen ist kein Entgegenkommen von Nvidia. Es bleiben für eine lange Zeit nur die teueren Optionen RTX 4090-4080 auf dem Markt und bei dem ersteren ist der Unterschied nach Leaks zu RTX 4080 sehr groß, was auf eine weitere Degradierung der unteren Klassen bedeutet. Vor allem diese Nachricht nach außen stinkt nach PR-Manipulation nach dem Abgang von EVGA: "Guckt mal, wir behandeln unsere Partner gut".
 
Gr33nHulk schrieb:
Darüber hinaus hätte man die Sparflamme ausschalten und die Karten ordentlich ausstatten sollen, mit DP 2.0 / 2.1, PCI-E 5.0, gescheites SI und ordentlichem VRAM (KEINE 4070 oder gar 4080 mit nur 12GB, nicht schon wieder).

Von einer Überarbeitung des Kühlers ganz zu schweigen, einen völlig unnötigen 2kg bis 2,5kg Klotz, der einem unter Umständen noch den Slots abreißt braucht niemand.

Ich hab mich auch erschrocken, was die 4090 wiegt, ohne GPU-Halter wäre das verrückt.

Warum man bei einer 2000€-GPU alte DP-Anschlüsse verbaut ist mir auch ein Rätsel, aber das hat nvidia mit ihren G-Sync Modulen ja auch bereits zur Tradition gemacht...

@Eorzorian
Die 4080 12GB wird einfach nicht benötigt, weil sie sich weder vom Preis noch von der Performance von der Vorgängergeneration abhebt.
Sie liegt vermutlich ca. auf RTX 3090 Niveau (siehe offizielle Benchmarks), die Karte kostet ebenfalls 1100€, bietet aber doppelten VRAM und kein 192-Bit Speicherinterface.
DLSS3 + Energieeffizienz wären dann die Verkaufsargumente.
DLSS3 wird noch ewig brauchen, bis viele Spiele verfügbar sind und ob sich das Feature für Midrange-GPUs wie die 4080 12GB überhaupt lohnt?
Energieeffizienz ist super, aber bei 1100€ sind die 20-40€ im Jahr kaum relevant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und shaboo
Ayo34 schrieb:
Du musst einfach die Preise mit einbeziehen und dann ist es eben kein künstlicher Aufschrei mehr.
Was habt ihr denn immer mit den Preisen? Es gibt doch sehr günstige Grafikkarten der letzten Generation, die man problemlos kaufen kann und die noch auf Halde liegen.
Es gibt doch überhaupt keinen Grund für Nvidia jetzt niedrige Preise zu verlangen.
Ayo34 schrieb:
Die 3080 hat vor zwei Jahren 699€ gekostet. Jetzt kommt eine 4080 mit 4nm TSCM Verfahren für 1099€ heraus und diese soll dann nur ein paar Prozent schneller sein als der direkte Vorgänger.
Die Karte war ja quasi nie für 699 Euro verfügbar. Der Preis lag die meiste Zeit zwischen 1500 und 1000 Euro.

Mindestens sind es aber 20% Inflation + 20% schwächerer Euro. Das würde alleine 45% Aufpreis rechtfertigen, womit man dann bei ~ 1000 Euro läge.
Ayo34 schrieb:
Künstlicher Aufschrei?
Ja schon. Es gab schon häufig Karten mit gleichem Namen aber untersch. Chips bzw. untersch. Ausbauten, bzw Vram Geschwindigkeit, bzw Leistung.

RX480 4/8GB GTX 1060 6/3 GB
4870 512/ 1GB

Wo ist das Problem bei der 4080 12GB?
rg88 schrieb:
Ja. Und zwar insofern unterscheidbar, dass sie sich in der Speichermenge unterscheiden.
Das liegt aber daran, dass die 4080 12 GB schneller ist als die 3090 Ti, deshalb griff Nvidia zu der Bezeichnung.
 
Ragnarök88 schrieb:
Das liegt aber daran, dass die 4080 12 GB schneller ist als die 3090 Ti, deshalb griff Nvidia zu der Bezeichnung.
was noch in der Praxis zu beweisen wäre... auf den eigenen Charts war NV schon immer sehr kreativ, wenn es um die "passenden" Randbedingungen (ich sag nur "Performance-DLSS3") für Performance-Vergleiche ging ... und bzgl. RAM-Ausstattung und -Anbindung wird die 4080-irgendwas eh nicht mit der 3090/3090ti mithalten können - und "nur" für QHD kann man eigentlich gleich ne 3080ti/6900XT sich holen (solange nur wenige handverlesene Titel im Betastadium DLSS3 unterstützen ist nicht mal das ein USP - wenn überhaupt), was vermutlich aktuell eh der Verkaufsplan ist... und in 2023, bzw. nachdem AMD released hat, werden dann die Preis-Schilder wohl neu gemischt, nachdem die "Ungeduldigen" gründlich abgemolken wurden :cool_alt:
 
Zuletzt bearbeitet: (Ergänzung)
  • Gefällt mir
Reaktionen: Rockstar85, Ragnarök88, Smartin und 2 andere
Beg1 schrieb:
https://pics.computerbase.de/1/0/5/3/1/4-fbfc377a0cafca49/1-1280.195e5fa1.jpg

Echt jetzt? Die Benchmarks sind von nvidia.... bestenfalls würde ich mit 3090-Leistung rechnen oft sogar nur 3080Ti und das auch nicht immer.
Je öfter man sich diese Tabelle ansieht und das sind ja erst mal nur die Werte von Nvidia selbst, wer weiß was bei den RTX 4080iger Grafikkarten rauskommt in unabhängigen Tests, verstärkt sich mein Eindruck das die RTX 4080 12GB eigentlich eine RTX 4060 Ti ist und die RTX 4080 16GB eine 4070 Ti. Das würde dann auch den deutlichen Abstand zwischen der RTX 4080 16GB und der RTX 4090 24GB erklären. Was dazu natürlich dann überhaupt nicht mehr passt sind die völlig überzogenen Preise der RTX 4080iger!!! 🤔

Die RTX 4090 24GB ist ein Brett, keine Frage. Aber das was sich derzeit mit den RTX 4080iger darunter platziert, gefällt mir gar nicht, von der Leistung her. Da macht sich doch große Enttäuschung breit, wenn man sich dann auch noch die Preise vor Augen führt. Das ist auch mit gestiegenen Produktionskosten meiner Meinung nach nicht mehr zu rechtfertigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, Balikon und LTCMike
Was ist das Problem mit den Preisen ? Wär doch egal ob NVidia jetzt 2k€ für ne 4080/12 verlangt. Man muss es ja nicht kaufen. Fällts den Leuten so schwer zu einem schlechten Produkt nein zu sagen ? 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Ragnarök88
ThirdLife schrieb:
Wär doch egal ob NVidia jetzt 2k€ für ne 4080/12 verlangt. Man muss es ja nicht kaufen. Fällts den Leuten so schwer zu einem schlechten Produkt nein zu sagen ? 🤷‍♂️
Genauso könnte ich sagen, man soll für alle Mietwohnungen jetzt 5000,00 Euro verlangen mit Nebenkosten, die Leute müssen sich ja keine Wohnung mieten, es gibt auch Zelte als günstige Alternative. Fällt es den Leuten so schwer Nein zu sagen und auf ein wenig Luxus zu verzichten? 🤔
 
Mein Gedanke ist ja, Die chipausbeute bei TSMC ist so gut, das NVIDIA anstatt die gpu‘s Für die 4080 zu verwenden lieber mehr 4090 produziert wo mehr zu verdienen ist.
 
Ragnarök88 schrieb:
Die Karte war ja quasi nie für 699 Euro verfügbar. Der Preis lag die meiste Zeit zwischen 1500 und 1000 Euro.

Mindestens sind es aber 20% Inflation + 20% schwächerer Euro. Das würde alleine 45% Aufpreis rechtfertigen, womit man dann bei ~ 1000 Euro läge.
Jetzt habe ich keine Zweifel mehr, du bist entweder von nvidia bezahlt oder der aller größte Fanboy der Geschichte.

Es tut mir leid aber ich kann dich einfach nicht mehr ernst nehmen.
 
  • Gefällt mir
Reaktionen: Rockstar85, Nicop und Smartin
ThirdLife schrieb:
Was ist das Problem mit den Preisen ? Wär doch egal ob NVidia jetzt 2k€ für ne 4080/12 verlangt. Man muss es ja nicht kaufen. Fällts den Leuten so schwer zu einem schlechten Produkt nein zu sagen ? 🤷‍♂️

Die meisten Leute informieren sich nicht ausreichend über ein Produkt und kaufen einfach nach Produktbezeichnung xx80 12GB und xx80 16GB suggerieren ja gleiche Leistung, daher war die Änderung des Namens absolut notwendig.

Das Problem mit der 4080 16GB ist anders gelagert, der Unterschied zur 4090 ist GIGANTISCH, ~40% weniger CUDA Cores, 33% weniger VRAM, 33% kleineres Speicherinterface, laut Plague Tale 2 Benchmark z.B. bis zu 48% weniger Rasterleistung UND DABEI nur ~25% günstiger (4090 1949€, vs 4080 16GB 1469€).

Wenn Spiele den Shadervorteil in Zukunft besser nutzen, dann könnte die 4080 16GB in zukünftigen Titeln öfter so extrem abfallen, wie es bei Plague Tale 2 bereits der Fall ist.

Zotac2012 schrieb:
verstärkt sich mein Eindruck das die RTX 4080 12GB eigentlich eine RTX 4060 Ti ist und die RTX 4080 16GB eine 4070 Ti.

Ich denke darüber muss man nicht mehr reden, das ist so.
 
  • Gefällt mir
Reaktionen: Smartin und LTCMike
krucki1 schrieb:
Die Argumentation ist sowieso falsch. Man zahlt nicht automatisch von Generation zu Generation mehr, nur weil die Leistung steigt. Wäre das der Standardfall und wir betrachtet die Entwicklung seit den 90er Jahren, dann würden mittlerweile die Karten nochmal zig Tausende mehr kosten als sie es schon tun.

Hab doch gar nicht gesagt dass es jede Generation steigt....ist nur auf diese Gen bezogen, wenn man Inflation und Wechselkurs abzieht dann müsste die 4080 max 1000€ kosten......dan sagen wir der neue Chip und bessere Kühlung kostet 100€ mehr, sind wir bei 1100€.....also steckt sich NVidia jetzt einfach 35% mehr ein........bin echt gespannt wer sich eine 3080 für 1500€ kauft
 
Zotac2012 schrieb:
Genauso könnte ich sagen, man soll für alle Mietwohnungen jetzt 5000,00 Euro verlangen mit Nebenkosten, die Leute müssen sich ja keine Wohnung mieten, es gibt auch Zelte als günstige Alternative. Fällt es den Leuten so schwer Nein zu sagen und auf ein wenig Luxus zu verzichten? 🤔
Wir reden hier von einer Luxus-GPU und nicht von einem Dach über dem Kopf. Aber interessant zu sehen dass für dich beides denselben Stellenwert genießt. 🤣

Das Äquivalent wäre wohl eher eine acht Zimmer Luxusvilla mit riesen Garten und kleinem See für 5k€. Das darf gern hoch eingepreist sein, denn das MUSS ich nicht haben.
 
  • Gefällt mir
Reaktionen: T.Pursch und flatline1
KuroSamurai117 schrieb:
Ratchet & Clank Rift Apart mag zwar auch NVMe 3500 MB/Sreichen aber vermutlich wurde das Spiel nicht mit SATA-SSD am PC funktionieren.

Solange am PC nur erste Titel optional DirectStorage bieten werden wie Forspoken wird sich da auch nicht viel bewegen neben besserer RT Leistung.
Nun mal langsam

Forspoken gibts ja schon Demos für Direct Storage. NVMe mit volle Kanone PCIe 4, 2.X Sekunden Ladezeit, Sata SSD knapp 3 Sekunden. Wen interessiert das schon?
Jetzt mit Direct Storage 1.1 werdens dann vielleicht 1.5 zu knapp 3 Sekunden. Aber das ist immer noch völlig irrelevant.
 
  • Gefällt mir
Reaktionen: ThirdLife
Ragnarök88 schrieb:
Das liegt aber daran, dass die 4080 12 GB schneller ist als die 3090 Ti, deshalb griff Nvidia zu der Bezeichnung.
Da hat die NV Propaganda aber gut funktioniert bei dir. Die 4080 Clown Edition würde sich zwischen 3080 und 3080ti einordnen ohne Hilfe von DLSS3. Deshalb haben sich soviele zu Recht darüber aufgeregt.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ragnarök88 schrieb:
Mindestens sind es aber 20% Inflation + 20% schwächerer Euro.
Na aber sicher, waren es nicht doch 30 % Inflation? Oder lieber 40 %? Ach komm, ich sage 50 %! Und dass man das nicht mal eben einfach addieren kann ist ja auch nicht so wichtig. 🤦‍♂️
 
  • Gefällt mir
Reaktionen: Rockstar85
^Q^ schrieb:
Da hat die NV Propaganda aber gut funktioniert bei dir. Die 4080 Clown Edition würde sich zwischen 3080 und 3080ti einordnen ohne Hilfe von DLSS3. Deshalb haben sich soviele zu Recht darüber aufgeregt.
Alleine bei RT zeigt Ada Lovelace eine bessere Skalierung.
Laut Nvidias Benchmarks war die Karte maximal 10% hinter einer 3090Ti, ergo >3080 Ti.
 
Enyo79 schrieb:
Jetzt habe ich keine Zweifel mehr, du bist entweder von nvidia bezahlt oder der aller größte Fanboy der Geschichte.

Es tut mir leid aber ich kann dich einfach nicht mehr ernst nehmen.
Naja er hat ja nicht ganz unrecht. 699 USD mit 20% Wechselkurszuschlag + 19% MwSt bringen dich auf ziemlich exakt 999€. Jetzt kann man noch teurere Fertigung einkalkulieren + ein bisschen Marge und wir haben die 1099€.

Hat nix mit Fanboy zu tun sondern der Faktenlage.

Beg1 schrieb:
Die meisten Leute informieren sich nicht ausreichend über ein Produkt und kaufen einfach nach Produktbezeichnung xx80 12GB und xx80 16GB suggerieren ja gleiche Leistung, daher war die Änderung des Namens absolut notwendig.
Ok und sich nicht informierende Käufer sind jetzt die Gruppe mit der ich Mitleid haben sollte ? Wer mal eben 1100€ ausgeben kann ohne nachzudenken und sich dann nicht mal grundsätzlich informiert hats auch echt nicht anders verdient als hart abgezogen zu werden.

Beg1 schrieb:
Das Problem mit der 4080 16GB ist anders gelagert, der Unterschied zur 4090 ist GIGANTISCH, ~40% weniger CUDA Cores, 33% weniger VRAM, 33% kleineres Speicherinterface, laut Plague Tale 2 Benchmark z.B. bis zu 48% weniger Rasterleistung UND DABEI nur ~25% günstiger (4090 1949€, vs 4080 16GB 1469€).
Naja, das VRAM war von 3080 zu 3090 um über 58% kleiner und da wars auch kein Problem. Das seh ich nicht als Issue an. Die Karte an sich ist deutlich schwächer, ja, aber das is auch irgendwie noch vertretbar wenn man eine 4080 Ti noch irgendwie dazwischen mit 20GB VRAM, 320er Interface und 12.288 - 14.336 CUDA Cores platzieren will.

Der Preis passt halt überhaupt nicht. Teurere Fertigung 699$ + hohe 200$ dafür, dazu 20% Wechselkurs und 19% Inflation = 1.033 € in meinem Verständnis für eine 4080/16. Könnte man jetzt auf 999€ abrunden und das dabei belassen.
 
  • Gefällt mir
Reaktionen: shaboo und Ragnarök88
bensen schrieb:
Wieso nein? Du kritisierst den Abstand zwischen 4090 und 4080. Mache ich die 4090 langsamer, dann passt der Abstand.
Verbesserung zur vorherigen Generation ist für dich ja nicht relevant in der Diskussion.

Ich habe doch aufgezeigt dass die Verbesserung zur vorherigen Generation immer ziemlich gleich war für alle Karten der Generation.

Nicht relevant ist für mich die Tatsache dass der Sprung von 3090 auf 4090 diesmal größer ausgefallen ist als in den vorherigen Generationen, denn dass bedeutet nur dass die Abstände der anderen Karten ebenso größer ausfallen müssten, da sie ja auch ebenso stark(eig sogar noch deutlich mehr) im Preis angehoben wurden
Ergänzung ()

Ragnarök88 schrieb:
Und warum? Damals hat man den großen Chip der 3090Ti für die 3080 genutzt, währenddessen man bei Turing noch den TU104 genutzt hat.
Man kann da genauso wieder runtergehen.
Auch bei Maxwell, Pascal und Turing war die 80er Karte nicht auf dem gleichen Chip wie die 80Ti/90 und trotzdem hatten wir hier nur 25-30% Abstand zum topmodell
 
  • Gefällt mir
Reaktionen: Rockstar85
Beg1 schrieb:
1000:1 ist weit entfernt von toll, IPS Glow hat man leider auch, FALD hat der Monitor auch nicht, was zu Lichthöfen führt. Klar sind VA und TN auch keine Alternativen, ist dieselbe uralte Technik mit anderen Nachteilen, diese lassen sich aber umgehen, siehe unten.

Natürlich kann man auch mit einem normalen IPS-Panel glücklich sein, aber wenn man 2000€ für eine GPU ausgibt und hier immer wieder sagt "Ich liebe RT + hohe fps, die GPU brauche ich als Gamer". Dann verstehe ich nicht, warum man ausgerechnet beim Monitor Kompromisse eingeht, für mich ist er die wichtigste Komponente, was bringt mir das beste RT, wenn mein Monitor orangefarbenen IPS-Glow hat?
Was auf dem Papier als Kontrast steht interessiert micht nicht. Die Angaben sind dazu zu sehr Herstellerspezifisch. Mich interessiert nur das eigene Empfinden und ich finde den Kontrast sogar sehr stark. Alles auf Max, brennen Dir die Pupillen weg. Musste es sogar extrem runterdrehen. Habe auch keine direkte Sonneneinstrahlung ins Büro.
IPS-Glow fällt mir nicht auf bzw. nur etwas wenn man sehr von Seite schaut (auch nur wenn Lokal Dimming deaktiviert ist), ich sitze direkt vor dem Monitor und dank Curved habe ich schönes gleichmäßiges Bild mit gleicher Blickwinkel zu den Seiten. Bei Flachbildschirmen würde es eher auffallen da der Blickwinkel sich ändert.
Ich hätte mir auch eine 400€ Monitor holen können, habe mit 1200€ Kaufpreis keine Kompromisse gemacht, sondern den auf dem Markt für meine Bedürfnisse geeigneten besten Monitor ausgesucht. (40% Gaming, 60% Office & Rest). Der Preis war in dem Moment egal weil mir der Monitor sehr wichtig ist.

MicroLED wird auch günstiger sein, dauert noch. MiniLeds habe ich noch keine getestet, hat aber mit MicroLed nichts zu tun. MicroLED wird OLED ablösen, früher oder später. Es ist in allen Belangen besser.
Fakt ist: Ich habe ein top Gaming Monitor und gleichzeitig ein Monitor für meine tägliche Office Arbeit. Auf OLED habe ich derzeit wirklich Null verlangen, sonst hätte ich mir den OLED längst geholt für den selben Preis. Aber auch OLED hat nun mal seine Nachteile und verliert auch mit der Zeit an Kontrast und wie Du sagst wird dann Rot zu Orange, das mit Einbrennen ist die nächste Sache.... Hatte selbst 3 Plasmas früher, und alle 3 waren mit Senderlogos eingebrannt zum Schluss . Auf sowas habe ich keine Lust mehr.
Mal schauen, LG bringt ja den Nachfolger von meinem Monitor auch als OLED raus (LG UltraGear 45GR95QE, mit 800R Krümmung und 45" in 21:9 Format), für viele die es in OLED haben wollen eine gute Gelegenheit. Hoffe dass LG nebenbei auch weiterhin auf NanoIPS setzt. Werde meins mindestens noch 3-5 Jahre weiterbenutzen, ist einfach Top.

LG UltraGear 45GR95QE

1666008863511.png



Quelle: press.lg.de
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
Zurück
Oben