News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

EVGA hat alles richtig gemacht. Mit so einem Verein möchte man echt nicht arbeiten müssen.
 
  • Gefällt mir
Reaktionen: Tinpoint, BAUERNLEUT, polyphase und 6 andere
Odium schrieb:
Das eigentliche Problem von Nvidia ist ja jetzt, dass Spiele gar nicht mehr die gleichen Anforderungen wie vor 20 Jahren haben. Selbstverständlich gibt es immer noch Vertreter wie Cyberpunk 2077, die da etwas mehr Power gebrauchen könnten, aber nie waren so viele PC-Spielerinnen wie heute mit ihrer alten Hardware zufrieden. Es gibt eine Diskrepanz bei Leistung und breiter, durchschnittlicher Leistungsanforderung.
Das ist oberflächlich korrekt, vor allem für den Mainstream und das sog. Casual Gaming (wertfrei!), doch Du vergisst folgende Aspekte:
  • Die Konsolentechnik bestimmt den Rahmen, und dieser ist leider immer 5-7 Jahre gesetzt. Die Playstation 5 ist im Kontrast zur künftigen maximalen Leistungsspitze Zen4+Raptorlake und RDNA3 und Ada technisch ein alte Kaffemaschine, die nicht mal mehr 20% dessen abliefert, was in Kürze an 4K Gaming Settings und fps möglich sein wird.
    Ich betrachten hier explizit die Technik, nicht den Preis! Es geht um das, was man GPUs und CPUs zumuten kann. Die Konsolen bremsen diese Evolution für die Masse aus. Eine 4090 dagegen zeigt, was die devs und Designer grafisch jetzt kreieren können inkl. realistischer Licht+Schatten+Reflexions-Effekte. Eine Playstation 6 wird dann hoffentlich der Durchbruch für echtes Ultra 4K Gaming jenseits 60 fps und damit eine Plattform, um kastrierte Effekte obsolet zu machen.
  • Die Transition von 1080p/Full hd zu 1440p sowieso 3440x1440 und dann 4K benötigt wesentlich mehr Power. Damit steigen dann die von Dir genannte durchschnittliche Grafikanforderung erheblich.
  • Cyberpunk ist bereits 2 Jahre alt , Metro 3 Jahre alt, und beide wurden erst mit einer 4090 “geknackt“ in Maxsettings. Es folgen irgendwann The Division 3, ein neues AC, ein GTA6, es kommt Witcher 3 Remastered mit Full Raytracing.

Will sagen, mehr Rechenpower gibt mehr Impulse, die Grafik und damit die Immersion zu verbessern.

Daher ist es gut, dass RDNA3 und Ada Lovelace hier Impulse schaffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Winnie Puuh, Hutzeliger, Ragnarök88 und 2 andere
Leeway schrieb:
ch bin gespannt, unter welchem Namen die Karten erscheinen werden. Laut GN will sich NVidia an den Kosten für das Umlabeln (neue Verpackung, V-BIOS Flash, etc.) beteiligen.
Nvidia at it's best. Wir zahlen das nicht, wir verbocken das nur komplett, aber wir geben euch was dazu. :D
 
  • Gefällt mir
Reaktionen: Recharging
CiX schrieb:
Sehe ich ganz genauso und ich frage mich ebenfalls, wie jemand mit genug Geld für ne 4090 nicht noch einen tausender ausgeben will für nen oled, einfach weils so ein verdammt starkes visuelles upgrade ist.
da kann es viele Gründe für geben.
Z.B. falls die Leute noch einen relativ "neuen" klassischen Monitor haben, wobei "neu" bei den Teilen ein sehr dehnbarer Begriff sein kann, zumindest aber 3 bis 5 Jahre.
Des weiteren, gibt es denn überhaupt schon bezahlbare UHD 120+Hz OLED Displays in 32 und 27"? Nicht jeder will sich Monster mit 44" (?) und mehr auf den Schreibtisch stellen, da womöglich der Platz (Breite wie auch Sitzabstand) nicht vorhanden ist.
Und mit bezahlbar meine ich bis grob 1000€, denn bei einem höheren Betrag kann man nicht mehr mit "wer schon 2000€ für die Karte ausgibt, kann auch noch den kleinen Betrag x für sonst was hinlegen" (wobei dieses klein auch schon wieder eine derbe Lüge ist, die eigentlich bereits ab 600 bis 700€ vorhanden ist, vor allem wenn man einen noch vorhandenen Bildschirm ohne Not ersetzt)
 
  • Gefällt mir
Reaktionen: FLCL, Vitec und PeriQue1337
Peinlich, peinlicher, NVIDIA. Leider kann ich wegen NVENC nicht ganz drauf verzichten, würde es nur ums Zocken gehen wäre ich längst bei AMD.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Gerithos schrieb:
Ja welches auf amd sogar verdammt gut läuft lo
Nein, viel langsamer.
Es ist schon Realitätsverweigerung, wenn mir jemand sagt, keine seiner Spiele unterstützen RT und dann sind es zwei von drei seiner genannten. Da merkt man, er beschäftigt sich gar nicht damit.

Max007 schrieb:
Die 4090 liefert in UHD in Cyberpunk mit max RT ~30 fps. Da haste deinen RT-Krüppel.
Und wie viel liefert die 6900XT unter Psycho Settings auf 4K? 8 FPS?

Max007 schrieb:
RT ist ne feine Sache, wenn ich es in voller Pracht flüssig genießen kann.
Das geht ja mit Nvidia, mit AMD nicht.
Da nützt es dir auch nichts das einzige Spiel auf Psycho Settings zu picken, welches wie Crysis auf Ultra auch auf keiner Karte völlig spielbar war...

Max007 schrieb:
Solange keine GPU dazu in der Lage ist und ich entweder Auflösung oder RT-Level reduzieren muss, brauche ich es nicht.
Die Nvidia Karten sich viel leichter in der Lage mit sehr hohen Einstellungen RT sogar in 4K mit DLSS flüssig darzustellen.

Die 4090 sogar ohne DLSS bis auf Cyberpunk Psycho.
Diese Argumentationen der AMD Fraktionen werden von Tag zu Tag wilder.

HDR kann man auf einer Nvidia genauso nutzen. Und wer HDR mit RT vergleicht, hat sowieso keinerlei Ahnung von der Materie. Inwiefern das schwache SSR ausgleichen soll, ist ein absolutes Rätsel.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hutzeliger und Neubauten
CiX schrieb:
Überlege auch allen ernstes mir für meinen fernseher vor der couch ne xbox zu holen, einfach weil das rumlümmeln und zocken so entspannt damit ist und für 500€ bei bereits vorhandenem 65` oled ein unschlagbares P/L Verhältnis bieter, jedenfalls zum PC.
Je nachdem wie es bei dir zu Hause aussieht ist auch ein HDMI Kabel und vielleicht noch ein aktives USB Kabel fix eingezogen und damit unschlagbar was P/L angeht.
Nicht das ich dir jetzt ne Console ausreden möchte, aber ein paar Löcher gemacht und vom PC zum Fernseher Kabel gezogen und ein paar Wireless Controller und ich war eigentlich ziemlich zufrieden, wenn auch nur 55" und noch kein OLED. Im Bett lümmeln und gemütlich noch am Abend ein wenig NieR oder Ori hat auf jeden Fall was.

Klappt natürlich nicht überall, aber hier funktioniert das ganz gut und die Spielauswahl sagt mir so zumindest auch mehr zu. Wem die Finger nach Smash Brothers or sonst irgendwelchen Exclusive Titeln jucken, der kommt natürlich dann eh nicht an den entsprechenden Konsolen vorbei. In meinem Fall sind das überwiegend Retro-Boxen, aber jeder hat ja einen anderen Geschmack.
 
  • Gefällt mir
Reaktionen: CiX
ShiftC schrieb:
So viel zum Thema: "Was kann man als Kunde schon bewirken?"

Man stelle nur mal vor, was sonst noch möglich wäre.
Richtig es ist die Bequemlichkeit die uns einschränkt wenn keiner die GPUs kaufen würde, oder zumindest weniger dann würden sie es merken.

Wie bei den Konsolen PS5 kostet knapp 240€ mehr als die Xbox SX was kaufen die Leute dann. 😉
 
  • Gefällt mir
Reaktionen: Onkel Föhn und ShiftC
Denke mal, dass nv noch voll den Absatz für Mining und die resultierende Knappheit von GPUs eingeplant hatte. Unter den Umständen hätte man denen doch so ziemlich Alles aus den Händen gerissen.
Nun ist Ether zum Glück endlich auf Proof of Stack umgestellt und damit die Verfügbarkeit von GPUs langsam wieder auf einem normalen Niveau.
Daher hat NV nun auch wieder die Hash-Bremse aus den Treibern gelöst.
Nur die Rechnung mit der 4080 12gb geht nun „leider“ nicht mehr auf. Mal sehen, was die rote Konkurrenz als Nächstes so bringt!
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Mcr-King
Ragnarök88 schrieb:
Das geht ja mit Nvidia, mit AMD nicht.
Da nützt es dir auch nichts das einzige Spiel auf Psycho Settings zu picken, welches wie Crysis auf Ultra auch auf keiner Karte völlig spielbar war...
Dass geht mit keiner Native in 4k kommt mir nicht mit DLSS oder FSR oder dass von Intel jetzt.

Desweiteren warum hat eine 2k Karte keinen DP 2 0 und AV1 decoding.
 
  • Gefällt mir
Reaktionen: Lamaan, Onkel Föhn und Eller
Ragnarök88 schrieb:
Nein, viel langsamer.
Ich habe mich nicht mit seinen Aussagen befasst. Aber laut cb test macht die 6900XT bei resident evil in rt eine genauso gute Figur wie eine 3080, viel langsamer sieht dann doch anders aus. Ist ja ok das für dich nvidia in allen belangen das beste vom besten ist aber man muss es nicht so krass übertreiben, das es sogsr unsachlich wird. Mal abgesehen davon ist die Diskussion hier off topic, es geht allein um die Erkenntnis, dass nvidia die 12gb Variante wohl doch nicht als 4080 bringen kann und es somit auch nicht mehr tut.
 
  • Gefällt mir
Reaktionen: Mcr-King und Lamaan
Odium schrieb:
Das eigentliche Problem von Nvidia ist ja jetzt, dass Spiele gar nicht mehr die gleichen Anforderungen wie vor 20 Jahren haben. Selbstverständlich gibt es immer noch Vertreter wie Cyberpunk 2077, die da etwas mehr Power gebrauchen könnten, aber nie waren so viele PC-Spielerinnen wie heute mit ihrer alten Hardware zufrieden. Es gibt eine Diskrepanz bei Leistung und breiter, durchschnittlicher Leistungsanforderung. Wo man früher eben noch alle zwei oder drei Jahre etwas neues kaufen musste, um ruckelfrei spielen zu können, geht es jetzt um rein kosmetische Fragen wie Raytracing oder 100 vs 120 FPS. Wenn überhaupt. Ich vermute mehr als 95% der Neuerscheinungen laufen heute hervorragend auf einer Maschine, die man 2015 gebaut hat.
Das ändert auch nichts daran, dass die GraKa das inzwischen wichtigste Bauteil ist. Wie die Redaktion sich bei den CPU-Tests bemüht hat, ein Bottleneck herzustellen um überhaupt den Einfluß da zu ermitteln...

Ich könnte mir vorstellen, damit man zu diesen Verhältnissen wie 2021 zukommt, dass man in Zukunft Gaming mit Mining irgendwie besser und natürlicher verbindet. Zocken und gleichzeitig ingame-Währung schürfen und damit auch für Gelegenheitsspieler den Druck erhöht, eine teure Karte zu kaufen.
Grundsätzlich hast du recht, einzig der Anstieg der Auflösung durch Kauf eines neuen Bildschirms hat mich jedoch in der Vergangenheit dazu bewegt, eine neue Karte zu kaufen. Mal sehen, wie weit mich meine 6600 xt in WQHD an PCIe3 noch bringt. Wobei ich auch nicht mehr die Allerneuesten Games zocke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, Mcr-King und Laphonso
HardRockDude schrieb:
  • 4080/12 is a fantastic graphics card
  • 4080/16 is an amazing graphics card
  • 4080/16 is a delight
  • enthusiasm for 4090
  • the reception for 4080 will be awesome
Bingo!
BRACCUS is a bloody, rotten, thieving, very, very awful fellow. Some even call him a cur! A CUR is.


Iwie erinnert es an divinity 2, was nVidia hier abzieht
 
  • Gefällt mir
Reaktionen: HardRockDude
Laphonso schrieb:
Ich betrachten hier explizit die Technik, nicht dem Preis! Es geht um das, was man GPUs und CPUs zumuten kann. Die Konsolen bremsen diese Evolution für die Masse aus. .
Glaube ich nicht so recht daran. Erst mal müssen die ganzen PC Gamer von lahmen HDD weg. Meisten Games setzen nicht mal SATA-SSD vorraus. Da sind die aktuellen Konsolen schon Schritt weiter was Datenverwaltung angeht.
Sicher müssen auch auf Konsolen Last Gen Entwicklung durch Cross Gen Titel der PS4/Xbox One wegfallen. Dann hast aber bei Multi-Titel immer noch das Problem dass meisten PC Gamer kein DirectStorage nutzen können aber PS5/Xbox Series schon.
PC müsste man also viel mehr in den RAM auslagern aber da hast auch noch nichtgenug Leutedie mehr als 8-16GB nutzen.

Mindestanforderungen müssten erst mal am PC steigen damit 6-8 Kern CPU und NVMe Standard werden. GPU alleine ist Teil des Ganzen und Heutzutage leichter skalierbar als das Datenstreaming von ganzen Assets.

Konsolen allein die im Durchschnitt 1440p/60 mit Upscaling schaffen sind da weniger Bremsklötze.

Ratchet & Clank Rift Apart mag zwar auch NVMe 3500 MB/Sreichen aber vermutlich wurde das Spiel nicht mit SATA-SSD am PC funktionieren.

Solange am PC nur erste Titel optional DirectStorage bieten werden wie Forspoken wird sich da auch nicht viel bewegen neben besserer RT Leistung.

Bis dahin werden nächsten Grafikhighlights am PC dann irgendwelche PS4 Ports und Cross Gen Titel sein. Außer man nutzt GPU Power für VR oder Tripple-Monitor Setup.
 
  • Gefällt mir
Reaktionen: Mcr-King
Sly123 schrieb:
Durch den hohen Preis der 4080 16G und Verzug einer schwächeren GPU werden selbst die restlichen 3090 Tis attraktiv. 😂
Ich denke, genau das ist der Plan.
 
  • Gefällt mir
Reaktionen: LTCMike und icke79
Frage mich ob nvidia das auch gemacht hätte wenn eine 12GB FE gegeben hätte... ich vermute mal: nein. Da kommt einem EVGA wieder ins Gedächtnis.
 
  • Gefällt mir
Reaktionen: Eller und Mcr-King
KuroSamurai117 schrieb:
Glaube ich nicht so recht daran.
Dann sprich mit denen, welche die Games für die Plattformem entwickeln. ;-)
Ich finde leider das Interview eines großen Studios nicht mehr, das offen ansprach, dass sie Games technisch über die Konsolenlaufzeit kastrieren und auf dem PC bei den Ports dann endlich für ein ultra settings Szenario designen können.

Zum Thema finde ich zumindest das:
https://pinglestudio.com/blog/industry-news/next-gen-game-development-most-important-issues
 
CiX schrieb:
Sehe ich ganz genauso und ich frage mich ebenfalls, wie jemand mit genug Geld für ne 4090 nicht noch einen tausender ausgeben will für nen oled, einfach weils so ein verdammt starkes visuelles upgrade ist. Selbst später mit ner 5090 wird das spiel nur flüssiger laufen, aber eben nicht "besser" aussehen, wenn ein Bildschirm einer alten gammeltechnologie benutzt wird wie ips oder va.

Beg1 schrieb:
Nie wieder die uralte Technologie, da liegen Welten zwischen, das ist vergleichbar mit dem Wechsel von 60 auf 120 Hz, keine Ahnung warum sich viele andere 4090-Käufer noch mit IPS abfinden, ist so, als würde man nen Porsche mit komplett verdreckten Scheiben fahren.

Keine Ahnung was ihr beide gegen IPS habt. Ich habe einen Super 38" LG UltraGear 160hz Monitor 21:9 3860x1600, HDR, NanoIPS (LG 38GN950-B). Ich will nichts anderes mehr, schon garnicht VA Panel, oder TN. Hatte zuvor auch IPS von LG. War super, daher erneut IPS gekauft, aber NanoIPS. Oled hat auch seine Schwächen wie die Tests zeigen. Wenn überhaupt, wechsle ich erst bei MicroLEDs. Habe auch 1200€ hingelegt für den Monitor und werde es auch die nächsten Jahre behalten weil ich superzufrieden bin mit Bildqualität, toller Kontrast den ich sogar runterregeln muss, kein Ghosting Effekt, Lokal Dimming, tolle prachtvolle Farben. Was will man mehr. MicroLeds werden Oleds ablösen, daher abwarten. Könnte auch Oled kaufen letztes Jahr für den Preis, aber es gab kein Monitor mit diese Eigenschaften.;)
Mein Evga RTX 3080 OC hat noch genug Power für den Monitor (Fest eingestellt auf 120Hz), falls es nicht mehr geht wird es ein RTX 4090 wenn die Preise fallen. Aber der NanoIPS Monitor wird bleiben weil es ein Traum ist und auf dem Markt mMn kaum ein besseres gibt. Die Nachteile von Oled überwiegen mehr, so dass ich auf die MicroLeds warten werde. Oled ist derzeit keine Alternative für mich, so dass ich erneut auf NanoIPS setzen würde. Nicht jeder spielt nur am PC, ich arbeite stundenlang auch damit, habe oft für paar Stunden helle Standbilder, dass mag OLED garnicht.

Jedem das Seine!

Infos zu MicroLed: https://www.hifi-regler.de/wissensw...ro-led-im_vergleich_mit_lcd_oled_und_qled.php
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CiX
Beg1 schrieb:
jetzt bleibt nur noch der lächerliche Preis, auch als 4070 für 900$/1100€ einfach absurd.
Absurd finde ich diesen nicht. Nur zu teuer. Abe in Betracht der Lage was Kunden kaufen ist das für nVidia einfach der Preis den Sie nehmen können. Denn gekauft wird auch so, siehe 4090 ab 2000€. + oder denkst du die Karten bleiben deswegen liegen? Eben, es wird trotzdem gekauft. Für mich in über 25 Jahren wo ich GraKas kaufe auch letztes Jahr Weihnachten das erste mal das Ich kein Flaggschiff gekauft habe. EWnt6weder die Tage eine 3090 oder eine kommende 4070. Mal abwarten.
 
Zurück
Oben