News GeForce RTX 4000 „FE“: Drei Grafikkarten, zwei Namen und nur ein Design

Da stelle ich mir 6 Fragen:

1. Habe ich einen Geldscheißer ?
2. Bin ich bereit gierige Firmen zu unterstützen die ihre Marktmacht missbrauchen ?
3. Vieviele Topspiele die nicht mit Monetarisierungsmechanismen zugekackt sind sind in letzter Zeit erschienen bzw für die nächsten 1-2 Jahre angekündigt ?
4. Wieviele Topspiele der letzten paar Jahre habe ich noch gar nicht gespielt ?
5. Habe ich die Zeit die alle nachzuholen ?
6. Muß ich aufrüsten um die zu spielen oder habe ich die Hardware bereits dafür ?

Ergebnis: Kommando vom Großhirn an den rechten Arm: Mittelfinger ausstrecken und Richtung Konzernzentrale NVidea zeigen. Ende der Durchsage.
 
  • Gefällt mir
Reaktionen: adel, NerdmitHerz, CableGuy82 und 68 andere
Das Dumme ist ja:
Wenn hier kein DP 2.0 zum Einsatz kommt, kommen demnächst auch keine Monitore damit 🤮

Dachte kurz nach der Präsentation kommen so langsam dann die Monitor Hersteller und kündigen ihre neuen Teile mit DP 2.0 an, aber dem ist ja nun definitiv nicht so…
 
  • Gefällt mir
Reaktionen: CableGuy82, DRVNabsolute, Baal Netbeck und 4 andere
anappleaday schrieb:
Das Dumme ist ja:
Wenn hier kein DP 2.0 zum Einsatz kommt, kommen demnächst auch keine Monitore damit 🤮

Dachte kurz nach der Präsentation kommen so langsam dann die Monitor Hersteller und kündigen ihre Teile mit DP 2.0 an, aber dem ist ja nun definitiv nicht so…
Hoffen wir auf AMD, deren Marktanteil ist zwar immer noch weit von nVidia entfernt, aber so klein ist er auch nicht mehr.
 
  • Gefällt mir
Reaktionen: CableGuy82, palladium.-, og22 und 4 andere
johnieboy schrieb:
Vor allem sind das die Cherrypicked Resultate aus der Nvidia Präsentation.
Man kann also mit Recht davon ausgehen das es in Real noch ein gutes Stück schlechter aussieht.
Für mich war die ganze Präsentation gestern, inklusive des Digital Foundry Previews (schade, dass die sich dafür hergeben) ein neuer Tiefpunkt was Marketing angeht.

Es wurden ausschließlich Szenen und Spiele mit noch nicht veröffentlichtem Code gezeigt. Es gab nicht einen Vergleich zu aktuellen Spielen ohne "Powered bei NVIDIA". Die Folie wurde in der Präsentation auch nicht gezeigt, auf der Homepage von NVIDIA nur kurz veröffentlicht und dann wieder zurückgezogen.
NVIDIA versucht systematisch die eher magere Steigerung der Rasterisierungs-Leistung zu verheimlichen. Es sieht so aus als würde die 4080 12GB dort am Ende zwischen einer 3080 (Ti) und einer 3090 (Ti) landen, was zu dem Preis ein absoluter Witz ist.
 
  • Gefällt mir
Reaktionen: CableGuy82, palladium.-, .Ake und 17 andere
Was mich beim 4090 Kühler irritiert, ist dass er anscheinend der gleiche ist wie bei der großen 4080.

Die ganzen Renderbilder sind alle Müll, alleine bei den 4090 Bildern sind 2 unterschiedliche Designs, einmal ist der Lüfter kleiner und einmal ist er so groß, dass er den silbernen Rahmen schneidet.
Das 1. Design ist das "alte" 3090TI Design.
Das 2. Design mit den größeren Fans scheint korrekt zu sein, wenn man sich:
anschaut.

Ich würde mal eher glauben, dass die große 4080 den alten 3090 TI Kühler kriegt und die 4090 den Kühler mit etwas größeren Lüftern.
 
Vor allem hat man bei der 4080-12 Mal wieder das Nvidia typische.. gleich schnell wie der Vorgänger toptog bei weniger RAM.. 24gb vs 12

Hinzukommt wenn ich mir den unterschied zwischen 4080-16 und 4090 von den shadern ansehe ist da nicht nur Platz für eine Karte..

Normalerweise macht Nvidia für alle 5% mehr shadern bald ne eigene Karte.. und hier ist der unterschied direkt 60%
Das reicht mindestens für eine 4080 super, 4080-16TI , 4080-20TI


Auch versteh ich nicht wie die 4080-16 doppelt so schnell sein kann wie die 3080TI
Und die 4090 doppelt so schnell wie die 3090TI

Zwischen 3080TI und 3090TI sinds gerade Mal 5-8% Mehrleistung.

Hier direkt 60% mehr shader.. oder die 3090 ist brutalst Strom und Wärme limitiert
 
  • Gefällt mir
Reaktionen: CableGuy82
johnieboy schrieb:
Eine günstige 4070 die 3090 (Ti) Leistung bietet wäre dem stark im Weg.
Mag sein, aber es wird genug Leute geben, die darauf warten und unter Umständen auch genug Zeit dafür haben ;)
Also ich habe überlegt auf die neue Generation zu wechseln, weil ich aktuell aber kaum zum Spielen komme und meine Performance noch völlig ausreicht, sitze ich das aus.
Wenn es irgendwann eine entsprechend schnelle 4070 für deutlich weniger Geld gibt, werde ich es mir überlegen.

Es müssen halt definitiv mehr als 8 GB VRAM sein. Eigentlich würde ich auch für eine richtige 4070 mindestens 12 GB VRAM erwarten.
 
anappleaday schrieb:
Das Dumme ist ja:
Wenn hier kein DP 2.0 zum Einsatz kommt, kommen demnächst auch keine Monitore damit 🤮

Dachte kurz nach der Präsentation kommen so langsam dann die Monitor Hersteller und kündigen ihre neuen Teile mit DP 2.0 an, aber dem ist ja nun definitiv nicht so…

Maine schrieb:
Hoffen wir auf AMD, deren Marktanteil ist zwar immer noch weit von nVidia entfernt, aber so klein ist er auch nicht mehr.

Gerade auf Golem.de gelesen:

"Dazu gibt es eine adressierbare LED-Beleuchtung und 3 x Displayport 2.0 sowie 1 x HDMI 2.1."
https://www.golem.de/news/intel-arc-die-arc-a770-wird-fuer-den-verkauf-vorbereitet-2209-168397.html

Bin gespannt wie es bei AMD bzgl. DP 2.0 aussieht. Eine Karte der 4000er Generation und auch Gamingmonitore die DP 2.0 ausreitzen sind zwar jenseits von dem was ich mir preislich gönnen möchte. Dennoch enttäuscht es etwas, dass Nvidia diesen Standard nicht untersützt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
piccolo85 schrieb:
Sieht für mich nicht so aus als würde die Karte im Schnitt 3090Ti Rasterisierungs-Leistung bringen, erst mit DLSS 3.0 wendet sich das Blatt. Was wohl auch der Grund sein dürfte, warum es den 4000er Karten vorenthalten wird. Die Präsentation hätte sonst ganz schön doof ausgesehen...

Wie lange es wohl dauert bis jemand DLSS 3.0 auf 3000er und 2000er Karten per Mod zum Laufen bringt?

Anhang anzeigen 1262381
Dieses Diagramm bezieht sich aber nur auf die Leistungsteigerung durch DLSS3, oder? Also die "Raw Power" bei Games die nicht "Powered by NVIDIA" sind, wird entsprechend nicht so hoch ausfallen schätze ich.
 
Wollte mir ja eine holen, aber über 1000€ für eine 4080? Never. Hatte damals eine 980Ti und die hatte glaube ich 700€ gekostet. Jetzt wollen die für eine normale 80er fast das Doppelte. Dann eben nicht.
 
  • Gefällt mir
Reaktionen: CableGuy82 und palladium.-
Nuklon schrieb:
Ruhig Blut, es gibt ja noch die TI und super Versionen zum Nachschieben.
For the gamers Geldbeutel.
Bitte sachlich bleiben, Super oder Ti-Modelle werden an den Schnittstellen nichts ändern.
 
  • Gefällt mir
Reaktionen: lkullerkeks und anappleaday
sikarr schrieb:
Macht es eurer Meinung nach Sinn die RTX 40er Generation zu überspringen und sich dann doch lieber ne 3080 (Ti) zu holen?
Es gibt noch keine Reviews/Benchmarks, nichts. Lässt sich daher nicht beantworten.
 
  • Gefällt mir
Reaktionen: CableGuy82, maaco90, nazfalas und eine weitere Person
Der Bonus bei Ada zu Ampere ist erstaunlich genau Cores 16384 / 10752 * Boost 2520 / 1860 ~ 2,065
Ich hätte erwartet, dass es da zumindest auch etwas Effizienz/Genialität bzw. IPC Uplift seitens Nvidia gibt. So ist es am Ende doch rein TSMC zu verdanken.
 
  • Gefällt mir
Reaktionen: Flaimbot
anappleaday schrieb:
Es gibt noch keine Reviews/Benchmarks, nichts.
Mir gefallen Preise und Leistungsaufnahme bzw. Wärmeabgabe nicht. Auch wenn mit einer Ultra Energieeffizienz geworben wird bleiben 450 Watt, 450 Watt die auch zum Großteil in Wärme abgeführt müssen.

Meine Hoffnung war das NV vielleicht bei der RTX 50er wieder "normale" Werte aufruft.
 
  • Gefällt mir
Reaktionen: Recharging
Sind das alle Grafikkarten, die neu kommen oder kommen da noch günstigere 4070, 4060, 4050, 4040, 4030, 4020 und 4010?

Zocken ist ja eine Sache, ich spiele nicht und habe daher kein Interesse an so teuren Karten.
 
Iconoclast schrieb:
Wollte mir ja eine holen, aber über 1000€ für eine 4080? Never. Hatte damals eine 980Ti und die hatte glaube ich 700€ gekostet. Jetzt wollen die für eine normale 80er fast das Doppelte. Dann eben nicht.
Dann ggf. noch etwas auf die 3080er Dumps warten oder eine 6800XT oder 6900XT kaufen, dann bist Du im 700 bis 800 Euro Korridor.
Und hast einen absurden Leistungssprung von einer 980Ti.

Evtl kommt RDNA 3 mit einer 7700XT ja um oder unter 700 Euro.
 
  • Gefällt mir
Reaktionen: derin und Chismon
johnieboy schrieb:
In der Tat. Aber Nvidia muss diesen Weg offenbar gehen um die vollen Lager von 30er Karten noch abverkaufen zu können, die man im Zuge des Mining Booms überproduziert hat und jetzt fast wie Blei im Regal liegen
Eine günstige 4070 die 3090 (Ti) Leistung bietet wäre dem stark im Weg.
Interessant sind dabei aber auch die Gerüchte der letzten Wochen:

https://www.pcgameshardware.de/Gefo.../4070-Ti-mit-vollem-AD104-vs-3090-Ti-1400338/

Gemäß dieser Einordnung ist die 4070ti ja nun die 4080 light ( -> AD104 ). Die 400 Watt stimmen glücklicherweise so nicht, es sei denn es existiert noch ein zweites BIOS mit höherem Powerlimit. Wenn das Gerücht stimmt, dann ordnet sich die Karte zwischen 3090 und 3090ti ein. Die "echte" 4070 dürfte also nochmal etwas langsamer sein und vielleicht auf dem Niveau einer 3080ti liegen?

Wenn das Ganze sich tatsächlich als wahr herausstellen sollte, finde ich die Leistung für 4080 enttäuschend - insbesondere in Relation zum aufgerufenen Preis. Featureset hin oder her. Wenn dann würde ich hier zur 4090 greifen, alles andere finde ich preislich total unattraktiv.
Ich bin schwer gespannt was AMD macht...
 
@MichaG
Magst Du vielleicht dem Artikel noch eine Umfrage hinzufügen, was die Userschaft nun mit den Infos macht?
Würd‘ mich ECHT interessieren.
Ich bin leider beim eigenen Versuch mit der Moderation kollidiert.

Im Artikel wär die Beteiligung auch eh ungleich höher.
 
Ein hoher UVP manipuliert viele Kunden sehr stark, wenn die Straßenpreise fallen werden. Schon immer hörte sich 50% Rabatt auf auf 1499 EUR besser an (Schnäppchen, Wertigkeit, Performance) als 20% auf 899 EUR. Nvidia kann immer noch Preise anpassen.

Auch hört sich ein Kauf zum UVP wiederum besser an, als höhere Straßenpreise, die durch die hohe Nachfrage entstehen. Nvidia bekommt mehr Geld ab, wenn die UVP hoch ist.

Im Gaming-Bereich gibt es aber zu viele Leute, die bereit sind jeden Preis zu bezahlen, auch wenn finanziert werden muss. Daneben ist es bis heute seltsam, dass Lootboxen und freischaltbare Mini-Inhalte zu enorm hohen Preisen gekauft werden. Oder das Spiele zum Release zum UVP vorbestellt werden, obwohl fast jedes neues Spiel viele Bugs hat und in 3 Monaten 50% im Preis fällt

Zwischendurch hätte ich mal wieder Lust einen PC zu bauen und bis zum Anschlag zu tunen, aber ich würde das zu wenig nutzen. Ich bleibe für Games bei meiner Xbox SX.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 7oNine, Strahltriebwerk, DonDonat und eine weitere Person
Zurück
Oben