News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Also es gibt da schon ein paar Dinge die ich extrem unsympathisch finde um es diplomatisch auszudrücken.

Die 4080 12GB die eigentlich eine 4070 sein soll hat ja mittlerweile jeder erwähnt und ja ich bin auch der Meinung das damit Kunden durchaus verarscht werden. Weil nicht jeder genau weiß oder sich diese Infos geholt hat. Da steht 4080 drauf und halt 12GB sonst sieht man keinen Unterschied zwischen der 16er und der 12er Variante.

Das andere ist, mega wie hier einige versuchen die hohe Preise alleine durch den schwachen Euro zu rechtfertigten, viel mehr ist das ein X von vielen in der Gleichung. Es gibt natürlich die Inflation, die generelle Situation auf dem Markt und Dynamiken die man schwer vorhersehen kann usw. Energiepreise und was weiß ich noch alles.

Aber eines ist einfach nur lächerlich und das ist wie NVIDIA diese Situation derart nutzt um seine Preise jenseits von gut und böse zu platzieren. Ich würde sagen die Mischung macht es hier, die 4090 ist sicherlich etwas außen vor weil die Leistung natürlich gut sein wird. (Vllt) aber gerade die zwei 4080er sind einfach nur ein perfektes bsp. wie Up-Selling funktioniert, jeder der sich ne 4080 16GB kaufen würde überlegt sicher sich ne 4090 zu kaufen. Die Marge für NVIDIA dürfte bei dem Top-Modell auch die beste sein, nicht umsonst stampft Mercedes ja seine A-Klasse ein, die haben klar gesagt mit den C-Klasse und besser wird einfach die Kohle verdient.

Und wenn man die meisten hier so liest dann ist’s immer ne 4090 keine der 4080er.

Das andere ist das NVIDIA wohl auch versucht generell die Preise nach oben zu treiben, früher war die 80er Reihe das beste, dann gab es die Ti oder eben jetzt noch die 90er und diese ebenfalls noch mit Ti. Ich meine NVIDIA hat mit der letzten Gen ja auch fleißig gezeigt die machen alles. Erst gab es 10GB dann 12GB dann gab es auf einmal ne 2060 mit 12GB usw. Scheiße die Lederjacke würde auch seine Omi verkaufen wenn er könnte.

Und solange alle hier fleißig kaufen wird sich nichts ändern. Ich hab leider einen G-Sync Monitor den ich eigentlich auch echt gerne habe aber langsam wird es nur noch lächerlich. Jeder soll mit seinem Geld machen was er will, es ist noch immer ein Hobby aber der Winter hier wird die Spreu vom Weizen nur noch mehr trennen.

…. Scheiß Thema eigentlich dabei sollte es ja eigentlich was tolles sein. Ich hab mich früher immer total gefreut über neue Hardware aber mittlerweile …..
 
  • Gefällt mir
Reaktionen: Max007, Do Berek, McTheRipper und 6 andere
highwind01 schrieb:
Randgruppen-Meinungsbildern von zweifelhafter Relevanz ("Für mich ist die 4080 12GB eine 4070!!!!!einself"... Na das ist ja interessant...)
Bei 86% von einer Randgruppe zu sprechen ist schon mutig.
Wieso das nicht relevant sein soll, das eine nicht mal halbe 4090 mit nem AD104 Chip plötzlich 1100€ kosten soll, auch.

Wir reden hier über AD104,.
Der Vorgänger, GA104, war die 3070 und 3060 TI.

Im Augenblick existiert übrigens eine 3060 TI 8GB, welche 46,3% der SM einer 3090 besitzt.
Was denkst du wie viele SM eine 4080 12GB --> 4070 12GB im Verhältniss zu einer 4090 besitzt?

Lass mich dich erleuchten: 46,8%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Melu76, eXe777, McTheRipper und 7 andere
Wäre die 4080 nur mit 12GB statt mit 16GB ausgestattet, wäre das noch okay, aber die ist an anderen Stellen sehr schark beschnitten und es grenzt an Verarsche.
 
Nick.Bo schrieb:
und ja ich bin auch der Meinung das damit Kunden durchaus verarscht werden. Weil nicht jeder genau weiß oder sich diese Infos geholt hat. Da steht 4080 drauf und halt 12GB sonst sieht man keinen Unterschied zwischen der 16er und der 12er Variante.
Nunja- Also ein wenig Eigenverantwortung und Recherche sollte man dem mündigen Bürger doch zutrauen. Früher hat man es auch geschafft, die Grafikkarten gleichen Typs mit unterschiedlichen Speicherausstattungen auseinanderzuhalten. (z.B. 780 GTX mit 3 oder 6GB)
Steht ja fett auf der Verpackung, der Produktbeschreibung und der übergeordneten Kategorisierung.
Und gerade bei einer größeren Investition prüft man, was man da kauft...
Ich hab mich früher immer gefreut, wenn es eine Option auf mehr VRAM gab und man bei gleicher Kategorie zwischen 2 Varianten wählen konnte.
 
  • Gefällt mir
Reaktionen: shaboo, Flyerdommo, PHuV und eine weitere Person
.Sentinel. schrieb:
Ich hab mich früher immer gefreut, wenn es eine Option auf mehr VRAM gab und man bei gleicher Kategorie zwischen 2 Varianten wählen konnte.
Das mag ja sein, nur ist die RTX 4080 mit 16 GB und die RTX 4080 mit 12 GB nicht die gleiche Kategorie. Die RTX 4080 mit 12 GB Speicher hat nicht nur weniger Speicher, diese besitzt den kleineren AD 104 Chip, hat weniger CUDA Kerne, weniger TMUS, weniger ROPS und weniger Speicherbandbreite.

All das hat Nvidia bei der Präsentation mal soeben unter den Tisch fallen lassen, da wurde nur auf die 4GB weniger Speicher hingewiesen. Von daher ist die RTX 4080 mit 12GB schon rein faktisch keine RTX 4080, ausser bei Nvidia in der Marketing Abteilung. 😂

Aber an Kreativität hat es der Nvidia Marketing Abteilung noch nie gemangelt, nur diesmal ist die Kundenverarsche schon sehr dreist. Und die Preisgestaltung gegenüber der letzten Grafikkartengeneration von Ampere, gerade was die RTX 4080 betrifft, ist nicht nur eine Frechheit, sondern lässt sich nur noch mit Größenwahn betiteln.

Dem ganzen setzt dann noch das Ada Lovelace exclusiv Feature DLLS 3 die Krone auf, mit dem dann Benchmarks gezeigt werden gegenüber der letzten Grafikkartengeneration und DLLS 2, die überhaupt nichts über die wirkliche Leistungsfähigkeit der neuen Ada Lovelace Grafikkarten aussagt. Dazu kommt noch, das überhaupt nicht klar ist, welche Spiele überhaupt DLLS 3 bekommen und wann diese erscheinen, bzw. ob ältere Games mit DLLS 3 überhaupt nachgerüstet werden.

Das einzige Next Gen für mich an der neuen Grafikkartengeneration von Nvidia ist, wie man den Kunden gnadenlos über den Tisch zieht und sich für völlig unklare Fakten fürstlich entlohnen lässt. 😂
 
  • Gefällt mir
Reaktionen: Wintermute, Skjöll und .Sentinel.
Wenn die Leistung wirklich stimmt und das sagen uns erst die Testergebnisse würde ich meine 3090 verkaufen und dafür eine 4090 holen.
 
  • Gefällt mir
Reaktionen: Laphonso
Tatsächlich steht bei mir an das ich nach viel zu langer Zeit wieder einen Desktop PC für mich baue. Reinkommt definitiv ein Ryzen 7 mit 3D Cache. Bei der GPU bin ich vor allem gespannt wie die Raytracing-Leistung von den RX7000 ist. Wenn die immer noch unterirdisch ist, wirds wohl eine RTX4080 16GB .
 
Tja, das wird wohl nix mit günstigen RDNA3 GPUs von AMD, siehe Europreise für Ryzen 7000: PCGH - AMD macht es Nvidia nach. Wenn die das schon mit der CPU so machen, wird es bei den GPUs auch nicht anders aussehen. Hoffentlich kapieren jetzt endlich auch mal die Letzten hier, daß die höheren Kostenfaktoren nicht nur Nvidia anzulasten sind.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Ben_computer_Ba
Ich plane sowas nie.
Klar wären mehr fps schön aber bedarf ist bei mir keiner da.
Das Buget ist derzeit auch sehr knapp(allein um tägl. zur Arbeit zu fahren kostet es mich rund 250€/Monat nur das Benzin. Wartung und Versicherung + Steuer ist da noch gar nicht drin.
Ohne Auto gehts nicht(keine passenden ÖPV Verbindungen).

Ne, 1000€+ für eine Grafikkarte ist einfach nicht drin. Gibt einfach wichtigeres(zB kosten für die Einschulung der Kleinen nächstes Jahr, ja, das ist teuer!).
Wenn die RX5700 abraucht muss halt die alte GTX770 herhalten.
 
  • Gefällt mir
Reaktionen: PegasusHunter, DagdaMor, Joker* und eine weitere Person
Delgado schrieb:
Ich dachte immer, eine Rechnung geht auf. Sich aus?
SCNR ;)
Wie bei so einigen Artikeln hier (die ich für Ihren Gehalt sehr schätze!), sind die Formulierungen oft hart an der Grenze der deutschen Sprache (um nicht zu sagen falsch).

Das wäre wirklich eine wünschenswerte Verbesserung an der ansonsten tollen (und größtenteils kostenlosen) Berichterstattung hier.

"Toll" auch die Überschriften, in denen Dinge etwas beabsichtigen oder tun (Grafikkarten "zeigen sich", Arbeitsspeicher "kündigt sich an")...
 
  • Gefällt mir
Reaktionen: PegasusHunter und Delgado
PHuV schrieb:
Tja, das wird wohl nix mit günstigen RDNA3 GPUs von AMD, siehe Europreise für Ryzen 7000: PCGH - AMD macht es Nvidia nach. Wenn die das schon mit der CPU so machen, wird es bei den GPUs auch nicht anders aussehen. Hoffentlich kapieren jetzt endlich auch mal die Letzten hier, daß die höheren Kostenfaktoren nicht nur Nvidia anzulasten sind.

Deswegen wird auch der 7600x P/L der beste Deal vorerst unter AM5. Schade dass der nicht dabei war beim Test, soll ja recht beachtlich sein die Leistung laut anderen Test.
 
Gibt es neben dem "echten" Release am 12. Oktober seitens NV eigentlich Infos dazu, ab wann die NDAs zu unabhängigen Tests fällt bzw. fallen könnte?
 
Sollte die Leistung die Nvidia angibt tatsächlich stimmen, sind 1099 Euro für die "kleine" 4080 absolut gerechtfertigt, wir haben hier eine GPU im neuen 4nm verfahren, die Leistung pro Watt wurde fast verdoppelt, die Taktraten sind sehr hoch, neue Technologien wurden hinzugefügt, die RT Leistung ist teilweise um das 4fache gestiegen und bringt ebenfalls neue RayTracing Funktionen für noch beeindruckendere Grafik mit, Nvidia bietet zudem ein neues RTGI an, und zwar kostenlos, mit dem Modder alte Spiele wie das vorgestellte Morrowind in neuem Raytracing gewand mit neuen Textur Effekten e.t.c. erstrahlen lassen können.

Es wird immer nur auf die zahlen hinter der GPU geschaut, ist ja NUR eine 4080, für eine 80 am ende ist sie zu teuer, nein, es geht um die Leistung pro Watt, und hier ist die 40er Serie sogar günstiger als die 30er Serie, denn eine 4080 12G ist laut Nvidia 50% schneller unterwegs als eine 3090, und die hatte eine UVP von 1499 Euro, ich bekomme also sehr viel mehr Leistung für mein Geld, klar kommt der vergleich mit der 3080, die ja nur 799 uvp hatte, allerdings hinkt dieser vergleich immer mehr, mit jeder GPU Generation, und ganz besonders bei der enormen Leistung der 40er Karten, eine 4080 kann einfach nicht mehr mit einer 3080 verglichen werden, da hier Preis Leistung und Euro pro Watt einfach zu sehr verzerrt wird, das ist jedenfalls meine Meinung.
 
Tkohr schrieb:
Sollte die Leistung die Nvidia angibt tatsächlich stimmen, sind 1099 Euro für die "kleine" 4080 absolut gerechtfertigt, wir haben hier eine GPU im neuen 4nm verfahren, die Leistung pro Watt wurde fast verdoppelt, die Taktraten sind sehr hoch, neue Technologien wurden hinzugefügt,[...].
Die meisten Leute haben ein Problem damit, dass die beworbene Leistung ja "nur" mit DLSS 3.0 erreicht wird. Wenn dir die Technologie nicht gefällt oder deine Spiele das nicht unterstützen sollten dann hast du am Ende wesentlich weniger Leistung als Nvidia im besten Fallbeispiel beworben hat.

Auch muss sich DLSS 3.0 erst noch beweisen, sprich ist Bildqualität und Latenz in Problem oder nicht? Gerade auf der Latenz wird jetzt ja schon fast fanatisch rumgehackt. Bin mir sicher am Ende werden die allermeisten zwischen nativ und DLSS 3 an der Latenz keinen unterschied erkennen. Und die E-Sports Titel die jede Millisekunde weniger Latenz brauchen laufen in der Regel auch auf alter Hardware mit hohen FPS.

Das Hauptproblem der meisten Leute ist einfach der zur Zeit sehr hohe Einstiegspreis. Glaube die Reaktionen wären sehr viel positiver hätte Nvidia stattdessen eine 4060 für 400€ Ladenpreis vorgestellt.
 
  • Gefällt mir
Reaktionen: Wintermute
Für mich gibt es bis zum Release unabhängiger Reviews noch zu viele unbekannte Variablen, um zu jeder der Fragen eine Meinung zu haben.

Die Preisgestaltung wirkt für den Anfang überhöht, vor allem weil nvidia gerade nicht davon ausgehen sollte, dass Miner ihnen alles produzierte noch vor der Fabrikhalle aus den Händen reißen werden wie bei der letzten Generation. Die Karten werden von Enthusiasten gekauft werden, aber viele der üblichen "high-end"-Käufer die sonst in der XX80er-Region gekauft hatten könnten abgeschreckt werden. Man wird sehen, wie sich die Veröffentlichung von RDNA3 und der Abverkauf von Ampere da über die nächsten Monate auswirken werden.

Und die Bezeichnung der 4080er 12GB ist ein Witz. Von "Betrug" kann man zwar nicht sprechen, weil sie ihre Produkte ja gerne nennen können wie sie wollen, aber fragwürdig ist es allemal. Denn damit wird eine Position im Produktportfolio suggeriert, die anhand bisheriger Generationen bestimmte Erwartungen weckt (mal ganz abgesehen von der preislichen Einordnung).

Ob mir die 4080er mit 16GB den jetzigen Preis (oder einem leicht tieferen in ein paar Monaten) wert ist, wird sich für mich erst entscheiden, wenn die FPS pro Watt oder Euro unabhängig getestet wurden. Nvidias Zahlen sagen mir gar nichts, weil ich die Qualität von DLSS3 noch nicht beurteilen kann. Wenn die Unterschiede zur nativen Berechnung in Bewegung kaum auffallen, könnte ich gewillt sein es zu benutzen. Wenn sich jedoch herausstellen sollte, dass der Modus mit merklichem lag erkauft wird oder in einigen Spielen mysteriöse Bildartefakte/Flimmern/wasweißich verursacht, zählt am Ende dann doch nur die rasterizing-performance. Und ob die aufgerufenen Preise für diese Kategorie im Vergleich zu Ampere dann noch gerechtfertigt sind, muss sich erst noch zeigen. Und dort war AMD in dieser Generation (und voraussichtlich auch der nächsten) ja auch durchaus konkurrenzfähig.

Abwarten.
 
Ich hab eine ganz normale 3080 10GB, aber auch für unter 1000€ gekauft, war noch früh nach Release.
Sonst war immer Battlefield so der Zeitpunkt, wo zumindest der Austausch der Grafikkarte zur Debatte stand. Momentan habe ich kein Spiel in Sicht wo ich meine 3080 für wechseln würde und werde ziemlich sicher die 40er überspringen. Am Rest mit einem 5900x werde ich auch erstmal nichts machen, alles zum Release von Cyberpunk neu gekauft.
 
NonOptionalName schrieb:

Auf jeden Fall abwarten, aber wenn man sich CUDA cores und Takt ansieht, liegt die 4080/12 bei rund der doppelten Leistung einer 3070. Das ist schon heftig und bei 285W vs 220W auch effizienter.
 
Tkohr schrieb:
Sollte die Leistung die Nvidia angibt tatsächlich stimmen, sind 1099 Euro für die "kleine" 4080 absolut gerechtfertigt
Nach der Logik müssten Grafikkarten heute so viel kosten wie ein Auto, weil ja die Leistung immer gestiegen ist und früher gehörten drastische Steigerungen bei einer neuen Generation zur Normalität.
 
  • Gefällt mir
Reaktionen: Wintermute und eXe777
Zurück
Oben