News Verfügbarkeit der RTX 4080: Der UVP wird inzwischen konsequent unterboten

John_Wick schrieb:
Als ich damals für 500€ eine GTX 1070 bezahlt habe, war das schon ne Menge Geld, dafür war ich auch erstmal jahrelang gut bedient und kam mit der Karte gut über die Runden und hatte Freude endlich Spiele wie The Witcher 3 ordentlich zu zocken und zu genießen.
Genau richtig. Hatte meine KFA2 GTX 1070 ExOc auch von 2016 bis 2022 :daumen:.
Feines Teil Technik, was mich nie im Stich gelassen hat und womit man alles
in sehr guter bis guter Qualität spielen konnte :daumen:

John_Wick schrieb:
Wenn ich tolle Reflexionen und Lichteffekte will gucke ich halt aus dem Fenster
Der ist gut 🤣.

Im Ernst: ich habe mir die 3080 auch gekauft, um tolle Reflexionen etc. zu haben
und natürlich mehr Leistung.
Preisgrenze waren 900,- Euro (hat geklappt), obwohl ich voher nie soviel für eine GraKa ausgeben wollte :freak:.
Trotzdem bin ich froh und der Preis/Zeitpunkt war ok, da das Teil nun wieder ca 1100,- Euro kostet.
Leistung ist Top, aber die RT-Effekte etc sind nur in einigen wenigen Spielen sinnvoll
und eher sehr sporadisch zu sehen. Einzige Ausnahme: Ghostwire Tokyo. Das sieht schon richtig nett aus.

Die Spiegelungen bekommt man in gut programmierten Spielen auch sehr gut hin
ohne RT-Effekte. Viel zu überbewertet das ganze RT-Gedöns.
Z.B. in Grid Legends (fällt mir da spontan ein) sind extrem gute Spiegelungen auf den Autos und der Strasse,
vor allem bei Regen. Genial :daumen:
Und vor allem ohne übertriebene Hardwareanforderungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Zenx_ schrieb:
Bei den Gesamtkosten der rtx 4080 bist du aber sehr sehr großzügig, selbst 300€ an Gesamtkosten für das Teil wären schon fast zu hoch gegriffen.
das denke ich nicht. du musst auch die jahrelangen entwicklungskosten bedenken die reingeflossen sind, nicht nur die tatsächlichen produktionskosten des materials direkt am laufband.
aber fakt ist dass keiner von uns wirkliche zahlen hat was nvidia eine gpu kostet.
der einzige insider leak den ich kenne ist dass die 4090 in der produktion doppelt so teuer ist wie die 3090 es damals war.
 
Es mag ja sein, dass die RTX 4080 für den aufgerufenen Preis nicht von der Käuferschaft akzeptiert wird und sie deshalb "gut verfügbar" ist.

Aber was hingegen ist denn generell schon wieder seit dem RTX 4090-Launch am 12. Oktober 2022 geschehen?
Der Preisverlauf auf Geizhals bei vielen Grafikkarten offenbart die traurige Wahrheit sehr deutlich.

Preisverlauf verschiedener Grafikkarten seit den letzten 6 Monaten

RTX 3080 10 GB

cb_preisverlauf_rtx3080_10gb.png

Die RTX 3080 in der 10 GB-Variante ist die "letzte" Grafikkarte nach oben hin gemessen an ihrer Performance, die mehr oder weniger konstant günstiger über die letzten 6 Monate geworden ist. Bekanntlich ist die 10 GB-Variante aufgrund ihres eher dünn bemessenen VRAM aber auch keine gern genommene Wahl für WQHD- oder gar 4K UHD-Gaming. Wie sieht es bei den Modellen darüber aus, insbesondere seit dem RTX 4090-Release?

RTX 3080 12 GB
cb_preisverlauf_rtx3080_12gb.png


RTX 3080 Ti
cb_preisverlauf_rtx3080ti.png


RTX 3090
cb_preisverlauf_rtx3090.png


RTX 3090 Ti
cb_preisverlauf_rtx3090ti.png


Zufall ist das wohl kaum. nVidia weiß ganz genau, dass sie in Sachen Raytracing und DLSS 2.0 bzw. 3.0 starke Asse im Ärmel haben und scheinen bewusst weder die Verfügbarkeit, noch die UVP der genannten RTX 30er Kartenvarianten anpassen zu wollen.

AMD hingegen geht den exakt entgegengesetzten Weg. Praktisch alle Grafikkarten ab der RX 6700 XT aufwärts sind derzeit bereits 100-150 Euro im Schnitt günstiger, als sie es noch vor ca. 3 Monaten waren. Eine RX 6900 XT oder gar 6950 XT ist im Schnitt sogar 200 bis 300 Euro im Preis gefallen.

RX 6700 XT
cb_preisverlauf_rx6700xt.png


RX 6750 XT
cb_preisverlauf_rx6750xt.png


RX 6800
cb_preisverlauf_rx6800.png


RX 6800 XT
cb_preisverlauf_rx6800xt.png


RX: 6900 XT
cb_preisverlauf_rx6900xt.png


RX 6950 XT
cb_preisverlauf_rx6950xt.png



Auch, wenn nVidia also weiterhin die Raytracing- und DLSS-Trumpfe bei sich behält, so muss man sich mittlerweile mehr als nur einmal überlegen, ob der immense Aufpreis gegenüber der gleichschnellen AMD-Modelle überhaupt noch gerechtfertigt werden kann. Zumal FSR 2.0 bereits in vielen Spielen integriert ist und herrlich mit DLSS 2.0 konkurrieren kann.

Nur für das i-Tüpfelchen an Raytracing in lediglich einer Hand voll Spielen den derzeitigen und zweifelsfrei frechen Aufpreis im "Lager Grün" zu zahlen, sollte auch für eingefleischte nVidia-Fanboys mittlerweile zum Stirnrunzeln führen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Computerbasler, elmex201, Nicop und 9 andere
th3o schrieb:
der einzige insider leak den ich kenne ist dass die 4090 in der produktion doppelt so teuer ist wie die 3090 es damals war.
Hatte ich auch gelesen. Allein der Chip: Ungefähr gleiche Fläche, aber doppelter Preis / Chipfläche.

Am Ende spielt es aber keine Rolle, ob das Ding 100 oder 300 kostet in der Fertigung. Der Deckungsbeitrag ist enorm, muss aber natürlich Forschung, Treiberentwicklung, die Kooperation mit den Spieleherstellern etc. bezahlen über Jahre.
Ob NV ein gutes oder schlechtes Geschäft macht, kann man jedes Quartal anschauen im Geschäftsbericht. Die echten Innovationen finden aktuell aber ja auch auf der Softwareseite statt und nicht auf den Shadern - DLSS3, RT... Das wird wohl die Zukunft sein
 
DerRico schrieb:
Die echten Innovationen finden aktuell aber ja auch auf der Softwareseite statt und nicht auf den Shadern - DLSS3, RT... Das wird wohl die Zukunft sein
Und dennoch wird die Rohperformance von Generation zu Generation im gleichen (sogar steigenden) Ausmaß erhöht obwohl zusätzlich neue Technologien in die Karten eingebaut werden. Das eine passiert nicht auf Kosten des anderen, was ja schon mal gut ist.
 
MeisterOek schrieb:
Finde ich auch, aber was soll man mit einer 1080 nun machen?
Ganz im Ernst: 4090 holen!
Die paar Euronen machen das Kraut auch nicht mehr fett. ODER halt die - ebenso überteuerte - 7900XFX. … sofern die was taugt. Also noch 2-3 Wochen warten und dann den sauren Apfel essen.
 
  • Gefällt mir
Reaktionen: MeisterOek
MeisterOek schrieb:
...aber was soll man mit einer 1080 nun machen? Ich habe ein 4K TV (recht groß) und ein UWQHD Monitor und würde schon gerne Games in ~80FPS zocken in High. 3080 hat nicht genug Leistung dafür und 4080 ist zu teuer. So kann Nvidia einem das Gamen auch vermiesen.
Ich bin ja echt froh, dass die WQHD- und 4K UHD-Drückerbande noch nicht an meiner Tür geklopft hat. Ich kann mich wirklich glücklich schätzen, dass ich noch in Full HD spielen darf und man mich nicht gezwungen hat, mir Gedanken über eine derart überteuerte Grafikkarte machen zu müssen.

Kann man da rechtlich gegen vorgehen? Ich will mich doch nicht zwingen lassen, mir einen WQHD- oder gar 4K UHD-TV/Monitor kaufen zu müssen... diese Maximal-Auflösungs-Monitor-GPU-Mafia muss doch mal angegangen werden, kann ja nicht sein.

Mal im Ernst:
Ihr sucht euch das doch alle selbst aus. Ich versteh das einfach nicht, wie man sich da im Nachhinein auch noch beschweren kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KitKat::new() und DagdaMor
Selbst, wenn die jetzt den Preis auf 1000€ senken, nicht kaufen. Das geht mit Sicherheit weiter runter in der Rezession, sogar deutlich. Geduld zahlt sich definitiv aus.
 
Coeckchen schrieb:
Die Aufwiegung hab ich nie verstanden. Bevor ich Tausende Euros für 1-2 Wochen Rausballer die dann weg sind, investier ich das zeug doch lieber in den PC der mich tag für tag und über Jahre begleitet und vondem ich letztendlich mehr hab.
Du musst das auch nicht vestehen. Nicht jedermanns Leben dreht sich nur ums zocken sondern auch um Erlebnisse im echten Leben. Grafikkarten kommen und gehen. Erinnerungen an einen Urlaub bleiben für immer. Hab mich deshalb auch gegen eine teure Graka entschieden und freue mich auf 10 Tage Barcelona und Sylvester in dieser Stadt.
 
  • Gefällt mir
Reaktionen: Floeffy, PHuV und rarp
Sogar Flaggschiff-Modelle wie beispielsweise eine MSI GeForce RTX 4080 Suprim X oder Asus' GeForce RTX 4080 ROG Strix sind inzwischen zum Preis von rund 1.800 Euro lieferbar.

Immer noch 330 Euro mehr fuer als fuer die Founders Edition luftgekuehlte RTX 4080 Custom-Modelle, was haben die denn bei ASUS und MSI geraucht :lol: ?

Schoen, dass kaum einer die RTX 4080 Karten mehr moechte schon so kurz nach deren Marktstart, zumal die meisten Early Adopter und Hobby-Enthusiasten - die in den Preissegment unterwegs sind - sich schon vorher mit einer RTX 4090 eingedeckt haben duerften und so langsam geht wohl deren Kaufwelle zur Neige und die Ada Lovelace Karten werden bleigleich (wie gerade auch noch RTX Ampere Karten) zu diesen Preisen in Haendleregalen verweilen :).

Wenn sich da doch noch preislich etwas tun sollte von nVidia aus, dann wird das mit Sicherheit nicht sofort passieren, sondern ein paar Monate dauern, koennte ich mir vorstellen, aber vielleicht wird dadurch die RTX 4070Ti eben nicht bei 899 US$ (wie urspruenglich angedacht fuer die gleiche Karte unter vormals anderer Beeichnung, RTX 4080 12GB) sondern "nur" fuer 799 US$ (Damit 200 US$ hoeher als der Ampere Vorgaenger) angesetzt.

Was ASUS und MSI bei deren luftgekuehlten RTX4070Ti Topmodellen im Januar dann oben noch preislich aufschlagen, wird man sehen, aber halbwegs vernuenftige Kaeufer wuerden sowieso eher auf Gainward/Palit, Inno3D/Zotac, Gigabyte, oder PNY bspw. zu moderateren Preisen dann ausreichen.

Warten wir es ab ;).
 
Unnu schrieb:
Ganz im Ernst: 4090 holen!

Genau deshalb funktioniert es einfach! Statt einfach nichts zu kaufen.....
DJMadMax schrieb:
Zufall ist das wohl kaum. nVidia weiß ganz genau, dass sie in Sachen Raytracing und DLSS 2.0 bzw. 3.0 starke Asse im Ärmel haben und scheinen bewusst weder die Verfügbarkeit, noch die UVP der genannten RTX 30er Kartenvarianten anpassen zu wollen.

AMD hingegen geht den exakt entgegengesetzten Weg. Praktisch alle Grafikkarten ab der RX 6700 XT aufwärts sind derzeit bereits 100-150 Euro im Schnitt günstiger, als sie es noch vor ca. 3 Monaten waren. Eine RX 6900 XT oder gar 6950 XT ist im Schnitt sogar 200 bis 300 Euro im Preis gefallen.

Auch, wenn nVidia also weiterhin die Raytracing- und DLSS-Trumpfe bei sich behält, so muss man sich mittlerweile mehr als nur einmal überlegen, ob der immense Aufpreis gegenüber der gleichschnellen AMD-Modelle überhaupt noch gerechtfertigt werden kann. Zumal FSR 2.0 bereits in vielen Spielen integriert ist und herrlich mit DLSS 2.0 konkurrieren kann.

MMn wird die Taktik von Nvidia eine andere sein. Die Ampere Karten werden nicht im Preis gesenkt um die Marge nicht nach unten zu ziehen, da reagiert die Börse nämlich ungemütlich drauf. Ich vermute, Ampere soll preislich stabil bleiben um die Ada Preise zu "rechtfertigen", sobald Ampere aus welchen Gründen auch immer nicht mehr läuft, wird der Rest abgeschrieben. Auf diese Weise sind zwar Umsatzverluste da, aber die Marge bleibt stabil. Intel hat es ja viele Jahre genauso gemacht, da wurde nie Produkte groß im Preis gesenkt.

AMD ist offensichtlich daran interessiert die alten Karten noch unter Leute zu bringen, allerdings auch noch zu sehr hohen Preisen, was durch Nvidia ermöglicht wird. Insgesamt spielt AMD das Spiel einfach komplett mit und reiht sich beim Preis entsprechend ein. Auf keinen Fall scheint einer der beiden wirklich einen klassichen Preiskampf risikieren zu wollen.


MMn gibt es wirklich nur noch eine Möglichkeit, wenn die Kunden nicht kaufen. Da bezweifle ich aber ganz stark, dass wir das wirklich sehen werden. Spätestens wenn RDNA3 da ist wird bei vielen gekauft und das neue Preisniveau entgültig abgesegnet.
 
  • Gefällt mir
Reaktionen: Unnu, ComputerJunge, manfredham und eine weitere Person
Dr.Pawel schrieb:
Intel hat es ja viele Jahre genauso gemacht, da wurde nie Produkte groß im Preis gesenkt.
Fairerweise muss man aber sagen, dass Intel niemals solche Preissprünge in der Firmengeschichte hatte. Es gab einfach zu keinem Zeitpunkt in Intels Desktop-Ära eine neue CPU-Generation, bei der nicht mindestens ein Modell im halbwegs preiswerten Segment zum Launch zu kaufen war. Auch gab es nie Desktop-Prozessoren (nicht einmal im - geschichtlich betrachtet sowieso sehr jungen "HEDT"-Segment) Prozessoren für 2500 Euro Straßenpreis. In den 90ern gab es einmal einen vielleicht artverwandten Fall, als der Pentium Pro das Licht der Welt erblickte und ca. 1500 DMark kostete, was heute laut Inflationsrechner auch "nur" ca. 1150 Euro wären. Dennoch war das keine klassische Endkunden-CPU und es gab immer auch normale Prozessoren in verschiedenen Taktstufen. Das war auch nie anders - bei AMD ebenso.

Dr.Pawel schrieb:
AMD ist offensichtlich daran interessiert die alten Karten noch unter Leute zu bringen
Hier muss ganz klar der Marktanteil gesteigert werden. Es bringt nichts, ein gleichwertiges oder gar besseres Produkt in der Hinterhand zu haben, wenn der Marktanteil zu gering ist.

Dr.Pawel schrieb:
Auf keinen Fall scheint einer der beiden wirklich einen klassichen Preiskampf risikieren zu wollen.
Da gehe ich mit dir mit, ein klassischer Preiskampf sieht anders aus.
 
  • Gefällt mir
Reaktionen: Unnu
DJMadMax schrieb:
Ich bin ja echt froh, dass die WQHD- und 4K UHD-Drückerbande noch nicht an meiner Tür geklopft hat.
Wird sie auch nicht, weil es keine Drückerbande oder dergleichen gibt. Es ist mehr eine Art Droge, wenn Du einmal auf einem Oled Monitor in 4K UHD mit wirklichem HDR gezockt hast, dann willst Du nichts anderes mehr.
DJMadMax schrieb:
Ich kann mich wirklich glücklich schätzen, dass ich noch in Full HD spielen darf und man mich nicht gezwungen hat, mir Gedanken über eine derart überteuerte Grafikkarte machen zu müssen.
Dann sei froh, das Du noch nicht von der Grafik Droge 4K UHD gekostet hast, das spart auf jeden Fall Geld und Nerven.
DJMadMax schrieb:
Kann man da rechtlich gegen vorgehen?
Ja, einfach den Verstand und die Vernunft walten lassen!
DJMadMax schrieb:
Ich will mich doch nicht zwingen lassen, mir einen WQHD- oder gar 4K UHD-TV/Monitor kaufen zu müssen... diese Maximal-Auflösungs-Monitor-GPU-Mafia muss doch mal angegangen werden, kann ja nicht sein.
Da soll ein Finanzminister in Form einer Ehefrau wahre Wunder bewirken, habe ich zumindest gehört! 😂
DJMadMax schrieb:
Mal im Ernst:
Ihr sucht euch das doch alle selbst aus. Ich versteh das einfach nicht, wie man sich da im Nachhinein auch noch beschweren kann.
Ja wie das so ist wenn man mal Abhängig ist von einer Droge, man kommt nur schwer wieder davon los. Und die Dealer wie NVIDIA / AMD / INTEL, wie auch die Spieleschmieden machen es einem auch nicht leicht, werfen Sie doch immer wieder neue Variationen der Droge [Produkte / Games und Software!] auf den Markt. 😊
 
  • Gefällt mir
Reaktionen: manfredham, DagdaMor und DJMadMax
4090 liefert mehr fps/$ als 3090 --> Moor's Law ist im Prinzip noch gültig
4080 liefert signifikant weniger fps/$ als 3080 (und 4090!) --> maßlos überteuert

Mit dem Bezug auf Moor's Law meine ich, dass es mit moderneren Fertigungsprozessen mehr Transistoren auf der gleichen Fläche gibt was uns über Jahrzehnte mit neuen Produktgenerationen mehr Leistung zum gleichen Preis brachte. Die Prozesstechnik wird aber immer teurer in der Weiterentwicklung weswegen sich die Leistung/Preis Steigerung zunehmend verlangsamt.
 
  • Gefällt mir
Reaktionen: DerRico
nVidia schätzt den Markt für Grafikkarten über 1.000 Euro völlig falsch ein. Er ist so klein, dass man keine 5(!) Modelle über 1.000 Euro braucht. Die 4090 wird gekauft, da absolutes Highend. Wenn man das nicht will, dann kauft man eine 3070 - aber ganz sicher keine 4080 oder 3090 Ti.
 
  • Gefällt mir
Reaktionen: Benni16it
ragnarok666 schrieb:
Mit dem Bezug auf Moor's Law meine ich, dass es mit moderneren Fertigungsprozessen mehr Transistoren auf der gleichen Fläche gibt was uns über Jahrzehnte mit neuen Produktgenerationen mehr Leistung zum gleichen Preis brachte.
nämlich doppelt so viele ungefähr alle zwei Jahre, und nicht einfach "mehr fps": https://en.wikipedia.org/wiki/Moore's_law
 
@ragnarok666
Moore's Law war niemals dazu gedacht, sich die Performance-Werte auf den Kaufpreis oder den Strombedarf eines Produkts umzulegen.

Moore's Law hat immer und ausschließlich besagt, dass die Rechenleistung einer Komponente (damals sogar noch konkreter: MHz-Zahl) sich alle 18 Monate verdoppetlt. Diese Aussage hielt auch viele Jahre stand.

@Zotac2012
Glücklicherweise habe ich einen Finanz-Sheriff an meiner Seite :D Verbieten würde sie mir solche Spirenzchen zwar nicht, ich hätte aber durchaus ein schlechtes Gewissen dabei - alleine schon mir selbst gegenüber.

Was das "Drogenthema" angeht: Walter White hat auch nie seine eigene Droge konsumiert :) Das ganze Werbegewäsch funktioniert leider bei vielen. AMD wie auch schon nVidia zuvor fangen ja jetzt auch so langsam mit dem 8K-Geblubber an - auch wenn AMD 8K scheinbar nicht richtig verstanden hat.

Dennoch: ja, es steht doch ausser Frage, dass ein hoch aufgelöstes Bild besser aussieht, als ein entsprechend niedriger aufgelöstes Bild. Das funktioniert so lange, bis die Grenze des visuell möglichen Wahrnehmungsvermögens des menschlichen Auges erreicht ist. So sehr ich Apple auch meide, aber mit der Retina-Geschichte haben sie durchaus Recht: sobald die PPI-Anzahl erreicht ist, die die Fähigkeit des menschlichen Auges übersteigt, braucht man auch keine weitere Zahlenschlacht mehr betreiben.

Dagegen jedoch:
ein perfekt ausgerichteter Hörraum mit entsprechendem Equipment klingt auch immer um Welten besser, als ein lapidarer Kopfhörer - und wenn man sich noch so sehr mit den ganzen neumodernen "DACs" beweihräuchert. Hier jedoch nimmt keiner die 2500 Euro in die Hand und peppt den Höhrraum mit entsprechendem Equipment auf. Wieso nicht?

Die Antwort ist erneut ziemlich simpel:
Das Sehvermögen ist der Sinn des Menschen, der bei nahezu allen Dingen im Alltag als erstes anspringt. Wir hören Menschen in einem Kilometer Entfernung nicht, auch wenn sie noch so laut schreien - aber wir sehen sie, sogar sehr deutlich. Wir können sie (zum Glück) auch nicht riechen aus dieser Entfernung und Fühlen erst Recht nicht, genauso wenig schmecken.

Demnach ist es nur verständlich, dass die gesamte Industrie hinter der Unterhaltungselektronik primär Wert auf das Visuelle legt - hier ist es mit Abstand am Leichtesten, dem psychisch schwachen Menschen das Geld aus der Tasche zu ziehen. Ganz offensichtlich trifft das auch zu, sonst wäre der Anteil der "unter Drogenabhängigkeit befindlichen" Zocker-Klientel nicht so hoch. Die CB-Umfrage vor Kurzem hat es ja offenbart:

Nicht einmal mehr ein Fünftel der Teilnehmenden der CB-Sonntagsfrage bezüglich Spiele-Auflösung spielt noch in Full HD.

Von daher muss man doch ganz klar sagen: Hut ab, liebe Werbebranche - ihr habt alles richtig gemacht.
 
  • Gefällt mir
Reaktionen: Zotac2012
DJMadMax schrieb:
Moore's Law hat immer und ausschließlich besagt, dass die Rechenleistung einer Komponente (damals sogar noch konkreter: MHz-Zahl) sich alle 18 Monate verdoppetlt. Diese Aussage hielt auch viele Jahre stand.
Quelle?
 
Zurück
Oben