News GeForce RTX 4090: Nvidias Topmodell seltener und zu höheren Preisen lieferbar

Ich verstehe das Problem nicht, warum man sich keine 4090 für etwas kleineres als einen 4k-Monitor holen sollte.

Ich benutze einfach mal 4 Buchstaben: CUDA.
 
  • Gefällt mir
Reaktionen: NMA
blackiwid schrieb:
Ich mein du hättest ne 4080 kaufen können, nen 4k Monitor mit 144hz dein 1440p behalten und wärst immer noch billiger davon gekommen wie mit der 4090. Das ist wie wenn man in ner Blechhüte lebt mit Wellendach und mit dem Porsche davor parkt...
Ich glaube ehrlich, dass diese Diskussionen egal sind.
Ich habe auch meinen 27" OLED mit WQHD behalten, war mir aber zu schmockig, da 1st gen, der ist jetzt erweiterter Monitor und ist einem 32" QD-OLED gewichen, zusätzlich noch einen 77" TV LG OLED C1.
Für mich kommt in nächster Gen auch nur eine 5090 in Frage, Preis ist mir "eigentlich" egal, ich muss mich eh damit abfinden, wenn ich das beste Erlebnis für mein Hobby möchte.
So wird es einigen gehen.
Dafür gehe ich arbeiten, ich genehmige mir das.
Dann gibts halt keine All-In Urlaube mit Fressi Fressi Morgens Mittags und Abends, dann eher das Leben so genießen und 2 Jahre ne gscheite Grafikkarte drin haben, von der ich auch wirklich was habe.

Das war jetzt überspitzt, aber am Ende ist es so, das Teil rentiert sich anhand der Nutzungszeit oder nicht.
Und 2,5K für 26 Monate oder so sind für mich in Ordnung.
Wiederverkauf sogar mal nicht mit eingerechnet.

Es ist wie es ist am Ende.
NV kann jetzt eh machen was sie wollen, AMD hat den Server eh verlassen.
Und das wissen sie, deshalb geht das hier jetzt alles auch recht steil.

Fluchen bringt da nix mehr, Konsumverweigerung möglich, aber ich schieß mir doch nicht ins eigene Bein.
Deshalb - man kann ja auch eine niedriger Auflösung wählen also anderen Monitor, dann DLSS ein und dann hat man auch mit einer anderen GPU seinen Spaß, wenn man aber eben überall keine Einbußen möchte, muss man die Pille schlucken
 
  • Gefällt mir
Reaktionen: FU_long
Unti schrieb:
Ich habe auch meinen 27" OLED mit WQHD behalten, war mir aber zu schmockig, da 1st gen, der ist jetzt erweiterter Monitor und ist einem 32" QD-OLED gewichen, zusätzlich noch einen 77" TV LG OLED C1.
1. war die Diskussion ob es Sinn macht mit 1440p Monitor und ner 4090 zu spielen nicht ob es Sinn macht viel Geld in dem Bereich aus zu geben.
Dein Kaufverhalten macht für mich Sinn da die Teile zusammen passen viel Geld für Grafikkarten viel Geld für Monitore / TV. Ich hab nicht so viel Geld (über) und dagegen sage ich nichts.

Ein besserer Vergleich wäre jeden Tag sich nur mit Wasser und Brot ernähren, der Vergleich funtzt hier nicht so gut wie in den USA dort ist Gesundes Essen teurer als frische Früchte oder Gemüse und sowas wie Fast Food hier ist es umgekehrt, aber angenommen wir hätten amerikanische Verhältnisse und immer das ungesündeste und billigste kaufen und essen dann aber sich ne 4090 kaufen... das ergibt für mich kein Sinn, Weil das ist ein Luxusprodukt und wenn man sich hier Luxus leisten kann sollte man wenigstens durchschnittliches Essen leisten können.

Ich weiß nicht ob meine Versuche mit Vergleichen die Sache besser oder schlimmer machen aber ja fällt sonst nicht viel ein.

2. AMD ist nicht vom Server ausgeloggt, sie stellen fast 100% der Konsolenhardware entwickeln ihre Treiber weiter (FSR) und bringen erst mal nur noch "middle class" aber eine 4070ti oder gar fast 4080 finde ich für viele Interessant auch wenn das bei Nvidia next gen nur noch Mittelklasse ist, so ist das immer noch teils deutlich mehr wie >80% der Leute daheim haben.

Ausm "High End" sind sie erst mal ausgestiegen das stimmt, aber auch das nicht für immer sie wollen jetzt wohl wieder ihre K.I. Tiles und Gaming Tiles zu einer Reihe zusammen führen, der einzige weg wie sich Highend für AMD wieder lohnen kann, extra ein Chip für diese im Vergleich zu K.I. schlecht bezahlte Markt von Grafikkarten wo man auch bei gleicher Leistung immer noch Nvidia sogar noch unterbieten muss damit auch nur 1-2 Leute drüber nachdenken zu wechseln lohnt sich halt kaum und ein Chip extra dafür zu produzieren und dann natürlich noch geringere Stückzahlen wie Nvidia das ist die Quadratur des Kreises man hat gleiche Fixkosten für die Entwicklung oder ähnliche wie Nvidia muss weniger Geld verlagen und verkauft weniger so das man die Fixkosten nicht auf hohe Stückzahlen verteilen kann.

That said bin ich sehr begeistert wenn sie es hin kriegen sollten nen bililgen und Effizienten Chip für die 8800xt oder wie sie heißen wird zu releasen mit > 4070ti 16gb inclusive RT hin zu kriegen und sie den Preiskampf suchen und besser dort sind wie Nvidia wenn auch nicht hunderte Euro natürlich (nachdem Nvidia nach zieht oder kontert), das macht mich schon sehr begeistert, denn das passiert ja nicht im Luftleren raum, der eine Hersteller hat excellenten Linux support der andere heißt Nvidia.

AMD hat mit Ryzen schon mal das undenkbare geschafft fast Intel K.O. geschlagen der Riese wankt und droht umzufallen... etwas wogegen 95% der Leute vor 10-15 Jahren dagegen gewettet hätten.
 
blackiwid schrieb:
1. war die Diskussion ob es Sinn macht mit 1440p Monitor und ner 4090 zu spielen nicht ob es Sinn macht viel Geld in dem Bereich aus zu geben.

Na, dann können wir das ja jetzt beenden. Für mich (und viele andere auch) macht es absolut Sinn, mit einer 4090 in WQHD zu spielen. Für dich nicht. Hab ich verstanden. Ein Freund von mir hat eine 4080 mit nem WQHD Monitor. Tolles Setup (ist ja auch von mir 😜), ein richtiger Traum-PC. Aber tauschen würde ich nicht wollen. Beim Spielen merkt man den Unterschied zur 4090 bei jedem Spiel. Und ja, für mich sogar so stark, dass es mir den Aufpreis auf die 4090 absolut wert ist. Ihm war es das nicht wert und das ist absolut ok.

Und Geld ist relativ. Viele meiner Arbeitskollegen haben einen fetten BMW in der Garage. Ich nicht. Weil mir das nicht wichtig ist. Für die kostet EINE Felge soviel, wie meine Grafikkarte. Ist halt auch immer eine Frage der Priorität.

Und ja, leisten kann ich mir teure Hardware, ich werde mir auch die 5090 leisten können und (für deinen Seelenfrieden), leisten werd ich mir in nächster Zeit auch einen 4K OLED.
 
  • Gefällt mir
Reaktionen: Unti
FU_long schrieb:
Beim Spielen merkt man den Unterschied zur 4090 bei jedem Spiel.
"jedem" sicher, wenn du Slay the Spire spielst wirst sicher nen Unterschied merken oder bei Civ 6 um was zu nennen was mehr Mainstream ist soll ich noch 100 aufzählen...

Die wenigsten kaufen sich ein 360hz Monitor also ich garantiere dir das bei den 99% spielen wo man die 144hz oder 120 voll aus fährt merkst du keinen Unterschied.

Und wenn du MIR vorwirfst zu verallgemeinern und dann selbst mit "man" kommst dann wirds abstrus "man" merkt sicher nicht bei auch nur den meisten schon gar nicht alles Spielen einen Unterschied...

Lass mich raten du redest von 1st person und dann reißt völlig unnäturilch die maus ganz schnell weite strecken rum, um es zu zeigen, nur würden so 99% der Leute nie spielen in Singleplayer games, die Mehrheit hat nicht mal mehr wie 60hz.

Ich wette sogar das es mehr Leute gibt die 60hz 4k Monitore benutzen mit ner 4090 als >120hz 1440p. Weil die wenigsten Esportler die 1st Person Esports spielen weder die Leage of Legends spieler noch Counterstrike oder sonstwas sich ne 4090 holen werden, sehr wohl aber Leute die auf 60hz wirklich die maximale Bildqualität zu holen.

Umgekehrt wird ein Schuh draus du merkst bei JEDEM Spiel ob du nen 1440p Monitor oder ein UHD Monitor hast, auch bei Slay the Spire und bei Civ 6 und auch bei was auch immer dein hardwarefressendes Game XY ist.

Jeder Konsolenspieler also fast 50% der gesamten Spieler (wenn wir mal Handies außen vor lassen) träumt nur von 60 fps durchgehend in allen Spielen, auf der Steamdeck sind eher 40 (fps) meist guter Kompromiss und bei der Switch hat man oft nur 30 aber aufm PC geht 60hz so gar nicht und selbst 144hz ist dann im Zweifel noch zu wenig. Gleichzeitig sagen mir andere das sie auf 144hz limitieren um Strom zu sparen und das dafür die 4090 doch so gut sei... was ist es nun braucht man 360hz oder ist sie so stromsparend weil man sie in Teillast auf 144hz begrenzen kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuering
32" 1440p 175Hz hier, und nicht aus Mangel an Alternativen!
Hab noch 28" 4k und 40" 4k Monitore, und nen 77" 4K Oled (120Hz).
Am Oled TV kann man ja mal FH5 mit Controller zocken, und bei permanent 120Hz sieht das nicht nur super aus, sondern fuehlt sich auch super an.
Am normalen Monitor merke ich bei manchen Games aber schon, wenn sie unter ~110fps fallen. Deshalb ist es damals kein 32" 4k geworden. (da hatte ich noch die 6900XT.)
Der 40" war dann doch zu gross, und der 28" 4k is sowieso als Homeoffice Monitor angeschafft worden, waere mir fuern Shooter zu klein.
Wuerde definitiv mal auf einen 32" Oled mit 150Hz+ umsteigen, von mir aus auch mit 4k. Dank DLSS kann man das ja trotzdem relativ gut nutzen.
 
Allgemein gesagt, finde ich den Wertverlust speziell bei der 4090 Grafikkarte nach so langer Zeit immer noch erstaunlich klein, da habe ich schon andere Käufe erlebt, welche rapide in kürzester Zeit am Wert verloren haben, was aber an dieser Stelle keine Beschwerde sein sollte.
Ich habe mir im Januar 2023 eine Gigabyte 4090 Gaming OC für 1919 € gekauft, welche in der ganzen Zeit mal billiger oder teurer wurde, derzeit im Preisvergleich (natürlich neu) ganz nach oben abgedriftet...wird bei anderen Marken vermutlich nicht viel anders sein.
 
  • Gefällt mir
Reaktionen: Unti und FU_long
ds212+ schrieb:
da habe ich schon andere Käufe erlebt, welche rapide in kürzester Zeit am Wert verloren haben,
Meine GPU ist mit Sicherheit so ein Fall. Deswegen schenke ich sie meinem Bruder anstatt sie für paar Euro zu verscherbeln.

Der Werterhalt der 4090 hat mich auch echt erstaunt.
 
  • Gefällt mir
Reaktionen: ds212+
Also, ich verstehe diese "Euphorie" nicht so ganz - jeder der mehr als 3 Gehirnzellen hat wird keine gebrauchte Hardware für einen "hohen" Gebrauch-Preis kaufen, nur weil der "neu-OVP" Preis gegen Ende so hoch war... meine 3090 habe ich im Februar 2023 auch für keine 750€ gekauft...

Klar, am Ende regelt der Markt, wie unser geliebter Finanzminister gerne predigt, aber dann sind das dann halt wohl doch die mit <=2 Gehirnzellen...
 
  • Gefällt mir
Reaktionen: daknoll und w0wka
Wuerde ich eine 2 Jahre alte gebrauchte 4090 kaufen? Ne sicher nicht. Wahrscheinlich nichtmal fuer 500€.
Werde ich meine 2 Jahre alte gebrauchte 4090 verkaufen? Klar. Ohne Probleme. Je nach Performance, VRAM, MSRP und Verfuegbarkeit der 5080, zwischen 800-1200€. :daumen:
 
mcmurphy100 schrieb:
Ich habe meine 4090 vor zwei Jahren für 1700€ gekauft und verticke sie jetzt für 1900€.

Wenn du einen Wahnsinnigen gefunden hast, der dir eine 2 Jahre alte 4090 für 1900€ abnimmt - herzlichen Glückwunsch!
 
  • Gefällt mir
Reaktionen: NMA und thuering
Araska schrieb:
Wenn du einen Wahnsinnigen gefunden hast,
Wahnsinnigen? Kerndummen wohl eher. Wer kauft einen gebrauchten Gegenstand für 1900€ wenn man für um die 2000€ diesen neu kaufen kann. So einen behämmerten muss man erstmal finden.
 
  • Gefällt mir
Reaktionen: NMA und thuering
Das ist doch fake, wer macht denn sowas?
Gebrauchte 4090 gibts doch so um die 1300, naja vielleicht werden sie nun wieder teurer.
 
BxBender schrieb:
Ich würde keine gebrauchte 4090 kaufen, die bald aus der Garantie sein dürfte.
Der Stecker ist das Problem.
Nein, denn fast alle Fälle (99%) basieren wenn überhaupt auf Adapterlösungen von 3x8Pin oder 4x8Pin auf den 16 Pin Adapter inkl. der anfälligen ASUS Header oder Cable Mod.
Eine gebrauchte RTX 4090 mit einem Nativen Kabel bzw. Netzteil hat keine erhöhten Ausfallraten, jedenfalls keine die auffällig wären.

Demzufolge ist es gar kein Problem eine gebrauchte RTX 4090 zu kaufen, im Gegenteil die Karten haben eher geringe allgemeine RMA Quoten. Ganz anders bei der RTX 2080 Ti, Radeon VII, Vega 64, RX 5700XT oder GTX 480, also alles noch im grünen Bereich.
BxBender schrieb:
Die Karte mag meinetwegen bis zu 2 Jahre sauber im PC gelaufen sein, aber gerade beim Ausbau, Verpackung, Transport und Einbau ins neue System kann dort ja dann sehr viel kaputt gehen.
Nein, ganz im Gegenteil. Das ist vor allem bei Reviewern zu sehen, die ihre Karten sehr oft umbauen.
Wenn man das halbwegs anständig macht, gibt es da gar keine Probleme.
Wir haben auch 2-3 RTX 4090 die schon rund 100 mal das System/Slot gewechselt haben. Kein Ausfall.
BxBender schrieb:
Ich erinnere gerne an Romans Testvideo einer MSI(?) Karte, wo so eine Art Kabeltester angebracht war, der die ganze Zeit gesponnen hat und Probleme gemeldet hat.
Das war schlicht Clickbait. Ein Wechsel des Kabels löste das Problem. Geschenkt.
BxBender schrieb:
Danach kauft man garantiert überhaupt keine 4090.
Dann darf ich gar keine Grafikkarte oder Hardware mehr kaufen, wenn man schon bei kleinsten Kontakt Problemen eines einzigen (x-mal verwendeten) sich in die Unterbuchse macht.

Was du und Nighteye betreiben ist schlicht auf bösartige Art und Weise Falschinformationen unter die Userschaft zu streuen und Zweifel zu säen. Und das ist keine Unterstellung, sondern empirisch belegt.
Nichts von dem was ihr behauptet stimmt. Das ist einfach eine Antipathie gegenüber einem Hersteller.
 
Zuletzt bearbeitet:
konkretor schrieb:
Versteh die Aufregung nicht, die Leute die ne 4090 kaufen, denen ist doch egal ob sie 1600 oder 2000 € zahlen. Geld spielt doch da keine Rolle.

Chilisidian schrieb:
Ich vermute, die 4090 insbesondere soll rechtzeitig verkauft werden, damit die Händler nicht wie bei Ampere noch auf massenweise Karten sitzen
Ja, die Händler.... denen gehen alle, bis auf die Aktionäre am A vorbei.

Man treibt jetzt die Preise der älteren Karten nochmal auf über 2000€ hoch.
Dann tut der Umstieg auf eine 3000€+ Karte auch nicht mehr so weh. :D
 
w0wka schrieb:
Wahnsinnigen? Kerndummen wohl eher. Wer kauft einen gebrauchten Gegenstand für 1900€ wenn man für um die 2000€ diesen neu kaufen kann. So einen behämmerten muss man erstmal finden.

War auch nicht so ernst gemeint, hast mich erwischt! ;)
 
Eigentlich ist es mit den hohen 4090 Preisen smart gelöst.
Diejenigen, die sich zu Weihnachten einen neuen High-End PC gönnen wollen, sind auf die 4090 angewiesen, wenn sie denn keine Abstriche machen wollen.
Eine Preissenkung Anfang nächsten Jahres ist sowieso unabdingbar, weil das traditionell die Phase ist, in denen weniger PCs gekauft werden. Dann bringt man die neue Generation raus und kann sodann gleich wieder hohe Preise verlangen und darauf vertrauen, dass die Enthusiasten die GPU sowieso kaufen werden.
 
  • Gefällt mir
Reaktionen: NMA
Zurück
Oben