Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Gravlens schrieb:
Was für einen Sinn macht es diesen als Vergleich zum Nachfolger heran zu nehmen?^^

Den gleichen Sinn, den es macht, wenn ich die UVP der 4090 vor 27 Monaten mit der UVP der 5090 vergleiche.

Willst Du mich hier verarschen!?
 
  • Gefällt mir
Reaktionen: eXe777 und GreatEvil
MaverickM schrieb:
Den gleichen Sinn, den es macht, wenn ich die UVP der 4090 vor 27 Monaten mit der UVP der 5090 vergleiche.
Stimmt, das ergibt bei den Preisschwankungen über so einen relativ großen Zeitraum überhaupt keinen Sinn.^^
 
@Gravlens
Vielleicht einfach mal lesen, was ich weiter oben wirklich geschrieben habe, dann verstehst Du es vielleicht.

Straßenpreise vergleichen ergibt übrigens noch weniger Sinn, weil die dank fehlender Verfügbarkeit bei der 5090 gerade noch absurder sind.
 
@MaverickM Du hast aber direkt auf ein Zitat geantwortet und ich bin deshalb davon ausgegangen das du dich auf die UVP des 9800X3D beziehst weil das für mich zumindest logisch wäre.

Wenn man das auf die UVP des 7800X3D bezieht...wie hoch war die Inflation? Sorry, das verstehe ich wirklich nicht, der 7800X3D war halt damals was die Effizienz anbelangt weit über allen anderen, das war der 9800X3D im Vergleich zum 7800X3D nicht mehr, deshalb "musste" AMD das machen was sie gemacht haben.^^
 
Ach du Scheiße 😧
IMG_8741.png
 
Das sind jetzt die Zeiten, wo AI Beschleuniger fürs "Gaming" missbraucht werden.

Die Preise werden die nächsten 6 Jahre immer mehr steigen.

Früher war es ja so das "Gaming Karten" für andere Sachen missbraucht wurden.

uwu
 
Ich für meinen Teil hab mich entschieden !

Ich bleib bei meiner RTX 3080 und mach lieber ein paar Abstriche.

Die neue Generation ist:

1. Viel zu teuer
2. Viel tu durstig
3. Viel zu laut
4. Viel zu sehr am Limit
5. Bei weitem nicht so viel schneller wie die Vorgängergeneration

Und dementsprechend kein attraktives Produkt. Insbesondere der Preis hat mich am Ende abgeschreckt.

Wenn man einen Schritt zurücktritt und sich überlegt, wie lange und hart man für 2500-3000€ arbeiten muss und was man am Ende dafür bekommt, so ist kurz vor knapp nochmal die Vernunft in mich gefahren.

In 3440x1440 komm ich mit der 3080 in DLSS Performance noch eine Weile klar.

Sollte Nvidia preislich zur Vernunft kommen und den Blackwell Nachfolger Rubin / die 6090 RTX in 3NM fertigen, schau ich 2026/2027 nochmal vorbei.

Andernfalls wird es auf meine alten Tage vielleicht einfach Zeit das Gaming an den Nagel zu hängen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomAkar, Terrschi, RaptorTP und eine weitere Person
cheyennne_hey schrieb:
Das sind jetzt die Zeiten, wo AI Beschleuniger fürs "Gaming" missbraucht werden.

Die Preise werden die nächsten 6 Jahre immer mehr steigen.

Früher war es ja so das "Gaming Karten" für andere Sachen missbraucht wurden.

uwu
Das seh ich gänzlich anders. Igor hat sich aus meiner Sicht sehr positiv dazu geäußert. Die Hardware Preise entfernen sich immer weiter vom Ottonormalverdiener. Sollte die nächste Generation noch teurer werden, kauft die Dinger irgendwann keiner mehr. Es gibt überall Schmerzgrenzen. Auch bei Grafikkarten.
 
  • Gefällt mir
Reaktionen: RaptorTP
Gravlens schrieb:
Du hast aber direkt auf ein Zitat geantwortet und ich bin deshalb davon ausgegangen das du dich auf die UVP des 9800X3D beziehst weil das für mich zumindest logisch wäre.

@cheyenne_hey hatte in seinem Beitrag den 9800X3D herangezogen und wie er hier vermeintlich gefeiert wird (Und dabei gibt es hier verdammt viele, die gegen die CPU wettern...), obwohl er "nur" 10% Leistungssteigerung hatte zum Vorgänger.

Daraufhin mein Einwand, dass die Zahl erstens nicht stimmt (Real: 14% Spiele, 25% Anwendungsleistung), zweitens sind es auch gerade mal 30€ Preisunterschied (+6% Preisseigerung) in der UVP, im Gegensatz zu knapp 500€ (+24% Preisseigerung) bei der 5090 und schwacher Mehrleistung von 9%-22% sind. Vom Aspekt der deutlich gestiegenen Leistungsaufnahme der 5090 gar nicht erst reden. (Und bevor der Einwand kommt: Ja, der 9800X3D frisst ein wenig mehr als der 7800X3D. Die Effizienz ist aber nur wenig gefallen, der Unterschied ist gering. Deutlich geringer als von 4090 -> 5090.)

Ergo ist sein Vergleich einfach Mumpitz. Übrigens umso mehr, wenn man statt UVP die Straßenpreise vergleicht.

cheyennne_hey schrieb:
bekannter Troll hier im Forum .

Diese Ironie. :evillol:

Du hast ja eindrucksvoll auf den letzten Seiten bewiesen, wer hier trollt.
 
  • Gefällt mir
Reaktionen: GreatEvil, eXe777 und wolve666
xexex schrieb:

Jo, ist offensichtlich ein Platzhalter. Sie hätten aber auch einfach gar keinen Preis eintragen können, sofern es die Shop-Software erlaubt. ;)
 
  • Gefällt mir
Reaktionen: Snoopy69
Sp4wNickle schrieb:
Das seh ich gänzlich anders. Igor hat sich aus meiner Sicht sehr positiv dazu geäußert. Die Hardware Preise entfernen sich immer weiter vom Ottonormalverdiener. Sollte die nächste Generation noch teurer werden, kauft die Dinger irgendwann keiner mehr. Es gibt überall Schmerzgrenzen. Auch bei Grafikkarten.
Wie du siehst das anders?

Nein die Preise entfernen sich nicht immer weiter vom "Ottonormalverdiener".

Was genau entfernt Sich den? Für die Normalen Ottonormalverdiener ist doch die 5060/5070 verfügbbar.


Und genau SO wie Ich es gesagt habe ist es:

Es sind AI Karten -> mit denen man auch Spielen kann, und nicht umgekehrt.

Das ist die Realität 2025.
Ergänzung ()

MaverickM schrieb:
Diese Ironie. :evillol:

Du hast ja eindrucksvoll auf den letzten Seiten bewiesen, wer hier trollt.

Anscheinend habe ich dich gut in Erinnerung, du wolltest doch unbedingt dein "Haus" bei Google Maps verstecken du warst das richtig?

Womit Trolle ich angeblich, das Ich unbequeme Wahrheiten ausspreche?
 
Alles wie schon seit Wochen und Monaten zu erwarten war. Schade auch, dass man laut Der8auer das Power Target nicht unter 70% setzen kann. Ist etwas das ich zB bei meiner 4090 ständig nutze.

Bestimmte AI Workloads laufen eher bei 250-300W im Effizienz-Sweet Spot ggü. volle Kanone. Auch bei vielen älteren Games verbrennt man einfach unnötig Energie ohne deutlich und sinnvoll Mehrleistung zu generieren. Ein Grim Dawn zB spiele ich mit 42% PT (200W).

Klingt für mich so als ob nVidia hier einfach kackdreist ist und Angst hat, dass bestimmte AI-Workloads so super effizient auch mit einer viel günstigeren 5090 abgebildet werden könnten und zwingt einen somit künstlich weit ausserhalb des Effizienz-Sweet-Spots.

Ekelhaftes Geschäftsgebaren. Dann hättet ihr der Karte halt lieber "nur" 24GB verpassen sollen.
 
Quidproquo77 schrieb:
Und 24% bei Raster ist davon am weitesten entfernt und bei RT22% und nur 15% bei dem Percentilen noch weiter.

Wenn dann Wolfgang erklärt die GPU limitiert, kann ich das über das Gesamtergebnis hinweg nicht so ganz für zutreffend halten.

Wenn dann aber andere wie Golem oder Gamestar etc. in die andere Richtung noch stärker vom Mittelwert abweichen, ist es kein Problem :D

Da wird halt die Spieleauswahl entscheidend sein.
 
Hab mir nochmal paar Beiträge aus anderen Foren angeschaut, generell wird die 5090 Sehr Positiv aufgenommen, 30-40% mehr performance.

Man merkt den Hype auch.

Denke der Bestand wird innerhalb von Mikrosekunden ausverkauft sein, einige zahlen 3k+ sogar für SuprimX und Astral wenn es nötig sein muss!
 
cheyennne_hey schrieb:
@Quidproquo77

Computerbase hat sogar mitunter die SCHLECHTESTEN 5090 Ergebnisse "Weltweit"
Ja das liegt daran das Sie praxisnah im geschlossenen case testen. Die anderen sind faul und haben einen open benchtable da kann die Karte frei atmen

Der Preis ist erstmal egal bei Release. Es wird alles gekauft unter 3000€ und MaNN ist froh eine zu bekommen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RaptorTP
cheyennne_hey schrieb:
Ne ich glaube er liegt da ganz Richtig...

Frau, Sohneman 3x 4070... bauchgefühl sagt mir, tief in dir würdest DU gern die 5090 selbst haben...

Aber bist eben keine 20 mehr und der Anhang kostet was ;)

Das nenne ich mal gewagt, zu behaupten, dass er die 5090 gern in sich haben würde :mussweg:
 
  • Gefällt mir
Reaktionen: RaptorTP
Zurück
Oben