News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?


Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?”​


Nicht genug um Sie nicht zu kaufen :).
 
  • Gefällt mir
Reaktionen: aluis und Ripcord
Ich hätte alle Vorraussetzungen für einen leisen Betrieb einer 5090 sogar @ max, mit externer custom loop Wakü und 1000Watt NT. Geld spielt dabei eine untergeordnete Rolle und auch der Stromverbrauch wäre es jetzt nicht.
Und dennoch eine Karte die über 400 Watt braucht kommt mir nicht mehr ins Gehäuse. Die Abwärme die solche Dinger produzieren vor allem im Sommer ist schon witzlos. Da kannst dann deine Klimaanlage anmachen, damit die 600 Watt Abwärme die das Gesamtsystem in den Raum pusten wieder wegbekommst.
Dazu kommt es es absolut kein Spiel in naher Zukunft gibt, die es mir auch irgendwie schmackhaft machen würde. Da ich zum großen Teil Strategiespiele spiele, die mehr an der CPU als an der GPU hängen bin ich für dieses Jahr sehr gut aufgestellt.

@MalWiederIch
Die ist wenigstens im Verhältnis günstig. Es ist keine besonders gute Karte aber sie hat ihre Nischen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, R3DN4X, PulsarS und eine weitere Person
Die Erwartungen waren einfach viel zu hoch. Es ist technisch wohl kein größerer Sprung möglich weshalb AMD es erst gar nicht versucht hat. Nvidia hat es aber trotzdem getan und bietet nun das an was derzeit maximal über 12 Pin mit Energie versorgt werden kann. Das die 600W früher oder später ausgereizt werden würden, daran hat bestimmt niemand gezweifelt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und DerRico
MalWiederIch schrieb:
Bis auf Dez-Jan sieht es doch gut aus? Und selbst da sind die läppischen 1-2kWh vom Zocken garantiert nicht das Problem :p Oder zockst du nur in 2/12 Monaten? :confused_alt:
Selbst im November und Februar ist die Solar-Ausbeute nur "moderat", veglichen mit den Monaten des Sommerhalbjahrs.. Und es gibt ja noch deutlich mehr Verbraucher, die Strom ziehen (Herd, Backofen, Waschmaschine, Trockner, Geschirrspüler). Für mich ist jede kWh, die ich bezahlen muss, eine zu viel, von daher gibt es für mich keine "läppische" kWh.
MalWiederIch schrieb:
Mit 2 Elektroautos entsprechen die kWp aber hoffentlich nicht dem Akku, sonst wundert es mich nicht mit dem wenigen Strom.
15,9 kW Peak haben wir (37 Module à 430 Watt). Wir haben damals lange überlegt, ob der Speicher 9,6 kWh oder 15 kWh groß sein soll. Damals hatten wir aber auch noch keine zwei E-Autos, also haben wir den kleineren Speicher genommen.
MalWiederIch schrieb:
Hier mit Victron kann man übrigens nachts für oft 20 Cent oder weniger den Akku laden
Das hört sich gut an.
MalWiederIch schrieb:
und tagsüber bei teils sehr deutlich über 30 Cent den günstigen Strom nutzen
Wie meinen? Alles über 30 Cent sehe ich eher nicht als günsig.
MalWiederIch schrieb:
- Akkukosten unter einem Cent je kWh - extra Zocken wenn der Strom günstig ist ist doch überhaupt nicht notwendig ;)
Wie berechnet man die "Akkukosten pro kWh"? Unter Berücksichtigung der Alterung (10 Jahre Lebensdauer)?
 
Kuhprah schrieb:
Für die Bereiche gibts doch spezielle Karten.Da ne Gaming-GPU wie die 5090 is doch auch nix. Da redet man sich das Gaming einfach mit "Produktivität" schön :D Und bei den Karten sind 32GB jetzt auch eher wenig. RTX6000 mit 48GB und so weiter.. Und die braucht nur 300W.
Je nach Anwendungsfall ist aber eine 4090 deutlich schneller als eine A6000, für den Bruchteil des Preises.
Sowohl bei KI Anwendungen als auch bspw. AdobeCC fährt man mit der reinen Geschwindigkeit der "Gaming-GPU" deutlich besser.
 
  • Gefällt mir
Reaktionen: serve1chilled und MalWiederIch
Laphonso schrieb:
Zudem gibt es die Kleinstgruppe der "Jede Gen die Top GPU" Enthusiasten in der ComputerBase hier,
Die gibt es auch in Massen anderswo, „Kleinstgruppe“ :p
Laphonso schrieb:
Das sowieso 100%. Mit der 4090 "braucht" man eh keine 5090. Rational ^^
Rational? Was „braucht“ man dann überhaupt? Rational dürfte für die allermeisten einzig und allein der Preis das Argument dagegen sein. 4K+RT/PT reicht auch eine 5090 bei weitem nicht, mit einer 4090 hängt man da bei etwas über 40 Bildern bspw. aktuell bei Indiana Jones …

Aber jetzt wo AMD nichts mehr auf die Reihe bekommt was Grafikkarten angeht werden größere Leistungssteigerungen selbstverständlich ausbleiben …
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Laphonso
Ano_Dezimal schrieb:
Bei dir also? Weil die Karte bringt genau das was man aus den Leaks hätte erahnen können.
Allgemein, wenn man sich die Reaktionen so anschaut. Ich selber bin weder enttäuscht noch positiv überrascht
 
Zum Release der 4090er wurde noch behaupten das sie sich unter 4k langweilt. Jetzt bin ich froh das ich auf WQHD geblieben bin.
Hätte von der 5090er erwartet das diese in 4k identische FPS reißt wie die 4090er in WQHD.
Sind aber nur vergleichbare FPS der 4080er in WQHD.
Deswegen ist die 5090er für mich ein sinnfreier Stromofen.
 
Zuletzt bearbeitet:
Myon schrieb:
Ich habe hier einen kleinen 500W Heizlüfter. Allein die Vorstellung, das Teil in mein Gehäuse zu packen und anzuschalten, ist maximal absurd.
Da wird aber auch viel übertrieben. In einer modernen Wohnung / Haus spielt das ja in D über 8 Monate im Jahr keine Rolle. Die Wärme kommt dann halt aus der Karte statt der Wärmepumpe, wird verteilt, wieder umgewälzt… will sagen, die Energie ist nicht zu 100% verloren sondern quasi in einem geschlossenen System.

Ein wirkliches Problem, wenn man es als solches empfindet, wäre es höchstens im Sommer wenn man die Hitze raushaben will und da ist ja ohnehin Stromüberschuss
 
  • Gefällt mir
Reaktionen: aluis und MalWiederIch
Eins muss man sich eingestehen, Nivida interessiert sich nicht mehr Grafikkarten. Der Focus hat sich schon lange in andere profitablere Bereiche des Unternehmens gewendet.
 
MalWiederIch schrieb:
Aber jetzt wo AMD nichts mehr auf die Reihe bekommt was Grafikkarten angeht werden größere Leistungssteigerungen selbstverständlich ausbleiben …
Selbst wenn. In dieser Leistungsklasse wäre da eher nichts gekommen.
 
"meine" 4090er, die ich von kumpel bekommen sollte, steht auf wackligen beinen nach den ersten tests.
würde mich nicht wundern, wenn kumpel jetzt die 4090er bei sich im rechner lässt und die gen überspringt.
könnte ich ihm nicht mal übel nehmen.
für mich wäre das natürlich blöd, hab mich schon auf die 4090er von ihm gefreut.
gebe aber schlimmeres. ich z.b. würde niemals eine 4090er hergeben und nochmal ca. 1000€ für die 5090er draufzahlen.

grüße
 
wie die Leute so tun, als ob es garkeinen Fortschritt gab an Leistung und Features, nur um sich die aktuelle Grafikkarte schönzureden :D

absoluter Stillstand
Super Enttäuschung
Wird eh niemand kaufen
Ich behalte meine weitere 4 Jahre
Der Hype ist auch schon überall weg
MFG braucht man eh nicht

WhyMeFacepalmGIF.gif


Wenn das bei der 5090 schon so schlimm ist, bin ich ja mal gespannt, was man Tolles zu lesen bekommt, bei den Tests der 5080 :volllol:
 
DerRico schrieb:
Da wird aber auch viel übertrieben.
Man sollte meinen das alle zu blöd sind eine ordentliche Kühlung in ihren Kisten zu gewährleisten. Das ist echt der Wahnsinn.

Ich hatte im Sommer bei über 30 Grad im Freien keine 32 Grad in der Wohnung mit einer 4090 und einer heißen CPU. Die Karte blieb immer schön kühl dank UV und Anpassung und es war alles problemlos ertragbar. Das wird mit der 5090 kein bisschen anders werden.

Ich erinnere mich noch an die Diskussionen das die 4090 mit 600W nicht möglich ist, bei mir war das garkein Problem. Zieht effektiv keine 250W.

Aber wir hatten das Thema schonmal. Für den "reinstecker" ist das natürlich nix. Da muss man schon ein bisschen mit arbeiten.
 
  • Gefällt mir
Reaktionen: minalion, MalWiederIch und DerRico
Weyoun schrieb:
Wie berechnet man die "Akkukosten pro kWh"?
Oder auf Basis der Zyklen, ja. Das ist das Ende aller Überlegungen das e-Auto als Puffer zu nutzen.

Der Akku meines Autos hat einen Wiederbeschaffungswert von 25.000€. Halten soll er +1000 Zyklen. Sind wir grosszügig, sagen wir 1.250. Dann sind die Kosten für einmal voll und leer bei 20€, entspricht 20cent/kwh. Wer ist so dumm und macht da?
Selbst mit LFP und Fortschritt für weniger als die Hälfte ist das ein dummes Geschäft, gerade, wenn der Solarstrom dazu in D bereits sauteuer ist
 
Weyoun schrieb:
Selbst im November und Februar ist die Solar-Ausbeute nur "moderat", veglichen mit den Monaten des Sommerhalbjahrs..
Aber nur verglichen - Panels kosten keine 50€ das Stück bei 450W, gerade mit Hinblick auf den Winter tut man ja deshalb überdimensionieren. Platz hatte es hier auf dem Dach genug und wir haben bei weitem keine Villa … gehe ich nur von den Panels aus, amortisieren diese sich in meinem Fall bereits innerhalb einem Jahr.
Weyoun schrieb:
Und es gibt ja noch deutlich mehr Verbraucher, die Strom ziehen (Herd, Backofen, Waschmaschine, Trockner, Geschirrspüler). Für mich ist jede kWh, die ich bezahlen muss, eine zu viel, von daher gibt es für mich keine "läppische" kWh.
1-2kWh sind bei meinem täglichen Verbrauch läppisch, das wird bei den meisten mit PV Anlage so sein - und ich zocke garantiert nicht täglich.
Weyoun schrieb:
15,9 kW Peak haben wir (37 Module à 430 Watt). Wir haben damals lange überlegt, ob der Speicher 9,6 kWh oder 15 kWh groß sein soll. Damals hatten wir aber auch noch keine zwei E-Autos, also haben wir den kleineren Speicher genommen.
Gut auf die E-Autos bezogen benötigt es ja keinen größeren Speicher, aber oft sind die Standard-Angebote ja kWp=kWh Akku. Daher die Vermutung.
Weyoun schrieb:
Wie meinen? Alles über 30 Cent sehe ich eher nicht als günsig.
Nein, ich lade nachts für 20 Cent oder weniger durch den dynamischen Stromtarif den 32kWh Akku voll und nutze tagsüber wenn der Strom 30 Cent und mehr kostet den Strom aus dem Akku. Nennt sich bei Victron Dynamic ESS.
Weyoun schrieb:
Wie berechnet man die "Akkukosten pro kWh"? Unter Berücksichtigung der Alterung (10 Jahre Lebensdauer)?
IMG_0251.jpeg

Wie kommst du pauschal auf 10 Jahre Lebensdauer?

Längere Lebensdauer als herkömmliche Bleiakkus: Im Vergleich zu Bleiakkus haben LiFePO4-Akkus eine viel längere Lebensdauer. Sie können über 2500-3000 Ladezyklen durchlaufen und behalten trotzdem noch etwa 80% ihrer Kapazität nach mehr als 10 Jahren.
und das ist nicht einmal der aktuelle Stand, wir sind aktuell bei 8.000 Zyklen bei LiFePO4 - wobei es sich natürlich bereits bei 2.000-3.000 Zyklen gerechnet hat …

DerRico schrieb:
Oder auf Basis der Zyklen, ja. Das ist das Ende aller Überlegungen das e-Auto als Puffer zu nutzen.

Der Akku meines Autos hat einen Wiederbeschaffungswert von 25.000€. Halten soll er +1000 Zyklen. Sind wir grosszügig, sagen wir 1.250. Dann sind die Kosten für einmal voll und leer bei 20€, entspricht 20cent/kwh. Wer ist so dumm und macht da?
Und hier kosten 16kWh keine 2.000€ - bi-direktionales Laden und dann die ekelhaften Akkupreise des Kfz-Herstellers bezahlen? Nein danke :rolleyes:
 
Zuletzt bearbeitet:
Insgesamt sehr enttäuscht.
Negativ:
  • Nvidia hat seit 2020 KEINE IPC Verbesserungen mehr geschafft. Die 4090 ist eine 3090 mit mehr Einheiten, schnellerem RAM sowie höheren Taktraten. Dies Dank um 2 Stufen besserer Fertigung (Samsung 8 nm > TSMC 4/5 nm). Die 5090 ist eine 4090 mit mehr Ausführungseinheiten und schnellerem Speicher.
  • Für mehr als 2400 Euro bekommt man nicht einmal den Vollausbau des Chips.
  • Stromverbrauch ist enorm
  • Dummes Marketing mit Frame-Generation. Frame Generation ist eine Interpolationstechnik, welche gut funktioniert bei 60-120 echten FPS. Perfekt für 240 und 480 Hz Monitore und Singleplayer Spiele.
  • Preis

Positiv:
  • Der Kühler und das 3-teilige PCB der Founders Edition sind großartig.
  • Flüssigmetall als Wärmeleitpaste auf der Founders Edition
  • Der VRAM ist großartig
  • Neuestes Fertigungsverfahren wird genutzt. Der Blackwell-AI-Chip wird im gleichen Fertigungsverfahren hergestellt. Es gab/gibt Temperaturprobleme mit den Blackwell-AI Chips, ich hoffe das bleibt bei der 5090 aus.
Generell schadet die Fokussierung auf Raytracing der grafischen Entwicklung. Ich habe eine 4090 und ich sehe beim besten Willen keinen großen Unterschied zwischen maximalem Raytracing und normalem Ultra in Cyberpunk 2077. Ja die Spiegelungen sind deutlich besser, das rechtfertigt aber nicht die HALBIERUNG der FPS sowie die grauenvollen Grafikfehler.
Ironischerweise schafft die RTX 5090 in Cyberpunk ein plus von 48% auf die 4090 in 4K OHNE Raytracing (siehe PCGH und TechpowerUp).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck, daknoll, PulsarS und eine weitere Person
Zurück
Oben