Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?
- Ersteller Vitche
- Erstellt am
- Zur News: GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?
Ich hätte alle Vorraussetzungen für einen leisen Betrieb einer 5090 sogar @ max, mit externer custom loop Wakü und 1000Watt NT. Geld spielt dabei eine untergeordnete Rolle und auch der Stromverbrauch wäre es jetzt nicht.
Und dennoch eine Karte die über 400 Watt braucht kommt mir nicht mehr ins Gehäuse. Die Abwärme die solche Dinger produzieren vor allem im Sommer ist schon witzlos. Da kannst dann deine Klimaanlage anmachen, damit die 600 Watt Abwärme die das Gesamtsystem in den Raum pusten wieder wegbekommst.
Dazu kommt es es absolut kein Spiel in naher Zukunft gibt, die es mir auch irgendwie schmackhaft machen würde. Da ich zum großen Teil Strategiespiele spiele, die mehr an der CPU als an der GPU hängen bin ich für dieses Jahr sehr gut aufgestellt.
@MalWiederIch
Die ist wenigstens im Verhältnis günstig. Es ist keine besonders gute Karte aber sie hat ihre Nischen.
Und dennoch eine Karte die über 400 Watt braucht kommt mir nicht mehr ins Gehäuse. Die Abwärme die solche Dinger produzieren vor allem im Sommer ist schon witzlos. Da kannst dann deine Klimaanlage anmachen, damit die 600 Watt Abwärme die das Gesamtsystem in den Raum pusten wieder wegbekommst.
Dazu kommt es es absolut kein Spiel in naher Zukunft gibt, die es mir auch irgendwie schmackhaft machen würde. Da ich zum großen Teil Strategiespiele spiele, die mehr an der CPU als an der GPU hängen bin ich für dieses Jahr sehr gut aufgestellt.
@MalWiederIch
Die ist wenigstens im Verhältnis günstig. Es ist keine besonders gute Karte aber sie hat ihre Nischen.
Zuletzt bearbeitet:
Ripcord
Lt. Commander
- Registriert
- Dez. 2013
- Beiträge
- 1.355
Die Erwartungen waren einfach viel zu hoch. Es ist technisch wohl kein größerer Sprung möglich weshalb AMD es erst gar nicht versucht hat. Nvidia hat es aber trotzdem getan und bietet nun das an was derzeit maximal über 12 Pin mit Energie versorgt werden kann. Das die 600W früher oder später ausgereizt werden würden, daran hat bestimmt niemand gezweifelt.
Selbst im November und Februar ist die Solar-Ausbeute nur "moderat", veglichen mit den Monaten des Sommerhalbjahrs.. Und es gibt ja noch deutlich mehr Verbraucher, die Strom ziehen (Herd, Backofen, Waschmaschine, Trockner, Geschirrspüler). Für mich ist jede kWh, die ich bezahlen muss, eine zu viel, von daher gibt es für mich keine "läppische" kWh.MalWiederIch schrieb:Bis auf Dez-Jan sieht es doch gut aus? Und selbst da sind die läppischen 1-2kWh vom Zocken garantiert nicht das Problem Oder zockst du nur in 2/12 Monaten?
15,9 kW Peak haben wir (37 Module à 430 Watt). Wir haben damals lange überlegt, ob der Speicher 9,6 kWh oder 15 kWh groß sein soll. Damals hatten wir aber auch noch keine zwei E-Autos, also haben wir den kleineren Speicher genommen.MalWiederIch schrieb:Mit 2 Elektroautos entsprechen die kWp aber hoffentlich nicht dem Akku, sonst wundert es mich nicht mit dem wenigen Strom.
Das hört sich gut an.MalWiederIch schrieb:Hier mit Victron kann man übrigens nachts für oft 20 Cent oder weniger den Akku laden
Wie meinen? Alles über 30 Cent sehe ich eher nicht als günsig.MalWiederIch schrieb:und tagsüber bei teils sehr deutlich über 30 Cent den günstigen Strom nutzen
Wie berechnet man die "Akkukosten pro kWh"? Unter Berücksichtigung der Alterung (10 Jahre Lebensdauer)?MalWiederIch schrieb:- Akkukosten unter einem Cent je kWh - extra Zocken wenn der Strom günstig ist ist doch überhaupt nicht notwendig
Je nach Anwendungsfall ist aber eine 4090 deutlich schneller als eine A6000, für den Bruchteil des Preises.Kuhprah schrieb:Für die Bereiche gibts doch spezielle Karten.Da ne Gaming-GPU wie die 5090 is doch auch nix. Da redet man sich das Gaming einfach mit "Produktivität" schön Und bei den Karten sind 32GB jetzt auch eher wenig. RTX6000 mit 48GB und so weiter.. Und die braucht nur 300W.
Sowohl bei KI Anwendungen als auch bspw. AdobeCC fährt man mit der reinen Geschwindigkeit der "Gaming-GPU" deutlich besser.
Ano_Dezimal
Lt. Commander
- Registriert
- Juli 2019
- Beiträge
- 1.053
Bei dir also? Weil die Karte bringt genau das was man aus den Leaks hätte erahnen können.Ripcord schrieb:Die Erwartungen waren einfach viel zu hoch.
MalWiederIch
Lt. Commander
- Registriert
- März 2023
- Beiträge
- 1.455
Die gibt es auch in Massen anderswo, „Kleinstgruppe“ …Laphonso schrieb:Zudem gibt es die Kleinstgruppe der "Jede Gen die Top GPU" Enthusiasten in der ComputerBase hier,
Rational? Was „braucht“ man dann überhaupt? Rational dürfte für die allermeisten einzig und allein der Preis das Argument dagegen sein. 4K+RT/PT reicht auch eine 5090 bei weitem nicht, mit einer 4090 hängt man da bei etwas über 40 Bildern bspw. aktuell bei Indiana Jones …Laphonso schrieb:Das sowieso 100%. Mit der 4090 "braucht" man eh keine 5090. Rational ^^
Aber jetzt wo AMD nichts mehr auf die Reihe bekommt was Grafikkarten angeht werden größere Leistungssteigerungen selbstverständlich ausbleiben …
Ripcord
Lt. Commander
- Registriert
- Dez. 2013
- Beiträge
- 1.355
Allgemein, wenn man sich die Reaktionen so anschaut. Ich selber bin weder enttäuscht noch positiv überraschtAno_Dezimal schrieb:Bei dir also? Weil die Karte bringt genau das was man aus den Leaks hätte erahnen können.
Wie meisnt du das?Kuhprah schrieb:Diesmal dürfen andere das mit Sponsorgeldern versehen
Pyrodactil
Lt. Junior Grade
- Registriert
- Jan. 2009
- Beiträge
- 337
Zum Release der 4090er wurde noch behaupten das sie sich unter 4k langweilt. Jetzt bin ich froh das ich auf WQHD geblieben bin.
Hätte von der 5090er erwartet das diese in 4k identische FPS reißt wie die 4090er in WQHD.
Sind aber nur vergleichbare FPS der 4080er in WQHD.
Deswegen ist die 5090er für mich ein sinnfreier Stromofen.
Hätte von der 5090er erwartet das diese in 4k identische FPS reißt wie die 4090er in WQHD.
Sind aber nur vergleichbare FPS der 4080er in WQHD.
Deswegen ist die 5090er für mich ein sinnfreier Stromofen.
Zuletzt bearbeitet:
DerRico
Lt. Commander
- Registriert
- Nov. 2022
- Beiträge
- 1.651
Da wird aber auch viel übertrieben. In einer modernen Wohnung / Haus spielt das ja in D über 8 Monate im Jahr keine Rolle. Die Wärme kommt dann halt aus der Karte statt der Wärmepumpe, wird verteilt, wieder umgewälzt… will sagen, die Energie ist nicht zu 100% verloren sondern quasi in einem geschlossenen System.Myon schrieb:Ich habe hier einen kleinen 500W Heizlüfter. Allein die Vorstellung, das Teil in mein Gehäuse zu packen und anzuschalten, ist maximal absurd.
Ein wirkliches Problem, wenn man es als solches empfindet, wäre es höchstens im Sommer wenn man die Hitze raushaben will und da ist ja ohnehin Stromüberschuss
CoolerTypderTyp
Ensign
- Registriert
- Juli 2019
- Beiträge
- 249
Eins muss man sich eingestehen, Nivida interessiert sich nicht mehr Grafikkarten. Der Focus hat sich schon lange in andere profitablere Bereiche des Unternehmens gewendet.
Iongy08
Cadet 2nd Year
- Registriert
- Jan. 2025
- Beiträge
- 25
Selbst wenn. In dieser Leistungsklasse wäre da eher nichts gekommen.MalWiederIch schrieb:Aber jetzt wo AMD nichts mehr auf die Reihe bekommt was Grafikkarten angeht werden größere Leistungssteigerungen selbstverständlich ausbleiben …
Christi
Fleet Admiral
- Registriert
- Dez. 2001
- Beiträge
- 11.000
"meine" 4090er, die ich von kumpel bekommen sollte, steht auf wackligen beinen nach den ersten tests.
würde mich nicht wundern, wenn kumpel jetzt die 4090er bei sich im rechner lässt und die gen überspringt.
könnte ich ihm nicht mal übel nehmen.
für mich wäre das natürlich blöd, hab mich schon auf die 4090er von ihm gefreut.
gebe aber schlimmeres. ich z.b. würde niemals eine 4090er hergeben und nochmal ca. 1000€ für die 5090er draufzahlen.
grüße
würde mich nicht wundern, wenn kumpel jetzt die 4090er bei sich im rechner lässt und die gen überspringt.
könnte ich ihm nicht mal übel nehmen.
für mich wäre das natürlich blöd, hab mich schon auf die 4090er von ihm gefreut.
gebe aber schlimmeres. ich z.b. würde niemals eine 4090er hergeben und nochmal ca. 1000€ für die 5090er draufzahlen.
grüße
Trinoo
Commander
- Registriert
- März 2008
- Beiträge
- 2.469
wie die Leute so tun, als ob es garkeinen Fortschritt gab an Leistung und Features, nur um sich die aktuelle Grafikkarte schönzureden
Wenn das bei der 5090 schon so schlimm ist, bin ich ja mal gespannt, was man Tolles zu lesen bekommt, bei den Tests der 5080
absoluter Stillstand
Super Enttäuschung
Wird eh niemand kaufen
Ich behalte meine weitere 4 Jahre
Der Hype ist auch schon überall weg
MFG braucht man eh nicht
Wenn das bei der 5090 schon so schlimm ist, bin ich ja mal gespannt, was man Tolles zu lesen bekommt, bei den Tests der 5080
Ano_Dezimal
Lt. Commander
- Registriert
- Juli 2019
- Beiträge
- 1.053
Man sollte meinen das alle zu blöd sind eine ordentliche Kühlung in ihren Kisten zu gewährleisten. Das ist echt der Wahnsinn.DerRico schrieb:Da wird aber auch viel übertrieben.
Ich hatte im Sommer bei über 30 Grad im Freien keine 32 Grad in der Wohnung mit einer 4090 und einer heißen CPU. Die Karte blieb immer schön kühl dank UV und Anpassung und es war alles problemlos ertragbar. Das wird mit der 5090 kein bisschen anders werden.
Ich erinnere mich noch an die Diskussionen das die 4090 mit 600W nicht möglich ist, bei mir war das garkein Problem. Zieht effektiv keine 250W.
Aber wir hatten das Thema schonmal. Für den "reinstecker" ist das natürlich nix. Da muss man schon ein bisschen mit arbeiten.
DerRico
Lt. Commander
- Registriert
- Nov. 2022
- Beiträge
- 1.651
Oder auf Basis der Zyklen, ja. Das ist das Ende aller Überlegungen das e-Auto als Puffer zu nutzen.Weyoun schrieb:Wie berechnet man die "Akkukosten pro kWh"?
Der Akku meines Autos hat einen Wiederbeschaffungswert von 25.000€. Halten soll er +1000 Zyklen. Sind wir grosszügig, sagen wir 1.250. Dann sind die Kosten für einmal voll und leer bei 20€, entspricht 20cent/kwh. Wer ist so dumm und macht da?
Selbst mit LFP und Fortschritt für weniger als die Hälfte ist das ein dummes Geschäft, gerade, wenn der Solarstrom dazu in D bereits sauteuer ist
Ano_Dezimal
Lt. Commander
- Registriert
- Juli 2019
- Beiträge
- 1.053
Wohl eher schlechtreden. Alle die das schreiben sind Gegner.Trinoo schrieb:nur um sich die aktuelle Grafikkarte schönzureden
MalWiederIch
Lt. Commander
- Registriert
- März 2023
- Beiträge
- 1.455
Aber nur verglichen - Panels kosten keine 50€ das Stück bei 450W, gerade mit Hinblick auf den Winter tut man ja deshalb überdimensionieren. Platz hatte es hier auf dem Dach genug und wir haben bei weitem keine Villa … gehe ich nur von den Panels aus, amortisieren diese sich in meinem Fall bereits innerhalb einem Jahr.Weyoun schrieb:Selbst im November und Februar ist die Solar-Ausbeute nur "moderat", veglichen mit den Monaten des Sommerhalbjahrs..
1-2kWh sind bei meinem täglichen Verbrauch läppisch, das wird bei den meisten mit PV Anlage so sein - und ich zocke garantiert nicht täglich.Weyoun schrieb:Und es gibt ja noch deutlich mehr Verbraucher, die Strom ziehen (Herd, Backofen, Waschmaschine, Trockner, Geschirrspüler). Für mich ist jede kWh, die ich bezahlen muss, eine zu viel, von daher gibt es für mich keine "läppische" kWh.
Gut auf die E-Autos bezogen benötigt es ja keinen größeren Speicher, aber oft sind die Standard-Angebote ja kWp=kWh Akku. Daher die Vermutung.Weyoun schrieb:15,9 kW Peak haben wir (37 Module à 430 Watt). Wir haben damals lange überlegt, ob der Speicher 9,6 kWh oder 15 kWh groß sein soll. Damals hatten wir aber auch noch keine zwei E-Autos, also haben wir den kleineren Speicher genommen.
Nein, ich lade nachts für 20 Cent oder weniger durch den dynamischen Stromtarif den 32kWh Akku voll und nutze tagsüber wenn der Strom 30 Cent und mehr kostet den Strom aus dem Akku. Nennt sich bei Victron Dynamic ESS.Weyoun schrieb:Wie meinen? Alles über 30 Cent sehe ich eher nicht als günsig.
Weyoun schrieb:Wie berechnet man die "Akkukosten pro kWh"? Unter Berücksichtigung der Alterung (10 Jahre Lebensdauer)?
Wie kommst du pauschal auf 10 Jahre Lebensdauer?
und das ist nicht einmal der aktuelle Stand, wir sind aktuell bei 8.000 Zyklen bei LiFePO4 - wobei es sich natürlich bereits bei 2.000-3.000 Zyklen gerechnet hat …Längere Lebensdauer als herkömmliche Bleiakkus: Im Vergleich zu Bleiakkus haben LiFePO4-Akkus eine viel längere Lebensdauer. Sie können über 2500-3000 Ladezyklen durchlaufen und behalten trotzdem noch etwa 80% ihrer Kapazität nach mehr als 10 Jahren.
Und hier kosten 16kWh keine 2.000€ - bi-direktionales Laden und dann die ekelhaften Akkupreise des Kfz-Herstellers bezahlen? Nein dankeDerRico schrieb:Oder auf Basis der Zyklen, ja. Das ist das Ende aller Überlegungen das e-Auto als Puffer zu nutzen.
Der Akku meines Autos hat einen Wiederbeschaffungswert von 25.000€. Halten soll er +1000 Zyklen. Sind wir grosszügig, sagen wir 1.250. Dann sind die Kosten für einmal voll und leer bei 20€, entspricht 20cent/kwh. Wer ist so dumm und macht da?
Zuletzt bearbeitet:
Insgesamt sehr enttäuscht.
Negativ:
Positiv:
Ironischerweise schafft die RTX 5090 in Cyberpunk ein plus von 48% auf die 4090 in 4K OHNE Raytracing (siehe PCGH und TechpowerUp).
Negativ:
- Nvidia hat seit 2020 KEINE IPC Verbesserungen mehr geschafft. Die 4090 ist eine 3090 mit mehr Einheiten, schnellerem RAM sowie höheren Taktraten. Dies Dank um 2 Stufen besserer Fertigung (Samsung 8 nm > TSMC 4/5 nm). Die 5090 ist eine 4090 mit mehr Ausführungseinheiten und schnellerem Speicher.
- Für mehr als 2400 Euro bekommt man nicht einmal den Vollausbau des Chips.
- Stromverbrauch ist enorm
- Dummes Marketing mit Frame-Generation. Frame Generation ist eine Interpolationstechnik, welche gut funktioniert bei 60-120 echten FPS. Perfekt für 240 und 480 Hz Monitore und Singleplayer Spiele.
- Preis
Positiv:
- Der Kühler und das 3-teilige PCB der Founders Edition sind großartig.
- Flüssigmetall als Wärmeleitpaste auf der Founders Edition
- Der VRAM ist großartig
- Neuestes Fertigungsverfahren wird genutzt. Der Blackwell-AI-Chip wird im gleichen Fertigungsverfahren hergestellt. Es gab/gibt Temperaturprobleme mit den Blackwell-AI Chips, ich hoffe das bleibt bei der 5090 aus.
Ironischerweise schafft die RTX 5090 in Cyberpunk ein plus von 48% auf die 4090 in 4K OHNE Raytracing (siehe PCGH und TechpowerUp).
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 440
- Aufrufe
- 35.186
- Antworten
- 1.615
- Aufrufe
- 96.950
- Antworten
- 114
- Aufrufe
- 6.223
- Antworten
- 568
- Aufrufe
- 40.202
- Antworten
- 389
- Aufrufe
- 29.123