News GeForce RTX 5090 mit 32 GB: Ein erster Blick auf ein Custom-Design des neuen Topmodells

@Sierra1505
Ja in diese Richtung tendiere ich aktuell auch, von MSI und Gainward hatte ich bis Dato je eine Karte und Beide waren problemlos.
Hab jetzt fast alle ausprobiert über die Jahre und würd gern mal bei der nächsten GPU wieder ne ordentliche Qualität haben, nix ätzenderes als ratternde Lüfter, weil wg sowas mache ich auch keine Garantieansprüche geltend, weil Garantieabwicklung immer so schleppend langsam ist, dass sie für mich praktisch nicht existiert bis zum Totalausfall 😪
 
@AnnoDezimal- als 4090 Besitzer weiß ich sehr wohl was dieser Stecker für Probleme macht.
Ich hatte zwar keine verbrannten Steckkontakte,aber bei mir haben sich die Lötstellen auf der Platine der 4090FE gelöst,was ich erst durch den in der Lage geänderten Stecker gesehen habe.
Es gibt also sehr wohl Probleme die man nicht beschönigen sollte,wenn hier noch höhere Ströme fließen sollten.
 
Terrschi schrieb:
Daher hätte es mich interessiert ob es Boardpartner gibt, die von Anfang an auf hochwertige Pads/Pasten setzen.

Interessantes Thema, die Hersteller scheinen mit steigender thermaler Anforderung mehr und mehr an genau dieser Stelle sparen zu wollen .... Teardowns der gewünschten Karte nach Release auf YT und Co. sind das einzige was neben gezielten Tests im Internet Aufschluss geben kann.

Wobei man auch von Leuten liest die PCs vertreiben und GPUs warten, dass man sich schwer tun kann solch hochwertige Pads zu finden.
Als Verkäufer der was auf seine Kunden gibt, hast du eigentlich keine Lust jedes Jahr Wärmeleit-Pads zu tauschen. Eine Empfehlung, was denn nun den GPU-Betrieb über sagen wir 2-3 Jahre mitmacht ohne maßgeblich an Wärmeleitfähigkeit zu verlieren, konnte ich so noch nicht ausfindig machen.

Ich habe in meiner Verwandtschaft/Freundeskreis auf Thermal Grizzly gesetzt (Pads und Paste). Negatives Feedback hatte ich noch nicht. Bei meinen CPUs bisher auch alles fein.
Bei meinen MSI Karten die ich jeweils im Einsatz hatte, habe ich zumindest ab Werk über die Jahre keine spürbaren Temperatur-Verschlimmerungen bemerkt.
Ich weiß aber safe seit Kauf, dass ich mir meine MSI Suprim Liquid vermutlich nach 2 Jahren zu Gemüte führen werde. Weil die Kiste 1. eine AIO hat, hatte ich vorher noch nie bei einer GPU und ich aus Interesse wissen will wie die Karte dann aussieht. 2. Ich das einfach gerne mache. Am liebsten würde ich Tag 1 direkt das Garantie-Siegel zerreißen und jeglichen Kram komplett zerpflügen :daumen:
 
  • Gefällt mir
Reaktionen: Terrschi
Die Tests abwarten und dann genau gucken wie der Igor die Karten sieht und ggf die Schwachstellen sofern vorhanden einfach ausmerzen.
Ich für meinen Teil käme mit der Leistung einer 5080 gut zurecht in 4k 144 Hz.
Sowohl vom Preis her als auch von der Leistung.
Bei der 5090 hätte ich irgendwie Bauchschmerzen bei dem Verbrauch von fast 600watt.
 
cosamed schrieb:
Bei der 5090 hätte ich irgendwie Bauchschmerzen bei dem Verbrauch von fast 600watt.
Keine Ahnung warum du hier irgendwelchen Gerüchten glaubst. Wäre besser wenn du einfach mal warten würdest bevor du hier Diskussionen entwickelst die sowieso unnötig sind. Klar wird sich raustellen das die 600W nur fake news waren. Wie seinerzeit bei der 4090. Aber scheinbar gibt es echt genug Leute die alles glauben was im Netz steht.
 
  • Gefällt mir
Reaktionen: thuering und Cyberbernd
Shoryuken94 schrieb:
Dazu liefert der Slot ja auch noch mal bis zu 75 Watt.
Theoretisch ja. Praktisch war es so:
Während bei der 3090 noch ca 63W über den Slot bereitgestellt wurden, waren es bei meiner 4090 auch bei maximalste Stressszenarien nur maximal 7,8W.*
Und das hatte ein Bekannter, den ich gebeten hatte zu messen auch.
Wieso bei ADA Lovelace die erlaubte Slot-Leistung nicht annähernd ausgenutzt wurde, entzieht sich allerdings meiner Kenntnis.

Sollte das bei der 5090 auch so sein, ist nicht viel mit Entlastung des Kabels über den PCIe-Slot; dann ist das Kabel an der Ko*zgrenze ob mans wahrhaben will oder nicht.
Bis zum Release und ersten Tests müssen wir dahingehend aber noch die Knochen werfen.

* Werte ermittelt mit GPU-Z -> Sensors -> jeweilige "max" Werte.
 
cosamed schrieb:
Bei der 5090 hätte ich irgendwie Bauchschmerzen bei dem Verbrauch von fast 600watt.
Nicht auf den Verbrauch kommt es an, sondern auf die Effizienz. Eine 5080 wird bei gleicher Leistung höchstwahrscheinlich mehr Strom verbrauchen als eine 5090.
 
Sierra1505 schrieb:
liebsten würde ich Tag 1 direkt das Garantie-Siegel zerreißen und jeglichen Kram komplett zerpflügen :daumen:
Mach doch einfach oder zuviel Schiss in der Buchse? Mir fallen nur zwei Gründe ein, entweder hat man die Kohle dafür eigentlich nicht oder man möchte die Karte zeitnah verkaufen. Keine Fabrik der Welt wird die Karte mit der Liebe und Hingabe zusammenschustern wie einer selbst wenn man es denn besser kann.
 
Sly123 schrieb:
Macht bei einer 2500€ GPU natürlich Sinn, da selber Hand anzulegen und nen Defekt plus Garantieverlust zu riskieren. :D
Deshalb kauft man von einem Hersteller, der das demontieren des Kühlers ohne Garantieverlust erlaubt.
 
  • Gefällt mir
Reaktionen: Sly123
cosamed schrieb:
Bei der 5090 hätte ich irgendwie Bauchschmerzen bei dem Verbrauch von fast 600watt.
TDP nicht gleich realer Verbrauch bei dir am Ende im PC bzw. des 5090 Derivats das du dir kaufst.
Die TDP gibt Aufschluss darüber, was die Karte maximal an thermischer Leistung im Stande ist abzugeben.
Der Verbrauch wird irgendwo darunter liegen, je nach Einsatz, Kühlung, Power-Limit Co. KG.
Auch ein Grund warum hier so häufig UV empfohlen wird. Bei einer RTX4090 kannst du zu den maximal 440W? (die man mal gemessen hat wenn man den Hahn wirklich komplett aufreißt) mit entsprechenden Zeitaufwand meine ich bis zu 100 Watt sparen. Ohne Leistungseinbußen .....

Apropos Zeitaufwand, ja ich war da bisher bei der 4090 zu faul zu.

@Tornavida: Bei der Karte weiß ich das zumindest die Wärme-Pads "brauchbar" sind. Die WLP ist nicht wie bei IgorsLAB komplette Grütze. MSI hat wohl mal zu irgendeinem Test bestätigt, WLP XY einzusetzen. Nervt mich gerade, dass ich nicht mehr weiß wo ich das gelesen habe. War´s auch der Igor? Ach keine Ahnung :freaky:

Aber ja, du hast Recht. Keine Fab behandelt die Karte so wie man es selbst tun würde.
Der eigentlich Grund warum ich es AUCH nicht gerade mache, ist das meine Werkbank wie nach einem Bombenangriff aussieht und ich da aktuell jeden Abend (wenn ich nicht zocke oder mit der Liebsten chille) so ne "kleinen Kisten" zusammen schustere die Energie speichern können.
Ergo, ich schieb´s auf bis ich wieder Zeit habe und ich halts bei MSI aktuell für Vertretbar :D
 
Wie gross müsste das Netzteil minimum sein um eine 5090 und einen 9800x3d zu bändigen?
Zu klein wäre ja auch wieder nichts weil man bestimmt wieder Reserven braucht, siehe das Thema Lastspitzen.
Ich gehe mal persönlich als Mittel erfahrener PC Bauer davon aus, das wir da mindestens 750, 850 oder 1000 Watt brauchen werden.
Allerdings verlasse ich mich da auf die aufwendigen Testungen seitens igorslab oder hardwareluxx, dann wird man sehen woran man ist.
 
ATX3 muß laut Norm mit Lastspitzen umgehen können - ich halte ein aktuelles 850W für solide ausreichend, wenn du sowohl CPU als auch GPU an der Kotzgrenze laufen läßt.

Wenn du das NT mehr im Bereich seines Sweet Spots betreiben willst, kannst auch ein 1000W nehmen.

Meine Meinung zumindest - was das Gespann bei real vorhandenen Games schluckt, muß erst noch gemessen werden.
 
  • Gefällt mir
Reaktionen: cosamed
sollte nicht um 15 uhr heute was angekündigt werden von nvidia oder wann gehts los?
 
Araska schrieb:
ATX3 muß laut Norm mit Lastspitzen umgehen können - ich halte ein aktuelles 850W für solide ausreichend, wenn du sowohl CPU als auch GPU an der Kotzgrenze laufen läßt.
Das ist zwar richtig, aber da geht es um Millisekunden und nicht um ein paar Stunden, wenn man gerade spielen möchte. Ein Netzteil würde ich eher größer als kleiner dimensionieren, meist fällt die Effizienz unter Volllast ab und während im Idle nur wenige Watt verschleudert werden, machen 5% Effizienz bei 600-800W schon was aus.
1736175396140.png

https://www.enermaxeu.com/de/products/power-supplies/high-end/revolution-atx-3-0/

1736175657444.png
 
Zuletzt bearbeitet:
der_Schmutzige schrieb:
Sollte das bei der 5090 auch so sein, ist nicht viel mit Entlastung des Kabels über den PCIe-Slot; dann ist das Kabel an der Ko*zgrenze ob mans wahrhaben will oder nicht.
Bis zum Release und ersten Tests müssen wir dahingehend aber noch die Knochen werfen.

Erste Tests geleakt (benchmark in progress). :D

1736167667173.png
 
  • Gefällt mir
Reaktionen: Player49, muvmend, Nero Redgrave und eine weitere Person
cosamed schrieb:
Aber 575 Watt sind doch eigentlich vi3l zu viel für eine Grafikkarte.
Könnte man die Leistung nicht einfach weiter begrenzen per afterburner was denkt ihr wie weit könnte man die untervolten?
Andererseits ist die doch völlig überdimensioniert für full HD???
Es soll Hochfrequenzgamer geben, die alles unter 1000 FPS als Ruckelorgie empfinden :D
 
Oh mein Gott, habt ihr nix interessanteres im Leben als ne GraKa? Wie sie kommt werden wir sehen, also immer locker bleiben.
 
Da mit steigender Leistungsaufnahme ja (neben Wasserkühlung) auch größere Kühler einhergehen (sollten), stellt sich - wie hier bereits erwähnt - wirklich die Frage nach besseren Standards, wie eine Grafikkarte eingebaut wird. Mal abgesehen von extra Befestigungen oder mittels extra Riserkabel.
 
Zurück
Oben