News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
9.309
In den letzten Tagen haben Bilder von geschmolzenen 12V-2×6-Steckern sowohl auf Netzteil- als auch RTX-5090-FE-Seite die Runde gemacht. Roman Hartung alias der8auer hat sich nicht nur die geschmolzenen Bauteile angesehen, sondern auch selbst Stecker und Kabel beim Betrieb einer 5090 FE getestet. ComputerBase hat auch gemessen.

Zur News: GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?
 
  • Gefällt mir
Reaktionen: cremor, Blöde, FR3DI und 29 andere
Sehr interessant wie sich manche Sachen häufen. Ich bleibe da immer erstmal sehr zurückhaltend, aber man muss auch sehen, dass wir inzwischen bei fast der dreifachen Belastung sind im Vergleich zu den 200W Karten vor nur ein paar Jahren.

Effizienz geopfert ganz im Sinne vom amerikanischen Exceptionalism, aber fliegen wir jetzt zu nah an der Sonne oder gibt es nur Kollateralschäden

Sehr spannend. Freue mich auf die zukünftige Berichterstattung. Selbst wenn man kein aktiver Käufer ist kommt man bei der Lage der Welt nicht vorbei an der modernen Dramakultur.
 
  • Gefällt mir
Reaktionen: fr13del, ReVan1199, Nisel und 13 andere
Ich seh das Ping Pong Spiel der Rechtfertigungen schon kommen.

Nvidia: "Der Netzteil-Hersteller muss dafür sorgen, dass der output pro Leitung begrenzt ist. Auf der Grafikkarte führen wir das zusammen."
Netzteil-Hersteller: "Die Grafikkarte muss begrenzen wo sie wie viel zieht maximal. Wofür haben sie denn überhaupt die Sense-Pins, wenn auf Seiten der Grafikkarten sonst nichts geregelt und kontrolliert ist?"

Tatsächlich wäre ich hier sogar mehr auf Seiten von Nvidia, denn das Gerät, das Strom zur Verfügung stellt, sollte das nicht blind tun. So wie es ja auch Überspannungsschutz etc. gibt sollte ein Netzteil dafür sorgen, dass über eine einzelne Leitung nicht mehr fließt, als wofür das eigene Kabel/der eigene Anschluss spezifiziert ist.

Zumindest würde ich es so bewerten, wenn Nvidia und die Netzteil-Hersteller sich an den Standard einer dritten Partei halten.

Als Designer und einziger Nutzer für den Stecker (Nvidia) sind allerdings alle Vorgaben für diesen Stecker auch auf Nvidias Mist gewachsen. Unter dieser Prämisse hat Nvidia hier den Großteil der Verantwortung zu tragen Vorgaben zu machen und diese auf Einhaltung zu kontrollieren. Auch mit der eigenen Founders Edition sollte man vormachen, wie es richtig geht.

Tests mit verschiedenen 5090ern in Kombination mit verschiedenen Netzteilen und der Stromflussmessung pro Ader wären ja ein großer nächster Schritt diesem grundsätzlichen Problem nachzugehen, um es großflächig zu belegen.

EDIT:
Ich habe mich gefragt:
Die ASUS RTX 5090 Astral misst ja scheinbar jede Leitung einzeln, wie der8auer gesagt hat, aber "begrenzt" die Astral auch jede Leitung oder sorgt für eine gleichmäßigere Belastung?
Das Buildzoid Video erklärt gut: nein, das macht die Astral nicht. Die prüft immerhin den Kontakt der Pins, aber keine out-of-spec Belastung. Die 3090(Ti)er Karten hingegen haben sich abgesichert (vielleicht auch nicht perfekt, aber die Geschichte zeigt ja jetzt gut genug), da ist der Stecker auch nicht in Flammen aufgegangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Engaged, JarlBallin, Odessit und 17 andere
Finde ich voll gut von nVidia, dass sie selbst bei so billigen Karten absolut beste QA haben und jedes kleinste Detail getestet wird, auch jenseits der Standardlast...
Zumal es ja auch das absolut erste Mal ist, dass mit den Steckern an einer nVidia-Karte etwas sein könnte...
/s
 
  • Gefällt mir
Reaktionen: McFritte, cutterslade1234, fr13del und 92 andere
Zur freundlichen Erinnerung:
Nvidia hatte sich damals gegen den 12VHPWR-Anschluss ausgesprochen und stattdessen eine Alternative von Molex befürwortet.
Soweit ich weiß, hat AMD für den 12VHPWR-Standard gestimmt, nutzt ihn aber letztendlich nicht. Nvidia hingegen argumentiert, dass der Standard verabschiedet wurde und daher auch zum Einsatz kommt - auch wenn sie dagegen gestimmt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Steven Coolmay, Diablow51, Dark_Soul und 6 andere
Buildzoid erklärt es auch sehr gut was da schief gelaufen ist bei NVIDIA. Der Stecker ist von Grund auf die größte Grütze. Kein usererror und keine schlechten Kabel allein das Design ist das Problem.

 
  • Gefällt mir
Reaktionen: cremor, Epistolarius, JarlBallin und 39 andere
Nur der Vollständigkeit halber, könntet ihr auch noch die GND-Leitungen messen, nicht nur die 12V? Denn auf denen kann der Strom ja ebenso ungleich verteilt sein.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Apocalypse, RdV und eine weitere Person
Stellt euch vor, man kauft sich so eine Karte für 2.5k-3k und nach einer Woche passiert sowas. Scheisse, da wäre ich massiv angepisst! Aber es hätte auch weitaus schlimmeres passieren können, als "nur" ein geschmolzenes Kabel, wenn ich mir den Stecker am Netzteil anschaue.....
 
  • Gefällt mir
Reaktionen: JarlBallin, Baal Netbeck, wesch2000 und 10 andere
Es muss einen nicht wundern, wenn man bei so einer Leistungsaufnahme auf einen Stecker aus nem Happy Meal setzt. Was mich aber wundert ist, dass man aus Fehlern nicht lernt, es ist dasselbe Spiel wie beim Vorgänger...
 
Zuletzt bearbeitet: (Wording)
  • Gefällt mir
Reaktionen: kado001, n8mahr, Harpenerkkk und 5 andere
Frank schrieb:
Auch in diesem Fall ist zwar eine unterschiedliche Last je Kabel festzustellen, allerdings sind die Unterschiede deutlich geringer und kein einzelnes Kabel erreicht annähernd 20 Ampere. Minimal werden im Test bei ComputerBase auf einem Kabel 5,3 Ampere gemessen, maximal auf einem anderen 10,6 Ampere. Die übrigens Kabel liegen mit 6,1, 7,4, 7,7 und 10,0 Ampere dazwischen.
An der Stelle fehlt mir noch die Info, die Golem im Artikel hat:
Nach Spezifikation sollten es jedoch nur bis zu 9 Ampere sein.
 
  • Gefällt mir
Reaktionen: Epistolarius, fandre, Michael vdMaas und 10 andere
Minimal werden im Test bei ComputerBase auf einem Kabel 5,3 Ampere gemessen, maximal auf einem anderen 10,6 Ampere. Die übrigens Kabel liegen mit 6,1, 7,4, 7,7 und 10,0 Ampere dazwischen.
Bis zu 13 Ampere während erlaubt, das ist okay. Solange der 8auer Kabel und Netzteil nicht tauscht, wird das ergo nicht so schnell aufgeklärt werden.
 
  • Gefällt mir
Reaktionen: Pro_Bro, KlaasKersting und CuzzImBasti
"maximal auf einem anderen 10,6 Ampere" Damit läuft eure Karte doch auch über den Spezifikationen des Steckers. Maximal dürfen es doch nur 9, irgendwas sein.
 
  • Gefällt mir
Reaktionen: bad_sign und stefan92x
Bin schon gespannt auf die Relativierungen hier im Forum und wieso alle anderen schuld sind nur nicht Nvidia.
 
  • Gefällt mir
Reaktionen: JarlBallin, Baal Netbeck, halbtuer2 und 24 andere
It's a feature!
 
  • Gefällt mir
Reaktionen: Slainer, konkretor und eXe777
Einfach so was nicht kaufen. Dann lernen sie und ändern was.
 
  • Gefällt mir
Reaktionen: Schmarall, GhostSniper4090, R4yd3N und 2 andere
... vielleicht sollte man dann doch sicherheitshalber zwei solche Steckverbinder einsetzen und diese dann nur mit je 300W belasten? :mussweg:

Ich hab ein Netzteil im Haus, das zu so etwas imstande. wäre.. ich mein ja nur...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Bimmy&Jimmy, Pisaro und 7 andere
Quidproquo77 schrieb:
Hier sollte man vielleicht erwähnen, dass er bisher weder ein anderes Netzteil noch anderes Kabel getestet hat - warum auch immer.
Das war kein Forschungprojekt sondern lediglich eine kurze initiale Bestätigung, dass das problematische Szenario in freier Wildbahn auftreten kann, obwohl es keinesfalls auftreten sollte.
 
  • Gefällt mir
Reaktionen: JarlBallin, Ghostfacekalle, xXDariusXx und 10 andere
Wie es bei der Thematik bereits oft genannt wurde von verschiedensten Tester/Redakteuren/Content Creatoren, zwei 12V-2x6 oder 12VHPWR verwenden, bei den 90er Modellen.

Wiso das nicht umgesetzt wird, unverständlich.

Was ich hier beim gesamten Thema viel kritischer sehe.
Die Sache muss man auch größer betrachten.

Was ist, wenn sich sowas als Brand, auf eine Wohnung/Haus ausdehnt, Sachwerte zerstört werden und schlimmer noch Menschenleben gefährdet.

Selbst ein einmaliges Ereignis wäre Eines zuviel.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Galarius schrieb:
Buildzoid erklärt es auch sehr gut was da schief gelaufen ist bei NVIDIA. Der Stecker ist von Grund auf die größte Grütze. Kein usererror und keine schlechten Kabel allein das Design ist das Problem.
Das ist halt der gleiche falsche Unsinn, den auch der 8auer wieder voreilig verbreitet, ohne dem Problem auf die Schliche zu kommen, warum die Last über wenige Kabel läuft.
Das wurde nun schon x fach behauptet und immer wieder widerlegt und dieses mal wird es genauso wieder widerlegt werden, sofern das Problem eingegrenzt wurde. Das sind nur eifrige Spekulationen, ohne reale Messungen und Tests, als ob der in der Kürze der Zeit verstehen würde, was das Problem ist und die Nvidia Ingenieure keine Ahnung hätten, was sie da treiben.
Raider_MXD schrieb:
Das war kein Forschungprojekt sondern lediglich eine kurze initiale Bestätigung, dass das problematische Szenario in freier Wildbahn auftreten kann, obwohl es keinesfalls auftreten sollte.
Du meinst so ein kurzer initialer Clickbait-Ankurbler?^^ Ok.
Sagen wir mal so, ist vielleicht für Leute die das Problem auch haben könnten nicht schlecht davon zu erfahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CuzzImBasti
Zurück
Oben