News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Rockstar85 schrieb:
Des Rätsels Lösung dürfte eben sein, dass NVidia ihre Stecker kurzschließt auf den 12V Rails bevor diese in die GPU gehen, was für einen Lastausgleich sorgt. (was die Übergangswiderstände weitgehend egalisiert)
Differenzen bei Übergangswiderständen werden eher kritischer, wenn man den Widerstand auf dem Übertragunsgweg senkt (was dein Vorschlag bewirkt).
 
  • Gefällt mir
Reaktionen: ghecko
Schon ein 0,01 Ohm Widerstand hat bei 10 Ampere 0,1 Volt Spannungsabfall und 1 Watt Leistungsabgabe, solche Widerstände sind um 4 Watt max. handelsüblich.
Bei den Label und Steckern wird jener mit geringsten Widerstand automatisch massiv mehr Strom ziehen.

Das könnte man wohl via 0,01 Widerstand bei jeder Stromleitung umgehen. Klar, bei GND tritt das gleiche Problem auf.

Wir haben hier jeweils neuwertige Teile und Stecker, das kann sich rasant mit Alter und Steckzyklen weiter verschlimmern.

K.o. für den ganzen Stecker, aber auch 12V bei hohen Stromstärken wird fragwürdig.
Also eher 48V Designs nötig, dazu Stecker überdimensioniert bzgl. Strombelastung.
 
Piktogramm schrieb:
Differenzen bei Übergangswiderständen werden eher kritischer, wenn man den Widerstand auf dem Übertragunsgweg senkt (was dein Vorschlag bewirkt).
(Hier stand Unfug. Es ist richtig, es müsste zb mit einem Hochlastwiderstand abgefedert werden, was @ghecko schon sagte)

https://www.corsair.com/de/de/explorer/diy-builder/power-supply-units/what-psu-is-best-for-rtx-4090/

mal als Beispiel die Corsair Specs. Also auch der Hersteller hält sich an die 12VHPWR Norm.

Die Mischung aus Single Rail, Schieflast und zu niedrigen Leitungsdurchmesser kann nur Elektronik auf der GPU kontrollieren. Die kostet am Ende auch keine 50Cent.
Und Nvidia scheint sich des Problems bewusst zu sein, da es eine neue Rev der Kabelpeitsche gibt.

Am Ende ist es, wie Buildzoid zeigt.
 
Zuletzt bearbeitet: (Anpassung.)
  • Gefällt mir
Reaktionen: JarlBallin
@Frank und @Jan: Habe gestern meine Karte bekommen. Bei einem Furmark-Run vorhin hab ich jeweils zwischen 7.2 und 7.5 Ampere auf allen sechs 12V-Leitungen gemessen. Ich verwende ein Corsair RM1000x Netzteil (ATX3.1) mit dem mitgeliefertem Corsair 12V-2x6-Kabel. Weder Kabel noch Stecker werden merklich warm. Schaut soweit also gut aus bei mir.
 
  • Gefällt mir
Reaktionen: Col.Maybourne und Jan
Rockstar85 schrieb:
das ist bei einer Nennbelastung von 10,5A am Microfit mal eben 100% Überschreitung.. Das macht der Stecker keine 24h mit.
Sei dir da mal nicht so sicher! ;)
1739298976572.png

https://www.molex.com/content/dam/m...onpdf/219/219116/2191160001-PS-000.pdf?inline

Die Stecker müssen ein ganz anderes Bootcamp im QS Labor durchlaufen, deshalb ist trotz dem was berichtet wurden gar nichts passiert.
 
Grestorn schrieb:
Aber nochmal: Das ist ja auch bei den alten Steckern nicht besser.

Ich verstehe die Gehässigkeit hier nicht. Und dass der Übergangswiderstand an einzelnen Pins so groß gewesen sein soll (es müssen ja von den 12 Kontaken 10 Stück mit schlechtem Kontakt gewesen sein!), dass 20A auf zwei Pins (Ground und 12V) lagen, dann muss da schon was gewaltig schief gelaufen sein. Das kann ich mir nicht mehr so leicht mit einem Produktionsfehler des Steckers erklären.

Das riecht für mich schlicht nach kaputten Kontakten in der Karte oder Netzteil selbst. Oder eben einer defekten oder falsch gebauten Schaltung.

Natürlich waren die alten Stecker da besser. Die sind in den Specs für 150W spezifiziert, in Realität vertragen sie mit AWG 18-16 Kabeln auf jeden Fall 225-290W.

Der Neue ist für 660W spezifiziert bei 50-55 Grad, wo er in jedem Gehäuse drüber geht. Somit in Realität ist die Grenze bei 550-600W erreicht.

Dann haben wir bei den Alten 3x 12V Leitungen pro Stecker, bei 600W brauchen wir mindestens 3-4X Stecker davon.
Wenns jetzt an einem Stecker erhöhte Kontaktwiderstände gibt, fliessen da A nicht die Ströme am einzelnen Stecker, B hab ich massig Reserven an dem Stecker und C hab ich immer noch 3 perfekt funktionierende Stecker. Das ist also dort alles halb so wild.

Das ist beim 12VHPWR alles an einem Stecker und wenn etwas nicht perfekt ist, gibt es keinerlei Reserven und genau der eine Stecker wird heiss oder schmilzt und brennt gar.

Die Alten waren zwar optisch nicht schick, hatten aber massig Reserven und die Stromführung wurde verteilt.

Beim Neuen ist alles an einem Stecker und auch wenns perfekt funktioniert, gibts keinerlei Reserven für Fehler.


Welche Schaltung? Wenn NV bei der FE auf der Platine alle 12V Leitungen zusammenführt, geht der Strom dort durch, wos am wenigsten Kontaktwiderstand gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging und Rockstar85
@AlphaFoxAlpha

Gratuliere, dann ist dein Stecker in Ordnung.. Dann solltest du noch die alte Peitsche mit 2x 8 Pin auf 12VHPWR haben.. Richtig?

bei dem Asus müsste das schon der neue Anschluss sein.
Ergänzung ()

xexex schrieb:
Seid dir da mal nicht so sicher! ;)
150 grad sind nicht 105 Grad ;)
Das Kabel macht die 150 Grad nicht ewig mit. Die Specsheets sagen genau das aus..
Außer du hast was zu Extrembelastung gefunden.. Und ja 105 Grad am Stecker wäre kein Thema für 240h, 150 Grad ist ein Thema, da die Litze dann Schäden nimmt.. (was zu 99,9% bei dem Mod DIY Kabel passiert ist)
Nebenbei bedeuten 20,1A Belastung 240W, das ist sehr weit außerhalb von AWG 16, da ist es dann sogar zweitrangig, ob der Kunststoff das mitmacht.
Kernproblem ist die Single Rail an Nvidias Eingangsseitiger GPU Schaltung.


Man beachte in der von mir und dir verlinkte Spezifikation mal die Übergangswiderstands Toleranzen.
 
Zuletzt bearbeitet: (Typo, Lesen sollte man können)
  • Gefällt mir
Reaktionen: JarlBallin und Wintermute
relaxed_Guy schrieb:
Wie es bei der Thematik bereits oft genannt wurde von verschiedensten Tester/Redakteuren/Content Creatoren, zwei 12V-2x6 oder 12VHPWR verwenden, bei den 90er Modellen.

Wiso das nicht umgesetzt wird, unverständlich.
Weil das ganz einfach gesagt absolut nichts bringt - das Problem ist ja nicht der Stecker an sich sondern schlicht die dilletantische Implementierung von NVIDIA NACH dem Stecker. Der Stecker trägt durch die geringeren Reserven ggü. 8 oder 6-Pin sicher auch ein wenig mit bei - ist aber in diesem Fall nicht die Hauptursache.

Wo es bei der 3090Ti eine Trennung zwischen 3 Phasen mit aktivem Load-Balancing gab ist jetzt eben - um ein paar Cent zu sparen und die Masse an Bauteilen fürs tolle Marketing auf diese mickrige Platine quetschen zu können - alles auf einen einzigen Punkt zusammengeschalten und der Strom sucht sich somit einfach den Weg den geringsten Widerstandes. Selektive Überwachung und Balancing ist dabei einfach nicht möglich.

Mit aktiven Balancing kann ein einzelner Stecker sehr wohl problemlos innerhalb der Spezifikationen betrieben werden - siehe 3090Ti. Dort hat man selbst im Extrem-OC nie von schmelzenden Steckern gehört - erst ab der der 4080/4090 als sich NVIDIA bewusst entschieden hat sich von der Phasentrennung und Einzelüberwachung zu verabschieden ist das Thema aufegpoppt.
Wobei man sicher fairerweise auch sagen muss dass die TDP einer 3090-non-OC ggü. einer 5090 auch deutlich mehr Reservern übrig gelassen hat, die 5090 läuft eben auch fast auf Kante ohne viel Reservern zur Spezifikation. Solange man den Stecker gemäß Spezifikation verwendet indem man ihn symmetrisch belastet sollte das auch bei einer 5090 kein Problem darstellen.

Ob NVIDIA dabei nun 1 oder 2 Stecker auf einen EINZIGEN Punkt zusammenführt macht dabei schlicht keinen Unterschied - der Strom sucht sich trotzdem seinen Weg auch wenn das im Worstcase eine einzige Leitung eines einzigen Stecker ist und der zweite Stecker vor sich hindümpelt.
Die Boardpartner, namentlich ASUS, gehen ja bewusst einen anderen Weg und überwachen alle Phasen separat. Ist auch keine perfekte Lösung da es nur eine Überwachung und kein aktives Balancing wie früher ist und auch nach der Überwachung trotzdem auf einen einzigen Punkt zusammengeführt wird. Aber zumindest kann man im Gegensatz zu NVIDIA die Schieflast messen und erkennen - die Maßnahmen/Reaktion darauf hängt dann eben von ASUS ab. NVIDIA kann da nix machen weil sie sich selbst blind gemacht habem.

Die interessante Frage wäre hier warum sowas scheinbar ohne (oder trotz?) QA auf den Markt geworfen wird? Oder gab es da Order von "oben" oder der Marketingabteilung? Wurde das billigend in Kauf genommen weil die Winz-Platine schlicht und einfach kein Platz für ein anständiges Design mehr zulässt? Die paar % Anteil von Gamern ggü. KI zusammen mit der Verknappung wurden wohl als geringes Risiko betrachtet.
Ob sich NVIDIA da mal nicht täuscht - das wird noch die ein oder andere Welle schlagen.
 
  • Gefällt mir
Reaktionen: T3Kila und xexex
@xexex
Shit, da fehlte eine Null.. Aber 150 Grad bleibt trotzdem nicht in der Spec

https://cdn.amphenol-cs.com/media/wysiwyg/files/documentation/gs-12-1706.pdf (Edit)



Ach ja, Meine Empfehlung derzeit:

RTX 5090 mit maximal 400W betreiben, bis das Problem gelöst sind.. das sind im schlechtesten Fall dann 16,6A bei 2 Aktiven Leitungen. Da sollte dann zumindest nicht der Stecker wegbrennen, auch wenn wir nicht mehr in der Spec sind und dürften vermutlich bei der 105 Grad Grenze rauskommen. (AMD zeigte ja mal, was Molex so abkönnen)
Alternativ die 5090 mit Nvidias toller Kabelpeitsche betreiben.

Ärgerlich ist das allemal.
 
Zuletzt bearbeitet: (Anpassung, weil die Specliste aus dem Automotive war.)
Sephiroth0 schrieb:
Das stimmt nicht ganz. Die Überwachung stellt sichter, dass die Karte bei schlechter Lastverteilung abschaltet und somit nichts überhitzt oder brennt. Die Lastverteilung selbst ist immer noch gegeben durch die Widerstände der Stecker und Kabel.
Naja, wenn ein Kabel deutlich heißer wird und die Lasten auf den Leitungen deutlich unterschiedlich sind, dann funktioniert das wohl nicht ganz so gut...
 
  • Gefällt mir
Reaktionen: JarlBallin
Was für ein Pfusch von Nvidia.

Ich weiß schon, warum eine 5090 noch nichtmal ansatzweise in meinen Interessensbereich rutscht.

Neben der hohen Leistungsaufnahme und dadurch Abwärme, die kaum leise aus dem Gehäuse abführbar ist, ist es nun auch das Brandrisiko.

Einfach nur lächerlich. Die Karte kann man streichen und aus dem Gedächtnis löschen. Fehlkonstruktion.

Bei Temu und co sind die Behörden immer ganz schnell, wenn es um elektrische Normen und Sicherheit geht. Was ist bei Grafikkarten? Produkte mit so hohem Brandrisiko dürften doch normalerweise gar nicht in den Verkauf geraten. Die Produkte sollten schnellstens aus dem Verkehr gezogen werden.
 
  • Gefällt mir
Reaktionen: JarlBallin
Also könnte man mit einen Multirailnetzteil eine Art balancing erzwingen, je nachdem wie es im Netzteil aufgeschalten wurde?
 
Während nämlich die Custom-Designs wie die Asus ROG GeForce RTX 5090 Astral jeden Pin des 12V-2×6-Anschlusses einzeln überwachen und in dem beschriebenen Fall für eine Abschaltung sorgen würden [...]
So sicher wäre ich da nicht das da eine umfangreiche Überwachung stattfindet.
Möglich wäre auch nur eine Prüfung, ob 12 Volt anliegen an jeden Strang und nicht wie viel Last auf den einzelnen Drähten anliegen.

Ich hatte mir heute mal das "aktuelle" (August 2015) Handbuch von ASUS GPU Tweak II von der "ASUS ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition" geladen und nachgesehen. Das ist einfach zu alt.
Nach dem Produktbild wird nämlich ASUS GPU Tweak III verwendet und in diesem Bild ist nichts von einem akustischen Warnsignal oder irgendeiner Abschaltung erkennbar - eben nur im Programm durch die optischen grünen Punkte ersichtlich.
 
Vielleicht sollten sie die Preise nicht so knapp am Limit der Tragfähigkeit kalkulieren und dafür etwas bessere Qualität liefern…
 
Beziehen sich die Berichte bisher ausschließlich auf die FE oder haben auch bereits Custom Designs Probleme gemacht?

Rockstar85 schrieb:
RTX 5090 mit maximal 400W betreiben, bis das Problem gelöst sind.. das sind im schlechtesten Fall dann 16,6A bei 2 Aktiven Leitungen. Da sollte dann zumindest nicht der Stecker wegbrennen, auch wenn wir nicht mehr in der Spec sind und dürften vermutlich bei der 105 Grad Grenze rauskommen. (AMD zeigte ja mal, was Molex so abkönnen)
Alternativ die 5090 mit Nvidias toller Kabelpeitsche betreiben.

Verstehe nicht ganz warum du die Kabelpeitsche empfiehlst, die mündet doch auch in denselben Stecker, der überhitzen könnte?
 
gbggbg schrieb:
Die interessante Frage wäre hier warum sowas scheinbar ohne (oder trotz?) QA auf den Markt geworfen wird? Oder gab es da Order von "oben" oder der Marketingabteilung? Wurde das billigend in Kauf genommen weil die Winz-Platine schlicht und einfach kein Platz für ein anständiges Design mehr zulässt? Die paar % Anteil von Gamern ggü. KI zusammen mit der Verknappung wurden wohl als geringes Risiko betrachtet.
Solange es genügend Deppen gibt die diesen Müll kaufen wird sich da nichts daran ändern.
Ergänzung ()

Sherman789 schrieb:
Vielleicht sollten sie die Preise nicht so knapp am Limit der Tragfähigkeit kalkulieren und dafür etwas bessere Qualität liefen
Ketzer!!!
 
Zurück
Oben