News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Nun habe ich mir die Videos vom Roman und auch vom Buildzoid (war für mich sehr verständlich gemacht) angesehen.

Ich bin einfacher Nutzer und kein Elektronik-Genie und versuche das ganze Thema hier zu verfolgen und zu verstehen.

Meine Ausgangsituation, wie ich es bisher verstanden habe:

Die PCIe Spezifikation sagt aus: ein 8 Pin (6+2) Stromanschluss ist für max. 150W ausgelegt.
Demzufolge sollten die entsprechenden Anschlüsse am Netzteil auch nur das maximal je Anschluss liefern.

Bedeutet für mich, ich brauche somit für die 600W der 5090 FE 4x 8 Pin (6+2), so wie der durch Nvidia beigelegte Adapter ausgeführt ist.

Des weiteren ist ein 12V-6x2 Anschluss ein Update zu dem 12VHPWR-Anschluss, bei dem die 4 SensePins etwas verkürzt und die Leiteranschlüsse 1.5mm verlängert wurden, um Sicherzustellen, dass das Stromkabel korrekt angeschlossen wird (Beschreibung Corsair).


Nun zu diesem ganzen Thema hier:
Wenn man sich nun die Bilder des Redditnutzers anschaut, der ein 12V-6x2 Kabel mit beidseitig 12V-6x2 Anschluss einsetzte, aber bei dem dann dieser Schmorschaden sogar beidseitig eintrat, ist es schon fatal was da abgeht.

Der Roman hat in seinem Video, aufgrund des Beitrages auf Reddit, es auch bei sich getestet (da er wohl auch Probleme hatte) und für sein Corsair AX1600i Netzteil (besitzt kein 12V-6x2 bzw. 12VHPWR Anschluss) auf ein Adapterkabel von Corsair (zurück gegriffen, welches von 12V-6x2 auf 2x PCIe-6+2 (8 Pin) adaptiert. Also kein Kabel mit beidseitigen 12V-6x2 Anschluss.

Nun stellen sich mir folgende Fragen:

1) wie kann es nun sein, dass seitens des NT aus 2 PCIe 6+2 Anschlüssen 600W gezogen werden können, wo doch die Spezifikation nur max. 150W/pro 6+2 Anschluss besagt?
Gilt die Spezifikation nicht für beide Seiten, also Grafikkarte und Netzteil?

2) Hätte es hier nicht ein 12V-6x2 auf 4x PCIe 6+2 Pin gebraucht (wie Nvidia und die anderen Custom-Hersteller auch beifügen), um die Spezifikation einzuhalten?

Nvidia weißt im QuickStartGuide selbst explizit darauf hin, nur den beigelegten Adapter zu verwenden, wie hier im Thread schon gepostet wurde und das wirft für mich die 3. Frage auf:

3) wozu werden nun aber diese 12V-6x2 Kabel (früher eben 12VHPWR), die beidseitig 12V-6x2 Anschlüsse besitzen, überhaupt auf den Markt gebracht und selbst auf NT-Seite entsprechende Anschlüsse angeboten, wenn doch der GPU-Hersteller Nvidia die explizite Nutzung des beigelegten Adapters vorschreibt?

Laut dem Bericht des Redditnutzers bringt ja ein 12V-6x2 Kabel (früher eben 12VHPWR), das beidseitig 12V-6x2 Anschlüsse besitzt, sichtlich keinen besseren Schutz, wenn auch da 2 leitungen sichtlich mehr Last tragen müssen, als vorgesehen.


Wenn ich mir nun das Video von Buildzoid anschaue, scheint für mich das Problem durch Nvidia beim Design zu liegen, da es ja bei den 3090er, die ebenfalls einen 12VHPWR-Anschluss besaßen, keine Probleme gab.

Stellt sich die Schlussfrage:

4) wie sieht es denn aus, wenn man den Nvdia-Adapter einsetzt und werden hier auch einzelne Adern stärker genutzt als den rest und so warmdadurch wesentlich wärmer als der Rest wie beim Adapter von Roman oder ist hier die Stromverteilung anders?
5) wie wird denn beim Nvidia-Adapter das reguliert, da es ja seitens der GPU sichtlich nicht gemacht wird?

Fragen über Fragen :confused_alt:

Im Endeffekt ist der Käufer doch hier wieder der Blöde.
Er soll explizit den Adapter von Nvidia einsetzen, obwohl Netzteil-Hersteller entsprechende 12V-2x6 Anschlüsse und auch Kabel bieten, um solche Adapter zu vermeiden (es wird ja auch oft geraten keine Adapter von einem auf mehrere Stecker zu verwenden usw.(auch hier im Forum)).

Scheinbar sind wohl aktuell nur die FE's von diesem Problem betroffen oder gibt es schon Hinweise, dass auch Custom-Modelle dieses Problem aufweisen?

Es ist echt ein heikles Thema und ich bin echt gespannt was hier gegen getan werden kann.

PS:
wenn wieder jemand der Meinung ist, meine Aussagen wären unqalifiziert (wie im vorherigen Thread, bevor dieser hier entstand), möge man bedenken, dass nicht nur ich kein Elektronik-Studium oder ähnliches besitze und man solche Foren eben nutzt, um auch Wissen zu solchen Themen zu erlangen bzw. das bisherige Wissen eventuell zu erweitern und weiterzutragen.
Daher schon mal vorweg: entschuldigt meine Unwissenheit und doch getätigten Beiträge.:)
 
  • Gefällt mir
Reaktionen: cbmik, BorstiNumberOne, qiller und 2 andere
xexex schrieb:
Von welchen "High-End" sprichst du? Nvidia setzt auf den aktuellen Standard, Intel und AMD bedienen den High-End Markt nicht (mehr) und im Serverbereich ist man dabei auf 48V zu gehen.
Genau das meinte ich doch, der 600W-Stecker wird nur für nVidia-Spielzeug in einer Marktnische mit Weltmarkt-Stückzahlen im dreistelligen Bereich eingesetzt. Der Rest des High-End-Marktes verbaut längst 48 V.

xexex schrieb:
"Durchgesetzt" hat sich der Anschluss längst, AMDs 10% Marktanteil macht da keinen Unterschied.
Der Stecker wird derated werden auf 300 W und dann entsprechend auch von AMD und Intel eingesetzt werden. Dass der dann keine 600 W mehr kann, juckt die doch gar nicht, mangels Produkten. Mit 300 W wird das auch problemlos funktionieren. 2x6 Micro-Fit ist dann elektrisch zwar immer noch schlechter als 2x 6+2 Mini-Fit, aber für 300 W noch ausreichend.
 
Wan900 schrieb:
Kontaktwiderstände
Die werden damit am 12v-2x6 weniger kritisch, ja. Hilft den einzelnen Adern aber nichts, im Gegenteil. Und hebelt multi-rail Schütze aus, downgradet die zu single-rail über die kritischen Adern. Prima.
 
inge70 schrieb:
wie kann es nun sein, dass seitens des NT aus 2 PCIe 6+2 Anschlüssen 600W gezogen werden können, wo doch die Spezifikation nur max. 150W/pro 6+2 Anschluss besagt?
Gilt die Spezifikation nicht für beide Seiten, also Grafikkarte und Netzteil?
Nein, Netzteilseitig machen die Hersteller im Prinzip was sie wollen. Deshalb wird ja auch immer wieder gesagt, man solle nur Originalkabel, die zum Netzteil gehören verwenden, weil sie bei anderen Netzteilen anders belebt sein könnten (oder gleich ganz andere Stecker nutzen).
 
  • Gefällt mir
Reaktionen: qiller, inge70 und Raider_MXD
xexex schrieb:
Nur weil sich Corsair nicht an die Spezifikation hält
Sache ist doch, selbst Nvidia gibt nicht vor das man ein spezielles Kabel braucht sondern nur ein PCIe 5 Gen Kabel.
Das umfasst dann eigentlich auch die 2x 8 Pin auf 12+4Pin, wie sie damals schon zur RTX30 gab. Da waren die ATX2.X Netzteile ja auch "PCIe 5 ready".

xexex schrieb:
Die kleineren Varianten können logischerweise keine 600W an dem 12V-2x6 Anschluss bereitstellen, das Zeug von Cablemod suggeriert aber das Netzteil könnte es sehr wohl.
Welche kleineren Varianten meinst du? PSUs? Die haben doch alle OPP und OCP, da geht dann auch nicht mehr als 120-130% über die Rail bevor abgeschaltet wird.
Wenn die nicht eh schon viel früher abschalten da die Peaks zu hoch sind.

xexex schrieb:
Einzig der Hersteller des Netzteils kann bestimmen was seine Buchse kann oder nicht und wieviel Strom an dieser bereitgestellt werden kann, dafür gibt es extra die Sense Leitungen, die Kabel können immer 600W. Dann kommen Idiotenfirmen aus ihren Löchern gekrochen und meinen es besser zu wissen als Intel und die PCI-SIG, weil Optik geht natürlich immer vor.
Naja dazu muss man aber auch sagen, dass es die ganze PSU Branche so macht bzw gemacht bevor der ATX3.X Standard verfügbar war.
 
Zuletzt bearbeitet:
FormatC schrieb:
Sagen wir es mal vorsichtig: Wenn ich heute die Lehrpläne meines Sohnes (Gymnasium) mit meinen Lehrbüchern vergleiche (die ich immer noch besitze), dann kann ich eine gewisse Einschränkung des heutigen Wissensstandes natürlich verstehen und nachvollziehen. Das ist auch nicht überheblich gemeint, aber gerade zum Thema Skin-Effekt steht auch heute noch alles auf dem schulischen Speiseplan. Außerdem gehe ich davon aus, dass man sich an solchen Diskussionen nur dann beteiligt, weil man das nötige Wissen besitzt (oder bei Dritten als Diskussionspartner voraussetzt). Aber Du hast schon Recht, davon darf man nicht ausgehen. Also schalten wir mal wieder in den Peter Lustig Modus ;)
Schau auch dahin wo es heute Sachen in den Lehrplänen gibt die es früher nicht gab.
Eine falsche Fragestellung kann leicht durch den eingeengten Antwortraum zu einer verzerrten Sicht und falschen Schlussfolgerungen führen.

Beispiel 1: Davon hatte ich quasi nichts in meiner Schulzeit: https://bildungsportal-niedersachse...thematische-und-technische-faecher/informatik

Beispiel 2: Die Diskussion um Mengenlehre in den 70'ern.

Beispiel 3: Kannst du den Oktaeder des Grauens lösen?
 
inge70 schrieb:
wenn doch der GPU-Hersteller Nvidia die explizite Nutzung des beigelegten Adapters vorschreibt?
Das macht Nvidia doch gar nicht:
1739356845790.png
 
Mr. Smith schrieb:
10,6A ist auch bereits 18% überhalb der 12VHPWR-Terminal-Spezifikation.
Ist jetzt sicher kein Brandherd, aber doch oberhalb dessen, was der Standard erlaubt.
hmm wo steht das denn? Ich will das jetzt nicht in Frage stellen.
Habe selber gesucht und bei Anandtech gesehen, dass pro gesamtem Stecker max 600W Dauerlast spezifiziert sind, was 50 Ampere entspricht, rechnerisch durchschnittlich 50/6 = 8,3A pro Ader bei gleichmäßiger Verteilung, was aber unrealistisch ist. Aber das Maximum pro Ader ist dort nicht erwähnt, und das ist ja in diesem Fall entscheidend.

In jedem Fall ist von DerBauer eine Temperatur von 150°C gemessen worden am Stecker, was das definierte Delta +30°C zur umgebungstemperatur extrem überschreitet.

Generell finde ich es einfach krank, Grafikkarten mit der elektrischen Leistungsaufnahme eines Badheizkörpers zu entwickeln.
 
  • Gefällt mir
Reaktionen: daknoll
Die Diskussion hier ist sehr umfangreich, daher meine Frage:

Wie lässt sich kategorisch ausschließen, dass beim Betrieb einer 5090/5080/whatever-Gpu mit diesem neuartigen Anschluss keine einzige Ader auf ungesunde Temperaturen kommt, so dass Schmelz- bzw. gar Brandgefahr besteht?

Ein User hier hat die Rechnung aufgestellt, dass selbst minimal mehr Leitungswiderstand auf einem Kontakt zu sehr viel Watt führen können und es in den meisten Fällen (oder vielleicht sogar überhaupt nicht) keinerlei Kontroll-Sensorik gibt, die die Leistung gleichmäßig oder zumindest so regelt, dass eine einzige Ader niemals eine zu hohe Leistung abbekommen kann...
Bin mir da nicht sicher, aber einer meinte, selbst die Astral kann mit ihrer verbauten Sensorik nur messen, aber eben nicht kontrollieren...

Wie auch immer, aber die Sachlage ist einfach totaler Murks. Man kann doch als User keinen Einfluss darauf haben wir hoch der Kontaktwiderstand bei den einzelnen Kontakten im Stecker ist und dass dann im schlimmsten Fall eine Ader aufgrund von zu schlechtem Kontakt viel zu heiß läuft...
Dieser Stecker grenzt an eine Lotterie ohne Brandschutz-Versicherung...

EDIT: Anscheinend ist es genau andersherum: je besser der Kontakt eines Kabel-Pins am Anschluss der GPU, desto mehr Strom fließt darüber, da hinter dem Anschluss alle Pins zusammengeführt werden. Und Strom sucht sich den Weg des geringsten Widerstands.
Dieses Verhalten betrifft dann wohl den GPU-seitigen Anschluss einer FE- oder vielleicht sogar Partner-Karten, wenn da die Leitungen am Ende auf der Platine auch zusammengeführt werden.
Doch wie sieht es auf der NT-Seite aus, wenn jeder Hersteller sein eigenes Süppchen hochen kann? Gehen bei den besseren NTs die Leitungen separiert raus oder wird da der gesamte Strom auch einfach nur von einer Platine rausgehauen und jeder Pin saugt dann so stark an dem Anschluss, wie gut es um die Kontaktqualität bestellt ist (je weniger Leitungswiderstand/Übergangswiderstand oder was jetzt als Begriff passend ist, umso mehr nuckelt der Pin)...

@ golem
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BorstiNumberOne
inge70 schrieb:
1) wie kann es nun sein, dass seitens des NT aus 2 PCIe 6+2 Anschlüssen 600W gezogen werden können, wo doch die Spezifikation nur max. 150W/pro 6+2 Anschluss besagt?
Gilt die Spezifikation nicht für beide Seiten, also Grafikkarte und Netzteil?
Die Spezifikation gilt für die Grafikkarte, Netzteilanschlüsse sind nicht standardisiert, weder im Hinblick auf die Pinbelegung noch bezüglich der Leistung. Bei diesem Netzteil sind wie beim 8-Pin EPS-Anschluss je 300W pro Buchse vorgesehen.
 
  • Gefällt mir
Reaktionen: qiller und inge70
Staubor schrieb:
Das ist relativ einfach. nVidia schreibt in ihrem offiziellen Quickguide zur 5090 folgendes. Damit sind irgendwelche claims, welche mit 3rd party Kabel zu tun haben, direkt mal obsolet...

Anhang anzeigen 1582770

Quelle: https://www.nvidia.com/content/geforce-gtx/GeForce_RTX_5090_User_Guide_Rev1.pdf
Das ist völlig lächerlich seitens NVIDIA. Bei einem genormten Anschluss muss jedes Kabel, dass diese Norm erfüllt ausreichen. Das würde ich ggfs auch so einklagen und ich bin mir sicher, NVIDIA verliert diese Klage.
 
  • Gefällt mir
Reaktionen: SpamBot
Galarius schrieb:
Achso deswegen hat die 5060 und die 5060TI einen "normalen" 8 pin Stecker
Wir sprachen von High-End Karten.... Welchen Unterschied macht es denn im aktuellen Markt, selbst Karten mit weniger als 150W TDP mit einem 12V-2x6 Anschluss auszustatten? Noch ist mir kein einziges Netzteil bekannt, was komplett auf die alten Buchsen verzichtet.
Ergänzung ()

wechseler schrieb:
Der Rest des High-End-Marktes verbaut längst 48 V.
Zeig mir mal ein Netzteil oder eine Grafikkarte die bereits mit 48VHPWR/48V1x2 Anschluss ausgestattet ist, gerne auch aus dem Profisegment. Das sind aktuell Einhörner, die zwar seit über zwei Jahren spezifiziert sind und selbst in Intels ATX12VO Standard geschafft haben, aber praktisch noch nirgendwo aufzufinden sind.

Schon ATX12VO führt nur ein Schattendasein, aber immerhin findet man ihn teilweise bei Office-PCs. Im "Bastelmarkt" scheint es ewig zu benötigen damit sich irgendwas bewegt. Schaue dir mal 12V-2x6 an, Nvidia liefert vier Jahre nachdem der Standard gültig wurde noch immer Adapter mit bei und AMD tut so als hätten sie die letzten fünf Jahre im Winterschlaf verbracht. Dazu kommen noch Firmen die bewusst auf Standards rumtrampeln und lieber mit irgendwelchen Adaptern um die Ecke kommen.

Ich habe es schon ein paar mal gesagt, manchmal schaue ich neidvoll zu Apple rüber. Dort gibt es eine Ansage, ein Jahr später gibt es kein altes Zeug mehr und alle unterstützen das was Apple vorgibt. Diese ganzen ewigen Diskussionen und verschleppen jeglicher Entwicklung geht mir so langsam völlig auf den Sack. Seit ATX vor 20 Jahren ist so gut wie gar nichts passiert, einzig Thunderbolt ist mittlerweile mit Ach und Krach so langsam angekommen.
 
Zuletzt bearbeitet:
Für mich wäre ein umfassender Produktrückruf mehr als notwendig. Das Problem wurde ja auch bereits von einigen Personen an die VDE gemeldet. Bin gespannt, was hier kommt.

Das Schmelzen von Steckern und Leitungen ist hier schon beim geringsten Übergangswiderstand praktisch vorprogrammiert. Bei einem Consumer-Produkt darf sowas einfach nicht vorkommen.
Das ist ein kompletter elektrischer Designfehler seitens NVIDIAs.
 
xexex schrieb:
Welchen Unterschied macht es denn im aktuellen Markt, selbst Karten mit weniger als 150W TDP mit einem 12V-2x6 Anschluss auszustatten?
Aus dem selben Grund wieso Nvidia 8pin und 6 Pin nicht mehr haben wollte und hint, da ging es nicht um die Watt Leistung. Und nochmal, 3 8 Pin haben Physikalisch mehr "Leistung" und Headroom wie 1 High Power Kabel. Da geht es um reine Spezifikationen wenn es um 150W geht pro 8 Pin.
 
  • Gefällt mir
Reaktionen: metoer
foofoobar schrieb:
Beispiel 3: Kannst du den Oktaeder des Grauens lösen?
Lustigerweise hatten wir das Thema unlängst mal im Bekanntenkreis, wo es darum ging, inwieweit Schüler in der Lage sind, ohne Hilfestellung und quasi "interdisziplinär" Aufgaben der linearen Algebra und analytischen Geometrie miteinander verknüpft zu lösen. :D

Insofern kann ich dich aber beruhigen, denn ich weiß, dass ich Mathe immer dann hasse, wenn es Dinge betrifft, die ich nicht unmittelbar brauche. Falls doch, muss auch ich mich nochmal auf den Hosenboden setzen, was gar nicht mal so selten ist. Man muss ja nicht alles wissen, aber wenn man weiß, wo die Defizite sind, kann man qausi "on demand" stets nachlegen. Mit über 60 kommt man dann schon in ein Alter, wo das auch mal Überwindungssache ist, aber man bemüht sich, wo es geht.

Das Gleiche gilt auch für Chemie, seitdem ich mich mehr mit TIMs beschäftige. Aber das halte ich für unbedingt nötig, wenn man nicht nur Sülze repitieren will. ;)

BTW:
Ich habe mir etwas mehr Zeit genommen und schreibe morgen auch noch etwas zum Thema. Unaufgeregt und eher als Faktensammlung. Ich schrieb es ja vor einem Jahr schon, dass die kausale Kette bis zum GAU nicht nur aus einigen wenigen Kettengliedern besteht. Das Ganze ist sowas von komplex... Krank.
 
  • Gefällt mir
Reaktionen: qiller, Knecht_Ruprecht und inge70
Raider_MXD schrieb:
Die Spezifikation gilt für die Grafikkarte, Netzteilanschlüsse sind nicht standardisiert, weder im Hinblick auf die Pinbelegung noch bezüglich der Leistung. Bei diesem Netzteil sind wie beim 8-Pin EPS-Anschluss je 300W pro Buchse vorgesehen.
Limitieren SingleRail Netzteile da überhaupt? Also ich hoffe, weil 1000Watt über 8 Adern … Ohje 🔥

PS: durch das 300W Limit seitens des NTs würden 2x8PIN bereits reichen für die GPU …
 
xexex schrieb:
Wir sprachen von High-End Karten.... Welchen Unterschied macht es denn im aktuellen Markt, selbst Karten mit weniger als 150W TDP mit einem 12V-2x6 Anschluss auszustatten? Noch ist mir kein einziges Netzteil bekannt, was komplett auf die alten Buchsen verzichtet.
Letztlich ist 12V-2x6 der aktuelle Standard der PCI-SIG und sollte dann auch auf allen PCIe-Karten kommen, denn PCIe 6+2 ist deprecated.

Also auch für 150 W GPUs. Wenn ihn nVidia dort selbst nicht verwenden sollte, wäre das natürlich gepflegt lächerlich. Damit würden sie sich ja das komplette Scheitern eingestehen.
 
HageBen schrieb:
Die werden damit am 12v-2x6 weniger kritisch, ja. Hilft den einzelnen Adern aber nichts, im Gegenteil. Und hebelt multi-rail Schütze aus, downgradet die zu single-rail über die kritischen Adern.
Dann schreibt Golem aber ziemlichen Mist.

Auch Igor schreibt ins seinem Artikel:
"Eine mögliche Lösung wäre die Nutzung von Adaptern, die die Last auf mehrere Kabel verteilen – doch das ist eher eine Krücke als eine nachhaltige Lösung."
(Quelle: https://www.igorslab.de/12vhpwr-ste...ce-rtx-5090-designproblem-statt-nutzerfehler/)

Das genau macht doch der Adapter von Nvidia??
 
Zurück
Oben