News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Galarius schrieb:
Aus dem selben Grund wieso Nvidia 8pin und 6 Pin nicht mehr haben wollte
Nvidia hat gesehen, dass man mit PCIe 8-Pin am Ende ist. Offiziell gibt es keine Unterstützung für drei solche Kabel, spezifiziert ist der Einsatz von einem oder zwei Steckern bis maximal 300W. Für eine Karte mit maximal 150W TDP ist es hingegen völlig irrelevant, es gibt ein Kabel und eine Buchse, es macht so gut wie keinen Unterschied ob sie nach altem oder aktuellen Standard ausgeführt ist.
Prior to Revision 5.0, the PCI Express* CEM specification did not provide any allowance that would permit an Add-in Card to exceed the TDP power for its designated power range. This effectively confined the absolute power consumption of each Add-in Card to a hard limit such as 10 W, 75 W, 150 W, 225 W, or 300 W, even when it would be advantageous for the Add-in Card to make short-duration high-current demands on a power rail.
https://edc.intel.com/content/www/u...guide/2.1a/pcie-add-in-card-power-excursions/

Mangels eines Standards haben die Hersteller angefangen irgendwann drei solche Buchsen zu verbauen und haben auf alles was spezifiziert wurde geschissen. Wie sollte es deiner Meinung nach weiter gehen? Irgendwann fünf 8-Pin Kabel an der Grafikkarte?
 
  • Gefällt mir
Reaktionen: Grestorn
wechseler schrieb:
Aber im Low-End-Bereich wird der Standard der PCI-SIG erhalten bleiben. Und 150W oder 300W liefert auch der Micro-Fit-Stecker problemlos und Sense-Pins zeigen an, wie viel geht.
Wobei es da wiederum keinen neuen Stecker braucht, da man 150-300W auch mit den üblichen 8-Pin Steckern abdeckt. Und bei den kleineren Karten werden die ja auch weiterhin eingesetzt.
 
Wan900 schrieb:
Dann schreibt Golem aber ziemlichen Mist.

Auch Igor schreibt ins seinem Artikel:
"Eine mögliche Lösung wäre die Nutzung von Adaptern, die die Last auf mehrere Kabel verteilen – doch das ist eher eine Krücke als eine nachhaltige Lösung."
(Quelle: https://www.igorslab.de/12vhpwr-ste...ce-rtx-5090-designproblem-statt-nutzerfehler/)

Das genau macht doch der Adapter von Nvidia??
Nein. Der Adapter hat nur eine die Erkennung ob Kabel verbunden sind, oder nicht. Um die Last verteilen zu können braucht man spezielle Schaltungen, die auf älteren Nvidia-Karten vorhanden sind und auf den aktuellen fehlen.
In wieweit die Netzteile Lasten ausgleichen können weiß ich nicht.

Gruß Beschi
 
  • Gefällt mir
Reaktionen: inge70 und HageBen
Beschi schrieb:
Nein. Der Adapter hat nur eine die Erkennung ob Kabel verbunden sind, oder nicht. Um die Last verteilen zu können braucht man spezielle Schaltungen, die auf älteren Nvidia-Karten vorhanden sind und auf den aktuellen fehlen.
In wieweit die Netzteile Lasten ausgleichen können weiß ich nicht.
Das ist mir schon klar.

Grundsätzlich wäre aber es für viele 5090-User wohl interessant, ob der offizielle Nvidia-Adapter das Problem verhindert hätte.
Anscheinend werden die Adern im Adapter über eine Metallverbindung gebrickt.
Dass widerrum würde GPU-seitig wieder für einen Ausgleich sorgen und die unterschiedlichen Kontaktwiderstände negieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beschi
AlphaFoxAlpha schrieb:
Das macht Nvidia doch gar nicht:
Anhang anzeigen 1583126

ach nein und was ist das dann hier im QuickGuide?

1739284670537.png


das wurde hier bereits durch andere User aufgezeigt und ich hatte es daher auch noch mal verlinkt.

Und nun zeigst Du auf, dass es scheinbar verschiedene Vorgaben gibt seitens Nvidia.

Da soll dann der Endnutzer durchblicken.
Ergänzung ()

stefan92x schrieb:
Nein, Netzteilseitig machen die Hersteller im Prinzip was sie wollen. Deshalb wird ja auch immer wieder gesagt, man solle nur Originalkabel, die zum Netzteil gehören verwenden, weil sie bei anderen Netzteilen anders belebt sein könnten (oder gleich ganz andere Stecker nutzen).
das wusste ich nicht bisher. Danke für die Erläuterung
:)
 
  • Gefällt mir
Reaktionen: qiller, knoxxi und Wan900
xexex schrieb:
Nvidia hat gesehen, dass man mit PCIe 8-Pin am Ende ist.
8-Pin EPS ist bis 300W spezifiziert, damit hätte man einen Ansatz gehabt, um mit einer erprobten Lösung weiterhin mit ein bis zwei Buchsen auszukommen.
 
  • Gefällt mir
Reaktionen: qiller
xexex schrieb:
Nur weil sich Corsair nicht an die Spezifikation hält und für eine lange Zeit bescheuerte Adapterkabel bei den Netzteilen auslieferte, und sie dann trotzdem als ATX3.1 Geräte beworben hat, wird es nicht plötzlich zum neuem Standard.

Mit den aktuellen Netzteilserien ist auch Corsair von diesem Mist abgerückt.

Genau hier zeigt sich dann auch, wieso die verpfuschten Cablemod Kabel aus dem Verkehr gezogen gehören. Die kleineren Varianten können logischerweise keine 600W an dem 12V-2x6 Anschluss bereitstellen, das Zeug von Cablemod suggeriert aber das Netzteil könnte es sehr wohl.

Wie lange wird es wohl dauern bis die ersten Videos im Netz sind, wo einer herumheult der blöde Stecker ist schuld, weil ihm irgendwas abgefackelt ist obwohl er doch alles richtig machte und sogar "tolle" Cablemod Kabel verwendet hat.

Einzig der Hersteller des Netzteils kann bestimmen was seine Buchse kann oder nicht und wieviel Strom an dieser bereitgestellt werden kann, dafür gibt es extra die Sense Leitungen, die Kabel können immer 600W. Dann kommen Idiotenfirmen aus ihren Löchern gekrochen und meinen es besser zu wissen als Intel und die PCI-SIG, weil Optik geht natürlich immer vor.

Hast du überhaupt irgendetwas verstanden? Es hat absolut nichts damit zu tun wie der Anschluss PSU-seitig gelöst ist. 2x-8-Pin auf 12VHWPR ist genauso innerhalb der ATX und PCIe-Specs wie eine Netzteil-seitige 12VHWPR-Buchse. Man kann auch nicht einfach mit "ATX 3.1" werben, sondern sowas muss offiziell zertifiziert werden...Das Problem ist hier offenkundig die generell Steckverbindung die Nvidia mit 12VHWPR eingeführt hat und welche durch keinerlei Sicherungsmechanismen abgesichert wird...
 
inge70 schrieb:
das wusste ich nicht bisher. Danke für die Erläuterung
Wobei das nicht ganz stimmt, was er da schriebt.

Machen können die Netzteilhersteller da nicht unbedingt das, was sie wollen. Es gibt ja den Mini- und Micro-Fit-Standard, der gewisse Eckdaten vorschreibt.

Bei Mini-Fit - was meistens verwendet wird - darf auf dem Pin bis zu 13 A laufen. Bei den PCIe-6x und PCIe-8x-Steckern macht das 3 Adern, die 12 V und bis zu 13 A liefern dürfen. Über die Kabel können so "theoretisch" bis zu 468 W laufen. Natürlich muss da auch noch die Aderndicke und Co passen.

Bei den üblichen Anschlüssen auf Netzteilseite können damit also 468 W "geliefert" werden, wenn hier also 300 W abgegriffen werden, durch die Kabelstränge und die das auch aushalten, ist das kein Problem.

Die ATX-Norm beschreibt wiederum, was die Kabel "können" müssen, das muss aber nicht dem theoretischen Maximum entsprechen. Die ATX-Norm ist so beschrieben, dass sowohl die 6-Pin als auch die 8-Pin Kabel knapp 300 W liefern können, dürfen aber eben nur maximal 150 bzw. 75 W.
 
  • Gefällt mir
Reaktionen: inge70
Gamefaq schrieb:
Nur das das Kabel von Roman kein Zugekauftes von einem beliebigen Händler ist wie das was man zuerst sieht das abgefackelt ist. (und das war von einem darauf spezialisierten Händler) Sondern das von Corsair
Schon klar, ich hab die Aussage von NVIDIA ja auch nicht verteidigt sondern nur richtiggestellt. Daher das nur in Anführungszeichen ;)
 
  • Gefällt mir
Reaktionen: cbmik
Raider_MXD schrieb:
8-Pin EPS ist bis 300W spezifiziert, damit hätte man einen Ansatz gehabt, um mit einer erprobten Lösung weiterhin mit ein bis zwei Buchsen auszukommen.
Man hätte an der Stelle auch bei Mini-Fit bleiben können und hätte auf einen 10er-Stecker umschwnken können, statt dem 6er oder 8er und hätte bei entsprechender Spezifikation Kabel gehabt, die theoretisch 780 W schaffen, davon aber eben nur 600 liefern. Wäre auch gegangen.

Nur glaube ich kaum, dass das die Probleme hier gelöst hätte, da die wohl nicht unbedingt mit dem Stecker ansicht zusammen hängen, sondern wie Nvidia die Buchse am Ende schaltet.
 
  • Gefällt mir
Reaktionen: cbmik, Grundgütiger und inge70
mibbio schrieb:
Wobei es da wiederum keinen neuen Stecker braucht, da man 150-300W auch mit den üblichen 8-Pin Steckern abdeckt. Und bei den kleineren Karten werden die ja auch weiterhin eingesetzt.
Wenn man 16-Pin Mini-Fit aufgeteilt auf zwei Stecker durch genau einen 12 Pin Micro-Fit-Stecker für 300 W ersetzen kann, ist das im System-Builder-Markt durchaus ein handfester Vorteil.

Es ist halt nVidia, die versuchen, 600 W da durch zu jagen.
 
DevPandi schrieb:
Wobei das nicht ganz stimmt, was er da schriebt.

Machen können die Netzteilhersteller da nicht unbedingt das, was sie wollen. Es gibt ja den Mini- und Micro-Fit-Standard, der gewisse Eckdaten vorschreibt.

Bei Mini-Fit - was meistens verwendet wird - darf auf dem Pin bis zu 13 A laufen. Bei den PCIe-6x und PCIe-8x-Steckern macht das 3 Adern, die 12 V und bis zu 13 A liefern dürfen. Über die Kabel können so "theoretisch" bis zu 468 W laufen. Natürlich muss da auch noch die Aderndicke und Co passen.

Bei den üblichen Anschlüssen auf Netzteilseite können damit also 468 W "geliefert" werden, wenn hier also 300 W abgegriffen werden, durch die Kabelstränge und die das auch aushalten, ist das kein Problem.

Die ATX-Norm beschreibt wiederum, was die Kabel "können" müssen, das muss aber nicht dem theoretischen Maximum entsprechen. Die ATX-Norm ist so beschrieben, dass sowohl die 6-Pin als auch die 8-Pin Kabel knapp 300 W liefern können, dürfen aber eben nur maximal 150 bzw. 75 W.
auch Dir ein herzliches Dankeschön für die Erklärung. Für mich als "Laie" sehr hilfreich. :)
 
  • Gefällt mir
Reaktionen: knoxxi
c-3 schrieb:
Hast du überhaupt irgendetwas verstanden? Es hat absolut nichts damit zu tun wie der Anschluss PSU-seitig gelöst ist. 2x-8-Pin auf 12VHWPR ist genauso innerhalb der ATX und PCIe-Specs wie eine Netzteil-seitige 12VHWPR-Buchse. Man kann auch nicht einfach mit "ATX 3.1" werben, sondern sowas muss offiziell zertifiziert werden...Das Problem ist hier offenkundig die generell Steckverbindung die Nvidia mit 12VHWPR eingeführt hat und welche durch keinerlei Sicherungsmechanismen abgesichert wird...
Das Problem ist dass man einfach PCB seitig alle 6 Leitungspaare auf der Platine kurzschließt man aber nicht sicherstellen kann dass der Widerstand zwischen Kabel und Platine in allen Kontakten identisch ist. Damit fließt der Strom den Weg des geringsten Widerstandes und daher werden manche Aderpaare mehr belastet als andere. In einer idealen Welt müsste es eigentlich für jedes Aderpaar einen eigenen Loadbalancer geben der dafür sorgt dass je Aderpaar nur maximal 100 Watt gezogen werden. Ob wir jetzt 12VHWPR haben oder 4x8 Pin nach altem Standard sollte von dem Kernproblem her soweit ich das verstanden habe absolut keinen Unterschied machen. Als man noch 8 Pin genutzt hat, hat man halt noch eben die Last zwischen den Stromquellen (8 Pins) gebalanced und nicht einfach alles gebrückt und kurzgeschlossen. Aktuell behandelt das PCB den 12VHPWR einfach wie eine einzelne Stromquelle und nicht als wären es 6 Aderpaare. Auch die Asus Lösung überwacht nur den unterschied des Stromflusses der Aderpaare, kann ihn aber nicht regeln.

Effektiv hätte man 4x8 Pin genutzt und die alle auf der Platine kurzgeschlossen wäre es zum exakt gleichen Problem gekommen. Außer man hätte hier eben 4 Load balancer genommen sodass je 8 Pin nur 150W gezogen werden. Aber innerhalb eines 8 Pin anschluss hätten auch hier 150W über 1 Aderpaar fließen können. Was nur eben mit 150W dann gar nicht so schlimm wäre wie wenn 600 über 1 Paar fließen muss.

Daher gibt es aus meiner Sicht für das Problem nur 3 sinnvolle Lösungen.

1. Pflicht je Aderpaar einen Loadbalancer zu haben
2. Den ganzen Mist mit vielen Aderpaaren verwerfen und nur noch 1 einzelnes Aderpaar zwischen Netzteil und GPU
3. Direkter Anschluss der GPU mit einem Kaltgerätestecker so wie in den ganzen Memes ;)


EDIT: Daher wäre es sogar egal ob 12VHPWR oder 8Pin. Am Ende ist der fehlende Load balancer bei 600W mit sovielen Aderpaaren das eigentliche Problem. Und natürlich dass nVidia das ganze nicht vernünftig kommunziert hat auch wenn jetzt im Nachhinein das Problem offensichtlich ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DevPandi, inge70 und stefan92x
5hred schrieb:
Die Diskussion hier ist sehr umfangreich, daher meine Frage:

Wie lässt sich kategorisch ausschließen, dass beim Betrieb einer 5090/5080/whatever-Gpu mit diesem neuartigen Anschluss keine einzige Ader auf ungesunde Temperaturen kommt, so dass Schmelz- bzw. gar Brandgefahr besteht?
So wie ich das verstanden habe: Gar nicht mit dem derzeitigen Kabel/Platinenlayout.

Was ich tatsächlich machen würde, wenn ich denn eine solche Karte hätte und auf die Leistung angewiesen wäre: Ich würde am Stecker jeweils an der Netzteilseite und der Grafikkartenseite externe Temperatursensoren hinbasteln. Und diese dann überwachen, oder einen Warnton abspielen lassen, wenn Temperatur X überschritten wird. Das ist natürlich immer noch keine Lösung den PC unbeaufsichtigt laufen zu lassen, da bräuchte man dann schon eine Abschaltvorrichtung. Das wiederum würde meine Bastelfähigkeiten übersteigen.
 
  • Gefällt mir
Reaktionen: mithraldur
Knecht_Ruprecht schrieb:
da bräuchte man dann schon eine Abschaltvorrichtung. Das wiederum würde meine Bastelfähigkeiten übersteigen.
Eine solche Abschaltvorrichtung ist bereits seit über 100 Jahren erfunden und nennt sich "Feinsicherung":

https://www.pollin.de/p/feinsicherungs-sortiment-260134

Das Sortiment geht bis 10 A, 8 A sollten aber auch gehen.

Der passende Halter dafür kommt einfach ins Kabel:

https://www.pollin.de/p/sicherungshalter-s1058-260448

Einem "Gamer" mit GTX 50-GPU könnte man sowas locker mit 1000 % Aufschlag für einen dreistelligen Preis verkaufen.
 
  • Gefällt mir
Reaktionen: mithraldur, stefan92x und Knecht_Ruprecht
5hred schrieb:
Wie lässt sich kategorisch ausschließen, dass beim Betrieb einer 5090/5080/whatever-Gpu mit diesem neuartigen Anschluss keine einzige Ader auf ungesunde Temperaturen kommt, so dass Schmelz- bzw. gar Brandgefahr besteht?
Nutzung des gebrückten originalen nVidia Adapters soweit ich das verstanden habe. Aber auch das ist nur ein Pflaster auf die offene Loadbalancer Wunde.
 
Wenn man die Sicherungen mit verschiedenen Gasen befüllt, kann man sich dann die Glühfarbe heraussuchen?

Ich hatte im ursprünglichen Thread geschrieben, wir brauchen Kabellüfter mit RGB. Das hatte ich dann geändert auf wir brauchen aktiv gekühlte Kabel wie bei der E-Mobility.

Und jetzt kommst du mit diesem Vorschlag: Dann brauchen wir eben RGB Schmelzsicherungen!
 
Versteh ich das richtig? Da hatte jetzt ein einziger ein Problem (Lastverteilung), aber man weiß gar nicht wer jetzt der Verursacher ist? Netzteil, Grafikkarte oder Anwenderfehler?
Das wird ja wieder schön künstlich aufgebauscht.
 
  • Gefällt mir
Reaktionen: xexex
Zurück
Oben