News GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ich hab da bei der ein oder anderen Geschichte durchaus Zweifel.
Ich hab mich trotzdem etwas verunsichern lassen und gestern erstmal 2h Furmark laufen lassen und dabei die Steckverbindung mittels Wärmebildkamera regelmäßig kontrolliert. Ich habe scheinbar keine Problem mit dem Adapter, die Seitenwand geht bei meinem Meshify S2 und der Zotac AMP Airo aber auch ohne Widerstand zu.

Was für mich nicht stimmig ist:
1666777036701.png

Der Stecker sieht aus, wieder Adapter, der bei der 3090ti mitgeliefert wurde und da fehlen die Sense-Pins, wenn man davon ausgeht, dass der Clip zum einrasten auf der Rückseite ist, oder der Clip zum einrasten fehlt komplett. Abgesehn davon, dass das Bild vom fertigen System so aussieht, als wäre der Adapter direkt am Anschluss geknickt worden.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Rassnahr schrieb:
Lese ich das richtig, dass diese Kabel damit nach 40 Verbindungen bzw. 40 mal an- und ab-schließen nicht mehr verlässlich sind?

Nicht nur die Kabel, auch die GPU für 2000€ ist dann Sondermüll.
 
  • Gefällt mir
Reaktionen: h2f
Zotac2012 schrieb:
Nach allem was man bisher so weiß und es ja auch aus verschiedenen Richtungen Bedenken und Warnungen gab bzgl. des 12VHPWR-Stecker, finde ich diese Aussage schon mutig. Ich denke so wird man bei Nvidia auch zunächst gedacht haben, als man die Bedenken und Warnungen einfach ignoriert hat, wenn was passiert liegt's wohl am mangelnden technischem Verständnis der Käufer / Kunden.
Da bin ich voll bei dir. Vor allem möchte ich nicht wissen, wie viele so eine Karte kaufen ohne Kenntnisse über die möglichen Gefahren zu haben ohne gleich übertreiben zu wollen. Hier, die wir alle darüber diskutieren, wissen ja von der Problematik. Und wenn es bei Strom um mögliche Brandgefahren geht (ich sage ja nicht, daß das gleich überall passieren wird) sollte eigentlich eine Nulltolleranzgrenze herrschen. Vor allem dann nicht, wenn man schon vor Release mögliche Gefahren erkennt.

Was mich mal interessieren würde ist, ob irgend ein Ingenieur, sei es einer bei nvidia oder ein Custom-Hersteller, bei der Entwicklung das nicht aufgefallen ist. Ich kann mir nicht vorstellen, daß da keiner aufgestanden ist und gesagt hat "He - Moment mal - so dürfen wir das nicht machen! Der Stecker ist für die Strommenge nicht ausreichend geeignet".

Ist bei dem Preis der Karte wegen ein paar Euro es Wert so was raus zu bringen? Sieht ganz danach aus.

Wir werden´s wohl nie erfahren-

Wie wird das denn jetzt von der Gewährleistung gehandhabt? Muß ich nachweisen, daß der Stecker korrekt verbaut war? Vielleicht kann das mal jemand hier juristisch bewerten. Würde mich interessieren. Oder z.B. die Frage ob der Hersteller die Karte zurücknehmen muß sollten sich die Fälle häufen. Auch dann, wenn meine Karte nicht betroffen wäre.

Möchte gar nicht wissen wieviel Anwaltskanzleien in den USA das schon verfolgen für eventuelle Schadensersatzklagen um die ersten zu sein, sollte da etwas größeres passieren. Und ich würde diese Aussage nicht als überzogenes Hirngespinnst herab tun. Wir kennen das ja schon zu genüge aus Amerika.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zotac2012
.Sentinel. schrieb:
Da bin ich ganz bei Dir. Und ich schreibe ja schon die ganze Zeit, dass das gut ist, wenn es untersucht wird.
Sollte eine Gefährdung von den Steckern ausgehen, muss es einen Rückruf bzw. ein Austauschprogramm geben.
Nur wie gesagt- Ich habe leider schon zu viel Kokelei von Kunden in Rechnern gesehen, als dass ich das grundsätzlich einem vorsätzlich mangelhaften Design anlasten würde.
Und die Unterstellung des Vorsatzes, die Du hier letztendlich mit dem Passage mit "übers Ohr" hauen bekräftigst, geht mir persönlich zu weit.
Grundsätzlich gilt bei mir wie bei allem anderen auch erstmal die Unschuldsvermutung.
Mist passiert bei allen. Es ist die Frage, wie dann damit umgegangen wird.
Ja. Mist passiert allen.

Aber bei Nvidia fällt es halt extrem auf, weil da ja öfters
schon Mist passiert ist :evillol:.

Trotzdem... bei ausreichendem austesten der Karte, vor dem Verkauf, im Nvidia-Labor
hätte auffallen MÜSSEN, dass da Probleme entstehen können (nicht unbedingt müssen).
Oder es wird halt einfach nicht unter "normalen" Bedingungen, die beim Käufer
halt zu Hause herrschen, getestet.
Sondern nur in Laborumgebung, offen auf das Board geschraubt, ohne Gehäuse etc etc.
Das wäre dann aber ein richtiges Armutszeugnis :(.

Was meinst Du denn mit "Kokelei von Kunden in Rechnern" :confused_alt:.
Statt Taschenlampe mit Feuerzeug das Innenleben des PC begutachten :lol:
 
Hademe schrieb:
Könnte es vielleicht sein das die Karte einfach viel zu viel Strom braucht?! Nvidia wird einfach immer unsympathischer.
Wenn man ein Kabel das hohen Strom durchlässt auch so übel knickt das sich dadurch extreme Hitze bildet an der Stelle, was erwartet man dann? Denke einige raffen es einfach nicht.
 
  • Gefällt mir
Reaktionen: Aduasen
xexex schrieb:
Nö! Genau das war der bisherige Stecker eben nicht, weshalb man für höhere Stromstärken auch drei davon brauchte. Die bisherigen Lösungen hatten noch größere Probleme als die neue Lösung, nur scheinbar werden diese von einigen hier verdrängt, weil es so einfach ist auf Nvidia rumzuhacken.

Was wurde denn bisher so gerne genutzt und lag bei fast jedem Netzteil bei?
Anhang anzeigen 1275264
https://www.igorslab.de/en/power-recording-graphics-card-power-supply-interaction-measurement/6/

Ein theoretisch ausreichend ausgelegtes 2x8 Pin Kabel, war meist nur 1x6 Pin Kabel, bei dem dann die Leitungen mehrfach weiter verzweigt wurden und keinerlei vermeintliche "Sicherheit" mitbrachten. Solche "Lösungen" sind und waren gang und gäbe, womit das neue 12VHPWR Kabel endlich aufräumt und eine Signalisierungsmöglichkeit für die maximale Leistung mitbringt.

Umgekehrt wird ein Schuh daraus. Dieser "Wildwuchs" war nur möglich, weil die Spezifikation erhebliche Reserven hatte. Deswegen haben diese Lösungen ja auch in aller Regel funktioniert, auch wenn sie nicht im Sinne des Erfinders waren.

Die Minifit von Molex dürfen je nach Ausführung mit 13A belastet werden. Übliche Ausführungen sind bis 9A belastbar. Ein 2x4 Pin Stecker kommt also bei 12V auf eine Belastbarkeit von min. 432 Watt. Verbaut wurde er nach PCI-SIG aber nur bis 150 Watt. Das ist der 2,8-fache Wert oder eine Reserve von 188%.

Beim 12VHWPR kommt Microfit von Molex zum Einsatz. Laut Hersteller sind die in der maximalen Ausführung bis 10,5A belastbar. Wie sie von nVidia und den Partnern verbaut werden ist etwas undurchsichtig. Ich habe jetzt mehrmals eine Belastbarkeit bis 9,2 A gelesen. Damit wäre eine 12VHWPR-Steckverbindung bis maximal 662 Watt belastbar. PCI-SIG spezifiziert bis 600 Watt. Das ist der 1,1-fache Wert und damit eine Reserve von lediglich 10%.


Edit: Wenn man lange genug sucht, findet man sogar 8,5A als maximale Belastbarkeit.

1666783049943.png


Für mich als "Nicht-Elektroniker/Elektriker" ist etwas undurchsichtig, welcher Wert jetzt wo gelten sollte. In jedem Fall hat der 12VHWPR-Verbinder kaum Reserven. 2x4 Pin PCIe oder gar 2x3 Pin PCIe sind dagegen geradezu lächerlich überdimensioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: catch 22 und MGFirewater
ghecko schrieb:
Ist so nicht richtig, der Innenwiderstand bleibt auch bei steigender Spannung gleich.
Aber je höher die Spannung, desto mehr Leistung lässt sich mit derselben Stromstärke übertragen. Deshalb glaube ich auch, das 12V im PC nicht mehr lange Bestand hat wenn das so weiter geht. 48V wäre der nächste logische Schritt.
Du hast vollkommen Recht, das war sehr schlecht von mir ausgedrückt. Der Innenwiderstand eines Leiters verändert sich nicht durch die anliegende Spannung, kann bei höherer Spannung aber leichter überwunden werden. So hätte ich es gleich ausdrücken sollen.

Vielen Dank für die Korrektur :)
 
  • Gefällt mir
Reaktionen: RigoMD
untot schrieb:
Der Stecker sieht aus, wieder Adapter, der bei der 3090ti mitgeliefert wurde und da fehlen die Sense-Pins, wenn man davon ausgeht, dass der Clip zum einrasten auf der Rückseite ist, oder der Clip zum einrasten fehlt komplett.
Sollte das nicht ein und der selbe Stecker mit der selben Belegung sein? Die 4090 nutzt ja den selben Stecker bzw. die selbe Buchse.

Laut Techpowerup gibt es keine Sense-Pins, einfach nur sechs +12V und sechs Ground. Siehe dazu den Beitrag, den ComputerBase bereits vor zwei Monaten verfasst hatte.

untot schrieb:
Abgesehn davon, dass das Bild vom fertigen System so aussieht, als wäre der Adapter direkt am Anschluss geknickt worden.
Was es trotzdem nicht "falsch" macht. Wenn ein Knicken nicht gewollt oder gar schädlich ist, dann gehört ein vernünftiger Knickschutz integriert.

Ich sage es an dieser Stelle gern wieder:
Nicht (primär) die Kabel, sondern die schlechten Steckverbinder mittels Stiftkontakt sind das Problem.
 
  • Gefällt mir
Reaktionen: RigoMD
DJMadMax schrieb:
Sollte das nicht ein und der selbe Stecker mit der selben Belegung sein? Die 4090 nutzt ja den selben Stecker bzw. die selbe Buchse.

Laut Techpowerup gibt es keine Sense-Pins, einfach nur sechs +12V und sechs Ground. Siehe dazu den Beitrag, den ComputerBase bereits vor zwei Monaten verfasst hatte.
Nein, sowohl die 3090 ti, als auch die 4090 jetzt haben eine 12+4 Pin Buchse. Im Gegensatz zur 4090 hat die 3090 ti auch noch ohne die zusätzlichen Pins funktioniert. Die 4090 verweigert den Dienst und dazu gibt es einen aktuelleren Artikel von Computerbase https://www.computerbase.de/2022-10...nschlussoptionen-der-grafikkarte-am-netzteil/
Update beachten
 
Da ich mir gar nicht erst eine 4090 zulege brauche ich mir darüber auch keinen Kopf machen.
 
  • Gefällt mir
Reaktionen: SSD960
Ich glaube, du machst dir Sorgen über Probleme, die es nicht gibt“, sagte Brandon Bell, Senior Technical Marketing Manager bei Nvidia, in einer E-Mail an JayzTwoCents
Hat schon jemand nachgeschaut, ob die Person und die Empfängermail noch präsent sind? ^^
Weil ich würde so eine Karte ja jetzt vorsichtshalber nicht mehr kaufen wollen.
Na ja, das passiert halt, wenn man zu hoch Richtung Sonne fliegen will.
Eine gute Karte bei 450 Watt abgerieglt hät's doch sicherlich auch getan, und es würde auch keiner mehr großartig über die teils extreme Stromaufnahme meckern.
 
Marcel55 schrieb:
Da haben wohl mal wieder ein paar gepennt. Bauen die Grafikkarte so riesig dass sie bis zur Seitenwand reicht und dann soll noch son dickes Kabel da dran.

Aber, die meisten Gehäuse haben heute eh eine Seitenwand aus Glas. Man benötigt nur die richtige Ausrüstung.

Ich präsentiere das Sichere-RTX4090-Starterpaket:
Anhang anzeigen 1274931

Und demnächst könnte nVidia ja wenigstens so einen Winkelstecker beilegen.

Mit Seitenfenster eigentlich ein schöner Kamin. :-)
Ergänzung ()

DJMadMax schrieb:
Was es trotzdem nicht "falsch" macht. Wenn ein Knicken nicht gewollt oder gar schädlich ist, dann gehört ein vernünftiger Knickschutz integriert.
So sehe ich das auch.
Wenn die sich einen hinfuschen, sollte es zumindest sicher ausgeführt sein.
Aber die Verantwortung quasi auf den Verbraucher abzuwälzen geht einfach nicht.
Und man muss es auch so sehen, dass die übergroßen Karten in viele kleine Gehäuse stellenweise nur mit Gewalt gedrückt werden können, wenn die Stecker da so hoch abstehen.
Da wird dann draufgedrückt bis das Gehäuseseitenteil in die Verankerung klickt und man die Schrauben schnell andrehen kann.
Und so ein Kabel knickt nunmal gerne imemr schon direkt am Stecker mit um und niemals erst da, wo der Druck ausgeübt wird (vor allem nicht in 90°).
Eine verlängerte Schutzhülle zur Stabilisierung oder so wäre also nötig gewesen.
Aber dann passt es halt nicht mehr so schnell in jedes Gehäuse und es gibt vielleicht viele Rücksendungen.
Blöde Entscheidung für die Verantwortlichen, wenn man die Karte bereits durch alle Instanzen durchgewunken und fertig produziert auf dem Tisch liegen hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1
Marcel55 schrieb:
Und demnächst könnte nVidia ja wenigstens so einen Winkelstecker beilegen.
Es gibt doch schon Winkelstecker, nur verlierst du dann wohl angeblich die Garantie.

Aber Nvidia wird sicher demnächst einen zertifizierten Stecker raus bringen für nur 99,99€ oder sowas.

Wer so dumm ist wie ich es leider auch war, der lässt sich sicher noch weiter melken...
 
  • Gefällt mir
Reaktionen: Beg1
Drakrochma schrieb:
Es gibt doch schon Winkelstecker, nur verlierst du dann wohl angeblich die Garantie.
Zumindest der Winkeladapter löst kein Problem, er schafft nochmal 12 zusätzliche Kontakte mit Übergangswiderständen.
 
  • Gefällt mir
Reaktionen: Beg1
Das war doch von vorneherein klar, dass immer filigranere Stecker und Kabel bei mehr Ampere zu einem Unfall führen müssen.
Die alten und bewährten PCIe-Stromanschluss-Stecker/Buchsen mit 8 Pin, 6 -Pin waren wesentlich Leistungsfähiger.
 
Zuletzt bearbeitet:
untot schrieb:
Nein, sowohl die 3090 ti, als auch die 4090 jetzt haben eine 12+4 Pin Buchse. Im Gegensatz zur 4090 hat die 3090 ti auch noch ohne die zusätzlichen Pins funktioniert. Die 4090 verweigert den Dienst und dazu gibt es einen aktuelleren Artikel von Computerbase https://www.computerbase.de/2022-10...nschlussoptionen-der-grafikkarte-am-netzteil/
Update beachten
Ah, da sind ja noch vier Stück oben drüber versteckt!

Alles klar, vielen Dank für den Hinweis.

Das macht es für die Betroffenen allerdings noch schlimmer. Wenn nVidia nachweist, dass nicht der vorgeschriebene PCIe 5.0 12+4 Pin-Adapter verwendet wurde, dann wird die Schuld zweifellos auf den Verbraucher abgewälzt.

Wieso sind die beiden Stecker überhaupt baulich kompatibel?
 
Wechsler schrieb:
Zumindest der Winkeladapter löst kein Problem, er schafft nochmal 12 zusätzliche Kontakte mit Übergangswiderständen.
Finde ich auch. Das Problem ist, daß die Karte von Haus aus schon so groß ist, daß es schwierig sein wird einen anderen Platz für den Stromanschluss zu finden. Hinten bekämen viele Problem wegen der Länge mit der Karte und nach unten wegen der nähe zum Boden. Nach oben wäre wohl der CPU-Kühler im Weg. Bliebe nur noch die Slotblende mit einem eigenen Stecker und separatem Netzteil. Sähe halt nach Bastellösung aus.
 
Man kann es doch auch ganz einfach machen in dem man sich Das Erweiterungskabel kauft von Moddiy.com und lässt den Doofen Nvidia adapter einfach weg und somit sind alle sorgen erledigt weil das Moddiy kabel kann man biegen und verlegen wie man will ohne einschränkung

https://www.moddiy.com/products/ATX...le-8-Pin-to-12VHPWR-16-Pin-Adapter-Cable.html

Und bevor sich alle frage wie kann man mit 3x8pin nur auf 600watt kommen die werden die sens pins einfach auf ground gelegt haben um die 600watt ausgeben zu können im bedarfsfall
 
domian schrieb:
meine Motorradbatterie hat mehr A bei 12V und “dünnen Käbelchen“. Da fackelt auch nichts ab.
Ich denke auch nicht, dass die Adern der Kabel ein Problem darstellen. Der Vergleich passt trotzdem nicht, hoher Strom liegt bei Auto- und Motorradbatterien beim Anlassen des Motors an, also nur eine sehr kurze Zeit.
Eine Grafikkarte könnte aber durchaus über Stunden unter Volllast laufen.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben