News GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ich bin gespannt wie nvidia nun damit umgeht und was für eine Lösung es geben wird. Ich bin allerdings nicht sehr zuversichtlich, dass es eine Lösung von nvidia geben wird. Da muss man sich wohl selber drum kümmern.

Ich habe mir schon extra das bquiet Kabel für die 4090 gekauft, aber das scheint auch nicht optimal zu sein. Schade, dass dort nicht direkt ein 90° Adapter entworfen wurde.
 
paganini schrieb:
Traurig das erst was passieren muss anstatt man das Problem frühzeitig schon angeht. Leider in vielen anderen Bereichen auch so…
(Eigene) Tests verursachen Kosten.
 
  • Gefällt mir
Reaktionen: Mcr-King
.Sentinel. schrieb:
Die Frage ist doch, wie hoch die Anzahl der Meldungen im Verhältnis zu sich im Umlauf befindlichen Karten ist.
Jein :), wenn es eine 500 Euro Karte wäre, denke ich, dass man dieses noch ansatzweise (als qualitative Schlampigkeit) verstehen könnte aber bei (knapp) 2000 Euro für eine RTX 4090 kann man denke ich schon eine gewisse Ausgereiftheit hardwareseitig erwarten - insbesondere wenn nachweislich Brandgefahr und somit potentiell Gefahr für Leib und Leben besteht (das geht schon eher Richtung Tesla-Autopilot Todesopfer und da kommt es nicht auf die Menge an, denn ein Fall ist m.M.n. schon zu viel).

Sonst tut doch nVidia auch so (marketingträchtig), daß Ihnen das Produktdesign angeblich so wichtig sei (siehe Steves/Gamers Nexus RTX 4090 Auseinanderbau-Video) und das passt eben gar nicht zu dieser mangelhaften Adapterlösung.
Daß nVidia urplötzlich weniger arrogant/selbst eingenommen geworden sei, wegen der peinlichen RTX 4080 12GB Rücknahmenummer, sieht man am Kommentar gegenüber JayzTwoCents wohl ganz klar, daß das nicht der Fall ist.

Wenn ein Entwickler Mist baut und Verbraucher über's Ohr gehauen werden sollen oder darunter leiden, ist auch Kritik angebracht und ich finde da kannst Du Dich ruhig auch zur Abwechslung einmal anschließen, auch wenn es Dir als bekannten Fan der Marke schwer fallen dürfte ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DagdaMor, edenjung, Tsu und 4 andere
Chilisidian schrieb:
Hä? Zuhause schickst du 3.500 Watt auf 10 A (bei neueren Installationen 16 A) durch normalerweise 3x1,5mm2 in deiner Hausinstallation.
Bin kein Elektrotechniker, aber machen da nicht die 12V zu über 200V den Unterschied? Nach dieser Logik wäre ja nVidias Lösung kein Problem, ist sie aber anscheinend.
 
  • Gefällt mir
Reaktionen: Tsu, Mcr-King und Yesman9277
PS828 schrieb:
sind bei 12V halt 50A die da durch müssen für maximal 600W. eine Nummer größer hätte nicht geschadet zumal der Platz dafür ja eigentlich überall da ist. Meiner Meinung nach ein unnötiges Risiko was sie hier eingehen.
Jetzt lassen wir am Stecker noch einen Übergangswiderstand vorhanden sein und eine nicht mehr perfekt klemmende Verbindung, dann sind das an der Stelle nicht 50A sondern schnell 70/100A und mehr - dann schmort das ziemlich schnell.
 
  • Gefällt mir
Reaktionen: PS828, Mcr-King und GERmaximus
1. Brennende Netzteile und auch brennende Kabel sind nichts neues. Hier wird aus zwei Berichten direkt ein Drama gemacht. Schon mal ein brennendes E-Autos gesehen? Soll das ein Grund sein sich kein E-Auto zu kaufen?

2. Es ist keine nVidia Spezifikation sondern es ist die offizielle ATX 3.0 Norm und das enntscheidet nicht nur nVidia. Hier arbeiten sogar eben die ATX und das PCIe Gremium im Prinzip nah einander.

3. Aus meiner Sicht sind nicht die Kabel das Problem sondern die Terminals. Diese sind gelinde gesagt unnötig Scheiße.
 
  • Gefällt mir
Reaktionen: RogueSix
@KlaasKersting das ist ja schön und gut, wenn der Herr das entspannt sieht, aber wenn bei den geringen Stückzahlen schon Meldungen kommen, ist es nicht 0815, 24/7, oder für Laien gedacht.
Das darf nicht passieren. Es gibt einen Grund weshalb, auch CB, im PSU Empfehlung Artikel erwähnt, dass man beim Netzteil nicht "zu"viel sparen sollte. Es wird schnell nicht preiswert sondern billig.
 
  • Gefällt mir
Reaktionen: Wowka_24 und Illithide
Ich habe mir nach den ersten Meldungen über diese Schmelz-Problematik ein paar Meinungen eingeholt und anscheinend sagt irgendwer nicht die Wahrheit bzw. das Problem wird runtergespielt.
Class Action Lawsuit incoming, anyone?

Neben den ganzen TechTubern, die auf den Panik-Zug aufgestiegen sind, hat sich auch ein vermeintlicher Fachmann zu Wort gemeldet und die Angelegenheit als unproblematisch eingestuft, da der Test unter extremen Bedingungen durchgeführt wurde, die so in der Praxis nicht auftreten. Nur komischerweise melden sich 4090-Besitzer, deren Kabel wegschmorren. Entweder übelste DAUs am Werk oder die Problematik ist viel grösser als Leute es darstellen, die kein Interesse daran haben, dass man sich dafür verantworten muss (Nvidia/PCI-SIG).

Ich bin immer noch der Überzeugung, dass dieser neue Stecker von Nvidia forciert worden ist und PCI-SIG das Anliegen von Nividia einfach nur umgesetzt hat. Aber die Kompetenz bei der Umsetzung muss schlussendlich bei PCI-SIG liegen. Die sind für einen sicheren Stecker verantwortlich. Nvidia kann nur Wünsche äussern.

Hier das Video (THE TRUTH: The NVIDIA 40 Series Will NOT Blow Up Your PSU!!!), in dem der Fachmann meint, es gibt nichts zu sehen, alles ist im grünen Bereich.

12VHPWR-nichts zu sehen hier.PNG


Ich denke, bald fängt das Spiel an, wer schiebt die Schuld auf wen feat. Nvidia vs. PCI-SIG...
 
Zuletzt bearbeitet:
Was ein Quatsch mit diesem Anschluss.
Probleme mit der Temperatur standen da doch schon die ganze Zeit im Raum.

Man hat vorher ja auch nicht umsonst 2 oder mehr 8-Pol Stecker verwendet, bei den größeren Modellen.

Nvidia soll Grafikkarten herstellen, und sich bei den Anschlüssen an bewährtes halten, oder das Leuten überlassen, die davon Ahnung haben, z.B. den großen Netzteilherstellern.
 
  • Gefällt mir
Reaktionen: Mcr-King, polyphase und branhalor
KlaasKersting schrieb:
Er führt die vereinzelten Fälle darauf zurück, dass Nutzer den Stecker nicht richtig einrasten, sodass beim Biegen die Kontakte ein wenig von den Pins rutschen. Er empfiehlt, auf das Klickgeräusch beim Einrasten zu achten.
Nein! Das Narrativ muss lauten, dass Nvidia hier Mist gebaut hat und nicht, dass die User mit der Brechstange die 4090 in zu kleine Cases zwingen und die Kabel verbiegen und unsachgemäß behandeln.

Erinnert mich an die Autodoktoren mit dem Rentner, der nach 4 Wochen jede Kupplung kaputtgefahren hat.
Kann nur der Hersteller schuld sein :D
 
  • Gefällt mir
Reaktionen: Chismon, Goozilla, untot und 5 andere
Jetzt braucht man sogar schon den perfekten Winkel um die Kabel an den Grakas anzuschliessen...Neben Gewichtshalterungen demnächst noch Winkelmesser usw mit im Karton...
 
  • Gefällt mir
Reaktionen: Der Lord
Dass GPU-Äquvivalent der Samsung Galaxy (einige Modelle betroffen)-Akku-Blowup-Geschichte.

Als hätte man in Escape from Tarkov nicht schon genug Stress und Bange um seinen Juiced-Loadout.
Da muss man nicht nur hoffen, dass der PMC den Raid überlebt, sondern zusätzlich auch die teure verbaute Hardware.

Eindeutig eine missed opportunity vom Marketing Team @ Battlestate Games:

Man hätte den 4090-Release in einer Promo-Aktion mit EFT promoten können mit dem Spruch:

"Der nervenaufreibendste Shooter wird im Zusammenspiel mit der neuen 4090 noch nervenaufreibender!" :daumen:
 
Jutt, ich hab in meinem Corsair Air 740 mehr als genug Platz, da müßte ich nicht viel biegen oder so.

Aber heftig ist das schon - vor allem, weil das Problem in der Tat seit gut einem Monat bekannt ist - und NVidia versucht, das Thema runterzuspielen...

Mal im Ernst:
Ja - massig Kabel in einem gegebenfalls mit Fenster versehenen Gehäuse sind nicht schön.
Aber wenn ich mir überlege, daß man die 4090 bei 350 W mit nur 3 von 4 der 8-Pin-Kabel an den Adapter anschließen kann und dadurch gerade mal 2-3% gegenüber dem Default-Maximum von 450 W einbüßt - dann frage ich mich schon, was NVidia dazu verleitet, hier auf Biegen und Brechen (oder besser Biegen und Schmelzen) einen neuen Pseudo-Standard durchsetzen zu wollen 🥴 Dann schau'n da eben drei 8-Pin-Stecker aus der Karte raus - so what. In meiner 3080 stecken aktuell zwei farblich stoff-gesleevte von Cable-Mod - das paßt dann zum Rest des Interieurs - und wenn meine nächste GraKa ein drittes Kabel bräuchte, dann paßt das auch.

Natürlich wäre kompakter schöner 👍
Nur wenn das erwiesenermaßen dazu führt, daß es mir die - schweineteure!! - Grafikkarte himmeln kann oder schlimmstenfalls ein Kurzschluß noch auf den Rest des PC's durchschlägt, dann fällt mir die Wahl nicht schwer.

So sehr ich immer wieder ein wenig das Sabbern bekomme angesichts der 4090'er Performance - aber ich bin grad mal wieder froh, daß ich mich entschlossen habe abzuwarten (wozu der hohe Preis seinen Teil ebenfalls beiträgt; hat ausnahmsweise mal was gutes ;)).
Wäre schön, wenn AMD sich diesem Stecker-Wahnsinn wirklich nicht anschließt. Ich nehm auch 10% weniger FPS als die 4090 - mit drei klassischen PCIe-Steckern bei max. 350-400 W und für 1.000€ weniger ;)
Der 03.11. wird es zeigen 🙏
 
  • Gefällt mir
Reaktionen: Romanow363
KlaasKersting schrieb:
Er führt die vereinzelten Fälle darauf zurück, dass Nutzer den Stecker nicht richtig einrasten, sodass beim Biegen die Kontakte ein wenig von den Pins rutschen. Er empfiehlt, auf das Klickgeräusch beim Einrasten zu achten.
Labor und Kunde, zwei Galaxien :)
Am Ende wird uns nur die Zeit zeigen können, ob das nur Einzelfälle (vielleicht aufgrund schlechter Adapter) oder mehr Regel wird, als bei anderen Powersteckern.

Wintermute schrieb:
Bin kein Elektrotechniker, aber machen da nicht die 12V zu über 200V den Unterschied? Nach dieser Logik wäre ja nVidias Lösung kein Problem, ist sie aber anscheinend.
Spannung ist egal, hier geht es nur um Strom und Leitungsquerschnitt (bzw. der daraus resultierende Widerstand; Widerstand = Wärmeentwicklung)
Wobei es nicht um die Kabel geht, sondern nur um die Steckverbindung bzw der Terminals (die Dinger, die die Stifte an der Grafikkarte umschließen)

Laphonso schrieb:
Nein! Das Narrativ muss lauten, dass Nvidia hier Mist gebaut hat und nicht, dass die User mit der Brechstange die 4090 in zu kleine Cases zwingen und die Kabel verbiegen und unsachgemäß behandeln.
:D
Haben Sie nicht? Doch ganz klar. Ein Stecker, der nicht geknickt werden darf, in Standard (!) PC Gehäusen normal, FAIL. Auch wenn Nvidia den nicht gemacht hat, sie nutzen ihn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute und Scheinriese
Neodar schrieb:
Da hat man einmal mehr unüberlegt halbgares Zeug entwickelt und nun muss man wieder warnen, aufklären und irgendwelchen Winkeladapter nachschieben, damit der Krempel nicht in Flammen aufgeht.
Aber Hauptsache die Hardware kostet mal eben 2000€+.
Fett absahnen geht immer, aber mal gescheite Technik dafür liefern ist dann doch nicht so wichtig, wa?
Naja, NVidia hat den Stecker nicht entwickelt. Die können sich also eigentlich zurücklehnen. Ich würde nVidia auch abnehmen, dass es bei ihren internen Tests nie zu Problemen gekommen ist. Dazu brauhct es halt erst mal ein paar tausend verteilte Karten, von denen dann ein paar unter unbekannten Umständen übern Jordan gehen.
Verschmorte Kabel sind ja grundsätzlich nichts neues. Mit dem neuen Adapter sind sie nur gerade in aller Munde.
 
Chilisidian schrieb:
Mir auch komplett unverständlich, warum Netzteile mit ATX 3.0 und nativem Kabel/Stecker nicht schon längst lieferbar sind. Bereits im April haben die Hersteller erste Netzteile damit vorgestellt und lediglich ein einziges von Gigabyte ist aktuell lieferbar.

Gigabyte hat kein ATX 3.0 Netzteil. Die mögen zwar ein Netzteil mit 12VHPWR PCIe 5.0 Stecker haben, aber das unterstützt nicht die ATX 3.0 Spezifikation.

Es gibt im Übrigen zahlreiche lieferbare Netzteile mit 12VHPWR Stecker, aber die meisten davon sind keine ATX 3.0 Netzteile.

Die einzigen "echten" ATX 3.0 Netzteile, die bisher auf Geizhals gelistet sind, sind 6x Thermaltake und 1x SilverStone. Davon ist nur das Thermaltake mit 1650W aktuell sofort lieferbar.

Daher: Augen auf beim Netzteilkauf! Wenn man jetzt neu kauft, dann sollte man auf jeden Fall darauf achten, dass das Netzteil wirklich ATX 3.0 kompatibel ist und nicht einfach nur einen PCIe 5.0 12VHPWR Anschluss hat.

Was die Problematik betrifft, so ist bei mir persönlich alles gut und ich fand das Anschließen der RTX 4090 trotz meines Uralt-Netzteils (siehe Signatur) völlig problemlos. Wegen der RTX 3090 hatte ich eh schon drei Kabel im NT stecken, habe ein viertes aus der NT-Schachtel geholt, in den Adapter eingesteckt und fertig.

Mein beQuiet Gehäuse ließ sich auch problemlos ohne jegliches Knicken des Kabels schließen. Klar ist das beQuiet DarkBase 900 nun auch ein BigTower, aber besonders breit ist es eigentlich nicht, sondern klassisch eher hoch und tief.

Durch das Gewicht der vier Kabel wird der Adapter eh schon nach unten gezogen und ein zusätzliches Knicken war zumindest bei mir überhaupt nicht erforderlich.

Insofern atme ich da auch ganz ruhig weiter durch die Hose, solange es nicht anfängt verkokelt zu müffeln :D .
 
  • Gefällt mir
Reaktionen: Ganjaware
DJMadMax schrieb:
1,3 mm² (16AWG) würde zumindest schon einmal knappe 8 mm² Gesamtquerschnitt bedeuten - bei hoffentlich reinem Kupferkabel. Das ist dennoch nicht viel und das Hauptproblem bleibt weiterhin der Übergangswiderstand am Stecker mit seinen gewiss nicht für solche Leistungen ausgelegten Stiftkontakte.

Kannst du das technisch begründen?
Amphenol gibt nämlich in der eigenen Spezifikation für Stecker und Buchse 9,5 A pro Verbindung an, was in Summe bei 6 Aderpaaren eben für 684W reicht
Quelle:
https://www.amphenol-cs.com/product-series/minitek-pwr-cem-5-pcie.html#
 
Darf sowas überhaupt verkauft werden?
Wenn ja, wie kommt sowas durch die CE und TÜV Prüfung, wenn es Kurzschluss/Feuergefährlich ist?
 
Zuletzt bearbeitet: (Tippfehlerkorrekturmaßnahme)
gibt ja scheinbar Expertenmeinungen zum Stecker und scheint safe.
2 random dudes von reddit posten einen verkokelten Stecker....hm, eventuell mit gebrücktem Kabel betrieben?
Gibt auch Menschen da draußen die Cpu's falsch einsetzen und der Meinung sind die kam mit den verbogenens Pins so an, Speicher wird ja auch gern mal verkehrt eingesetzt und in solchen Fällen ist es oftmals leichter die eigene Dummheit gern anderen anzukreiden oder wichtige Details wegzulassen und auf den Hersteller loszugehen.
 
  • Gefällt mir
Reaktionen: RogueSix
HighPerf. Gamer schrieb:
Aber manche dürfen sich immer wieder Handfeste Dramen erlauben. Andere reichen bisschen Software Probleme um auf ewig der schlechte zu sein ^^
Dass stimmt wie bei Intels Arc 700er Serien die finde ich wirklich gelungen für die Erste Gaming GPU.

Aber zurück zum Thema also wenn AMD sogar keine Lust auf der ATX 3.0 Stecker hat ist dass doch sehr bezeichnet.

Auch dass es so wenige NTs gibt mit ATX 3.0 ist merkwürdig mal sehen was da noch alles kommt.
 
  • Gefällt mir
Reaktionen: Chismon
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben