News GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Chilisidian schrieb:
Äh, Standard im privaten Wohnungsbau sind 1,5mm2 dreiphasig. Da haben die Drähte des 12VHPWR zusammen auf jeden Fall deutlich mehr und das bei 1/6 der max möglichen Leistung.
Leistung=/=Stromstärke.
 
  • Gefällt mir
Reaktionen: RigoMD und N0FX
n8mahr schrieb:
wenn ich das schon lese: Kabel nicht biegen.. dann macht den Querschnitt größer, ihr Spezialisten..

Corsair hat mit entsprechenden Kabeln für ihre modularen Netzteile scheinbar genau das gemacht. Jayz2cents hatte die Dinger im Video und sie sind deutlich steifer/behalten die Biegung bei, was auf einen dickeren Draht hindeutet.
 
Goozilla schrieb:
Für mich ist es kein Problem vom Kabel/Stecker sondern eher mangelndes technisches Verständnis derjenigen die es verbauen. Die Pins sind so fein und wenn ich das Kabel so nah am Stecker biege, drücke ich die Pins damit in eine Richtung und die Kontaktfläche wird zwischen Pin/Buchse kleiner --> höherer Übergangswiderstand = Hitze.
dafuq? Alter kommt mal alle von eurem hohen Ross runter und hört auf irgendwelche Milliardenschweren Firmen und die PCI SIG zu verteidigen.
Bei der Produktentwicklung MUSS man davon ausgehen, dass alles was schief gehen kann, geht schief. Es reicht nicht aus in der Entwicklung zu sagen "ach dann müssen die Anwender halt mal Verständnis für Elektrotechnik haben und ihre Kabel nicht so stark biegen"
Insbesondere bei Sachen, die die Sicherheit von Menschen beeinträchtigen können MUSS man das Produkt quasi so entwickeln, dass man keine Fehler machen kann als Anwender. Zumindest muss man sich anschauen, was man als Anwender falsch machen könnte und das dann testen und bewerten.
Wenn durch etwas zu starkes biegen der Kabel ein Schwelbrand entstehen kann, dann ist das hochgradig fahrlässig.
Und wir reden hier von der 4090 für um die 2000€, die werden sich keine absoluten DAUS kaufen und einbauen.

Der Stecker ist einfach total bescheuert. Man geht von 3 X 8 Pin auf 1 X 12 Pin, bringt den 12 Pin fast auf die Größe eines alten 8 Pin und will dann darüber auch noch mehr Strom jagen.
Und dann soll man ihn nicht so nah am Stecker biegen... bei Karten die selbst schon viele Gehäuse in der Breite ausreizen.

Ich mein selbst Nvidia hatte ja im Vorfeld Bedenken an die PCI SIG geschickt, dass sie beobachtet haben, dass die Stecker sehr heiß werden, bis hin zu schmelzen können. Dass man die dann trotzdem einbaut ist für mich absolut unverständlich.

Wie Buldzoid schon gesagt hat, könnte das nur der Anfang sein. Es geht ja quasi grad erst los mit der 4090. Und der neue Anschluss hält einfach nichts aus. Der alte 8 Pin war halt groß etc. aber halt dafür mit einer großen Sicherheit ausgelegt worden. Schaut euch an, was die Leute teilweise mit ihren 8 Pin Anschlüssen machen, besonders in SFF Cases. Sowas kannst du mit dem neuen Stecker vergessen.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, h2f, Sun_set_1 und 4 andere
Autsch.
Aber für jede Person, die an PCs bastelt ein erneuter und wichtiger Hinweis, auf die Anleitungen zu den jeweiligen Geräten zu achten.
Es ist eben nicht egal, wie man die Dinger anschließt.
 
Max007 schrieb:
Wie selten blöd muss nvidia sein, um einer 2.000€ Grafikkarte nicht so einen Winkeladapter beizulegen? Gier frisst Hirn.
Jeder Kontakt, Stecker, etc. erhöht die Wahrscheinlichkeit von Problemen und bringt zwangsläufig weiteren elektrischen Widerstand mit sich. Bei den geforderten Stromstärken ist daher so ein Adapter weiterer gefährlicher Schrott.

Ich denke das NV den Stecker ändern wird und dann sinkt der Gebrauchtwert von den Karten mit diesem Stecker auf 0€.
 
  • Gefällt mir
Reaktionen: h2f
scheint bei Herstellern in Mode zu kommen, das der Pfusch immer im Detail steckt. btw ist diese ATX 3.0 "Norm" sehr wischi waschi und herstellerfreundlich ...
 
  • Gefällt mir
Reaktionen: polyphase und Recharging
dass starkes Biegen sowie das mehrfache Verbinden ab rund 40 Zyklen zu thermischen Hotspots und in einigen Fällen sogar zum Schmelzen und Durchbrennen der Kabel führen kann
Lese ich das richtig, dass diese Kabel damit nach 40 Verbindungen bzw. 40 mal an- und ab-schließen nicht mehr verlässlich sind?
 
Ich habe das bei meiner Karte mit einer Wärmebildkamera für Gebäude angeschaut und nichts feststellen können. Ich hätte diesen Stecker aber auch anders konstruriert, diese Adapterlösung ist prinzipiell ok, die Ausführung aber schlecht weil 4 PCIe Kabel am m.M.n. zu filigranen 12VHPWR Stecker ziehen. Bei der Größe dieser Karten, hätte man da mehr Spielraum einplanen müssen wenn z.B. 25% Verbindungen keinen perfekten Kontakt haben indem man z.B. etwas dickere Kontakte genommen hätte.
Wird diese Karten jedenfalls nicht günstiger machen wenn es einen Rückruf gibt.
 
Ich warte noch auf den Tag, bis ich meine Rechnerkonfiguration der Hausratversicherung melden muss.

Nee mal ehrlich. So was darf einfach nicht passieren. Da sind wir uns wohl einig. Als hier die ersten Berichte über Biegeradien zu lesen waren dachte ich schon, was wird das werden. Und als dann noch zu sehen war, was das für ein "Klotz" an Grafikkarten wird, war mir klar, da bekommen viele Probleme das Ding überhaupt in der Rechner einzubauen. Bei mir würde die nicht passen. Da muss es doch einfach bessere Lösungen geben. Wer 2000€ in eine neue Grafikkarte investiert sollte sich über so was doch keine Gedanken machen müssen oder darf man die Karte nur dann betreiben, wenn man den Master in Elektrotechnik hat?

Aber hier eröffnet sich vielleicht eine neues Geschäftsmodell für Gehäusehersteller. Mein Vorschlag wäre: Gehäuse mit Wasserkühlung, Rauchmelder und Sprinkleranlage:D

Würde mich nicht wundern, wenn man hier bald über erste Schadensersatzprozesse in Millionenhöhe in den USA lesen würde.

Und die Diskussion die Spannung zu erhöhen gibt es ja schon seid Jahren beim Auto. Immer mehr Verbraucher hängen da an einem so gesehen veraltetem 12V-System. Aber auch hier lässt sich das irgendwie nicht durchsetzen. Da würden wahrscheinlich viele Zulieferer auf die Barrikaden gehen. Wie es aktuell bei E-Autos aussieht kann ich nicht einschätzen.
 
Zuletzt bearbeitet:
estros schrieb:
Sowas wird doch zertifiziert von TÜV Süd oder amerikanischen Pendants oder?
Du Überschätzt ein wenig den TüV. Erstens gibt es in US keinen tüv. Wenn man bedenkt das der neue Anschluss auf technik zurückführt der bis zu Molex reicht. Entsprechend ist er auch Spezifiziert usw. Also rein technisch kann der Anschluss das ab. Ein Din A4 wisch dazu und der Tüv haut sein servus drunter. Der Tüv testet sowas nicht.

Und die Probleme tauchen ja anscheinend erst auf wenn man das Kabel knickt. Auch das "Testet" der tüv nicht und ist auch nicht seine Aufgabe. Der Tüv prüft eigentlich wie beim Auto nur, ob es eine Zulassung gibt, ob es entsprechende Dokumente für die Spezifizierung gibt und ob das alles hier so passt. Ob dir dein Auto auf der Autobahn (Tesla) abbrennt unter gewissen umständen interessiert dem Tüv nicht.

Es gibt auch hierzulande keine Stelle die sowas nochmals auf herz und Nieren Prüft (praxis).
Spawn182 schrieb:
Bei zwei Nutzern von x 4090 Karten im Betrieb,
Ja, zwei Nutzer die das Public gemacht haben, bzw. deren Beiträge Viral gingen. Das sagte auch J2C. Er habe deutlich mehr Mails zu dem Problem bekommen. Und wenns nur zwei wären würde Nvidia keine Untersuchung einleiten.

Wäre das eigentlich nicht einen Test wert? Mit Wärmebild Kamera müsste man ja sehen ab wann der Stecker Heiß wird sofern das Problem überhaupt Reproduzierbar ist.
 
me@home schrieb:
Also entweder AMD baut viel stromsparender oder mit viel weniger Leistung
ADA zeigt aber eindeutig NVIDIAs Brechstange und ist vollkommen unnötig auf 450 W ausgelegt worden. Bei 350 W verliert ADA ca. 3 - 4 % und benötigt ganze 23 % Energie. Bei 300 W - also 33 % weniger - verlier ADA ca 8 - 9 % an Leistung.

AMD gibt an, dass sie ca 50 % mehr FPS/Watt erreichen wollen. ADA legt ca. 50 - 60 % auf die 3090, bei 350 Watt könnte AMD in normalen Spielen also auf 10 % heran kommen.

Unbekannte ist die RT-Leistung, da wird man warten müssen.
Taxxor schrieb:
Und wenn man mal die 3% Leistungsunterschied der 4090 zwischen 450W und 350W anschaut
Es ist traurig, das NVIDIA das Spiel geht, weil es in dem Fall vollkommen unnötig ist. ADA bei 300 - 350 Watt wäre so eine schicke Karte und würde an der Stelle auch wieder das richtige Signal setzen.

Schade, das die Hersteller wegen 5 - 10 % an Leistung und einfach 33 - 50 % mehr Energie in Kauf nehmen.
 
  • Gefällt mir
Reaktionen: habla2k und Beg1
Ich glaube, du machst dir Sorgen über Probleme, die es nicht gibt“, sagte Brandon Bell, Senior Technical Marketing Manager (Praktikant) bei Nvidia

Meine Putzfrau erzählt mir auch immer "TÜV für mein Auto brauche ich nicht" :D
 
Ozmog schrieb:
Unterm Strich tendiere ich zu dem Schluss, dass Nvidia es unnötigerweise Verbockt hat. Die 4090 ist so gesehen eine super GPU, aber der neue Stecker und die meiner Meinung nach unnötig hohen Leistungsstufen waren einfach nicht notwendig. Wenn schon die 4090 nicht merklich von den 450W statt 350W profitiet, was soll überhaupt aus 600W werden?

Meine Theorie:

nVidia hat sogar ein höheres Performance Target als Ziel gehabt und die fertige Ausbeute aus dem Prozess hat nVidia eine Rechnung durch den Strich gemacht. Über den der8auer kann man halten was man will aber er hat eine interessante Feststellung gemacht:

Die Karte gewinnt über ~360 Watt Powertarget sehr wenig an Leistung und rennt häufig in GPU Voltage Limit. Nach dem Voltage Mod (logischer Ansatzpunkt für OC in dem Fall) von ihm steigt mit kleinster Erhöhung der mV die Leistung so gut wie nicht an dafür geht die TGP exponentiell nach oben.

Somit ist das Powertarget von Maximal 600 Watt absolut übertrieben, genauso wie Kühler etc. und OC ist quasi nicht möglich mit der 4090. Dies dürfte auch der Grund für den Ausstieg von EVGA gewesen sein. Von den Mengen her war EVGA uninteressant...die Marge wurde dort mit den OC Produkten eingefahren. Nur gibt es hier bei der 4090 kaum Luft weil die Karte von nVidia an das vernünftige Limit geführt worden ist.

So.....somit ist auch der neue Stecker für die 4090 absolut überflüssig. nVidia hätte auch eine Karte wie bei der 3090 mit 2 x PCI-E 8 Pin (viele Custom 3090 waren bei 350 Watt damit unterwegs) bringen können un 350 Watt PT mit fast identischer Performance (3 % oder so). An sich ist die Idee beim Stecker vernünftig. Aus meiner Sicht wurde es mit der Gestaltung des Terminals verbockt: die Probleme dürften vor allem durch den "Molex" Stecker kommen. Vermutlich wird die weibliche Seite bei mechanischer Spannung durch die männlichen Stifte auseinander gebogen und es kann brutzeln am Terminal.

Außer irgendwelches Renderzeug bleibt die 4090 bei Games aufgrund GPU Voltage auch im aktuellen Zustand so bei 410 Watt bis 420 Watt und fährt nichtmal die 450 Watt aus. Und die 410 Watt erreicht man echt 4k, High FPS, RT etc. Viele Spiele bleiben selbst bei 4k weit unter der 400.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ozmog
Den nächsten hat es dort erwischt, jemand mit einer Asus Tuf 4090 OC hat sich gemeldet bei dem auch das Kabel angeschmort ist.

Derjenige hat Black Desert Online gespielt in einer Dungeon Gruppe, Grafikmäßig also nicht so extrem fordernd wie ein Red Dead Redemption 2.
 
Kabelbrände passieren, wenn zu viel Strom durch ein Kabel mit zu geringem Querschnitt durchgepresst werden muss/soll. Desto länger ein Kabel, desto größer muss übrigens auch der Querschnitt sein.

Wenn es also bei gebogenen Kabeln zu diesen Problemen kommt, dann war es vorher schon zu sehr auf Kante
genäht.

Eine 4090 zieht bis zu 600W. Auf der 12V Schiene sind das also 50A.
Diese Menge durch so ein "dünnes" Kabel bzw durch diesen Stecker. Purer Wahnsinn.

Wie kann man als Hersteller so ein Produkt auf den Markt werfen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Captain Mumpitz und poolk
Ich selbst und unzählige Tech-Interessierte haben noch VOR Release der RTX 4090 die Berichte gelesen, dass es bereits bei der Zertifizierung des Steckers zu schmelzenden. Steckern gekommen ist.

Nvidia hat diese auf Besonderheiten beim Test zurück geführt. Offizielle Lösung dafür: Biegeradius einhalten und max. 40 Steckzyklen.

Ich hab da schon dedacht: Mal sehen, wann die Stecker bei Benutzern schmelzen. Et voila!

Aber egal, Nvidia wird untersuchen und zum Schluss kommen, das Problem liegt nicht bei den Karten, sondern beim User und dessen falschen Gebrauch.

Irgendwann wird wo noch mehr abfackeln, warten wir's ab...
 
  • Gefällt mir
Reaktionen: Ozmog und Captain Mumpitz
B86A5F1A-ACA5-495C-85A5-B2A83BE1C7A7.jpeg

Bei mir ist „bisher“ noch alles in Ordnung
Der einzige Geruch bisher ist „Neuware“ ^^
 
InspecTequila schrieb:
Ein paar von tausend haben gebrannt und alle machen Theater!!!
Ein paar von Tausend, deren Fall publik ist, weil sie es auf Reddit & Co gepostet haben.
Ich wette, da gibt's auch bereits ne (kleine) "Dunkelziffer": Käufer, die sich direkt an den RMA des Händlers oder von NVidia gewendet haben.

Weiterhin, wie andere schon gesagt haben, muß das ja auch nicht sofort innerhalb von zwei drei Tagen nach Einbau auftreten - da kann auch zeitverzögert in einigen Wochen noch viel passieren. Bei wem der PC (noch) läuft, der checkt auch nicht, ob da bereits ein bißchen was angeschmort ist oder nicht.

Und was heißt "Theater":
Die 4090 ist keine LowEnd-Karte für 90€ - die kostet >2000€ !! Erstens darf ich als Käufer für das Geld einwandfreie Qualität erwarten, zweitens insbesondere in sicherheitsrelevanter Hinsicht: Wer zahlt mir denn den Schaden, wenn sich im schlimmsten Fall nicht nur die GraKa verabschiedet, auf der noch Garantie ist, sondern auch MoBo, Netzteil etc. vielleicht gleich mit?
Oder - Gott bewahre - das Netzteil deswegen nen Kurzen kriegt, irgendwas auch noch Feuer fängt, und ich bin grad mal für ne Stunde im Wohnzimmer, einkaufen, etc. pp...?
Guck mal auf Toyota: Die haben ne "Null-Fehler"-Qualitätsphilosophie - da sind Zulieferer für 3 Promille Ausfall schon gegangen worden - auch bei nicht sicherheitsrelevanten Bauteilen!


Ich freu mich wirklich für jeden, bei dem die 4090 reibungslos funktioniert; würde sie bei mir womöglich auch, weil ich genug Platz zum Gehäuse hin hab.

Aber wenn das Problem schon seit einem Monat bekannt ist und jetzt nach ein bis zwei Wochen neue Fälle hinzukommen, dann wird das ziemlich sicher erst die Spitze des Eisbergs sein. Erst recht, wenn auch Netzteilhersteller da ihre Bedenken bzgl. des Steckers äußern bzw. geäußert haben.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, polyphase und Recharging
Könnte es vielleicht sein das die Karte einfach viel zu viel Strom braucht?! Nvidia wird einfach immer unsympathischer.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben