News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Darken00 schrieb:
Naja, dem kann ich nur widersprechen. Meine "Asus RTX 3080 ROG Strix OC" hat in Spitze (ohne UV) unter Spielelast bis zu 385 Watt verbraucht und wurde bis zu 70 °C warm, meine neue "Asus RTX 5080 TUF Gaming OC" verbraucht in Spitze (ohne UV) lediglich 310 Watt bei 100 % Auslastung in Spielen und wird maximal 60 °C warm, und das bei permanenten 2.785 MHz Chiptakt an 1015 mV (im Standardbetrieb ohne UV!). Die Leistung in Spielen ist zwischen 70 % und 400 % höher (ohne FG / MFG) als die der RTX 3080. Jetzt kommst du. :D
Kunststück du vergleichst die alte Samsung 8n Fertigung der 3080 gegen TSMC 4N der 5080. Das hat weniger was damit zu tun das nvidia da was gezaubert hat als das der Fertigungsprozess gesenkt wurde was massive Auswirkungen auf die Stromaufnahme hat. Siehe die Vergleiche 4080/5080 wo alles +/- gleich ist.
 
Quidproquo77 schrieb:
Ich denke auch bei der Geschichte ist es etwas komplexer als es einfach darauf zu schieben keinen "Load Balancer" zu haben. Die Messungen zeigen bisher eher das Gegenteil. In der Spitze rund 10A.

20+ Ampere auf der schlimmsten Leitung und 2 Ampere auf der niedrigsten.

  • R = U / I und das Thema ist erledigt. Schlechter Kontakt = hoher R.
  • Guter Kontakt = niedriger R.
  • Niedriger R bei gleichbleibenden U bedeutet hohe I.
  • Hoher I in einem Draht erzeugt hohe Wärme.

Gibt nur drei Möglichkeiten dies zu verhindern.

1. Dicke Leitungen denen es egal wäre. Aber warum dann überhaupt 12 stück wenn es 2 tun würden?
2. SICHERSTELLEN dass alle Kontakte den gleichen Widerstand bilden -> Sehr schwierig bei dieser Art von Kontakten. Vielleicht sollten wir wieder zu verschrauben übergehen ?
3. Loadbalancer je Aderpaar. Es hat früher wenig Sinn ergeben je Aderpaar einen Load balancer zu haben ABER es gab je Anschluss einen. Einmal für den PCIe (75W) und dann für jeden 8 Pin (150W).
 
  • Gefällt mir
Reaktionen: Wintermute und qiller
Dasher schrieb:
20+ Ampere auf der schlimmsten Leitung und 2 Ampere auf der niedrigsten.
Sicherlich, ich meinte nicht die Messungen von der8auer.

Durch das Hinzufügen der Messwiderstände bei Karten anderer Hersteller wird die Stromverteilung etwas homogener als auf der FE. Kabel und Stecker sollten nur wenige milliohm an Widerstand aufweisen. Weichen diese dann etwas ab, verteilt sich der Strom "in der Theorie" ungleichmäßiger. Aber auch das ist nicht die vollständige Erklärung für dieses Endergebnis was wir sehen.

Mittlerweile tippe ich einfach nur auf das Kabel, das durch zu viele Steckvorgänge in Mitleidenschaft gezogen wurde. Ganz banal.
 
Zuletzt bearbeitet:
Ich bin mal sehr gespannt wie es die Käufer im Falle eines verschmortem Steckers machen, die bei Scalper (Privat) gekauft haben. Ich meine, das hat hier natürlich niemand! Aber theoretisch würde mich das Gespräch zwischen geschädigten und Scalper schon interessieren:))))
 
FE steht übrigens für Founders Foundry Edition 😈
 
Die Lösung ist doch ganz einfach, man kauft keine Grafikkarte die diese Menge an Strom zieht.
Dann hat man weder Probleme mit dem Stromstecker und man spart Geld weil man kein so starkes Netzteil braucht.
Ergänzung ()

sNo0k schrieb:
FE steht übrigens für Founders Foundry Edition 😈
Ich dachte eher es steht für "fire expected"
 
  • Gefällt mir
Reaktionen: nazgul77, Apocalypse und Mario2002
Ich muss auch zugeben, dass ich etwas verblüfft bin, dass das Widerstandsungleichgewicht zwischen den einzelnen Leitungen solche Ausmaße annehmen kann, gerade was Roman zeigt, ist doch ein etwas zuuu heftiges Ungleichgewicht. Ich bin da auch auf Igors Seite, dass sehr wahrscheinlich die Kontakte die Verursacher sind. Und das bestätigt ja auch die Messung vom HWLuxx, wo man einfach den Stecker nochmal neu eingesteckt hat und plötzlich eine viel homogenere Stromverteilung gemessen hat.

Für mich ist sowas eine Fehlkonstruktion, wenn man jetzt als Anwender quasi Steck-Lotterie spielen soll. Mögliche Lösungen hat ja @Dasher oben schon aufgezählt, muss ich hier nicht nochmal wiederholen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Dasher schrieb:
1. Dicke Leitungen denen es egal wäre. Aber warum dann überhaupt 12 stück wenn es 2 tun würden?
2. SICHERSTELLEN dass alle Kontakte den gleichen Widerstand bilden -> Sehr schwierig bei dieser Art von Kontakten. Vielleicht sollten wir wieder zu verschrauben übergehen ?
3. Loadbalancer je Aderpaar. Es hat früher wenig Sinn ergeben je Aderpaar einen Load balancer zu haben ABER es gab je Anschluss einen. Einmal für den PCIe (75W) und dann für jeden 8 Pin (150W).
Das ist so schon alles eine gute Überlegung. Die 4te Lösung wäre halt generell auf mehr Qualität setzen.
Das war ja auch das Problem bei der 4090, zumindest am Anfang. Und hier ist es wahrscheinlich wieder dasselbe. Es braucht eine saubere Verbindung und die ist halt bei den Karten und den Kabeln gar nicht gegeben gewesen. Das jetzt auf die FE zu schieben ist denke ich Kaffeesatzleserei.

Screenshot 2025-02-12 204205.png

Wenn man sich diese Abweichungen ansieht, dann ist eigentlich glasklar, dass das Kabel schlicht hinüber ist und so wirds auch bei dem geschmolzenen sein. Da kann man nur sagen, verwendet ein neues Kabel und keinen 2 Jahre alten x mal aus und eingesteckten Schmodder. Sollte es damit erledigt sein, kann man sich wieder anderen Dingen widmen.

Auch was das Video von Bulzoid betrifft: Theoretisch eine Erklärung, warum es bei der 3090Ti zu keinem bekannten Ausfall gekommen ist. Tatsache ist aber auch eine ordentlich funktionierende Steckverbindung braucht das alles nicht.
60A bei 12V DC sind im RC üblich. Dort gehen weder Stecker noch Buchse über den Jordan, obwohl laufend gesteckt wird. Elektronisch überwacht ist da auch nix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
So langsam verliere ich jeglichen Bock auf die 5090. Dieses Affentheater mit der Verfügbarkeit, den Bots, den Scalpern, der geringen Mehrleistung, den Blackscreens, dem Gefiepe, dem CPU-grillenden FE-Kühler und jetzt mal wieder den Steckern geht mir mittlerweile zu hart auf die Nerven. So ein Bananenprodukt ist eigentlich selbst zur UVP viel zu teuer. Man könnte echt meinen NVIDIA wäre ein Startup. Die können froh sein, dass ihnen die KI-Chips aus den Händen gerissen werden, sonst sähe das denke ich übel aus. Hab schon lange nichts mehr so bereut wie die 4090 verkauft zu haben. Vllt. wirds tatsächlich ne 9070 XT aus Trotz. Dann ist der 4K 240Hz Monitor zwar rausgeschmissenes Geld, aber was solls...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy und Quidproquo77
Ja, die Nerven werden schon arg strapaziert.^^
 
  • Gefällt mir
Reaktionen: MoinWoll
Gamefaq schrieb:
Kunststück du vergleichst die alte Samsung 8n Fertigung der 3080 gegen TSMC 4N der 5080. Das hat weniger was damit zu tun das nvidia da was gezaubert hat als das der Fertigungsprozess gesenkt wurde was massive Auswirkungen auf die Stromaufnahme hat. Siehe die Vergleiche 4080/5080 wo alles +/- gleich ist.
Ich habe den Vergleich nicht ohne Grund herangezogen. Der User Zealord, den ich zitiert habe, meinte, dass der Stromverbrauch immer weiter steigt, was ich lediglich widerlegt habe mit dem direkten Vergleich der RTX 5080 zur RTX 3080. Die Effizienz ist heute deutlich besser geworden, und die RTX 5090 mit bis zu 500 Watt Verbrauch ist einfach nur die "Enthusiasten"-Karte, die halt das Maximum herausholt. Niemand muss sich diese Karte kaufen. Die Titan X hat sich damals auch nicht jeder gekauft. Oder eine doppelte Karte im SLI. Diese Karten / SLI waren nie die effizientesten Lösungen. Geht es um Effizienz, wählt man halt eine RTX 5080 oder RTX 5070 (Ti).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dasher
Quidproquo77 schrieb:
Wenn man sich diese Abweichungen ansieht, dann ist eigentlich glasklar, dass das Kabel schlicht hinüber ist und so wirds auch bei dem geschmolzenen sein.
Das dumm ist ja, das wir nie erfahren werden, woran es lag, da der Besitzer den Kram zu Nvidia schickt und die das in irgendeine Schublade stecken und das wars :heul:
 
@Darken00 jo das stimmt.

MoinWoll schrieb:
Vllt. wirds tatsächlich ne 9070 XT aus Trotz.
DAS wäre (wenn es in der Masse passieren würde , aber mal wieder nicht wird weil die Lemminge alle kaufen scheißegal auf morgen) die einzige Sprache die nvidia verstehen würde. Denn der AI Boom wird nicht ewig so weiter gehen. Aber solange der läuft kann nvidia es sich erlauben ihren erarbeiteten Ruf langsam von Generation zu Generation zu zersägen.

Im Prinzip fehlt aktuell nur das es zu Sachschäden kommt weil in Folge eine Wohnung (hoffentlich ohne Personenschäden) ausgebrannt ist und das ermittelt wird das es eine 5090 FE war. So das nvidia für den Bullshit nach der 4090 den Stecker trotzdem weiter und erst recht nun so nah an der Belastbarkeitsgrenze zu betreiben einen von der FTC in den USA drauf bekommt. Von wegen Rückruf aller Karten inklusive Boardpartner so das nvidia dehnen die Kosten auch ersetzen muss (so das diese Kosten nvidia auch weh tun!) weil nvidia gibt die Specs vor an die sie sich halten müssen.
 
Quidproquo77 schrieb:
Da kann man nur sagen, verwendet ein neues Kabel und keinen 2 Jahre alten x mal aus und eingesteckten Schmodder. Sollte es damit erledigt sein, kann man sich wieder anderen Dingen widmen.
Bin ich der einzige der sich hier WTF fragt?

1. Ich habe bisher Hardware genutzt die immer und immer wiederverwendet wurde.
Erst in den Rechner, dann in dem Rechner, dann in dem Rechner. Das erwarte ich auch einfach.

2. Was ich aber vor Allem erwarte ist, dass Schutzschaltungen greifen und selbst wenn es ein "Schmodder" gewesen sein soll, erwarte ich schlicht und einfach das vorher das System abschaltet, bevor es zu so einer Situation kommt, die auch in einem Brand enden kann...

3. Das ist für mich so was von Victim Blaming. Hier wurde scheinbar an wichtigen Schutzschaltungen gespart.
Oder um mal den täglich verpflichtenden unpassenden Autovergleich zu bringen:
Der Airbag geht bei einem Unfall nicht auf und dem verunfallten wird vorgeworfen, dass er selbst Schuld ist, er hätte ja einfach nicht den Unfall bauen müssen :freak:
 
Zurück
Oben