News GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
SVΞN schrieb:
Es werden auch beim Top-Modell mit Navi 31 nur 2x 8-Pin. Auch das ist mittlerweile so gut wie gesichert, zumindest beim Referenzdesign von AMD.

Custom-Designs von Sapphire und PowerColor können hingegen auch wieder mit 3x 8-Pin daherkommen.
Bedeutet, wenn sich AMD an die offiziellen Empfehlungen hält, dürften wir maximal 375W beim Referenzesign sehen. Das klingt doch schon mal "vernünftig" im Vergleich^^
Die Customs können dann auf 400 oder 420W hoch gehen(Theoretisch 525W, aber das dürft keiner tun).
 
  • Gefällt mir
Reaktionen: Beg1 und karl_laschnikow
Wooky08 schrieb:
Graka für +2k € und sie schaffen es nicht mal ein Stück Kabel beizulegen was auch dafür geeignet ist :D
Der Witz ist, es ist doch dafür ausgelegt... zumindest laut Specs. Dennoch fackelt es ab.

Es ist ja nicht so, dass hier 300W spezifiziert sind und NV kackendreist 450W oder 600W drüber bügeln - sondern der Stecker soll bis zu 600W ab können und fackelt bei zu viel Biegung, schlechtem Kontakt oder nach so und so vielen Steckvorgängen schon mit 450W Realer Nutzung weg, weil irgendwo im Designprozess Jemand wohl ganz gewaltig seine Hausaufgaben nicht gemacht hat und Sachen freigegeben wurden, die stark bedenklich in der Form sind/waren.

Streiten kann man sicher drüber, ob es gut oder geschickt war, das durchzuziehen, sprich unbedingt den Stecker zu verbauen bei all den Vorzeichen über Probleme - andererseits, Specs sind dafür da, eingehalten zu werden. Weder die gesamte Last noch der Strom pro Pin sind überschritten wurden. Insofern kann sich NV auch einfach hinstellen und auf die Specs verweisen und wäre quasi fein raus. Abseits vom Image Problem... An den Specs war doch Intel und die PCI-SIG federführend?
 
Inxession schrieb:
Bei einer Grafikkarte die 4 stellig kostet, darf es solche Probleme einfach nicht geben.

Bin gespannt wie nVidia hier gegenlenkt ... denn


...hat nVidia das jemals? Stichwort GTX 970 4G
Recht haste :daumen:.

Ich = ehemaliger Besitzer eine GTX 970 4G :mad:
 
Ich sehe die 6mm Goldkontaktstecker noch kommen 😃

Wobei die AS150 7mm vielleicht zukunftssicherer wären.
 
Zuletzt bearbeitet:
Vermutlich ein Montagefehler. Pins nicht eingerastet oder Kabel übermäßig gebogen oder gequetscht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Bedeutet, wenn sich AMD an die offiziellen Empfehlungen hält, dürften wir maximal 375W beim Referenzesign sehen. Das klingt doch schon mal "vernünftig" im Vergleich^^
Die Customs können dann auf 400 oder 420W hoch gehen(Theoretisch 525W, aber das dürft keiner tun).
Glaube ich nicht.
Die neuen Grafikkarten nehmen über PCIe slot keine 20Watt und hatte da einige in letzter Zeit...

Also entweder AMD baut viel stromsparender oder mit viel weniger Leistung.
 
Wer hat den Stecker geprüft und abgenommen??
Für mich ist dieser Stecker fraglich und sehr gefährlich.
Aber anders rum, eine Grafikkarte mit solch ein Strombedarf, kommt nicht in meinem PC.
 
Für mich ist es kein Problem vom Kabel/Stecker sondern eher mangelndes technisches Verständnis derjenigen die es verbauen. Die Pins sind so fein und wenn ich das Kabel so nah am Stecker biege, drücke ich die Pins damit in eine Richtung und die Kontaktfläche wird zwischen Pin/Buchse kleiner --> höherer Übergangswiderstand = Hitze.

Wenn man mal überlegt welche Leistung über diese Pins transportiert wird, ist das eh schon extrem!

Das Schadensbild ist ziemlich eindeutig, zu hoher Übergangswiderstand.
Gibts auch bei vielen Rückleuchten bei Autos. Spontan fällt mir da, serienmäßig, der Massekontakt bei Audi TT 8J und BMW e46 ein. Der Grund war da Oxidation, konnte man nur mit Goldkontakten lösen oder besseren Massepunkt.
 
Zuletzt bearbeitet:
k0ntr schrieb:
auch zurecht... kostet auch ne menge geld.
Schon klar würde mich auch ankotzen, aber alles wird so dargestellt als ob es jetzt bei jedem passiert!!!
 
RogueSix schrieb:
Es gibt im Übrigen zahlreiche lieferbare Netzteile mit 12VHPWR Stecker, aber die meisten davon sind keine ATX 3.0 Netzteile.

Die einzigen "echten" ATX 3.0 Netzteile, die bisher auf Geizhals gelistet sind, sind 6x Thermaltake und 1x SilverStone. Davon ist nur das Thermaltake mit 1650W aktuell sofort lieferbar.

Daher: Augen auf beim Netzteilkauf! Wenn man jetzt neu kauft, dann sollte man auf jeden Fall darauf achten, dass das Netzteil wirklich ATX 3.0 kompatibel ist und nicht einfach nur einen PCIe 5.0 12VHPWR Anschluss hat.

Naja, schau dir deine Liste nochmal an. Wenn man im Detail draufklickt, haben da viele den 12V Anschluss gar nicht oder sind nicht wirklich lieferbar.

Nein, das Gigabyte (was ich auch hab) ist kein ATX3.0 aber erfüllt trotzdem die PCIe 5.0 Spezifikationen und das reicht. Es ist überhaupt nicht absehbar, dass Boards in Zukunft einen anderen/zusätzlichen Abschluss benötigen, wozu ATX3.0 dienen könnte. Das einzige, was an 3.0 interessant ist, ist der 12V Anschluss und den hat das Gigabyte.

Insofern sehe ich das anders. Wer jetzt im Zuge der 4090 ein neues NT kauft, sollte auf den nativen 12V achten. Der Rest von ATX3.0 ist unnötig.
 
🤣

jo, so gut die Karten in der Performance sind, hat Nvidia den neuen Stecker überhastet
ausgelegt, deshalb ist es nun eine Fehlkonstruktion.

Zusammen mit dem 4080 12GB De-Launch Fail ist das jetzt wohl der schlechteste Launch einer
neuen Graka Generation seit vielen Jahren 🤣
 
  • Gefällt mir
Reaktionen: FLCL und BlackByte1
Capthowdy schrieb:
Woher weißt du das? Gibt es schon offizielle Verkaufszahlen? Bloß weil hier und da mal eine Karte angeboten und direkt verkauft wird, hat das wenig mit blendend zu tun. Wobei, je nachdem wie man das Wort interpretieren möchte, vielleicht ja doch? 😁
Du hast recht, ich weiß es nicht, verfolge nur den HLuxx-Verfügbarkeitsthread und da sind die meisten nach kurzem selbst zu überhöhten Preisen weg. Aber hinsichtlich Quantität habe ich tatsächlich leider noch keine Berichte gehört.
 
Muss ich jetzt Angst haben, dass mir meine Hausratversicherung im Zweifel beim Schadensfall aussteigt?
 
Goozilla schrieb:
Für mich ist es kein Problem vom Kabel/Stecker sondern eher mangelndes technisches Verständnis derjenigen die es verbauen. Die Pins sind so fein und wenn ich das Kabel so nah am Stecker biege, drücke ich die Pins damit in eine Richtung und die Kontaktfläche wird zwischen Pin/Buchse kleiner --> höherer Übergangswiderstand = Hitze.

wenn man einen stecker falsch einstecken kann, ist nicht der anwender schuld.

die pins müssen einfach so dick und massiv sein, dass sowas nicht so einfach passiert. zudem sind die rtx4090 so fett, dass man ohne biegen den deckel nicht mehr aufs gehäuse bekommt.

da hat einfach ein ingenieur mal wieder nicht richtig nachgedacht und aufgepasst. der stecker ist unterm strich totaler quark.

hätte man doch einfach eine abwandlung vom EPS 8pin genommen. der ist robust, bewährt, vorhanden und kann auch locker 350w bereitstellen. zwei 8pin eps sind immer noch besser als 4 pcie 6+2 oder den grütze 12vhpwr stecker - vorallem reicht ein einzelner 8pin EPS für quasi alles außer den fetten high-end karten. bis 300w ginge alles über einen EPS 8 pin.
 
  • Gefällt mir
Reaktionen: Beg1 und polyphase
Goozilla schrieb:
Für mich ist es kein Problem vom Kabel/Stecker sondern eher mangelndes technisches Verständnis derjenigen die es verbauen. Die Pins sind so fein und wenn ich das Kabel so nah am Stecker biege, drücke ich die Pins damit in eine Richtung und die Kontaktfläche wird zwischen Pin/Buchse kleiner --> höherer Übergangswiderstand = Hitze.
Nach allem was man bisher so weiß und es ja auch aus verschiedenen Richtungen Bedenken und Warnungen gab bzgl. des 12VHPWR-Stecker, finde ich diese Aussage schon mutig. Ich denke so wird man bei Nvidia auch zunächst gedacht haben, als man die Bedenken und Warnungen einfach ignoriert hat, wenn was passiert liegt's wohl am mangelnden technischem Verständnis der Käufer / Kunden.

Dagegen würde allerdings schon das Klientel Segment sprechen, welches man mit der RTX 4090 anspricht. Wenn ich nicht so ganz falsch liege, glaube ich mich zu erinnern, das eine RTX 4090 die Enthusiasten als Zielkunden hat. Das diese jetzt dafür bekannt sind, mangelndes technisches Verständnis zu besitzen, habe ich bisher auch noch nicht gewusst. Aber vielleicht kannst Du ja diese Enthusiasten mit Deinem technischen Verständnis erleuchten! 🤔😇
 
  • Gefällt mir
Reaktionen: PusteBlume0815, Beg1, Sturmwind80 und 2 andere
me@home schrieb:
Glaube ich nicht.
Die neuen Grafikkarten nehmen über PCIe slot keine 20Watt und hatte da einige in letzter Zeit...

Also entweder AMD baut viel stromsparender oder mit viel weniger Leistung.

375W wären halt das Maximum wenn man nach Spezifiation der 8Pin Stecker sowie des Slots geht.
Bisherige GPUs haben ja auch selten eine TBP, die die 8pin Stecker auslasten würde, klar wird da wenig über den Slot gezogen.

Und wenn man mal die 3% Leistungsunterschied der 4090 zwischen 450W und 350W anschaut, kann sich AMD eventuell auch einfach denken dann bringen wir die Karte direkt mit 350-375W und können damit um Gegensatz zu Nvidia tatsächlich offen mit einer enormen Effizienz werben, während diese bei der 4090 erst in Reviews rausgekommen ist wenn mit weniger TBP getestet wurde
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1
Recharging schrieb:
Du hast recht, ich weiß es nicht, verfolge nur den HLuxx-Verfügbarkeitsthread
Ich sehe da z. B. etliche Alternate-Links für immer wieder die gleichen Karten, wo regelmäßig genau eine angeboten wird. Wundert nicht wirklich dass die dann nicht lange da ist, oder? Schau dir mal anhand der Umfrage hier an wie viele Leute überhaupt bereit sind so viel Geld auszugeben, dann wird dir auch klar dass die Verfügbarkeit ein absoluter Witz sein muss und trotzdem gibt es die Karten halbwegs zu kaufen.

Edit: Dass AMD diesen Stecker nicht verwendet wurde ja schon vorher vermutet. Das könnte sich noch als großer Vorteil herausstellen, sollten die neuen Stecker doch häufiger Probleme machen als von nVidia angenommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1 und Recharging
Wie selten blöd muss nvidia sein, um einer 2.000€ Grafikkarte nicht so einen Winkeladapter beizulegen? Gier frisst Hirn.
 
  • Gefällt mir
Reaktionen: Beg1 und Wintermute
@Chilisidian

OK, dann müssen wir da wohl agree to disagree ;) .

Ich sehe das komplett anders. Es gibt zwei neue Standards. Einerseits PCIe 5.0 und andererseits die ATX 3.0 Spezifikation.
Ich halte die ATX 3.0 Spezifikation nicht für überflüssig. Die Spezifikation garantiert, dass Netzteile für ein paar Millisekunden ein Lastvielfaches ihrer nominellen Leistung aushalten/abfangen können müssen, z.B. ein 1000W Netzteil kann für x Millisekunden problemlos mal eine 2000W "power spike" anliegen haben.

Ich bin kein Elektroingenieur und kann mich daher nur auf Aussagen von Leuten verlassen, die sich damit auskennen. Und diese Leute sagen, dass das bei modernen Grafikkarten ein nicht zu vernachlässigendes Thema ist und dass das in der Zukunft zunehmend eine bedeutende Rolle spielen wird, dass Netzteile solche Lastspitzen werden abkönnen müssen.
Mangels eigener Expertise in dem Bereich muss ich das so akzeptieren und nehme einen solchen Rat dankbar an.

Insofern würde ich beim Neukauf eines Netzteils nun definitiv darauf achten, dass mein Netzteil sowohl den 12VHPWR Anschluss hat, als auch darauf, dass es die ATX 3.0 Spezifikation erfüllt, denn ich kaufe bei Netzteilen -im Gegensatz zu anderen Komponenten- schon gerne mit längerfristigem Horizont (siehe mein EVGA Supernova G2 von 2014/2015, welches nun anno 2022 ohne Probleme eine RTX 4090 versorgt :) ).

Aber jede(r) wie er mag... wer gerne 2x kauft, nur zu :D .
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben