News Defekte 12VHPWR-Stecker: Analyse sieht das Problem bei Nvidias RTX-4090-Adapter

Mal eine Frage, was hat der Hersteller einer Grafikkarte mit dessen reibungsloser Stromversorgung zu tun ?
Nichts.
Das es größere Leistungen und damit einhergehende größere Stromstärken geben würde, dürfte jedem Netzteil Hersteller bekannt sein (ATX3.0, seit November 2021 vorgestellt). Das es auch auf Biegeradien ankommt, kannst du keinen User, der sich mit Elektrotechnik nicht auskennt, vermitteln. Für mich ich die gesamte Debatte ein klares Verschlafen der Netzteilproduzenten. Das man die Steckeranzahl erhöht, den Querschnitt (was höhere Biegeradien erlauben würde) gleichbehält, die Stromstärke erhöht, führt unweigerlich zum Abbrennen eines Kontaktes bzw. des gesamten Leiters.
 
  • Gefällt mir
Reaktionen: lobotronic
Habt euch mal nicht so... bei einer mehr als 2000€ GPU kann das schonmal passieren. :D

Danke Igor! <3
 
  • Gefällt mir
Reaktionen: Eidgenosse
ghecko schrieb:
Bei Nvidia lötet noch der Praktikant :)


Bei dem Preis hätten sie das passende Netzteil gleich beilegen können.
Na ob wir das möchten das nVidia Netzteile baut, wenn einfache Adapter schon schief gehen?
 
  • Gefällt mir
Reaktionen: Shy Bell und Apocalypse
....na ja, für etwas über 2.000 € für die Karte kann man eben nicht wirklich gute Qualität bei den beigelegten Adaptern erwarten. Am besten den Preis noch mal erhöhen - oder wie Apple Adapter separat für 20 € verkaufen! ;-)
 
  • Gefällt mir
Reaktionen: Recharging und FLCL
Forbie schrieb:
Mal eine Frage, was hat der Hersteller einer Grafikkarte mit dessen reibungsloser Stromversorgung zu tun ?
Nichts.
Das es größere Leistungen und damit einhergehende größere Stromstärken geben würde, dürfte jedem Netzteil Hersteller bekannt sein (ATX3.0, seit November 2021 vorgestellt). Das es auch auf Biegeradien ankommt, kannst du keinen User, der sich mit Elektrotechnik nicht auskennt, vermitteln. Für mich ich die gesamte Debatte ein klares Verschlafen der Netzteilproduzenten. Das man die Steckeranzahl erhöht, den Querschnitt (was höhere Biegeradien erlauben würde) gleichbehält, die Stromstärke erhöht, führt unweigerlich zum Abbrennen eines Kontaktes bzw. des gesamten Leiters.
Hast du den Artikel gelesen?
Wenn ja wüsstest du das dieser Post unsinnig ist.
 
  • Gefällt mir
Reaktionen: Orcon, SDJ, Gaspedal und 8 andere
Diese gehören aus dem Verkehr gezogen. Gründe sind genannt, tickende Zeitbombe.

14AWG sind 2,08 mm^2, also zwischen unseren 1,5 und 2,5 mm^2. je nach Länge würde ich da nicht mehr als 20A drüber schicken wollen. Das Problem sind da aber auch eher die Kontaktstellen. Jede Steckverbindung hat Übergangswiderstände. Bei solch geringen Spannungen machen die richtig was aus. Wenn man in der Makrowelt guckt, würde es solche Steckverbinder nie ohne Zugentlastung geben, damit eben keine Last auf die Crimpverbindung ausgeübt werden kann. Eigentlich sollten solche Verbindung vergoldet sein, schon wegen der geringen Spannung…
 
  • Gefällt mir
Reaktionen: Romanow363, LTCMike und Recharging
Ano_Dezimal schrieb:
Wobei ich glaube der Forenshitstorm wird recht groß werden. Immerhin geht es um Nvidia und da gibts genug zum draufhauen. Bei AMD würde es vermutlich vergessen werden.
Ich bin weder nVidia, noch AMD-Fanboy, ich kaufe je nach Generation das, was mir gut erscheint.

Aber du machst hier ehrlich gesagt den Eindruck, als müsstest du dir selbst verbissen den Kauf deiner 4090 rechtfertigen. Falls das so sein sollte: Mach es bitte woanders.
 
  • Gefällt mir
Reaktionen: Zoth, Rockstar85, maxik und 2 andere
Crescender schrieb:
Klassischer Fall von „Es muss halt schnell eine Lösung her“. Wobei hier durch einen Weltkonzern wie NVIDIA grundlegende Regeln der Elektrotechnik missachtet wurden meiner Meinung nach. Das ist schon extrem „hintenanstellt“.
Oder auch eine geplante Obsoleszenz, um mehr Adapter zu verkaufen, die nach hinten los gegangen ist.
Die Gier hat dafür gesorgt, das NV wie viele andere Firmen auch, am falscher Stelle gespart hat.

Und das bei einem Produkt für 2000€. :rolleyes: :mad:
 
  • Gefällt mir
Reaktionen: FLCL
Maine schrieb:
Aber du machst hier ehrlich gesagt den Eindruck, als müsstest du dir selbst verbissen den Kauf deiner 4090 rechtfertigen. Falls das so sein sollte: Mach es bitte woanders.
Ich muss keinen Kauf rechtfertigen und auch niemanden von einem Kauf überzeugen. MIr ist es egal was andere kaufen und machen. Das du das denkst muss an dir und deiner Einstellung liegen. Da du nur liest was ich schreibe, macht den Rest deinesgleichen.
 
chillking schrieb:
Das ist ja auch erstmal nicht das Problem.
Bei der Verbindung von einem 14 AWG auf einen oder zwei Pins des 12VHPWR über ein 0,2mm x 2mm = 0,4 mm² Blättchen mit max 12,5 A siehts allerdings anders aus.
Oder verstehe ich hier irgendwas falsch?
Wenn du sicherstellen kannst, das die Stromstärke über alle Leiter symmetrisch fließt ja, jetzt hast du auf beiden Seiten Übergangswiderstände (Stecker, Stifte), dazu den Biegeradius der Adern, was rechnerisch schon die Belastbarkeit der Ader runterdrückt.
 
Khaotik schrieb:
Das ist mal wieder eine typische Folge des Sparwahns in Unternehmen. Da wird dann wegen 50 cent am Stecker rumgefeilscht um die Marge noch höher zu treiben. Da hat sicherlich mal wieder der Einkauf die Technik überstimmt. Oftmals würden es die Techniker gerne stabiler bauen, dürfen es aber nicht weil „zu teuer“. Ich kenne das Spiel leider schon zu genüge.
Guter Beitrag. Danke
Und es geht um Gewinnmaximierung. Aber NVidia wäre ja auch nicht die einzige Firma die damit Probleme bekommt.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Ich warte auch immer noch auf die Erläuterung von @Ano_Dezimal warum genau das bei AMD nicht zum Einsatz kommt, er scheint da ja mehr zu wissen als alle anderen ...
Aktuell sieht es halt einfach so aus als wären die Karten mit Maximal 375W sparsamer als die NV Karten mit bis zu 450W, dabei sei es dahin gestellt ob die NV Karten die 450W wirklich permanent benötigen.

Aber an sich sieht es nach einer typischen Geschichte aus die dem Motto folgt: Wir sparen mal wieder überall Geld um den Gewinn zu steigern.
 
  • Gefällt mir
Reaktionen: jonderson, alkaAdeluxx und hanjef
Ich mag den Dialekt überhaupt nicht und kann mir seine Videos nur ohne Ton antun.
Aber die Arbeiten von Igor sind echt super und das Ergebnis ist klar adressiert aber konstruktiv und ohne übermäßiges Gebashe.

Damit liegt der Ball klar bei Nvidia.
Bin gespannt was da als Reaktion kommt.

Die Ausführung des Steckers ist ja Mal an BWLer-Sichtweise kaum zu überbieten.
Hauptsache jetzt billig, egal wie lange es hält und was sich daraus ergibt... :(
 
  • Gefällt mir
Reaktionen: T-REX
bondki schrieb:
Artikel überhaupt gelesen oder direkt Schaum im Mund gehabt?
Ja hab ich, aber eben nicht nur den Artikel hier.

Die Adapter mögen ein Problem für sich sein, aber der Stecker an sich vermutlich auch. Nvidia selbst hatte ja im Vorfeld selbst schon bedenken an die PCI SIG geäußert, dass die Kontakte sehr heiß werden können bis zum schmelzen und das ohne Adapter und auch Cablemod gibt bei ihren Kabeln OHNE ADAPTER an, dass man die erst 35mm nach dem Stecker Biegen soll und auch nicht quer zur Steckrichtung biegen soll.

An alle die hier meinen Nvidia verteidigen zu müssen, meine Kritik geht nur zum Teil an Nvidia. Die PCI SIG hat den Stecker zusammen mit anderen Partnern verbrochen. Nur dass Nvidia im Vorfeld schon bedenken diesbezüglich geäußert hat und dann aber trotzdem den Stecker verwendet und dann noch mit dem Adapter so einen Schnellschuss macht ist halt einfach ziemlich kacke.
 
Jetzt verstehe ich den Preis der Grafikkarte ... der muss so hoch sein das man bei etwaigen Rückrufen oder Prozess Problemen gewappnet ist.
 
  • Gefällt mir
Reaktionen: Felix# und Eller
Ano_Dezimal schrieb:
da du durch den 3x8 Pin Adapter auch weniger Strom durch die Leitungen jagst
Gewagte Vermutung... Ich kann durch den 4er und den 3er Adapter 450 Watt ballern.
Das Problem taucht ja nicht erst bei 600 Watt auf, sondern kann auch darunter passieren.
Außerdem werden nicht alle Adern (Kabelstränge) gleichmäßig versorgt.
Deswegen bleibt die Frage ob der 3er Adapter (von Palit) genauso mies ist.

Powerlimit ist aber sowieso reduziert und bleibt auch erstmal so.
 
  • Gefällt mir
Reaktionen: Rockstar85
Forbie schrieb:
Mal eine Frage, was hat der Hersteller einer Grafikkarte mit dessen reibungsloser Stromversorgung zu tun ?
Nichts.
NVidia legt den Adapter zu....
 
  • Gefällt mir
Reaktionen: Legalev, jonderson, Beg1 und 4 andere
Ano_Dezimal schrieb:
Ich muss keinen Kauf rechtfertigen und auch niemanden von einem Kauf überzeugen. MIr ist es egal was andere kaufen und machen. Das du das denkst muss an dir und deiner Einstellung liegen. Da du nur liest was ich schreibe, macht den Rest deinesgleichen.
🤣q.e.d.
 
  • Gefällt mir
Reaktionen: Zuckerwatte, Zoth, Almalexia und 12 andere
Zurück
Oben