News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

ElliotAlderson schrieb:
Standard aber ebenfalls schon nicht bot und weil es der neue auch nicht tut, schiebt man die Schuld automatisch auf Nvidia.
Es geht doch um Nvidia Karten oder sollte eigentlich AMD schuld sein?
 
Zuletzt bearbeitet:
wechseler schrieb:
Die ATX-Spezifikation sieht nur fest am Netzteil angebrachte Kabel vor und keine "modularen" Netzteile.
Die ATX Spezifikation bezieht sich schon seit einigen Jahren auf modulare Netzteile, das hindert die Hersteller aber nicht auf die Spezifikationen wenig zu geben. Es empfiehlt sogar solche Netzteile:
1739640279957.png
 
  • Gefällt mir
Reaktionen: inge70 und wechseler
5hred schrieb:
Die Nachfrage ist wohl höher als das Angebot :daumen: ...oder es hapert irgendwo in der Lieferkette...
Selbst wenn es lieferbar wäre, das Teil passt ja noch nichtmal an die Buchse der 5000er Karten, weil die etwas eingelassen positioniert sind. Es hätte für Roman also so oder so gar keinen Nutzen, wenn die Video gezielt als Werbung für den WireView zu nutzen. Denn der ist schlicht nicht als Lösung für das Problem bei den 5000er FEs geeignet - passt nicht, überwacht auch nicht die Adern einzeln und nicht lieferbar.
 
Araska schrieb:
Muß er das sein?
Einigen scheint die Empathie für die Mitmenschen und „mit-PC-Besitzer„ hier völlig abhandengekommen zu sein. Was gerade in so einem Forum schon traurig ist, da es davon lebt.
Wer weiß, vielleicht alles Nvidia-Aktien Besitzer?
 
  • Gefällt mir
Reaktionen: jonderson, Gnodab und Capthowdy
ElliotAlderson schrieb:
Bist du den ein potentielle betroffener Kunde?
Das liebe ich...

Man muss nicht ein potentiell betroffener Kunde sein um Mist anzusprechen.
Man sollte aber immer, potentiell betroffene Kunden vor so einen Gefährlichen Mist warnen.
Man sollte immer für Verbraucherrechte sein. Verbraucherschutz ist etwas gutes. Davon haben wir alle etwas.

ElliotAlderson schrieb:
Doch! Es ist einfach nicht praktikabel 4-6 Stecker an eine Karte zu klemmen. Vom Kostenfaktor mal ganz abgesehen. Die Galax 4090 HOF hat zwei 12 VHPWR Anschlüsse. Wie viele Stecker willst du da dranklemmen? 8?!

Man brauchte einen neuen Standard, um viel Strom über eine kleinere Fläche bereitstellen zu können.

Die Leute haben bei der 3090 schon rumgeheult, weil die so groß war, dass sie in fast kein Gehäuse passt.
Wenn es der Sicherheit dient, dann ja, will ich auch 8 Stecker an der Karte.
Nvidia könnte aber auch einfach keine 600-900 Watt GPU herstellen die sie nicht vernünftig betreiben können.
Es IST Nvidias Aufgabe, etwas sicheres herzustellen.
Wenn sie dazu nicht in der Lage sind sicherheit zu garantieren, sollen sie es erst gar nicht bauen.

----------------------------------------------------------------------------------------------------------------------
Keiner von euch schuldet Nvidia etwas. Hört auf Bilionenunternehmen zu verteidigen und verteidigt dafür unsere Interessen.
Grestorn schrieb:
Nein, NVidia wollte einen neuen Stecker. Der alte (6+2) ist nicht zertifiziert und unpraktisch. Also ja: NVidia hat die Sache angeschoben.

In wie weit sie für das Ergebnis die Verantwortung tragen, können wir von außen nicht sehen.

Im Prinzip könnte man auch sagen, dass es unverantwortlich von AMD & Co. ist einen Stecker und Anschluss zu verwenden, der nie zertifiziert und geprüft wurde. Auch wenn er technisch sicher mehr Sicherheitsspielraum hat, aber letztlich doch die selben Probleme mit sich bringt.
Das eine hat aber einen Sicherheitsspielraum und das andere wird an der Grenze und darüberhinaus betrieben.

Und lasst bitte den "what about" Quark sein.
Hier geht es um NVidia, die der Meinung sind Kleingeld bei einer 2300€ GPU sparen zu müssen, und das auf kosten der Sicherheit.
 
  • Gefällt mir
Reaktionen: FrankN84, jonderson, Capthowdy und 3 andere
mibbio schrieb:
Selbst wenn es lieferbar wäre, das Teil passt ja noch nichtmal an die Buchse der 5000er Karten, weil die etwas eingelassen positioniert sind.

Oh, dachte, man kann das Gerät einfach zwischen 2 Kabeln dazwischenschalten: also zwischen der GPU und dem NT....eine Ader wird ja gleichmässig heiss über die Länge (bzw. dürfte da kein grosser Temp-Abfall stattfinden von der "Glüh-Stelle" abgehend) und die überhöhte Temp sollte dann zeitnah beim Gerät ankommen...

Wobei, nee, das ist Quatsch. An der Schmelzstelle ist das Kabel deutlich heisser als weiter hinten...also nix mit "gleichmässig heiss über die Länge"...
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Doch! Es ist einfach nicht praktikabel 4-6 Stecker an eine Karte zu klemmen.
Mit vier bis sechs Steckern bräuchte man dann Load-Balancing und das hat nVidia sich halt gespart.
Ergänzung ()

metoer schrieb:
https://www.techpowerup.com/forums/attachments/pcie_225_300w_14mar08-pdf.220383/

Ich bin wahrlich kein Fan vom 8-Pin Stecker und ein Nachfolger ist nötig, aber der 12VHPWR war halt ein Griff ins Klo. Kann passieren, dann muss man eben nochmal ran, aus den Fehlern lernen und es diesmal richtig machen.
Zu aller erst mal den 12V 2x6 runter spezifizieren auf 300 W Maximum.
 
  • Gefällt mir
Reaktionen: metoer
Grestorn schrieb:
Wer sich lächerlich macht ist ganz im Auge des Betrachters. Ich verstehe wenigstens die Physik, was nicht für alle hier gilt.

Zeig mir mal die offizielle PCI-SIG Spezifikation zum 6+2.
Was hat das Ding damit zu zu tun wenn ich einen bestimmten Strom mit bestimmten Spannung über einen Stecker haben will. Für die Stecker am Netzteil gibt es ja nix von denen.
 
Mal eine andere Frage: wer benutzt freiwillig Furmark? Ist das nicht das Programm, welches früher GPUs geschrottet hat?
Also ich würde da nur einen Benchmark in Dauerschleife laufen lassen, denn das spiegelt die real-world Beanspruchung deutlich besser wieder... Furmark ist mir da zu aggressiv in der Belastung...
 
Quidproquo77 schrieb:
Und jetzt willst du mir ernsthaft erzählen diese Arbeit kann man sich sparen, weil irgendwo jemand gehustet hat? Nach ein paar Wochen nach Launch? So funktioniert die Welt nicht.
Ja das kann man sich sparen, weil offensichtlich schlampig gearbeitet wurde das versteht jeder Elektriker nach dem ersten Lehrjahr. Mir du halt nicht.

Ich hab auch wenig Lust auf den ganzen anderen völlig unqualifizierten Quatsch von dir zu antworten. Datür ist mir meine Zeit einfach zu schade. Aber mach du ruhig hier weiter im thread, dann bist du beschäftigt.
 
  • Gefällt mir
Reaktionen: Capthowdy und Ja_Ge
ElliotAlderson schrieb:
Niemand, der hier so ein Drama schiebt hat ne entsprechende Karte im Rechner. Ich hab ne 4090 und @Quidproquo77 ne 4080, wir müssten jammern, aber tun es nicht.
Mittlerweile eine 5080. Die Karte scheint aber defekt zu sein. Bei Ausnutzung der 240 Hertz @4K hat die Karte Bildaussetzer und Grafikfehler. Bei 120 Hertz ist alles in Ordnung. Kabel gecheckt, Monitor gecheckt. Treiber gecheckt. Geht dann zurück.
badb100d schrieb:
Ja das kann man sich sparen, weil offensichtlich schlampig gearbeitet wurde das versteht jeder Elektriker nach dem ersten Lehrjahr. Mir du halt nicht.
Da irrst du dich. Ich habe schon mehrfach gesagt, dass der Standard "auf Kante genäht" ist, was größere Reserven betrifft. Aber wenn man ein Ziel hat - nämlich einen kleinere Steckverbindung - dann muss man das mit mehr Anschlussqualität und höheren Strömen pro Pin lösen. Das sind Zielkonflikte.
badb100d schrieb:
Ich hab auch wenig Lust auf den ganzen anderen völlig unqualifizierten Quatsch von dir zu antworten.
So kann man sich auch um Argumente drücken. ;)
 
Zuletzt bearbeitet:
5hred schrieb:
Mal eine andere Frage: wer benutzt freiwillig Furmark? Ist das nicht das Programm, welches früher GPUs geschrottet hat?
Furmark zeichnet einen Donut mit Fell auf den Bildschirm, weiter nichts. Das schrottet keine GPUs, sondern entlarvt GPUs, die bereits Schrott sind.
 
  • Gefällt mir
Reaktionen: FrankN84, Quidproquo77, funkflix und 5 andere
ElliotAlderson schrieb:
Niemand, der hier so ein Drama schiebt hat ne entsprechende Karte im Rechner. Ich hab ne 4090 und @Quidproquo77 ne 4080
Ich habe sogar zwei 4090er und hätte gerne eine 5090 gekauft. Das werde ich aber nicht tun, solange dieses schlechte Design nicht geändert wurde und nun?

ElliotAlderson schrieb:
wir müssten jammern, aber tun es nicht.
Oh doch, ihr jammert sogar sehr laut, nur seht Ihr euch, im Gegensatz zu den allermeisten anderen hier, aus unbekannten Gründen dazu veranlasst für nVidia zu jammern.

Wie man als Kunde und Endverbraucher so ein absurdes Verhalten an den Tag legen kann, hat sich mir noch nie erschlossen und eine Erklärung dafür bist du bis zuletzt schuldig geblieben. Sehr sicher weil du einfach keine hast. Ich hatte schon mehrfach eine ganz konkrete Frage gestellt, hier auch explizit an dich:
Capthowdy schrieb:
Wieso sollten wir das akzeptieren, oder gar verteidigen? Was ist unser Vorteil?

Statt sie einfach zu beantworten, kommst du mit dieser Nebelkerze als "Gegenfrage", die weder was mit dem Thema, noch mit unserer Diskussion zu tun hat:
ElliotAlderson schrieb:
Bist du den ein potentielle betroffener Kunde?

Darauf Antworte ich nun, was ich jedem wie dir antworte: adieu!
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Du hast ne AMD Karte, warum heulst du so rum?
Niemand, der hier so ein Drama schiebt hat ne entsprechende Karte im Rechner. Ich hab ne 4090 und
Werd nicht albern. Sysprofile bei mir ist soetwas von verdammt alt und nicht aktuell.

Schlechtes Verhalten einer Firma und das was sie herstellen, kann und muss mann kritisieren, besonders wenn es gefährlich und fahrlässig ist.
Du kannst das anders sehen, lässt aber tief blicken.

Der Stecker ist Mist und gefährlich.
NVidia bist du egal wenn bei dir was abfackelt.
Hör auf Billionendollarunternehmen zu verteidigen. Du hast keine Grund dazu.
 
Gnodab schrieb:
Schlechtes Verhalten einer Firma und das was sie herstellen, kann und muss mann kritisieren, besonders wenn es gefährlich und fahrlässig ist.
Du kannst das anders sehen, lässt aber tief blicken.
Ich sehe es nicht anders, sondern kritisiere das emotionale Geheule von vielen Usern, die nicht mal betroffen sind. Da versagt ein einziges Kabel bei Roman und schon drehen hier alle durch.

Gnodab schrieb:
Der Stecker ist Mist und gefährlich.
Und Nvidia wird von allen anderen (Corsair, BeQuiet, AMD, MSI, ASUS...) gedeckt, ja? Musste doch selbst merken, dass das Quatsch ist. Wenn das Teil auch nur ansatzweise so gefährlich wäre, würde man Nvidia in den USA in Grund und Boden klagen. Dort weht ein anderer Wind als hier. Meinste da hätte Jensen Bock drauf?

Capthowdy schrieb:
Ich habe sogar zwei 4090er...
Und leben die noch oder haste verschmorte Stecker? ;)

Capthowdy schrieb:
Statt sie zu beantworten, kommst du mit dieser Nebelkerze als "Gegenfrage", die weder was mit dem Thema, noch mit unserer Diskussion zu tun hat:
BS. Du zündest Nebelkerzen und siehst deine Sicherheit in Gefahr wegen eines einzigen Steckers.
Diesen Nonsense lese ich seit Release der 4090 und der ersten Nachricht über den Stecker. Bis heute warte ich noch auf den ersten Brand. Mach mal Fenster auf Kipp, ganz ehrlich.
Wenn dich das so mitnimmt, dürftest du gar keinen PC besitzen. Beim Bekannten ging der Rechner wortwörtlich nach dem Einschalten in Flammen auf, weil es das Netzteil zerlegt hat. Das war vor über 15 Jahren.

Dir wird nichts passieren und wenn deine Karte irgendwann aufgrund des Steckers stirbt, wird sie anstandslos ersetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
I already tested two cables with 400W load and both performed flawlessly, one older and one current. I do not see any sign of anything going suddenly bad at 575W.

Perhaps instead of stupid theoretical bickering, you should get to some real testing too. After that you may find that the plug simply works and you are wasting your time with these discussions.
 
  • Gefällt mir
Reaktionen: Quidproquo77, xexex und Grestorn
Zurück
Oben