News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

ElliotAlderson schrieb:
Und leben die noch oder haste verschmorte Stecker? ;)
Die laufen beide praktisch nie über 400 W, was soll diese Frage also mit einer 600 W Karte zu tun haben? Sinn? Null, wie bei allem was von dir kommt.
 
@Capthowdy Es ergibt Sinn. Als die 4090 rauskam, gab es das exakt gleiche Geheule wegen des Steckers und es wurde über Hausbrände philosophiert. Irgendwann legte sich das Thema und man hörte nichts mehr davon, so als wäre das alles reiner Quatsch gewesen. Dann kam der 90° Stecker und es wurde wieder rumgeheult.
Jetzt ist die 5090 da, ein Stecker defekt und es drehen wieder alle durch. Solltest doch langsam selbst merken, dass das Thema überdramatisiert wird. Wenn die 6090 rauskommt, werden wir die gleiche Diskussion wieder haben und ich werde dich dann erneut nach den Bränden durch die 5090 fragen, die es nicht geben wird.

Bei der 4090 sollte es bereits brennen, aber das blieb aus. Jetzt passiert das aber ganz bestimmt ;)
Die 4090 zieht btw. u.U. auch bis zu 550W, aber was solls. Dich überzeugt ja eh nichts. Du willst nur in deiner Meinung bestärkt werden.
 
  • Gefällt mir
Reaktionen: Quidproquo77, xexex und Grestorn
ElliotAlderson schrieb:
Diesen Nonsense lese ich seit Release der 4090 und der ersten Nachricht über den Stecker.
Du kannst lesen? Da du meine einfache Frage zum wiederholten Male ignoriert und nicht beantwortet hast, habe ich da doch ernste Zweifel.
 
I would like to know, if all the people worried about damage from power cables with defective plugs are the same worried about the damage from motherboards with defective PCIE slot and if they would be willing to plug their card into such damaged motherboard. Yes or no?
 
Grestorn schrieb:
AMD wird hier - mal wieder - heilig hingestellt

Wer stell denn irgendwo AMD als heilig hin?

Die Kritik richtet sich ausschließlich gegen nVidia. Und zwar völlig zu recht. Denn sie haben es verbockt und bereits in der zweiten Generation das Problem.
AMD hat halt den Vorteil, dass sie das Problem aussitzen, weil sie den Stecker nicht nutzen und keine so Leistungshungrige Karte im Portfolio haben... Ob sie es anders gemacht hätten... Es spielt keine Rolle, darüber zu spekulieren.
 
  • Gefällt mir
Reaktionen: Ja_Ge
ElliotAlderson schrieb:
Ich sehe es nicht anders, sondern kritisiere das emotionale Geheule von vielen Usern, die nicht mal betroffen sind. Da versagt ein einziges Kabel bei Roman und schon drehen hier alle durch.


Und Nvidia wird von allen anderen (Corsair, BeQuiet, AMD, MSI, ASUS...) gedeckt, ja? Musste doch selbst merken, dass das Quatsch ist. Wenn das Teil auch nur ansatzweise so gefährlich wäre, würde man Nvidia in den USA in Grund und Boden klagen. Dort weht ein anderer Wind als hier. Meinste da hätte Jensen Bock drauf?
Wenn du mit deiner 4090 zufrieden bist, ist das erstmal schön für dich.

Wenn Sicherheit aber wegen Gier oder Dummheit auf der Strecke bleibt, haben wir ein Problem.

Halten wir Fest.
Kabel ist Mist und gefährlich und wird auf Kannte und darüber betrieben.
Nvidia hätte diesen Stecker nicht nutzen müssen.
Nvidia hätte keine 600-900 Watt GPU bauen müssen.
Ihr habt keinen Grund ein Billionedollerunternehmen zu verteidigen...

Du sagst-> heult nicht rum....


Auf was Jensen bock hat oder kein bock hat, ist mir verdammt egal.

Sie haben diese Graikkarte entwickelt. Also sind sie auch verdammt nochmal in der Pflicht dafür zu sorgen das es sicher ist.

Da gibt es nichts zu verteidigen, zu entschuldigen, oder herunterzuspielen.
 
  • Gefällt mir
Reaktionen: metoer und jonderson
Gnodab schrieb:
Nvidia hätte diesen Stecker nicht nutzen müssen.
Doch, weil 4-8 Stecker nicht praktikabel sind und, überspitzt gesagt, die Hälfte des PCBs dann alleine für den Stromanschluss + Leiterbahnen draufgeht.

Gnodab schrieb:
Nvidia hätte keine 600-900 Watt GPU bauen müssen.
Stimmt, wir können auch einfach den Fortschritt auslassen und weiter Pong spielen. 3D braucht schließlich auch keiner. Was ein Nonsense :D

Ist ja schön für dich, dass du nicht mehr Leistung willst/brauchst, andere tun das aber schon.
 
Gnodab schrieb:
Sie haben diese Graikkarte entwickelt. Also sind sie auch verdammt nochmal in der Pflicht dafür zu sorgen das es sicher ist.
It is perfectly safe, provided you do not use damaged cable. Using damaged cable is idiotic and if you do that, you deserve all the damage. Klar?
 
@ElliotAlderson wo ist nun deine Antwort? Komm, zeige sie mir als Zitat. Soll ich die Frage noch ein 101. Mal posten?
Capthowdy schrieb:
Wieso sollten wir das akzeptieren, oder gar verteidigen? Was ist unser Vorteil?

Gar nichts hast du beantwortet, du zündest nur Nebelkerzen, baust Strohmänner und tanzt drumherum, weil dir nichts als Antwort einfällt, das auch nur irgendwie aus Verbrauchersicht Sinn ergibt.
 
@ElliotAlderson Du hast die Frage wieder nicht beantwortet, merkste selbst, oder? ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CadillacFan77
Mal aus ganz praktischer Sicht:

Ich habe ein ATX 3.0 Netzteil und betreibe damit seit knapp 2 Jahren eine 4070 TI direkt über ein 12VHPWR Kabel, das beim Netzteil (be quiet Pure Power 12 M) dabei war. Ich vermute, das Kabel hat etwa 6 Steck-Zyklen erlebt. Optisch sieht es völlig unauffällig aus.

Schmeisst man das bei Wechsel auf eine 5080 weg und kauft ein neues? Wenn ja, welches?
 
ElliotAlderson schrieb:
Doch, weil 4-8 Stecker nicht praktikabel sind und, überspitzt gesagt, die Hälfte des PCBs dann alleine für den Stromanschluss + Leiterbahnen draufgeht.


Stimmt, wir können auch einfach den Fortschritt auslassen und weiter Pong spielen. 3D braucht schließlich auch keiner. Was ein Nonsense :D

Ist ja schön für dich, dass du nicht mehr Leistung willst/brauchst, andere tun das aber schon.
Was für ein Unsinn.

25 % Leistung erkauft durch mehr 25 %Leistungverbrauch + 25% höheren MSRP + scheiß auf Sicherheit.
Begeisterung sieht anders aus.

Hätte Nvidia eine 5090 mit Maximal 300 Watt Leistungsaufnaheme + vernüftigem Stecker gebracht...das wäre Forschritt gewesen.
Kann man das nicht. Entwickelt man weiter, bis etwas gescheites entsteht.


Es bleibt dabei.
"Kabel ist Mist und gefährlich und wird auf Kannte und darüber betrieben.
Nvidia hätte diesen Stecker nicht nutzen müssen.
Nvidia hätte keine 600-900 Watt GPU bauen müssen.
Ihr habt keinen Grund ein Billionedollerunternehmen zu verteidigen..."

Es gibt keine sinvollen Argument pro Nvidia in diesem Fall.
Außer natürlich mann will, aus absurden gründen, Billionedollarunternehmen verteidigen und pfeift auf Verbraucherschutz.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Gnodab schrieb:
Hätte Nvidia eine 5090 mit Maximal 300 Watt Leistungsaufnaheme + vernüftigem Stecker gebracht...das wäre Forschritt gewesen.
Damit wäre sie langsamer als eine 4090 geworden. Großes Kino.

Gnodab schrieb:
Kann man das nicht. Entwickelt man weiter, bis etwas gescheites entsteht.
Man kann mehr Leistung liefern, also wieso drauf verzichten? Weil dir der Weg nicht gefällt? Du bist nicht der Mittelpunkt des Universums. Andere haben Interesse an der Karte. Gefällt es dir nicht, kauf sie nicht, aber hör auf deine Meinung als Maßstab für alle festzulegen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Grestorn, xexex und eine weitere Person
Piktogramm schrieb:
Natürlich kannst du die Komplexität der Spannungsversorgung auf der Grafikkarte um rund Faktor 7 (PCIe + 6Aderpaare) erhöhen.
Wieso erhöht das die Komplexität um den Faktor 7? Die Verbindung zwischen Stecker und Spannungswandlern ist ja nur ein kleiner Teil der gesamten Spannungsversorgung. Davon ab muss man's ja nicht auf 7 aufteilen, sondern wie schon gesagt halt auf so viele, wie Sinnn macht.
 
BoggledBeagle schrieb:
It is perfectly safe, provided you do not use damaged cable. Using damaged cable is idiotic and if you do that, you deserve all the damage. Klar?
Okay i understand that using an defective cable makes you an idiot.
Then it should be easy to recognize an defective cable, otherwise you wouldn't blame the victim 🤔
How do i recognize an damaged cable?
 
  • Gefällt mir
Reaktionen: Miuwa
FoXz schrieb:
Schmeisst man das bei Wechsel auf eine 5080 weg und kauft ein neues? Wenn ja, welches?
Quidproquo77 kennt sich da aus, hab ich gehört.
ElliotAlderson schrieb:
wir können auch einfach den Fortschritt auslassen
Immer höhere Leistungsaufnahmen sind kein Fortschritt.
ElliotAlderson schrieb:
weil 4-8 Stecker nicht praktikabel sind
Wer sagt das eigentlich ständig? Ich hätte kein Problem mit 4x 8-Pin Headern und die wären mir auch lieber als die aktuelle Lösung. Klar, nicht ideal, aber mich würds 0 stören. Wer 600W übertragen will, benötigt halt auch eine entsprechend abgesicherte Transportleitung.
 
  • Gefällt mir
Reaktionen: inge70, Ja_Ge und jonderson
@Miuwa
Naja, wenn du 7mal Spannung und zugehörig GND haben willst:
  • Brauchst du sieben Spannungswandlerphasen, deren Laststeuerung die Auslastung ihrer jeweiligen Zuleitung überwachen und die Last entsprechend steuern muss, während alle Phasen die Anforderung für die Versorgungsspannungen aller ICs einhalten, samt Lastwechsel. Das bedeutet mehrer zusätzliche, abhänge Regelkreise als bisher, also VIEL mehr Logik.
  • Da du Spannung und GND nie zusammenführen willst, müssen alle Spawas als Trenntrafos ausgeführt werden, was viel aufwendiger ist als alle aktuellen Schaltungen.
  • Du musst siebenmal Spannung und GND über die Platine führen, brauchst also voraussichtlich mehre zusätzliche Lagen auf dem PCB
  • Die Abteilung die für digitale Signale auf dem PCB rastet aus, weil deren GND auf einmal irgendwas schwebendes ist. Die Gilde der HF-Zauberer hat zugestimmt die heiligen Messspitzen in deinem Fall zur mechanischen Bearbeitung freizugeben.
 
  • Gefällt mir
Reaktionen: Grestorn
Zurück
Oben