Hmm meine 4090 nimmt so max 400 Watt ohne Begrenzung. Aber warum ohne Betreiben? Power target und dann ist gut 300 Watt dann…für die Leistung..Stuffz schrieb:abartige Strom-Säufer sie inzwischen produzieren?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel
- Ersteller SVΞN
- Erstellt am
- Zur News: GeForce RTX 4090: Nvidia untersucht Berichte brennender Stromkabel
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Pltk
Cadet 4th Year
- Registriert
- Juni 2019
- Beiträge
- 125
Macht das irgendwer?Do not bend horizontally.
Ja wie denn dann?Do not bend vertically.
Geniales Konzept, danke dafür Intel & Nvidia. Der Stecker ist doch eine einzige Fehlkonstruktion, mir unverständlich wieso man unbedingt 600 Watt durch so einen kleinen Stecker zwängen musste. Viel Spaß mit den brennenden Nvidia Karten. Ich bin sehr froh, dass AMD diesen Blödsinn nicht benutzen wird, bin gespannt auf RDNA 3.
SSD960
Captain
- Registriert
- Dez. 2017
- Beiträge
- 3.667
Jo das wird teuer in den USAPusteBlume0815 schrieb:Möchte gar nicht wissen wieviel Anwaltskanzleien in den USA das schon verfolgen für eventuelle Schadensersatzklagen um die ersten zu sein, sollte da etwas größeres passieren. Und ich würde diese Aussage nicht als überzogenes Hirngespinnst herab tun. Wir kennen das ja schon zu genüge aus Amerika.
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.437
Igor hat Jayz Erkenntnisse schon in der Luft zerrissen:.Sentinel. schrieb:So viel dazu, dass diese Konnektoren schon beim Ansehen per Designfehler in Flammen aufgehen (könnte man fast meinen, wenn man einige der aufgebrachten Posts hier liest)...
Anhang anzeigen 1275349
Das sieht man erst, wenn man das Teil öffnet. Deshalb hat der Werkzeughändler 2 Cent auch nichts gesehen. Hätte er nur mal wenigstens ein Taschenmesser genutzt...
Und für morgen auch gleich mehr dazu angekündigt:
https://www.igorslab.de/community/t...rce-rtx-4090-wirklich.7097/page-5#post-187961Morgen kommt von mir die Entmystifizierung des Feuerdrachens
Um nicht ins Click-Bait zu verfallen, muss man erst mal ermitteln und testen. Aber das Ding morgen wird ein Kracher. NV ist allerdings bereits vorgewarnt, ich bin ja fair
Da scheint wohl tatsächlich irgendwas bei genauerer Betrachtung im Argen zu liegen.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Ist doch super- Dann ist der Fall hoffentlich morgen geklärt, alle kriegen kostenlos neue Kabel mit robusteren, gewinkelten oder wie auch immer gearteten Konnektoren und fertig.Linmoum schrieb:Da scheint wohl tatsächlich irgendwas bei genauerer Betrachtung im Argen zu liegen.
Vielleicht gabs ne fehlerhafte Charge, schlechtes oder verunreinigtes Lot usw. usf.
Vielleicht ist es auch ein Konstruktionsfehler.
Ich bin gespannt, was das jetzt wird.
Stuffz
Lt. Commander
- Registriert
- Dez. 2017
- Beiträge
- 1.462
"ohne Begrenzung".Garack schrieb:Hmm meine 4090 nimmt so max 400 Watt ohne Begrenzung.
Ja okay, dann verlege ich beim nächsten Haus-Umbau auch China-Alu-Litze zu allen Steckdosen. Ich verspreche auch (schmunzel), die Leistung auf 1-2 kW zu begrenzen und auch das nur kurzzeitig, ganz sicher ganz ehrlich, fingerkreuz /s.
Garack schrieb:Aber warum ohne Betreiben?
Tja, weil das vorkommen kann? Weil man sich auf Software-Lösungen nicht unbedingt verlassen sollte? Wurde diese Strombegrenzung so richtig nach FMEA analysiert und vom TÜV abgenommen?
Was höre ich? Nein? Dann ist das Müll.
Zuletzt bearbeitet:
MrHeisenberg
Lt. Commander
- Registriert
- Okt. 2022
- Beiträge
- 1.713
Die Rechnung ist aber falsch. Du musst von 300W ausgehen, weil die Performance nicht linear steigt.Taxxor schrieb:Die Annahme ist, dass die Perf/W natürlich auch für eine reale Navi31 Karte gelten und die wird wohl 375W haben.
Und um bei+25% Verbrauch auf +60% Perf/W zu kommen, wären es genau 100% Mehrleistung
6900XT Perf/W = 100%/300W = 0,333
7900XT Perf/W = 200%/375W = 0,533
0,533/0,333= 1,6 -> +60% Perf/W
RDNA3 bietet > 50% performance/W als RDNA2 und RDNA2 limitiert bei 300W. Bei 375W sähe das Perf/W Verhältnis bei RDNA2 ganz anders aus.
Also ist die 7900XT bei 300W >50% schneller und bei 375W >75%, wenn es linear skalieren würde.
Speedcontroll
Cadet 3rd Year
- Registriert
- Sep. 2019
- Beiträge
- 45
Ehrlich man kann heute schon über Thunderbolt 140 Watt Jagen, 4 USB C Anschlüsse an der Karte und zum Netzteil. Wäre nur ein Beispiel. Aber man muss doch mal etwas neues versuchen wenn immer mehr Strom durch die Leitung gepresst wird. Übers Mainboard oder PCI Stecker die 600 Watt zu jagen, halte ich für Unmöglich bzw, wäre viel teurer als die Karte selbst. Aber vllt sollten die Herstller mal das Konzept der Stecker ganz neu überdenken auch die Netzteile- Aber wie es momentan läuft, kann und darf es nicht weiter gehen. So macht man auch den Markt über lang Kaputt.
boonstyle
Captain
- Registriert
- Okt. 2018
- Beiträge
- 3.454
Muss persönlich sagen, dass ich nicht wirklich einen Sinn darin gesehen habe ein neues Kabel (schon bei meiner 3090 FE) zu nutzen.
Dass nvidia hier einen Sonderweg geht ist schön und gut aber wenn es dermaßen Probleme verursacht sollte man es lassen. AMDs Entscheidung bei RDNA2 Karten weiterhin auf gängigen PCIe-Standard zu setzen und dies auch in der nächsten Generation zu tun ist absolut vernünftig.
Bin persönlich bei der aktuellen Generation sowieso raus, da ich keinen Mehrwert sehe zumal der Stromverbrauch langsam eklige Züge annimmt.
Dass nvidia hier einen Sonderweg geht ist schön und gut aber wenn es dermaßen Probleme verursacht sollte man es lassen. AMDs Entscheidung bei RDNA2 Karten weiterhin auf gängigen PCIe-Standard zu setzen und dies auch in der nächsten Generation zu tun ist absolut vernünftig.
Bin persönlich bei der aktuellen Generation sowieso raus, da ich keinen Mehrwert sehe zumal der Stromverbrauch langsam eklige Züge annimmt.
PegasusHunter
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.222
Du kleiner Schlingel, es geht hier um Grafikkarten. Das kann man auch anders ausdrücken laut lach Nennt man so etwas Stilblüte?Uskok1530 schrieb:Meine Theorie:
Vermutlich wird die weibliche Seite bei mechanischer Spannung durch die männlichen Stifte auseinander gebogen und es kann brutzeln am Terminal.
Spaß bei Seite.
Aber was ich nicht verstehe, die Maße der Karten sind doch vorher bekannt. Die Maße , Form des Adapters auch. Warum kauft man dann so eine Karte, wenn sie nicht oder zu knapp nur ins Gehgäuse passt. Fehlt da das Geld ? kann ich mir ja mal gar nicht vorstellen. Es sind doch intelligente und erfahrene Computernutzer, die haben sich ja die Karte nicht ohne Grund gekauft.
Tulol
Vice Admiral
- Registriert
- Jan. 2004
- Beiträge
- 6.746
Am Auto gebe ich dir recht. Aber nicht an einem Motorrad. Und für gewöhnlich orgelt man nicht minutenlang.foofoobar schrieb:Wahrscheinlich einen ganz gewöhnlichen Anlasser.
Zocken wird man dagegen länger als paar Minuten.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.632
Du vergleichst für die Perf/W nicht die gleiche Wattzahl sondern du vergleichst die Karten so wie sie auf den Markt kommen.MrHeisenberg schrieb:Die Rechnung ist aber falsch. Du musst von 300W ausgehen, weil die Performance nicht linear steigt.
RDNA3 bietet > 50% performance/W als RDNA2 und RDNA2 limitiert bei 300W. Bei 375W sähe das Perf/W Verhältnis bei RDNA2 ganz anders aus.
Und das sind für die beiden Topmodelle 300W zu 375W wobei das neue Modell eine >50% bessere Perf/W haben soll.
Wenn du RDNA3 dann auf 300W limitierst oder RDNA2 auf 375W setzt , wird die Perf/W natürlich deutlich höher als +50-60% ausfallen.
Das gleiche bei RDNA2 vs RDNA1:
5700XT = 100%/225W
6900XT = 200%/300W
-> +50% Perf/W
Hätte AMD die 6900XT einfach auf 225W gedrosselt, hätte man mit sehr viel höheren Werten werben können
6900XT @ 225W = ~185%/225W
-> +85% Perf/W
Zuletzt bearbeitet:
C
crispychips
Gast
Ein Rechner muss betriebssicher sein. Wenn das mit selchen Steckern und Kabeln nicht gewährleistet ist: höhere Kabelquerschnitte, andere / passendere Stecker designen..Sentinel. schrieb:Die Frage ist doch, wie hoch die Anzahl der Meldungen im Verhältnis zu sich im Umlauf befindlichen Karten ist.
Das Konnektoren in der Elektrik abfackeln, ist ja jetzt nichts soooo Neues.
z.B.
https://www.overclock.net/threads/cablemod-pci-e-cable-connector-melted-in-my-rtx3090.1795455/
https://linustechtips.com/topic/1400805-my-pcie-cable-melted-inside-my-gpu-socket/
https://forums.tomshardware.com/threads/melted-pcie-from-psu-to-gpu.3594049/
C
crispychips
Gast
noxon schrieb:Irgend ein YouTuber behauptet immer irgend etwas, während andere das genaue Gegenteil behaupten.
Einer von denen hat im Nachhinein auch immer Recht gehabt. Das nützt einem im Vorhinein abder herzlich wenig.
Von daher halte ich das auch ganz und gar nicht für pikant, da es auch hunderte YouTuber gibt, die nichts gesagt haben und genau wie Nvidia keine Probleme erwartet haben.
Sorry, aber Du redest Stuß. Man sollte sich als Hersteller nicht an Dingen orientieren wo alles funktioniert.
Es sind gerade solche Fälle, die vielleicht selten vorkommen, aber denen im Sinne eines betriebssicheren Produktes nachgegangen werden muss. Alles andere wäre fahrlässig. Wer weiß was dadurch alles passieren kann.
IBISXI
Admiral
- Registriert
- Jan. 2014
- Beiträge
- 7.900
Ziemlich stümperhaft von Nvidia.
Ich verstehe diesen Stecker ohnehin nicht.
Das Kabel ist ziemlich starr und des gibt einen unbekannten Biegeradius den man nicht unterschreiten soll.
Warum zur Hölle ist der Stecker am Kabel dann nicht abgewinkelt?
Das Kabel vom Netzteil wird wohl eher selten von Richtung Gehäusewand kommen.
Entweder von unten oder von oben.
Auch ist zwischen Karte und Gehäusewand nicht unendlich Platz für große Biegeradien.
Wenn man noch etwas mehr nachgedacht hätte, hätte man den (Winkel)Stecker auch 180° drehbar machen können.
So in etwa:
Manchmal fragt man sich was die Ingenieure die so etwas konstruieren hauptberuflich machen.
Ich habe nun ein System mit einer 4090 und ein ungutes Gefühl.
Ich denke ich werde ein neues Netzteil kaufen müssen, weil Nvidia ihre Hausaufgaben nicht gemacht hat.
Wer haftet eigentlich wenn die Grafikkarte abraucht?
Nvidia oder der Kartenhersteller?
Ich verstehe diesen Stecker ohnehin nicht.
Das Kabel ist ziemlich starr und des gibt einen unbekannten Biegeradius den man nicht unterschreiten soll.
Warum zur Hölle ist der Stecker am Kabel dann nicht abgewinkelt?
Das Kabel vom Netzteil wird wohl eher selten von Richtung Gehäusewand kommen.
Entweder von unten oder von oben.
Auch ist zwischen Karte und Gehäusewand nicht unendlich Platz für große Biegeradien.
Wenn man noch etwas mehr nachgedacht hätte, hätte man den (Winkel)Stecker auch 180° drehbar machen können.
So in etwa:
Manchmal fragt man sich was die Ingenieure die so etwas konstruieren hauptberuflich machen.
Ich habe nun ein System mit einer 4090 und ein ungutes Gefühl.
Ich denke ich werde ein neues Netzteil kaufen müssen, weil Nvidia ihre Hausaufgaben nicht gemacht hat.
Wer haftet eigentlich wenn die Grafikkarte abraucht?
Nvidia oder der Kartenhersteller?
Drewkev
Geizkragen
- Registriert
- Okt. 2016
- Beiträge
- 39.251
bad_sign schrieb:AMD auch nicht. Die geleakten Ref Designs sind 2x8Pin PCIe Stecker
Leute, der Tweet dazu von Scott Herkelman kam erst danach.canada schrieb:Wo nutzt AMD den? AMD sagte schon das der Stecker bei den neuen GPU nicht verwendet wird.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.628
100% Betriebssicher gibts nicht.crispychips schrieb:Ein Rechner muss betriebssicher sein. Wenn das mit selchen Steckern und Kabeln nicht gewährleistet ist: höhere Kabelquerschnitte, andere / passendere Stecker designen.
Betriebssysteme sollten auch fehlerfrei und sicher sein und werden diesen Status hochwahrscheinlich nie erreichen.
Elektronische Bauteile unterliegen einem ständigen und vielfältig gearteten Alterungsprozess.
Es stellt sich in der Praxis nicht die Frage, ob das ausfällt, sondern wann.
Und wie Du an meinen Beispielen siehst ist es egal, ob die Kabel und die Konnektoren größer dimensioniert sind. Auch die fackeln, wenn die Umstände passen.
Sobald Du dann noch dem Kunden Zugriffsmöglichkeiten auf Dein Produkt gibst, verlässt man vollständig den Boden gesicherten Terrains. Denn User sind zu ALLEM fähig.
Igor meinte Doch, dass er die Ursache für das ganze gefunden hat. Auch die 2 Cent von Jay meinen dazu diverse Tests gemacht zu haben.
Dann sind wir doch einfach mal gespannt, was dabei rauskommt.
Was mich nervt ist immer gleich diese Empörungswelle und der Hype, wenn irgendwo irgendwas mal passiert.
Wir sind echt wieder im Mittelalter, wo dann ohne gesicherte Information sofort die Mistgabeln und Fackeln rausgeholt werden.
Mit Anschuldigungen und Vorverurteilungen (unter kompletter eigener Ahnungslosigkeit und ohne Einschätzungsmöglichkeit der Sachlage) ist man in heutigen Zeiten ganz schnell zur Stelle.
Da waren wir zivilisatorisch schon mal weiter...
Derjenige der den eigentlichen Fehler letztlich verursacht hat. Wenn du dir ein dünnes Kabel kaufst, daran einen Durchlauferhitzer anschließt und dir das Haus abfackelt, bist du ebenfalls der einzige der dafür haftbar gemacht werden kann.IBISXI schrieb:Wer haftet eigentlich wenn die Grafikkarte abraucht?
Nvidia oder der Kartenhersteller?
Wenn du damit ein Problem hast, solltest du fertige PCs kaufen, dann kannst du den Hersteller dafür haftbar machen. Die Komponenten an sich sind ja nicht fehlerhaft und funktionieren allesamt innerhalb ihrer Spezifikationen, für "stümperhaften" Einbau kann der Hersteller nichts.
Es gab schon genug Leute die ein Autoradio eingebaut haben und das Fahrzeug abgefackelt haben oder mit Mehrfachsteckdosen das Haus niedergebrannt haben. Das "Halbwissen" der Bastler kennt keine Grenzen und was nicht passt wird passend gemacht, führt oft zu seltsamen "Auswüchsen".
Zuletzt bearbeitet:
Und wie bist du da vorher auf diese Aussage gekommen:Drewkev schrieb:Leute, der Tweet dazu von Scott Herkelman kam erst danach.
Hast es ja als festen fakt dargestellt, das AMD diesen Stecker nutzt obwohl nix dazu bekannt war das er verbaut werden würde.Drewkev schrieb:Spannend dass Intel der einzige der drei Hersteller ist der diesen Stecker nicht verwendet
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ähnliche Themen
- Antworten
- 519
- Aufrufe
- 43.092
- Antworten
- 848
- Aufrufe
- 85.683
- Antworten
- 46
- Aufrufe
- 14.651
- Antworten
- 82
- Aufrufe
- 15.926