News Defekte 12VHPWR-Stecker: Analyse sieht das Problem bei Nvidias RTX-4090-Adapter

HotteX schrieb:
Man kann ja bei so günstigen Grafikkarten nicht verlangen, dass dort vernünftige Adapter mit geliefert werden.
Da gehören gar keine Adapter dabei! Wer so eine Grafikkarte nutzen will, braucht auch ein geeignetes Netzteil dazu, oder man weicht auf eine Angebot des NT-Herstellers aus, wie bei bq. Schon auf dem Marketing-Foto schreit der Adapter geradezu, bitte nicht in ein teures, heißes und stromfressendes Gerät gesteckt zu werden.

Das ist einfach nur highend-gambling
 
PegasusHunter schrieb:
Lösung von Nvidia: Entschuldigungs-Mail, kostenlose Zusendung eines neuen, professionellen Adapters und gut ist. :schluck: 😇
Am Besten sollte Nvidia jedem Besitzer als Entschädigung der RTX 4090 gleich ein Dark Power 12 Pro von Be Quiet mit entsprechendem 12VHPWR ADAPTER CABLE zusenden, also nicht nur beim Preis klotzen sondern auch bei Fehlern die man als Hersteller gemacht hat, vor allem wenn es um ein Produkt von 2000,00 Euro und mehr geht im Enthusiasten Bereich!

Und wenn Igor und Be Quiet schon explizit auf das Problem hinweisen, dann sollte es für Nvidia doch auch kein Problem sein, einen entsprechenden Deal abzuschließen. Nvidia kann es ja dann als Marketingkosten absetzen oder verbuchen. Das wäre einem Primus im Grafikkarten Bereich würdig oder mit den Worten von dem Nvidia Ceo zu Anworten:
Phantastisch !!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tepnox und Heen
Thares schrieb:
Muss man die bequiet Kabel extra ordern, oder haben die neue Netzteile im Sortiment die dort schon drin sind? Ich muss eh neues Netzteil kaufen

Ich musste es extra ordern da mein NT schon ein Jahr alt war. Bei der neusten 13er Serie sind die Kabel laut Igor dabei.
 
  • Gefällt mir
Reaktionen: Thares
HighPerf. Gamer schrieb:
@Unnu
Und dann gibts Nvidia die Handfest scheisse bauen aber das ist spätestens bei der Next gen GPU vergessen.
So einfach ist das nicht.
Wenn die RTX 4090 Flotte z.B. Cyberpunk Psychoettings und 4K maxed Psychosettings dank der Featuresets mal eben über 100 ( HUNDERT! Und ja, in 4K mit Raytracing) fps schiebt, dann kann der Adapter Fail das Produkt nicht schlechter machen.
Benchmarks wirken und ingame fps sowieso.

Sobald sich die top und teuerste 7900XT RNDA3 GPU, die im selben Szenario hinter der 4090, 4080 und 4070 einsortiert auf Platz 4, stellt sich die Frage nicht, warum man Nvidia die Bude einrennt.
Weil sie über alles immer noch die schnelleren GPUs bauen mit einem heavy DLSS carry, und FSR könnte man ja auch nutzen.
Es sei denn RDNA 3 bleibt im RNDA2 Preisrahmen, also maximal 1000 Euro für eine 7900XT und 700 Euro für eine 7800XT. AMD kann nur über den Preis kommen, es sei denn RNDA3 hat einen echten DLSS2+3 Konter.
Und bevor einige wieder tilten: Einfach mal die Kaufthreads der Foren und im reddit betrachten.

Zum Topic:
An Nvidias Stelle sollte eine Lösung, die Cablemod nun präsentiert, oder bequiets Adpatervariante unbürokratisch und rein auf Mailantrag direkt an alle 4090 Käufer ausgeliefert werden sowie an die Boardpartner, natürlich alles auf Kosten Nvidias.
 
  • Gefällt mir
Reaktionen: Unnu
scotch.ofp schrieb:
Ich musste es extra ordern da mein NT schon ein Jahr alt war. Bei der neusten 13er Serie sind die Kabel laut Igor dabei.
Und die 13 Serie, die kommen wohl erst raus :). Danke für die Infos.
 
Recharging schrieb:
Aber die 4090 ist doch an mehreren Stellen ziemlich zusammengeschustert: der Kühler ist überdimensioniert, denn die Karte braucht jetzt doch weniger zumindest merklich weniger für fast gleiche Leistung.
Ja okay, allerdings haben sie das nachvollziehbar erklärt.
Das wurde für den weniger guten Samsung-Prozess designt. Der Umstieg auf TSMC kam dann zu spät für ein Redesign. Das ist OK, in meinen Augen. Und für die Käufer definitv von Vorteil.

Recharging schrieb:
Gute Chance für AMD hier mal die Marktmacht zu brechen.
Nope. Glaube ich ich nicht. Ich lasse mich gerne vom Gegenteil überzuegen in den News, aber glaube nicht daran.

Luxmanl525 schrieb:
Kann mir eigentlich gar nicht vorstellen, daß das überhaupt ein Ingenieur verantwortet hat.
Mit Sicherheit nicht. Die haben garantiert gewarnt ... und dann ging das so durch die Hierarchien und irgendwann war das halt ein GO. ... Wassermelone eben.

PegasusHunter schrieb:
Wo ist eigentlich mein Poppkorn?........
Alle! Das habe ich aufgekauft. ;)
Ergänzung ()

Zotac2012 schrieb:
also nicht nur beim Preis glotzen
LOL! Also beim Preis "glotzen" bestimmt die Käufer. Du meinst sicher klotzen.
Nix für ungut, den musste ich mitnehmen. :daumen:
 
  • Gefällt mir
Reaktionen: Zotac2012, Luxmanl525 und PegasusHunter
PegasusHunter schrieb:
Natürlich werden sie ihren Kauf verteidigen. Würde ich auch so machen.
Ist das wirklich zwanghaft so, das wenn man das Prinzip sogar selbst versteht und weiß das es irrational ist, das man es trotzdem nicht unterlassen kann?

Ist das ne zeitliche Frage? Oft sieht man ja dann auch Nvidia Fans (oder umgekehrt) die solche ne Karte nicht mal haben aber einfach nur Fan der Marke sind und vielleicht ne andere Karte von denen haben, oft ist es ja auch nur Tribalism.

Ich überlege schon die ganze Zeit ob ich das auch getan hab, ich mein vielleicht bei meinem Bulldozer käme dem am nächsten, aber da war die Idee da ist die Software noch nicht so weit, und das ich aktiv in Foren viel geschrieben hab und sowas geschrieben wie "das ist doch alles nur Intel Propaganda" auf die Idee wäre ich nicht gekommen, generell erinnere ich mich wenig darüber geschrieben zu haben, aber wenn ich sowas gekauft hätte würde ich doch wütend so nen neuen Adapter kostenlos haben wollen, und nicht sagen "ohh da brennen doch nur 100 Häuser in 10 Jahren ab das sind doch nicht so viele", so irrational würde mich wohl keine kognitive Dissonanz oder Tribalism machen. (bisher sind doch nur 2/3 Fälle passiert in was 1 Monat oder 2 Wochen bei wenigen Verkauften Karten bisher rechne das auf 100x so viel Karten hoch * 10 Jahre und dann ergibt das gigantische Summen.
 
Wechsler schrieb:
Laufwerke werden in dem Fall auch vom Mainboard aus mit 5V versorgt.
Aber nur bei SSDs, die im M.2 Slot stecken. Es gibt aber immer noch 2,5'' Sata-SSDs, deren Stromversorgung direkt vom Netzteil kommt. Und M.2-only PCs sind bei weitem noch nicht die Norm.
 
Laphonso schrieb:
rein auf Mailantrag direkt an alle 4090 Käufer ausgeliefert werden sowie an die Boardpartner, natürlich alles auf Kosten Nvidias.
Das wäre das Mindeste bei einer so teuren Karte, also einem Luxusprodukt.
Mal sehen, vielleicht springt nVidia ja über seinen Schatten.
 
  • Gefällt mir
Reaktionen: Laphonso
Unnu schrieb:
Ja okay, allerdings haben sie das nachvollziehbar erklärt.
Das wurde für den weniger guten Samsung-Prozess designt. Der Umstieg auf TSMC kam dann zu spät für ein Redesign. Das ist OK, in meinen Augen. Und für die Käufer definitv von Vorteil.


Nope. Glaube ich ich nicht. Ich lasse mich gerne vom Gegenteil überzuegen in den News, aber glaube nicht daran.
Nun, wenn das Produkt nicht stimmig ist, dann kommt halt im Zweifelsfall so etwas raus. Wäre die Grafikkarte weniger hoch, wäre ... du weißt, worauf ich hinaus will.

Ja, AMD wird es dennoch schwer haben. Aber auch wenn die Leistung passt, ich würde mir schon lange ein stärkeres Kurzzeitgedächtnis auf Konsumentenseite wünschen, so etwas nicht als Hoppala hinzunehmen.

Es ist schlicht nicht erklärbar, warum NVidia so einen Adapter überhaupt beigelegt hat und das ist dann eben entweder Fahrlässig- oder Nachlässigkeit. Und so etwas sollte nicht mit Milliarden belohnt werden, wenn davor schon genügend Informationen vorlagen, dies besser anders zu lösen. 😉
 
Lord B. schrieb:
Genau SO war und IST es! Die Stecker Problematik WAR bereits im Sommer 2022 BEKANNT -und- öffentlich!
Schon im August/September.

Und das jetzt hier? Es wurde genau so erwartet. Man wusste dass es schmoren wird!
Natürlich wird vieles davon über die Gewährleistung laufen und gar nicht in Foren wie hier erscheinen. In der Summe eine sehr arrogante und beschämende Geschichte in einer Zeit, wo jedes dritte Wort "Nachhaltigkeit" ist. ;)
 
  • Gefällt mir
Reaktionen: MountWalker, Recharging und Unnu
mibbio schrieb:
Aber nur bei SSDs, die im M.2 Slot stecken. Es gibt aber immer noch 2,5'' Sata-SSDs, deren Stromversorgung direkt vom Netzteil kommt. Und M.2-only PCs sind bei weitem noch nicht die Norm.
Bei ATX12VO werden auch diese SATA-Laufwerke vom Mainboard mitversorgt.
 
Oh mein Gott! 😳

Irgendwann schreibe ich mal ein Buch mit dem Titel:
"Das unglaubliche Versagen der Multi-Milliarden-Dollar Konzerne".

Ich weiß gerade nicht, was mich fassungsloser macht.... die Gegensätze der ingenieurtechnischen Brillanz zwischen einer RTX4090 FE und ihrem beiliegenden Adapter oder dass man ausgerechnet dann die Hersteller-Garantie verliert (steht so im Beipackzettel der 4090 FE), wenn man einen einwandfrei konstruierten Adapter von Seasonic, BeQuiet und Co verwendet um im schlimmsten Fall einen Hausbrand mit vielen Toten zu vermeiden.

Einfach nur traurig wie sehr dieser tolle Ada Lovelace Chip von so einer (mehreren -> Namensschema, 3080 12GB cancelation, VERFÜGBARKEIT? - Wo?, ...) vermeidbaren Posse überschattet wird. :heul:
 
  • Gefällt mir
Reaktionen: MeisterOek, Gene Jackman, ComputerJunge und 5 andere
Hallo zusammen,

@Unnu
Unnu schrieb:
und dann ging das so durch die Hierarchien und irgendwann war das halt ein GO
Aus dem Stand würde ich zustimmen, daß ein Ingenieur geäußert hat, was qualitativ benötigt wird und dann lief es wie du schon treffend darlegst, durch die Hierarchien und die Buchhaltung hat das Rennen sozusagen gewonnen am Ende.

Na ja, ich sagte beim Test hier der RTX 4090 schon im Forum, daß ein Neues NT sowieso gleich Pflichtkauf ist direkt beim Erstehen der Karte. Und genauso ist es. Dabei muß es zwingend ein Ultimatives Top-NT sein noch dazu.

Aber jede Wette, ich kenne ja die Beiträge hier im Forum bei jeder Neuen GPU-Generation, es werden genug auf Teufel komm raus mit ihrem betagten 600 Watt NT versuchen, dazu den Adapter. Motto: Das sind ja alles Einzelfälle ;).

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Luxmanl525 schrieb:
Aber jede Wette, ich kenne ja die Beiträge hier im Forum bei jeder Neuen GPU-Generation, es werden genug auf Teufel komm raus mit ihrem betagten 600 Watt NT versuche.
Geht auch, solange die elektrischen Verbindungen einwandfrei sind (das ist hier das Problem) und man das Power-Limit korrekt konfiguriert und einhält.
 
  • Gefällt mir
Reaktionen: Unnu und MountWalker
my 2 Cents,
da man sich Apple angeglichen hat kostet der passende Adapter dann mindestens 100EUR extra,
Ansonsten heisst es aufpassen, sonst droht in der EU persönliches Pech.
in den USA wird brav getauscht da Sammelklage.

Wenn ich nur an die bröselnden 30Pin und alte Lightning Kabel denk, bei den Preisen wär was besseres drin gewesen.
 
Wechsler schrieb:
Ist auch komplett ok so. Es handelt sich dabei nicht um 2x 6+2pin sondern 2x 8pin ESP. Die ESP können pro Stecker 300W. Die ersten zwei Sensepins beim Corsair liegen auf Masse. Der Karte wird damit immer gesagt 600W sind möglich. Ob das Netzteil das schafft ist ein anderes Thema aber das war in der Vergangenheit ja auch immer so.
 
  • Gefällt mir
Reaktionen: Recharging
Hallo zusammen,

@Wechsler
Wechsler schrieb:
Geht nicht mit einem eher betagten NT, wie von mir dargelegt. Und wenn doch, ganz sicher nicht lange.

So long....
 
Zurück
Oben