News Defekte 12VHPWR-Stecker: Nvidia bezieht Stellung und sieht Schuld bei Anwendern

erst Energieverschwendung, als Fix eine Fehlkonstruktion und die Schuld dem Käufer zu zuschustern, drei Gründe mehr keine Nvidia Karte zu kaufen
 
  • Gefällt mir
Reaktionen: MikePayne028
Ja passt doch, die Erklärung. Wer zu blöd ist den Stecker einzustecken, ist selbst schuld. Klar, dass der schwieriger zu stecken ist, hab ich ja am eigenen Leib erfahren. Man kann aber von einem Nutzer, der seine GPUs selbst verbaut auch erwarten, dass man den richtigen Sitz nochmal kontrolliert.

Setzt man den Kühler nicht korrekt auf die CPU und die raucht beim einschalten ab, kann sich ja auch keiner beklagen.

Ist das wirklich der einzige Grund, ist der Fall ja eindeutig. Kein Richter in D würde dan pro Kunde sprechen. Und wenn es sich wirklich nur 0,04 Prozent der Karten handelt, wurde die Sache medial mal wieder völlig aufgebauscht, um Kasse zu machen. Wie so häufig also viel heiße Luft um sehr wenig Inhalt.
 
  • Gefällt mir
Reaktionen: Ragnarök88, W4RO_DE, RogueSix und 4 andere
MikePayne028 schrieb:
Du und Thirdlife spammen hier den Thread zu mit Quatsch Postings das ist nicht feierlich.
Tolle Einleitung... Schon mal was von Niveau und faktenbasierter Diskussion gehört?

MikePayne028 schrieb:
1. Keine Karte ist bei HW Seiten abgebrannt, alle haben attestiert, dass der Stecker Mist ist und nicht einfach zu stecken ist. Das ist doch nicht so schwer zu verstehen.
Das stimmt so nicht. man hat versucht die Fälle nachzustellen und spekuliert. Keine einzige Publikation hat dem Stecker dem ihm zugedachten Zweck widersprochen.

MikePayne028 schrieb:
2. Danke für den Whataboutism mit Eautos, da hast dir selbst ein Bein gestellt, denn Hybride und Verbrenner fackeln way more ab als BEVs (kurz googlen hilft vorher).
Das ist mir schon klar. Ich habe EAutos deshalb hergenommen, weil Computerfbegeisterte batteriebetrieben Brandfällen näherstehen als bei Verbrennern. Und weil ja immer das (schein)- Argument kommt, dass sowas nicht passieren dürfe und gleichzeitig die unzulässige Schlussfolgerung gezogen wird, dass wenn diese Dinge im Ausnahmefall passieren, die Technik als untauglich und unsicher einzustufen ist.

MikePayne028 schrieb:
3. Wer gutheißt, dass eine 2k € Karte mit den letzten Billo-Adaptern und einer "Vorschrift zum Stecken eines Steckers" kommt, dann ist offensichtlich, das das fail ist.
Ja- Wo kämen wir denn da hin, wenn sich Leute plötzlich an Anleitungen zu halten haben, bei High- Tech komponenten durch die hunderte von Watt Strom gejagd werden.
Skandal!
MikePayne028 schrieb:
Dekaden gab es nie Probleme mit Molex und Co.
Doch- Die gab es in Massen.
MikePayne028 schrieb:
Neuer, schlechter Stecker = Die Anwender sind Schuld. Kannste Dir nicht ausdenken.
Nein- Was hier die Runde macht:
Neuer Stecker- User steckt den nicht ganz ein - Hersteller ist schuld.
Kannste Dir wirklich nicht mehr ausdenken.

Es ist wirklich an den Haaren herbeigezogen, was Du Dir hier zusammenreimst.
 
  • Gefällt mir
Reaktionen: FR3DI, Ragnarök88, RogueSix und 2 andere
.Sentinel. schrieb:
In dem Falle ist egal was nVidia macht. Es wird ihnen so oder so negativ ausgelegt.
Tauschen sie ist das ein indirektes Schuldeingeständnis. Tauschen sie nicht wird ihnen vorgeworfen ganz typisch komplett die Bodenhaftung verloren zu haben und absolut Feindlich gegen ihre Kunden zu agieren, mangel an Kulanz, Vertuschung und und und...

Big Player können es einfach nur immer falsch machen...
Ich habe grade mit einem Freund geredet der einen anderen Ansatz mir gesagt hat warum nvidia so vorgeht wie sie es grade tun. Er stammt aus der Automobil Branche und liefert alles für die Reparatur von KFZ Wagen inklusive der "Abgastester" die in den letzten Jahren für so viel Wirbel gesorgt haben....

Seiner Ansicht ist die jetzige Antwort und Art der Reaktion reiner Selbstschutz!
Erstmal dürfen sie unter keinem Fall eine Schuld eingestehen.
Zweitens müssen sie sich selbst und ihre Partner schützen denn die ganze Situation ist nur einem Schritt davor vor Gericht und für nvidia und seine Partner wesentlich schlimmer (man kann es gar nicht glauben aber ja es geht schlimmer weil es um Firmen geht!) das in den USA oder Deutschland usw. die entsprechenden staatlichen Intuitionen Aktiv werden und wegen BRANDGEFAHR diese Produkte vom Markt nehmen lassen und eine Rückrufaktion für bestehend verkaufte starten was eine logische Konsequenz wäre wenn Anwälte sich damit befassen!

DAS ist wirtschaftlich schlimmer als "nur" jedem betroffenen Kunden seine Grafikkarte zu tauschen denn jetzt sind es "nur" die Kommunizierten 0.4% dann sind es 100% + die Kosten für die Resteverwertung (in wie weit das wirtschaftlich vom Aufwand gegen über Neukauf der Bauteile überhaupt Sinn macht) da die bestehende Platine keinen Platz für weitere Buchsen bietet! Theoretisch müsste nvidia eigentlich schon jetzt an einer Revision 2 zumindest der 4090 arbeiten wenn sie sicher sein wollen...
 
  • Gefällt mir
Reaktionen: Alphanerd und .Sentinel.
MrHeisenberg schrieb:
@Redaktion: ihr solltet User bannen, die absichtlich Fakenews verbreiten, um Drama zu erzeugen!
@Redaktion: ihr solltet User bannen, die krampfhaft Nvidia verteidigen.
 
  • Gefällt mir
Reaktionen: coasterblog
Gamefaq schrieb:
Seiner Ansicht ist die jetzige Antwort und Art der Reaktion reiner Selbstschutz!
Erstmal dürfen sie unter keinem Fall eine Schuld eingestehen.
Die Sache ist doch die, dass es absolut ausgeschlossen und absurd ist, irgendeine Schuld wegen Verwendung eines fremdzertifizierten Steckers einzugestehen, der bei sachgemäßer Behandlung und auch nachgewiesener Weise bei extremen Misbrauch zudem auch noch tut, was er soll....
 
  • Gefällt mir
Reaktionen: Ragnarök88, RogueSix und ThirdLife
andi_sco schrieb:
Naja, ob man 300W über das Board jagen kann? Ich weiß, bei CPUs geht es nicht anders.

Zum Verständnis. Man sollte es nicht müssen. Die GPUs wie auch die CPUs (vor allem Intel) müssen deutlich effizienter werden. Mehr Leistung bei mehr Watt ist kein Erfolg, sondern ein Kotau gegenüber einer benchmarkfizierten Presse und Öffentlichkeit.

Wenn ich AMD wäre würde ich mit Zen4 Mobile und womöglich sogar X3D direkt auf Apples M1 zugehen. Passive Kühlung in der mittleren Leistungsklasse oder ist eine verlorene Generation. Die ThinkPads brauchen endlich passive Kühlung und nicht den Murks von Qualcomm der nicht ordentlich mit Linux läuft.

Intels absolute bestens CPUs zu Beginn der 90er waren passiv gekühlt, 386er. Mit 32 Bit und MMU. Der Fortschritt der ICs war hohe Performance bei wenig Strombedarf. Beim 486er und Pentium 2 (Slot) hat man das dann aufgegeben. Wozu verkleinert man die Fertigungsgröße um am Ende mit noch mehr Watt zu Arbeiten :(

Mein Bauchgefühl sagt mir das AMD (effizienter Laptop CPUs, relative effiziente RDNA2/3) es teilweise verstanden hat oder zumindest nicht bereit ist jeden Excess mit zu machen. Benchmarks sollten nur noch Performance/Watt Gewichten?
 
MikePayne028 schrieb:
Du und Thirdlife spammen hier den Thread zu mit Quatsch Postings das ist nicht feierlich.

1. Keine Karte ist bei HW Seiten abgebrannt, alle haben attestiert, dass der Stecker Mist ist und nicht einfach zu stecken ist. Das ist doch nicht so schwer zu verstehen.
Ein Stecker der schwer zu stecken ist ? Man hat doch Augen und sieht ob der drin ist oder nicht ? Dabei kann man nicht sehr viel falsch machen, das würden auch die 119950 anderen Kunden sagen.

Wer hat attestiert dass der Stecker Mist ist ?

MikePayne028 schrieb:
3. Wer gutheißt, dass eine 2k € Karte mit den letzten Billo-Adaptern und einer "Vorschrift zum Stecken eines Steckers" kommt, dann ist offensichtlich, das das fail ist. Ja jetzt nur 50 von 125k (nach nicht mal einem Monat Neuware). Reden wir nochmal in paar Monaten.
Was hat der Preis denn mit den Empfehlungen zur Produktnutzung zu tun ? Mein Tesla hat auch trotz über 2k€ Kaufpreis klare Ansagen was wie zu tun ist bezüglich Aufladen, Handling des Autopilot, Reifendruck, etc.

Ist das jetzt ein schlechtes Produkt weil ein Hersteller dir nicht sagt "mach was du willst damit wir garantieren für alles inkl. ihrer Dummheit" ?

Dass man Stecker nicht x-beliebig biegen kann sollte klar sein, wem das nicht klar ist, der sollte evtl. keine Hardware selbst verbauen. Und wer 2k€ für ne GPU ausgibt der sollte sich evtl. VORHER Gedanken darum machen wie er das technisch daheim am besten löst. Ich werde die Karte zB vertikal installieren - no problem here.

MikePayne028 schrieb:
Dekaden gab es nie Probleme mit Molex und Co.
Schwachsinn, das kannst du aber selbst ergooglen oder die Beiträge anderer Poster hier ansehen. Jeder Stecker fackelt dir weg wenn du ihn nicht richtig einsteckst, manche hatten auch hier Mängel in der Verarbeitung. Das ist Gang und Gäbe und nix neues.

MikePayne028 schrieb:
Neuer, schlechter Stecker = Die Anwender sind Schuld. Kannste Dir nicht ausdenken.
Welcher technische Aspekt an dem Stecker ist denn nun der Schlechte ? Wenn jemand den nur 50% einsteckt ist das doch nicht die Schuld des Steckers. Verifizierst du nie was du zusammenbaust zumindest mal nach Sicht ?

Tragisch, aber nicht der Fehler des Herstellers wenn dir das unzumutbar erscheint. Lass den Profi halt machen und bezahl den dafür weil du es nicht kannst oder willst.
 
  • Gefällt mir
Reaktionen: RogueSix
MasterAK schrieb:
die krampfhaft Nvidia verteidigen.
Ah ja gibt ja nur pro und contra. Gesunden Menschenverstand kennt ihr ja nicht.

flaphoschi schrieb:
Weil Grafikkarten mal wesentlich effizienter waren.
Nein, nicht effizienter. Leistungsschwächer. Das ist ein großer(!) Unterschied. Die 4090 ist absurd effizient.
 
  • Gefällt mir
Reaktionen: RogueSix und ThirdLife
.Sentinel. schrieb:
Ihr seid ja nicht Fakten basiert, da kann ich ja nichts für.
Es sind keine Karten oder deren Anschlüsse weggeschmolzen. Punkt.
Nicht mal bei der RX480, die zu viel via PCI-E gezogen hat, was dann per Treiber gefixed wurde.

Die Anleitung von nvidia kam Wochen später, wo das Kind schon in den Brunnen gefallen ist, ergo viel zu spät.
Die PCI SIG arbeitet an einer Revision des Steckers, würde man natürlich auch machen wenn der Stecker so toll wäre...
Wenn vorher die Leute es geschafft haben und jetzt selbst HW Seiten (siehe CB) Probleme haben den Stecker richtig zu stecken, was wollt ihr noch für Proof haben. Jubelperser für NV (und AMD) braucht hier keiner.
 
  • Gefällt mir
Reaktionen: FLCL
flaphoschi schrieb:
Weil Grafikkarten mal wesentlich effizienter waren. CPUs übrigens auch. Ein 386er (Topmodell) hat nichtmal eine aktive Küluny
Nicht effizienter, sondern weniger stromhungrig. Das ist schon ein Unterschied. Wenn du mit deinem 386er physikalisch in der Lage wärst, die Geschwindigkeit heutiger CPUs zu erreichen, würde der ein kleines Kraftwerk benötigen.
flaphoschi schrieb:
Mehr Leistung bei mehr Watt ist kein Erfolg
Gleichzeitig ist es aber auch mehr Leistung pro Watt. Und damit effizienter als zuvor.
 
  • Gefällt mir
Reaktionen: ThirdLife und joshim
MikePayne028 schrieb:
oder deren Anschlüsse weggeschmolzen. Punkt.
Bilder hab ich selbst gemacht vor ca 2 Jahren. (Das war das Rig eines Bekannten)
Punkt.
 

Anhänge

  • DSC_1927.jpg
    DSC_1927.jpg
    2 MB · Aufrufe: 155
  • DSC_1926.jpg
    DSC_1926.jpg
    2,6 MB · Aufrufe: 148
  • Gefällt mir
Reaktionen: Quidproquo77, W4RO_DE, ThirdLife und eine weitere Person
flaphoschi schrieb:
Wozu verkleinert man die Fertigungsgröße um am Ende mit noch mehr Watt zu Arbeiten :(
Um noch mehr Leistung zu generieren. Und jetzt mit einem 66 Mhz 486er zu kommen wo du daheim nen 16-Core mit 5.5Ghz Allcore auf ner Desktop-Plattform reinballern kannst ist halt irgendwie weit weg von jeglicher Realität und sinnvollem Vergleich.

Da brauchst du erstmal 90 von diesen ach so tollen effizienten 486ern um überhaupt mit EINEM aktuellen CPU Core zu konkurrieren und generierst ein vielfaches von dessen Stromverbrauch. Ein 486er DX4 mit 100 Mhz hatte weder AVX Extensions noch andere Dinge die heute alle gegeben sind und zog 4,3W.

Um jetzt mit EINEM Zen4 Kern gleichzuziehen nur in Sachen Mhz brauchst du 57 davon. 57 x 4,3 = 245 W ggü. den 30W die so ein Core zieht. Mit 245W betreibe ich bei mir 16 Kerne und diese mit 5.5 Ghz Allcore. Wenn du das mit 486ern erreichen willst brauchst du 880 von denen x 4,3W = 3,784kW.

Das kannst du dann schon nichtmal mit einer 16A abgesicherten Dose ziehen, da darfst du dann in Richtung Drehstrom und dreiphasig gehen.

Super Effizient ! :daumen:
 
  • Gefällt mir
Reaktionen: joshim und MortyMcFly
joshim schrieb:
Bilder hab ich selbst gemacht vor ca 2 Jahren. (Das war das Rig eines Bekannten)
Punkt.
Ok jetzt Äpfel mit Birnen zu vergleichen wird abstrus. Das kann auch schlicht das NT gewesen sein, ist ja nicht mal an der Graka selbst. Das hat nichts mit Biegeradius, zu dünnen Litzen oder schlecht erstellten Steckern zu tun. Mir ist auch schon ein NT abgebrannt wg Überlast, was völlig anderes.
Macht kann sinn darüber zu diskutieren, die Zeit wird genug Proof liefern, sonst würde wohl kaum eine Anleitung fürs Stecken fg rausgegeben worden sein + eine Überarbeitung des Steckers in Arbeit sein, da könnt ihr euch noch so auf den Kopf stellen :)
bb
 
  • Gefällt mir
Reaktionen: FLCL und Redundanz
MikePayne028 schrieb:
Ok jetzt Äpfel mit Birnen zu vergleichen wird abstrus. Das kann auch schlicht das NT gewesen sein, ist ja nicht mal an der Graka selbst.
What?
Du willst echt nicht einsehen, dass du bei dem Punkt einfach nur falsch liegst?
 
  • Gefällt mir
Reaktionen: W4RO_DE und RogueSix
MortyMcFly schrieb:
Nicht effizienter, sondern weniger stromhungrig. Das ist schon ein Unterschied.

Das stimmt. Vor allem wissen wir das es möglich ist diese Unterschied zu nutzen - weil es Apple tut. Aber leider halt nur Apple und die Firma hat andere Nachteile.


Ich nehme an, dass jedoch klar ist dass der Blickwinkel dem Strombedarf und der Kühlung gilt. Umgekehrte können wir aber den 386er mit den ICs der 70er und frühen 80er vergleichen. Dann ist der wiederum der „Effizenzkönig“.
 
Ist genau das gleiche. Wirst du leider nie verstehen.

Ich zitiere dich mal aus einem anderem Thread:
AMD hat hier überhaupt keine Schuld, lese dich in die Materie ein und bitte keine populistischen Posts, die jedweder Grundlage entbehren.
Ja so ist das mit Fanbois.
 
  • Gefällt mir
Reaktionen: RogueSix
codengine schrieb:
Gamers Nexus hat durch viele Tests heraus gefunden dass ein nicht fest eingerastetes Kabel der Grund ist.
Die Tatsache das der Fehler halt auch einfach so in der Redaktion schon vorgekommen ist, sagt eigentlich alles über das Design aus.
Da ist halt einfach nicht darüber nachgedacht werden das jemand das Ding auch einbauen muss. Die Kühlkörper einiger Karten die fast keinen Platz für die Finger lassen sind wahrscheinlich vom gleichen Designer erdacht. ;-)
 
  • Gefällt mir
Reaktionen: HighPerf. Gamer
Zurück
Oben