News 12VHPWR-Stecker: Überlasteter Steckverbinder auch ohne Adapter möglich

@Dancefly
Wenn dem so stimmt, dann wird also mal wieder nicht so heiß gegessen wie es gekocht wurde...
Wie so oft.
 
  • Gefällt mir
Reaktionen: Dancefly
Wenn man mit einer 4090 FE alles richtig macht wird es auch nicht so wild sein, ein Boardpartner Karte mit einer Höheren TBP, ausgenudelte Stecker, falsch verlegte Kabel und eine hohe dauerlast über stunden hinweg und schon kann es durchaus heiß werden.
 
Piranha771 schrieb:
Nur eine Frage der Zeit bis wir die ersten toten wegen abgefackelter Buden haben. Sowas sollte keine Zulassung in der EU bekommen.
Was denkst du was sonst so alles in der EU verkauft wird? 😆
 
  • Gefällt mir
Reaktionen: krucki1 und Miuwa
BOBderBAGGER schrieb:
Wenn man mit einer 4090 FE alles richtig macht wird es auch nicht so wild sein, ein Boardpartner Karte mit einer Höheren TBP, ausgenudelte Stecker, falsch verlegte Kabel und eine hohe dauerlast über stunden hinweg und schon kann es durchaus heiß werden.
wenn ich die vorher angegebene FAQ von NVIDIA zu ihrer neuesten Kreation so durchsehe, fallen da schon einige "Marketing-Moves" auf, die m.M.n. nicht so "unwild" sich gestalten, ich zitiere aus deren FAQ:
Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?


Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec.
Da hat jemand ganz in guter Politiker-Manier m.M.n. gar nicht die Frage beantwortet, die sich nämlich bzgl. ATX2 Spec richtet und in der Antwort wird stumpf auf die ATX 3 Spec verwiesen - denn mir ist hier rätselhaft, wie der neue Stromanschluss auf den 4000er Karten "smart" etwas mit einer PSU-Kategorie bzgl. Leistungsbedarf "aushandeln" will, die gar nicht über einen entsprechenden Signalkanal verfügt. Es sei denn, dass das technisch so ausgelegt wäre, dass ohne den passenden Signalkanal nur eine Minimalleistung abgerufen wird ... :confused_alt:
What’s a ‘smart’ power adapter?


The adapter has an active circuit that detects and reports the power capacity to the graphics card based on the number of 8-pin connectors plugged in. This enables the RTX 4090 to increase the power headroom for overclocking when 4x 8-pin connectors are used versus 3x 8-pin connectors.
das ist schon fast witzig: wenn also die PSU 4x PCI-E für den Strom der Grafikkarte anbietet und deshalb alle 4 verbunden werden, darf die "intelligent" per Adapter verkabelte GPU a la NVIDIA also mehr Leistung ziehen - bleibt nur wieder die Frage: woher will die Karte wissen, was eine ATX2-PSU so auf ihren ggf. mehreren Rails für den jeweiligen PCI-E-Anschluss verfügbar hat bzw. aktuell leisten kann?
If I bend the RTX 40 Series adapter will it cause issues with the connection between my PSU and GPU?


The adapter has been proven to work in a wide variety of conditions. Please follow our compatibility diagram: plan a minimum of 1.4” or 36mm clearance above the top of the graphics card for cable bend and airflow clearance.
das wird bei aktuellen Gehäusebreiten und der eh schon deutlich erhöhten Bauhöhe der neuen Generation von GPUs sicher spannend, ob dann so mancher nicht ein extra Loch in seine Gehäuse-Seitenwand fräsen muss oder wir erleben bald wieder Gehäuse-Verkleidungen mit einem seitlichen "Turbo-Buckel", in dem aber dann kein zusätzlicher Seitenwandlüfter steckt sondern nur der Platz für die Biegeradien der Verkabelung gelassen wird - und auch bei einigen sich abzeichnenden 3,5 Slot Custom-Designs wird es abhängig vom Towergehäuse sicher bei so manchem spannend im verfügbaren Restraum zwischen der Grafikkarte und dem Netzteil darunter noch genug Luft zu haben (bzw. vllt. kommen dann ganz nach alter Turbositte da dann auch Ansaugtrichter für Frischluft zum Einsatz). :evillol:
 
Zuletzt bearbeitet: (Typos bereinigt)
Gibt es neben dem "echten" Release am 12. Oktober seitens NV eigentlich Infos dazu, ab wann die NDAs zu unabhängigen Tests fällt bzw. fallen könnte?
 
Verak Drezzt schrieb:
wer sich eine 2000€ aufwärts 4090 leistet
Ich frage mich seit gefühlt Ewigkeiten woher dieser Unfug kommt: Seit wann rechtfertigt der Kauf eines teuren Produkts damit zusammenhängende, sinnlose, weitere Geldausgaben? Das ist einfach ekelhaftes Neid-Denken.
 
  • Gefällt mir
Reaktionen: Miuwa, sikarr und Gesualdo
Piranha771 schrieb:
. Sowas sollte keine Zulassung in der EU bekommen.
Welche Zulassung?
Glaubst du jedes Produkt muß erst einmal zugelassen werden?
Umd nein CE verlangt bei Netzteilen keine Prüfung (ausser vielleicht im Medizinischen Bereich).


Leereiyuu schrieb:
Seit wann rechtfertigt der Kauf eines teuren Produkts damit zusammenhängende, sinnlose, weitere Geldausgaben? Das ist einfach ekelhaftes Neid-Denken.
Keine Ahnung wie es bei anderen ist - mit Neid hat es bei mir nichts zu tun.
Wer eine 4090 kauft weiß doch vorher, dass sie 12HPRW haben und extreme Anforderungen an das NT stellen.
Wie hätte es denn sonst gelöst werden sollen. Man erwartet Topleistung die eben nur noch (zumindest bei 4090) mit extremen Strombedarf erreicht werden kann.
Klar ist es nicht schön wenn man dann auch noch ein neues NT braucht. Kommt aber weder überraschend noch kann man ohne 4090 den Rechner nicht mehr benutzen.
Von daher würde ich sagen sagen wer sich eine 4090 leisten will muß sich dann eben auch ein NT dazu leisten können.

Ergänzung: Rein logisch betrachtet. Auf wen ist man eher neidisch - jemand der seine letzten Euros zusammenkratzt um sich eine 4090 zu leisten und am NT zu knabbern hat oder auf jemand der einfach die Schultern zuckt und sagt mir doch egal kauf ich eben noch ein neues NT - ich habs ja ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bondage game
LTCMike schrieb:
Da hat jemand ganz in guter Politiker-Manier m.M.n. gar nicht die Frage beantwortet, die sich nämlich bzgl. ATX2 Spec richtet und in der Antwort wird stumpf auf die ATX 3 Spec verwiesen
Eigentlich ist die Antwort sogar sehr klar:
"Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec."
Und hier bezieht man sich auf die PCIe Gen5 specs. Es interagiert gemäß den Specs. So lese ich das.
LTCMike schrieb:
bleibt nur wieder die Frage: woher will die Karte wissen, was eine ATX2-PSU so auf ihren ggf. mehreren Rails für den jeweiligen PCI-E-Anschluss verfügbar hat bzw. aktuell leisten kann?
Wenn ich das noch richtig im Kopf habe, dann schreibt NV dazu, dass es um die 450 Watt der 4090 geht und dazu setzt NV ein Netzteil mit min. 850 Watt voraus.
Auch steht den FAQs, dass sie diesen Adapter mit unterschiedlichsten Netzteilen getestet haben.

Ich denke, die haben ihre Hausaufgaben schon gemacht. Schließlich ist es ja ganz offiziell auf ihrer eigenen Seite zu finden - wenn da mal was passieren sollte, müssten sie (in meinem Verständnis) auch dafür haften.
 
cloudman schrieb:
Wer eine 4090 kauft weiß doch vorher, dass sie 12HPRW haben und extreme Anforderungen an das NT stellen.
Kann ich direkt widersprechen. Gibt genug Leute die einfach genug Geld haben und sich wie schon immer einfach das Neuste gekauft haben, Geld spielt dabei keine Rolle.

Das heist aber nicht automatisch das diese Leute technisches Verständnis haben, vorher war alte Karte raus Neue rein und genauso werden die das auch diesmal machen, vielleicht dann mit ner bösen Überraschung.

Bisher ging das meist auch gut weil diese Leute eh meist überdimensionierte Systeme hatten aber diesmal ist es ja etwas spezieller.
 
Gesualdo schrieb:
"Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec."
Und hier bezieht man sich auf die PCIe Gen5 specs. Es interagiert gemäß den Specs. So lese ich das.
Nochmal, die Frage in der selbgestrickten NV-FAQ lautet eben "Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?" und die Antwort bezieht sich auf ATX3 Spezifikationen.
Eine ATX2.0 PSU hat schlicht keinerlei Signal- oder Datenleitungen auf den herkömmlichen 6 bzw. 8-Pin PCI-E-Anschlüssen, um hier irgend etwas zu "regeln"; diese Sense-PINs im 12VHPWR-Stecker-Kabel-Konglomerat sorgen auch nicht für eine ausgefeilte Datenverarbeitung von Leistungsdaten, sondern geben für die Grafikkarte, abh. davon wie die 2 Pins gegen Masse geschaltet werden oder offen sind, den maximalen Leistungshunger frei.
Hier "drückt" sich NVIDIA deshalb m.E. ziemlich unseriös vor einer realistischen Antwort, die m.E lauten müsste, dass der Anwender bei Verwendung der 3- oder 4-fach PCI-E Adapter selbst zusehen muss, ob seine Anschlüsse des ATX2-NT genug Leistung bereitstellen können, wenn es nicht über den 12VHPWR-Anschluss nebst ATX-3-Spezifikation verfügt. Für alles weitere setzt man dann einfach auf funktionierede OC-Protection der PSU.
Gesualdo schrieb:
Wenn ich das noch richtig im Kopf habe, dann schreibt NV dazu, dass es um die 450 Watt der 4090 geht und dazu setzt NV ein Netzteil mit min. 850 Watt voraus.
Auch steht den FAQs, dass sie diesen Adapter mit unterschiedlichsten Netzteilen getestet haben.
auch hier s.o.: ein ATX2-NT kann mit der Grafikkarte über einen 6 oder 8-Pin PCI-E keine Informationen zu seiner Leistungsfähigkeit des korrespondierenden Anschluss austauschen und sich oder die Grafikkarte danach "regeln". Dass NV die Mindestleistung eines NT für die einzelnene 4000er Karten empfiehlt, ändert halt nix an der Tatsache, dass sie in den Antworten irgendeine "intelligente" oder smarte Regelung und quasi automatische Abwärtskompatibilität suggerieren, die technisch halt nicht gegeben ist.

Aber soll ruhig jeder selbst von den pauschal "NV-Verteidigern" seine Erfahrungen sammeln: Ich kann mir gut vorstellen, dass zumindest bei der 4090 (und hier v.a. auch den Custom Modellen, die bis zu 600W über das NT ziehen können sollen) so einige feststellen werden, dass ggf. die Leistung auch eines 850W oder auch 1.000W ATX2 NT nicht für einen stabilen Betrieb unter satter Gaminglast ausreicht. Und selbst bei der "großen" 4080er wäre ich mir nicht sicher, dass es reicht. Und selbst wenn die Leistung stabil hoch gehalten wird, bleiben halt noch die weiteren Unzulänglichkeiten dieser "Adapter-Frickelei", die im worst case einzelne Pins oder gleich die gesamte Steckverbindung elektrisch-thermisch überlasten. Auf eine Haftung für abgerauchte Komponenten jenseits von Kulanz würde ich jedenfalls, so wie hier seitens NV & Co argumentativ vorgegangen wird, nicht bauen. Noch kennt man ja außer viel Marketing-Geschwurbel nicht einmal das "Kleingedruckte", das einem zusammen mit dieser Konstruktion "verkauft" wird.
 
Zuletzt bearbeitet: (Typos fixed)
Den neuen Stecker-Standard empfinde ich als absolute Fehlentwicklung. Warum?

Obwohl die Last deutlich gestiegen ist, wurde der Stecker verkleinert und anfälliger gemacht.
Warum hat man nicht gleich Spannung auf 24VDC erhöht? Damit wäre das kein Problem gewesen.
Bei derart hohen Strömen auf so kleinen Kontaktstellen ist eine schleichende Degradierung durch Oxidbildung ja schon vorprogrammiert und iwann raucht dann der Stecker ab. Das wäre 99%+ der Leute doch total egal wie groß der Stecker ist.

Ich empfinde 600W Grafikkarten aber ganz generell als Fehlentwicklung.
Das ist für mich die oberste Grenze für den ganzen PC im Heimbereich. Professionelle Anwensungen mal ausgenommen.
 
  • Gefällt mir
Reaktionen: LTCMike und Arcturus128
sikarr schrieb:
Das heist aber nicht automatisch das diese Leute technisches Verständnis haben, vorher war alte Karte raus Neue rein und genauso werden die das auch diesmal machen, vielleicht dann mit ner bösen Überraschung.
Und welche böse Überraschung. Wenn ihr 1000W netzteil es nicht packt schaltet das NT eben ab - OCP usw.
Und ja wer dann die Kabel mit der Zange um 90 Grad biegt und damit provoziert, dass die Stecker keinen guten Kontakt mehr haben - mei ist halt dumm.
Dieses Geraune von Bränden und Toten ist ziemlich übertrieben.
Dann dürften auch keine Lichtschalter, Steckdosen etc im Baumarkt verkauft werden. Wer die falsch anschließt und die Kabel nicht richtig fixiert riskiert auch einen Kabelbrand und verliert noch dazu den Versicherungsschutz weil er es nicht durch einen Elektriker machen hat lassen.
Wollen wir jetzt alles einschränken weil es immer einen Idioten gibt der nur pfuscht?

Ich wollte auch dem Neid Quatsch widersprechen der hier aufkam
 
cloudman schrieb:
Dann dürften auch keine Lichtschalter, Steckdosen etc im Baumarkt verkauft werden. Wer die falsch anschließt und die Kabel nicht richtig fixiert riskiert auch einen Kabelbrand und verliert noch dazu den Versicherungsschutz weil er es nicht durch einen Elektriker machen hat lassen.
Wollen wir jetzt alles einschränken weil es immer einen Idioten gibt der nur pfuscht?
Wir reden bei einer solchen Grafikkarte aber schon noch von einem Komplett-Fertigprodukt und nicht von einer Bastelkiste mit Elektronik-Bauteilen zum selbst zusammensetzen, oder?

Das Problem besteht m.E. ganz stark in einer entsprechend transparenten Kommunikation, was den Betrieb in einem Selbstbau-PC betrifft, der sich nun eben nicht mehr deutlich unterhalb der bislang geltenden Spezifikationen und Standards bewegt, sondern an dessen Grenzen schrammt. Da muss jemand beim Einbau keinen doppelten Links-Daumen haben, dass es im Gaming-Lastbetrieb zu Problemen kommen kann. Im besten Fall, greift, wie du auch sagst, die OCP des NT (das hatte ich selbst schon bei einem Marken NT, das formal mit seiner Nennleistung für meine Vega64 hätte reichen sollen und dann bei Lastspitzen ebenfalls per Protection ausstieg und die Kiste abgeschaltet hat; nichts dramatisches, aber da waren halt die Schutzschaltungen etwas arg sensibel ausgelegt). Im schlechtesten Fall hat man jedoch eine schleichende elektrisch-thermische Überlastung, die im besten Fall "nur" die betroffenen Steckverbindungen zerstört und im schlechtesten einen schlagartigen Kurzschluss mit bei den anzunehmenden elektrischen Lasten nicht unwahrscheinlicher Brandentwicklung verursacht - und glaube mir: ein Elektrobrand ist nichts, was einfach zu beherrschen ist.

Und bei dieser Sachlage, die eben auch entsprechende Meldungen seitens NVIDIA an die zuständige Standardisierungskommission (PCI-SIG) mit nachfolgender Warnung ausgelöst hat, hilft halt kein schönfärberisches Marketing-Geschwurbel bzgl. automatischer Abwärtskompatibilität, sondern man muss seitens der Anbieter Ross&Reiter nennen, was vermutlich zumindest für die 4090-Serie den Einsatz eines echten ATX3-NT bedeutet und dies auch für die 4080er wohl anzuempfehlen ist - egal wieviel Kilowatt das aktuell eingesetzte Platin-irgendwas NT leisten kann, da diese 8-Pin PCI-E Adapter-Frickel-Lösung halt bei den angestrebten Dauerlasten eben maximal suboptimal einzuordnen ist.
 
LTCMike schrieb:
4090-Serie den Einsatz eines echten ATX3-NT bedeutet und dies auch für die 4080er wohl anzuempfehlen ist - egal wieviel Kilowatt das aktuell eingesetzte Platin-irgendwas NT leisten kann, da diese 8-Pin PCI-E Adapter-Frickel-Lösung halt bei den angestrebten Dauerlasten eben maximal suboptimal einzuordnen ist.
Sag ich doch - wer die Teile sill muss kosten für die Stromversorgung einplanen - zumindest war das der Ausgangspunkt der Diskussion.
Wenn ein 1.2KW Netzteil 4 PCIe Anschlüsse hat und 4 kabel verwendet werden sehe ich auch wenig Probleme. Die Tests werden es zeigen nicht das unvollständige WCFTech Jay sowieso Alarmismus Zeug.

Die meisten Post warten Beschwerden dass sie ihre relativ neuen NT ersetzen oder mit Adapter betreiben müssen (sieht dich sch... aus)

Vor dem Verkausstart über mangelnde Transparenz zu reden ist etwas zu früh. Warten wir doch mal ab bevor wir uns hier spekulativ verrückt machen.

Und ja für mich sind PC Komponenten genauso 'Bastelkram' wie Smarthome Unterputz Dimmer u. ä.
Wer keine Ahnung hat muss halt die Finger davon lassen - sorry
Meine Meinung - andere sind erlaubt 😀
 
LTCMike schrieb:
Wir reden bei einer solchen Grafikkarte aber schon noch von einem Komplett-Fertigprodukt und nicht von einer Bastelkiste mit Elektronik-Bauteilen zum selbst zusammensetzen, oder?
Eine Grafikkarte ist nicht wirklich ein Fertigprodukt nach deiner Einschätzung. Ein Elektronikbauteil trifft es eher.
 
Ghostfacekalle schrieb:
Eine Grafikkarte ist nicht wirklich ein Fertigprodukt nach deiner Einschätzung. Ein Elektronikbauteil trifft es eher.
demnach wäre ja auch ein USB-Hub o.ä. nur ein Elektronikbauteil: läuft allein nicht, braucht eine Verbindung zu weiterer PC-Hardware und ggf. sogar nen zusätzlichen Niedervolt-Stromanschluss ... schon etwas arg vereinfachend so eine Diskussion, um die kruden NVIDIA-Vorstellungen zum Betrieb in nem Selbstbau-PC als Für-Experten- Only (aka Elektriker o.ä.?) zu rechtfertigen - Denn die Beispiele auf die ich reagiert habe, haben ausschließlich Basis-Bauteile aus dem Baumarkt für Elektro-Installationen aufgelistet, die genau genommen auch nur durch geschultes Fachpersonal zu montieren wären... Wenn das auch auf die neuen Grafikkarten zutrifft, sollte man aber ganz schnell den Retail-Selbstbau-Markt weg-regulieren und nur noch zertifizierten Meisterbetrieben den Verbau gestatten...
 
Zuletzt bearbeitet: (Typos fixed)
Leute es gibt nicht nur Schwarz / Weiß.
Der Baumarktvergleich hinkt vielleicht ein bisschen. Ich finde aber schon, dass jemand der mit 1kW Geräten hantiert ungefähr wissen sollte was er tut.
Darum gings mir. Biegeradius nicht überschreiten und keine Kabel selbst basteln sondern freigebene Kabel verwenden ist doch im Grunde alles was man beachten muss. Ok Einrasten bis es klick macht.
 
@LTCMike
Bei Fertigprodukt denke ich eher an ein Produkt was der Entkunde qasi nur an den Fernseher stöbselt und gleich loslegen kann.
Bei einer Grafikkarte muss man halt auch den PC öffnen ,die Karte verbauen. Ein bissl Wissen von dem was man da macht muss halt auch vorhanden sein. Das war mein Gedanke dahinter.
 
  • Gefällt mir
Reaktionen: cloudman
catch 22 schrieb:
ich übersetze dann mal:
es ist egal, wie bald Nvidia seine RTX 4090 / 4080 auf den Markt wirft. Solange es nicht mehrere durch unabhängige Quellen (Igor, Gamers Nexus z.B.) ausführlich getestete Netzteile gibt, sollte man die Finger davon lassen.
Igor testet keine Netzteile, das ist Aris
https://www.tomshardware.com/author/aris-mpitziopoulos
Die tests sind nur Übersetzungen ins Deutsche von

https://www.youtube.com/c/HardwareBusters

und Gamers Nexus da in einem Atemzug zu nennen und das in einer News von Nico :lol:
 
  • Gefällt mir
Reaktionen: rumpel01
Dancefly schrieb:
Nvidia behauptet darin es war nur ein Hersteller bei dem das Problem überhaupt auftritt.
Während der frühen Entwicklungs- und Testphase haben wir ein potenzielles Problem mit einem Prototyp eines von einem einzigen Lieferanten hergestellten Steckers festgestellt.

PCI-SIG hatte aber folgendes veröffentlicht:
- 3 unterschiedliche Hersteller wurden getestet
- Bei mindestens 10 Bauteilen wurde beobachtet, dass sie entweder geschmolzen sind oder sich hot spots bildeten
Also ich glaube eher weniger das die 10 von einem einzigen Hersteller waren.^^Deshalb gehe ich davon aus das sich Nvidia überhaupt nicht auf den in der News bezogenen Test bezieht, oder sie lügen dreist.^^
 
Zurück
Oben