.Sentinel. schrieb:
In der soliden Konstruktion fackelt garnichts ab. Die solide Konstruktion ist mit 660Watt Nennstrom (Schwierig wirds ab dem Doppelten) und allerlei widrigen Umständen getestet.
660W ware noch völlig okay, das ist 10% über dem, was der Stecker maximal als Dauerlast pro Sekunde liefern darf. Problematisch wird es mit der Tatsache: 4x 8pin ATX = 150W +150W "Sicherheit = 1200W - es braucht schon sehr solide und qualitativ hochwertige Kabel, dass der Adapter bei 1200W möglicher Leistung nicht schmilzt.
Fighter1993 schrieb:
Sondern viel besser, wie es siehe hier Nvidia macht.
Neuen Stecker auf den Markt werfen wo es noch keine passenden NT gibt....
Ich erinnere mich noch sehr gut daran, als Grafikkarten die 12V 4pin Molex Stecker hatten und der 6pin und später dann der 6+2(8)pin Stecker eingeführt wurde. Damals wurde genauso gemeckert.
In spätestens 2-3 Jahren wird sich kein Schwein mehr darüber aufregen, einige werden sich evtl an die Startprobleme erinnern, aber alles in allem wird sich wohl 12VHPWR durchsetzen.
Sebbi schrieb:
welcher Wandel? Das Grakas dann 1 kW fressen, weil ein Hersteller nicht weiter entwickelt und nur noch Verbesserungen über erhöhte TDP bringt?
Der Stecker hat ansich nur eine ~15 % Sicherheitsmarge, die normalen dagegen glaube ich so um die 75 %.
Da gibts so nen schönen Spruch "better safe than sorry" - das hat Nvidia hier nicht berücksichtigt und die Qualität aller Zulieferer immer wieder stichprobenartig per Zufallsprinzip geprüft.
12VHPWR hat eine Sicherheitsmarge von 10% - siehe
hier.
Wenn allerdings ein Adapter genutzt wird, der nur über die 4 Sensoren sieht: alles klar ich kann saugen - dann kann der Verbraucher bis zu 1228W über ein Adapterkabel ziehen.
Das wäre inkl. Sicherheitsmarge der 8pin das theoretische Maximum.
SavageSkull schrieb:
Du meinst 50% Mehrleistung bei gleicher TDP bei 3090Ti vs 4090, während alle Tests bestätigen das die 450W der 4090 eigentlich unnötig sind und die Karte, bei weniger Energieaufnahme fast keinen Leistungsverlust hat? Was ist denn für dich sonst eine Verbesserung?
Der Stecker bietet die Verbesserung, dass man eben nicht 3! Leitungen zur Grafikkarte bringen muß und nicht die halbe Seite aus Stecker besteht, aber Hauptsache mal rumjammern.
Nur weil ein Adapter Chinaböller Qualität hat, wird über den Stecker hergezogen, der als solcher technisch völlig in Ordnung ist.
Sehe ich ähnlich: wenn man die 4090 auf Energieeffizienz trimmt und mit einer 3090 Ti vergleicht, wobei beide auf 300W TBP begrenzt sind, dann ist der Leistungszuwachs bei gleichem Verbrauch einfach Brutal.
Ich begrüße auch definitiv aus dem von dir genannten Grund einen dedizierten Stromversorger für Grafikkarten und irgendwer muss da einfach mal den Fuß in die Tür stellen.
Was ich halt nicht begrüße: wenn NVIDIA mehrere OEMs mit der Herstellung der Adapter beauftragt hat, oder auch bei nur einem OEM für die Adapter, hätte man definitiv eine Sichtprüfung machen sollen (Stichprobe mindestens) und wenn der OEM nicht vertraglich verpflichtet war, ein bestimmtes Design zu fertigen, dann hätte man Auskunft verlangen und bei Abweichungen vom ursprünglichen Design auch nachträgliche Tests durchführen können.
Der schwarze Peter geht also definitiv an NVIDIA.