News GeForce RTX 5000: Das richtige Netzteil für 5090 & 5080 (mit 12V-2x6-Adapter)

Rickmer schrieb:
Es wäre erwähnenswert, dass die 12ms von ATX 3.1 ein Downgrade sind gegenüber den 17ms die ATX 3.0 (und ATX 2.x) vorsehen.
Das ist aber nur eine Richtlinie und kein Standard. Das pure power 12m 750W Netzteil von be Quiet das ich mir vor einigen Monaten gekauft habe ist auch ATX 3.1 Standard, hat aber eine Holdup Zeit von über 20ms, also sogar länger als der alte 17ms 3.0 Standard.

Das hängt also völlig davon ab was für ein Gerät von welchem Hersteller du kaufst und weniger was für eine Empfehlung zum jeweiligen ATX Standard ausgesprochen wurde.
 
  • Gefällt mir
Reaktionen: Cinquedea
Rockbreak schrieb:
Das pure power 12m 750W Netzteil von be Quiet das ich mir vor einigen Monaten gekauft habe ist auch ATX 3.1 Standard, hat aber eine Holdup Zeit von über 20ms
Besser als das Mindestmaß ist immer erlaubt :rolleyes:

Mir wäre spontan kein ATX 3.1 Design bekannt, dass nicht auch die Holdup Zeiten ATX 3.0 einhält.

Wie sehr das daran liegt, dass ATX 3.1 praktisch eine minimale Änderung an den bestehenden ATX 3.0 Designs ist? Keine Ahnung.

Wird es in Zukunft billige Netzteile geben, die sich nur an den 12ms orientieren? Sicherlich.
Werden die hochwertigen Netzteile weiterhin 17ms und länger ausweisen können? Da gehe ich von aus.
 
xexex schrieb:
Was interessiert die Kunden die Effizienz von einem Produkt, was man sich alleine zum Bespaßen kauft?
Naja, kosten und Lautstärke interessieren Kunden schon und die hängen halt unter anderem von der Effizienz ab.
 
Wieder ein Thema ala: Es wird heißer Diskutiert als es gegessen wird.

Am Ende sind die Kokel Geschichten Vergangenheit. Blöd is natürlich wenn die neue Graka nicht läuft wegen dem NT, oder das NT in den Takedown geht. Sollte dem so sein: Neues NT.

Da die meisten NTs ein Bruchteil einer (ab) 1100€ Graka kosten, sollte das nun die letzte Sorge sein.
Alles darunter läuft Garantiert auch mit normalen NTs und Adapter.

Leider wird dieser Artikel nicht als Beratung sondern als „Geht das schon wieder los“ gesehen.

Von einer CB Community kann man eigentlich erwarten das die Artikel auch gelesen und Verstanden werden. Aber die Diskussion wird sich nun die nächsten Jahre wieder ziehen weil es einen schlechten Start bei wenigen % der User gab.

Erinnert mich komplett an OLED. Probleme sind seit Jahren behoben und trotzdem verzichten Leute auf das beste Bild im Markt weil Ihr QLED Marketing Versprechen evtl. Ein Jahr länger hält.

Aber wahrscheinlich würden die meisten auch noch Molex verwenden, weil alles andere ja eh Mist ist ;)
 
Zuletzt bearbeitet:
60KU schrieb:
Erinnert mich komplett an OLED. Probleme sind seit Jahren behoben und trotzdem verzichten Leute auf das beste Bild im Markt weil Ihr QLED Marketing Versprechen evtl. Ein Jahr länger hält.

Aber wahrscheinlich würden die meisten auch noch Molex verwenden, weil alles andere ja eh Mist ist ;)
Der Punkt ist eher das der Strecker in dem Sinne ja nicht besser ist, sondern nur eine Notwendigkeit aufgrund des ausufernden Leistungsbedarfs von Grafikkarten. Da liegt ja das eigentliche Problem.
 
  • Gefällt mir
Reaktionen: ApeZilla
Osmanthus schrieb:
Nee, das waren bei weitem nicht nur Anwenderfehler.
Der Stecker ist unterdimensioniert,

Osmanthus schrieb:
… aber die Preise... da bleib ich bei meiner 4090.
Pass aber bloß auf, dass die nicht abraucht, wie die andere Handvoll weltweit die es nicht hinbekommen haben den Stecker einzurasten! /s :p

Galaxytourist schrieb:
Der Punkt ist eher das der Strecker in dem Sinne ja nicht besser ist, sondern nur eine Notwendigkeit aufgrund des ausufernden Leistungsbedarfs von Grafikkarten. Da liegt ja das eigentliche Problem.
Stimmt, die paar wenigen RTX xx90 Nutzer mit den wenigen Watt mehr im Vergleich zu einer RTX xx60 für nur wenige Stunden im Monat bei berufstätigen Nutzern sind eindeutig die Hauptursache für die globale Erwärmung :rolleyes:

Manche Leute sehen nur „große“ Zahlen aber können diese überhaupt nicht ins Verhältnis setzen - bei einem modernen Haushalt muss man die paar kWh im Jahr einer RTX xx90 mit der Lupe suchen … wenn man da an Triple- und Quad-SLI Zeiten zurückdenkt :p
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Stimmt, die paar wenigen RTX xx90 Nutzer mit den wenigen Watt mehr im Vergleich zu einer RTX xx60 für nur wenige Stunden im Monat bei berufstätigen Nutzern sind eindeutig die Hauptursache für die globale Erwärmung :rolleyes:
Das war gar nicht der Punkt. Der Punkt war nur das Grafikkarten insgesamt gesehen mehr Energie verbrauchen als früher, trotz Effizienzsteigerung. Der Umweltaspekt war nie Thema. Ist ja sowieso auch immer die Frage wo der Strom her kommt.

Es ging nur darum das man bei neuen Grafikkarten die Mehrleistung nur über die bessere Effizienz generiert, nicht über mehr Energieeinsatz.
 
rentex schrieb:
Ich mag den Stecker. Endlich keine akrobstischen Verrenkungen mehr beim reimhämmern der alten, dicken PCIE Kabel. Endlich sind die Zeiten vorbei :)
 
Pisaro schrieb:
[...]keine akrobstischen Verrenkungen mehr beim reimhämmern der alten, dicken PCIE Kabel[...]
Was zur....!? Was hast du gemacht? Ich musste mich weder verrenken, noch die alten PCIe-Stecker in "reinhämmern".

Ich habe in den vergangenen Jahren ja nun schon mehrere Systeme mit nVidia GPUs verbaut, die auf den neuen Stecker setzen, aber wirkliche Unterschiede im Anbringen der Verkabelung habe ich nicht feststellen können. Was "hämmerst" du da und warum musstest du dich verrenken? Ja, ich verstehe schon, dass es überspitzt war, aber was zum Geier hast du da gemacht? Ich habe in den letzten Jahrzehnten nicht annähernd die Erfahrungen gemacht, die du da schilderst.
 
Cinquedea schrieb:
Aha und wieso wenn man fragen darf?
Weil sie realistisch wohl 5-10% mehr Leistung bieten wird als eine 4070 Ti, somit lohnt sich ein Upgrade nicht (für mich als 4070 Ti Besitzer). Die anderen 5000er Karten warten ja schon eine herbe Enttäuschung, warum sollte dann die 5070 Ti auf einmal so viel besser werden?
 
Warum führt man sowas ein?

Was der Kunde braucht ist ein klar erkennbarer 600 Watt Stecker. Nvidia hat den Stecker doch mit entwickelt und hatte vor 400-600 Watt GPUs zu vertreiben. Mach halt den 600 Watt und meinetwegen den 300 Watt "12Pin-lite" Stecker, gern auch mit der Pflicht, dass der echte 600er, der ohnehin nur bei teuren Produkten gebraucht wird, zB immer blau ist, mit den gelben Kontakten. Die billigen können billig in schwarz sein und kosten sparen und beim Premium weiß der Kunde einfach, wo er dran ist.

Stattdessen so ein USB x Gen y.z Scheiß, nur, dass es hier um 600 Watt geht, die die Bude abfackeln können. Cool.
 
ecth schrieb:
Was der Kunde braucht ist ein klar erkennbarer 600 Watt Stecker.
Gibt es! Es ist sogar noch einfacher für den Kunden, es gibt nur 600W fähige Kabel zu kaufen, was anderes erlaubt die Spezifikation schlichtweg nicht! Es gibt im Gegensatz zu früher auch kein Problem mehr mit zu dünnen Kabeln oder seltsamen Y-Konstruktionen, alle Kabel müssen in 16AWG ausgeführt und 1zu1 durchgeschaltet sein.

Deshalb wurden auch die Leitungen zur Signalisierung eingeführt, darüber sollten Netzteile signalisieren ob sie die 600W auch bereitstellen können. An dem Standard liegt es also nicht, aber an dem Chaos aus Adaptern, und Herstellern die sich nicht an Richtlinien halten oder es meinen besser zu wissen.

Nvidia hat es leider auch nicht besser gemacht, indem sie noch Jahre nach Einführung des neuen Standards und nachdem längst alle neuen Netzteile umgestellt wurden, noch immer eine Adapterkrücke mitliefert. Manchmal muss ich mit etwas Neid zu Apple rüber schauen, Ansage, Ausführung und morgen ist alles alte dann auch weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cinquedea
Falc410 schrieb:
Weil sie realistisch wohl 5-10% mehr Leistung bieten wird als eine 4070 Ti, somit lohnt sich ein Upgrade nicht (für mich als 4070 Ti Besitzer). Die anderen 5000er Karten warten ja schon eine herbe Enttäuschung, warum sollte dann die 5070 Ti auf einmal so viel besser werden?
Natürlich lohnt sich ein Upgrade für 4070 Ti-Besitzer (vor allem SUPER) nicht. Aber für alle die z.B. von einer 4060 8GB aufrüsten wollen kommt die 5070 Ti gerade recht.
 
Zurück
Oben