News GeForce RTX 5090: Bei Zotac AMP Extreme gibt es dann doch die 600 Watt

RaptorTP schrieb:
Zotac: nur ein 12VHPWR Stecker?
"Wayne! - Fire it up!" đŸ€ŁđŸ‘
Aus der irrationalen Angst vor einem Stecker wird ein irrationaler Kampf dagegen. Gratuliere.^^
ErgÀnzung ()

mibbio schrieb:
War es in seinem Video nicht eher so, dass er den 12VHPWR gerade fĂŒr seine eher knappen Reserven (Sicherheitsfaktor glaube nur 1,1 - also 660W) kritisiert hat, wĂ€hrend man beim klassischen 8-Pin PCIe die im PCIe-Standard spezifizierten 150W ohne Bedenken um 50% könnte?
Der Sicherheitsfaktor liegt in der Theorie bei 1,1, was nur dann erreicht wird, wenn man dem Kabel eine gewisse Temperatur gibt, was es in der Praxis nur dadurch erreicht, dass andere Komponenten das Kabel erhitzen. Misst du das weiter weg vom Stecker, ist das irrelevant. Ansonsten liegt er bei 1,5. Der Sicherheitsfaktor ist darĂŒber hinaus eine rein theoretische Betrachtung.

Die ganzen Videos dazu sind völlig irrelevant, weil es nie daran lag, dass der Sicherheitsfaktor zu gering ist.
paganini schrieb:
Zudem hat Zotac extra noch eine „Sicherung“ in Form einer led eingebaut die grĂŒn leuchtet und sagt dass alles mit dem Stecker ist
Diese Sicherung gibt es nur, weil einige nicht in der Lage waren den Stecker richtig einzustecken.
Jetzt hat man trotz der 0 FÀlle bei Ampere und trotz der quasi null FÀlle bei Ada Lovelace, mit Ausnahme der QualitÀtsmÀngel (die ja bekannt sind) eben zusÀtzlich 2 Sicherungen eingebaut, damit auch die, die zum ersten mal einen PC zusammenstecken keine Probleme bekommen können.
Maxminator schrieb:
FĂŒr Leute, die denken frĂŒher haben die Grafikkarten aus einem Teelöffel gesoffen:
Komplettsystem.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: ElliotAlderson, MalWiederIch und RaptorTP
+60 bzw. +45 MHz bei +25W im Vergleich zu den anderen Zotacs fÀllt bei mir im Benchmark eher unter Messtoleranz, mehr wird sich das nicht auswirken.

Kann mich erinnern, von meiner Gigabyte GTX 780 OC (954 MHz) gabs eine GHz-Edition, da könnte ich meine aber auch hinbringen ohne am Power Limit herumzuspielen. Gebracht hats nicht wirklich was.
 
Zuletzt bearbeitet:
Wie sich die Leute ĂŒber die 600 Watt aufregen. Kommt NVIDIA mit MFG ist es auch falsch was den Verbrauch/FPS senken wird so wie auch DLSS. Irgendwann muss man sich nunmal entscheiden ob man mehr verbraucht oder man mit Softwarelösungen arbeitet. Aber ist ja eh egal, wird ja eh falsch gemacht :)
 
lottepappe schrieb:
""unter Last sind es dann schon gute 26 Watt. Damit ist die Leistungsaufnahme immer noch sehr hoch, aber zumindest hat es eine kleine Besserung gegeben."" Herrlich :D
Das lag ja damals daran, dass die Referenzdesigns so dermaßen schlecht gekĂŒhlt waren, dass die Leckströme vollkommen durch die Decke schossen und entsprechend selbst eine 8%-Werks-OC-Variante sparsamer agierte.
WĂ€re eigentlich interessant zu sehen, wie in einem Retrotest die einzelnen Architekturen abschneiden wĂŒrden, wenn man jedes Mal versuchen wĂŒrde, sie von Seiten des KĂŒhlers, des SweetSpots und so weiter Ă€hnlich auszureizen.
 
  • GefĂ€llt mir
Reaktionen: lottepappe
Quidproquo77 schrieb:
Aus der irrationalen Angst vor einem Stecker
Ich meide das Teil aus Überzeugung.
So lang es mir möglich ist.

Manchmal auch mit ĂŒberspitzen Argumenten.

Zumal ich ja sowieso keine Karte kaufe mit dem Durst, dĂŒrfte bei mir es zu keiner kritischen ErwĂ€rmung am Stecker kommen.

Max. ~280W oder gerne auch weniger sollte auch die Fehlkonstruktion schaffen.

Teure Graka (die immer grĂ¶ĂŸer wird - ja! nur der KĂŒhler, klar) & Schrottstecker passen einfach nicht zusammen.

Bleib ich bei.
 
K3ks schrieb:
Die 25W (auf dem Papier) sind hier dann auch nicht mehr die Welt, aber der Verbrauch an sich ist ja schon wieder absurd... Und "OC"-Karten sind ja auch nichts, Hauptsache die KĂŒhllösung stimmt.
Maximal ist die AbwĂ€rme fĂŒr einen kleinen Raum „absurd“ - der Stromverbrauch fĂ€llt doch bei einem modernen Haushalt kaum auf, die laufen immerhin nicht 24/7 

 
RaptorTP schrieb:
Ich meide das Teil aus Überzeugung.
Dann musst du Grafikkarten und Elektronik generell meiden, denn die haben Ausfallraten bis zu 10%.
Das Kabel lag mit Nativem Kabel, bei etwa 1: 10 000 oder 1:20 000, also maximal 0,01% Ausfallrate.
Überzeugung hin oder her, das ist rational nicht nachvollziehbar. Das sind Ausfallraten, wie bei jedem anderen Stecker auch.
RaptorTP schrieb:
Zumal ich ja sowieso keine Karte kaufe mit dem Durst, dĂŒrfte bei mir es zu keiner kritischen ErwĂ€rmung am Stecker kommen.
Du kannst mir immer noch mit einem Test zeigen, wo es je zu einer kritischen ErwÀrmung gekommen ist.
Das Angebot steht nach wie vor.
 
Bin ja eher gespannt ob die im Endeffekt wirklich so viel ziehen oder es eher ein "tob dich frei aus" Modus ist. Bin schon auf die Tests gespannt
 
Kadett_Pirx schrieb:
Einfach nur Irrsinn, wo sich das, "dank" nVidia, hinentwickelt hat.
Das hat sich nirgendwo "hinentwickelt", sondern ist rein der Tatsache geschuldet, dass es nicht ökonomisch wĂ€re eine Karte wie die RTX 5090 mit nur 300Watt zu betreiben, dafĂŒr sind die Strompreise im Vergleich zum Kartenpreis/Waferpreis viel zu niedrig.
 
NatĂŒrlich hat es sich entwickelt und nVidia treibt es jetzt ĂŒber die Kotzgrenze, was quasi eine WasserkĂŒhlung voraussetzt. Anscheinend hast du keine Vorstellung was 600 W Heizleistung bedeuten.
 
Maxminator schrieb:
PS: war die GTX 480 nicht die fermi = thermi?
Ich denke du vergleichst den Verbrauch des gesamten Systems mit einer Grafikkarte. FrĂŒher hatten die Karten ein Standard TDP/TGP von 250W und nicht wie aktuell >450W aufwĂ€rts.
 
anexX schrieb:
Achhh man muss doch gar nicht auf 4K zocken
NatĂŒrlich nicht. Man muss noch nicht einmal in 1440P zocken.
anexX schrieb:
Die Leute sollten echt aufhören diesem "muss unbedingt dickste Graka ever haben" Gruppenzwang hinterher zu rennen und ihre Kohle einfach rationaler einsetzen.
„Gruppenzwang“? Wie kann man sich denn den Griff zu einem kleineren Modell egal welchen Konsumguts noch einfacher schönreden :p
Und „rationaler“? Nur weil es in deinem Fall rationaler wĂ€re davon Lebensmittel zu kaufen muss das doch nicht fĂŒr alle anderen der Fall sein :rolleyes:

Klar kann man auch in 1440P und mittleren Einstellungen spielen 
 nur warum sollte ich - vor allem bei der kleinen Differenz an tatsĂ€chlichen Kosten? Die 4090 lag in meinem Fall neu bei 1.400€ vor ĂŒber 2 Jahren und wird nun fĂŒr voraussichtlich 100€ mehr verkauft 
 alles richtig gemacht :)
ErgÀnzung ()

OZZHI schrieb:
Ich denke du vergleichst den Verbrauch des gesamten Systems mit einer Grafikkarte. FrĂŒher hatten die Karten ein Standard TDP/TGP von 250W und nicht wie aktuell >450W aufwĂ€rts.
Stimmt eigentlich sah es noch viel schlimmer aus, da viele Enthusiasten auf SLI/Crossfire setzten 
 gerne auch mal mit gleich 4 Grafikkarten 
 und bereits ein Jahr spĂ€ter waren die „Schnee von gestern“ - da sieht es heute deutlich besser aus.
 
600W GPU 
 geil ich brauch keine Heizung mehr im Winter und im Sommer keine Sauna mehr! :schluck:
 
MalWiederIch schrieb:
„Gruppenzwang“? Wie kann man sich denn den Griff zu einem kleineren Modell egal welchen Konsumguts noch einfacher schönreden :p
Und „rationaler“? Nur weil es in deinem Fall rationaler wĂ€re davon Lebensmittel zu kaufen muss das doch nicht fĂŒr alle anderen der Fall sein

Ohh, der klassische Fall von "Hab keine sachlichen Argumente also werd ich anmaßend" - leider niveaulos und langweilig - hier steig ich dann aus - viel Spass noch Kleiner. ;)
 
cru5h3r schrieb:
es gibt ja Adapter 2x8-Pin auf diesen neuen 12v 600watt Anschluss. Aber geht ĂŒber einen 8pin Anschluss nicht nur 175watt? Oder gehen jetzt schon 300watt? Habe noch ein „Àlteres“ seasonic 1000watt von 2022 und möchte das weiter nutzen. Kann ich da ohne Probleme so einen Adapter nutzen? Bzw es gibt ja komplette Kabel dafĂŒr. Adapter möchte ich ungern nutzen.
Am besten fĂ€hrst du mit einem passendem Kabel fĂŒr dein Netzteil, was es mit Sicherheit nachzukaufen gibt. Was fĂŒr eins ist es denn genau?

Bzgl. "was kann ein 8Pin":
GemĂ€ĂŸ Spezifikation ist er zwar nur fĂŒr 150W freigegeben, elektrisch kann er aber - bei entsprechender Umsetzung - weitaus mehr:
1736928627357.png
https://xdevs.com/guide/2080ti_kpe/#tgpoc
(Der Artikel ist von Vince Lucido und/oder Ilya Tsemenko, beides ehemalige Entwickler von EVGA.)
 
  • GefĂ€llt mir
Reaktionen: cru5h3r
cru5h3r schrieb:
es gibt ja Adapter 2x8-Pin auf diesen neuen 12v 600watt Anschluss. Aber geht ĂŒber einen 8pin Anschluss nicht nur 175watt? Oder gehen jetzt schon 300watt? Habe noch ein „Àlteres“ seasonic 1000watt von 2022 und möchte das weiter nutzen. Kann ich da ohne Probleme so einen Adapter nutzen? Bzw es gibt ja komplette Kabel dafĂŒr. Adapter möchte ich ungern nutzen.

Ich möchte diese Frage noch mal aufgreifen, mit der ich mich auch schon beschÀftigt habe. Ich habe ein Asus Thor P2 mit 1200W.
Die 5090 kommt ja mit einem nativen 12VHPWR Kabel. Doch muss jetzt jeder sein Netzteil austauschen, um ein 12V-2x6 Port zu haben? Mein Plan wĂ€re erstmal, ein 4 x 8 Pin auf 12VHPWR fĂŒr die 5090 auszuprobieren. Corsair hat hier zu auch eine Infoseite eingerichtet, auf der die möglichen Varianten aufgelistet sind:
https://www.corsair.com/de/de/explo...r-cable-does-the-nvidia-geforce-rtx-5090-use/

Hier wird sogar die Variante 2 x 8 Pin auf 12VHPWR empfohlen, was ich allerdings kritisch finde. Was meint ihr?

Meine 4090 betreibe ich aktuell fehlerfrei mit 3 x 8 Pin auf 12VHPWR.

Edit: Ja, ich weiß von 12V-2×6. An den Kabeln hat sich aber nichts geĂ€ndert, deswegen nenne ich es 12VHPWR.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Col.Maybourne
ZurĂŒck
Oben