News GeForce RTX 5090: Bei Zotac AMP Extreme gibt es dann doch die 600 Watt

RaptorTP schrieb:
Zotac: nur ein 12VHPWR Stecker?
"Wayne! - Fire it up!" 🤣👍
Aus der irrationalen Angst vor einem Stecker wird ein irrationaler Kampf dagegen. Gratuliere.^^
Ergänzung ()

mibbio schrieb:
War es in seinem Video nicht eher so, dass er den 12VHPWR gerade für seine eher knappen Reserven (Sicherheitsfaktor glaube nur 1,1 - also 660W) kritisiert hat, während man beim klassischen 8-Pin PCIe die im PCIe-Standard spezifizierten 150W ohne Bedenken um 50% könnte?
Der Sicherheitsfaktor liegt in der Theorie bei 1,1, was nur dann erreicht wird, wenn man dem Kabel eine gewisse Temperatur gibt, was es in der Praxis nur dadurch erreicht, dass andere Komponenten das Kabel erhitzen. Misst du das weiter weg vom Stecker, ist das irrelevant. Ansonsten liegt er bei 1,5. Der Sicherheitsfaktor ist darĂĽber hinaus eine rein theoretische Betrachtung.

Die ganzen Videos dazu sind völlig irrelevant, weil es nie daran lag, dass der Sicherheitsfaktor zu gering ist.
paganini schrieb:
Zudem hat Zotac extra noch eine „Sicherung“ in Form einer led eingebaut die grün leuchtet und sagt dass alles mit dem Stecker ist
Diese Sicherung gibt es nur, weil einige nicht in der Lage waren den Stecker richtig einzustecken.
Jetzt hat man trotz der 0 Fälle bei Ampere und trotz der quasi null Fälle bei Ada Lovelace, mit Ausnahme der Qualitätsmängel (die ja bekannt sind) eben zusätzlich 2 Sicherungen eingebaut, damit auch die, die zum ersten mal einen PC zusammenstecken keine Probleme bekommen können.
Maxminator schrieb:
Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:
Komplettsystem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, MalWiederIch und RaptorTP
+60 bzw. +45 MHz bei +25W im Vergleich zu den anderen Zotacs fällt bei mir im Benchmark eher unter Messtoleranz, mehr wird sich das nicht auswirken.

Kann mich erinnern, von meiner Gigabyte GTX 780 OC (954 MHz) gabs eine GHz-Edition, da könnte ich meine aber auch hinbringen ohne am Power Limit herumzuspielen. Gebracht hats nicht wirklich was.
 
Zuletzt bearbeitet:
Wie sich die Leute über die 600 Watt aufregen. Kommt NVIDIA mit MFG ist es auch falsch was den Verbrauch/FPS senken wird so wie auch DLSS. Irgendwann muss man sich nunmal entscheiden ob man mehr verbraucht oder man mit Softwarelösungen arbeitet. Aber ist ja eh egal, wird ja eh falsch gemacht :)
 
lottepappe schrieb:
""unter Last sind es dann schon gute 26 Watt. Damit ist die Leistungsaufnahme immer noch sehr hoch, aber zumindest hat es eine kleine Besserung gegeben."" Herrlich :D
Das lag ja damals daran, dass die Referenzdesigns so dermaßen schlecht gekühlt waren, dass die Leckströme vollkommen durch die Decke schossen und entsprechend selbst eine 8%-Werks-OC-Variante sparsamer agierte.
Wäre eigentlich interessant zu sehen, wie in einem Retrotest die einzelnen Architekturen abschneiden würden, wenn man jedes Mal versuchen würde, sie von Seiten des Kühlers, des SweetSpots und so weiter ähnlich auszureizen.
 
  • Gefällt mir
Reaktionen: lottepappe
Quidproquo77 schrieb:
Aus der irrationalen Angst vor einem Stecker
Ich meide das Teil aus Ăśberzeugung.
So lang es mir möglich ist.

Manchmal auch mit ĂĽberspitzen Argumenten.

Zumal ich ja sowieso keine Karte kaufe mit dem Durst, dürfte bei mir es zu keiner kritischen Erwärmung am Stecker kommen.

Max. ~280W oder gerne auch weniger sollte auch die Fehlkonstruktion schaffen.

Teure Graka (die immer größer wird - ja! nur der Kühler, klar) & Schrottstecker passen einfach nicht zusammen.

Bleib ich bei.
 
K3ks schrieb:
Die 25W (auf dem Papier) sind hier dann auch nicht mehr die Welt, aber der Verbrauch an sich ist ja schon wieder absurd... Und "OC"-Karten sind ja auch nichts, Hauptsache die Kühllösung stimmt.
Maximal ist die Abwärme für einen kleinen Raum „absurd“ - der Stromverbrauch fällt doch bei einem modernen Haushalt kaum auf, die laufen immerhin nicht 24/7 …
 
RaptorTP schrieb:
Ich meide das Teil aus Ăśberzeugung.
Dann musst du Grafikkarten und Elektronik generell meiden, denn die haben Ausfallraten bis zu 10%.
Das Kabel lag mit Nativem Kabel, bei etwa 1: 10 000 oder 1:20 000, also maximal 0,01% Ausfallrate.
Ăśberzeugung hin oder her, das ist rational nicht nachvollziehbar. Das sind Ausfallraten, wie bei jedem anderen Stecker auch.
RaptorTP schrieb:
Zumal ich ja sowieso keine Karte kaufe mit dem Durst, dürfte bei mir es zu keiner kritischen Erwärmung am Stecker kommen.
Du kannst mir immer noch mit einem Test zeigen, wo es je zu einer kritischen Erwärmung gekommen ist.
Das Angebot steht nach wie vor.
 
Bin ja eher gespannt ob die im Endeffekt wirklich so viel ziehen oder es eher ein "tob dich frei aus" Modus ist. Bin schon auf die Tests gespannt
 
Kadett_Pirx schrieb:
Einfach nur Irrsinn, wo sich das, "dank" nVidia, hinentwickelt hat.
Das hat sich nirgendwo "hinentwickelt", sondern ist rein der Tatsache geschuldet, dass es nicht ökonomisch wäre eine Karte wie die RTX 5090 mit nur 300Watt zu betreiben, dafür sind die Strompreise im Vergleich zum Kartenpreis/Waferpreis viel zu niedrig.
 
NatĂĽrlich hat es sich entwickelt und nVidia treibt es jetzt ĂĽber die Kotzgrenze, was quasi eine WasserkĂĽhlung voraussetzt. Anscheinend hast du keine Vorstellung was 600 W Heizleistung bedeuten.
 
Maxminator schrieb:
PS: war die GTX 480 nicht die fermi = thermi?
Ich denke du vergleichst den Verbrauch des gesamten Systems mit einer Grafikkarte. Früher hatten die Karten ein Standard TDP/TGP von 250W und nicht wie aktuell >450W aufwärts.
 
anexX schrieb:
Achhh man muss doch gar nicht auf 4K zocken
NatĂĽrlich nicht. Man muss noch nicht einmal in 1440P zocken.
anexX schrieb:
Die Leute sollten echt aufhören diesem "muss unbedingt dickste Graka ever haben" Gruppenzwang hinterher zu rennen und ihre Kohle einfach rationaler einsetzen.
„Gruppenzwang“? Wie kann man sich denn den Griff zu einem kleineren Modell egal welchen Konsumguts noch einfacher schönreden :p
Und „rationaler“? Nur weil es in deinem Fall rationaler wäre davon Lebensmittel zu kaufen muss das doch nicht für alle anderen der Fall sein :rolleyes:

Klar kann man auch in 1440P und mittleren Einstellungen spielen … nur warum sollte ich - vor allem bei der kleinen Differenz an tatsächlichen Kosten? Die 4090 lag in meinem Fall neu bei 1.400€ vor über 2 Jahren und wird nun für voraussichtlich 100€ mehr verkauft … alles richtig gemacht :)
Ergänzung ()

OZZHI schrieb:
Ich denke du vergleichst den Verbrauch des gesamten Systems mit einer Grafikkarte. Früher hatten die Karten ein Standard TDP/TGP von 250W und nicht wie aktuell >450W aufwärts.
Stimmt eigentlich sah es noch viel schlimmer aus, da viele Enthusiasten auf SLI/Crossfire setzten … gerne auch mal mit gleich 4 Grafikkarten … und bereits ein Jahr später waren die „Schnee von gestern“ - da sieht es heute deutlich besser aus.
 
600W GPU … geil ich brauch keine Heizung mehr im Winter und im Sommer keine Sauna mehr! :schluck:
 
MalWiederIch schrieb:
„Gruppenzwang“? Wie kann man sich denn den Griff zu einem kleineren Modell egal welchen Konsumguts noch einfacher schönreden :p
Und „rationaler“? Nur weil es in deinem Fall rationaler wäre davon Lebensmittel zu kaufen muss das doch nicht für alle anderen der Fall sein

Ohh, der klassische Fall von "Hab keine sachlichen Argumente also werd ich anmaĂźend" - leider niveaulos und langweilig - hier steig ich dann aus - viel Spass noch Kleiner. ;)
 
cru5h3r schrieb:
es gibt ja Adapter 2x8-Pin auf diesen neuen 12v 600watt Anschluss. Aber geht über einen 8pin Anschluss nicht nur 175watt? Oder gehen jetzt schon 300watt? Habe noch ein „älteres“ seasonic 1000watt von 2022 und möchte das weiter nutzen. Kann ich da ohne Probleme so einen Adapter nutzen? Bzw es gibt ja komplette Kabel dafür. Adapter möchte ich ungern nutzen.
Am besten fährst du mit einem passendem Kabel für dein Netzteil, was es mit Sicherheit nachzukaufen gibt. Was für eins ist es denn genau?

Bzgl. "was kann ein 8Pin":
Gemäß Spezifikation ist er zwar nur für 150W freigegeben, elektrisch kann er aber - bei entsprechender Umsetzung - weitaus mehr:
1736928627357.png
https://xdevs.com/guide/2080ti_kpe/#tgpoc
(Der Artikel ist von Vince Lucido und/oder Ilya Tsemenko, beides ehemalige Entwickler von EVGA.)
 
  • Gefällt mir
Reaktionen: cru5h3r
cru5h3r schrieb:
es gibt ja Adapter 2x8-Pin auf diesen neuen 12v 600watt Anschluss. Aber geht über einen 8pin Anschluss nicht nur 175watt? Oder gehen jetzt schon 300watt? Habe noch ein „älteres“ seasonic 1000watt von 2022 und möchte das weiter nutzen. Kann ich da ohne Probleme so einen Adapter nutzen? Bzw es gibt ja komplette Kabel dafür. Adapter möchte ich ungern nutzen.

Ich möchte diese Frage noch mal aufgreifen, mit der ich mich auch schon beschäftigt habe. Ich habe ein Asus Thor P2 mit 1200W.
Die 5090 kommt ja mit einem nativen 12VHPWR Kabel. Doch muss jetzt jeder sein Netzteil austauschen, um ein 12V-2x6 Port zu haben? Mein Plan wäre erstmal, ein 4 x 8 Pin auf 12VHPWR für die 5090 auszuprobieren. Corsair hat hier zu auch eine Infoseite eingerichtet, auf der die möglichen Varianten aufgelistet sind:
https://www.corsair.com/de/de/explo...r-cable-does-the-nvidia-geforce-rtx-5090-use/

Hier wird sogar die Variante 2 x 8 Pin auf 12VHPWR empfohlen, was ich allerdings kritisch finde. Was meint ihr?

Meine 4090 betreibe ich aktuell fehlerfrei mit 3 x 8 Pin auf 12VHPWR.

Edit: Ja, ich weiß von 12V-2×6. An den Kabeln hat sich aber nichts geändert, deswegen nenne ich es 12VHPWR.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne
ZurĂĽck
Oben