News GeForce RTX 5090: Bei Zotac AMP Extreme gibt es dann doch die 600 Watt

Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:

PS: war die GTX 480 nicht die fermi = thermi?
IMG_1916.jpeg
 
  • Gefällt mir
Reaktionen: MalWiederIch, OZZHI, Raptor85 und 5 andere
Ich frage mich ja, wo der Sweet-Spot bei der 5090 liegen wird. Bei der 4090 war es meines Wissens nach bei etwa 240 Watt mit 50% Power Target?
 
thuering schrieb:
aber vom physikalischen (Steckeraufbau, Aderquerschnitt) gehen da auch 4stellige Wattzahlen drüber.
Sobald die unter LN2 steht wissen wir wie viel da durch geht ^^

PS828 schrieb:
575.. 600.. alles das selbe :D das ist dann auch egal
Nein! Das sind 4.34% unterschied!
Aber performance bedingt vermutlich irrelevant da die Chipgüte wohl grössere Auswirkung hat ^^
 
  • Gefällt mir
Reaktionen: PS828
600W - Die Zukunft des PC Gamings.
Ich finde das nur noch absurd.
 
  • Gefällt mir
Reaktionen: SirNiffler, RaptorTP, Krik und 2 andere
600W ist komplett absurd. Wie soll ich das mit Luft kühlen im Gehäuse?
Meine aktuelle 3080 hat Stock 380W. Sehr laute GPU und schwer das Gehäuse kühl genug zu bekommen.
Hab sie auf 270W runter und dabei gerade mal 10% fps verloren. Jetzt ist es angenehm leise.

Unter 300W scheint mir ein angenehmes Ziel für eine GPU zu sein. So ein 600W Kloppi würd ich nicht geschenkt nehmen.

Man muss aber dazu sagen dass ja Energieffizienz an sich steigt. Sprich man kann einfach eine 350-400W Karte nehmen und die auf 250W runterdrehen und undervolten für leise und effiziente FPS.
 
  • Gefällt mir
Reaktionen: nERdWIN, RaptorTP und ReVan1199
Ne, ich nicht.
Schon seit 6 Jahren unter 30dB
4x 180mm @ 350 u/min
 
  • Gefällt mir
Reaktionen: Haldi
Maxminator schrieb:
Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:

PS: war die GTX 480 nicht die fermi = thermi?
Anhang anzeigen 1569979
Das ist aber die Leistungsaufnahme des ganzen PCs, da kannste unter Last locker 150W abziehen.
Die GTX480 hatte ne TBP von 250W, die 5870 190W
 
  • Gefällt mir
Reaktionen: Besuz, Obvision, Felix# und 7 andere
600 W???? Wird ein kleines Kraftwerk auch mitgeliefert?
 
Irgendwie finde ich diese Generation zunehmend abschreckend.
Gut, dass ich nur ein 750W Netzteil verbaut habe, damit fallen die durstigsten Karten schonmal flach und ich komme gar nicht erst in Versuchung. :)
 
  • Gefällt mir
Reaktionen: SirNiffler und MaverickM
Negan75 schrieb:
Wer sich so eine Karte holt hat auch genug Kohle für Strom

Es interessiert eigentlich nicht, ob sich wer sowas (+ den Unterhalt dafür) leisten kann oder nicht.

Die Frage stellt sich eher nach dem warum bzw. nach dem sollte man. Aus meiner Sicht: Umwelttechnisch nicht sehr verantwortlich.
 
  • Gefällt mir
Reaktionen: PulsarS, RaptorTP und daknoll
RaptorTP schrieb:
Zotac: nur ein 12VHPWR Stecker?
"Wayne! - Fire it up!" 🤣👍
Ich freue mich jetzt schon auf kommende News dazu.

Rickmer schrieb:
wenn die Karten eh nur immer größer werden?...
Gute Frage.
Jetzt wo du es ansprichst, interessiert mich das auch.

Negan75 schrieb:
hat auch genug Kohle für Strom :D
Hamburger Energiewerke regeln aka Ökostrom.

Maxminator schrieb:
Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:
Nix aus der Multi-GPU Fraktion gefunden gehabt?
Die Werte sind ja nicht mal ansatzweise Interessant.

Inxession schrieb:
Kommt wieder in verbesserter Form.
Quelle

Gruß Fred.
 
  • Gefällt mir
Reaktionen: RaptorTP
Maxminator schrieb:
Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:

PS: war die GTX 480 nicht die fermi = thermi?
Anhang anzeigen 1569979

Nur dass die Nachfolgergeneration in Form einer GTX 570 bei gleicher Leistung einer GTX 480 ein TDP von nur 220W hatte. Und wem die 1,28GB VRAM zu wenig waren (gegenüber den 1,5GB der 480) konnte sich von EVGA eine GTX 570 mit 2,56GB holen. Selbst die GTX 580 gab es später noch mit 3GB, da NVIDIA dieser auch nur 1,5GB spendiert hatte. ^^
 
Inxession schrieb:
FR3DI schrieb:
Kommt wieder in verbesserter Form.
Quelle

Gruß Fred.
Wohl kaum, denn Multi-Graka ist, ähnlich wie Multi-CPU, für Gaming schlecht geeignet. Einiges an Hintergrund:
Lass dich nicht durch den Begriff Multi-GPU betuppen:
CDLABSRadonP... schrieb:
Generell kann ich nur davor warnen, dem Tod von Multi-Graka im Consumerbereich nachzutrauern. Meistens schwingt dabei auch eine Gefühl von Multicore-CPUs haben sich doch auch durchgesetzt, wieso nicht Multi-GPUs? Doch sinnvolle Vergleichswerte liefern nicht Multicore-CPUs, sondern Multi-CPU-Systeme. Diese sind auch enorm aufwändig und ergeben nur im Serverbereich Sinn.
Die aktuelle Hoffnung, Multi-DIE-GPUs (im Consumersektor, im Serversektor bereits auf Seiten AMD und Intel Realität, bei Nvidia mit der nächsten Gen) zu bauen stellt das Gegenstück dazu dar, Multi-DIE-CPUs zu bauen. Von denen gab es bereits diverse, die Core2Quads waren (unabhängig der Generation) alle welche in ziemlich simpel, die Ryzen mit mehr als acht Kernen ab Matisse auch sowie jeder Threadripper dann in deutlich anspruchsvoller gebaut. Aber da geht noch viel mehr an Komplexität...
therealcola schrieb:
Du erzählst mir nichts neues in Bezug auf der Funktionalität und Performance von Cross Fire, trotzdem gab es zu der Zeit wo Crossfire funktionierte meist nur DX11 in den Games und aus Entwickler Sicht wäre es mit DX12 möglich gewesen noch mehr aus einem Cross Fire gespann raus zu kitzeln.
therealcola schrieb:
Ich kann mich noch an einigen news zu DX 12 erinnern das so hoch gelobt wurde weil cross fire dann noch besser läuft etc. aber genau dann als DX12 sich immer mehr durchgesetzt hat habe ndie es wieder abgeschafft.
DX12 bot und bietet sowohl Möglichkeit, eine bessere Version von AFR umzusetzen (genannt FramePipelining) als auch die zweite GPU (und ihren Speicher, ...) anders zu nutzen. Zu ersterem lohnt sich ein Blick hierein:
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12-part-2
Zu letzterem sei ganz einfach gesagt, dass beliebige komplett oder zumindest recht unabhängige Aufgaben der zweiten Graka zugeschustert werden können. (GPGPU-Aufgaben für die Spiele-KI, Physikaufgaben, Postprocessing)
In beiden Fällen...
therealcola schrieb:
Aber deine genannten Aspekte sind natürlich valide, gerade im Bezug auf den Stromverbrauch.
...bleiben aber einige der Probleme bestehen, im ersteren Fall sämtliche. Außerdem müssen die Grafikkarten auch miteinander kommunizieren können und obwohl die PCIe-SIG ja in den letzten Jahren wieder kräftig das Tempo bei der Entwicklung von neuen PCIe-Standards angezogen hat, bleibt dies ein Flaschenhals.
therealcola schrieb:
Und ja die Zukunft sind Single Gpus mit multi Kerne aber das wird mit Sicherheit auch nicht billiger. Oder? Amd will wohl auch noch hmb stacks drauf machen etc ^^
Einfach gebaute Lösungen sind mit Sicherheit günstiger. Die Strategie, von der sie mit ziemlicher Sicherheit träumen, ist halt das gleiche wie bei den CPUs: Nur noch ein Compute-Die fertigen. Das hat ihnen bei Ryzen-Threadripper-EPYC unglaublich viel gespart. Doch ja, mittlerweile gibt es auch noch V-Cache obendrauf, V-Cache untendrunter als Base-Tile, H-Cache wie bei RNDA 3 und und und. Das einzuschätzen ist schwierig. Aber wenn ihnen der Kernschritt gelinkt, dann sparen sie dadurch sicherlich drastisch.

Bei HBM hängt alles davon ab, wie die Entwicklung eines Budget-Ablegers voranschreitet, der nicht mehr an Server-HBM-Kapazitäten knabbern würde. Aktuell reicht der Servermarkt nämlich schlicht aus, um sämtliche HBM-Kapazitäten abzunehmen. → es braucht einen Ableger, der nicht mit Serverlösungen konkurriert.
Was kommen wird, sind GPUs mit vielen Compute-DIEs. Und dort ist davon auszugehen, dass die Leistungsaufnahmen durch die Decke gehen. Statt einem DIE mit 500W wird man dann zwei DIEs mit je 400W nutzen --- die Effizienz steigt dadurch trotzdem, dadurch bleibt alles kühlbar, aber die absolute Leistungsaufnahme geht durch die Decke.
 
Interessanter wird sein ob die 5090 mit ihrem TDP-Budget auch die Leistung voll ausfahren kann oder ob sie immer eingebremst wird.

Man sieht ja bei den Balken von NVIDIA, dass der Leistungszuwachs von 4090 zur 5090 bei Far Cry weniger stark ausfällt als bei der 4080 im Vergleich zur 5080.

600W oder selbst 500W würde ich auch nicht als Abwärme im Gehäuse haben wollen. Das frittiert direkt die RAM-Riegel. :D
 
  • Gefällt mir
Reaktionen: RaptorTP
So lange die NVME SSD nicht schon im IDLE von der hitzigen GPU ausgebremst wird :lol:
 
Zurück
Oben