Test Grafikkarten mit 450+ W TDP: RTX 4000 & RX 7000 zu kühlen wird nicht leicht

Zuletzt bearbeitet:
modena.ch schrieb:
Wenn Navi 32 (7700XT?) 250-300W nimmt und damit 30-50% schneller wird als ne 6900XT ist das ein gutes Ergebnis. Auch wenn der Verbrauch im ersten Moment für ne 7er Karte hoch erscheint.
Das wäre für die nächste Generation dann aber schon ein großer Leistungssprung, wenn dann eine 7900xt fast 100% schneller wäre. Ich denke eher das man bei einer 4070 und 7700xt die aktuelle High-End Leistung bekommt. Aber ich lasse mich gern überraschen, falls es dann doch anders kommen sollte.
 
IsaacClarke schrieb:
Bei mir sind 300 Watt die Grenze bei einer Karte

Aus über 20 Jähriger Erfahrung ist meine Obergrenze 150W.
Meine RX470 hat eine TDP von 120W und nur 1x 6 Pin Anschluss.
Sie ist dabei so schnell wie eine RX6500XT.
Man sollte erwarten das wir mit RDNA 3 für 120W schon einen Speed einer 6700XT erreichen.
Das hier verbraucht meine Karte mit ein bisschen Feintuning (ohne Speicheranbindungsverbrauch) beim Spielen.
So ist die Karte unhörbar und erhitzt den Raum im Sommer nicht.
Befeuert wird sie von einem AMD Ryzen 5 mit 6 Kernen und 65W TDP.
PS: Das Bild war mit über 5 Jahre alter WLP, daher die 82C°.
Hab seit der neuen WLP knapp 30C° weniger.
Die Karte wird im Juli 6 Jahre alt.
 

Anhänge

  • RX470 56W.jpg
    RX470 56W.jpg
    562,8 KB · Aufrufe: 222
  • RX 470 920mhz 55C°.JPG
    RX 470 920mhz 55C°.JPG
    305,2 KB · Aufrufe: 221
  • IMG_20181107_140212.jpg
    IMG_20181107_140212.jpg
    1,5 MB · Aufrufe: 229
  • Gefällt mir
Reaktionen: daknoll
Auf die CPU irgendeinen Luftkühler, in den Deckel darüber einen 420mm Slim Radiator mit ausblasenden Lüftern und fertig ist der Lack.

nullproblemos.jpg
 
  • Gefällt mir
Reaktionen: Youngtimer
tnev schrieb:
Eigentlich könnten Netzteile wieder nach oben wandern
Oben kommt doch die warme Luft von CPU und GPU zusammen, da werden die potenten Netzteile, bei dieser Hardware, auch nicht lange leben.
 
Nachdem die ersten Geruechte geleakt sind habe ich begonnen komplett umzudenken. Ich denke nicht mehr in Geldbetraegen und Leistungsplus fuer GPUs sondern ein hartes Cap dafuer wie viel W meine GPU ziehen darf. Ich habe ein hartes Limit bei 300W gesetzt. Ich habe eine undervoltete Vega 56 und die frisst je nach Spiel 180-230 W. Ich finde das bereits nahezu unertraeglich im Sommer (Fuer mich gibt es kein Sommerloch was das Zocken angeht :P ). Wenn man den Geruechten glauben darf werde ich unter 300 W mit der Next Gen im besten Fall 3090 (Ti) Performance bekommen in Form einer 4070/7700XT Finde ich irgendwie ernuechternd. Ich denke aber es wird auf jeden Fall diesmal eine NVidia GPU werden. Ich habe nach der Vega keine Lust mehr bei so gut wie allem zurueckstecken zu muessen. Sei es Treiber Prioritaet von Seiten der Spieleentwickler oder grundsaetzliche Features die AMD nicht anbietet. Ich denke ab 4080/7800 XT Tier und abwaerts werden sich weder AMD noch nVidia Performance technisch viel nehmen. Erst oberhalb hat ja, wenn man den Geruechten glauben darf AMD ja scheinbar die Nase vorn.
 
HoschY1987 schrieb:
Meine 3090 ist der Grund warum ich mir nen benchtable zugelegt habe. Unfassbar was das Ding (vor allem auf der Backplate) an Wärme abgibt. Ich hab im Winter nicht einmal heizen müssen.
Yep, same here, kann ich nur bestätigen. Habe zwar keine Benchtable sondern "nur" ein Corsair 900D aber auch ich habe im Winter nicht heizen müssen, einfach ein bißchen Cyberpunk zocken und schnell wird es mollig warm im Raum. Nur im Sommer werde ich ein anderes Hobby brauchen, ohne Klimaanlage überlebt man das hier nicht ;)

Die nächste Gegneration kommt bei mir wieder unter Wasser, dieses Mal war erst nichts lieferbar und dann war ich zu faul. Aber WaKü ist die einzige vernünftige Chance aus meiner Sicht eine 4000/7000er Top-Karte zu kühlen.
 
  • Gefällt mir
Reaktionen: Visualist
thepusher90 schrieb:
Ich habe ein hartes Limit bei 300W gesetzt. Ich habe eine undervoltete Vega 56 und die frisst je nach Spiel 180-230 W. Ich finde das bereits nahezu unertraeglich im Sommer

Genau diese Unerträglichkeit kenne ich. Und du hast die ja auch schon bei 180W. Daher ist mein Cap bei 150W.
Dann merkt man kaum noch was.

thepusher90 schrieb:
Ich denke aber es wird auf jeden Fall diesmal eine NVidia GPU werden. Ich habe nach der Vega keine Lust mehr bei so gut wie allem zurueckstecken zu muessen. Sei es Treiber Prioritaet von Seiten der Spieleentwickler oder grundsaetzliche Features die AMD nicht anbietet.

Bei mir ist es umgekehrt. Nvidia hat nichts was genau so gut ist wie der Wattman :D
 
  • Gefällt mir
Reaktionen: thepusher90
Ich glaub in Zukunft wird es Grafikkarten schon mit Gehäuse und Wasserkühlung als Paket geben wo alles passt. Für die Leute die kein Bock haben ne komplette Haus Sanitär Rohrverlegung in ein Gehäuse zu Quetschen nur um festzustellen, das es für 450 Watt doch wieder am Limit läuft.
 
DragonScience schrieb:
Ich glaub in Zukunft wird es Grafikkarten schon mit Gehäuse und Wasserkühlung als Paket geben wo alles passt.
Das nennt man Fertig-PC, willkommen in der Zukunft :D
 
Enurian schrieb:
Das nennt man Fertig-PC, willkommen in der Zukunft :D
Ja der war jetzt solala :D. Aber 450, 600 oder 900 Watt Graka in nem Rechnergehäuse drinn gekühlt auf 90 Grad und ohne das es lärmmäsig nerft.
Da freut sich meine technische Faszinazion echt drauf zu sehen wie sie des umsetzen.
 
Zuletzt bearbeitet:
IsaacClarke schrieb:
Bei mir sind 300 Watt die Grenze bei einer Karte, meine RTX3090 FE habe ich auf 775mv@1740MHz untervoltet, bei kaum Leistungsverlust, die Karte bleibt kühl und vor allem leise, die 300Watt sehe ich nur selten.
Mache ich auch so.

Aber entspricht leider nicht der Realität von ca. 90% der Kundschaft.

Die waren aber auch mit ner billigen 120mm AiO in OEM PCs + 11900k zufrieden.

BTT:
Schätze hier wird, wie überall ein Fass aufgerissen, um Klicks zu generieren.
Wenn jemandem der PC zu laut wird, wird er sich hoffentlich damit beschäftigen und den Airflow verbesseren, oder undervolten, oder bestenfalls beides.

Auch meine 3080ti Aorus zieht ohne UV 450w.
Im Dark Base 900 rev 2 kein Problem damit.
3x140mm silent wings 3 at 800rpm intake.
140mm Fan + 280mm Aio outtake (cpu gesteuert). Funkt easy.

Nach UV verbraucht die GPU jedoch nur ca. 300w. Nun laufen die ganzen Fans nochmal um gute 10% langsamer.
 
rysy schrieb:
Ausnahme: Du stellst den Big-Tower neben den Monitor. :evillol:
Mein Rechner steht auch auf dem Schreibtisch neben dem Monitor. Allerdings primär, da der Tower kaum unter den Schreibtisch passt xD

Ich habe grade vor ein paar Tagen überlegt, ob ich meinen CoolerMaster HAF-X bald mal in den Ruhestand schicke. Nach dem Test glaube ich, ich spendiere dem Gehäuse einfach mal neue Lüfter von Noctua :D (Schade, dass sich deren 140mm Neuauflage weiter verzögert. Hatte gehofft vielleicht bald einen 200mm Refresh zu sehen.)
 
jackii schrieb:
Hm vielleicht, aber er schrieb eben dass man in den guten alten Zeiten (2017) stolz auf die Effizienz war und der Trend in die falsche Richtung geht.. Also sie ineffizienter geworden sind und es weiter werden.
Und das stimmt nicht, ganz egal wie viel Strom das Topmodel in absoluten Zahlen verbraucht.
Auch wenn die Graka 1900W zieht, kann und wird sie damit sehr effizient sein.
Es stehen unter jeder News Kommentare dass sie jetzt mehr verbrauchen würden usw. Aber ne, verglichen mit der Leistungen, verbrauchen sie weniger als jemals zuvor.

Also ich bleib bei meiner Aussage, es gab und gibt kein Trend weg von Effizienz und wenn man keine 450 TDP möchte, dann einfach nicht die dickste und teurste Karten kaufen die man finden kann.
Genau. Meine 3090FE mag zwar 350W verbrauchen, also 100W mehr als die 1080Ti, die ich vorher drin hatte.
Aber dafür ist die Leistung der 3090FE 100% besser. Also 200% Leistung bei 140% Verbrauch... ergo 30% Effizienter... Selbst die 3090Ti ist immernoch effizienter als so ne 1080Ti...
Man kööönte allerdings auch sagen die 3090 ist minimal weniger effizient als ne 2080Ti..

Wenn nun die neue 4090Ti 900W hätte, aber dafür 3x die Leistung einer 3090... Wäre das 300% Leistung bei ~261% Verbrauch... trotzdem effizienter als eine 3090....wenn auch nur ca 13%...

AMD hatte auch nicht viel mehr geleistet...die 5700XT vs 6700XT 130% Leistung bei 100% Verbrauch.
Wobei vor der 5700XT kam ja Vega56 und diese ist laut Datenblatt 15W effizienter als die 5700XT bei selber Leistung (TFLOPS):freak:

Alle Daten habe ich aus den englischen Wiki Seiten und nur grob umgerechnet...ich übernehme keine Haftung auf Fehler...

Wenn ich meine Kugel angucke, dann sehe ich:
Wenn AMD 2x 400mm² DIEs verbaut, die Leistung auf 60TFLOPS, bei 400W. Preis bei etwa 1399€.
Nvidia liegt bei 600mm² (vermutlich selbe Größe wie Ampere GA102) bei 65TFLOPS und 450W mit 1999€ XD.
Das wäre der Fall, wenn man die den Verlauf der letzten 3 Generationen anguckt und die Gerüchte um die Anzahl der Shader für Bare Münze nimmt.
Ich erwarte nicht, das man einen höheren Verbrauch bekommt als die 3090Ti...
 
  • Gefällt mir
Reaktionen: jackii
Irgendwie Panne was da abgeht. Völlig aus der Zeit gefallen.
Ich werde meine RTX3070 nur durch eine Karte ersetzen die ein paar Prozente mehr Leistung erbringt und gleichzeitig hoffentlich mehr als 8GB Ram mitbringt und dabei ggf. etwas weniger Strom verbraucht als die 3070. Das kann dann auch gerne eine RTX4060 oder RTX 4050Ti sein. Ich werde das Rennen an der Stelle nach 20 Jahren dahingehend beenden

Warum eigentlich auf einmal die quasi offenen Powerlimits? Fällt denen nichts mehr ein um die Leistung zu steigern?
:)
 
KlaasKersting schrieb:
Das liefert eine 3060 Ti bereits seit Ende 2020, da kannst du also mit deutlich mehr rechnen.
Um so besser. Einziges manko der 3060 Ti, nur 8GB VRAM, daher hoffe ich das die RTX4000@200 Watt etwas mehr VRAM hat und der Preis "normal" sein wird.
 
Beitrag schrieb:
Wenn du im selben Zimmer wie der MoRa sitzt und das Zimmer nicht allzu groß ist, könnte es im Sommer dann doch stören. ;)
Früher... Vor langer Länger Zeit... als ich noch ein Kellerkind war hatte ich durchgehend 21°C egal wie heiss das war.
Nun in ner Dachwohung sind 27-31°C normal.
Dazu 3 computer... also ja... Was für nen Glück hats nen See im der Nähe.

Der Schwachsinn mit immer mehr Watt für die GPUs ist definitiv nicht einfach so zu ignorieren.
 
Ich sehe das Problem vor allem im ATX Standard mit der Grafikkarte senkrecht zum Mainboard. In jeder Richtung istcdem airflow ein Blech oder PCB im Weg. Sinnvoll wäre es, die von der Grafikkarte erwärmte Luft direkt aus dem Gehäuse zu bringen und nicht noch an den anderen Komponenten vorbeizuleiten. Beim Torrent ist der airflow noch halbwegs gerichtet, bei den anderen ist der Bereich unterhalb der Grafikkarte schon eher eine totzone wo sich die Wärme von den Grafikkarten Lüftern verwirbelt halt irgendwie verteilt.
Für Luftkühlung solcher Wärmeabgabe sind Gehäuse mit riserkarten und getrennten Kammern sinnvoll.
 
Zurück
Oben