Test Grafikkarten mit 450+ W TDP: RTX 4000 & RX 7000 zu kühlen wird nicht leicht

romeon schrieb:
dann produziere halt deinen Strom nachhaltig, das steht doch jedem frei. Und wenn die Voraussetzungen nicht vorliegen, dann gehe zuerst dieses Problem an ;)
Völlig richtig.
Und jetzt überlegen wir noch einmal, wie viele deiner Güter, die du zum Leben brauchst, darunter fallen und wie viel Prozent der Bevölkerung überhaupt die Möglichkeit dazu haben, diese autonom zu produzieren? Und irgendwann ist eben Schluss, wenn wir absolut immer mehr brauchen und immer mehr wollen. Die arbeitsteilige Gesellschaft hat es letztlich erst ermöglicht, zu dem Stand zu kommen, den wir heute kennen, dh Auslagerung von Aufgaben ist immanenter Bestandteil der Wirtschaftsordnung.

Nicht falsch verstehen, aber die Haltung: "Mach' doch selber, weil bei mir passt's!" ist ja eines der Grundübel, warum wir hier seit Jahrzehnten mit der Klimakrise kaum weiterkommen.

PS: Wenn du denkst, ich neide jemandem sein Hobby, dann bist du auf dem falschen Dampfer. Aber darauf sitzt eben auch NVidia, die denken, mehr Energie wird's schon richten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: markusgo1967, McTheRipper, DeadEternity und 5 andere
@Recharging : sry, mir fehlt eigentlich die Zeit für solche Diskussionen, deshalb nur der schnelle Hinweis: reden reden, meckern und die Schuld immer nur bei anderen suchen bringt niemand weiter. Mach einfach selber das, was du von anderen sehen möchtest. Und jetzt nicht "was soll ich denn alleine machen" ... schließlich soll doch der winzige Fleck Deutschland auch die ganze Weltkugel retten ;) .
 
DenMCX schrieb:
Alle labbern was von "ist doch effizienter als die Vorgeneration, wen interessiert die absolute Leistung, blablabla" -

Kannste dir nicht ausdenken diese Denkweise einiger hier...
ja.. ich versteh da die Denkweise mancher auch nicht:

einerseits wird ja offensichtlich das Maximum an Leistung benötigt, weil warum sonst sich über Flagschiff-Grafikkarten/Prozessoren gedanken machen
(an anderer Stelle hier gestern gelesen: ne 4000er Grafikkarte zahlt sich gar ned aus, weil ja "nur" 50-70% Mehrleistung)

also es kann nicht genug "Mehrleistung" sein
aber jammern wegen Stromverbrauch
wer diese Mehrleistung braucht, kann sie haben - und das bei den neuen Karten/Prozessoren mit dem geringsten Watt-Verbrauch pro REchenleistungseinheit

wem der Stromverbrauch wichtig ist: der kann die Teile etwas drosseln, und kriegt trotzdem mehr Leistung als in der Vorgängergeneration bei gleichzeitig sogar weniger Stromverbrauch

es ist ein bisschen wie wenn man Sportautos kaufen geht...
das nächste Auto jedesmal mindestens 30% mehr Leistung haben muss als der Vorgänger, aber sich gleichzeitig über 10% mehr Spritverbrauch dann aufregt

und wenns um Stromverbrauch geht - ist für die meisten Desktop-REchner wahrscheinlich sogar die TDP oder maximalleistung gar nicht so ausschlaggebend, sondern eher das was im Idle verbraucht wird
 
  • Gefällt mir
Reaktionen: Bright0001
Laphonso schrieb:
Die Umfrage ergab schon, dass sich mehrheitlich alle äußern, die mitteilen und loswerden möchten, dass sie das alles boykottieren.
Viel mehr kaufen hier, ohne das im Forum aktiv kundzutun.

Die 4090, 7950x, 13900K, 7900XT etc. Signaturen werden sich hier bald füllen, weil es weiterhin viele Top End CPU+GPU Enthusiasten gibt, trotz der Preise und trotzd des DDR5 Plattformwechsels.

So sieht es aus. Ich wollte auch keine Graka kaufen im Miningboom. Aber ich habe einen gefunden der über 800,- für meine 5700XT bezahlt hat. Also habe ich mir, natürlich überteuert, die 6700XT gekauft.
 
  • Gefällt mir
Reaktionen: Laphonso
romeon schrieb:
@Recharging Und jetzt nicht "was soll ich denn alleine machen" ... schließlich soll doch der winzige Fleck Deutschland auch die ganze Weltkugel retten ;) .
als Österreicher frag ich mich gerade, warum Deutsche immer meinen, dass sie alleine die Weltkugel retten sollen ?
 
  • Gefällt mir
Reaktionen: AQi666
Kraeuterbutter schrieb:
als Österreicher frag ich mich gerade, warum Deutsche immer meinen, dass sie alleine die Weltkugel retten sollen ?
Das sind nur ein paar Deutsche aber mit hoher medialer Aufmerksamkeit;)
 
  • Gefällt mir
Reaktionen: AQi666, markusgo1967, Voodoo_Freak und eine weitere Person
Syrato schrieb:
@MADman_One diese Konstruktion würde ich gerne zu Gesicht bekommen! 🙃
Ein paar Bilder findest Du in meinem sysprofile (siehe Signatur, der Text ist ein Link), da kann man es vielleicht erahnen (und ja, ich weiss selbst daß meine Kabel- und Schlauchführung eine optische Zumutung ist, aber es funktioniert und der Rest ist mir egal).

Im wesentlichen rührt die Lüfteranordnung daher, daß ich fast jeden Radiatorslot dieses Gehäuses mit einem Radiator versorgt habe und da dann logischerweise Lüfter draufgeschraubt (außer vorne in der Front). Und das Gehäuse kann 4 Radiatoren aufnehmen (4er + 2er unten (mit einem Netzteil, 2x 2er mit zwei Netzteilen), 4er oben und einen 3er half-height in der Front)
Als ich die Kühlung vor Jahren konzipiert habe hatte ich noch SLI und keinen MoRa (welcher jetzt auf der anderen Seite des Scheibtisches steht, sodaß der Kreislauf einmal durch den halben Raum läuft :D ), mittlerweile ist das alles eigentlich Overkill, selbst mit neueren GPUs. Aber ich brauche den Platz der Radis eh für nix anderes, also sind sie drin geblieben. Und ich wollte damals einen der Radis zwischen CPU und GPU schalten um das SLI System das ich hatte mit kühlerem Wasser zu versorgen, daher war die Vrschlauchung umständlicher. Bei mir geht Funktion und Pragmatismus immer vor Optik.

Heute kommt wohl mein 7950X, dann fliegt der alte Threadripper raus, mal sehen was das für Auswirkungen auf die Temperaturen hat ;)
 
spw schrieb:
Ich hatte schon damals in grauer Vorzeit die HD 6990 @ Arctic Accelero laufen. Locker jenseits von 500 Watt Leistungsaufnahme (Dualchip aka Crossfire auf einer Karte).

2009 gab es um 460€ das Lian Li PC P80. Ein hässliches Alugehäuse, welches mir aber alles spielend wegkühlt.
3x140er Front und Supportstrebe für schwere GPU. Flugzeughangar Dimensionen =)
Diese zwei GPU´s auf einer Karte hatten ein Standard Bios mit 375W und ein OC Bios mit 450W.
In der Praxis wurden diese Werte allerdings noch um bis zu ca. 60W überzogen. Also ja, 500W waren da drin. Dabei war sie laut und heiss wie eine F16 beim Start vom Flugzeugträger.
Ich kannte jemand der so was hatte, dachte nicht das AMD da wirklich eine zweite davon verkauft hatte.
:schluck: :mussweg:
 
Ist halt die Frage, wie man so neue 1200+ Watt Netzteile kühlen will, wenn die wieder oben montiert werden würden, außer mit 6000rpm Papst lüfter :D .
 
Sind das endlich die Karten, womit man Dinge materialisieren kann ? So eine hätte ich gerne.

Und bin ich froh, aus der Sturm- und Drangphase herauszusein und es mir so sparen kann, monatl. 50€ nur den PC-Stromverbrauch auszugeben ! 12 Lüfter zu verbauen ist kein neue Idee.
 
  • Gefällt mir
Reaktionen: Recharging
Hallo zusammen,

@Recharging
Recharging schrieb:
Ja, sie ist effizienter pro Watt als die Vorgänger, braucht aber absolut mehr.
Die Rechtfertigung in Punkto Effizienz ist für mich völlig daneben. Weil nämlich der Strombedarf völlig jenseits von Gut und Böse ist. Und das ist einfach der Fall.

Für mich ist dieser exorbitant gestiegene Strombedarf mit nichts mehr zu Rechtfertigen. Denn es kommen ja noch zudem erhebliche Kosten für den gleichzeitig gestiegenen Kühlungsbedarf dazu.

Schau nur mal hier so im Forum dich um, wie es da um mancherlei Gehäusekühlung bestellt ist. Mit Karten die nicht einmal die Hälfte soviel Strom ziehen. Absurd in meinen Augen.

Für viele kommen nochmal Neue Gehäuse dazu. Und dann muß an auch Sehen, daß das Netzteilkonzept mit den Karten der genannten Generation auch geändert gehört. Bei den meisten Neueren Gehäuse sind die NT`s nämlich noch dazu abgedeckt - wovon ich immer schon ein Gegner war -.

In meinen Augen sollte für diese Kartengeneration gleich noch eine neue Gehäusespezifikation mit einher gehen. Anders ist das mit den meisten Gehäusen nicht zu bewältigen.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: markusgo1967, McTheRipper, Ralle321 und eine weitere Person
firejohn schrieb:
Wegen den verschmorten Steckern bin ich über dieses Interview gestoßen

Die gehen leider nur auf die 30 mating cycles ein, aber nicht darauf, dass die 12Pin stecker deutlich näher an dem maximalen Strom, den Molex vorsieht betrieben werden können.
Gerade bei den großen Karten kann das zu problemen führen. Die heizen die Luft im Gehäuse zusätzlich noch deutlich stärker auf, was den Maximalstrom, der Pins reduziert, bevor eine kritische temperatur erreicht wird.

@Wolfgang Könnt ihr die Temperaturen am 12Pin Stecker und am GPU Stecker des Netzteils messen?
Gerade beim Netzteil in den Tunneln ist ja kaum ein Luftstrom an den Steckern vorhanden.
 
  • Gefällt mir
Reaktionen: McTheRipper
Luxmanl525 schrieb:
Die Rechtfertigung in Punkto Effizienz ist für mich völlig daneben. Weil nämlich der Strombedarf völlig jenseits von Gut und Böse ist. Und das ist einfach der Fall.
Die Topmodelle waren schon immer Heizeisen und die sind aufgrund des hohen Preises eher nichts für die breite Masse. Das letzte bisschen Leistung aus einem Chip rauszuholen erhöht halt die Leistungsaufnahme massiv.

Bei den kleineren Modellen ist die Effizienz aber durchaus ein Kriterium.
Ich bin letztendlich mehr oder unfreiwillig mit einem Zwischenschritt von einer 5700XT auf eine 6600 umgestiegen. Da liegen Welten zwischen der Leistungsaufnahme und das fast bei fast identischer Leistung.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@Darknesss
Darknesss schrieb:
Die Topmodelle waren schon immer Heizeisen
Das stimmt schon. Allerdings waren dieselben niemals auch nur annähnernd in solchen Regionen angesiedelt, wie die jetzige Generation. Und von den Custom-Design`s ist ja noch gar nicht die Rede. "Heizeisen" der letzten Generationen hatten allesamt wenigstens 100 Watt weniger.

Und gerade in diesen Regionen machten 100 Watt Sein oder Nichtsein aus. Weil das bei um die 350 Watt für die Kühlung schon grenzwertig war bzw. ist. Das Zeug muß ja auch irgendwo hin.

Für mich ist das Argument mit der Effizienz Augenwischerei.
Darknesss schrieb:
Ich bin letztendlich mehr oder unfreiwillig mit einem Zwischenschritt von einer 5700XT auf eine 6600 umgestiegen.
Na ja, ehrlich gesagt hätte ich eher die 5700 XT undervolted. Die hat nämlich in dem Bezug erhebliches Potential. Und ich hätte die ehrlich gesagt noch behalten. Da stimmte die Relation in meinen Augen noch richtig gut.

So long....
 
  • Gefällt mir
Reaktionen: Recharging
Danke für den Test! Ich hätte hier aber noch ein Lian Li O11D (XL) zusätzlich gewünscht. Das Gehäuse ist weit verbreitet und die Konstruktion grundlegend unterschiedlich. Schade dass ihr das nicht mit aufgenommen habt.
 
Klar explodiert die, wenn man die hälfte der Frames nicht rendert und vom Rest auch nur 1/4 rendert.

Auch scheint die Karte nicht 100% ausgelastet zu werden mit DLSS3 (CPU Limit?) Denn sie skaliert deutlich weniger durch das Supersampling als die 3090.

Ist FPS/Watt jetzt dei neue Sau, die diese Gen durchs Dorf getrieben wird?
 
  • Gefällt mir
Reaktionen: McTheRipper und Recharging
DLSS 3 sollte eigentlich dem CPU Limit entgegenwirken. Gestern gab es von DF ja ein großes Feature wo z.B. ab 10:00min darauf eingegangen wurde.

 
romeon schrieb:
sry, mir fehlt eigentlich die Zeit für solche Diskussionen, deshalb nur der schnelle Hinweis: reden reden, meckern und die Schuld immer nur bei anderen suchen bringt niemand weiter.

Dann nimm dir die Zeit oder bleib lieber Philosoph, wenn du dich keiner Diskussion stellen möchtest. 😉
Ergänzung ()

Kraeuterbutter schrieb:
als Österreicher frag ich mich gerade, warum Deutsche immer meinen, dass sie alleine die Weltkugel retten sollen ?
Ich bin auch Österreicher, das macht @romeon Zeilen der Pauschalisierung umso bizarrer.
Kraeuterbutter schrieb:
wem der Stromverbrauch wichtig ist: der kann die Teile etwas drosseln, und kriegt trotzdem mehr Leistung als in der Vorgängergeneration bei gleichzeitig sogar weniger Stromverbrauch

es ist ein bisschen wie wenn man Sportautos kaufen geht...
das nächste Auto jedesmal mindestens 30% mehr Leistung haben muss als der Vorgänger, aber sich gleichzeitig über 10% mehr Spritverbrauch dann aufregt
Hier regt sich keiner auf, ich stelle es zur Diskussion, ob es eine Entwicklung ist, die in irgendetwas Anderes mündet, als noch mehr Verbrauch?
Luxmanl525 schrieb:
Die Rechtfertigung in Punkto Effizienz ist für mich völlig daneben. Weil nämlich der Strombedarf völlig jenseits von Gut und Böse ist. Und das ist einfach der Fall.
Das war keine Gutheißung, wir tröten in dasselbe Horn, ich finde das auch mittlerweile sehr bedenklich, in welche Richtung das mit dem Brecheisen getrieben wird und zeitgleich, so sehr ich das Hobby seit Jahrzehnten liebe, von vielen, als "Nun ja, ist halt so ..." hingenommen wird. Möchte man darüber diskutieren, wohin das führt, wird man halt schnell in die Schublade gesteckt, dass man ein Neider ist. Leider. Nichts liegt mir ferner ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525 und daknoll
Youngtimer schrieb:
DLSS 3 sollte eigentlich dem CPU Limit entgegenwirken. Gestern gab es von DF ja ein großes Feature wo z.B. ab 10:00min darauf eingegangen wurde.

Aber irgendwas bremst bei der 4090.
Die 3090 bekommt durch DLSS 72% mehr FPS
Die 4090, (Frame doubling rausgerechnet) steigt von 59,9 -> 85 = 42% mehr FPS

Dem CPU Limit wird ja auch nicht entgegen gewirkt, das ist doch Bauernfängerei.
Gemessen an den Frames die am Monitor ankommen, mag das zwar stimmen, die Engine selbst läuft durch das Framedoubling aber nicht schneller, und dadurch auch alle Dinge, um die sich die Engine kümmert.

Man erkauft sich mit DLSS3 ein haufen Nachteile, nur damit man einen längeren Balken bekommt. Der einzige Lichtblick ist Reflex, das verwendet werden muss (natürlich wieder nur für Nvidia Nutzer...)
 
  • Gefällt mir
Reaktionen: Recharging
Zurück
Oben