@Harald99
"Wenn so ein Programm läuft"...
Verstehst du überhaupt, was du das verlinkt hast und was "CUDA" überhaupt ist?
Obwohl, warte... die Frage kann ich mir eigentlich schon selbst beantworten.
- "CUDA" ist erstmal nur eine Programmierschnittstelle/API. Das was du meinst, sind die CUDA-Cores (also die Hardware-Komponente). Hiermit werden einfach nur Gleitkomma-Operationen beschleunigt. Hat mit "Vollauslastung deiner GPU" aber deswegen noch lange nichts zu tun.
Der von dir verlinkte Artikel ist in komplettem "broken english" verfasst und nur wenig schlüssig. Letztlich geht es aber um DataScience und darum, ob eine reine CUDA-Anwendung den Power-State einer GPU bis auf P0 anheben kann (also den Maximaltakt der GPU nutzen kann). Auch wenn die GPU auf ihren maximalen Takt gehoben wird, hat das immer noch nichts mit Vollauslastung zu tun, da z.B. der VRAM der Graka zu 99% ungenutzt bleiben kann und damit die Graka immer noch weit weg ist, von "100% Load".
Der Artikel ist fast 8 Jahre alt (!). Damals war die GTX1080Ti das Maß aller Dinge. Es gab also noch nichtmal Karten mit Tensor-Cores oder RT-Cores. Schlichtweg, weil es so etwas wie z.B Hardware-beschleunigtes Raytracing auf Consumer-Karten noch überhaupt nicht gegeben hat.
Eine RTX5090 hat >21.000 Cuda-Cores... und nun? Ein Spiel kann durchaus nur 1500 davon belegen und dann liegen noch ~20.000 Cores ungenutzt in der Gegend rum. Ist die Karte damit voll ausgelastet? Logischerweise ist sie das nicht. Vor allem wenn man sich unterhalb der 4K-Auflösung bewegt, gönnt sich kein heute am Markt befindliches Spiel darartige Mengen an Cuda-Cores. Soviel zu "Cuda belastet die Karte am meisten".
Selbst wenn die Karte auf 100% Takt läuft, 100% VRAM genutzt wird und alle verfügbaren Cuda-Cores belegt sind, bleiben z.B. immer noch RT-Cores brach liegen. Somit ist der Verbrauch der Karte immer noch nicht im Maximum und somit auch die maximal mögliche Hitzeentwicklung der Karte noch nicht erreicht.
Könntest du mir mal verraten, welche Anwendungen du nutzt, die CUDA benötigen und falls dir welche bekannt sind; weißt du wieviele Cuda-Cores deiner 2070 überhaupt genutzt werden?
Als kleinen Vergleich könnte ich auch stumpf sagen:
Deine SSD ist automatisch schnell, weil es eine "m.2-SSD" ist. Macht das Sinn? Nein.
Denn m.2 ist erstmal nur die Hardware-Schnittstelle und sagt nichts über Performance, Bandbreite, IOPS etc. aus. Es könnte immer noch eine m.2-SSD mit SATA-Protokoll sein und damit dann auch verdammt langsam.
Ist genauso stumpf wie: "..wenn CUDA genutzt wird, dann ruckelt deine Grafikausgabe"
Wie kann z.B. eine AMD 7900XTX in Rasterizer-Games mehr Leistung bieten, als eine RTX4080?
Eine RTX4080 hat beinahe 10.000 Cuda-Cores und eine 7900XTX hat überhaupt keine. Nach deiner Logik wäre das ja ein Ding der Unmöglichkeit.
PS: Und ja, natürlich wäre die 4080 jetzt in RT-Games, wie CP2077 o.ä., wieder schneller, aber das liegt an den RT-Cores und nicht an den Cuda-Cores. Und für z.B. DLSS sind vorrangig die Tensor-Cores gedacht. Hat zwar auch mit Cuda zu tun, aber nur am Rande.
Harald99 schrieb:
Ich habe einen Händler für die Lüfter gefunden. Sobald ich es verbaut und getestet habe, berichte ich.
Somit hast du dich gegen die ausdrückliche Empfehlung (fast) aller User entschieden, die dir hier ihren Rat gegeben haben. Wozu dann überhaupt einen Thread erstellen, wenn die einschlägige Empfehlung dann ohnehin ignoriert wird?!
Ich glaube entsprechend uninteressant ist dann auch das Ergebnis deines Lüfter-Tausches. Alte Lüfter "machen Krach", die neuen tun es dann wahrscheinlich nicht mehr. Wobei nicht geklärt ist, warum die Lüfter überhaupt Krach machen?!
Krach, weil die Lüfter einen Lagerschaden haben?
Oder Krach, weil die Drehzahl permanent viel zu hoch ist?
Wenn Zweiteres der Fall ist, sind nicht die Lüfter schuld, sondern die Wärmeleitpaste der Karte ist ausgetrocknet (und/oder auch die Wärmeleitpads). Das würde auch zum Alter der Karte passen, denn die ist nun doch einige Jahre alt. Dann würde ein reines GPU-Repasting genügen und die Karte ist wieder leise (siehe z.B. den Link in meiner Signatur). Aber das nur am Rande...