Leistungsaufnahme vs. erbrachte fps - 4090

Also wie sich Asus verhält ist ein Unding aber halt auch nicht unbekannt.

Ich hätte die Karte ja nicht eingeschickt sondern einfach die WLP selbst gewechselt. Es ist doch inzwischen bekannt das die hohen Hotspot Temps bei der 4000er Serie mit der Zeit entstehen weil die OEMs dort Zahnpasta als WLP verwendet haben. Ich meine Igor hatte dazu einen Artikel.

Ich musste inzwischen auch an meiner 4080 Suprim X von MSI deswegen die GPU repasten.
Das was da von Werk aus aufgetragen war hatte eher was von Putz.

Garantie ist dafür natürlich weg, aber gemessen an dem Verhalten von Asus eigentlich auch egal.

Lass dir doch die Karte zurück geben und tausche die WLP selbst. Ich wage zu bezweifeln das du die dazu bekommst irgendwas zu reparieren.
 
  • Gefällt mir
Reaktionen: Tornavida
Klar kann man das selbst wieder in Ordnung bringen, aber ich finde hier gehts ums Prinzip. Asus verhält isch wie ein Autohaus das bei einem Wagen der mit ständig überhitzem Motor in der Werkstatt steht die Garantie ablehnt weil vorne rechts an der Stoßstange ein Parkrempler ist und deshalb diese etwas zerkratzt ist :freak:
Wenn man sich nicht gegen sowas wehrt werden sich die Hersteller immer mehr rausnehmen.
 
  • Gefällt mir
Reaktionen: Azghul0815 und DJMadMax
Ich habe die Karte nun zurückgefordert, gemäss Brack sollte es 7-10 Tage brauchen bis sie von ASUS zu Brack und dann zu mir zurück ist.

Daneben habe ich mit den Aussagen von ASUS und den gegebenen Bildern sowohl Gamersnexus als auch SRF Espresso/Kassensturz (quasi ne Art Verbraucherschutz in CH) über den Fall informiert, mal schauen ob irgendwer drauf anspringt.
Ich werde die Karte, sobald sie zurück ist, selbst fixen (die aktuell genutzt RX6600 ist doch seeeeehr lahm für 7680x2160 :D und das ertrage ich nicht länger als nötig). Ich werde die Karte dann öffnen und die Pads ausmessen (konnte nichts finden, wie dick die Pads sein müssen) und dann entsprechend Ersatz besorgen. Vermutlich Thermal Grizzly Minus Pad 8 + Kryosheet, oder gibt es andere Vorschläge?
 
  • Gefällt mir
Reaktionen: coxon und DJMadMax
@Geisterwolf
Statt Kyrosheet ein Honeywell Phasenchangepad :)
Hat die FE ab Werk und degradiert nicht.
Kyrosheet lohnt sich ja nur wenn man oft zerlegt und wieder zusammenbaut da es für Mehrfachnutzung gedacht ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coxon und DJMadMax
  • Gefällt mir
Reaktionen: Mr. Smith, coxon und Asghan
  • Gefällt mir
Reaktionen: Geisterwolf, coxon und DJMadMax
Salve,

Seit heute habe ich die Karte zurück und funktioniert wie zuvor, so weit so gut, zumindest durch nichts schlimmer geworden.
Dann habe ich den Kühler demontiert um die Thermal Pads durchzumessen (Länge, Breite, Dicke), damit ich weiss, was ich bestellen müsste. Nun ist bei der Demontage aber widererwaten keins kaputt gegangen. Meine Erfahrung mit Themal Pads beschränkt sich auf "wenn kaputt, dann definitiv neu". Aber wie sieht es in diesem Fall aus, würdet ihr die Pads dennoch ersetzen, denn die GPU eh schon offen ist, oder die jetzigen weiternutzen?
Das besagte PTM7950 dingens habe ich organisiert und liegt hier, könnte also theoretisch alles direkt wieder zusammengebaut werden.

Bisher hat sich übrigen niemand gemeldet.

Grüssle
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Die Originalen vom Kauf im März 2023
 
Würde ich drauf lassen
 
  • Gefällt mir
Reaktionen: Asghan
TPM drauf und ab dafür.

@Geisterwolf kannst du vorher vielleicht ein paar gute Fotos der Platine machen?
 
  • Gefällt mir
Reaktionen: DJMadMax und Azghul0815
Das TPM war sowas von dermasen beschissen zu bearbeiten, bis ich die Plastikfolien von beiden seitens weg hatte, war das so zerfleddert dass ichs weggeworfen habe (entweder ich bin dafür zu grobmotorisch oder zu ungeduldig... oder beides :( ). Jedenfalls musste dann halt die Noctua WLP herhalten und jetzt sehen die Temps trotzdem wieder viiiiel freundlicher aus. Nach wie vor Chip 66°C, Hotspot aber max 78°C. Ist immernoch im Trhotteling, jetzt aber bei den 450W im Powerlimit.

Anbei noch ein paar Bilder der Platine (die Pads habe ich aber drauf gelassen, weil nicht doch noch welche kaputt machen). Ob die Bilder so "gut" sind musst du selber beurteilen. Hier kann ich nur die jpgs anhängen, könnte dir aber auch die RW2 anbieten wenn du die wolltest, müsste ich dir aber anderswie zukommen lassen (160MB).

Ansonsten vielen lieben Dank für eure Hilfe.
Sollte sich aus den Gamers Nexus oder Kassensturz Mails noch was ergeben, würde ich euch auf dem laufenden halten.

Und jetzt guäds Nächtle :)
 

Anhänge

  • Screenshot 2024-11-06 231732.png
    Screenshot 2024-11-06 231732.png
    2,9 MB · Aufrufe: 25
  • P1010761.jpg
    P1010761.jpg
    1,9 MB · Aufrufe: 27
  • P1010763.jpg
    P1010763.jpg
    1,6 MB · Aufrufe: 26
  • P1010764.jpg
    P1010764.jpg
    2 MB · Aufrufe: 23
  • P1010765.jpg
    P1010765.jpg
    2 MB · Aufrufe: 26
  • P1010768.jpg
    P1010768.jpg
    1,6 MB · Aufrufe: 23
  • P1010769.jpg
    P1010769.jpg
    2 MB · Aufrufe: 24
  • P1010771.jpg
    P1010771.jpg
    1,9 MB · Aufrufe: 27
  • Gefällt mir
Reaktionen: Asghan, Powl_0, just_f und 2 andere
Danke für die Bilder. Nichts Auffälliges an der Platine, keine überragenden Bauteile soweit ich sehe. Schaut ok aus, aber die Garantie wegen einer Einbauspur zu verweigern ist schon ne richtige Frechheit.

Für das TPM nimmt man sehr spitze Pinzetten. Die Folien mit dem Finger runter zu popeln ist nicht so einfach. Schade, dass das nicht funktioniert hat, war ja auch nicht billig. :(
 
  • Gefällt mir
Reaktionen: DJMadMax
honeywell tpm vor der Verwendung am besten kurz in den Kühlschrank, das erleichtert den Gebrauch
 
DJMadMax schrieb:
PCI-SIG, die Seite habe ich dir schon verlinkt.
Die geben eine Spezifikation vor, daran muss sich aber niemand zwingend halten.

Der Stecker kann nichts hart deckeln. 150W Spezifikation sind egal, wenn ich volles Rohr gebe und 300W aus dem Stecker ziehe. Dann liegt es eben in meiner Verantwortung, ob das auch dauerhaft gut geht.

Eine Grafikkarte gibt im vbios das Power Limit pro Stecker auf der Platine vor. Was davor in Steckern und Kabeln passiert, ist der Grafikkarte an dem Punkt völlig egal. Sie wird stumpf versuchen, das gesetzte Limit auszuschöpfen wenn nötig.
Ob die 600W dabei aus einem 12VHPWR, aus 4x 8pin, 2x 8pin, nem geschmolzenen Molex Adapter oder 20 Strängen Klingeldraht kommen, ist der Grafikkarte dabei völlig egal. (Dass 2x 8pin bei modernen guten Netzteilen das locker können siehst du übrigens auch daran, dass einige der offiziell von NT Herstellern angebotenen 12VHPWR 600W Kabel auf der Netzteil Seite genau 2x 8pin Gegenstücke verwenden, zB bei Corsair)

Sehr anschaulich gegen deine errechneten 375W Limit gab es da schon vor ca 10 Jahren die R9 295X2. Die hatte 2x 8pin und zog bei Last knappe 500W darüber. "Aber die PCI-SIG, wie kann das sein??" Ganz einfach, die Karte kam ohne entsprechende Behauptung,die Stromzufuhr nach PCI-SIG zu fahren. Stattdessen hat AMD damals eigene Vorgaben veröffentlicht, was das Netzteil über diese 2x 8pin stemmen können muss.
Ergänzung ()

Sandro_Suchti schrieb:
Seit wann betrachtet die Grafikkarte den Slot und 8-Pin PCIe differenziert (bitte Quelle)
Schon seit einigen Jahren. Bereits zu Nvidia Kepler Zeiten war im Vbios je ein Power Limit pro Stromstecker und für den Slot hinterlegt. Die Summe daraus ergab dann das gesamte Power Limit.

Quelle spare ich mir, da müsste ich jetzt extra ein Kepler Bios aufmachen. Wenn du es wirklich wissen willst, kannste das selbst tun.
Ergänzung ()

ruthi91 schrieb:
Betrifft aber nur moderne Karten aus den letzten ~2 Generationen. Früher war das ganze Thema Powerlimit noch wesentlich simpler.
Mindestens seit Kepler prüfen die Karten die Leitungen einzeln ab.
Ergänzung ()

Geisterwolf schrieb:
aber warum ist das Board Power Draw bei 380W, obwohl die GPU bei 100% läuft. Müssten 100% nicht 450W sein (84,2% TDP Eintrag)?
Nö, weil Kernauslastung und Verbrauch nicht 1:1 zusammen skalieren. Die GPU ist enorm komplex, die Auslastungsanzeige stellt das aber nicht so komplex dar. Jeder Rechenkern der GPU besteht aus mehreren funktionalen Einheiten, die jeweils einzeln belastet werden können. Die Auslastung interessiert dabei aber nur, ob irgendeine dieser Einheiten pro Kern arbeitet.

Man kann zB schon auf 100% Auslastung kommen, wenn zwar jeder Rechenkern etwas rechnet, dabei aber nur die minimal notwendigen Register und Einheiten des Kerns benutzt und alles weitere dabei leer läuft. Das hat dann auch Einfluss auf den Verbrauch, da weniger genutzte Einheiten auch weniger verbrauchen.

Zusätzlich benötigen unterschiedliche Arten an Rechenoperation auf Hardwareebene unterschiedlich viel Strom, auch wenn sie die gleichen Einheiten nutzen. Da wird es irgendwann fast schon esoterisch komplex. Nutzt ein Spiel zB hauptsächlich Shader mit solchen eher "leichten" Operationen, wird auch der Gesamtverbrauch niedriger sein.
Ergänzung ()

Ayo34 schrieb:
Die 4090 braucht bei quasi keinem Spiel wirklich über 350 Watt. Daher könnte es auch einfach normal sein.
Dit is Quatsch. Mit potenter CPU säuft eine 4090 im Schnitt gut über 400W weg. Das bestätigen dir auch so ziemlich alle Reviews der GPU.
"Quasi nie über 350W" sind erst der Fall, wenn ein anderes Limit vorliegt, zB Vsync, CPU Limit, etc.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Powl_0 schrieb:
Sehr anschaulich gegen deine errechneten 375W Limit gab es da schon vor ca 10 Jahren die R9 295X2. Die hatte 2x 8pin und zog bei Last knappe 500W darüber. "Aber die PCI-SIG, wie kann das sein??" Ganz einfach, die Karte kam ohne entsprechende Behauptung,die Stromzufuhr nach PCI-SIG zu fahren. Stattdessen hat AMD damals eigene Vorgaben veröffentlicht, was das Netzteil über diese 2x 8pin stemmen können muss.
Da widerspricht doch auch niemand und das ist auch alles korrekt, was du schreibst. Dennoch widerlegt das doch nicht, was ich geschrieben habe, ganz im Gegenteil sogar. Du bestärkst doch nur umso mehr, dass man sich hierbei weit außerhalb der Spezifikationen bewegt und WENN ein Hersteller sich an eben jene Spezifikationen hält, DANN wird auch ein jeweiliges Powerlimit eingehalten. Wenn nicht, dann halt nicht, so einfach ist das.
 
Powl_0 schrieb:
Der Stecker kann nichts hart deckeln. 150W Spezifikation sind egal, wenn ich volles Rohr gebe und 300W aus dem Stecker ziehe. Dann liegt es eben in meiner Verantwortung, ob das auch dauerhaft gut geht.
Der Stecker nicht, ist ja passiv, aber das Netzteil kann abschalten. (wenn denn so umgesetzt)
 
@Alexander2
Es ging hierbei nur darum, dass irgendwo ein Schutzmechanismus greifen SOLLTE, wenn alles sauber nach PCI-SIG arbeiten WÜRDE ... hätte, wenn und aber. @Powl_0 geht halt davon aus, dass kein Schutzmechanismus greift und ich gehe davon aus, dass es stets einen geben "sollte".
 
Geisterwolf schrieb:
Das TPM war sowas von dermasen beschissen zu bearbeiten, bis ich die Plastikfolien von beiden seitens weg hatte, war das so zerfleddert dass ichs weggeworfen habe (entweder ich bin dafür zu grobmotorisch oder zu ungeduldig... oder beides :( ).
Gibt nen Leserartikel bei CB hier dafür. Der Trick: Vor dem Zuschneiden und Entfernen der Folien für 30 Minuten in die Tiefkühltruhe legen, dann geht das super einfach :) (selber mit CPU getestet)
 
  • Gefällt mir
Reaktionen: DJMadMax
Zurück
Oben