mibbio schrieb:
Aber hat das wirklich etwas mit der Kühlleistung des Kühlers zu tun? Entscheidend ist doch da erstmal nur, wie gut der Kühler über die Kontaktfläche zur CPU (und den Heatpipes) die punktuell konzentrierte Wärme an die Kühllamellen verteilen kann. Ob über die Kühllamellen am Ende 80W oder 120W an die Umgebung abgegeben werden können, ist dafür doch zweitrangig.
Es kommt auch auf die Kontaktfläche zwischen CPU und Kühler an.
Die TDP Stufe wird halt immer als Watt Wert angegeben, in dem Fall wäre aber ein W/mm² Wert sinnvoller.
Und da kann es halt sein, dass ein CPU Kühler, welcher 80W abführen kann, nicht genug W/mm² abführen kann, ein Kühler mit 120W aber schon.
Eventuell hat ein Kühler mit 120W auch eine höhere Wärmespeicherkapazität um extrem schnelle Temperaturänderungen besser abfedern zu können.
Aber mit der anderen Anmerkung, die Abführung der Wärmeleistung über die Kühllamellen stimme ich dir zu.
Alesis schrieb:
Hast du darüber eine Untersuchung die dies bestätigt, oder ist es dein Bauchgefühl?
Meine 4090 läuft auch mit UV und in der Regel mit, je nach Game sinnvollen, gecappten FPS.
Macht teils mehr als 100W Unterschied. 100W weniger an Abwärme die unnötig an die Umgebung abgegeben werden würde.
Bezüglich der Kommentare, wofür man eine X3D benötigen könnte -> Simracing, da bringen die X3D CPU's richtig FPS.
Und da kann man selbst mit hohen Auflösungen (3x 1440p 3x2160p) ins CPU Limit Rennen.
Sollte ich da im GPU Limit sein, kann ich die Grafik optimieren (niedrigere Details, Sichtweiten, ...) und damit die Framerate steigern.
Wenn ich da allerdings im CPU Limit bin, hab ich kaum bis keine Möglichkeiten etwas zu optimieren.
Balikon schrieb:
EDIT Frage an die Cracks unter Euch: 1080p ist doch oft die "Arbeitsauflösung" von DLSS und FSR. Was passiert eigentlich, wenn das Spiel da ins CPU-Limit läuft? Nach meinem Verständnis der Funktion von Upscaling müssten DLSS und Co. in dem Fall doch für den Popo sein. Höhere Frameraten werden doch neben FrameGen dadurch erziehlt, dass im GPU-Limit von 1080p mehr FPS erzielt werden als bei 4 oder 8k. Sprich, wenn auf 1080p die Frameraten wegen CPU-Limit einbrechen, kann DLSS nix mehr richten.
Irgendjemand, der dazu eine qualifizierte Aussage machen kann? Denn wenn meine Vermutung stimmt, könnten sich CPU Limits in Zukunft drastischer bermerkbar machen, als jetzt.
Es ist sogar so dass, verglichen mit 1080P nativ, die CPU bei DLSS mit 1080P Basisauflösung mehr beansprucht wird.
Und weiterhin soll doch jeder seine Hardware nutzen wie ihm beliebt, wenn ich eine 4090 nutze und mit 1080P Maxed Out 144Fps stable zufrieden bin, why not.
Mit der 4090 habe ich beispielsweise in RocketLeague bei 3440x1440 144Fps locked ca 30-50W weniger Verbrauch im Vergleich zu meiner 6800XT vorher.