Katillah schrieb:
... Jedoch kann ich die Aussage mit den 200W mehr nicht ernst nehmen, da in keinem Programm/Spiel (ausser CPU+GPU Benchmarks) man die geannte TPD erreicht. In Spielen geben sich beide nicht viel, ausser man hat Bspw.: prime95 am laufen. Da kommt jede CPU nah an seine TPD.
Von der genannten TDP habe ich auch nichts gesagt, sondern die CB-Tests zugrunde gelegt. Und wenn eine GPU nicht bei JEDEM Spiel voll ausgelastet ist, dann hast du einen Frame-Limiter aktiv oder bist am CPU-Limit. Andersherum, wenn du ein Spiel hast, das CPU-Limitiert ist, dann wird deine CPU auch zu einem hohen Grad ausgelastet sein. Wie viele Kerne dabei belastet werden, hängt vom Spiel ab. Wenn man vom Prime95-Werten absieht, erreicht man diese sehr wohl.
Mehr zum Thema weiter unten.
thekillerbounty schrieb:
200 Watt? Wie kommst du denn auf diese Zahl?
Die GPU braucht ca. 70 W mehr:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-960-im-test.47907/seite-9
Der Prozessor ca. 110 W mehr:
https://www.computerbase.de/artikel/prozessoren/amd-fx-8350-vishera-test.1923/seite-9
Allerdings ist der Vergleich der CPU Stromaufnahme, nennen wir es mal Intel-Optimiert. Bei P95 (wie gemessen) werden beim i5 4 Threads, beim FX 8 Threads beansprucht, also ist ein reales Szenario (beide gleiche Auslastung) wahrscheinlich nicht so weit auseinander.
...
Die 15 % an Mehrleistung kommen mMn daher, dass die getesteten Spiele eher 2 - 4 Threads, als 4 - 8 Threads beanspruchen. Für all diese Spiele reicht der FX jedoch zur Genüge. Dagegen werden zukünftig mMn immer mehr Spiele die von 4+ Threads profitieren kommen, bei denen sich der Unterschied relativiert (dieser Absatz basiert auf subjektiven Einschätzungen meiner Person!)
Hier
und
hier
findet ihr die Daten, auf die ich mich bezogen habe.
Ich habe mich bewusst nicht auf den Prime95-Test bezogen, weil dieser Fall in der Tat sehr unrealistisch ist.
Das macht bei der CPU 94 vs 184 Watt.
Auf der GPU 179 Watt vs 345-354 Watt (280X und 290). Natürlich bezogen auf GTX 960 mit Standardtakt, sonst müsste man ja auch mit übertakteten AMD-Karten vergleichen.
184-94 = 90 Watt
~350-180 = 170 Watt
Summe = 260 Watt
Wie ihr seht habe ich bereits 60 Watt Toleranz für Messverfahren einfach abgezogen.
Was man auch beobachten kann, ist dass der AMD-Prozessor im Vergleich zum P95-Test bereits dichter an seinem Maximal-Verbrauch arbeitet. Vom Cinebench-Multicore zu Prime95 wächst sein Energiehunger um ca 18%. Beim i5 um 30%. Absolut gesehen steigt der AMD aber immer noch stärker.
Was die Leistungsaufnahme bei mehreren Threads angeht gibt es ja nun ein Paar Grundlagen, die allgemein für Threads vs Cores gelten. Auf jeden Fall sind echte Kerne immer schneller als Virtuelle. Und wenn man sich jetzt im obigen Link mal den Unterschied zwischen vergleichbar taktenden i5 und i7 oder Xeon anschaut, dann sieht man, dass auch unter voller Last der Unterschied sehr gering ist (unter 15 Watt). Wenn jetzt also der AMD-Prozessor bei Belastung von 2-4 Threads diese nicht gerade auf nur 1-2 reale Kerne verteilt, was ja aus Performance-Gründen nicht sehr clever wäre, dann ist davon auszugehen, dass die zusätzlichen Threads im Vergleich zur Belastung der 4 Threads des i5 keinen großen Unterschied machen und er bei Nutzung von 4 Threads auch nicht plötzlich viel weniger verbraucht, als bei 8 Threads. Zumindest kann das keinen Unterschied machen, der einen so großen Mehrverbrauch erklären würde.
Edit: Ups, tut mir leid, ich habe mit der 280X und 290 verglichen, hier war aber bis auf eine Ausnahme die 280 empfohlen. Dann liegt der Unterschied bei nicht übertakteten Varianten natürlich eher bei ~120 Watt, als bei 170 Watt. Die 280X wäre ja auch teurer und hätte mehr Leistung als die GTX960. Mein Fehler, das war Blöd.