Test Fortnite, LOL, PUBG & Co.: 14 Prozessoren von AMD und Intel im Benchmark

Gaugaumera schrieb:
Kommt drauf an von welcher Plattform aus man Upgraded.
Mein PhenomX6 + HD6850 haben im Idle 110W gezogen. Bei Spielen bis zu 320W.
Meine jetzige Kombo aus R7 1700 + RX480 (UV) brauchen im idle etwa 45W und bei Spielelast etwa 160W.

Der Rechner ist im Schnitt jeden Tag 5 Stunden an, davon 3 in Idle und 2 mit Spielelast.

Alt: 3h*0.110kW+2h*0.320W*7(Tage)*52(Wochen)*0.32€/kwh = 390€ Strom im Jahr für den Rechner

3h*0.045kW+2h*0.160kW*7(Tage)*52(Wochen)*0.32€/kwh = 167€ Strom im Jahr für den Rechner

Damit habe ich allein durch den Strom die Anschaffung (~700€) nach 5 Jahren wieder raus


justwatchin schrieb:
Ich weiß, Erst-Posting, aber ist hier nicht ein Rechenfehler:

3h*0.110kW+2h*0.320W = 0,7456kWh
0,7456kWh*365d = 272,144kWh
272,144kWh*0.32€/kWh = 87€ Strom pro Jahr für den Rechner
Ihr seid beide nicht so ganz richtig.
Stromverbrauch für deinen alten Rechner auf Basis Deiner Daten:
(3x0,11)+(2*0,32) =0,97 KWh am Tag
0,97*365=354,05 KWh pro Jahr
354,05 KWh x 0,32 = 113,296 ~113,30€

Das Ganze für Deinen neuen Rechner:
(3x0,045)+(2x0,16)=0,45 KWh am Tag
0,45*365=166,075 KWh pro jahr
166,075 x 0,32 = 53,144 ~53,14€

113,296-53,144=60,152 ~60,15€ Ersparnis im Jahr
700 / 60,152 ~ 11,63 Jahre
Du hast den Rachner also erst nach 11 Jahren und rund 7 1/2 Monaten durch Stromersparnis raus. Und das betrifft nur deinen persönlichen wirtschaftlichen Vorteil. Die verbrauchten also Rohstoffe zur Herstellung der neuen Sachen, Logistikkosten für neue Sachen sowie für die Entsorgung oder Verkauf der Altsachen noch gar nicht in einer Gesamtökobilanz mit eingerechnet.
Daher bleibe ich bei meiner Meinung: Es ist ökologisch gesehen am sinnvollsten, die vorhandene Hardware so lange zu verwenden wie einem die Leistung reicht, und nicht dem Pseudostromsparwahn zu verfallen, und alle 3 Jahre aus diesen Gründen was neues zu kaufen.
Verstehe mich nicht falsch, ich würde bei einem Neukauf auch was P/L-mäßig vernüftiges stromsparendes kaufen, jedoch nicht für 5W weniger Standbyverbauch 100€ mehr Anschaffungskosten in kauf nehmen.

P.S.: Des Weiteren wundere mich eh. wie du mit dem X6 so hohen Idleverbrauch hattest. Ich hatte mit meinem X4 und einer 5870 ~65W. so viel mehr können die 2 Kerne im Idle nicht benötigen. Ich hätte jetzt so auf ~80W getippt, und siehe da:
http://www.tomshardware.com/reviews/amd-phenom-ii-x6-1090t-890fx,2613-13.html
Sie kommen auf 82W Gesamtsystemleistung.
Und nein, die Grakas machen keinen nennenswerten Unterschied. Sowohl die HD6900er als auch die HD5800er benötigen im IDLE beide ca. 20W
Testsetup von THG damals: http://www.tomshardware.com/reviews/amd-phenom-ii-x6-1090t-890fx,2613-5.html
Unter den Umständen wäre deine Stromersparnis nochmals geringer und ca. bei 50€ / Jahr.
Dabei hast Du noch vergessen mit einem UV X6 zu vergleichen, wenn UV dann auch auf beiden Plattformen. Somit ist die Ersparnis nochmals geringer ;)
 
Zuletzt bearbeitet:
stevefrogs schrieb:
Freut mich, dass du nach all den Jahren aus dem Koma erwacht bist, aber die Welt hat sich in deiner Abwesenheit weiter gedreht.
freut mich das du steam als quelle dafür nimmst, gibt ja keinen Rechner ohne steam 😂😂😂😂

abgesehen davon das die daten von Steam ja so sehr stimmen
 
Zuletzt bearbeitet:
cool and silent schrieb:
Ja da steckt ein Fehler drin, aber bei Dir auch:

( 3 * 0,11 ) + ( 2 * 0,32 ) = 0,33 + 0, 64 = 0,97

Wer aber im Endergebnis auf 390 Euro Stromkosten kommt, zahlt wahrscheinlich seine Stromrechnung nicht selbst und hat kein Gefühl für die Größenordnungen.

Lol. Danke. Naja zumindest die Größenordnung hat gepasst:)
 
Strikerking schrieb:
...
Bei AAA Spiele sieht es ja schon wieder anders aus, da braucht man heutzutage min 8 threads

Ja genau... brauch man zwingend... :rolleyes:
Wenn man 8 Threads wirklich brauchen würde, dann würde das bedeuten, dass alle 8 Threads parallel performant bearbeitet werden können müssen. Dann wären 8-Kerner nennenswert schneller als 6-Kerner, weil die Ausführung auf einem eigenen echten Kern immer schneller ist als die geteilte Ausführung auf einem Hyper-/SMT-Thread.
Ist aber nicht der Fall, weshalb der 1800X auch regelmäßig praktisch gar nicht schneller ist als der 1600X.
Genausowenig wie der i7 8700(K) gegenüber seinen i5-Kollegen über seinen Taktvorteil hinaus fast nirgendwo nennenswert mehr Leistung bringt.
Davon dass Intels 6C/6T AMDs 6C/12T und selbst 8C/16T überall schlagen mal ganz zu schweigen...

Dass man 8 Thread bräuchte, stimmt einfach nicht. Das ist Wunschdenken vom "Red Team"... :rolleyes:
 
Es reicht ja schon, wenn alle 4 Threads parallel performant bearbeitet werden und dabei ausgelastet sind. Dann braucht man zumindest schon mal mehr als 4 Threads.
Sieht man ja auch ganz gut in den Frametimes einiger Spiele, dass da mit 4 Threads doch ein starker Einbruch stattfindet. Wer sich nur die avg Balken ansieht, bemerkt das nicht.

Das nächst höhere ist dann eben 4 Kerne mit 8 Threads.
Und 6 Kerne sind noch mal stärker als 4 Kerne + HT, also ist die Aussage mit den 8 Threads gar nicht so falsch.
 
Zuletzt bearbeitet:
Hopsekäse schrieb:
Dass man 8 Thread bräuchte, stimmt einfach nicht. Das ist Wunschdenken vom "Red Team"... :rolleyes:

Und weil das nur Wunschdenken vom Red Team ist, möchte Intel einen Achtkerner einführen. Aber ist ja nur Wunschdenken vom Red Team.....
 
Und genau wegen den Frametimes habe ich das geschrieben;) Gibt genügend Tests wo man das sieht bei aktuellen AAA Spiele Titeln.
Taxxor hat es erkannt.
 
biente schrieb:
freut mich das du steam als quelle dafür nimmst, gibt ja keinen Rechner ohne steam 😂😂😂😂

abgesehen davon das die daten von Steam ja so sehr stimmen

a) Hast du eine bessere Quelle (um vielleicht Mal deine Behauptung zu stützen)?

b) es geht hier um Spiele, auch in deinem von mir zitierten Post. Steam ist meines Wissens die größte Spiele-Plattform am Markt, was die Daten interessant macht für Vergleiche bezüglich Spielehardware, auch wenn die Hardware Survey sicher nicht perfekt ist (zur Erinnerung: du hast keinerlei Daten präsentiert die deine Behauptung stützen, dass die meisten Spieler noch mit 2 Cores rumgurken).
 
Tja, warum werden nicht höhere Auflösungen getestet?

Wahrscheinlich weil hier die Spiele noch mehr in eine GPU-Limitierung laufen würden, sich kaum Unterschiede bei den Prozessoren zeigen würden.

Schade CB, das Testen in einer antiquierten niedrigen Auflösung macht den Test deutlich weniger authentisch.
 
Vissi: Du hast die Antwort doch schon selbst gegeben, ein GPU Limit würde das Fazit eines CPU Tests völlig unnütz machen.

Noch dazu wurde doch schon in 1080p getestet, statt wie sonst öfter in 720p

Und 1080p ist keinesfalls eine antiquierte niedrige Auflösung, sondern das, was die meisten Nutzer eben noch benutzen.
 
Taxxor schrieb:
Vissi: Du hast die Antwort doch schon selbst gegeben, ein GPU Limit würde das Fazit eines CPU Tests völlig unnütz machen.

Würden sie das wirklich? Was nutzt ein solcher Test, wenn ich in dieser Auflösung nicht spiele und somit die Ergebnisse auf mich gar nicht übertragbar sind? Wenn sich das Verhältnis der Prozessoren zueinander bereits bei WQHD ändert?

Wobei du mit FullHD als durchaus gängige Auflösung natürlich recht hast
 
Taxxor schrieb:
Vissi: Du hast die Antwort doch schon selbst gegeben, ein GPU Limit würde das Fazit eines CPU Tests völlig unnütz machen.

Noch dazu wurde doch schon in 1080p getestet, statt wie sonst öfter in 720p

Und 1080p ist keinesfalls eine antiquierte niedrige Auflösung, sondern das, was die meisten Nutzer eben noch benutzen.

Du hast definitiv unrecht.

Warum?

Hier wurden alle Spiele mit einer 1080ti getestet und das auf einer Full-HD-Auflösung.

Was die meisten Leser offenbar noch nicht gepeilt haben, sonst würden sie reihenweise protestieren, ist, dass es immer auf das Verhältnis von CPU-Leistung, Grafikkartenleistung und Auflösung ankommt.

Jemand der eine 1080ti sein eigen nennt, der spielt in der Regel mit einer höheren Auflösung als nur Full-HD, weil er sich nicht nur eine Grafikkarte für fast 1000 Euro leisten kann, sondern auch einen Monitor für mindestens 500,- Tacken.

Jemand der einen antiquierten Full-HD-Monitor hat, weil er sich keinen besseren Monitor leisten kann, der hat in der Regel auch nur eine Grafikkarte für 200-400 Euro.

Und mit einer 1060er GTX in Full-HD ist man viel eher im Grafikkarten Limit.

Was ich damit ausdrücken will ist, dass mit einer 1080ti bei Full-Hd zu testen auf Deutsch gesagt für den Arsch ist, weil die Prozessoren reihenweise in die CPU-Limitierung laufen und somit die Testergebnisse nicht repräsentativ sind.

Das Testergebnis einer GTX 1060 auf Full-Hd ist viel repräsentativer und ist ähnlich repräsentativ wie eine 1080ti mit einer 4K-Panel.

Mit einer 1000,- Euro Grafikkarte auf einer Auflösung testen, die jeder 150,- Euro Monitor hinbekommt, ist nicht repräsentativ.

Ein repräsentativer Test würde wahscheinlich eher zeigen, dass sich eine CPU-Aufrüstung kaum lohnt.
 
Zuletzt bearbeitet:
Vissi "Was ich damit ausdrücken will ist, dass mit einer 1080ti bei Full-Hd zu testen auf Deutsch gesagt für den Arsch ist, weil die Prozessoren reihenweise in die CPU-Limitierung laufen und somit die Testergebnisse nicht repräsentativ sind. "

Du hast den Sinn eines CPU Test immer noch nicht begriffen. Die Antwort gibste dir aber auch selber.
 
@Neronomicon: Was will man mit einem Test, der nicht repräsentativ ist? Wirst du mir sicherlich auch keine ausreichend rational-sachlich nachvollziehbare Antwort drauf geben können. Aber erst mal argumentativ gegenhalten.
 
Zuletzt bearbeitet:
Vissi und Hägar Horrible sind die einzigen, die den den Sinn des CPU-Tests nicht verstehen. Es sollen CPUs im CPU-Limit getestet werden und da ist 1080Ti@FHD genau das richtige, um möglichst realistisch die Unterscheide darzulegen. Das ist die primäre Auflösung der Zielgruppe eSport, du tust so, als würde hier in 320x240 gebencht werden. Die Auflösung ist realistisch, am häufigsten im Einsatz und sinnvoll für die Tests. Die Grafikkarte ist gewählt, damit man die Unterschiede in der Performance sieht, wenn wir hier mit einer RX560 testen würde, dann wären selbstredend alle gleich, dafür braucht man keinen Test. Soll Computerbase den nächsten GPU-Test mit einem i5 2500K machen, weil der noch oft im Einsatz ist? Du hast einfach den Sinn der jeweiligen Tests nicht verstanden. Wenn euch der Test nicht gefällt, macht doch eigene Tests in euren gewünschten Einstellungen oder besucht die bekannten Youtube Benchmark Kanäle und schaut, ob da was dabei ist und hört auf zu unrecht diesen hochwertigen Test schlecht zu reden.
 
Zuletzt bearbeitet:
Also dann nochmal. Welchen Sinn hat so ein CPU-Test wenn die Ergebnisse nur und ausschließlich bei einer bestimmten Kombination zustande kommen? Das hast du anscheinend nicht begriffen. Und darauf will Vissi hinaus. Was hilft es dir zu wissen, dass mit einer 1080ti und CS:Goein i3-8100 schneller ist als der Ryzen wenn der ihm in neueren Titeln die Rücklichter zeigt? Wozu bitte soll das also alles gut sein? Da vberstehe ich den Test nicht.
 
Jemand mit einer schnellen Grafikkarte spielt heut entweder bei 1080p mit hohem Anti Aliasing, oder einer Auflösung (echt oder virtuell) darüber und wenig bis gar keinem AA.
Das man sich für eine teure Grafikkarte auch noch einen teuren Monitor leisten muß ist keine Gesetzmäßigkeit - sowas machen Enthusiasten...
 
@Nerobo: Auf einem 4k-Panel zu zocken ist doch viel cooler als auf 8-fach MSAA auf Full-HD. Wer 1000,- für eine 1080ti ürbig hat, kauft sich auch einen besseren Monitor. Zeig mir doch mal einen, der eine 1080ti hat und noch auf 1080 spielt. Kein Mensch oder zumindest die Wenigsten.
 
Zurück
Oben