Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

Danke für den Test.
Ich hatte noch interessant gefunden, ob und was (frametimes?fps?welche spiele?) sich durch HT/SMT abstellen beim 8700k / 2700x ändert, was mMn auch zum Thema gepasst hätte.
 
xexex schrieb:
Aber durchaus einige in 60FPS und ohne GPU Limit. Wenn man bedenkt, dass der R5 2600X jetzt schon bei 70FPS im CPU Limit liegt, wie soll es in 2-3 Jahren aussehen, wenn die Spiele ihre CPU Anforderungen wahrschenlich weiter hochschrauben? Dann schafft diese CPU nicht einmal 60FPS, egal welche Grafikkarte und welche Auflösung man verwendet.

Das trifft auf meinen i5 6600 aber wohl auch zu, und der ist von Intel. Schon letztes Jahr wurden dessen 4 Kerne für zu wenig erklärt, da war er gerade mal zwei Jahre alt. Intel liefert halt einfach keine Leistung, schätze ich...
 
Vissi schrieb:
Was ich kritisiere:
Wenn man jetzt alle Auflösungen hätte, 1080, 1440, 2160, dann wäre es interessant, weil man dann bei den jeweiligen Karten sehen könnte, wann die CPU und wann die GPU anfängt zu limitieren.

Die CPU interessiert es nicht ob die Grafikkarte 720p oder 2160p darstellt. Du kannst also an dem Vergleich wunderbar sehen, bei wievielen FPS die CPU am Limit wäre.

KarlKarolinger schrieb:
Das trifft auf meinen i5 6600 aber wohl auch zu

Ich denke schon, zumindest bei der von CB gewählten Spieleauswahl. Entscheidend scheint vor allem der Takt gewesen sein und der liegt beim i5-6600 ohne OC noch niedriger.
 
Zuletzt bearbeitet:
Ich finde es faszinierend wie schlecht doch eigentlich Destiny 2 mit der Leistung skaliert.

Mein System, siehe Sig, hat bei WQHD @ Ultrasettings, im Schnitt 90 FPS... Hmm... Finde ich echt faszinierend.

Natürlich sind auch mal ein paar Drops dabei, aber das war auch mit nem Intel und ner 1080Ti schon so.
 
  • Gefällt mir
Reaktionen: s0UL1
Volker schrieb:
Exakt.

Also: Alle Werte sind neu ermittelt, nichts ist alt. Die Einstellungen sind im Vergleich zum Frühjahr aber nicht die gleichen. Neue Savegames, andere Szenarien, andere Detailstufen usw..

Das eigentlich Problematische ist, dass ihr damals im Ryzen Test keine Angaben keinerlei Angaben zur Detailstufen gemacht hat entsprechend nimmt man an, dass alles maximiert ist oder liege ich da falsch ?
Die GTX 1080 Ti war schließlich damals schon für 1080p overpowered und entsprechend gut zum ermitteln des CPU Limits.
 
Schöne Übersicht, jedoch finde ich es schade das keine einzige CPU aus den älteren Generation getestet wurde.

Zumindest ein 7700k oder vergleichbar... (nicht jeder hat die neuste CPU drin, viele Upgraden die GPU viel häufiger wie die CPU)

Das ich mit meinem 4 Jahre alten 4790k @ 4,6 Ghz nicht berücksichtigt werde ist nachvollziehbar, aber bei 10% Leistungsplus ggü. 7700k (non OC) könnte ich mir ungefähr ausmahlen wie gut das mit ner 2080TI klappt.
 
  • Gefällt mir
Reaktionen: Vissi
Vissi schrieb:
10% der Menschen und 90% der Menschen in höheren Auflösungen.
Kleiner Tipp: du hast dich eben lächerlich gemacht. ;)
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und s0UL1
@ Volker

wie man sieht ein leidiges Thema so etwas zu testen. Hatte neulich schon überlegt wie man so etwas ggf etwas kreativ anstellt.

Denke da müsste man eher hingehen und zb versuchen das absolute CPU Limit auszureizen je nach Plattform. zB S1151 vs AM4. 9900K vs 2700X oder 8700K vs 2600X. Beide den Ram und die Latenzen ausgehend von dem was so mit typischem B-Die Ram geht, hochziehen, etwa 3400 CL14 bei AMD + Subtimings, ~4000 bei Intel ebenso Subtimings, Cache OC, SMT on / off.
1 AMD Karte, 1 schnellste Nvidia Karte.

Dann einfach nur 5 Games testen und schauen was man im CPU Limit ausgehend von einer Stock Konfiguration erreichen kann wenn man CPU + Ram optimiert. Also eher Plattform-Maximum ausloten als verschiedene Hardware zu testen.

Bei allem anderen ist es eher verbrannte Zeit da wie du ja auch selber feststellst die Varianz enorm hoch ist und sowas nur in Hasstiraden und Unverständnis endet.
 
  • Gefällt mir
Reaktionen: dohderbert, .Sentinel. und Jan
Capthowdy schrieb:
Kleiner Tipp: du hast dich eben lächerlich gemacht. ;)

Warum, weil es in Wahrheit 20% sind? Jetzt übertreibe bitte nicht.

Schau mal in die Signaturen, ich sehe da kaum eine 500 Euro aufwärts Graka mit einem Full-HD gekoppelt. Also sind vermutlich 10% schon zu viel. Sich lächerlich machen, sieht anders aus.
 
Volker schrieb:
Also: Alle Werte sind neu ermittelt, nichts ist alt. Die Einstellungen sind im Vergleich zum Frühjahr aber nicht die gleichen. Neue Savegames, andere Szenarien, andere Detailstufen usw.. Deshalb alles nicht vergleichbar, sondern eine Momentaufnahme von der 3. Septemberwoche 2018, so wie es im Ryzen-Test eine Momentaufnahme von Mitte April 2018 war.

Wenn die CPUs im April Test im CPU Limit waren und auch jetzt wieder im CPU Limit waren, ist es egal ob die Testsequenzen jetzt andere sind... Die Leistung der CPUs sollte immer noch im gleichen Verhältnis stehen! Es sei denn im April Test waren die Tests so schlecht gewählt, dass die Intel CPUs nicht im CPU Limit waren sondern im GPU Limit. Das kann ich mir nicht vorstellen, da die April Ergebnisse sich so auch bei anderen Quellen haben finden lassen...

Testsequenzen so zu wählen das im CPU Limit eine CPU bevorzugt wird ist meiner Meinung nach unmöglich. Man kann zwar Spiele passend zur CPU die bevorzugt werden soll wählen, an einen Effekt im CPU Limit durch den Wechsel der Testsequenz & Detailstufen glaube ich nicht.
 
  • Gefällt mir
Reaktionen: Seskahin, Iapetus, Creeed und eine weitere Person
Uuuund CB testet schon wieder ernsthaft 4K GPUs in HD und FullHD. Wenn der Test rein nur zur Beurteilung der Leistungsfähigkeit der CPUs gut sein soll, von mir aus. Ansonsten war das ein vollkommen realitätsfremdes Szenario und verschwendete Zeit - niemand spielt mit einer 2080 Ti in FHD!
 
  • Gefällt mir
Reaktionen: Gamer2003 und Junichii
duskstalker schrieb:
da fehlen 50% der angaben - timings.
Wie so oft bei CB, halbherzige Angaben zum getesteten Speicher.
Oft genug testet CB nämlich mit richtig schäbigen Latenzen und die Ergebnisse überraschen dann wenig.
 
  • Gefällt mir
Reaktionen: dohderbert
berkeley schrieb:
Wieso sollte der 2700X plötzlich so viel langsamer werden in den gleichen Spielen als zu Release? Sind evtl. die Nvidia Treiber "defekt"?

Das Gerücht, dass die NVidia-Treiber auf Ryzen langsamer laufen gab es schon länger, ein kleiner Vergleichstest mit einer Vega 64 wäre da vielleicht aufschlussreich, da würde man ja schnell sehen, ob etwas dran ist, oder nicht.
 
  • Gefällt mir
Reaktionen: Thraker, Iscaran und berkeley
  • Gefällt mir
Reaktionen: ahuev0, alkaAdeluxx, v_ossi und eine weitere Person
Vissi schrieb:
Warum, weil es in Wahrheit 20% sind? Jetzt übertreibe bitte nicht.

Schau mal in die Signaturen, ich sehe da kaum eine 500 Euro aufwärts Graka mit einem Full-HD gekoppelt. Also sind vermutlich 10% schon zu viel. Sich lächerlich machen, sieht anders aus.
In höheren Auslösungen als FHD spielen nicht mal 10% aller Spieler.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, Shine2004 und Desmopatrick
duskkk schrieb:
Ja und wer kauft sich jetzt eine 2080 Ti und spielt auf 1080p??
Ich sehe in dem Artikel "GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft" auch in FullHD Games, die bei nem 144Hz Monitor nicht ausreichend Frames produzieren würden bei maximalen Einstellungen ;) Ich hab nur FullHD@60fps, aber man muss nicht jedem Hype hinterherlaufen bzw. alles haben :p
 
@xexex

Schau mal ins Bild... Da spielt der Prozessor bei 4k fast garkeine Rolle mehr...
 

Anhänge

  • Blubb.JPG
    Blubb.JPG
    186,6 KB · Aufrufe: 603
Chillaholic schrieb:
Wie so oft bei CB, halbherzige Angaben zum getesteten Speicher.
Oft genug testet CB nämlich mit richtig schäbigen Latenzen und die Ergebnisse überraschen dann wenig.

Man könnte einfach für beide Plattformen ein und den selben Ram nutzen... mit jeweils gleichem Takt und Timings..
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
derseb schrieb:
Die Leistung der CPUs sollte immer noch im gleichen Verhältnis stehen!

sollten ja. Allerdings spielt da so viel rein dass es kaum geht:

-> Power Profil in Windows
-> Microcode
-> Windows Built
-> Treiber GPU, Chipset
-> Ram Config
-> Testszene
-> Spiele API / Spiel Patchstand

und jedes davon macht schnell 20% bei diesen quasi "min Frames" aus.

Deswegen kann man auch nur von einem "Snapshot" reden den man so kaum mehr nachstellen kann. Eine Momentaufnahme.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Desmopatrick schrieb:
Ich sehe in dem Artikel "GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft" auch in FullHD Games, die bei nem 144Hz Monitor nicht ausreichend Frames produzieren würden bei maximalen Einstellungen ;) Ich hab nur FullHD@60fps, aber man muss nicht jedem Hype hinterherlaufen bzw. alles haben :p

Es sagt ja niemand, dass man diesen Test abschaffen soll. Nur bitte höhere Auflösungen auch testen, wäre ganz interessant.
 
Zurück
Oben