Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Kaby Lake im Test: Elf Core i7, i5, i3, Pentium und Celeron im Vergleich
powerfx
Admiral
- Registriert
- Apr. 2009
- Beiträge
- 9.351
Nein, weil die Definition von Intel kommt und Intel definiert es nicht so. Z.B. hier aus einem Paper für Xeons:Klassikfan schrieb:Ich empfinde es schlicht als gefährlich und betrügerisch, eine CPU mit einer TDP von xx Watt zu bewerben, und nachher zieht der Prozessor das Doppelte oder mehr aus der Dose! Das ist NICHT Sinn einer TermalDesignPower, da damit per Definition die höchste Verlustleistung einer CPU angegeben wird, für die der Kühler spezifiziert sein muß.
Und dann weiter:Thermal Design Power (TDP) should be used for processor thermal solution design targets. TDP is not the maximum power that the processor can dissipate.
The thermal design power is the maximum power a processor can draw for a thermally significant period while running commercially useful software.
[...]
It is possible to write “virus-like” code that toggles transistors in the processor on and off, but doesn’t do any real work. Such “virus-like” code could cause the processor to exceed the rated TDP value for a much longer, “thermally significant” period of time.
Es ist also durchaus möglich, die TDP mit der Leistungsaufnahme zu überschreiten. Da Intel in diesem Fall aber kein "thermally significant period" und/oder die Nutzung von "commercially useful software" sieht, ist es auch vernachlässigbar, wenn die CPU dabei throttelt.
storkstork
Lieutenant
- Registriert
- März 2010
- Beiträge
- 980
Mich würden mal Benchmarks von Spielen interessieren, die sehr CPU-lastig sind. Da kann man sicher auch ältere Titel nehmen. Bei Arma 2 hat die CPU eine große Rolle gespielt, da ziemlich vieles berechnet werden muss, vor allem bei hoher Sichtweite. Bei Arma 3 ist das bestimmt auch noch so? Gibt aber bestimmt noch ander Spiele. Ob ich bei GTA V jetzt 80 oder 60 FPS habe, ist mir nicht so wichtig. Ob ich aber die Sichtweite in einer Simulation auf 500m oder 10 Km einstellen kann, um noch Spielbare FPS zu errreichen, das finde ich schon interessanter. Aber ist halt eher eine Nieschenanforderung, fürchte ich.
Aber alles in allem finde ich diese Vergleichs-Artikel, gerade auch mit älteren Prozessoren sehr gut um einen groben Überblick zu bekommen.
Vielen Dank für die Tests und den Artikel![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Aber alles in allem finde ich diese Vergleichs-Artikel, gerade auch mit älteren Prozessoren sehr gut um einen groben Überblick zu bekommen.
Vielen Dank für die Tests und den Artikel
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
ScoutX schrieb:Ich würde mir wünschen, dass ihr einen großen Artikel über ECC herausbringt.
Nach aktueller Recherche und vielen Hinweisen behaupten viele, dass ECC aktiviert und funktionstüchtig nicht ohne Xeons geht.
Dies behauptet selbst Gigabyte mit ihrem Sockel 1151 ECC Board.
Die Intel ARK Datenbank ist ein Graus. Ihr wissst sicherlich, dass einstige "ECC" CPUs schon längst keinen Support mehr haben bzw. die Datenbank nach über 2 1/2 Jahren von heute auf morgen korrigiert wurde. Es gibt kein Tool, das ECC z. Z. valide testen kann. Es werden einzig UEFI oder Bios Parameter z.B. dmicodes mit Linux ausgelesen (Unterstützung ECC hier nur theoretischer Wert) oder Tools genutzt, die einen Registerbereich annehmen, der für ECC zuständig ist, wobei sich hier herausgestellt hat, dass man hier Copy/Paste von älteren Prozessoren zugrunde legte. Ich denke, Intel betreibt hier Bauernfängerei, genau wie AMD nicht damit heraus rückt, dass nur Opterons aktiv ECC nutzbar machen. Der ECC Support steht einfach nur dafür, dass ECC RAM genutzt werden kann, ohne dass der Computer streikt, aber nicht, dass ECC aktiv istt.
Wenn die CB Redaktion hier Fakten schaffen würde. Es wäre großartig.
Man sieht das Problem schon daran, wie AMD mit Ryzen und ECC Support umgeht. Keine mir bekannte Folie oder Foreneintrag gibt darauf eine Antwort. Und viele haben schon gefragt.
@ScoutX:
Ich nutze bei einem S. 2011-3 Xeon Multi-Bit-ECC und auf S. 1051 mit einem i3-6100 Single-Bit-ECC, ob ECC aktiv genutzt wird, kann man ab Windows 7 in der Eingabeaufforderung (als Administrator) abrufen:
Code:
wmic memphysical get memoryerrorcorrection
0 (0x0) Reserved
1 (0x1) Other
2 (0x2) Unknown
3 (0x3) None
4 (0x4) Parity
5 (0x5) Single-bit ECC
6 (0x6) Multi-bit ECC
7 (0x7) CRC
Sollte ein ECC-Fehler auftreten, sollte dies dann im Ereignisprotokoll auftauchen - was ich bislang noch nicht hatte. Kann sein, dass ich hier etwas vollkommen missverstehe, es deckt sich jedoch mit monatlichen Routine-Passmark Memtest-Durchgängen, bei denen nicht einmal der intensivere Row Hammer-Test zu Fehlern führt.
Wie man das unter Linux überprüfen kann, kann ich leider nicht sagen.
TheWrongGuy6
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 680
Man, meine Mini-PC Pläne mit Pentium, werden völlig torpediert durch diese beschissenen Preise. Das ist niemals eine normale Entwicklung im Markt. In wenigen Wochen so ein Anstieg kann fast nur künstlich sein. Also ob die Nachfrage plötzlich Sprunghaft ansteigt und die Hersteller waren vorher so super knapp an der Produktionsgrenze, dass auf einmal nix mehr geht und der doppelte Preis verlangt wird? Verarschen kann ich mich selber
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 8.021
LukS schrieb:Ganz einfach. In duskstalkers Benchmark wird in einer großen Stadt gebencht.
Große Stadt = viele NPCs = hohe CPU last = i7 muss zwangsläufig besser abschneiden
CB Bencht aber am Land und kommt nur kurz bei einer Stadt vorbei. Irgendwo kann man sich das Video dazu ansehen.
und die weniger anspruchsvolle szene ist die erklärung für dich, warum der i7 auf CB 50 fps zu wenig (!!!!!) liefert? du schaust dir die grafik lieber nochmal genauer an.
außerdem ist gerade die testsequenz von computerbase das nächste problem. wieso eine stelle nutzen, die so wenig last auf die cpu bringt? wer nach den benchmarks von computerbase prozessoren kauft, erlebt mit einer "cpu ist wurst" cpu in den städten sein blaues wunder.
und nachdem "the witcher 3" solche unmöglichen ergebnisse zu tage fördert, sehe ich auch bei den anderen spielebenchmarks eine riesige portion skepsis mehr als angebracht.
man könnte gerade meinen, CB ist interessiert daran, i3 und i5 zu verkaufen.
Zuletzt bearbeitet:
- Registriert
- Apr. 2008
- Beiträge
- 12.730
Richtig...die Szene ist genau das Problem. Nichts zu tun für die CPU außer Grafikdaten zu liefern, deshalb ist die Singlecore Leistung hier entscheident und bringt wenige % mehr Leistung(im Grunde aber alles zu nah zusammen für einen echten Unterschied).duskstalker schrieb:und die weniger anspruchsvolle szene ist die erklärung für dich, warum der i7 auf CB 50 fps zu wenig (!!!!!) liefert? du schaust dir die grafik lieber nochmal genauer an.
................
Und ja Witcher 3 ist nicht das einzige Beispiel. Es ist für mich das beste, weil ich A dieses Spiel selbst habe und B weil in den anderen CB-CPU-Test dieses Spiel noch gesondert herausgestellt und im Begleittext als Beispiel herangezogen wird für ein Spiel in dem die CPU egal sein soll.
-Assassin's Creed Unity: Lauf durch die Stadt, recht viele Leute aber kein Kampf.....ganz ok würde ich sagen
-Call of Duty: Advanced Warfare: Hinter einem anderen Soldaten herlaufen, ab und zu etwas Beschuss und eine Holzhütte wird zerstört(gescriptet).......naja....viele Gegner(bezüglich KI) und echter Kampf wären wünschenswert....und Multiplayer soll auch CPU lastiger sein.
-F1 2015: Benchmarksequenz....keine Ahnung
-GTA V: Hinter einem anderen herfahren, keine Kollisionen, keine Schüsse........Also zumindes eine Laterne hätte man doch umfahren können...Polizei usw. wünschenswert.
-The Witcher 3: Geralt startet an einem Flussufer im ersten Gebiet, Roach steht daneben, er läuft am Fluss entlang und platscht etwas durch seichtes Wasser, läuft über eine Straße am äußeren Rand der Dorfes und spring über einen Zaun, die letzten 11 s sind zwei NPCs in der Nähe........keine Feinde...keine Ansammlung von NPCs, keine Questgeber......definitiv eine der anspruchslosesten Szenen die man sich vorstellen kann.
-Total War: Attila: Zwei ordentliche Armeen stehen sich gegenüber, ein paar Truppen marschieren noch in Position......ein Wunder, dass man hier so große CPU Unterschiede sieht.....kein Kampfgeschehen....keine Kamerabewegung.....keine Eingaben durch den Spieler....der Feind scheint auch nichts zu machen.....hier wäre ein Aufeinandertreffen der Armeen interessant....ein Angriffsbefehl für alle Truppen gleichzeitig usw.
Das war jetzt eine wilde Ansammlung von Gedanken zu den CPU-Benchmarksequenzen.....wilde Gedanken folgen...
Reproduzierbarkeit ist für Benchmarks wichtig, daher sind viele von meinen angedachten Verbesserungen schwer umsetzbar, man müsste viel öfter wiederholen und mitteln um belastbare Ergebnisse zu erzielen.
Alternative 1: Akzeptieren, dass es nicht optimal ist, und eventuell vorhandene gelegentliche Ruckler in den avg fps untergehen....Dann zusätzlich eine "Hardcore-CPU-Szene" nehmen, aufmerksam spielen, eventuell Frametimes/GPU-Auslastung aufzeichnen und subjektiv ein Urteil im Begleittext unterbringen.
Alternative 2: Eine Reihe der Tests austauschen. Total War kann bleiben, ansonsten neue Spiele oder zumindest andere vorhandene Spielesequenzen aus den Grafikkartentests verwenden....Ashes of the Singularity und Hitman könnten gehen....hab ich aber beide nicht und kann daher nichts zur CPU Last sagen....scheinen aber beide Male anspruchsvollere Sequenzen zu sein(solange der Ashes of the Singularity Benchmark nicht geskriptet ist und daher kaum CPU Last erzeugt).
Gute Nacht
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Zuletzt bearbeitet:
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 8.021
die benchmarksequenzauswahl ist aber auch nur das halbe problem. wenn in der cpu lastigeren stadt in the witcher 3 bei digital foundry ein i7 142 fps avg schafft, sollte doch in einer szene ohne viel cpu last und gpu limit die i7 cpu weit über 142 laufen. bei computerbase läuft die i7 cpu aber sogar in 720p bei 92 fps in ein limit - das macht garkeinen sinn. die i7 cpus MÜSSEN im cb benchmark LOCKER über 142 fps schaffen.
Juri-Bär
Captain
- Registriert
- Aug. 2013
- Beiträge
- 3.899
Auch wenn alle im Pentium-Hype sind: es sit doch sehr beeindruckend, dass sich jetzt e ein "Einsteiger"-i3 zum Zocken besser eignet, als ein Sandy- oder Ivy-i7 @stock.
Irgendwie hast Du nicht begriffen, warum "plötzlich" drei Spiele "4 threads" voraussetzten.
Das war ein reiner Werbegag, wie man ja auch daran sieht, dass diese Spiele nach dem Patch der Core-Abfrage auch auf einem reinen Dualcore gut laufen. Ohne eine derartige Core-Abfrage, die mit Sicherheit nicht im Code eines Konsolen-Games steht, verteilt das Betriebssystem die auszuführenden Threads (und das sind bei jedem Spiel wesentlich mehr als vier oder acht) auf die zur Verfügung stehenden Kerne.
motul300 schrieb:weil es der selbe grund ist warum damals spiele plötzlich 2 threads und später 4 threads vorraussetzten
die pc ports der konsolen (...)
und vielleicht passiert bald das selbe was die cpu betrifft die konsolen haben ja mehr als 4 threads
da muss bloß ein spiel schlecht portiert werden und schon gibts das erste spiel welches auf einem i5 nicht mehr startet
Irgendwie hast Du nicht begriffen, warum "plötzlich" drei Spiele "4 threads" voraussetzten.
Das war ein reiner Werbegag, wie man ja auch daran sieht, dass diese Spiele nach dem Patch der Core-Abfrage auch auf einem reinen Dualcore gut laufen. Ohne eine derartige Core-Abfrage, die mit Sicherheit nicht im Code eines Konsolen-Games steht, verteilt das Betriebssystem die auszuführenden Threads (und das sind bei jedem Spiel wesentlich mehr als vier oder acht) auf die zur Verfügung stehenden Kerne.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 8.021
syfsyn schrieb:Die {Digital Foundry} hatten ja nur eine titan xp OC drin
Und das system lief mit DDR4 3000
ja und das ist doch auch genau richtig so, oder? schließlich soll hier ermittelt werden, welche cpu am besten ist, und nicht wie man ein system so gimpt, damit jede cpu das selbe ergebnis bringt - weil das ist genau das, was CB (hoffentlich versehentlich?) macht.
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
duskstalker schrieb:ja und das ist doch auch genau richtig so, oder? schließlich soll hier ermittelt werden, welche cpu am besten ist, und nicht wie man ein system so gimpt, damit jede cpu das selbe ergebnis bringt - weil das ist genau das, was CB (hoffentlich versehentlich?) macht.
Ja, sehe das Problem leider ähnlich. Wäre schön, wenn CB sich dazu mal äußern könnte.
l_uk_e
Commodore
- Registriert
- Mai 2010
- Beiträge
- 5.085
Die Tests hier bringen eh nichts wenn man weiterin einfach nur die Auflösung auf 720p reduziert, aber alle anderen GPU Lastigen Einstellungen auf Ultra lässt...Man müsste auch zumindest Post Processing und AA auf low stellen, damit die GPU weiter entlastet wird und man nicht im GPU Limit hängt. Wenn man schon CPUs testet dann bitte auch richtig.
Und vor allem sollte das Spielelineup mal dringend getauscht werden.
Das kann man hie nicht ernst nehmen
Und vor allem sollte das Spielelineup mal dringend getauscht werden.
Das kann man hie nicht ernst nehmen
Mega-Bryte
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.430
und ich nahm an, hier werden jeweils elf Proze getestet und verglichen. nur eine Generation mit sich selbst zu vergleichen ist ja schön und gut, aber was sagen die Zahlen gegenüber älteren Gens? Wieviel mehr bringt es, wenn ich meinen alten 1366er/1156er i7 dafür in Rente schicken würde? Ab welcher Generation ist der zuwachs so gering, dass man für die Mehrleistung eindeutig zuviel bezahlt für CPU/Board/RAM, als dass man einen Leistungszuwas "spüren" könnte?
Kurzschlussfunk
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 286
Guten Morgen,
kann mir jemand sagen wie es möglich ist, bei den Spiele Benchmarks auf solch hohen FPS zu kommen?
Erst dachte ich, dass dafür extra die Grafikeinstellungen herunter geschraubt werden, jedoch habe ich in dem separaten Artikel nachgelesen und da sind sie ja schon auf Maximum gestellt.
Wie ist es möglich bei GTA 5 mit einer 980 Ti unter Full HD und maximalen Einstellungen im Durchschnitt 140 FPS zu bekommen?
Laut Grafikkartentest von Wolfgang bekommt er unter Full HD Auflösung jedoch 84 FPS und bei einer GTX 1080 lediglich 100 FPS raus.
Nachtrag: Mir ist bewusst, dass der Spielebenchmark von euch ziemlich umstritten ist. Aber vielleicht weiß ja jemand wie man zu solch vielen Bildern mit solchen Einstellungen kommt![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
MFG
Kurzschluss
kann mir jemand sagen wie es möglich ist, bei den Spiele Benchmarks auf solch hohen FPS zu kommen?
Erst dachte ich, dass dafür extra die Grafikeinstellungen herunter geschraubt werden, jedoch habe ich in dem separaten Artikel nachgelesen und da sind sie ja schon auf Maximum gestellt.
Wie ist es möglich bei GTA 5 mit einer 980 Ti unter Full HD und maximalen Einstellungen im Durchschnitt 140 FPS zu bekommen?
Laut Grafikkartentest von Wolfgang bekommt er unter Full HD Auflösung jedoch 84 FPS und bei einer GTX 1080 lediglich 100 FPS raus.
Nachtrag: Mir ist bewusst, dass der Spielebenchmark von euch ziemlich umstritten ist. Aber vielleicht weiß ja jemand wie man zu solch vielen Bildern mit solchen Einstellungen kommt
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
MFG
Kurzschluss
Kann da mal jemand Stellung zu nehmen? Wie kann es sein dass zwischen 7600k und 7700k beim Gaming laut CB nur 8% liegen, PCGH aber auf fast 30% Differenz kommt?
Vielleicht mal die Spiele und auch die Benchmark Szenen ordentlich überdenken...
Vielleicht mal die Spiele und auch die Benchmark Szenen ordentlich überdenken...
- Registriert
- Apr. 2008
- Beiträge
- 12.730
Wenn Volker reagieren würde, würde er vermutlich sagen, dass CB realistische Testsetups wählt mit typischer Hardware(damals GTX980 und Ram innerhalb der CPU spezifikationen). Das die hohen Grafikeinstellungen oft auch die CPU mehr belasten und dass das herabsetzen der Auflösung eh schon unrealistisch ist, weil keiner mit 720p spielt. Das der Testparcour so alt ist um eine weit zurückreichende Sammlung an CPUs zu vergleichen und sich bis auf Ausnahmen für die CPU Last doch auch nix getan hat.duskstalker schrieb:ja und das ist doch auch genau richtig so, oder? schließlich soll hier ermittelt werden, welche cpu am besten ist, und nicht wie man ein system so gimpt, damit jede cpu das selbe ergebnis bringt - weil das ist genau das, was CB (hoffentlich versehentlich?) macht.
Zumindest hoffe ich, dass er "so in der Art" argumentieren würde und es nicht versehentlich so ist.....versehentlich wäre nämlich für jemanden mit so langer Erfahrung in dem Bereich ziemlich peinlich. Absicht kann man ihnen nicht unterstellen, denn was sollten sie auch davon haben....wenn sie gesponsort wären, dann doch von CPU Herstellern und die würden nicht gerne sehen wenn die Benchmarks sagen: "Spieler, bleibt ruhig bei eurer alten Hardware."
Ich finde es auf CB immer sehr angenehm, dass ich so eine große Vergleichsauswahl finde. Auch toll ist die Funktion bei den Gesamtpunkten eine eigene Auswahl an Benchmarks auswählen zu können. Und von mir aus sollen es auch "realistische Harware und Settings" sein(2017 angepasst). Aber bitte CB wählt die CPU Benchmarksequenzen nicht nach den Kriterien für GPU Tests aus! Sucht euch die worst case Stellen raus, am besten durch beobachten der GPU Auslastung! Und dann testet diese Stellen. Da werden sicherlich mehr unangenehme Schwankungen sein, aber entweder ihr mittelt öfter(ja mehr Arbeit), besser noch ihr analysiert die Frametimes und das subjektive Gefühl......von mir aus auch ohne Titan X und OC Ram....aus meiner Sicht aber besser mit^^.
Ähnliche Themen
- Antworten
- 344
- Aufrufe
- 98.083