Test Intel Core i7-5820K und i7-5960X im Test

BlackWidowmaker schrieb:
Wenn ein CF/SLI Gespann nicht einmal einen 4790K auslastet, ist es sinnlos von einem Octacore eine höhere FPS-Leistung zu erwarten, also ist der gesamte Test eigentlich für die Katz.

Das gilt (noch) für reale Spiele, aber z.B. in 3D-Mark hält selbst ein übertakteter 6-Core ein 4xCF/SLI-Gespann schon zurück.
Das zeigt zum Einen, dass synthetische Benchmarks nicht wirklich dafür taugen, reale Spieleleistung zu beurteilen, aber auch, dass Spiele, wenn der GPU-Flaschenhals erstmal weitgehend aus dem Weg geräumt ist, höchstwahrscheinlich auch viel stärker von einer schnellen Multi-Core-CPU profitieren könnten, wenn sie nur entsprechend optimiert würden.

Und dazu kommt halt, dass es jemandem, der sich wirklich 3 oder 4 High-End-Grafikkarten in den Rechner packt, ziemlich oft sogar überhaupt nur darum geht, Benchmarkrekorde zu brechen und nicht um optimale Spiele-Leistung. Und so ein Benchmark-Rekord-Jäger greift dann halt auch direkt zum 5960X, statt einem 5930K.

Viel interessanter ist die PCIe 3.0 Frage mMn bei einer CF/SLI + NVMe PCIe SSD Konstellation. Hier könnte dann die 28/40 Lanes und PCIe 2.0/3.0 Frage plötzlich doch Bedeutung erlangen.

Das sehe ich auch so. Die 28 Lanes des 5820K zielen ziemlich sicher auf genau so eine Konfiguration ab. 2 Grafikkarten + eine flotte PCIe-SSD. Das ist mit den nur 16 Lanes (+ ein paar nur eingeschränt nutzbaren Lanes vom Chipsatz) der Mainstreamplattform schon nicht mehr ohne weiteres drin.

Sowas halte ich für den derzeit sinnvollen Gipfel in Sachen Gaming-Enthusaismus bei dickem Geldbeutel.
Alles darüber hinaus (40 Lanes für 3 oder 4 Grafikkarten + X) ist nur noch reine Unvernunft. (Aber auch das sei jedem gegönnt, der Spaß daran hat und das Geld nicht anderweitig braucht. ;) )
 
Wenn ein CF/SLI Gespann nicht einmal einen 4790K auslastet, ist es sinnlos von einem Octacore eine höhere FPS-Leistung zu erwarten
Na ja, kommt halt auf die Peak-Werte an!
Was ja immer vergessen wird, ist die Auslastung in der Spitze, die von Benchmarks oft nicht erfasst wird - aber auch das ist es ja nicht nur!
Was ist mit den Hintergrundprogrammen, die bei uns allen laufen, nur im Benchmark deaktiviert wurden!?!

Nein, ich sehe so oft 10 und mehr Threads unter Last, da fällt es mir schwer zu glauben, das weniger Threads nicht doch hin & wieder limitiert!

Generell kommt es aber natürlich auf die Nutzung an - beim Dekodieren von Filmen sind bei mir alle 12 Threads bei 97% Last oder mehr! Natürlich limitiert da ein 4790K!
Wer nur Spiele aus den 90ern spielt hat vermutlich weniger Probleme!
 
Herdware schrieb:

Mag sein, ist stehe aber nun mal eher auf RPGs, Action, einen Shooter, manchmal ein RTS. Benchmark-Spiele finde ich einfach doof. da wird nur Wert auf Grafik gelegt, die Steuerung ist faktisch nicht gegeben, und Du kannst nicht mal den Spielstand speichern.:D

Herdware schrieb:
...dass Spiele, wenn der GPU-Flaschenhals erstmal weitgehend aus dem Weg geräumt ist, höchstwahrscheinlich auch viel stärker von einer schnellen Multi-Core-CPU profitieren könnten, wenn sie nur entsprechend optimiert würden.

Also diese Erwartung, ist schon sehr (Spiele-)weltfremd. Programmierer schaffen heutzutage nicht einmal die Umsetzung der Tasten-Anzeige bei PC-Ports (da steht dann bei Quicktimeevents drücken sie X1, oder L1 oder schlag-mich-tot-drecks-Controller-Taste und Du stirbst längst bevor dein Gehirn in der Lage ist in PC-Tastatur Sprache zu übersetzten:freak:), und Du erwartest, daß sie etwas optimieren, von dem sie in der Regel auch nicht die geringste Ahnung haben? Diese Optimierungen sind extrem Hardware-nah, im Normallfall also in Assembler, Spieleprogrammierer von heute verfügen oft nur Kenntnisse in Hochsprachen. Und wie man in sehr vielen Spielen sehen kann, leider auch dies nur mangelhaft. Dass können dann wirklich nur die Programmierer machen, die für DirectX, OpenGL, Mantle o.ä. verantwortlich sind.
Ergänzung ()

Lars_SHG schrieb:
Generell kommt es aber natürlich auf die Nutzung an - beim Dekodieren von Filmen sind bei mir alle 12 Threads bei 97% Last oder mehr! Natürlich limitiert da ein 4790K!

Eigentlich ging es bei dem Test um die "Sinnhaftigkeit" von 1/2/3/4-Fach CF. Ich glaube nicht das CF beim Dekodieren was bringt, gestehe aber Unwissen diesbezüglich ein. Aber mir ging es um Spiele, daß jede CPU zum Rendern grundsätzlich zu langsam ist, ist mir aus eigener Erfahrung schmerzlich bewußt. Ansonsten denkt man mit einem 2600K, man ist der CPU-King, aber schon eine kleine Full-HD Animation in Photoshop läßt Dich heulen: "Ich brauch aber so was von unbedingt einen neuen Rechner, möglichst sogar mit 18 Kernen, 1TB RAM und eine P3700 2TB dazu.":(
 
Daedal schrieb:
Allein die veränderte Overhead Situation von PCIe2->PCIe3 mit dem Wechsel von 8b10b Kodierung auf 128b130b macht einen Unterschied von fast 20% aus. Daher müsste das schon neu getestet werden.
Was hat das eine mit dem anderen zu tun. PCIe 2.0 ist 5GHz und 8b10b, PCIe 3.0 ist 8Ghz und 128b130b, also praktisch (bei weniger als 2% Abweichung kann man aufrunden) entspricht daher die Bandbreite von PCIe 3.0 x8 der von PCIe 2.0 x16, das hat mit 8b10b und 128b130b nichts zu tun und den 20% Unterschied gleich die Frequenz aus, die hat sich ja eben bei PCIe 3.0 gegenüber PCIe 2.0 nicht verdoppelt sondern ist 20% weniger als das doppelt, weil die Bitcodierung anders und 20% effizienter ist.

Das ganze Overhead ist bei PCIe sowieso noch mal etwa 20%, egal ab PCIe 2.0 oder 3.0, denn die Bitcodierung ist nur des Overhead Data transmission Lyers, der Data link layer packt noch eine Sequenznummer und eine CRC dazu und erwartet eine Bestätigung oder Fehlermeldung um das Paket noch mal zu schichen usw. Wie gesagt gute 20% gehen noch mal runter, aber das ist bei PCIe 2.0 und bei PCIe 3.0 gleich.
BlackWidowmaker schrieb:
Selbst 10k HDDs wie die Raptoren lasten SATA-I nicht aus.
Doch, die aktuellen tun das bei weiten, die kommen auf etwa 220MB/s auf den äußeren Sektoren.

BlackWidowmaker schrieb:
Viel interessanter ist die PCIe 3.0 Frage mMn bei einer CF/SLI + NVMe PCIe SSD Konstellation. Hier könnte dann die 28/40 Lanes und PCIe 2.0/3.0 Frage plötzlich doch Bedeutung erlangen.
Da würde aber ein 5820K mit seine 28 Lanes auch reichen, 16+8 für die beiden Grakas und noch einmal 4 für die SSD, auch die DC P3700 hat ja ein PCIe 3.0 x4 Interface, dann sind alle 28 Lane belegt.
 
Holt schrieb:
Da würde aber ein 5820K mit seine 28 Lanes auch reichen, 16+8 für die beiden Grakas und noch einmal 4 für die SSD, auch die DC P3700 hat ja ein PCIe 3.0 x4 Interface, dann sind alle 28 Lane belegt.

Na klar, natürlich. Und USB, LAN und weiß der Teufel noch, dürfen in dem Fall nicht benützt werden oder was? Das PC-Leben ist nun mal kein Benchmark, in der Praxis wird es durchaus Performanceunterschiede geben wenn Lanes gesharet werden müssen.

Das ist dann wieder so ein Punkt, wo ich mir mein Asus P2B zurück wünsche, da konnte man noch alle IRQs und Hardwareadressen noch schön manuell im Award-BIOS einstellen und musste sich nicht darauf verlassen, daß MB-Hersteller oder gar Windows das alles alleine schon richtig machen.
 
Holt schrieb:
Doch, die aktuellen tun das bei weiten, die kommen auf etwa 220MB/s auf den äußeren Sektoren.
.

Selbst meine 3TB Seagate mit nur 7200 Upm, schafft an die 210MB/s Lesen und Schreiben Sequentiell
 
Holt schrieb:
Was hat das eine mit dem anderen zu tun. PCIe 2.0 ist 5GHz und 8b10b, PCIe 3.0 ist 8Ghz und 128b130b, also praktisch (bei weniger als 2% Abweichung kann man aufrunden) entspricht daher die Bandbreite von PCIe 3.0 x8 der von PCIe 2.0 x16, das hat mit 8b10b und 128b130b nichts zu tun und den 20% Unterschied gleich die Frequenz aus, die hat sich ja eben bei PCIe 3.0 gegenüber PCIe 2.0 nicht verdoppelt sondern ist 20% weniger als das doppelt, weil die Bitcodierung anders und 20% effizienter ist.
Was ist das für eine blöde Frage? Genau das hat es damit zu tun was ich erklärt habe und du noch ausschweifender ergänzt hast:
PCIe2 Testwerte sind nicht übertragbar auf PCIe3. Dies sollte neu getestet werden ob sich die Änderungen auf das Verhalten und die Skalierung auswirken. Größere Pakete können auch einen umgekehrten Effekt haben und die Datenrate reduzieren wenn die Datenmengen kleiner werden und der Vorteil des geringeren Overhead kannibalisiert wird. Auch sind Latenzen anders dadurch.
 
BlackWidowmaker schrieb:
Na klar, natürlich. Und USB, LAN und weiß der Teufel noch, dürfen in dem Fall nicht benützt werden oder was?
Das hängt doch an DMI, also an den zusätzlichen Lanes für die Anbindung des Chipsatzes bzw. an den Lanes die der Chipsatz dafür bereitstellt. Diese 28 bzw. 40 PCIe 3.0 Lanes sind extra, da hängt keine USB oder LAN dran, wenn Du es nicht als Karte in einen Slot steckt, der mit den Lanes versorgt wird. So viel Grundwissen sollte man schon über die Architektur mitbringen, wenn man selbst IRQs und Hardwareadressen im BIOS einstellen können möchte :D
 
Hi!

ich hab mir jetzt am Wochenende meine neue Kiste mit 5820 und Gigabyte X99-UD4 zusammen gebaut.
Lauft gut soweit... hab nun paar Tests verglichen und ich bin in den Benchmarks aber überall leicht unter denen von den Benches hier. (bis jetzt mit Winrar und Sisoft Sandra 2013 getestet)

Meint ihr kann das so krass an den Boards liegen ? oder wo ist da der Hund begraben? Hier im Windows ist alles auf High Performance gedreht.

paar screenshots im Anhang
 

Anhänge

  • cpu.JPG
    cpu.JPG
    59,4 KB · Aufrufe: 536
  • speicherbandbreite.JPG
    speicherbandbreite.JPG
    87,9 KB · Aufrufe: 534
  • winrar.JPG
    winrar.JPG
    169,6 KB · Aufrufe: 531
  • cinebench.jpg
    cinebench.jpg
    176,6 KB · Aufrufe: 510
Zuletzt bearbeitet:
Messungenauigkeiten, anderes Board, unterschiedlichen (Energiespar-)Einstellungen im BIOS, andere RAMs, andere Kühlung, etc. Abweichungen in dem Bereich sind zwischen unterschiedlichen Systemen normal und vor allem die große Abweichung bei der Speicherbandbreite lässt vermuten, dass Dein RAM langsamer ist.
 
@HighPressure,
könntest Du mal den Speicher mit AIDA64 benchen?
Welchen RAM hast Du und wie ist der eingestellt?

Mein neues System kommt, sobald der G.Skill 3000 MHz-RAM lieferbar ist:
OC Set 5930K mit 4,50 GHz
Mainboard ASRock X99X Killer Sockel 2011-3


CPU Intel® Core™ i7-5930K - 6 Cores / 12 Threads
G.Skill RipJaws4 Speicher 16 GB 3000 MHz mit CL15
 
Zuletzt bearbeitet von einem Moderator: (Bild entfernt. Was hat das Bild mit dem Beitrag und Thema zu tun?)
hab grad ein Bios update auf die neueste Verison noch gemacht. Das hatte ich bisher verabsäumt.
nun bin ich statt auf 38,6 auf 39,3 speicherbandbreite (könnte wohl auch schwankungstoleranz sein?)

hier mein genaues setup
http://geizhals.at/eu/?cat=WL-459198
(die restlichen daten HDD´s fehlen. Die Graka, SSD und Netzteil hatte ich vorher schon)

den test mit AIDA64 mache ich später.
Bios ist komplett default bis auf die SSD Setting (kann man wählen)
Ergänzung ()

So,.. noch eben AIDA erledigt
Leider bisschen was in der Trail ausgeblendet
 

Anhänge

  • aida.JPG
    aida.JPG
    67,4 KB · Aufrufe: 547
Zuletzt bearbeitet:
Danke für den Bench. Ich bin mal gespannt, wie sich die 2133 MHz 16-16-16 im Vergleich zu 3000 MHz 15-15-15 auswirken. Vermutlich wird die Latenz geringer als 75 ns sein. Auch der Datendurchsatz wird etwas höher ausfallen. Nicht zuletzt, weil ich den Haswell-E auf 4,5 GHz übertakte.
 
Wäre interessant wenn du ein Vorher nacher Benchmark machen könntest :)

Ich überleg auch ihn zu takten, aber andererseits,.. Wozu? Weils geht :-P
Werde mir aber auf jeden Fall so ein Intel Protection Plan dann organisieren und bis ans limit Takten ohne Angstgefühl ;) ..wobei grad das machts aus, oder? Haha
 
Für die Sparer u. x4 ...herrlich :D Da wird sich nächstes Jahr einiges bewegen ... :-)
 
Wenn das 16 GB wären dann könnte man zuschlagen aber 8 GB für 120 € ?? Ne danke :D
 
Ah, da hat Geizhals wohl nen Fehler drin. Dann sind es nur 8GB was die Riegel uninteressant macht.
 
Zurück
Oben