Test Intel Core i9-7980XE & 7960X im Test: 18 Kerne stellen bei Leistung und Preis alles in den Schatten

canada schrieb:
Unter Windows Anwendungen gewinnt Intel klar, unter Linux ist gleich stand. Da sieht man mal was die Intel Compiler Anpassung vieler Windows Software so bezweckt.
Das genau ist der "springende-Punkt".
So lang die Software auf den Monopolisten optimiert wird sieht der Underdog den Kürzeren.

Dem Verbrauer ist das hinsichtlich der Leistungskrone erst mal egal, der Einzelne wird dies auch nicht ändern können, dennoch sehen wir aktuell die P4 und Athlon 64 Zeiten in Rev. 2.0, ein Grund mehr sich nun nicht nur daran zu freuen, dass Intel auch mal wieder erwacht ist, sondern etwas Zeit zu investieren und dem Underdog seine super Leistung abzukaufen. :)
 
das mit den Linux Anwendungen @ CB Rating ist stellenweise aber auch nur halbwahr.

Schaut man sich da mal die Ergebnisse genauer an so merkt man dass da das Blender vermutlich noch nix mit AVX anfangen kann und der X264 Bench schlägt den Boden raus, allein das zieht die CPU ja so runter dass das Rating hinfällig wird.

2017-09-26 15_13_22-Intel Core i9-7980XE & 7960X im Test_ 18 Kerne stellen bei Leistung und Prei.png

Auch reicht ein Blick auf die anderen CPU umd man stellt fest dass es nicht an irgendeiner Linux AMD Optimierung liegt sondern der i9 auch gegen die anderen Intel CPU hier komisch dasteht. Da is dann was im Linux im Argen oder am X264 unter Linux.

Am Ende vom Tag muss man sich wohl schon genau damit auseinander setzen welche CPU für sein meist speziellen Use Case die bessere ist. Genauso wie zb bei den Epyc Servern. Für Renderen genial, für DB weniger, usw...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
für DB weniger, usw...

Ich hoffe die Meinung kommt nicht durch den Anandtech-Epyc Artikel, bei dem mit einer Datenbank von der Größe des L3 getestet wurde.
Ist naheliegend, dass der Interconnect einer monolithischen CPU fixer ist, als die Fabric zwischen den Dice.
Nur warum wurde da nicht mal zum Vergleich mit einer Datenbank getestet, die im RAM liegt und daher über acht Kanäle gegenüber den sechs Kanälen des Xeons gelaufen wäre? Ganz davon abgesehen, dass Datenbanken der Größe des L3-Caches im riel-laif wohl eher selten anzutreffen sind. Bin aber auch gern offen für Aufklärung zum Thema "transactional databases".
Wie ich in #274 schon angedeutet habe - warum werden solche offensichtlich benachteiligenden Tests überhaupt gemacht - bzw. bleiben default in den Zusammenstellungen aktiviert? Das gilt für die "x264 Schwäche unter Linux" ( :D:D ) genauso wie Euler3d bei AMD-CPUs. Könnte ähnlich den Bewertungen bei manchen Sportarten gemacht werden, dass die Ausreißer nach oben und unten aus der Wertung fallen.
 
Zuletzt bearbeitet:
so genau hab ich mich mit dem Anandtech Artikel jetzt nicht auseinander gesetzt aber gibts noch mehr Benches zu DB?

Unterstreicht ja nur die Aussage dass es sich gerade bei dieser HW zu diesen Preisen schon eher lohnt mal wirklich genauer hinzusehen wie die Plattform sich da macht.
 
Genauer hinsehen ist ein gutes Stichwort. Wie im Test und teilweise hier in den Kommentaren die Personalkosten als Argument gebracht werden, aber zumindest im Test kein einziges Wort zum fehlenden ECC Support verloren wird, ist schon ziemlich übel. Wer mit Rendern etc. sein Geld verdient und nicht gerade als Amateur unterwegs ist, wird den Punkt nicht außer Acht lassen wollen. Deswegen nimmt man für sowas eben auch richtige (Server) Hardware.
 
Krautmaster schrieb:
so genau hab ich mich mit dem Anandtech Artikel jetzt nicht auseinander gesetzt aber gibts noch mehr Benches zu DB?

Unterstreicht ja nur die Aussage dass es sich gerade bei dieser HW zu diesen Preisen schon eher lohnt mal wirklich genauer hinzusehen wie die Plattform sich da macht.

Guck mal hier auf Phoronix, die Tests sind immer sehr ausführlich.

https://www.phoronix.com/scan.php?page=article&item=intel-7960x-ubuntu-linux&num=1
https://www.phoronix.com/scan.php?page=article&item=intel-7980xe-extreme&num=1
 
dachte, ich such nämlich auf Arbeit für ne recht große Teamcenter Oracle DB nen passenden neuen Unterbau. Hatte auch schon an Epyc gedacht.
 
Bei Datenbanken würde ich nur CPUs mit ECC-Support benutzen (also natürlich auch mit passendem Speicher)
 
klar das auch nix für HEDT, aktuell stehen da 2x Systeme mit 4S XEON 28C im Warenkorb.


P.S.: HEDT find ich ECC unnötig. Das is beim 1000€ NAS mit zB ZFS wichtiger als bei der 5000€ Workstation.
Ergänzung ()

ottoman schrieb:
...aber zumindest im Test kein einziges Wort zum fehlenden ECC Support verloren wird

Hm ich kenne keine Workstation die bei uns auf ECC setzt. Wo genau sollte das zb beim Rendern wichtig sein? ECC ist doch dann wichtig wenn zb absolut fehlerkritische Sachen wie ein Raid, Dateisysteme oder DBs drüber laufen - am besten noch welche die 24/7 rechnen und verfügbar sein müssen. Beim Rendern dürfte ECC herzlich wenig interessieren - bzw bei fast jedem HEDT Einsatzgebiet.

Ist bei TR ECC zwischenzeitlich offiziell supported? Auch DIMMs damit auf den MB Kompatibilitätslisten Listen?

@yummycandy
in diesen Linux Tests ist die Sache aber selbst mit dem 7960X recht eindeutig. Sehr durchwachsener Parcour.


@Threadripper & i9

ich stell mir den typischen Einsatz da eher so vor. Du bist Pro oder Semipro mit Nebenjob oder Selbständigkeit, hast zb ne Tätigkeit als Grafiker und renderst diverse Logos und Zeuch zu Hause. Mit nem 6 Kern Haswell wartest du zwischen 30s und 15 min - was einfach nervt. Jetzt hat man die Option dieses Tagesgeschäft (kein 24/7 Betrieb) via den neuen High Thread Count CPU zu beschleunigen (um Faktor 3). Sei es TR, sei es i9. Die Kaffeepausen werden kürzer. Die Arbeit effizienter.

Sei es Blender, sei es exportieren von X264 / X265 Clips, sei FEM. Weniger die stunden- tagelangen ausgelagerten Hintergrund Aufgaben sind das Einsatzgebiet, viel eher die in den Arbeitsworkflow integrierten intensiven Aufgaben wie eben das Erstellen einer neuen 3D Ebene bzw das Rendern dieser in Photoshop, oder eben die Sequenz in Premiere Pro. (die schnell jeden Thread des System einnehmen)

Mit ECC, PCIe Lanes usw hat das erstmal wenig am Hut. Bei beiden Plattformen. Mit Zocken noch weniger, es geht halt nebenbei auch gut damit.
 
Zuletzt bearbeitet:
ottoman schrieb:
Wer mit Rendern etc. sein Geld verdient und nicht gerade als Amateur unterwegs ist, wird den Punkt nicht außer Acht lassen wollen.

Rendern ist definitiv am wenigsten kritisch was mögliche Bitfehler anbetrifft. Einen Bitfehler würdest du bei einem Video vermutlich niemals erkennen.

Krautmaster schrieb:
Ist bei TR ECC zwischenzeitlich offiziell supported? Auch DIMMs damit auf den MB Kompatibilitätslisten Listen?

TR Unterstützt ECC Speicher offiziell. Allerdings nur UDIMMs, was die maximale Ausbaufähigkeit auf 128GB RAM begrenzt. Ich denke aber "ottoman" wird kaum den TR mit Serverhardware gemeint haben.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ist bei TR ECC zwischenzeitlich offiziell supported? Auch DIMMs damit auf den MB Kompatibilitätslisten Listen?

@yummycandy
in diesen Linux Tests ist die Sache aber selbst mit dem 7960X recht eindeutig. Sehr durchwachsener Parcour.

ECC ist zumindest in den Handbüchern und auf den Websites als Produktmerkmal aufgeführt. Aber ne Liste hab ich auf die Schnelle nicht gefunden. - < https://www.asus.com/de/Motherboards/ROG-Strix-X399-E-Gaming/specifications/

Zu den Tests, da fehlen ja noch einige. Mir gings aber primär um die Ausführlichkeit. Ist was anderes als die 2 Tests hier :)
 
danke, sowas in die Richtung im hatte ich im Kopf, dachte aber da gäbs auch Diskrepanzen von Board zu Board und keiner weiß so wirklich ob ob der ob nicht. Würde mir aber auch bei SLX / TR kaum ECC Module holen.
 
KillerPlauze090 schrieb:
muss ehrlich sagen ich bin nicht beeindruckt. hatte mehr von dem 18kerner erwartet. in Anwendung gerade mal im durchschnitt 17% vor dem 16kerner von amd? finde ich persönlich nicht viel
18 Kerne sind nur 12,5% mehr als 16 Kerne, von daher finde ich 17% nicht wenig. Aber solche Prozentzahlen sind letztlich egal, weil sie aus einer willkürlichen Auswahl an Anwendungen entstehen die mehr oder weniger viele Kerne nutzen und teils mit so vielen Kernen nicht klar kommen. Mit einer anderen Auswahl käme ein anderes Ergebnis heraus und daher sollte man solche Gesamtränkings auch besser gleich wieder vergessen und keineswegs als Grundlage für eine Kaufentscheidung nehmen.

Viel sinnvoller ist es sich das Abschneiden bei den Benchmarks anzusehen die der eigenen Nutzung am besten entsprechen, allerdings dürften viele Heimanwender daran scheitern zu analysieren welche Anforderungen die SW die sie nutzen an die HW überhaupt stellt. So schauen auf die CPU Auslastung im Task Manager, sehen bei ihren 4 Kerner z.B. knapp 30% und dies auch auf jedem Kern und glauben die CPU würde gar nicht limitieren. Dabei übersehen sie, dass dies zu 99% dann doch der Fall ist und ein Thread die CPU auslastet, der Task Scheduler von Windows schiebt den aber so schnell zwischen den Kernen hin und her, dass er scheinbar jeden zu 25% auslastet. Dann helfen mehr Kerne nichts, sondern eine CPU mit mehr Singlethreadperformace.

darkcrawler schrieb:
24 thread ohne ECC
Das ist ein Nachteil und ich hätte auch gerne ECC RAM Unterstützung, aber dafür gibt es die am 29.08. vorgestellten Skylake-W Xeons und deren C422 Plattform. Der Xeon W-2195 ist dort der 18 Kerner.

Aber die meisten Käufer von HEDT Systemen (dazu gehören Skylake-X und Threadripper) scheint ECC RAM nicht zu interessieren, die wenigsten die in den Foren nach RAM für TR fragen oder TR besitzen, wollen bzw. haben ECC RAM verbaut.
darkcrawler schrieb:
RAID-Keys for sale
Bei AMD gibt es keine Möglichkeit ein RAID von NVMe SSDs zu bilden, außer eben über SW RAID des Betriebssystem, mit den sich daraus ergebenden Einschränkungen. AMD will eine RAID Treiber liefern, aber noch ist der nicht da und daher kann man beides bisher nicht vergleichen. Wer den RAID Key nicht kauft, kann aber trotzdem bei Intel RAID am Chipsatz oder über VROC mit Intel SSDs machen.

user2357 schrieb:
Wenn aus dem Gesamtrating NUR der Euler herausgenommen wird, bleiben 11% Vorsprung.
Was eben zeigt wie sinnfrei solche Prozentzahlen als Gesamtrating sind.

user2357 schrieb:
Das sollte doch an sich dafür ausreichen, diese Software für einen Vergleich auf Augenhöhe zu disqualifizieren.
Egal welche SW man nimmt, die Zusammenstellung wie sich nie dem der Nutzung auch nur eines realen User decken. Es ist daher sinnfrei sich an einer Prozentzahlen zu orientieren.

Krautmaster schrieb:
Der Base Clock ist nicht weit voneinander. OC und Turbo hat Intel den größeren Hebel.
Weil Intel die mächtigen und leistungshungrigen AVX Einheiten hat, wenn man die Takte ohne AVX betrachtet, sind diese weit höher als mit AVX und damit weit näher an den Basistakten von AMD, deren CPUs ja nur ganz schmächtige AVX Einheiten haben.

canada schrieb:
Unter Windows Anwendungen gewinnt Intel klar, unter Linux ist gleich stand.
Da ist die Zusammenstellung der Benchmarks ja auch anderes. Mit einer anderen Zusammenstellung kann man auch ein anderes Ergebnis erreichen. Dies zeigt nur wieder wie unsinnig es ist Ergebnisse verschiedener, willkürlich zusammengestellter Benchmarks auf eine Prozentzahl zusammen fassen zu wollen.
canada schrieb:
Da sieht man mal was die Intel Compiler Anpassung vieler Windows Software so bezweckt.
Das ist Unsinn, denn den Intel Compiler gibt es sowohl für Windows wie auch für Linux. Neben der Auswahl der Benchmarks dürfte der Grund für das bessere Abschneiden von Threadripper auch sein, dass die meisten Linux Programme die über viele Kerne gut skalieren auch keine Probleme muit NUMA haben, denn im Gegensatz zu Windows ist Linux als Server Betriebssystem extrem verbreitet und ebenso ist bei Servern NUMA schon lange sehr sehr häufig anzutreffen. Dazu kommt was Krautmaster schon schrieb:
Krautmaster schrieb:
das mit den Linux Anwendungen @ CB Rating ist stellenweise aber auch nur halbwahr.

Schaut man sich da mal die Ergebnisse genauer an so merkt man dass da das Blender vermutlich noch nix mit AVX anfangen kann und der X264 Bench schlägt den Boden raus, allein das zieht die CPU ja so runter dass das Rating hinfällig wird.
Wobei mich wirklich wundert wieso das Ergebnis so schlecht ist, der 7900X hat weniger Kerne und schneidet besser ab, besser auch als der 7820X der seinerseits vor dem 7800X landet. Das mehr Kerne mehr Leistung bringen, zeigt der Vergleich der beiden ThreadRipper, nur wieso ist dann der 7980XE sogar langsamer als der 7960X? Beide liegen noch deutlich hinter dem 7700K. Das Programm muss sich da ganz fürchterlich verhaspeln und mit einer entsprechenden Optimierung um das Problem zu beseitigen, wäre das Ergebnis dann ein anderes.
Krautmaster schrieb:
Am Ende vom Tag muss man sich wohl schon genau damit auseinander setzen welche CPU für sein meist speziellen Use Case die bessere ist. Genauso wie zb bei den Epyc Servern. Für Renderen genial, für DB weniger, usw...
Eben, denn Gesamtratings treffen das Nutzungsverhalten nicht eines einzigen realen Users! Jeder macht was anderes und sollte die Ergebnisse der Benchmarks bewerten, die seiner Nutzung am besten entsprechen. Für Datenbanken, auch wenn der Test im Review bei Anandtech eher nicht sehr praxisnah war, dürfte EYPC aber weniger geeignet sein, da hier bei viele Clients auf dem Server auch sehr viel Synchronisation zwischen den Kernen nötig ist, jeder muss ja wissen was der andere gerade ändert um immer konsistente Daten zu erhalten und da hat AMD wegen der hohen Latenz der Fabric nun einmal Nachteile.
Für eine kleine Datenbank mit wenigen Clients will man hingegen eine CPU mit hoher Singlethreadperformance, da die meisten Connections nur mit einem Thread und nicht parallel abgearbeitet werden und eine Plattform mit wenig Latenz bei der I/O, beides ist bei Intel besser. Das die Latenz von RYZENs internem Chipsatz nicht gut ist, habe hier schon mal ausführlich dargelegt und sogar die externe AM4 Chipsätze schneiden da besser ab!
Krautmaster schrieb:
dachte, ich such nämlich auf Arbeit für ne recht große Teamcenter Oracle DB nen passenden neuen Unterbau. Hatte auch schon an Epyc gedacht.
Überlege es Dir noch mal und betrachte auch die Lizensierungskosten, denn Oracle kann bei vielen Kernen schnell teuer werden! Die Kosten der HW sind dann dagegen ganz schnell total irrelevant!
 
Holt schrieb:
Überlege es Dir noch mal und betrachte auch die Lizensierungskosten, denn Oracle kann bei vielen Kernen schnell teuer werden! Die Kosten der HW sind dann dagegen ganz schnell total irrelevant!

haha true. Pro Kern 47k € bei der Enterprise.

Intel / AMD Mehrkerner werden mit Faktor 0.5 verrechnet. Ein 28K Xeon Platinum kostet also 14x 47k € bzw $.

Teurer wirds aber bei VMware und ESX. Da zahlt man für jeden Kern in der Farm. Egal ob der VM zugeteilt oder nicht. Und da stecken aktuell >250 Kerne drin auf zig Blades. * 0.5 Core Faktor bei Intel / AMD.

Wir haben zwar für ne Mille ne Unlimited Enterprise Lic gekauft aber die Wartung wird alle paar Jahre an den Gegebenheiten angepasst. Und da das VMWare Blade stetig wächst bleibt nur nen Cluster für die DBs oder aber die Sache auf Physik lösen. Letzteres is bei dem sehr Perf. kritischen Teamcenter Gelumpe eher mein Fav.

Aber auch da. Neben wir 2 Server a 2x28 Kernen und man ist bei 2*2*28*0,5 = 56 Prozessorlizenzen die dann mit je >10K / Jahr in die Wartung reinlaufen. Wenn also die Software pro Jahr >500k€ kostet für 2 läppische Server... wen interessiert da ob da nun 4000€ oder 2000€ für die CPU fällig wird? :freak:

-> Preise
http://www.oracle.com/us/corporate/pricing/technology-price-list-070617.pdf
-> Core Faktor
http://www.oracle.com/us/corporate/contracts/processor-core-factor-table-070634.pdf
-> ESX mit Oracle
https://blogs.vmware.com/apps/2017/01/oracle-vmware-vsan-dispelling-licensing-myths.html

Example of Licensing Oracle workloads on classic VMware vSphere Cluster

For example, let’s say we have a vSphere Cluster dedicated to run Oracle workloads called “OraCluster” with 3 ESXi servers, each ESXi server having 2 socket x 10 cores each.The processor is Intel Family.

Total no of effective cores for licensing Oracle workloads in “OraCluster” using Enterprise Edition (EE)
= Absolute number of cores in cluster * Processor Core Factor
= 3 servers * 2 sockets * 10 cores/socket * Processor Core Factor
= 60 * 0.5
= 30 Effective cores liable for Oracle licensing

Ganz ehrlich. Das Oracle Zeugs is dermaßen überzogen - ich glaub ich muss mal anleiern von dem Dreck wegzukommen :D
 
Zuletzt bearbeitet:
Holt schrieb:
Bei AMD gibt es keine Möglichkeit ein RAID von NVMe SSDs zu bilden, außer eben über SW RAID des Betriebssystem, mit den sich daraus ergebenden Einschränkungen. AMD will eine RAID Treiber liefern, aber noch ist der nicht da und daher kann man beides bisher nicht vergleichen. Wer den RAID Key nicht kauft, kann aber trotzdem bei Intel RAID am Chipsatz oder über VROC mit Intel SSDs machen.
Hätte eigentlich am 25.09. kommen sollen. Kann also nicht mehr lange dauern.
http://www.pcgameshardware.de/Ryzen-Threadripper-1950X-CPU-266532/News/AMD-TR4-NVMe-RAID-1235147/
 
Was verspricht man sich eigentlich von Nvme Raid? Okay, bei Raid 1 immerhin etwas Redundanz. Raid 0 wüsst ich nicht wozu das gut sein sollte. Das zaubert die Latenz auch nicht runter. Wer von sequenziellen Transferraten von >6 GB/s profitiert - für den mag das ausschlaggebend sein. Aber welche Programm setzt so Datenmengen auch in Echtzeit um? Als eins dass dann wirklich mit der SSD read / Write Performance skaliert. Gibts da Benchmarks zu?
 
Zuletzt bearbeitet:
es ist schlicht der selbe Produktionsprozess wie bei den Xeons. War anzunehmen dass nicht verlötet wird. Dafür sind die Temps gar nicht mal soo schlecht. Köpfen lohnt kaum, vorher macht das Board oder die Spawas schlapp.
 
Krautmaster schrieb:
Als eins dass dann wirklich mit der SSD read / Write Performance skaliert. Gibts da Benchmarks zu?

Der 8auer hatte vorgestern ein Video online gestellt, welches heute wieder verschwunden ist.
Es ging um zwei Asus Adapterkarten die er mit je 4 m.2 SSD´s bestückt hatte (RAID 0) und welche dann mit jeweils 16 Lanes an Threadripper angebunden wurden.

Getestet hatte er mir IO Meter und kam da, glaub ich, auf einen max. Durchsatz von ca. 27 GB/Sekunde.
Zu den Latenzen kann ich nichts sagen, genauso wenig über den Anwendungsfall wo man so einen hohen Durchsatz braucht.

Ich denke das Video wird in Kürze wieder online gehen, evtl. war er etwas zu voreilig...
 
manchmal dahinter, manchmal 5% Mehrleistung mit 2 Kernen mehr ist bei Computeruniverse in den Schatten stellen....

Denkt mal darüber nach, dass AMD im Marktanteil aufholen wird und dann auch Werbeetats zu vergeben haben wird.
 
Zurück
Oben