Test High-End-CPUs im Test: Intel Skylake-X Refresh vs. AMD Threadripper

Das mit den geleakten Preisen ist gar nicht so unrealistisch.

http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/HLRS-Hawk-Supercomputer-Epyc-1269291/

38 Mio. 10.000 CPUs. Für MoBos und RAM geht sicher schon mal einiges drauf. So hoch kann der Preis der 64C Epycs gar nicht liegen, vllt 2500-2800€. Klar, ordentlicher Mengenrabatt - aber auch Retail werden die Dinger sicher nicht viel mehr als 3000€ kosten. Und das sind EPYCs. Die Threadripper sind erfahrungsgemäß bei gleicher Kernzahl etwas günstiger. Persönlich rechne ich mit 64C Threadripper um die 2300-2600€, und das wird entsprechend nach unten skalieren. 32C um die 1200-1300€, 16C für 600-700€. Dazu passen dann auch die 16C AM4 Leaks. Ca. gleicher Preis für 16C auf Mainstream und TR4, die Mehrkosten ergeben sich für den Endanwender durch das jeweilige Mainboard.
Selbst wenn man in IPC und Takt nur zu Intel gleichzieht (IPC bei gleichem Takt unterscheidet sich zwischen Coffee Lake und Zen+ um ca 5% IIRC, und Zen 2 soll ~10-15% bringen, also ist "nur" gleichziehen eher unwahrscheinlich)
unterbietet man Intel bei Preis pro normierter Leistung mal eben um 50%.
 
Zuletzt bearbeitet:
andr_gin schrieb:
Der Punkt ist der: Wie viele Leute verwenden Excel oder Inventor das z.B. beim Importieren von step Dateien genau 1 Kern benutzt.
Wir können nicht immer auf Software schauen, die nur einen Kern verwendet. Im nächsten Jahr werden mindestens 12 Kerne im Mainstream zum Standard. Wenn Software dann immer noch über 90% der CPU Leistung liegen lässt, dann sollten die Entwickler endlich handeln.

Die Leistung eines einzelnen Kerns ist seit Jahren kaum noch steigerbar und das sollten Softwareentwickler endlich anerkennen. Gründe dafür sind Probleme bei der Kühlung bei zu hohen Taktfrequenzen, schwierig zu senkende Speicherlatenzen und kaum noch steigerbare Parallelität auf Instruktionsebene. In der Zukunft wird der Trend daher noch stärker zu immer noch mehr Kernen bei kaum oder gar nicht mehr steigender Single-Thread-Leistung gehen.

Übrigens ist auch Single-Core-Cinebench im Test enthalten. Allerdings trennt das gesamte Testfeld da gerade mal 30%, weil da einfach schon sehr stark am Limit operiert wird.
 
Ist nicht wahr, CPUs von Intel sind zum Zocken besser geeignet? Aber wir brauchen doch mindestens 64 Threads für Minecraft?!
 
Spielebenchmarks schön und gut, aber wenn man schon eine RTX 2080 Ti nimmt, dann kann man in der Auflösung auch höher gehen als Full-HD.
 
Stimmt, dann hätte man in einem CPU Vergleichstest auch gleichzeitig das GPU Limit erfasst.
 
  • Gefällt mir
Reaktionen: Transistor 22, RichieMc85 und Rage
Schrotti schrieb:
wenn man schon eine RTX 2080 Ti nimmt, dann kann man in der Auflösung auch höher gehen als Full-HD.

Macht keinen Sinn.
Es wird ja 1080p mit einer 2080Ti genutzt um nicht an dem Limit der Grafikkarte zu hängen.
Alles darüber hat wieder die Chance, das die Grafikkarte der Flaschenhals ist.
 
  • Gefällt mir
Reaktionen: Transistor 22 und GERmaximus
Inxession schrieb:
Hmm, ok, dann bin ich realitätsfremd weil ich aufs Geld schaue(n muss)
Wie verblendet muss man eigentlich sein, um wirklich 15 % Mehrleistung, einem >25% höherem preis vorzuziehen? Wenn das keine Argumente sind, sollte man eher tatkräftig Leuten helfen die es nötig haben, anstatt damit zu prahlen das Geld keine Rolle spielt.

Dieses Argument ist halt mit der größte Unfug den es gibt. Die meisten wollen doch wenn sie upgraden ein gewisses Leistungsplus und mit das schnellste aktuelle System haben und kaufen sich zum Zeitpunk X eine Plattform die bis Zeitpunkt Y halten soll. Jetzt geb ich doch lieber am Zeitpunkt X etwas mehr aus, nur um den Zeitpunkt Y nach hinten zu verschieben. Und genau das tust du mit dem Intel, Dann spar ich lieber das Geld an der GPU, denn die fliegt eh nach 2 Jahren wieder raus. Die CPU tauscht man aber nur noch alle ~5 Jahre und da ist es halt sinnvoll mal etwas mehr auszugeben.

Dazu kommt, dass man ja etwas neues haben will. Nehmen wir mal an die Ryzens würden von Intel kommen, dann wäre das ja so als würde man zur alten Generation greifen würde, obwohl die neue (schnellere) schon auf dem Markt ist. Wieso sollte ich jetzt was veraltetes kaufen obwohl es schon was neueres schnelleres gibt? Und 100-150€ Aufpreis sind jetzt wirklich nicht der Rede wert. Lasss es mal 200€ sein, dann bezahlst du auf die Lebensdauer gesehen grandiose ~3,30 im Monat (auf 5 Jahre gesehen) für 15% mehr Leistung. Da ja immer der Preis angeführt wird, sollte man dann doch auch sagen, dass du eh die Grafikkarte nicht so lange nutzt und du mehr Geld mit der teureren GPU verbrennst, als mit einer teureren CPU. Das ist doch die Diskrepanz. Es soll auf Teufel komm raus an der CPU gespart werden, aber dann wird ne 2080 ti empfohlen, die nach 3 Jahren 600-700€ Wertverlust hat wohingegen das 700€ Model nur 300€ verliert.

Abgesehen davon, dass ich damals die Leistung zum Arbeitenbrauchte, ich hätte mir die CPU aber auch zum Spielen gekauft, da hab ich einfach mal 400€ Aufpreis für die CPU gelatzt (im vergleich zum 6 kerner) und was ist jetzt? Ich hab Stand 2019 immer noch eine Top Gaming CPU, die zwar nicht mit einem 9900K mithalten kann, die Ryzens aber immer noch in Schach hält und ich bin trotzdem noch entspannt und kann gemütlich die Füße still halten, in den letzten 5 Jahren hab ich allerdings 3 verschiedene GPUs gehabt (660/770/980 ti) und bald kommt nr. 4 dazu (2080ti). Hätte ich damals an der CPU gespart, hätte ich jetzt meine CPU definitiv schon getauscht.


Ach und BTT: Leider schaffts auch die Generation nicht mit zu überzeugen, mit Skylake X hats kurz gekribbelt, aber dann hätte ich doch irgendwo kein Plus an Spieleleistung gehabt und jetzt schon wieder nicht. Da fahr ich bei der momentanen Nutzung als Hybrid (gaming/Workstation) besser mit dem 9900K. Irgendwie schade, die HEDT Plattformen haben mich immer gereizt, aber der 10/12 Kerner bietet außer den Kernen zu wenig Vorteile gegenüber dem 9900K.

Dazu diese ekelhafte Kastration an Sata Ports (zumindest bei Asus), hatte ich beim X99 noch 12 (10 in Benutzung), gibt es beim Rampage VI nur noch 8....Asrock bietet zwar noch 10, aber auch nur 8 über den Chipsatz...

Irgendwie kann mich die ganze X299 Generation nicht überzeugen. Da greif ich lieber als nächstes zu Icelake. Ich würde mich freuen, wenn die nächste Generation mit dem X299 Nachfolger wieder das abliefern kann, was damals die X79/X99 gemacht haben, wirklich in nahezu allen Belangen einen deutlichen Vorteil gegenüber den Z Boards / CPUs zu haben...dann wird's auch wieder ein HEDT System, aber ansonsten geh ich in die Mittelklasse runter. Zur Not gibt's dann ein 2. TR System dazu....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tomasvittek
Wieso nehmt ihr Project cars 2 als Benchmark?

Dieses Spiel samt Engine ist ziemlich schlecht - für so einen Benchmark eher ungeeignet.
 
@Shio das ist definitiv korrekt; ebenfalls korrekt ist aber auch, dass ein "Realismus-Test" fehlt, denn wer kauft denn so eine CPU + 2080Ti & Co. und lässt Spiele dann auf minimalen Settings in 1080p laufen, nur damit man dröflzig FPS hat?

Je nach Anwendung wird man doch 60 bis max. die Bildwiederholrate des Monitors als FPS anpeilen und mit diesem Constraint Qualität und Auflösung so hoch / gut wie möglich einstellen.
 
Pokerfail schrieb:
Wir können nicht immer auf Software schauen, die nur einen Kern verwendet. Im nächsten Jahr werden mindestens 12 Kerne im Mainstream zum Standard. Wenn Software dann immer noch über 90% der CPU Leistung liegen lässt, dann sollten die Entwickler endlich handeln.

Die Leistung eines einzelnen Kerns ist seit Jahren kaum noch steigerbar und das sollten Softwareentwickler endlich anerkennen. Gründe dafür sind Probleme bei der Kühlung bei zu hohen Taktfrequenzen, schwierig zu senkende Speicherlatenzen und kaum noch steigerbare Parallelität auf Instruktionsebene. In der Zukunft wird der Trend daher noch stärker zu immer noch mehr Kernen bei kaum oder gar nicht mehr steigender Single-Thread-Leistung gehen.

Übrigens ist auch Single-Core-Cinebench im Test enthalten. Allerdings trennt das gesamte Testfeld da gerade mal 30%, weil da einfach schon sehr stark am Limit operiert wird.


Da schieben sich alle gegenseitig den schwarzen Peter zu. Die Softwareunternehmen sehen vor allem eine Menge Arbeit, denn manche Workloads lassen sich nicht sehr einfach parallelisieren. Schaut z.B. mal Star Citizen an, wie viel Zeit da gebraucht wurde, die Engine auf x64 und Multicore umzubauen. Und die CPU-Hersteller stoßen an die Grenzen der Machbarkeit pro Kern. Aber uns bleibt hier nichts anderers übrig. Was sollen wir denn machen, 5nm ? 3nm ? Ohne eine komplett neue Architektur mit neuen Materialien statt Halbleitern kommen wir pro Kern einfach nicht mehr viel weiter. Intel war damit jahrelang zufrieden, einfach nur auf Takt zu optimieren, die devs konnten sich zurücklehnen, die Verbraucher haben gemurrt, aber hatten keine andere Wahl. Und jetzt ernten wir die Früchte dieser Faulheit.
 
  • Gefällt mir
Reaktionen: Rockstar85
@ascer Kommt drauf an, was man spielen will. Es kann auch auf einem 60Hz Bildschirm sinnvoll sein, mit >120fps und am besten FastSync bzw. EnhancedSync zu spielen. Aber ja, meiner Meinung nach ist es schon ein ziemlich guter Weg mit einem 144Hz Schirm, 142fps-Limit und G- bzw. FreeSync zu spielen. Was darüber hinaus geht macht sich für mich nicht positiv auf einem 144Hz Schirm bemerkbar, mehr habe ich noch nicht probiert. Und dafür sind die meisten (besseren*) CPUs stark genug. Für Leute, für die unbedingt beliebig viele fps notwenig sind, hat Intel ja dann die passenden Prozessoren.

*Ab Ryzen 5 2000 bzw. i7 7000

Edit: @Volker Wäre es möglich, den OC-Teil etwas weiter auszubauen? Mesh- und RAM-OC helfen gerade in Spielen immens und da wäre der Vergleich 7820x vs 9800x interessant, weil die sich quasi nur in der Cache-Größe unterscheiden. Vielleicht reicht es dann nach OC für einen Vorsprung für den 9800x, weil Spiele mehr L3 Cache brauchen, oder vielleicht auch nicht?
 
gunmarine schrieb:

Sehe ich nicht so.
Man upgraded wenn man die Leistung braucht. Ob ich in 2-3 Jahren mehr davon habe jetzt mehr Geld ausgegeben zu haben, bringt mich jetzt nicht weiter.
Wenn ich aktuell die Qualitätseinstellungen runterschrauben muss nur damit ich mir in 2-3 Jahren _vielleicht_ keine CPU+Mobo kaufen muss, würde mich nicht zufrieden stellen.
 
gunmarine schrieb:
Abgesehen davon, dass ich damals die Leistung zum Arbeitenbrauchte, ich hätte mir die CPU aber auch zum Spielen gekauft, da hab ich einfach mal 400€ Aufpreis für die CPU gelatzt (im vergleich zum 6 kerner) und was ist jetzt? Ich hab Stand 2019 immer noch eine Top Gaming CPU, die zwar nicht mit einem 9900K mithalten kann, die Ryzens aber immer noch in Schach hält und ich bin trotzdem noch entspannt und kann gemütlich die Füße still halten...

Auch wenn ich Deine Gedankengänge nachvollziehen kann vergleichst Du Dein HEDT System mit einem Mainstream PC. Deine CPU hat damals (Ende 2014) so um die 900€ gekostet (wenn ich mich nicht irre), Plus teurem Board und Plus Quadchannel RAM Bestückung.
Etwas mehr Leistung bekommst Du heute ungefähr für ein drittel Deines damals gezahlten Preises.
Das heist anders herum, das man sein "Billigsystem" ein mal komplett Aufrüsten könnte, somit wieder ein state of the Art Sytem hat und man anschließend immer noch Geld übrig hat.

Dein 5960X wird mit Sicherheit die 2080Ti noch gut befeuern können, nur Deine Rechnung finde ich etwas zweifelhaft. Allerdings war AMD (Stand 2014) auch keine Option wenn man Leistung (für was auch immer) benötigte.

@ScaryRage
9900K = Mainstream Plattform
9800X = High End Plattform = Quad Channel RAM, deutlich mehr Lanes/Schnittstellen
 
Pokerfail schrieb:
Wir können nicht immer auf Software schauen, die nur einen Kern verwendet. Im nächsten Jahr werden mindestens 12 Kerne im Mainstream zum Standard. Wenn Software dann immer noch über 90% der CPU Leistung liegen lässt, dann sollten die Entwickler endlich handeln.

Die Leistung eines einzelnen Kerns ist seit Jahren kaum noch steigerbar und das sollten Softwareentwickler endlich anerkennen. Gründe dafür sind Probleme bei der Kühlung bei zu hohen Taktfrequenzen, schwierig zu senkende Speicherlatenzen und kaum noch steigerbare Parallelität auf Instruktionsebene. In der Zukunft wird der Trend daher noch stärker zu immer noch mehr Kernen bei kaum oder gar nicht mehr steigender Single-Thread-Leistung gehen.

Übrigens ist auch Single-Core-Cinebench im Test enthalten. Allerdings trennt das gesamte Testfeld da gerade mal 30%, weil da einfach schon sehr stark am Limit operiert wird.

Das mag alles sein aber wenn in über 50% der Anwendungsfälle die Software nicht parallelisiert ist und aus ökonomischen Gründen nie sein wird, dann ist es Schwachsinn so zu tun als wäre alles perfekt Multi Core optimiert. Mag sein dass es 12 Kerne geben wird aber es ist eine Issusion dass das auxh nur annähernd 50% mehr Leistung verglichen mit 8 Kernen bringen wird.
Entweder nimmt man mehr Single Core Benchmarks in das Programm auf oder man muss generell aufhören schnelle 6 Kerner mit langsamen 8 Kernern zu vergleichen weil das einfach nicht der Realität entspricht.
 
Hm... schade, daß da so wenig passiert. Aber, okay, wie schon erwähnt wurde, per "Refresh" läßt sich nicht wirklich viel erwarten.

Re: Softwareauswahl wäre ich ja zumindest "zusätzlich" auch für etwas Nicht-Gamingmäßiges und Praxisbezogenes.

ABER: HEDT ist unabhängig des CPU-Herstellers von anfang an mehr oder weniger synonym mit Gaming gewesen. Das Gros der Mainboards auf 2066 oder TR4-Basis sind Gamingboards, so albern wie es auch sein mag; vielleicht gibt es ausreichend viele "Workstation-Bauer", die für ihre Arbeitstiere ROG Gam0rz Hax000rz Mk V -Boards verbauen, aber ich gehör da nicht dazu.

Daher bleibt zumindest für mich eine logische Trennung zwischen HEDT und "richtigem" Computing momentan bestehen und ein Bezug auf Spiele im Kontext von HEDT-Tests nur folgerichtig.
 
  • Gefällt mir
Reaktionen: psychotoxic
kokiman schrieb:
Ach Gottchen, wenn interessieren bitteschön die Preise bei CPUs.

So ziemlichen jeden ausser den 4-5 üblichen Intel Fanboy Verdächtigen hier im Forum. ;) Die gesparten 300€ Differenz vom 2700X zum 9900K kann man getrost in ne neue Graka investieren. Bei Intel gibts kein Value mehr, viel zu teuer für viel zu wenig Mehrleistung - da kann man getrost drauf verzichten.

Mit nem 8 Jahre alten i7 kann man heute noch zocken ? Sicher, denn es gab ja seitens Intel nur 10 Jahre Quadcore-Melken ohne Fortschritt mangels Konkurrenz, somit gabs auch für die Spieleindustrie keinen Grund auf mehr Leistung zu setzen. Das einzige was wir Intel "zu verdanken" haben war technologischer Stillstand bei immer teureren Preisen. Erst seit AMD back to business ist bewegt man sich bei Intel wieder (zwangsweise), allerdings immer noch nicht zu brauchbaren Preisen.

Ich werde den 2700/X auch weiterhin empfehlen in der Kaufberatung denn wenn man nicht grade Progamer und noch auf die letzten paar FPS angewiesen ist gibt es aktuell keinen einzigen Grund Intel zu empfehlen.
 
  • Gefällt mir
Reaktionen: Traumwandler 75, Lutscher, alkaAdeluxx und 4 andere
dersuperpro1337 schrieb:
Und immernoch keine Adobe Anwendungen dabei... Oder Resolve, oder Photoscan oder sonst irgendeine Software, die viel häufiger bei der wirklich arbeitenden Kundschaft zu finden ist.
Aber nein, lieber man hält an einem veralteten Testparcours fest, der für die meisten ernsthaften Anwender völlig irrelevant ist - Hauptsache die Games sind aktuelle Titel...
Für Adobe Produkte braucht man eh nicht solche CPUs, dafür skalieren die viel zu schlecht.
Lieber Anwendungen die wirklich von vielen Kernen profitieren wie Maya, Vray, etc...
 
anexX schrieb:
So ziemlichen jeden ausser den 4-5 üblichen Intel Fanboy Verdächtigen hier im Forum. ;) Die gesparten 300€ Differenz vom 2700X zum 9900K kann man getrost in ne neue Graka investieren. Bei Intel gibts kein Value mehr, viel zu teuer für viel zu wenig Mehrleistung - da kann man getrost drauf verzichten.

Mit nem 8 Jahre alten i7 kann man heute noch zocken ? Sicher, denn es gab ja seitens Intel nur 10 Jahre Quadcore-Melken ohne Fortschritt mangels Konkurrenz, somit gabs auch für die Spieleindustrie keinen Grund auf mehr Leistung zu setzen. Das einzige was wir Intel "zu verdanken" haben war technologischer Stillstand bei immer teureren Preisen. Erst seit AMD back to business ist bewegt man sich bei Intel wieder (zwangsweise), allerdings immer noch nicht zu brauchbaren Preisen.

Ich werde den 2700/X auch weiterhin empfehlen in der Kaufberatung denn wenn man nicht grade Progamer und noch auf die letzten paar FPS angewiesen ist gibt es aktuell keinen einzigen Grund Intel zu empfehlen.

Ich muss dir voll und ganz zustimmen.
Hauptsache günstig: athlon 200GE
Value gaming: Ryzen 2600/X
Höherwertig gamen: Ryzen 2700/X
Pro Gamor/Hauptsache teuer: intel i9-9900

Außer für die absolut maximale Leistung egal was es kostet kann man Intel momentan nicht empfehlen.
Außer vielleicht für fanboys...
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und anexX
Zurück
Oben