Test Core i7-7800X & i9-7900X im Test: In Spielen langsamer als die beiden Vorgänger

SKu schrieb:
Na ja, nicht wirklich. Im Anwendungsfall ist dein 6700K eine lahme Gurke. Wohl Pech gehabt, da liegen 7820X und 1800X deutlich vorne.

Sliskovic schrieb:
Jo eine lahme Gurke im Gegensatz zum 1800x :D
Nur weil man 30 sekunden länger brauch ein Video zu codieren ist es eine larme Gurke?
Hast 100% einen Ryzen gekauft und bist jetzt bißchen entäuscht , dass ein 4 Kerner + 8 Threads wohl die bessere Wahl wäre.

Was soll mir überhaupt Anwendungsbereich bringen? Alle denken immer , dass sie durch Videos schneiden irgendwie bekannt werden und 99,9% failen sowieso und müssen stink normal arbeiten gehen anstatt bekannt zu werden.


Typisches Beispiel für sinnlosestes Parteien-Geflame. Jeder muss irgendwie "seinen" Kauf verteidigen. Ein Armutszeugnis für euch beide.


@Krautmaster:

Stimmt, solche Preisbereiche sind für CPUs, die nur fürs Gaming eingesetzt werden, in der Tat sinnlos. Ich finde es zwar trotzdem interessant zu sehen, was die jeweils fortschrittlichsten CPUs in Spielen leisten können - gibt ein paar nette Vergleichswerte für kommende Jahre, wenn die Game-Engines mit der Entwicklung aufschließen.
 
Neronomicon schrieb:
... nicht verlötet, wird heiß und frisst Strom zum Frühstück.:evillol:

Vielleicht war es Intels unterste Schublade :evillol: ... zumindest besteht da Hoffnung auf Besserung/mehr Schubladen ...
 
immerhin räumt Intel ein dass die neue Mesh-Architektur (noch) dem Ringbus unterlegen sein kann.

da muß ich Intel zustimmen, daß neue Architekturen immer schon ihre Vorteile erst viel später, dann aber ordentliche Steigerungen erbracht haben. So war es mit x64, Mehrkern Prozessoren usw...Deswegen sehe ich das Ergebnis von Skylake-X als unkritisch
 
Zuletzt bearbeitet:
@MK one
Was willst Du hier eigentlich beweisen? Warte es doch einfach ab und wenn es nur 5% sind, dann kannst Du ja immer noch Deine Teufelchen heraus holen und rum lästern.
 
Man muss das Ding doch nur mit dem 7800X vergleichen!

Er muss eine iGPU, wesentlich mehr Level 3 Cache (12 MB) und den größeren Ringbus versorgen, weit über dem Sweetspot und Zahnpasta unter dem Die!
Und hier träumen einige von 4,0 -4,5 GHZ all Core auf der Mainstream Plattform, die bis jetzt nur CPUs mit 95 TDP gekannt hat!

Das ist alles zienlich lachhaft, mit einer geköpften CPU und schmelzender VRM, bei 150-160 Watt CPU only, dürfte das vielleicht gehen, halt dann der neue Intel FX.

Ich glaube an 3,6 GHZ Base Takt (3,7-3,8 GHZ all Core Turbo) und 4,0 .4,2 single Turbo, dann ist schluss und er wird trotzdem ein russischer Wodkasäufer.
 
oldmanhunting schrieb:
@MK one
Was willst Du hier eigentlich beweisen? Warte es doch einfach ab und wenn es nur 5% sind, dann kannst Du ja immer noch Deine Teufelchen heraus holen und rum lästern.

hattest du mir nicht diese Frage gestellt "Intel hat NIE von 30% gesprochen. Wo hast Du das her und gibt es eine Quelle dazu? "

ich hab dir nur die Quellen genannt :evillol::D , und ja , ich hätte das Kleingedruckte auch lesen sollen :evillol:
 
DonL_ schrieb:
Ich glaube an 3,6 GHZ Base Takt (3,7-3,8 GHZ all Core Turbo) und 4,0 .4,2 single Turbo, dann ist schluss und er wird trotzdem ein russischer Wodkasäufer.

...na na das Teil schafft auch mehr weg als dein besagter Wodkasäufer, da lass ihm ruhig sein Feierabend Fusel....:evillol:
 
Sanjuro schrieb:
da muß ich Intel zustimmen, daß neue Architekturen immer schon ihre Vorteile erst viel später, dann aber ordentliche Steigerungen erbracht haben. So war es mit x64, Mehrkern Prozessoren usw...Deswegen sehe ich das Ergebnis von Skylake-X als unkritisch

Ja, das hast du recht. Die Netburst-Technik hat sich ja auch später gemausert und wurde eine ordentliche Grundlage für die Zukunft... oh, wait... :D

Itanium war auch so ein großer Wurf. :rolleyes: Von Bulldozer brauchen wir wohl auch nicht zu reden.

Von "immer schon ihre Vorteile erst viel später" kann keine Rede sein. Die x64-Technik ist übrigens von AMD ;)
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Intel hat NIE von 30% gesprochen. Wo hast Du das her und gibt es eine Quelle dazu?

ich meine dazu kam eine News. Aber ist doch logisch, sowohl AMD als auch Intel würden von 30-50% sprechen wenn man 6 statt 4 Kernen hat. Bezieht sich halt auf einen tollen Benchmark wie Cinebench der auf alle Kerne durchknallt - nicht auf Single Core oder Average Performance.

Schaun wir eher mal was AMD bei Zen2 erreicht. Ich denke auch AMD wird den Schwerpunkt auf Takt & Fertigung legen (etwas mehr Takt, besseres Turbo Verhalten). Natürlich etwas Optimierung zb beim Fabric oder Memory Interface. Höhere Taktraten von Ram. Dass man aber nochmal eben 20% IPC aufschlägt halte ich da genauso für utopisch. Mal sehen ob man die Lücke zu Intel diesbezüglich komplett schließen kann.
Ergänzung ()

DonL_ schrieb:
Man muss das Ding doch nur mit dem 7800X vergleichen!

der Vergleich ist Banane. Coffeelake würde ich mich wundern wenn er auf die Kerne des SLX setzt. AVX 512 wird er kaum können, dazu wird er ein Dual Channel SI habenm eben wie ein Kaby Lake + 2 Kerne, vermutlich klassisches Ringbus.
Ergänzung ()

YforU schrieb:
Intels Ansatz skaliert grundsätzlich bis 8S - 256C/512T (sind dann ebenfalls 8 Nodes). Spätestens hier sollte jedem klar sein das sich die Anforderungen an die Skalierbarkeit in unterschiedlichen Größenordnungen bewegen. AMD würde dafür umgerechnet 32 Nodes benötigen und das funktioniert sicherlich nicht mehr sonderlich toll. Entsprechend spart man sich das alles und fokussiert sich auf das 1 - 2S Segment.

Exakt, die Skylake-SP skaliert weiter nach oben raus als AMDs Epyc, was aber nicht verkehrt ist. AMD fokussiert sich auch da wissentlich und beabsichtigt auf die vielen 2S Lösungen, typische Mittelständler Server. Skylake-SP geht mit bis 8 Sockeln schon eher in Richtung IBM.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja wer hatte eigentlich erwartet dass so CPU in Games iwi total schnell sind? Die Ergebnisse waren doch absehbar bei +-10%. Jetzt ist die Leistung vermutlich ca 5% unter dem was man erwarten konnte ja, aber für Games ist es nahezu unerheblich ob Ryzen oder SKX solange es >4 K hat. Da ist man doch ständig im GPU Limit.

Threadripper wird mit seinen 16C und 32 Threads in Games auch nicht wirklich fixer sein als ein 1800X - außer der Turbo ist aggressiver (dann vielleicht 5%). Ich hatte ohnehin jetzt eher mit Anwendungs Benches als Games gerechnet wofür so CPUs auch eher da sind als Gaming.

Intels SLX krankt da offensichtlich an ganz anderen Stellen. Das macht mir mehr Sorgen, gerade auch Intels Launch Politik. Es wäre mir einfach zu sehr Beta.

Schlechter Scherz oder ? Vega FE: "das Ding ist unbrauchbar schlecht zum Spielen "

I9 Serie : tja ist halt net zum Spielen
 
die FE ist ne Grafikkarte. Dazu etwa 50% unter Soll ausgehend von den Rohdaten. Abgesehen davon hab ich weder das eine noch das andere gesagt. Ich sage quasi jede CPU mit >4 Kernen ist zum Spielen. Spielen kannst natürlich auch auf einer Vega FE, aber die Leistung passt noch nicht zu den Rohdaten -> was ja RX Vega ändern kann / muss. Das aber OT.
 
@Kal9tz

Also wenn der 7900x nicht zum spielen ist, dann weiss ich auch nicht mehr mit welchen Maßstäben hier gemessen wird.

Nicht vergessen- Der 7900x hat mit dem regelbaren Turbo 3.0 noch eine nicht asugetestete Waffe an Bord.
Die Kernkonfiguration z.B. 2x4.8GHz +8x 4.0GHz sollten in Spielen die Wände zum Wackeln bringen.
Das CPU Limit findet zu 99% in 1-2 Threads statt.

Sollte mal jemand austesten...

Grüße
Zero
 
rg88 schrieb:
Ja, das hast du recht. Die Netburst-Technik hat sich ja auch später gemausert und wurde eine ordentliche Grundlage für die Zukunft... oh, wait... :D

Integrierte FP-Co-Prozessoren, Erweiterungen wie MMX, SSE, AVX, Hyperthreading, aggressive Sprungvorhersagen usw. Das alles hat seine Zeit gebraucht, um sinnvoll zu werden. Oft so lange, dass die ersten Generationen von CPUs mit diesen Features dann schon wieder veraltet waren.

Hätte man das alles sofort wieder in die Tonne kloppen sollen? Oder erst gar nicht versuchen, neue Features einzuführen, die nicht sofort deutliche Vorteile bringen? Immer schön beim alten bleiben und nur MHz und Transistorzahl hochdrehen?

Klar gehen solche Neuerungen nicht immer auf. Ab und zu stellt es sich als Irrweg heraus. Z.B. Netburst. Auch AMD hatte seine Irrwege, z.B. die gerade erst verlassene Bulldozer-Schiene mit seinem revolutionären Moduldesign.

Ich denke aber, man sollte doch noch etwas länger abwarten, ehe man Mesh in die Reihe der Fehlschläge mit einreiht.

Zumal die bisherige Ringbus-Technik bei immer größeren Core-Zahlen wohl auch irgendwann an seine Grenzen stößt. Selbst wenn Mesh performancemäßig immer schlechter abschneiden sollte als Ringbus, ist irgendwann ein Punkt erreicht, wo z.B. eine 20-Core-CPU durch Mesh vielleicht 5% Leistung einbüßt, aber es mit Ringbus halt gar nicht über z.B. 16 Cores hinaus gegangen wäre.

Ergänzung:
Übrigens hat auch AMDs Infinity Fabric in Zen seine Schwächen. Z.B. wenn Tasks zwischen Cores springen, die in verschiedenen CPU-Complexen liegen. Mit klassischem Ringbus wie in den bisherigen Core-CPUs von Intel, wären Zen-CPUs höchstwahrscheinlich einige Porzent schneller. Aber sehr wahrscheinlich, wäre man mit 8 Cores auch direkt schon wieder nahe an der Grenze des damit möglichen gewesen.
 
Zuletzt bearbeitet:
@Herdware
Das Potenzial des Meshs bzw. der vermeintliche Flaschenhals wird ja inzwischen durch dessen Taktung auf 3,2GHz im Luxx Forum schon freigelegt. Die Architektur wäre der alten durchgängig überlegen, hätte man das alte Cache System beibehalten. Also die Inklusivstruktur und den größeren L3 Cache.
Das Aufpumpen des L2s war ja eine sinnvolle Geschichte.

Grüße
Zero
 
@Herdware

Es ist auch für mich ganz interessant zu sehen, wie eine CPU bei Spielen abschneidet, obwohl mich Videospiele kaum noch interessieren, aber ich glaube du wirst es ähnlich sehen: etwas wie das "Mesh" ist eine Notwendigkeit ab einer bestimmten Anzahl an Kernen und da ist es belanglos, wie sich solche CPUs bei Software wie Videospielen schlagen - denn Abseits von Videospielen sieht es ganz anders aus! Zumal Software in solchen Fällen auch TSX oder ähnliches verwenden sollte, um den Synchronisierungs-Overhead zu verringern.
 
Zuletzt bearbeitet:
Vega FE wird ihren Preis schon noch gerecht.

Skylake X eher nicht.
 
Inxession schrieb:

so gesehen wird eine TITAN Xp ihrem Preis auch gerecht?

Es war schon immer so dass die letzten 20% Leistung überproportional viel kosten. Bei CPU sogar ganz extrem, weit mehr als bei GPU.

Skylake X wird in Anwendungen bisher teils mehr als seinem Preis gerecht (für Gaming wird keine CPU über 300€ ihrem Preis gerecht). Je nach Szenario liegt er da deutlich vorn (und spart somit deutlich Arbeitszeit). Das schlägt an vielen Stellen mehr zu Buche als Gaming Performance mit der sich idR nicht wirklich Geld verdienen lässt.

Analog kannst auch sagen der Ryzen 1800X wird seinem Preis nicht gerecht da es den Ryzen 1700 gibt.

Vega FE wird aktuell noch am ehesten bei CAD Performance ihrem Preis gerecht. Sofern man da von hohen Bildraten profitiert oder wirklich Dinge wie FEM Berechnung auf der GPU macht natürlich genauso ne Option. Gaming auf keinen Fall.

Edit: Ganz extrem ist ja offenbar die Compile Performance

2017-07-11 09_04_18-Benchmarking Performance_ CPU Office Tests - The Intel Skylake-X Review_ Cor.png

Visual Studio Compile Performance stell ich mir durchaus auch interessant für viele vor die damit Geld verdienen. Zumindest ein praxisnahes und sinniges Szenario für so ne CPU, im Gegensatz zu Gaming.
 
Zuletzt bearbeitet:
Joa, kann man endlos fortführen.

Man muss eigentlich nur sehen, das Intel und nVidia die hohen Preise bestimmen.

AMD passt sich hier nur an, was nach unten hin möglich ist.

Trotzdem denke ich, das man mit der Vega FE noch durchaus viel Spaß haben wird.
Als Käufer kann man sich ja nur freuen, wenn weitere Leistung hinzu kommt.
 
Darf ich mal kurz Fragen wann Threadripper kommt?
Weiss da jemand was? Oktober?? August?
 
Ende Juli!
 
Zurück
Oben