News In eigener Sache: Intel Core i9-7900X nicht im Test

Dafür muss man erstmal richtige Tests abwarten, hab mir gestern ein paar durchgelesen. Ich will da Intel nicht in Schutz nehmen, aber wenn man dann die Gaming Performance vom I9 benched und gleichzeitig selbst die kleinste CPU im Test in nahezu allen Games die gleichen Frames ausspuckt, sprich man immer im GPU Limit läuft, frage ich mich halt schon wie sinnfrei der Test ist.

Interessanter fand ich dann schon die IPC Tests von Anandtech wo real gesehen aktuell die IPC nahezu gleich geblieben ist. Das wäre schon eher ein Skandal, weil Intel ja eine höhere IPC von 15% versprochen hat.

Generell scheint Ryzen einfach besser mit mehr Kernen klar zu kommen. Bei Intel sieht es für mich so aus als das die Abwärme je mehr Kerne man dazu pappt, exorbitant steigt. Bei Ryzen dagegen sieht man schon das die 8 Kerner gar nicht so viel mehr verbrauchen als die 6 Kerner.

Ich bin mal auf die ersten Tests gespannt, wo dann auch mal passenden Einsatzszenarien getestet werden. Einen 10 Kerner kaufe ich mir nicht zum zocken.
 
Krautmaster schrieb:
Mein 3,9 Ghz Ryzen 7 macht auch schnell 200W bei 1,35V.

Sweetspot und so. Verbrauch und Spannung gehen nahe 4ghz exponentiell nach oben. Das wird bei Threadripper genauso. Aber schau dir mal den R7 1700 @Stock an, 65W ftw.

duskstalker schrieb:
eigentlich ist threadripper schon relativ vorhersehbar, weil auch die kleinen ryzen ziemlich linear zueinander skalieren. threadripper 16c/32t wird je nach multithread anwendung 200% bis 180% der leistung eines r7 1700(x) haben und beim stromverbrauch würde ich mal ca 150% bis 170% ansetzen, hier glaube ich nicht ganz an eine verdopplung, weils ja keine zwei getrennten cpus in getrennten sockeln sind, die einzeln versorgt werden müssen, sondern nur zwei CCX mehr.

vorhersehbar definitiv. Das sind ja exakt die gleichen DIE, nur eben doppelt so viele. Aber ich denke deine Angaben sind trotzdem zu optimistisch. Ich sehe eher beim Verbrauch eine lineare Skalierung, dafür ~175% Leistung. Ich habe etwas die Befürchtung, dass infolge der vielen Module zu viel zwischen den Kernen auf der Strecke bleibt. Allerdings ist für mich der Takt auch vorhersehbar. Mit 180W sind wir ja praktisch bei 2x R7 1700X...
 
Beim Verbrauch kommt es vor allem darauf an wie die DIE selektiert werden. Sind die Regeln dort strenger kann es durchaus sein das die DIE verbaut werden die für den Massenabsatz weniger Spannungspuffer benötigen und die Spannung deshalb von Anfang an geringer angesetzt werden kann, was wiederum einen direkten Einfluss auf den Verbrauch hat.
Dagegen ist die Mehrleistung deutlich vorhersehbarer. Bei sehr gut Skalierenden Anwendungen nahezu linear und je schlechter die Skalierung desto geringer die Mehrleistung durch die zusätzlichen Kerne.
 
Begu schrieb:
Sweetspot und so. Verbrauch und Spannung gehen nahe 4ghz exponentiell nach oben. Das wird bei Threadripper genauso. Aber schau dir mal den R7 1700 @Stock an, 65W ftw.

absolut. Bei Intel aber auch nicht anders. Wenn der i7 7900X seine angegebenen Base Clock von 3.3 Ghz bei AVX Last nutzen würde wäre er deutlich effizienter unterwegs als bei 4,0 Ghz und Spannung satt.
 
dfgdfg schrieb:
Es wäre also schon interessant wie nun die großen Ryzen inkl. neuster Updates und vernünftigen Ram-Einstellungen abschneiden. Dann könnte man vielleicht alles unter dem 7900X direkt ignorieren.

Ja, kommt mit dem neuen Testsystem dann auch im Somemr jetzt. Wir warten nur noch auf Vega ;)
Und Ryzen bekommt ja gerade auch noch neue AGESA-Updates, da sind wir ja auch noch nicht am Ende.

Sun-Berg schrieb:
@CB: Wäre es zuviel verlangt, die Intel und die AMD Prozessoren mit 3200Mhz Ram zu testen?

Jopp^^
Keine Lust alles doppelt zu testen, eventuell in 2, 3 Sachen mal ansehen. Es wird das getestet was die default-Spec sagt. Wie imemr und überall. Der Rest ist OC, und das macht halt je nach RAM und Board so schnell Probleme - das hat sich ja gerade zuletzt bei AMD extrem gezeigt.

Begu schrieb:
vorhersehbar definitiv. Das sind ja exakt die gleichen DIE, nur eben doppelt so viele. Aber ich denke deine Angaben sind trotzdem zu optimistisch. Ich sehe eher beim Verbrauch eine lineare Skalierung, dafür ~175% Leistung. Ich habe etwas die Befürchtung, dass infolge der vielen Module zu viel zwischen den Kernen auf der Strecke bleibt. Allerdings ist für mich der Takt auch vorhersehbar. Mit 180W sind wir ja praktisch bei 2x R7 1700X...

Ja die Samples sehen so aus, aber mal schauen was sie mit dem Turbo und unter maximale Last machen. Denn die Server-CPUs machen bei 170 Watt und 16 Kernen ja nur 2,4 bis knapp 3,0 GHz. Würde deshalb im Alltag auch bei Threadripper nicht von zwei Ryzen 7 einfach ausehen .. außen man setzt die Mischung aus 1700 und 1700X an. Und dann bleibt natürlich auch noch etwas auf der Strecke. Das wäre realistischer als zu hoch zu greifen.
 
Zuletzt bearbeitet:
ja klar, umso unverständlicher ist die ausgepackte Brechstange. Komplett in Panik ohne Hirn Leistung um wirklich jeden Preis. Vermutlich hatte THG ein schlechtes Exemplar erwischt...Aber wie groß ist denn die Streubreite und wie schlecht sind richtig schlechte Exemplare? Wars das schon bei THG oder geht da noch was "nach unten" bei immerhin 1.000€ !!

Und jetzt wird's subjektiv:
Ich sehe bei Intel derzeit eine deutlich schlechtere Kernskalierung als bei AMD. Die Leistung ist bei Intel höher, keine Frage. Allerdings geht bei denen der Verbrauch bei vielen Kernen gefühlt schneller durch die Decke als bei AMD. Hier könnte der Samsung Fertigungsprozess AMD in die Hände spielen. Intel will um jeden Preis die Leistungskrone, siehe Panikreaktion mit 18 Kernen. Was anderes wäre auch echt peinlich, immerhin liegen wir beim Kostenfaktor von mind. 2x zwischen AMD und Intel bei gleicher Kernzahl auch weit auseinander. Den Preiskampf kann Intel infolge Architektur nicht gewinnen, also muss Leistung her. Ein vergleichbar schneller AMD Prozessor, der auch noch halb so viel kostet kann sich Intel nicht leisten...

/edit
Volker schrieb:
Ja die Samples sehen so aus, aber mal schauen was sie mit dem Turbo und unter maximale Last machen. Denn die Server-CPUs machen bei 170 Watt und 16 Kernen ja nur 2,4 bis knapp 3,0 GHz.
Echt so niedrig? Irgendetwas habe ich verpasst, das ist mir neu. Stellt sich die Frage warum...sicher bleibt was bei doppelter Modulanzahl auf der Strecke...aber so viel?

/edit2:
Zu den Produktionskosten siehe zb PCGH
http://www.pcgameshardware.de/Skyla...-Threadripper-Chipflaechen-Vergleich-1230986/
Sofern Globalfoundries und Samsung nicht deutlich höhere Wafer-Preise verlangen, als Intel mit seiner eigenen Fertigung erreicht, kann AMD seine High-End-CPUs deutlich günstiger fertigen lassen. Je größer ein Siliziumchip ist, desto höher ist die Wahrscheinlichkeit, dass bei der Belichtung ein Fehler auftritt. Da AMD nur mehrere Zeppelin-Dies auf einem Multi-Chip-Modul miteinander vereint, sind die Produktionskosten selbst bei den teuersten Modellen gering - einen Ryzen Threadripper mit 16 Kernen könnte AMD rein theoretisch für unter 700 Euro platzieren und würde dann immer noch so viel Gewinn machen wie beim Ryzen 7 1700.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Fazit. Viele reiten ja auf dem THG Test rum. Bei aller Liebe zu dem Test von Tomshardwareguide ... deren Temperatur und Verbrauchswerte ist nur für AVX Vollast von Belang. Nichts was hier vermutlich irgend jemand betrifft.

War das als Witz gemeint?

Die hängen mal eben nen Waterchiller dazu, der mal locker 20Grad niedrigere Temperaturen ermöglicht als eine Custom Loop Home Lösung.
Wie sieht es ohne aus?

Zum AVX Test.... Da müssen alle CPU´s durch.
 
Krautmaster schrieb:
Würde Intel die i9 7900X bei AVX Last direkt auf 3,3 Ghz throtteln hätte das vermutlich nahezu 0 Auswirkungen auf die Benchmarks, aber massiv auf Temperatur und Verbrauch. Das tut man aber wohl erst dann wenn der Kühler nicht mehr in der Lage ist die Temperatur unter 100°C zu halten.

Naja warum machen sie das dann nicht? Für mich ist das völlig legitim die CPU unter Volllast zu testen, wenn Intel unfähig ist hier im thermischen Limit zu bleiben dann müssen sie sich die Kritik gefallen lassen, da gibt es keine Diskussion.
AMD und Nvidia müssen sich auch Furmark gefallen lassen obwohl das nicht die reale Alltagsbelastung ist und Intel wusste dass man sowas auch testet. Wenn sie da nicht dran arbeiten sind sie selbst schuld. Für mich ist der THG Test hier genau richtig, denn er zeigt auf dass Intel hier einfach Mist gebaut hat und sich nicht mal dafür interessiert dass die CPU schon @stock gegen die 100°C Wand rennt. Wenn man das gutheißt ist doch echt was falsch.
 
Ahso AVX ist von keinen belang

handbrake
xmediarecode
cinebench r15 sowie das programm selber r20 mittlerweile
blender
diverse games
adobe ceative suite
cyberlink power directior
sony video studio
diverse finanzprogramme (high speed handel)
x265
das sind nur die offensichtlichen nutzen von avx das es seit 2012 gibt
Erweiterungen wie avx 2 und die speicher erweiterung avx 512 werden aktuell nur von speziellen programmen genutzt.
Die render und encoder alleine rechtfertigen avx
bei xmediarecode bzw ffmpeg mit x265 (x264) erweiterung bekomme ich meine CPu locker heißer als mit prime95 aktuelle version.
 
Begu schrieb:
Echt so niedrig? Irgendetwas habe ich verpasst, das ist mir neu. Stellt sich die Frage warum...sicher bleibt was bei doppelter Modulanzahl auf der Strecke...aber so viel?

Die Server-CPUs kommen ja heute noch offiziell. Und meistens sind sie schon ein guter Indikator was da kommen wird bei Desktop-Ablegern, wenngleich sie ein wenig mehr auf Stabilität und Langlebigkeit getrimmt sind. Also werden sie noch ein wenig was herauskitzeln für den Desktop am Takt, aber auch Threadripper wird dann kein Kostverächter, das dürfte wohl klar sein.
 
Volker schrieb:
Frag mal die Mainboardhersteller, die sind total amused .. not!

Tja dann stellt sich mir aber trotzdem die Frage warum die Hersteller bereits zum Start so viele X299 Boards gelistet haben, mehr als X370 Boards zum AM4 Launch. Bis heute gibt es von ASUS keine AM4 TUF Boards, für X299 aber bereits 2.
Schöne Zweiklassengesellschaft, AM4 wird von den Herstellern doch noch viel stiefmütterlicher behandelt, obwohl es dafür eigentlich heute keinen Grund mehr gibt. Im Vergleich zu 1151 sieht es noch bitterer aus, es gibt insgesamt 62 AM4 Boards, allein für Z270 sind schon 77 verschiedene gelistet.

Ich gehe schon fast davon aus dass die Hersteller auf Threadripper genauso wenig Lust haben, am Ende muss AMD noch selbst Referenz Boards designen weil es sonst keiner macht :freak:
Ich tippe auf weniger als 10 Threadripper Boards zum Launch.
 
Volker schrieb:
...die Server-CPUs machen bei 170 Watt und 16 Kernen ja nur 2,4 bis knapp 3,0 GHz.

Die sind natürlich auch auf absolut max. Stabilität getrimmt. Da liegen vermutlich nicht die normalen 10% Sicherheitsabstand an sondern erheblich mehr. Aber stimmt natürlich was Du sagst! Händisch selektiert währen vermutlich 16C Threadripper @3.4 GHz mit 125W drinn. Aber in Stückzahl lässt sich das ohne neues Stepping so nicht realisieren.

Bin mal gespannt wo Du TR mit undervolting hinbekommst und wie nun TR mit MCM auf den InfinityFabric Takt reagiert.

Wann kommt das Ding eigentlich? Verliere zugegebenermaßen langsam die Übersicht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Fazit. Viele reiten ja auf dem THG Test rum. Bei aller Liebe zu dem Test von Tomshardwareguide ... deren Temperatur und Verbrauchswerte ist nur für AVX Vollast von Belang. Nichts was hier vermutlich irgend jemand betrifft.

Genau so seh ichs auch. Man muß die Leistungsaufnahme und die Temperaturen schon differenziert betrachten, also nach Workload unterscheiden. Im Endeffekt ist es beim 7700K genauso: Prime 27.9 mit AVX läuft im Vergleich zu Standard Code mit minimalen 10mV Zuschlag stabil, höhere Prime Versionen brauchen dann für die FMA3 Test nochmal 50mV mehr VCore und dementsprechend gehen Verbrauch und Temps durch die Decke. Deswegen kann man froh sein wenn es einen extra Multiplikator gibt, man läßt die problematischen Befehlssätze einfach mit 200MHz weniger laufen und alles ist im grünen Bereich. Das scheint aber bei den Skylake-X CPUs nicht möglich zu sein, oder habe ich das falsch verstanden?

Ich würde mir hier bei den Tests von den CB wünschen, dass da etwas genauer drauf eingegengen wird unter welchen Umständen es zu hohem Verbrauch und Temperaturen kommt. Also z.B. gesonderte Tests mit Prime 26.6, 27.9 und 29.1

Was jetzt für mich persönlich noch interessant wird, ist wie Skylake-X in Audioanwendungen bei niedrigen Latenzen performt, besonders wie sich die geänderte Cache Struktur und die Core-zu-Core Latenzen auswirken. Hier mal die Tests von Scanproaudio abwarten...
 
immortuos schrieb:
Tja dann stellt sich mir aber trotzdem die Frage warum die Hersteller bereits zum Start so viele X299 Boards gelistet haben, mehr als X370 Boards zum AM4 Launch. Bis heute gibt es von ASUS keine AM4 TUF Boards, für X299 aber bereits 2.
Schöne Zweiklassengesellschaft, AM4 wird von den Herstellern doch noch viel stiefmütterlicher behandelt, obwohl es dafür eigentlich heute keinen Grund mehr gibt. Im Vergleich zu 1151 sieht es noch bitterer aus, es gibt insgesamt 62 AM4 Boards, allein für Z270 sind schon 77 verschiedene gelistet.

Ich gehe schon fast davon aus dass die Hersteller auf Threadripper genauso wenig Lust haben, am Ende muss AMD noch selbst Referenz Boards designen weil es sonst keiner macht :freak:
Ich tippe auf weniger als 10 Threadripper Boards zum Launch.

Ja das mit den Boards ist schon nicht so toll, aber war auch nicht anders zu erwarten. AMD hatte noch 10, 15 Prozent Marktanteil, da kannst du nicht die gleiche Anzahl an Boards erwarten. Da muss man wirtschaftlich rangehen und dann eben keine 30 Boards wie für Intel auflegen sondern erst mal nur zehn. Aber das werden schon noch mehr, keine Bange.

Fürh Threadripper seh ich aber auch Probleme. Der riesen Sockel und die Boards dazu, das wird alles genau so teuer wie X299. Und dann bist du in so einem krassen Nischenmarkt mit sehr wenig Kundschaft .. warten wir es mal ab. Da hilft nur, wenn es kleinere und dafür höher taktende CPUs gibt, die die Leute an die High-End-Plattform ranführen. Also auch ein Acht-Kerner mit Quad-Chan und mehr Lanes bei richtig hohem Takt so als Einstieg, das wäre dann eine Alternative die sich Leute ansehen würden, wenn dann der Aufpreis moderat zu Ryzen 7 ausfällt. Acht Kerne wird es bei Epyc ja geben .. also auch da mal sehen.

Ned Flanders schrieb:
Wann kommt das Ding eigentlich? Verliere zugegebenermaßen langsam die Übersicht.

August ist so ein hartnäckiges Gerücht. Wenn Epyc jetzt in Serie gefertigt wird, fallen die Threadripper auch vom Band. Ist ja eigentlich identisch, auch wenn AMD sagt es sind andere Sockel ;)
 
Volker schrieb:
Also auch ein Acht-Kerner mit Quad-Chan und mehr Lanes bei richtig hohem Takt so als Einstieg, das wäre dann eine Alternative die sich Leute ansehen würden, wenn dann der Aufpreis moderat zu Ryzen 7 ausfällt. Acht Kerne wird es bei Epyc ja geben .. also auch da mal sehen.

Ja das wäre natürlich schön, aber ich bezweifle dass die Fertigung die Wall bereits so weit nach oben schieben konnte dass sich das dann gegenüber einem 3,9-4 GHz R7 1700 lohnt. Naja mal sehen, zumindest wird der Sommer nicht langweilig :)

Volker schrieb:
Ist ja eigentlich identisch, auch wenn AMD sagt es sind andere Sockel ;)

Soll das heißen mit ein bissl Tweaking der Boardhersteller könnte auch ein 32 Kern Epyc in den X399 Boards laufen so wie die 18 Kern Xeons in einigen X99ern?
 
Volker schrieb:
Der riesen Sockel und die Boards dazu, das wird alles genau so teuer wie X299. Und dann bist du in so einem krassen Nischenmarkt mit sehr wenig Kundschaft .. warten wir es mal ab. Da hilft nur, wenn es kleinere und dafür höher taktende CPUs gibt, die die Leute an die High-End-Plattform ranführen.

Ich sehe das auch so. Die Boards sind sehr teuer weil viellagig und dank 8 Kern im Mainstream verkanibalisiert es jetzt ein Stückweit auch die HEDT Plattformen, außer man macht wirklich hochparalleles UND performance kritisches Zeug oder man virtualisiert eben viel was aber schon Richtung Server Workload geht, sich zumindest in einer Server - Client Topologie am idealsten umsetzen lässt.

Hoch taktende CPUs für TR währen somit für HEDT wichtig, das wird aber im aktuellen Stepping bei AMD nichts und mit Kaby-LakeX hat sich Intel auch ein Ei gelegt.

Himmel Volker, wir sind uns plötzlich so inflationär oft einig. Werd ich alt oder Du?

Gruss,

Ned
 
ocaholic.ch hat nen i5 7640k testmuster

https://www.ocaholic.ch/modules/news/article.php?storyid=16658

Zitat: "Durchschnittlich 12% schneller als die Core i5-6600K. Erhöht man die Clocks auf 4.2GHz für beide Modelle, sinkt der Unterschied auf 8%."

ich frag mich wo die 8% herkommen da ja die i5 und i7 Cpus nur dualchannel haben, hm..
 
IBISXI schrieb:
War das als Witz gemeint?

Die hängen mal eben nen Waterchiller dazu, der mal locker 20Grad niedrigere Temperaturen ermöglicht als eine Custom Loop Home Lösung.
Wie sieht es ohne aus?

Zum AVX Test.... Da müssen alle CPU´s durch.

Hättest du meine Links gelesen wüsstest du wies ohne aussieht. Und nein, es war nicht als Witz gemeint.

Ja müssen alle CPUs durch, ist ja prinzipiell auch richtig so. Aber dann darf man sich nicht drüber auslassen wenn eine in AVX doppelt so schnelle CPU auch mehr braucht, oder? Und dass im ultra unrealistischen Sonderfall AVX maxed out Prime dann 100°C erreicht werden (was aber sogar vorgesehen ist da man dann auf den niedrigeren Base Clock Throttelt)...

Dann eher wie eben von syfsyn genannt richtige AVX Tools testen:

handbrake
xmediarecode
cinebench r15 sowie das programm selber r20 mittlerweile
blender
diverse games
adobe ceative suite
cyberlink power directior
sony video studio
diverse finanzprogramme (high speed handel)
x265

Gegen AVX Tests spricht ja nichts. Dann bitte aber auch unter realistischen Bedingungen und nicht mit theoretischer AVX Leistung die so sinnvoll ist wie AES 40GB/s vs 20GB/s. Dass bei AVX die CPU zum glühen gebracht wird ist ja schon lang so. Server CPU haben deswegen ja auch seit langem nen eigenen deutlich niedrigeren Multi da man sonst die TDP nie einhalten könnte.

Dass man sich bezüglich hoher Last unter AVX auch bei Intel im Bilde ist zeigt wie bereits gesagt der niedrigere Multi der bei AVX angesetzt wird (Xeons, Kaby Lake). Wieso der beim i9 dann erst bei 100°C greifen muss... ka, vermutlich sagt man sich "wir throtteln erst wenn unbedingt nötig, auch bei AVX".

Edit:
https://www.microway.com/knowledge-...s-intel-xeon-e5-2600v3-haswell-ep-processors/
 
Zuletzt bearbeitet:
immortuos schrieb:
Soll das heißen mit ein bissl Tweaking der Boardhersteller könnte auch ein 32 Kern Epyc in den X399 Boards laufen so wie die 18 Kern Xeons in einigen X99ern?

Naja, ich würde behaupten eher nicht. Sofern ich das richtig verstehe, was ich aber dummerweise grad selbst stark anzweifle...Alle TR sind doch 2-DIE CPU's, während alle Epyc 4-DIE CPU's sind (8Channel, 128 PCIe Lanes). Wobei das dann aber verrückt ist so einen 8C Epyc zu bringen...Aber irgendwie müssen ja beim 8C mit 2,1/2,9ghz 120W TDP untergebracht werden, während der R7 1700 bei deutlich höherer Taktrate 65W besitzt. Die Lanes wollen halt auch versorgt werden.

Womit ich im Umkehrschluss wieder nicht sicher bin, in wie weit sich von Epyc auf TR schließen lässt, da nur halb so viele Module des MCM...

Aber eh komplett am Thema vorbei, ich mach schon schluss...
 
Zuletzt bearbeitet:
immortuos schrieb:
Naja warum machen sie das dann nicht? Für mich ist das völlig legitim die CPU unter Volllast zu testen, wenn Intel unfähig ist hier im thermischen Limit zu bleiben dann müssen sie sich die Kritik gefallen lassen, da gibt es keine Diskussion.

man bleibt doch im thermischen Limit. Es wäre was anderes wenn man unter die spezifizierten 3.3 Ghz throtteln müsste. 100°C sind nun mal im thermischen Limit. Und das tut der CPU auch nicht wirklich weh.

Grafikkarten operieren auch oft bei 90°C, nur weil 100 dreistellig ist heißt es nicht dass deswegen irgendwas kaputt oder schneller kaputt geht.

Intel könnte vermutlich wie bei den Server CPU auch schneller runterregeln wenn AVX zum Einsatz kommt, aber vermutlich macht man das wie bei GPU fix an folgenden Kritierien fest:

  1. >100°C
  2. Leistungsaufnahme Package > TDP
Erst dann throttelt man auf den spezifizierten Base Clock.

Wenn also der Haswell EP im AVX Mode statt 3 Ghz nur noch 2,6 Ghz fährt dann vermutlich nicht wegen den 100°C sondern schlicht weil die Leistungsaufnahme der CPU die TDP übersteigt (langfristig).

Nicht anders machens zb Nvidia GPU auch. Es gibt ein Temp Limit und ein Power Limit. Würde Intel das Power Limit strikter ansetzen würde man beim AVX Vollast Prime Test auch schneller throtteln, weniger verbrauchen und kühler bleiben. Dadurch wäre die CPU aber vermutlich nicht mal langsamer da das gesetzte Power Limit dann selten erreicht werden würde.
 
Zuletzt bearbeitet:
Zurück
Oben