Test Intel Core i9-7900X im Test: Stromverbrauch, Temperatur und erste Benchmarks

EchoeZ schrieb:
Oooch komm, Smartcom5. Fehlt nuroch Sirene & Blaulicht...

Entschuldige, daß man nicht im Minutentakt die Mainpages einschlägiger Tec-Seiten abklappert.
Ich habe nicht im geringsten irgendwie einen auf Sensationsmache gemacht, sondern nur informieren wollen. CB sind bei News nicht die schnellsten …


In diesem Sinne

Smartcom
 
Die News gibts hier doch schon. Das Forum dazu hat auch um die 100 Beiträge.

Edit: 86 Beiträge und die News ist von 0753.
 
DvP schrieb:
Krass! Ich hätte gedacht, dass Intel schon lange ein Pendant für Rizen in der Schublade hat und zwar ohne Maximalkompromisse mit verrückter Leistungsaufnahme!? Plötzlich steht AMD mit seinem LineUp sogar nochmal deutlich besser da als vor einer Woche....wer hätte das gedacht?

Das dachte ich mir auch gerade.

Auf Tomshardware fällt der erste Eindruck zum 7900X auch durchwachsen aus.
 
Zuletzt bearbeitet:
Schaut ganz so aus als sollte mich der S2011 noch be Weile begleiten. Die Leistungsaufnahme ist ja fürchterlich.
 
Wenn diese aber (hoffentlich unbeabsichtigt) gar nicht erst prominent oben steht, ist es ein leichtes, sie zu übersehen, oder?


In diesem Sinne

Smartcom
 
Ctrl schrieb:
hmm die Leistung ist i.O. der Rest.. abwarten.. im Moment überzeugt mich weder AMD mit Ryzen noch Intel's Skylake-X - abwarten und beobachten.. alles andere ist Holterdiepolter :rolleyes:
Köpfen ist sicher ne Alternative - wirkt aber wie ne billige Krücke..

Hatte auch viel Hoffnung. Nach fünf Jahre mit meinem i7-3770K mit LM unterm IHS will ich endlich mal was neues kaufen. Aber leider immer noch nichts da, dass sich lohnt als gamer. Aber IHS basteln bei einer 999€ CPU ist mal echt billig/arm.

Naja, kann man nur mal abwarten was Coffee Lake bringt. Auch wenn man basteln werden muss aber da kann ich es noch akzeptieren.


Kasmopaya schrieb:
Gott ist das herrlich. Intel so panisch wie zum Ende der Pentium 4 Zeit. Wie ein Hamster im Laufrad!

Danke AMD! :D
Exclusive Interview with Intel engineer about the new Core X Series
 
immortuos schrieb:
Lies nochmal im Test des 9590 nach, da steht eindeutig dass der Noctua nicht ausreichend war, die CPU hat immer auf 4,5 GHz gedrosselt. Kein Wunder die CPU hat ja auch genauso viel zu viel verbraten wie jetzt die SKL-X eben auch:
Im Test von 2013 war's ein anderer Kühler mit 4 Heatpipes, der hier hat 5. Das kann schon da Zünglein an der Waage sein :p
Darum gings aber nicht. Trotz der hohen Leistungsaufnahme bleibt der FX sogar kühler als ein 7700K
Ich will den Centurion aber nicht verteidigen, das Teil war jenseits von Gut und Böse. Eben mit der 'Brechstange'.

SKylake X ist auch so ein Fehlgriff, egal welche Nahrungs-, oder Körperpflegeprodukte unter den HS geschmiert werden.
Ich glaube, das Intels Silizium am Limitist und so empfindlich, daß es eine Verlötung nicht überlebt.
Die bis zu ~100°C muss sie nur über die Garantiezeit abkönnen..ist wenigstens ein Kompromiss ;)
 
Zuletzt bearbeitet:
Sologruppe schrieb:
LOL- da müsste ich schon fast eine neue Leitung zu dieser neuen Heizung legen...

höhö bin (seit längerem..) am renovieren und der pc hat von mir seine eigene Steckdose an seiner eigenen Sicherung gekriegt, wär also ready bis 3KW :)

Wenn ich in ein paar Jahren aufrüste denk ich über Ryzens und I9s erst ernsthaft nach, trotzdem spannend, das!
 
Die könnten doch statt Zahnpasta, Liquid Metal raufmachen? Löten wär gar nicht notwendig. Wo ist jetzt das Problem?
 
Schon Merkwürdig das bei GPUs ein Mehrverbrauch von 100 Watt (Nvidia vs. AMD) als lächerlich gering angesehen wird, aber bei CPUs jetzt auf einmal ein Weltuntergang ist (AMD vs. Intel).

Also wer sich als AMD-User den Mehrverbrauch der Graka gegenüber Nvidia immer schön gerechnet hat kann das doch jetzt auch bei der Intel-CPU tun (nicht 24/7 auf Vollast, nur 20-40€ mehr Stromkosten/Jahr usw.).
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
Wenn diese aber (hoffentlich unbeabsichtigt) gar nicht erst prominent oben steht, ist es ein leichtes, sie zu übersehen, oder?

Sollte kein Angriff,.nur ne Info sein.
 
  • Gefällt mir
Reaktionen: Smartcom5
Uninstaller schrieb:
Schon Merkwürdig das bei GPUs ein Mehrverbrauch von 100 Watt (Nvidia vs. AMD) als lächerlich gering angesehen wird, aber bei CPUs jetzt auf einmal ein Weltuntergang ist (AMD vs. Intel).

Also wer sich als AMD-User den Mehrverbrauch der Graka gegenüber Nvidia immer schön gerechnet hat kann das doch jetzt auch bei der Intel-CPU tun (nicht 24/7 auf Vollast, nur 20-40€ mehr Stromkosten/Jahr usw.).

Bei GPU kann man die Leistung besser zu- und auch wieder abführen. Bei CPU bestehen ja schon Probleme darin, die Leistung in die CPU zu kriegen. Bei einer GPU gibts bei 300W aufwärtes 2x8Pin Stromstecker...bei einer CPU hast du den großen ATX und dann noch 1x 8 Pin.

Dann wäre das Problem noch, die Hitze aus dem DIE zu kriegen, wofür die Zahnpasta auch eher nicht geeignet ist...

Was ich aber sehr interessant finde ist der Artikel von PCGH: http://www.pcgameshardware.de/Skyla...ws/Intel-Core-i7-7800X-i7-7820X-Test-1231556/

Leider wurden die Spiele in 1080p getestet, was in manchen Titeln für ein GPU-Limit sorgte. In den anderen liegt der Core i7-7820X mit acht Kernen (3,6 GHz Basistakt) in etwa auf dem Niveau des i7-6900K (ebenfalls acht Kerne, aber nur 3,2 GHz Basistakt). In unseren Benchmarks zur PCGH-Ausgabe 08/2017, die ab Anfang Juli erhältlich ist, können wir dieses Bild in etwa bestätigen: Skylake-X braucht trotz aktuellem BIOS mit Build-Datum vom 21. Juni mehr Takt, um die gleiche Performance wie Broadwell-E zu erreichen. Das kann an den Cache-Änderungen liegen, denn der L3 ist jetzt deutlich kleiner und exklusiv gestaltet, der L2 dafür größer geworden.
Heißt für mich übersetzt, der Umstieg von Ringbus auf Mesh ging ordentlich nach hinten los.
 
Uninstaller schrieb:
Schon Merkwürdig das bei GPUs ein Mehrverbrauch von 100 Watt (Nvidia vs. AMD) als lächerlich gering angesehen wird, aber bei CPUs jetzt auf einmal ein Weltuntergang ist (AMD vs. Intel).
Bei der GPU ist es nicht so wichtig, weil die Kühler viel mächtiger sind. 400 Watt bei einer 390X von MSI kein Problem, wobei hier die Lautstärke schon recht hoch ist. Eine CPU mit 400 Watt kann man aber sicherlich nicht mehr mit Luft kühlen.

@Topic
Wer hätte das gedacht... Architektur am Ende, Takt nicht mehr adäquat zu der Kernzahl, Verlustleistung ohne Ende.
Freue mich schon auf den 18-Kerner von Intel... :rolleyes:
 
Das klingt ja nicht besonders positiv: https://www.hardwareluxx.de/community/f139/intel-skylake-x-kaby-lake-x-oc-laberthread-lga2066-1164913-15.html#post25638218

Damit bleibt vom theoretischen Vorteil gegenüber BW-E wohl nichts übrig wenn man saftig teure Mainboards braucht um gut übertakten zu können. Dazu schaffen wohl nur die besten Chips 4,8 GHz ohne geköpft zu werden, und das bei sehr hohen Temperaturen. Man muss sogar TjMax auf 105°C stellen um geköpft auf 5 GHz kommen zu können.
 
Naja, was will man erwarten? Das ist ein i7 7700 mal 2,5, und soviel Saft schluckt er dann auch. Die hohten Taktraten fordern hier Tribut.
 
Zuletzt bearbeitet:
Ne danke. Der zieht zu viel Strom. Da bleib ich bei meinem 5820k. Vermutlich würde ich jetzt sogar auf ein 7700k setzen und alles über gpu lösen(rendern). Also der verbrauch - leistung ist es irgendwie kaum Wert.

Kommt mir so vor als hätte Intel vorschnell auf Amd geantwortet?
 
Mit dem Unterschied dass der i9 keine GPU hat.

@ Smartcom.

Durch den schnelleren L2 wird der L3 zwangsläufig etwas langsamer angebunden. Wird meine ich bei Anandtech gut ausgeführt.

Die restliche Argumentation find ich wenig stichhaltig und weit hergeholt.

In diesem Sinne

EDIT: Im Detail vervierfacht man den L2 um 3-10 % mehr IPC rauszuholen. Das zeigt schon gut wie schwer heute noch mehr Leistung aus X86 rauszuholen ist. AMD hat bei Zen genau dieselben Probleme.
So why move to a victim cache on the L3? Intel’s goal here was the larger private L2. By moving from 256KB to 1MB, that’s a double double increase. A general rule of thumb is that a doubling of the cache increases the hit rate by 41% (square root of 2), which can be the equivalent to a 3-5% IPC uplift. By doing a double double (as well as doing the double double on the associativity), Intel is effectively halving the L2 miss rate with the same prefetch rules. Normally this benefits any L2 size sensitive workloads, which some enterprise environments such as databases can be L2 size sensitive (and we fully suspect that a larger L2 came at the request of the cloud providers).

Moving to a larger cache typically increases latency. Intel is stating that the L2 latency has increased, from 11 cycles to ~13, depending on the type of access – the fastest load-to-use is expected to be 13 cycles. Adjusting the latency of the L2 cache is going to have a knock-on effect given that codes that are not L2 size sensitive might still be affected.

So if the L2 is larger and has a higher latency, does that mean the smaller L3 is lower latency? Unfortunately not, given the size of the L2 and a number of other factors – with the L3 being a victim cache, it is typically used less frequency so Intel can give the L3 less stringent requirements to remain stable. In this case the latency has increased from 44 in SKL-X to 77 in SKL-SP. That’s a sizeable difference, but again, given the utility of the victim cache it might make little difference to most software.
 
Zuletzt bearbeitet:
Kommentare vom Bauer @Luxforum

Ich habe gerade das Gigabyte X299 Aorus Gaming 3 getestet und bei 4.3 GHz und 1,15 Volt bereits 105 °C auf der Rückseite der Spannungswandler gemessen... Kann man sich mal überlegen wo man bei 4.5 GHz mit 1,25 Volt landet oder noch mehr.

und

Das 400 € ASUS Prime X299-Deluxe konnte den Takt bei 4.8 GHz schon nicht mehr halten.

Da kommt ja eine richtige Preisspirale auf einen zu:

Teure CPU +
Potenter Lüfter +
Teures Board +

bleibt nur zu hoffen das die 6 und 8 Kerner deutlich weniger Saft ziehen, da muss man ja Angst haben das sich die SpaWas nicht selbst auslöten :freak:
 
Zurück
Oben