Test Intel Core i9-7900X im Test: Stromverbrauch, Temperatur und erste Benchmarks

Ich hau mich weg!

Wer hätte das gedacht?! AMD hat es wirklich geschafft. An sich unfassbar, wenn man sich mal vor Augen hält, dass Intel um die 105.000 Mitarbeiter hat und AMD mit nicht mal 10.000 dagegen hält. Der sich daraus ergebende Budgetunterschied ist zudem wohl gewaltig...

Also, Hut ab AMD!
 
  • Gefällt mir
Reaktionen: Smartcom5
Alienate.Me schrieb:
vergleiche ich den 6900X mit dem 7900X - was für mich das logischste ist - sind es 937€ straßenpreis vs 1000€ UVP, also von deutlich sehe ich da nichts.

Ne, 10 vs 10 Kerne sind es halt 700eur oder so weniger geworden ;)

@Mini Test.
Wie erwartet, mich interessieren aber die kleineren Modelle, bzw. nur der 7820x :)
 
Da haben die Intel Fanboys ja jetzt ihre günstigen CPUs mit Wunderarchitektur, Glückwunsch......not :freaky:

Der 6 Kerner für 1151 kostet dann bestimmt auch wieder über 300€ bei weniger als 5% mehr Leistung zu Ryzen und dafür 25% Mehrverbrauch :freak:

Aber Hauptsache es steht Intel drauf :o
 
Zuletzt bearbeitet:
@Computerbase: Im gesamten Artikel schreibt ihr Nocuta. Die Firma heißt aber Noctua ;)
 
@Hu3bl: Das stimmt. Und genau genommen hat der Kühler beim 9590 auch nicht mehr ausgereicht.
 
Bei der Leistungsaufnahme kommt bei mir nur noch Amd ins Haus oO.
 
Ohne den Kartoffelbrei unter dem Heatspreader wären die I9 garnicht mal so schlecht. Wer wirklich schnelle Berechnungen braucht den Stören auch die 100W extra nicht wirklich solange die CPU Kühlbar ist.
Wenn ich zum Kühlen der CPU aber eine Kompressorkühlung brauche ist das Designmäßig völlig am Ziel vorbei.

Keiner Beschwert sich wenn beim neuen Pentium Sauche Hollandaise genommen wird um die 50W abwärme wegzubekommen, aber bei I5k/7k/9 haben solche "Kühllösungen nichts zu suchen.
Sobald bei Intel kein Frischkäse mehr bei High End Systemen benutzt wird kann man wieder über einen Kauf bei denen nachdenken, vorher nicht
 
@Gaugaumera

richtig. Kommt auch aufs jeweilige Workset an. Ich könnte von 10 oder auch 16C schon mal was anfangen, aber eben sehr selten. Zb wenn ich 3x im Monat ein Video klein rechnen würde wären mir +100W relativ Wurst wenn ich dafür schneller am Ziel bin.

Bei GPU haut das bei mir viel eher rein, da die Zeit am Zocken mit 100% GPU Last 1000x zu 100% CPU Last überwiegen dürfte (vermutlich bei den meisten hier).
Und 100W sind bei GPUs ja eher Kindergarten.

Trotzdem ist der Unterschied zu Broadwell beachtlich, im negativen Sinn. Auswirkung hin oder her. Abwarten was AMD mit Threadripper herzaber kann :)

wann is da Release?

Edit. Bei CPUs wie Threadripper in Skylake X sollte man zunehmend auch den verbrauch bei Teillast in einem Real World Beispiel analysieren. Zb in Game oÄ.
 
Smartcom5 schrieb:
In diesem Sinne
Smartcom

Es ging doch nur um das Szenario,
ob Intel verlötet oder Paste verwendet und ob dies einen signifikanten Temperaturunterschied bedeuten würde. Als Beispiel nannte ich den 7700K, welcher durchaus signifikante Unterschiede zeigt.
Deine Zitatesammlung kannste dir echt sparen.

Smartcom5 schrieb:
Und wie bitte gedenkst Du die Dinger zu de-lidden, wenn die Wahrscheinlichkeit eine € 1K-CPU wie den i9-7900X damit zu zerstören verhältnismäßig hoch ist?

Gar nicht. Es ging nur um die Theorie.
 
Zuletzt bearbeitet:
Der8auer schrieb:
Ja habe 6, 8 und 10 Kerner hier. Was OC angeht unterscheiden sich die CPUs nicht. Ein 6-Kerner lässt sich im Schnitt so hoch takten wie ein 10-Kerner. Ich schaue morgen mal wie sich die Leistungsaufnahme bei den CPUs unterscheidet. Teste gerade noch verschiedene Mainboards auf OC.

https://www.hardwareluxx.de/communi...lake-x-oc-laberthread-lga2066-1164913-15.html

Puh, wenn da tatsächlich nichts mehr am Takt geht, sieht es ja noch düsterer aus. Ich bin gespannt!
 
Zuletzt bearbeitet: (Zitat angepasst)
Krautmaster schrieb:
nur weil es eine Info zu Mesh gab heißt es nicht dass es falsch oder der Grund für das Ergebnis ist.
Nein? Du siehst doch im Test, daß die Latenzen mit dem i9 wohl deutlich größer werden, insbesondere beim L3-Cache.
„Beim Cache zeigen sich die Anpassungen der Architektur mit dem Wechsel von Ringbus auf Mesh: Die L2-Durchsatzraten gehen auf Kosten der Latenzen teilweise deutlich nach oben, der L3-Cache wird im Gesamtpaket langsamer und sein Durchsatz sinkt ebenfalls.“
— Volker Rißka, ComputerBase

Krautmaster schrieb:
Intels Marketing mag bescheuert sein, technisch werden die aber sicher nicht wenig Aufwand reingesteckt haben um rauszufinden was wohl langfristig die beste Ablöse für Ringbus ist.
Die kochen auch nur mit Wasser und denen wird nun einmal wahrscheinlich nichts Anderes übrig geblieben sein um mit aller Gewalt versuchen zu wollen, die Mehr-Kern-Initiative seitens AMD zu kontern. Die Coire µArchitekture ist am Ende, daß weiß Intel wohl selbst am Besten.

Was hätten sie denn sonst machen sollen, um gegen das Mehr an Kernen von AMD anzustinken?
Den Ringbus weiter skalieren, obwohl man weiß, er hat erhebliche Defizite sobald man die Kerne skaliert?
Das Mesh ist ihr (nach bisherigen Erkenntnissen nicht sonderlich erfolgreicher) Versuch eines Core-Interconnect.

Ein 10C/20T mit Ringbus hat deutlich niedrigere Cache-Latenzen als der praktisch selbe Prozessor mit Mesh-Variante.
Wenn das nicht absolut vergleichbar ist, was bitte denn dann?
Krautmaster schrieb:
Wie man hier so oft von Mesh -> kleinere Yield kommt frag ich mich dann auch etwas. Wüsste nicht dass man dazu einmal fachlich was zu gelesen hätte.
Möglicherweise weil ein weitestgehend planar ausgeführter Ringbus erheblich weniger komplex ist als ein Mesh und letzteres damit die Yields nach unten und die Komplexität einer Maske nach oben zieht? Ich glaube das nennt man denn auch folgerichtig Logik.


In diesem Sinne

Smartcom
 
Ich frage mich wie der 18Kerner im IMac Pro dann getaktet sein wird... 1GHZ? :D
Einfach nur peinlich für Intel (und für jeden der dennoch kauft)
 
Ich kenne sogar ein paar Kandidaten die den Müll auch noch abfeiern, obwohl sie nur Zocker sind. Die würden sich so eine CPU mit Freude kaufen.
 
Hi

Jetzt fehlen die vielen Milliarden an Dollar, die Intel sinnvollerweise in dem mobil Sektor versenkt hat. Das war bis vor kurzen ja das Hauptkampffeld von Intel, bis man die Reizleine gezogen hatte. An AMD dachte man nicht, was wohl Intel in Zukunft wehtun wird. Vergessen darf man auch nicht Qualcomm/Microsoft, die wahrscheinlich bald das nächste Schlachtfeld eröffnen.
Sieht man sich jetzt an, was Intel gedenkt zu liefern, kann man nur sagen, kalt erwischt. Was Neues wird man von Intel in nächster Zeit auch nicht erwarten können, man spekulierte wohl darauf, das AMDs Zen nicht so einschlagen würde. Man hat einfach gepennt. Hinzu kommt der Verzug beziehungsweise die Probleme der 10nm Technologie.
Kurz gesagt der Intel Motor stottert, heraus kommen dann solche unreifen Produkte wie der i9. Der Strombedarf des i9-7900X ist für mich persönlich nicht das größte Problem, dass jedoch eine CPU kaum noch vernünftig im Betrieb zu kühlen ist, stellt ein Novum da. Hier reden wir gerade nur von der 10 Kern CPU. Das Ganze hört sich wie ein schlechter Scherz an, Intel sollte die ganze Plattform abkündigen. Alles andere wirkt nur noch peinlich und verbrennt die Marke.

Sollte AMD auch auf dem Server-Markt mit Epyc einschlagen, wird es für Intel schwer. Der Laden ist groß und benötigt schon für sich riesige Geldsummen, damit der Betrieb Intel läuft. Vergessen darf man auch nicht die Aktionäre, die auch noch was an Kohle bekommen möchten. Kommt es jetzt zu Umsatzrückgängen (Marktanteile gehen verloren, man muss günstiger die Produkte verkaufen) wird es für Intel ganz übel. Jetzt rächt sich die only x86 Marktausrichtung seitens Intel. Meine Prognose wäre dann für die Zukunft, Intel muss sparen. Vorausgesetzt AMD und Qualcomm/Microsoft setzten Intel massiv zu.
Persönlich glaube ich, das man die eigene Chipsatzfertigung auslagert, genauso wie es AMD vor 9 Jahren getan hat. Dieser Bereich frißt riesige Summe und Intel fertig und entwickelt ja allein, ein Luxus, den sie sich noch leisten. Das funktioniert solange, wie riesige Gewinne erwirtschaftet werden. Nur daran glaube ich persönlich in Zukunft nicht mehr. AMD hat in der Vergangenheit, seit Übernahme von ATI, ein striktes langfristiges Ziel verfolgt. Zen wäre wohl, der erste Etappensieg für AMD.
Genau deshalb glaube ich auch, das Intel Qualcomm/Microsoft so massiv mit Patenten gedroht hat und AMD um jeden Preis voraus sein wollen. Anders ist der i9 nicht zu erklären. Die haben wohl begriffen, was für Intel auf dem Spiel steht.
Gruß
 
  • Gefällt mir
Reaktionen: Smartcom5
Warum hat Intel diese nicht verlötet? Intel wird doch wissen, dass diese mit Paste (zu) heiß werden. Gewinnmaximierung aha... oder haben die mit den AiO Hersteller eine Partnerschaft abgeschlossen.:D
 
Hi

Wahrscheinlich kann Intel das Ganze, gar nicht mehrt verlöten. Wenn das Silizium nicht vor weiterer Eindiffusion geschützt ist, wird man eventuell mit dem Lot die CPU irgendwann zerstören.
Oder die technischen Parameter zum Beispiel mit den Abmessungen des Sockels, der Kräfte auf die CPU, sind aus den gültigen Bereichen.
Ich glaube schon, dass das ganze technische Ursachen hat und keine wirtschaftlichen. Man hat wohl auf das falsche Pferd gesetzt. (und muss jetzt dafür zahlen)
Gruß
 
Jetzt wo intels präventivschlag gegen threadripper in die hose gegangen ist, möchte ich nicht wissen, was jetzt gehen die konkurrenz unternommen wird.
 
Zuletzt bearbeitet:
Hmm schade, ich dachte ich könnte mir aus dem Intels ein schönes pc Cluster für die mehrfactorielle Optimierung bauen, so 4 Pcs a 16 Kernen wäre prima.
Aber es scheint als seien sie Intels mit vielen Kernen nicht so der Bringer.
 
Zurück
Oben