News Core i9-9900K: Laut Gigabyte ist Intels Achtkerner ein heißes Eisen

Heschel schrieb:
Man könnte AMD auch raten etwas zu warten und Zen2 mit PCIE 4.0 rausbringen (wie bei Epyc Rome jetzt). Das würde neben dem IPC und Taktrate auch für besseres Angebot (bei den sinkenden Preisen der m.2 SSDs) sorgen.
Wie heißt es so schön? Warten kann man immer, irgendwas Neues ist immer hinter der nächsten Ecke.
 
smart- schrieb:
Die entscheidende Frage wäre hier jedoch gewesen, wie lange Intel sich Zeit gelassen hätte, wenn es Ryzen nie gegeben hätte... ich denke, da hätte es noch 4-5 Refreshes mehr gegeben und sicherlich auch nicht so schnell einen 5 GHz Turbo. Man reizt eine Technologie nicht bis aufs letzte aus, wenn es keine Konkurrenz gibt.
Ja, davon bin ich auch überzeugt, das hätte ich nicht beser sagen können.
 
Ein großer Vorteil, den Intel gegenüber AMD hat, ist dass Intel überhaupt jenseits der 4,3 GHz hinkommt. Damit das auch ja jeder mitkriegt und man auf dem Papier noch weiter vor AMD erscheint, gibt es ab Werk recht knackige Einstellungen. Kann man so machen. Hat AMD nicht anders gemacht. Die teureren Ryzen braucht man nicht von Hand OCen, weil die meist mit XFR schon am Limit laufen.
Also alles im erwartbaren Bereich. Dennoch lustig, die eigenen Annahmen mal bestätigt zu sehen ;)
 
@MK one

Das ist zur Zeit anzunehmen.

Mir ging es eher um Marktstrategie, wo AMD richtig punkten könnte. PCIE4.0 wäre halt, wo man mehr m.2 SSDs einbringen könnte. Mit besserem IPC und höherem Takt wäre man schon sehr nahe an Intel dran und dies würde noch die Kirsche auf der Sahnetorte sein.

Mit mehr m.2 PCIE SSDs könnte man richtig Platz sparren bei mITX. Graka mit 8 PCIE 4.0 Lanes anbinden und man hätte 8 PCIE 4.0 Lanes für andere Geräte verwenden können. Dann wäre auch ein 12-Kerner im Mainstream denkbar, welcher einige SLX-Produkte (auch die SLX-Refresh) sinnlos machen würde. Der Rest könnte dann mit TR3000 bedient werden.

Mit passenden Preisen würde hier Intel sehr ins Schwitzen kommen.

@Redaktion

Könnte man mit der 2080ti einen Test durchführen, wo die Grafikkarte mit 16 und 8 Lanes angebunden ist? Mich würden gern inbteressieren, ob es hier immer noch kaum was ausmacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fwsteiner
Heschel schrieb:
@MK one
Mit passenden Preisen würde hier Intel sehr ins Schwitzen kommen.

Naja, schau dich doch mal im Forum um, warum sollte Intel ins Schwitzen kommen, wenn ihre Produkte trotz aller Kritik und Schwächen aus den Händen gerissen und lauthals verteidigt werden? Solange jeder nur AMD applaudiert und Intel kauft, kommt da keiner ins Schwitzen, egal was andere liefern.
 
  • Gefällt mir
Reaktionen: dister1, DarknessFalls, Thraker und 12 andere
smart- schrieb:
Wenn du dein NT nach TDP kaufst, machst du sowieso etwas grundlegend falsch. Das ist nur für den Kühler relevant.

Soweit richtig. Nur sollte jemand auf die Idee kommen, einen kühler auf den i9 zu schnallen, der genau 95 Watt abführt, wird er wenig Spaß mit der CPU haben. Die CPU wird, wenn der Kühler einmal aufgeheizt ist nur noch Millisekunden den Turbo einschalten, falls überhaupt noch.

Die 95w stehen "für eine komplexe von Intel erfundene Rechenleistung", was alles oder nix heißen kann
 
habla2k schrieb:
Naja, schau dich doch mal im Forum um, warum sollte Intel ins Schwitzen kommen, wenn ihre Produkte trotz aller Kritik und Schwächen aus den Händen gerissen und lauthals verteidigt werden?

Könntest Du bitte auf den gesammten Kommentar eingehen und nicht auf nur einen Teil? Ich habe eine Prämisse vorgegeben.

Zusatz:

Schon jetzt zeigt sich, dass Intel an die Grenze mit der Architektur kommt. Wird Zen2, wie einige Artikel vorraussetzen so gut, dann wird AMD wieder ein Stück an Intel dran sein. Wenn in Benchmarks die Unterschiede kaum zu messen wären, wird die GPU wichtiger werden und somit wieder Intels Position schwächen (es wird halt keinen 6 GHz 8-Kern CPU geben).
 
Zuletzt bearbeitet:
Hat Gigabyte im Test Prime95 mit AVX/FMA3 getestet? Steht nix in der News...weiß wohl wieder keiner
Falls ja, dann sind über 200W schon realistisch.
Ansonsten aber im Vergleich zu 8700Ks oder 7800X und 7820X hätte ich nicht mit so deutlich über 200W gerechnet.
Naja, das Tool kann sich ja auch verrechnen.
 
TopperHarley87 schrieb:
Das Dilemma ist leider nur, dass es viele Aufgaben gibt, die sich nicht parallelisieren lassen.

Aber man kann je nach Workload 2 Dinge gleichzeitig bearbeiten ohne sich bei WL1 die Cores zu blockieren :)
 
@habla2k

Wobei AMD schon langsam zunimmt. Sieht man ja auch bei den Verkäufe. Aber du hast schon recht. Die Gruppe von Leute die AMD nur als Preisgegenpol zu Nvidia und Intel sehen ist halt noch deutlich zu groß.

Leider hat sich AMD über die letzten Jahre dein eigenen namen zunehmend versaut. Jetzt muss man halt langsam aber stetig wieder Boden gutmachen und das gelingt ihnen ja auch. Stürzt ja auch nicht gleich jeder los und kauf eine neue CPU. Ich habe auch einen Intel Prozessor, würde aktuell aber auch keine Intel CPU kaufen. Aber noch ist keine Zeit für ein Upgrade. :)

Zumindest bei den CPUs ist AMD ja auf einem guten Weg und wenn sie da dran bleiben und dauerhaft mitmischen, wird sich einiges im Markt ändern.
 
  • Gefällt mir
Reaktionen: Flaimbot
Verstehe nicht, warum so eine high-end cpu immer noch mit der Schrottgrafik daherkommt. Die können die doch bei den low-end lassen wie AMD. Da würden sie auch noch 14nm Kapazität sparen ...

Sollen sie lieber mal ein paar pci-e lanes draufpacken. 16 is schon echt arm und die grafik nutzt zu 99% keiner.
 
Ich freu mich schon auf die "90 grad trotz wakü" Beiträge im Hilfe-Forum ;)
 
  • Gefällt mir
Reaktionen: Unnu
Die 330W sind wie gesagt das Gesamtsystem. Für die CPU kann man sich mit den Screenshots behelfen. Beim Luxx gibt es noch einen dritten Screenshot, der zeigt in CoreTemp dann 250W bei 5,0 GHz. Dass es schon bei Werkseinstellungen in Prime 95 mehr als 200W sein würden, wurde im Vorfeld schon mehrfach entsprechend geschätzt.

Achtung: Jetzt kommen wilde Schätzungen, die nur grob den Verbrauch eingrenzen sollen.

Man kann das aus Messwerten für den 8700K extrapolieren: Die Idle-Last-Differenz liegt bei 147W (188-41). Der All-Core-Turbo steigt von 4,3 auf 4,7 Ghz, die Kern-Anzahl von 6 auf 8. Das ergibt dann 147*47/43*8/6 = 214W. Das steht unter der Annahme, dass der 9900K die 4,7 GHz ohne Anhebung der Spannung schafft, was dann als Vorteil durch den verbesserten 14nm-Prozess aufzufassen wäre.

Extrapoliert man stattdessen auf 5,0 GHz, so ergeben sich 228W. Da ist dann aber garantiert noch eine Anhebung der Spannung notwendig, die quadratisch einfließt. Angenommen, man muss von 1,2 auf 1,3 Volt (Werte grob geschätzt, die 1,3 ist grob aus den Screenshots) gehen, dann ergibt das 228W*(1,3/1,2)^2=268W. Man kommt also schnell in entsprechende Regionen.

Nun werden hier allerdings noch Äpfel mit Birnen verglichen, denn die obigen Aussagen sind nicht der Verbrauch des Prozessors, sondern der Anstieg des Systemverbrauchs. Die Idle-Last-Differenz ist primärseitig vor dem Netzteil und beinhaltet noch den Anstieg des Stromverbrauchs für den Rest des Rechners, was primär das VRM des Prozessors ist. Nun geht es noch mehr in den Bereich grober Schätzungen... Geht man von 93% Wirkungsgrad bei Last und 86% bei Idle aus (das ist dann schon ein sehr effizientes Netzteil) und nimmt 16W Anstieg des sekundärseitigen Verbrauchs des VRMs bei Last an (häufig genannter Wert von Buildzoid bei dessen Messungen), so ergibt sich:
  • 8700K Stock: 41W=>35W, 188W=>175W, ohne VRM 159W, ergibt einen CPU-Verbrauch von 124W.
  • 9900K Stock: 124W*47/43*8/6=181W
  • 9900K 5GHz mit 1,2V=>1,3V: 124W*50/43*8/6*(1,3/1,2)^2=226W
Die Schätzung von 226W ist da schon gar nicht mehr so weit von den 250W aus dem Screenshot entfernt. Man sieht daran, dass der 9900K in jedem Fall schon Stock mit 180W ein heißes Eisen ist, und bei 5 GHz wird es dann noch schlimmer.
 
  • Gefällt mir
Reaktionen: Transistor 22, Obvision und zhompster
TDP max. 95W und dann über 200W? sitzen Winterkorn und Stadler jetzt bei Intel in der Entwicklung....?:freak:
 
Beefsupreme schrieb:
Verstehe nicht, warum so eine high-end cpu immer noch mit der Schrottgrafik daherkommt. Die können die doch bei den low-end lassen wie AMD. Da würden sie auch noch 14nm Kapazität sparen ...

... 16 is schon echt arm und die grafik nutzt zu 99% keiner.

Doch die ganzen Office- und reinen Internetsurfer-Kisten benötigen nichts anderes. Der PC Markt für Gamer macht nur einen geringen Anteil aus. Und für alle anderen macht das durchaus Sinn eine solche Grafik zu verwenden und sich die Kosten zu sparen.
 
  • Gefällt mir
Reaktionen: Creeed und Flaimbot
cookie_dent schrieb:
vermutlich brauchen sie die meist ungenutzte Grafik als zusätzliche Fläche/Volumen zur besseren Wärmeabführung.

Auch wenn das nur ironisch gemeint war, so ergibt es doch nur bedingt Sinn. Wenn Intel das aktiv ausnutzen wollte, würden sie die Grafik nicht an den Rand packen, und daneben die acht CPU-Kerne. Dann würde man die Grafik als Abstandshalter zwischen den CPU-Kernen ausführen, entweder simpel in der Mitte zwischen jeweils vier Kernen, oder aber kompliziert verteilt zwischen allen acht Kernen. So, wie es umgesetzt ist, bringt das jedenfalls in diesem Bezug herzlich wenig.
Ergänzung ()

silvio09 schrieb:
TDP max. 95W und dann über 200W? sitzen Winterkorn und Stadler jetzt bei Intel in der Entwicklung....?:freak:

Wie immer: TDP hat nichts mit dem realen Verbrauch zu tun. Konkret hier: Die 95W beziehen sich auf den Basistakt von 3,7 GHz. Baut man da einen Kühler für 95W Wärmeentwicklung drauf, so wird der Prozessor thermisch drosseln und im Schnitt noch etwas mehr als den Basistakt liefern. Alternativ kann man Long Duration Power Limit im UEFI auf 95W setzen, dann geht der Turbo von alleine nach wenigen Sekunden runter, um die 95W nicht zu überschreiten.
 
  • Gefällt mir
Reaktionen: Flaimbot
TopperHarley87 schrieb:
Das Dilemma ist leider nur, dass es viele Aufgaben gibt, die sich nicht parallelisieren lassen.
@d3nso @druckluft:
Leuts seid mir nicht böse, das ist Quark.
Genau die gleichen Argumente habe ich schon bei den ersten 4Kernern gelesen, dann bei 4Kern+HT und zuletzt beim 8Kerner+HT Ryzen.
Und mittlerweile?
TR geht unter DX12 sowas von ab; ACO lässt mit 8Kernen alles andere stehen. Und das sind nur die Vorboten. SC wird evtl. erst mit ThreadRipper so richtig Rund und die ganzen anderen AAA die jetzt erst kommen, konnten schon auf 8Kerne optimiert werden.
Da geht noch einiges.
Ja, sicher manches lässt sich nicht oder nur schwer parallelisieren. Und?
Bisher wurde immer eine Lösung gefunden. Ich bin da sehr zuversichtlich, dass es da draußen irgendwo einen „Verrückten“ gibt, der auf diese allgemein bekannten Tatsachen nichts gibt und eine Lösung findet.
Oder glaubt ihr allen Ernstes, dass wir hier über so eine CPU diskutieren würden, hätten nicht die ganzen Innovatoren davor einfach auf diese „allgemeingültigen Wahrheiten“ geschissen?

Ganz davon ab, es bleibt für die Zukunft nicht mehr viel übrig als zu parallelisieren. So in 7 bis 10 Jahren hat sich’s ausgeschrumpft.
Und ob die Quanten in „stinknormalen“ Workloads was taugen steht in den Sternen.
 
  • Gefällt mir
Reaktionen: dister1, DarknessFalls, GUN2504 und 4 andere
druckluft schrieb:
Doch die ganzen Office- und reinen Internetsurfer-Kisten benötigen nichts anderes.

Das ist zwar richtig, aber genau diese Zielgruppe kauft erst gar keinen i9. Es geht eher um Workstation-Nutzer, die keinen Xeon kaufen. Die brauchen oft ebenfalls keine dedizierte Grafik.
 
  • Gefällt mir
Reaktionen: DarknessFalls und Obvision
Unnu schrieb:
@d3nso @druckluft:
Leuts seid mir nicht böse, das ist Quark...

Nein ist es nicht. Das ist reine Logik. Wenn du 3x9+6 berechnen willst kommst du nicht drum rum das in zwei aufeinander folgenden Schritten zu tun. Und davon gibt es sehr viele Berechnungen in Programmen
 
  • Gefällt mir
Reaktionen: Obvision, GERmaximus und Flaimbot
@druckluft

Ändert ja nichts daran das die Ressourcen trotzdem sinnvoller eingesetzt werden können. Tomb Raider ist da schonmal ein gutes Beispiel, wie man Kerne und Threads nutzen kann um die Leistung zu steigern. Stand jetzt steckt die Paralellisierung in Software noch in den Kinderschuhen. DX12 erleichtert das im Gaming-Bereich anscheinend schon extrem, weswegen man auch sieht das Tomb Raider absolut keine Probleme hat 16 Threads auszulasten.

Mehr Kerne ergeben so viele Möglichkeiten, unter anderem KI Berechnungen auf andere Kerne auszulasten und nicht auf dem Mainthread lassen zu müssen ist da nur eine Sache.

Diese Diskussion ist absolut mühselig.

Man braucht noch nicht über die Grenzen der Paralellisierung zu reden, wenn es im Software-Bereich noch in den Kinderschuhen steckt.
 
  • Gefällt mir
Reaktionen: Heschel
Zurück
Oben