News Core i9-9900K: Laut Gigabyte ist Intels Achtkerner ein heißes Eisen

Unnu schrieb:
@d3nso @druckluft:
Leuts seid mir nicht böse, das ist Quark.
Genau die gleichen Argumente habe ich schon bei den ersten 4Kernern gelesen, dann bei 4Kern+HT und zuletzt beim 8Kerner+HT Ryzen.
Und mittlerweile?
TR geht unter DX12 sowas von ab; ACO lässt mit 8Kernen alles andere stehen. Und das sind nur die Vorboten. SC wird evtl. erst mit ThreadRipper so richtig Rund und die ganzen anderen AAA die jetzt erst kommen, konnten schon auf 8Kerne optimiert werden.
Da geht noch einiges.
Ja, sicher manches lässt sich nicht oder nur schwer parallelisieren. Und?
Bisher wurde immer eine Lösung gefunden. Ich bin da sehr zuversichtlich, dass es da draußen irgendwo einen „Verrückten“ gibt, der auf diese allgemein bekannten Tatsachen nichts gibt und eine Lösung findet.
Oder glaubt ihr allen Ernstes, dass wir hier über so eine CPU diskutieren würden, hätten nicht die ganzen Innovatoren davor einfach auf diese „allgemeingültigen Wahrheiten“ geschissen?

Ganz davon ab, es bleibt für die Zukunft nicht mehr viel übrig als zu parallelisieren. So in 7 bis 10 Jahren hat sich’s ausgeschrumpft.
Und ob die Quanten in „stinknormalen“ Workloads was taugen steht in den Sternen.

Natürlich kann man vieles parallelisieren, aber eben nich alles. Das hat ganz einfach technische/mathematische Gründe. Du kanns ja auch kein Bild an die Wand hängen, bevor dein Kollege den Nagel in die Wand gehauen hat . Ähnliche Beispiele gibt es in der Informatik eben auch.
 
  • Gefällt mir
Reaktionen: Flaimbot und druckluft
TopperHarley87 schrieb:
Natürlich kann man vieles parallelisieren, aber eben nich alles. Das hat ganz einfach technische/mathematische Gründe. Du kanns ja auch kein Bild an die Wand hängen, bevor dein Kollege den Nagel in die Wand gehauen hat . Ähnliche Beispiele gibt es in der Informatik eben auch.

Die mag es geben, aber sich über die Grenzen zu unterhalten, wo ein Großteil der Software noch in den Kinderschuhen steckt ist auch albern.

Letztes Jahr wurde hier erzählt das es niemals Spiele geben wird die 8-Kerne sinnvoll auslasten können. Nun gibt es sogar schon Beispiele die mit 12 oder gar 16-Kernen noch Leistung rausholen.
 
  • Gefällt mir
Reaktionen: Transistor 22, dister1, DarknessFalls und 5 andere
TopperHarley87 schrieb:
Du kanns ja auch kein Bild an die Wand hängen, bevor dein Kollege den Nagel in die Wand gehauen hat . Ähnliche Beispiele gibt es in der Informatik eben auch.

Und das Bild ist einfach da? Das Bild muss erstmals gekauft, ausgepackt und an die richtige Stelle gesetzt werden, wenn man den Nagel in die Wand hämmert. Ohne diese Arbeiten davor - gibt es halt nicht schnell, sondern langsam. Im Übrigem nimmst Du das Wort "Kollege" in den Mund ;). Alleine muss man alles einzeln vorbereiten - gemeinsam geht es schneller.
 
  • Gefällt mir
Reaktionen: Thraker und Sennox
Qarrr³ schrieb:
Kannst mit ner Wakü auch 500W kühlen. Das Problem ist der kleine Chip kann die Wärme nicht so gut übertragen.

Genauso ist es. Habe damals beim 8700 K @ 5 GHz bei 1,35 V @ AVX gedacht, warum das scheiß Ding trotz Delid und 280er Radiator + 2 x 140 mm Noctua industrial @ 2000 rpm + Ventilator der voll ins offene Case bläst so verdammt heiß (90 - 95 °C) wird und das obwohl der CPU Block nicht nicht mal handwarm und das Wasser inkl. Radiator waren kalt.

Der kleine Chip gibt einfach kaum Wärme ab. Da braucht man gar nicht auf eine Wakü setzen, weil eine Lukü wie ein NH-D15 bis auf wengie °C fast genauso gut ist.

Weil schon der 8700k so heißt wurde konnte man damals schon nicht mehr als 5 GHz AVX @ max. 1,28 V fahren. Danach gings nur noch mit 90+ °C. Und um an so einen Chip zu kommen muss man wieder 10 - 20 Stück testen, wenn man nicht beim ersten einen Glücksgriff hat oder strikt pretested kauft.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: CBL
Für die meisten wird letztlich die Wärmeentwicklung und der Verbrauch bei Prime95 nicht viel Relevanz haben.
Am Freitag sehen wir ja, wie das ganze unter normalen Bedingungen aussieht.

Wobei mir hier auf CB dafür ein Test fehlt, den man auf anderen Seiten findet: Die Leistungsaufnahme während einer ganz normalen Gamingrunde.
Da könnte man einmal in 720p und einmal in 1440p messen, um Werte für ein CPU Limit zu haben und einmal Werte, die Alltagstauglich sind
 
  • Gefällt mir
Reaktionen: Heschel
Aldaric87 schrieb:
@druckluft

Ändert ja nichts daran das die Ressourcen trotzdem sinnvoller eingesetzt werden können....

Ändert aber trotzdem nichts an der Tatsache dass es bei sehr vielen Problemen eben nicht geht. Ist ja auch häufig so, dass irgendeine Entscheidung getroffen werden muss, ob im obigen Beispiel das Ergebnis der Berechnung jetzt größer als 30 ist oder nicht.
Multicore Systeme gibt es jetzt schon Jahrzehnte. Da dürfte bei den meisten Problemstellungen bereits so ziemlich das Optimum an Programmierung heraus geholt sein. Darauf zu hoffen dass das Herauswachsen der Programmierung aus den Kinderschuhen etwas daran ändert, ist leider zu optimistisch.
 
Damit die CPU ordentlich fluppt hätte man schon auf 10 nm gehen und die TDP @ AVX unter 150 Watt halten müssen, ab da fangen CPUs nämlich an zu "kochen".
 
Nixdorf schrieb:
Das ist zwar richtig, aber genau diese Zielgruppe kauft erst gar keinen i9.

Aber es wäre wesentlich teurer extra einen eigenen Die ohne GPU herzustellen.

Beefsupreme schrieb:
Die kaufen aber eben nicht die High-End-Gamer-CPU. Bei den 4-Kernen machts ja Sin da sag ich nichts aber ab sechs Kernen hätte ich die Grafik weggelassen.

Auch die 6 und 8 Kern-Dies werden in Laptops eingesetzt, wo eine Grafikkarte Sinn macht.

Einfach mal die Verkaufszahlen von CPUs mit denen dedizierter GPUs vergleichen, das sagt eigentlich schon alles.
Hätte den die 6 und 8 Kern Ryzens eine GPU, gäbe es vermutlich viel mehr Notebooks mit diesen Chips. Auf der anderen Seite wäre die Herstellung von Threadripper und vor allem Epyc durch den größeren Die deutlich teurer. AMD wird hier angewogen haben.
 
Zuletzt bearbeitet:
Heschel schrieb:
Und das Bild ist einfach da? Das Bild muss erstmals gekauft, ausgepackt und an die richtige Stelle gesetzt werden, wenn man den Nagel in die Wand hämmert. Ohne diese Arbeiten davor - gibt es halt nicht schnell, sondern langsam. Im Übrigem nimmst Du das Wort "Kollege" in den Mund ;). Alleine muss man alles einzeln vorbereiten - gemeinsam geht es schneller.

Ich gebs ja zu, das Beispiel ist nicht ganz optimal. Aber ob es im anderen Extrem Sinn macht mit der ganzen Familie zum schwedischen Möbelhaus zu fahren, nur um ein Bild an die Wand zu hängen, kann man sicherlich auch streiten.... 😂😉
 
  • Gefällt mir
Reaktionen: GERmaximus
Unnu schrieb:
TR geht unter DX12 sowas von ab; ACO lässt mit 8Kernen alles andere stehen. Und das sind nur die Vorboten.
Hast du in letzter Zeit die News gelesen warum ACO so eine hohe CPU Last vermutlich verursacht? Es scheint eher ein Engine und Streamingproblem als dass dafür so viele Kerne nötig wären. Das Game zeigt auch nicht mehr Objekte als Open Workd Spiele der letzten 3 Jahre. Dass man schon einen gut taktenenden 6 Kerner braucht um stabil über 60fps zu landen ist keine tolle Entwicklung.
Wenn dann muss optisch wesentlich mehr los sein oder die Framerate bei mehreren Kernen deutlich höher sein.

ACO ist für mich kein gutes Beispiel für eine gute CPU Nutzung. Da scheint eher ein Fehler die Last zu verursachen.
 
  • Gefällt mir
Reaktionen: Unnu
Ehrlich gesagt, die Kiste darf bei 5GHz all-core auch ruhig mal etwas heißer laufen! Ein Vergleich 2700x vs 9900k hakt hier einfach. Ein 2700x @ gleichem Takt sähe definitiv nicht besser aus.

Kritikwürdig ist allenfalls und in erster Linie der Preis! Leistungsmäßig ist das Ding ohne Frage top!
 
  • Gefällt mir
Reaktionen: Transistor 22
druckluft schrieb:
Doch die ganzen Office- und reinen Internetsurfer-Kisten ...
Die kaufen aber eben nicht die High-End-Gamer-CPU. Bei den 4-Kernen machts ja Sin da sag ich nichts aber ab sechs Kernen hätte ich die Grafik weggelassen. AMD ist so schlau und fährt Zweigleisig.
 
Vielleicht war bei dem Testmuster von Gigabyte der Heatspreader uneben, damit hatte Intel schon vormals Probleme.
 
druckluft schrieb:
Aber es wäre wesentlich teurer extra einen eigenen Die ohne GPU herzustellen.
Die Zielgruppe der reinen Officenutzer und Internetsurfer greift eher zu Pentium oder i3, und da ist es dann ja sowieso ein anderes Die. Daher sagte ich, dass die genannten Zielgruppen bei exakt dieser Betrachtung außen vor sind. Das mit dem "die benötigen nichts anderes" ist wie gesagt richtig, aber nicht für die genannte Zielgruppe, sondern eher für andere mit höheren Leistungsansprüchen ei der CPU, aber ebenso geringen bei der GPU.
 
Ist also wie schon einer hier geschrieben hat ein fx http://geizhals.at/973468

Hätte gedacht dass Intel es gut im Griff hat, nach dem sehr guten 8700k. Scheinbar ist die Architektur auf soviele Kerne nicht ausgelegt und der 8700k war der sweetspot.

Bin jetzt auf nächstes Jahr aber eher gespannt. Der ryzen 2 in 7nm und der Gegenpart von Intel in ähnlicher Struktur größe.
 
Für paar Prozente Mehrleistung würd ich nicht soviel Strom verbraten.
 
Übertakten aller Kerne auf max. Turbofrequenz ist einfach nicht drinnen.
Die CPU arbeitet mit optimaler Energieefizienz bei etwa 3 GHz,
wenn die Kerne 5 GHz arbeiten, haben sie etwa nur die halbe Energieeffizienz, deshalb auch die mehr als doppelt so hohe Leistungsaufnahme bei 8 Kernen @ 5 GHz.
 
Heschel schrieb:
@MK one

Das ist zur Zeit anzunehmen.

Mir ging es eher um Marktstrategie, wo AMD richtig punkten könnte. PCIE4.0 wäre halt, wo man mehr m.2 SSDs einbringen könnte. Mit besserem IPC und höherem Takt wäre man schon sehr nahe an Intel dran und dies würde noch die Kirsche auf der Sahnetorte sein.

Mit mehr m.2 PCIE SSDs könnte man richtig Platz sparren bei mITX. Graka mit 8 PCIE 4.0 Lanes anbinden und man hätte 8 PCIE 4.0 Lanes für andere Geräte verwenden können. Dann wäre auch ein 12-Kerner im Mainstream denkbar, welcher einige SLX-Produkte (auch die SLX-Refresh) sinnlos machen würde. Der Rest könnte dann mit TR3000 bedient werden.

Mit passenden Preisen würde hier Intel sehr ins Schwitzen kommen.

@Redaktion

Könnte man mit der 2080ti einen Test durchführen, wo die Grafikkarte mit 16 und 8 Lanes angebunden ist? Mich würden gern inbteressieren, ob es hier immer noch kaum was ausmacht.

Test zu PCIE 3.0 und GTX 2800ti gibts bei Techpower up.
 
  • Gefällt mir
Reaktionen: Heschel
Bei der Überschrift dachte ich erst, dass die Dinger schon in Massen vorbestellt wurden.
Danke für die tolle Überschrift @ CB (mal wieder...).

Der 9900k ist wie der FX 9590 nichts weiter als ein Heizschwein.
Einziger Unterschied: Die deutlich bessere IPC.
Der FX konnte selbst mit den Taktraten nicht an Intel vorbeiziehen.

Damals hatte ich schon diesem FX eine klare Abfuhr erteilt, hier ist es "nur" eine Abfuhr.
Er hat ja aktuell die Leistungskrone und ist somit "daseinsberechtigt".

Ich hoffe, dass Intel die nächsten Jahre nichts gebacken bekommt und AMD vorbeizieht.
Zudem viele Marktanteile zurückbekommt und es für uns günstiger wird.

@HITCHER_I Die halbe Effizienz? Müsste doch noch einiges schlechter sein...
Ab und dann 4,5GHz geht die Schere immer schneller auseinander.
 
Zurück
Oben