News 8-Kern-CPUs: Core i9-9900K & i7-9700K sind offiziell, Kritik an Benchmarks

Kenny35 schrieb:
Typisch Deutsch wäre allerdings die Tatsache eine gute Leistung für wenig Geld haben zu wollen. Denn der Deutsche ist von Natur aus geizig und hat ein sehr schlechtes Preis / Leistungs Ideal vor sich.

Also ich würde das nicht Geiz nennen, sondern gesunden Menschenverstand. ;)

Selbst wenn ich persönlich mir auch eine CPU für über 1000€ leicht leisten könnte (und das im Fall eines X6800 Extreme Edition sogar unvernünftigerweise einmal getan habe), ist es doch wesentlich logischer, zu einem Produkt mit besserem Preis/Leistungs-Verhältnis zu greifen.

Die deutschen wissen zum großteil nichtmehr was ein Produkt an wert hat oder kostet.

Supermarktreklame interessiert micht nicht. Statt dessen habe ich über viele Jahre bzw. Jahrzehnte die Entwicklung der Leistung und der Preise von CPUs, GPUs und anderen Computerprodukten beobachtet.

Was ich dabei gelernt habe ist, dass die Preise herzlich wenig mit Angebot, Nachfrage, Herstellungs- und Logistikkosten, Wechselkursen usw. zu tun haben. Es ist viel mehr so, dass die Hersteller einfach genau so viel Geld für ihre Produkte verlangen, wie die Kunden bereit sind dafür zu bezahlen. Keinen Cent weniger.

Ein weiteres Ergebnis meiner langfristigen Beobachtungen ist, dass man z.B. neue CPUs oder GPUs auf zwei Arten betrachten kann. Durch die "technische" Brille und durch die "wirtschaftliche".

Als Ingenieur und Computer-Enthusiast neige ich persönlich in der Regel eher erstmal zur "technischen" Brille. Also dass ich z.B. 9900K mit 2700K vergleichen will, weil beides 8-Core/16-Thread, Spitzenmodell der Mainstream-Plattform usw.
Und ich habe deswegen damals auch dazu geneigt, die GTX680 als eine überteuerte GTX660 anzusehen, weil die GK104-GPU technisch ganz klar der Nachfolger der GF104 war, nicht der GF100/110 aus der GTX480/580.

Trotzdem ist objektiv betrachtet die "wirtschaftliche" Brille vernünftiger bzw. zielführender. Also die Produkte nicht anhand ihrer technischen Eigenschaften miteinander zu vergleichen, sondern mit der Konkurrenz auf ihrem Preisniveau. Und Produktnamen sind auch nur Schall un dRauch.
Weder Intel noch AMD oder Nvidia wählen ihre Preise anhand der technischen Spezifikationen oder der Leistung oder auch Herstellungskosten, die sich daraus ergeben würden. Sie verlangen wie gesagt so viel, wie die Kunden bereit sind dafür auszugeben. So bilden sich durch die Preise Kategorien wie High End, Mittelklasse und Low End, nicht durch messbare Leistung oder technische Eigenschaften der Produkte.

Es wäre natürlich optimal, wenn die Kunden den Preis, den sie bereit sind zu bezahlen, an Leistung und technischen Eigenschaften ausrichten würden. Damit würden dann beide "Brillen" das selbe Bild zeigen. Aber meine Beobachtungen zeigen klar, dass das nicht der Fall ist.

Und deshalb halte ich es wie gesagt für vernünftiger, die Preise beim Vergleich von Produkten als wesentlichen Faktor mit zu betrachten, statt nur auf die Technik zu schauen. Mit dem Bewusstsein, dass die Preise sich eben nicht aus objektiven, technischen Kriterien ergeben, sondern aufgrund der Psychologie beim Kunden. Aber die Hersteller wählen halt diese Preispunkte für ihre Produkte und so muss man sie pragmatischerweise dann auch einordnen. (Deswegen ist z.B. die RTX 2080 ganz klar der Nachfolger der GTX 1080Ti, nicht der der GTX 1080. Und die 2080Ti ist statt dessen die neue Titan.)
 
  • Gefällt mir
Reaktionen: H3llF15H, Qyxes, ChrisM und 14 andere
Ko3nich schrieb:
Alles unterhalb einer 1080Ti ab FHD mit vollen Details: Völlig irrelevant welche CPU ab 6 Kernen (2600 vs 8400). Die Spiele die nach wie vor stark zu Intel tendieren, z.B. ein CSGO, haben mit 300 zu 200 fps auch nicht das große Problem.

Die Gruppe derer die mit Grafikkarten die 600€ aufwärts kosten auf FHD mit reduzierten Details für 350 anstatt 200 fps spielen dürfte jetzt auch nicht so groß sein.

hab ich auch gedacht aber der Unterschied scheint auch in 1080p mit Hohen Details teilweise größer zu sein als gedacht. Auch nicht nur wenns darum geht ob man nun 200 oder 300 FPS hat (da bin ich bei dir, ist Wurst) aber gerade im kritischen Bereich 30-60 FPS "Minimum" skaliert das teils massiv. Gerade auch wenn noch DX11 zum Einsatz kommt.

Deswegen optimieren ja viele ihren RAM bei Ryzen. Und bei meinem SLX seh ich auch krasse Unterschiede ob ich Mesh und RAM auf Stock betreibe oder tweake.

Könnte mir auch vorstellen dass diese Min Frames unabh von der Auflösung skalieren. Ich mein wenn man zb in 1080p Min Frames von ~40 und 120 FPS Average hat werden die Min Frames in 1440p nicht höher sein, aber wenn der GPU Limit Anteil steigt.
 
  • Gefällt mir
Reaktionen: OZZHI
@Krautmaster
Der Test ist sicher gut um die Grenzen des Prozessor zu ermitteln, damit man weiss womit man es zu tun hat. Dennoch finde ich für einen SpaWa Test sollte man es eher wie der8auer im BATTLE of the CHEAP Test handhaben und höchstens Prime 26.6 / 1344 laufen lassen um einen realistischen Wert für die OC Fähigkeit des Mainboard zu ermitteln. Für den Alltagsbetrieb ohne Auto OC seitens des Mainboards (MCE lässt grüssen) sehe ich jedoch keine Gefahr für normale Z370 Mainboards.

Ko3nich schrieb:
Richtig wäre: Intel liefert aktuell die besten CPUs für Gaming im CPU-Limit.
Das ist aber auch nur die halbe Wahrheit, weil man wirklich den besten Gaming Prozessor bekommt und somit für spätere, vielleicht sogar schwieriger ausführbare, Games mehr Reserven zur Verfügung hat. Nur weil diese spezielle AMD CPUs dank einer langsameren GPU oder höheren Auflösung "aufschliessen", bedeutet das nicht, dass man mit einem 8700K/9900K keinen Mehrwert bekommt. Denn anders als bei der GPU bin ich froh, wenn meine CPU mehr leistet als ich gerade fordere und nicht immer am Limit läuft. Denn an der CPU Auslastung kann ich nichts tun, bei der Grafik hingegen schon.

Damit niemand auf den Trip kommt: der i9 9900K ist dennoch überteuert gemessen an den eigenen Vorgängern und keineswegs mit der 2700X vs. 8700K Situation vergleichbar, weil der Intel damals gleich viel gekostet hat.
 
in DX12 siehts wieder ganz anders aus. Da hat der 2700X offensichtlich steigende Vorteile gegenüber dem 8700K da DX12 eher über alle Kerne Skaliert und davon hat der Ryzen eben 2 mehr.

Außerdem hat man bei DX12 zb im Falle von Tomb Raider eh so hohe Min Frames dass es egal wird ...

Kritisch sind eher die doofen Engines wie AOC die in DX11 teils miese Min Frames liefern während sich die GPU schon fast langweilt.
 
ich feiere AMDs "Comeback" echt hart - obwohl ich seit dem Core2Duo ein Intel-Jünger bin.

Board-technisch würde ich trotzdem zum X370er tendieren ... es gibt einfach noch kein AsRock "Professional Gaming" für den X470er
 
Hayda Ministral schrieb:

Ja in der Tat, das sind sie - für dich sogar zu stark

Hayda Ministral schrieb:
Und dann ein Link in dem überwiegend die Performance der iGPU getestet wird. Du machst Dich gerade lächerlich.
Ernsthaft, hast du auch das Mausrad verwendet um zu scrollen oder ist es dir entgangen dass hier auch CPU, Gaming FPS, Gaming Frametimes oder Powerconsumption getestet wurden?
Du bezeichnest 6 von 41 Tests als überwiegend? In Prozent sind das ca 15...

Im Interesse einer sachlichen Diskussion werde ich jetzt, anders als du nicht persönlich, aber du kannst dir selbst vorstellen wie deine Aussage wirkt

Hayda Ministral schrieb:
Und wohlgemerkt, ich bestreite natürlich nicht dass mein SB langsamer ist. Ich hätte nur gerne ein Beispiel oder mehrere für die Disqualifizierung als "outdated" die ich im Moment noch nicht nachvollziehen kann.

Dass du "outdated" als disqualifizierend wertest ist ganz alleine dein Problem. Es bleibt dir letztlich selbst überlassen, ob du einen in 32nm gefertigten Prozessor, der maximal PCIe 2.0 unterstützt und bereits von mehreren Generationen ersetzt wurde als "am Puls der Zeit" wertest. Ich mach es nicht

Beispiele hab ich dir verlinkt, du musst sie nur lesen wollen.
Du kannst dir auch gerne folgendes Video ansehen:

Und dabei daran denken dass nicht der absolute FPS Balken sondern das Gesamtverhalten der CPU zählt. Der 2600k kommt hier wesentlich stärker ins schwitzen als ein 8700k und das wirkt sich letztendlich auch in hoher Auflösung und BQ auf die Framerate aus. An das Märchen "im Grafiklimit ist die CPU egal" glaubt ja eh keiner mehr
 
Krautmaster schrieb:
Kritisch sind eher die doofen Engines

Talking about doofe Engines. Ich bin ja wirklich gespannt, wie es mit der viel kolportierten Weisheit der schlechten bis unmöglichen Parallelisierbarkeit von Spieleengines nun weiter geht. Jetzt haben dann beide Hersteller 8C/16T CPUs im Massenmarkt. Alleine zum Spass hab ich die ganzen Beiträge der Experten zum Thema schonmal gebookmarkt ;-).

Wie lange wirds wohl dauern... 1 Jahr? 1.5 Jahre....
 
  • Gefällt mir
Reaktionen: Smartcom5, RAZORLIGHT, TheBear1517 und 3 andere
naja ich denke parallelisierbar sind die Engines zT schon, ich meine vorallem dann wenn zB NPCs unabh. voneinander ihre KI entfalten dürften was ja prinzipiell easy gehen sollte. Genauso Physik von einzelnen Objekten.

In DX11 entsteht ja eher ein Limit durch die API selbst, zu viele Drawcalls zb. Richtig gut sieht man das im Tomb Raider Benchmark wenn man mal auf DX11 stellt und dann in der belebten Markt Szene die FPS massiv einbrechen, bei DX12 hingegen deutlich gleichmäßiger sind.

Bei anderen Szenen die sehr hohe FPS liefern kann DX11 wiederum schneller sein, da Parallelisierung ja nicht umsonst daherkommt und DX11 was die Max FPS angeht manchmal sogar Vorteile hat. Nur interessieren max FPS wenig.
 
Naja man kann nicht alles parallelisieren, aber ich denke mehr als heute ist allemal drin...
 
Ned Flanders schrieb:
Wie lange wirds wohl dauern... 1 Jahr? 1.5 Jahre....
Da sich die Situation mit der aktuellen Konsolengeneration leicht gebessert hat, würde ich auf den PS5/XBOX Release + 1-2 Jahre tippen. Vorausgesetzt die Konsole hat mehr als nur 8 Ryzen Kerne.
 
denke sie wird genau diese 8 Ryzen Kerne haben da aktuell was Konsolen angeht wohl viel auf eben 8 Jaguar Kerne optimiert wurde, da wäre es ggf sinnig bei 8 zu bleiben und Zen ist ja eh massiv schneller.
 
  • Gefällt mir
Reaktionen: OZZHI
Bei nun fast 1800 Kommentaren auf 90 Seiten hab ich ein wenig den Überblick verloren: Wann ist mit unabhängigen Tests/Benchmarks zu rechnen? Im Artikel steht auch nichts konkretes dazu, dank NDA.
 
Toprallog schrieb:
Bei nun fast 1800 Kommentaren auf 90 Seiten hab ich ein wenig den Überblick verloren: Wann ist mit unabhängigen Tests/Benchmarks zu rechnen? Im Artikel steht auch nichts konkretes dazu, dank NDA.
Ich hab irgendwo was von diese Woche Freitag gelesen, aber nagel mich nicht drauf fest.
 
Hardwareunboxed hatte in einem Video den 19. oder 20. erwähnt. Eines von den beiden auf jeden Fall, bin mir nur nicht sicher welches.
 
Vermutlich also am Freitag dieser Woche. Dann wissen wir mehr. Danke für die Info!
 
Krautmaster schrieb:
so denk ich auch. Deswegen halte ich auch nichts von Igors Extreme Burning Test mit dem Intel eigenen Stresstest Tool. Nett gemeint aber keine Praxis Relevanz.
Cinebench und Rendern, Handbrake usw, das is in meinen Augen ein realistischer "Load Test".

Hat er ja eigentlich auch beiläufig erwähnt, dass bei Spielen und damit auch "normalen" Anwendungen da kein so großes Problem bestehen wird.

Aber manche lesen halt nur, was ihnen in den Kram passt und manchen viel Wind drum.
 
major_tom111 schrieb:
Ernsthaft, hast du auch das Mausrad verwendet um zu scrollen oder ist es dir entgangen dass hier auch CPU, Gaming FPS, Gaming Frametimes oder Powerconsumption getestet wurden?

Ich habe das Mausrad verwendet und auch die verlinkten Unterseiten besucht. Ich sehe dort jedoch keine Werte für die angeblichen Tests. Es ist natürlich möglich dass ich da etwas übersehen habe, daher bitte verlinke doch einfach mal auf eine Seite auf der die Werte für GTAV, Doom, Battlefield .... oder was auch immer mit einer diskreten GPU zusammen aufgeführt sind. Ich bin sehr gespannt. Ich habe wirklich alles dreimal von oben nach unten und wieder reverse abgesucht ohne fündig zu werden.
 
major_tom111 schrieb:
ass du "outdated" als disqualifizierend wertest ist ganz alleine dein Problem. Es bleibt dir letztlich selbst überlassen, ob du einen in 32nm gefertigten Prozessor, der maximal PCIe 2.0 unterstützt und bereits von mehreren Generationen ersetzt wurde als "am Puls der Zeit" wertest. Ich mach es nicht

Keine Ahnung warum die alt eingesessenen Sandy Bridge Fans noch immer glauben, dass Ihre CPU aktuell ist. Ich merke den zahn der Zeit an meinem i7 3930K auch schon stellenweise und der bügelt einige Schwächen gegenüber den altem i5 2500k und i7 2600K aus. (4 vs 6 Kerne, PCIe 2 vs 3, Dual vs Quad-Channel). Deshalb sind die CPUs nicht schlecht, aber vergleichbar mit aktuellen sind sie aber auch nicht mehr. Von der IPC reicht mir mein i7 noch völlig aus (zocke nicht mit 144fps oder sowas). Aber ein paar mehr Kerne und eine modernere Plattform dürfte es schon sein. Schade das die x399 Boards so teuer sind, ansonsten hätte ich beim 1920x zugeschagen...

Krautmaster schrieb:
naja ich denke parallelisierbar sind die Engines zT schon, ich meine vorallem dann wenn zB NPCs unabh. voneinander ihre KI entfalten dürften was ja prinzipiell easy gehen sollte. Genauso Physik von einzelnen Objekten.


Theoretisch kann man vieles parallelisieren, aber praktisch ist man dazu übergegangen, dass man genau das dann lieber auf GPU Ebene parallelisiert berechnet. Eine 8 Kern CPU ist im vergleich zu einigen tausend Shadern halt auch wieder ein kleines Licht. Ki hat sich seit gefühlt 15 Jahren nicht mehr weiterentwickelt. Sieht man super in so ziemlich jedem Spiel mit der Frostbite Engine. Die Gegner Ki ist in allen den Spielen so super Dumm, da gab es auf der PS1 schon bessere.
 
Ja gut sowas wie zb das Verhalten der NPCs in Tomb Raider oder auch generell wird denke ich so gut wie nie auf der GPU gerechnet, aber es bringt dir API ggf ins schwitzen weil da dann besonders viele Draw Calls oÄ abgesetzt werden müssen. Es ist ja schon komisch dass gerade da dann DX11 komplett weg bricht und DX12 recht gut mit den selben NPCs usw klar kommt.

Aber da bin ich technisch nich weit genug drin.
 
Zurück
Oben