Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

DavidG schrieb:
Bulldozer war meiner Meinung nach sehr gut und sehr unterschätzt, weil sie sehr billig waren. AMD täte gut daran, mit Reisen die Preise von Bulldozer abzurufen.
Irgendwie bestehen viele deiner Beiträge aus "komischen Sachen"... wirklich. Nicht böse nehmen, ist aber so. Gerade in Spielen die Singlecoreleistung brauchten war Bulldozer einfach nur schlecht.
 
chaopanda schrieb:
Ein schönes Zitat von Volker aus den Tests dieser Zeit^^
Spiele (geringe Auflösung)
Auch wenn Spiele in geringer Auflösung auf den ersten Blick für den Laien keinen Sinn machen, sind sie gerade für Prozessortests ein elementar wichtiger Teil. Denn hier zeigt sich die wahre Auswirkung des Prozessors, wenn man die Limitierung durch die Grafikkarte, die bei 1.920 × 1.080 Bildpunkten bereits einsetzt, nahezu aufheben kann. Daraus kann man ableiten, dass die hier und heute in geringer Auflösung gezeigten Werte in einigen Jahren mit schnelleren Grafikkarten bei hohen Auflösungen zutreffen könnten – natürlich je nach dem wie groß der Leistungssprung der nächsten Grafikkartengeneration ausfallen wird. Dementsprechend wichtig sind genau diese Werte, da sie beim Prozessorkauf besser für die Zukunft planen lassen.

Schade, dass man diese schlüssige Erklärung entfernt und durch eine genau so lange Erklärung ersetzt hat, warum man nicht in geringer Auflösung testet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat, .Sentinel., KlaraElfer und 3 andere
chaopanda schrieb:
...dass man tatsächlich an den entscheidenen Stellen vor dem Konkurrenten landet.

Was sind denn die "Entscheidenen Stellen"?
Ja, in Gaming und Stromverbrauch sind sie tatsächlich vorne, bei allem anderen nicht.
 
  • Gefällt mir
Reaktionen: Dittsche
crackett schrieb:
Insgesamt sehr gute Nachrichten - außer für Intel und die haben es sich so verdient.
Insgesamt sehr gute Nachrichten - außer für Intel und die haben es sich so verdient. Und zwar jede Menge. Das ist am Ende das einzige was zählt.
 
v_ossi schrieb:
Nur man so, was sagst du eigentlich zu dem Argument, das höhere Auflösungen bisweilen CPU intensiver sind, weil z.B. mehr Drawcalls für Details erfolgen müssen, als bei 720p oder ähnlichem.

Während man bei 4k z.B. 3 Bäume im Hintergrund klar differenzieren kann, ist es bei 720p ein braun-grüner Strich.

Je nach Engine wird da in 720p wohl schon einiges an Daten verworfen, was eh nicht angezeigt werden kann.
Genau das ist DER große Irrtum. Der Rasterizier rendert Dir IMMER alles. Ob 320x200 oder UHD.
Und das muss in die Köpfe rein. Davon rede ich von Thread zu Thread.

Lass mal Insight mitlaufen und Du wirst sehen, dass 99% der Gameengines die Geometrie bzw. LODs weitersenden.
Die GPU entscheidet, was verworfen wird und was nicht, weil sie auch tausend mal effektiver darin ist.
Das gibts doch nicht, dass das bis jetzt zu den Usern noch nicht durchgedrungen ist....

Es gibt Middleware (z.B. Umbra), die, bevor es zur GPU geht, Unterscheidungen trifft, aber das ist die große Minderheit.

Ob es mangels Auflösung ein Braun- Grüner Strich wird oder nicht. Das Input- Signal, welches über die CPU läuft ist exakt das gleiche. Die GPU entscheidet dann, wass dann damit letztendlich passiert.
Die GPU versucht das nur zu quantisieren, sprich den Wust an überflüssiger Geometrie- Information so weit runterzusamplen, dass auch niedrige Auflösungen mitbekommen, dass da mal irgendwas gewesen sein muss bzw. angedacht war.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, ComputerJunge, v_ossi und 2 andere
@Pisaro

Der Bulldozer rennt hier aber immer noch und war damals bei dem Preis ein absolutes Schnäppchen. Ich habe noch nie eine Prozessor so lange behalten wie den Zambezi.😇
 

Anhänge

  • 2020-05-21 21.19.04.jpg
    2020-05-21 21.19.04.jpg
    3,6 MB · Aufrufe: 394
DavidG schrieb:
Bulldozer war meiner Meinung nach sehr gut und sehr unterschätzt, weil sie sehr billig waren. AMD täte gut daran, mit Reisen die Preise von Bulldozer abzurufen.
Es werden bei Mindfaktory und co. mehr Ryzen, Reisen heißen die dinger nicht, verkauft als vergleichbare Intel Cpus. Warum sollte AMD sich gezwungen sehen seine Prozessoren für dich zu verramschen? Das ist doch absurd was du dir das wünschst.
 
  • Gefällt mir
Reaktionen: adAstra und Rockstar85
leprechaunwg schrieb:
Popcorn raus! >1k Beiträge im Thread!
Der Test zu Ryzen 3000 war zu dieser Zeit bei ca 2500 Beiträgen^^
 
  • Gefällt mir
Reaktionen: Markenprodukt, cookie_dent, catch 22 und eine weitere Person
PPPP schrieb:
HEDT geht bis 18 Kerne und gehört zum Consumer Markt, sollte dir ja eigentlich bewusst sein, hast ja auch den 7980XE verbaut.
das nenne ich eher "Prosumer", 95% der Konsumenten hat wenig bis nichts von 12 oder mehr Kernen.
AM4 bietet anders als Intel Prosumer Ambitionen auf der kleinen Plattform, AM4 - was wirklich sehr cool is für jemand der ne leichte, günstige, effiziente Plattform sucht und wirklich einen Usecase für 32 Threads hat.

Bestenfalls sind heute nach wie vor 6-8 Kerne auf der klassischen Consumer Einkaufsliste.

Luxmanl525 schrieb:
Solange Intel diesen Hertsellungsprozeß Fahren muß bzw. in diesem Prozeß fest hängt, wird Intel Ryzen nichts mehr entgegen zu Setzen haben.

Denke das muss man etwas differenziert betrachten. Wenn man das rein am Max Core Topmodell bezieht bestimmt, allein weil man jetzt schon da 6 Kerne mehr bekommt. Aber man kann es hab auch anders sehen wenn man Produkte bis zB 8 Kerne her nimmt, die ja zumeist mehr als ausreichend sind.

Intel bietet hier eine ganze Stange mehr Takt bisher, kann das ggf sogar auf neue stärkere Kerne migrieren. Weiter hat man gerade bzw schon immer die iGPU dabei, das gleicht erst Renoir aus der wiederum ggf noch deutlicher weniger Takt als die Intel Pendants bietet.

So oder so denke ich dass im margenträchtigen Markt bis wie gesagt etwa 8 Kerne Intel nicht nur günstiger fertigt sondern auch bei der Performance führen kann oder zumindest nicht so Massiv angeschlagen wird wie zB ein Bulldozer.

Das Servergeschäft dürfte Intel da mehr weh tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
DavidG schrieb:
AMD täte gut daran, mit Reisen die Preise von Bulldozer abzurufen.

Gnodab schrieb:
Warum sollte AMD sich gezwungen sehen seine Prozessoren für dich zu verramschen? Das ist doch absurd was du dir das wünschst.
Ich sehe nicht, wo AMD nicht die Preise von Bulldozer aufruft^^

Also so ein FX-8350 mit 8 Threads hat damals 190€ gekostet, das entspricht Inflationsbereinigt heute 206€.
Für den von dir verbauten FX-6100 mit 6 Threads waren 140€ fällig, das entspricht heute 160€

Heute bekommt man für 129€ einen 3300X mit 8 Threads, der in einer völlig anderen Liga spielt.
Und für den Preis des 8350 bekommt man umgerechnet heute einen 3600 plus After-Market Kühler.

Und mit diesen beiden Ryzens ist man für den Preis auch deutlich näher an den teureren Intel Produkten dran, als es Bulldozer war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Taxxor schrieb:
Der Test zu Ryzen 3000 war zu dieser Zeit bei ca 2500 Beiträgen^^
Damit hätten wir die Performance von Comet Lake zweifelsfrei klassifiziert und können sagen, dass die Performance abstinkt, sind doch die aktuellen Ryzen Prozessoren in jeder positiven Hinsicht um den Faktor 2,5 besser "bestückt"...

Hiermit kann der Thread nun als überflüssig geschlossen und gelöscht werden. :-)
 
  • Gefällt mir
Reaktionen: Hardwarious, s0UL1 und Taxxor
Liebe CBler...noch nie hat mich ein Test so derart gut informiert und dazu angeregt, Intel vorerst links liegen zu lassen wie dieser, Klasse und vielen Dank.
Nun heißt es auf Zen3 hoffen, denn Intel scheint nicht wirklich daran interessiert zu sein, den Kunden echte Fortschritte und angemessene ehrliche Leistung für deren Geld zu liefern.
 
  • Gefällt mir
Reaktionen: Sennox
ZeroZerp schrieb:
Dort kann man den Verbrauch der CPU exakt ermitteln. Ohne den Verlust des Spannungswandlers.
Igor hat das inzwischen gemacht....da vertraue ich auch eher auf die Werte.

Er hat z.B. die Settings und Auflösung von 720p low, zu 4K extreme, hochgetestet....mit dem wenig überraschenden Ergebnis, dass der Verbrauch massiv sinkt, weil er dann immer weniger FPS hat...Teils durch höhere Settings, aber auch weil mehr von der Szene ins GPU Limit rutscht.

Und weiter hinten bei ca 35:00 sieht man den 10900K und den 3900X bei verschiedenen Situationen und auch beim Spielen verglichen.

Im Idle 5 zu 26W geht klar an Intel.
Auch bei "wenig core" Anwendungen ist Intel grob 10W sparsamer.
Aber egal ob FHD mit guter oder schlechter Multicore Unterstützung oder maximaler Verbrauch bei 720p low, ist der 3900X 15-25W sparsamer.
Und bei Anwendungen die mehr Kerne nutzen ist die Sache eh klar.

Da der 10900K ja auch einige Prozent mehr FPS liefert und die X570 Boards nochmal mehr verbrauchen, kann man da sicherlich sagen, dass die Effizienz aus Watt/FPS nicht entscheident anders ausfällt.

Das wird sich von Spiel zu Spiel massiv unterscheiden....und wie man dank Igor sieht auch abhängig von den FPS.

Und das passt auch zu den Tests von CB....Intel ist sparsamer im Idle und bei single core Lasten....AMD ist sparsamer bei allcore Last und PC Spiele liegen irgendwo dazwischen.

v_ossi schrieb:
Nur man so, was sagst du eigentlich zu dem Argument, das höhere Auflösungen bisweilen CPU intensiver sind, weil z.B. mehr Drawcalls für Details erfolgen müssen, als bei 720p oder ähnlichem.
Siehe oben.....warum das so ist, hat dir ZeroZerp ja schon erklärt....aber hier hast du auch Verbrauchswerte dazu....Es sind vor allem höhere FPS, die den Verbrauch erhöhen.
Und stellt man auf Ultra sinken diese sowohl im CPU als auch im GPU Limit.

...für einzelne Settings mag das anders sein...wenn man mit einem Setting mehr Physik oder KI Berechnungen erhöht, sich die FPS dank GPU Limit aber nicht ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi, SVΞN, Esenel und 4 andere
Der Retailmarkt ist völlig irrelevant für Intel, und Intel hat diesen Nischenmarkt fast komplett AMD überlassen, seit Jahren. Und trotzdem hatte man bei Intel wieder einmal ein bombastisches Quartal.

Es ist für Intel also absolut irrelevant was die Leute hier im Forum kaufen, weil sich dass nicht auf den Geschâftserfolg von Intel großartig auswirkt.

Und weil man bei Intel nach wie vor die Nachfrage der OEMs nicht bedienen kann, die 95% des Marktes ausmachen, wird die Preislage für Intelprodukte noch längere Zeit angespannt bleiben.

Für die absolute Masse der User hat AMD seit Zen das bessere P/L-Verhältnis.

Und trotzdem wird global gesehen viel mehr Intel verbaut, auch zukünftig, da alle großen OEMs langfristige Verträge haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: psychotoxic
@ZeroZerp

Merci noch für deine Aufklärungsarbeit. Du steckst da offensichtlich ziemlich weit drinn.

Folgende Beobachtung, vielleicht kannst du das auch noch kurz erläutern.

Simples Benchmark Tool, rthdribl, den download liefer ich gleich noch nach. Der Bench verhält sich typisch und verursacht Last auf 3 Kernen, ein Main Thread zwei neben Threads.

Zwei Auflösungen, einmal 640x480 und einmal 1920x1080. Man beachte das verschieben der CPU und GPU Last beim Wechseln der Auflösung. Ich hab ehrlich zu wenig Ahnung was das ist, aber vielleicht kannst du in dem Zusammenhang nochmal drauf eingehen.

1590089671757.png


1590089702738.png


Gruss und Danke für Deine Zeit,

Ned

P.S.: Link zu rthdribl (ist übrigens echt immernoch eye candy)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN, .Sentinel. und Krautmaster
Gerade in der Region 6 bis 8 Kerne setzt Intel einen hohen Preis an, zu hoch in meinen Augen.
Dabei fahren sie mit Sicherheit hier deutlich mehr Marge als AMD.

Möglicherweise eher eine interne Kalkulation. Wenn man den mm² über andere Produkte oder ab Kunden teurer verkaufen kann macht es auch kein Sinn günstige Consumer CPU herzustellen.
 
matty2580 schrieb:
Der Retailmarkt ist völlig irrelevant für Intel, und Intel hat diesen Nischenmarkt fast komplett AMD überlassen.
Und trotzdem hatte man bei Intel wieder einmal ein bombastisches Quartal.

Es ist für Intel also absolut irrelevant was die Leute hier im Forum kaufen, weil sich dass nicht auf den Geschâftserfolg von Intel großartig auswirkt.

Ich glaube, das wissen die Leute hier im Forum.
 
  • Gefällt mir
Reaktionen: Sennox und Ned Flanders
cookie_dent schrieb:
Was sind denn die "Entscheidenen Stellen"?
Ja, in Gaming und Stromverbrauch sind sie tatsächlich vorne, bei allem anderen nicht.
Du sagst es doch selbst - Gaming. Das ist so offensichtlich die Zielgruppe, das tut doch schon fast weh...

Etwas, was Bulldozer/Vishera schlicht versagt geblieben war damals.
 
Ned Flanders schrieb:
Zwei Auflösungen, einmal 640x480 und einmal 1920x1080. Man beachte das verschieben der CPU und GPU Last beim Wechseln der Auflösung. Ich hab ehrlich zu wenig Ahnung was das ist, aber vielleicht kannst du in dem Zusammenhang nochmal drauf eingehen.

Also erstmal, die GPU Last kannst du komplett vergessen, da die Karten ja variabel takten.
Dass die Karte einmal 70% und einmal 50% Auslastung hatte, lässt nicht auf die tatsächliche Last der Karte schließen, da sie ja in beiden Fällen unterschiedlich takten kann.

Ich hab mich gestern beim Superposition Test auch beim 800x600 Bench erst mal erschreckt, bereits 60% GPU Auslastung zu sehen, aber wenn die GPU nur mit 800MHz taktet, ist das kein Wunder^^

Und die CPU Last ist bei 640x480 höher, da du hier einen 4:3 Bildausschnitt hast anstelle eines 16:9 Ausschnitts.
Folglich kann die CPU dort etwas mehr FPS liefern und ist dadurch auch etwas mehr ausgelastet.

Mir scheint der FPS Unterschied ziemlich groß, aber man ist ja auch nicht im CPU Limit, ich weiß gar nicht was dort in den beiden Fällen limitieren soll anhand der Anzeige.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS, Esenel, KlaraElfer und 2 andere
Zurück
Oben