Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Labberlippe schrieb:
Intel bekamm nichteinmal einen 10 Kerner hin, das finde ich eher erschreckend.
Ich würde eher so sagen: Sie hätten Rocket Lake wohl auch gerne als 10-Kerner gebracht, was aber technisch in 14nm nicht mehr machbar gewesen sein dürfte, da so eine CPU dann wirklich in punkto Wärmeentwicklung und Energiekonsum wie eine Rakete durch die Decke gegangen wäre. Sieht man ja schon am 11900K als 8-Kerner, welcher unter Last übelst negativ auffällt und das Kunststück fertig bringt, mit 2 Kernen weniger mehr Energie zu saufen, als das Topmodell 10900K als direkter Vorgänger.

Das ist wirklich erschreckend und zeigt nur zu deutlich, das Intel mit der 14nm Fertigung zwar mit der Diamant Brechstange noch irgendwie leistungsmäßig mithalten kann, aber zu was für einen horrenden Preis hinsichtlich der Energieffizienz. Das geht einfach mal gar nicht. Wenn man sich dazu die Balkendiagramme in Igors Video anschaut, dann fällt einem fast die Kinnlade herunter. Denn in Punkto Effizienz wird Intel gnadenlos von AMD geradezu vorgeführt und gedemütigt. Das muß man einfach mal so klar sagen !
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Mcr-King
Zwiebelsoße schrieb:
Das ist abhängig was du mit Zukunftsfähigkeit ausdrücken willst.
Baue ich nach 5 Jahren eine schnellere GPU bei gleicher Software ein, profitiere ich auch in höheren Auflösungen von der damals in 720p schnelleren CPU.
Das ist eine glatte Lüge!
Kann man wunderbar am R5 1600 und 2600 sehen, die überall noch mit der richtigen Grafikkarte (augenscheinlich) Radeon performen, während der 7600k und mittlerweile auch die älteren i5 8400 und 8600, Framtime Einbrüche haben in vielen modernen Spielen, das man eher von Ruckelorgie sprechen kann.
Die waren aber damals in 720p immer schneller.

Und jetzt haben wir ein neues Problem mit dem Nvidia Overhead, das ein Ryzen 2600 mit einer 5700XT oder mit einer 6800 plötzlich in 1080p und Quality Einstellungen massiv mehr Frames in diversen Spielen produziert als z.B. mit einer Nvidia 3070, teilweise zwischen 10-30% mehr (5700XT vs. 3070).
Damit haben z.B. 720p Tests mit diesen angesprochenen CPUs mit Nvidia Ampere und auch wohl Turing Karten 0,0 Aussagekraft für den geneigten Käufer oder Besitzer, weil der Nvidia Treiber das CPU Limit bestimmt und nicht die CPU und die Kunden aus solchen Tests teilweise nur falsche Schlüsse ziehen können!

Da ihr ja gerade mit Reviewen anfangt, solltet ihr Reviews und CPU Tests nicht für das eigene Ego machen, sondern vielleicht versuchen einen Mehrwert für die Leser zu schaffen, sonst wird das eher nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gnodab, Celinna, Konr4dZus3 und 5 andere
aldaric schrieb:
Das ergibt keinen Sinn.

Warum soll es keinen Sinn ergeben?

aldaric schrieb:
Ich will wissen, was die CPU unter Optimal-Bedingung für FPS raushauen kann in Titel X unabhängig von der GPU.

Dann müsstest du bei x Spielen mal die Radeon und mal die Geforce verbauen, je nachdem welcher Treiber besser mit dem Spiel zurechtkommt. Eher im Limit bist du mit der GPU welche mehr CPU Leistung frisst, es sei denn die Wahl von 720p war schon komplett für ein absolutes CPU Limit bei AMD/Nvidia GPUs ausreichend.

Unabhängige Werte von der GPU gibt es bei CPU Messungen nicht. Wenn ein 5800x 100 FPS mit einer Radeon im CPU Limit bringt, bedeutet das nicht, dass die CPU mit der Nvidia auch 100 FPS im CPU Linit bringt. Vielleicht sind es 110 oder nur 90.

Mit RBar dürfte Nvidia hier wieder aufholen, das entlastet die CPUs.


aldaric schrieb:
Wenn die Ampere-Architektur in dieser Auflösung aber Probleme mit der Auslastung durch extremen Treiberoverhead hat, dann macht das testen mit ihr keinen Sinn und verfälscht die Ergebnisse.

Nein, denn ein falsches Ergebnis gibt es an der Stelle nicht, da die GPU Hersteller unterschiedliche FPS im CPU Limit bringen. Das war immer schon so, und ist aus der Benchpraxis bekannt.

Früher haben die Radeon GPUs den höheren Treiberoverhead gehabt, deswegen war es natürlich nicht falsch mit Radeons CPUs zu benchen. Du verstehst hier den Zusammenhang irgendwie nicht.

aldaric schrieb:
Wenn nun die 6900XT als Gegenstück deutlich aufzeigt, dass die CPU z. B. 250 FPS liefern kann, mit der 3090 jedoch nur 210, dann macht es keinen Sinn die 3090 zu verwenden.

Es macht genauso viel Sinn wie umgekehrt.
Denn jedes mal limitiert die CPU und könnte, wenn sie schneller wäre mehr.
Wasdu hier diskutierst nennt sich eine Art von Software Bremse und das kann man als Tester nicht beeinflussen.

Klar kann ich nun immer mit Radeon die CPU und mit Nvidia die CPU benchen, deswegen ändern sich die Ergebnisse der CPUs untereinander auch nicht. Es sei denn es gibt Spezialfälle in denen ein IHV mehr Kerne nutzen kann.


aldaric schrieb:
Hier will ich die CPU Limits testen und nicht die GPU / GPU Treiber-Limits.

Wer sagt dir, dass die Radeon perfekt mit der CPU umgeht und nicht die Intel GPU noch besser, wenn Spiel XY getestet wird?

Ergo kannst du kein „CPU Limit“ testen.
Du testest hier die FPS Höhe.

aldaric schrieb:
Da nicht geklärt werden kann, ob jede CPU Architektur gleich auf den Treiber-Overhead reagiert, bzw. der Treiber für beide Architekturen gleichwertig optimiert ist.

Das kann nie geklärt werden und ist Spiel für Spiel ubterschiedlich. Deshalb einigte man sich, dass man die schnellste GPU für CPU Leistungsmessungen nimmt.

Momentan ist die 6900XT fast auf 3090 Niveau also könnte man genauso die Radeon nehmen, das macht wie schon gesagt für die CPU Leistugsmessungen in Relation keinen Unterschied.

Merkst du erst jetzt, dass GPUs von verschiedenen Herstellern unterschiedlich hohe absolute FPS Werte in den CPU Limits liefern? Das ist doch ein alter Hut?!
 
Zuletzt bearbeitet:
DonL_ schrieb:
als z.B. mit einer Nvidia 3070, teilweise zwischen 10-30% mehr (5700XT vs. 3070).
In welchen Spielen ist denn die 5700XT um 10-30% schneller als die 3070?
Wenn du schon das Posting mit "glatte Lüge" beginnst, solltest du auch Evidenzen liefern.
 
  • Gefällt mir
Reaktionen: Laphonso
DonL_ schrieb:
Das ist eine glatte Lüge!
Sag mal, leidest du unter selektiver Wahrnehmung oder so was? :confused_alt: Er schrieb "bei gleicher Software"... Man, man, man, was für eine Diskussionskultur.

Hab's vorsichtshalber mal fett markiert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso, Mcr-King, Zwiebelsoße und eine weitere Person
DonL_ schrieb:
Das ist eine glatte Lüge!
Kann man wunderbar am R5 1600 und 2600 sehen, die überall noch mit der richtigen Grafikkarte (augenscheinlich) Radeon performen, während der 7600k und mittlerweile auch die älteren i5 8400 und 8600, Framtime Einbrüche haben in vielen modernen Spielen...

Lese bitte genauer, ich schrieb von gleichbleibender Software. Den Fall den du nun beschreibst habe ich im weiteren Posting genauso behandelt. 🙁

Leseverständnis scheint heute nicht deine Stärke zu sein. Ich glaube das ist das Problem bei vielen Diskussionen hier. * kopfkratz*
 
  • Gefällt mir
Reaktionen: Laphonso, Cy4n1d3, ZeroStrat und eine weitere Person
foo_1337 schrieb:
In welchen Spielen ist denn die 5700XT um 10-30% schneller als die 3070?
Wenn du schon das Posting mit "glatte Lüge" beginnst, solltest du auch Evidenzen liefern.

Schaue dir das Video an, z.B. 10:37 da wirst du sehen wie ein 1600x mit einer 5700X, 20% mehr FPS (1080p) entwickelt als mit einer 3070, der 2600x immer noch 12%. mehr
 
  • Gefällt mir
Reaktionen: Celinna und Mcr-King
foo_1337 schrieb:
In welchen Spielen ist denn die 5700XT um 10-30% schneller als die 3070?
Wenn du schon das Posting mit "glatte Lüge" beginnst, solltest du auch Evidenzen liefern.

Das Thema wird z.B. hier aufgearbeitet: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-maerz-2021

Dort gibt es auch weitere Links.

Allerdings hat sich das wohl als Treiber Fehler rausgestellt und ist mit einem neuem Treiber behoben. Hintergrund war wohl zu viel Telemetrie gelogge in DX12 Titeln und dadurch übermäßig viel I/O Last für die CPU was bei schwachen CPUs wohl relativ viel Last erzeugt. Wo ich das aber heute gelesen habe weiß ich nicht mehr sorry.

Edit: Im 3DCenter Artikel wird dem ganzen zwar die Praxisrelevanz abgesprochen, was z.B. für die Realität da drausen stimmt, aber gerade bei CPU Tests hat das dann sehr wohl einen Einfluss, weil man ja mit einer möglichst starken Grafikkarte alle CPUs vermessen will. Dann macht es durchaus einen Unterschied ob man mit einer AMD oder NVidia misst, die zusätzliche CPU Last durch den Overhead erzeugt.
 
  • Gefällt mir
Reaktionen: Celinna, Rockstar85 und aldaric
DonL_ schrieb:
Schaue dir das Video an, z.B. 10:37 da wirst du sehen wie ein 1600x mit einer 5700X, 20% mehr FPS (1080p) entwickelt als mit einer 3070, der 2600x immer noch 12%.
Mir war klar, dass dieses Video kommt. Nun schreibst du oben jedoch von bis zu 30%, von denen hier weit und breit nichts zu sehen ist. Dazu kommt, dass HWU mit Absicht nicht Ultra Settings sondern nur "Orginal" bzw. bei WD:L "Medium" genommen hat, welche aber wohl so gut wie jeder mit einer 3070 wählt, wenn er in 1080p spielt. Jetzt rate mal wieso nicht?
Normalerweise bin ich nicht so pienzig, aber wer ein Posting mit "glatte Lüge" beginnt, sollte man sich nicht selbst ins Aus schießen.
 
  • Gefällt mir
Reaktionen: Laphonso und ZeroStrat
DonL_ schrieb:
Schaue dir das Video an, z.B. 10:37 da wirst du sehen wie ein 1600x mit einer 5700X, 20% mehr FPS (1080p) entwickelt als mit einer 3070, der 2600x immer noch 12%. mehr

Stimmt, aber das sind ja nur 2 Spiele getestet. Wenn man das zu einer allgemeingültigen Aussage verwursten möchte sollte man den gesamten Benchparcour in 1080 p Medium durchlaufen lassen.

Irgendwie wirkt deine Theorie hart an den Haaren herbeigezogen. Nur weil Igors Lab das behauptet, muss es noch lange nicht stimmen.

Wenn ich sehe, dass sein aktueller Test in Far Cry New Dawn als CPU Limit, obwohl keines vorliegt, ausgewiesen wird, muss man schon daran zweifeln ob die richtigen Rückschlüsse aus den Messungen gezogen werden. Ein Treiberlimit das Intel CPUs begünstigt, ist schlicht eine hanebüchene Verschwörungstheorie, als Ausrede für abweichende CPU Leistungswerte.

PCGH maß mehr als 20 Spiele, immer ist der 11900K schneller, am Ende 11%vor dem 10900K.

CB und Igors Lab kommen zu völlig anderen Ergebnissen. Und nun ist die Frage woran liegts. Tipp: BIOS RAM Kombination.

Will natürlich keiner hören, aber ich verwette meinen 5800x dafür. 😋
 
Zuletzt bearbeitet:
@Zwiebelsoße der Witz ist, dass das Video laut einem User im 3D Center ein re-upload ist. Davor wurde HZD in Ultra gebencht. Da lag die 5700XT mit einem 1600X vor der 3070. Mit dem 2600X ungefähr gleich auf. Das war aber nicht plakativ genug, daher hat man die Settings eben runter gedreht.
Ich selbst habe das vorige Video jedoch nicht gesehen.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Zwiebelsoße schrieb:
Stimmt, aber das sind ja nur 2 Spiele getestet. Wenn man das zu einer allgemeingültigen Aussage verwursten möchte sollte man den gesamten Benchparcour in 1080 p Medium durchlaufen lassen.
Da der Overhead hauptsächlich Direkt X 12 Spiele betrifft wird es da wohl am häufigsten auftreten und bis jetzt hat wohl noch keiner die Zeit gehabt, sich damit intensiver zu beschäftigen abgesehen von PCGH und die kommen zu einem ähnlichen Ergebnis, dass das ein Nividia Problem ist und für ihren Testparcours für DX12 Spiele nicht optimal ist. Dave hat erst heute geschrieben, dass die Grafikkarte gewechselt wird, wenn mehr DX 12 Spiele im Parcours sind.
 
foo_1337 schrieb:
Also die 16- und 24 Core Intel CL CPU laufen gut bei uns ;)
Auch wenn ich eher so der Epyc Freund bin. Aber die gibt's leider so selten.
Sind die CL Xeon nicht auch meshes?
Und Mesh taugt halt nicht für latenzkritische Sachen. Leider
AMD hat das ja auch, weswegen man den Interconnect Infinity Fabric erdacht hat. Ein reiner CCD Ein wäre zu komplex beim 16 oder gar 32C und zu langsam.

@0ssi
Igor also FormatC hat schon etwas dazu gesagt. Und ich bin gespannt, wann er das Mal auch mit den Vorgängern beleuchtet...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Passt ganz gut zu dieser Frage von mir. Treiberproblem sollte es so lange nach Release ja nicht mehr sein
also würde ich das Problem doch in Richtung DX12 geben. Solche extremen Unterschiede nerven einfach.
 
  • Gefällt mir
Reaktionen: Mcr-King
0ssi schrieb:
Passt ganz gut zu dieser Frage von mir. Treiberproblem sollte es so lange nach Release ja nicht mehr sein
also würde ich das Problem doch in Richtung DX12 geben. Solche extremen Unterschiede nerven einfach.
Wieso siehst du das jetzt als DX12 Problem, wenn AMD es mit seinen Treibern und Grafikkarten doch wesentlich besser im Griff hat?
Ich sehe es eher als Nvidia Treiber Problem.
Soweit mir bekannt gibt es da erhebliche Unterschiede zwischen beiden Herstellern, da wohl AMD Karten bei DX12 mehr in Hardware abarbeiten, was Nvidia über den Treiber löst, was wohl nicht so gut gelingt.
 
Rockstar85 schrieb:
Sind die CL Xeon nicht auch meshes?
Und Mesh taugt halt nicht für latenzkritische Sachen. Leider
Jup, ist aber zum Glück in dem Use Case nicht so relevant
Ergänzung ()

DonL_ schrieb:
Soweit mir bekannt gibt es da erhebliche Unterschiede zwischen beiden Herstellern, da wohl AMD Karten bei DX12 mehr in Hardware abarbeiten, was Nvidia über den Treiber löst, was wohl nicht so gut gelingt.
Zu diesem Thema: https://www.computerbase.de/forum/threads/nvidia-driver-overhead.2010440/post-25422614

Locuza schrieb:
@ZeroStrat, @Lurtz ,

Wenn man sich eine CPU oder GPU-Architektur anschaut, dann gibt es hunderte von Hardware-Einheiten, die sich um eine Art von Scheduling kümmern.
Wenn man von Soft- oder Hardwarescheduling spricht, dann muss man schon sehr präzise ausdrücken was man eigentlich meint und wo ein vermeintlicher Unterschied bestehen soll.

Was HardwareUnboxed ungeprüft wiedergibt ist ein Video von NerdTechGasm, welches viele Sachen falsch eingeordnet hat in Bezug auf den DX11/12-"Overhead" und das Treibermodell.

Seit Kepler verwendet Nvidia für das Instruction-Scheduling keine Hardware mehr, welche Abhängigkeiten von Instruktionen überprüft und schaut welche Register man verwenden könnte.
Man kann dank fester Latenzen ganz genau sagen, wie das Scheduling ablaufen kann, ohne Konflikte zu erzeugen.
Diese Information wird seit Kepler in Software encodiert, was einige komplexe Schaltungen in der Hardware spart.
Das hat aber nichts mit DX11 oder DX12 zu tun, welche auf einer viel höheren Abstraktionsschicht agieren.
Egal ob Fermi ("Hardware" Instruction Scheduling) oder >=Kepler ("Software" Encoded Scheduling), Nvidia's Treiber splittet die Arbeit unter DX11 auf mehrere Worker-Threads auf Seiten der CPU.

Bei AMD's GCN Hardware, welche angeblich auf Hardware-Scheduling setzt, gibt es beim Instruction-Scheduling in diesem konkreten Punkt überhaupt kein Hardware-Scheduling, es gibt auch gar kein Software-Scheduling, weil GCN prinzipbedingt anders arbeitet.
Anders als Fermi, Kepler oder nun auch AMD's eigene RDNA-HW, ist GCN eine Non-Pipelined Architecture.
Das heißt in der Pipeline wird stets nur eine Instruktion ausgeführt, alle 4 Takte kommt ein neuer Befehl und die Ausführung selber dauert 4 Takte.
GCN muss niemals arithmetische Abhängigkeiten von Instruktionen überprüfen, entsprechend gibt es weder Software, noch Hardware, die sich darum kümmert.
Bei RDNA ist das anders, die Ausführung einer Instruktion dauert 5 Zyklen, allerdings kann RDNA jeden Takt eine neue Instruktion in die Pipeline einfügen, es könnten also maximal 5 Instruktionen in der Pipeline gleichzeitig aktiv sein.
Jetzt muss man aber nach Abhängigkeiten schauen, vielleicht benötigt Instruktion B die Ergebnisse von Instruction A, dann kann man nicht die Instruktion B ausführen und es gibt Pipeline-Bubbles, als weiße Kästchen unten dargestellt.
RDNA verwendet für die Abhängigkeitsprüfungen tatsächlich Hardware, im Gegensatz zu Nvidia oder jetzt auch Intel mit Xe.
Das hat aber erneut keinen direkten Bezug auf die Art und Weise, wie DX11 und DX12 arbeiten.
Anhang anzeigen 1055434


Auch für AMD wäre es möglich mehrere Worker-Threads unter DX11 zu erzeugen.
Es ist überhaupt nicht so, dass bei AMD der Treiber nur die Arbeitsanweisungen weiter leitet und dann "Hardware-Scheduling" sich angeblich um alles kümmert, weswegen AMD das nicht vorher parallelisieren kann.
Ebenso hat Nvidia in dem Aspekt gar kein Problem mit dem DX12 Modell, sie richten sich nach der gleichen Spezifikation wie AMD und beide Hersteller haben unter DX12 in der Hinsicht deutlich weniger Spielraum was die Command-Buffer-Generation angeht.
Das muss der Treiber unter DX11 erledigen, während unter DX12 das die Entwickler selber explizit vorgeben.
Was tatsächlich stimmt an der Stelle ist, dass AMD "ACE"-HW hat, welche sich um die Compute-Queues kümmern, welche optional bei DX12 verwendet werden können.
Optional ist aber das Stichwort, es gibt viele DX12 Spiele, die kein Asynchronous Compute verwenden und wo die "ACEs" brach liegen.
Die sind nur nützlich, wenn auch zusätzlich Compute-Queues verwendet werden.

Nvidia's Hardware, zumindest bis Pascal, hat die Einschränkung das nur GFX oder Compute-Befehle auf einem Shader Multiprocessor laufen können, nicht Beide gleichzeitig.
Maxwell musste vor der Ausführung die Ressourcen statisch partitionieren und getrennt für GFX und Compute einteilen.
Aufgrund der Arbeitsdynamik kann diese statische Partitionierung suboptimal ausfallen und einige SM an Leerlauf leiden, weswegen Nvidia bis Maxwell eigentlich niemals zusätzliche Compute-Queues ausnutzen sollte und alle Befehle in eine Arbeitsschlange steckt.
Seit Pascal gibt es Hardware Load Balancing, was die belegten Ressourcen dynamisch anpassen kann und somit potentiellen Leerlauf reduziert, seit Pascal sieht man auch im GPUView-Profiler Compute-Queues auf Nvidia's Hardware, dabei hat der Hersteller aber nichts in Bezug auf das Software Encoded Instruction Scheduling verändert.

Und beide Unternehmen haben Hardware-Command-Processors, Hardware wie die ACEs oder GigaThread-Engine, welche sich um Draw- (3D) und Dispatch-Befehle (Compute) bis zu einem gewissen Grad kümmern und auch selber verteilen.
Ebenso sind die Wavefront/Warp-Scheduler bei AMD und Nvidia Hardwareeinheiten, auch wenn bei Nvidia die Control-Flow Informationen über die Software encodiert wurde, muss der Warp-Scheduler nach wie vor bei Load/Texture-Operations Register-Usage überprüfen und die besten Warp-Instructions auswählen, die Software gibt nicht alles vor.
 
  • Gefällt mir
Reaktionen: Mcr-King, Zwiebelsoße, bad_sign und eine weitere Person
Intel Core vs. AMD Ryzen in 720p
Acht Kerne Rocket Lake-S (i9-11900K) gegen acht Kerne Comet Lake-S (i7-11700K)
Sollte wohl Comet Lake-S (i7-10700K) heißen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zwiebelsoße schrieb:
Ergebnissen. Und nun ist die Frage woran liegts. Tipp: BIOS RAM Kombination.

Vielleicht auch weil die platform von Intel etwas schlampig eingeführt worden ist was ja AMD mit AM4 vorgeworfen wurde.

Fazit ist Rbar geht immer noch am besten mit AMD und AMD GPUs Punkt. Auch gehen NVs GPUs immer noch schlechter mit AMD CPUs.

Zwar nicht viel aber messbar auch dass wird sich mit Xe HDG2 ändern zumindest für NV und AMD. 😉
 
wuhu der 5600X seit intel erstmal ne 20% preissteigerung hingelegt, schade das intel noch kein 7nm bietet, will gar nicht wissen wie alt amd denn aussehen würde...
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
@mylight
Wünschst du dir echt ein Monopol?
Sorry, aber muss ich nicht verstehen

Sowas wie jetzt ist gut für uns Kunden. Einen ausgeglichener Markt gab es schon lange nicht mehr. Meinetwegen kann auch ADL-S sich verzögern, so lange AMD weiter Marktanteile bekommt, um sicher im die Zukunft zu gehen. Monopole schaden einfach nur jedem.
 
  • Gefällt mir
Reaktionen: Celinna und Mcr-King
Zurück
Oben