Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

hardwarefresser schrieb:
Der hat bestimmt zu Single Core Zeiten auch seinen Intel über den Klee gelobt und gesagt was für ein Quatsch das ist mit den Multi-Cores und wir irgendwann bei 10 GHz landen, wo sind wir heute?
Ja- Eine CPU mit hoher Singelcoreleistung ist dem Multicore- Pendant immer vorzuziehen, da diese Anwendungsunabhängig immer ihre Leistung auf die Straße bringt.

Dabei ist es klar, dass ein Multicore- System natürlich in den heutigen Zeiten einigermaßen gut skaliert, da man eben erstens noch nicht in diese Taktregionen vordringt und es doch inzwischen genug Hintergrundrauschen an Threads allein beim Ausführen des Betriebssystems gibt. Somit trifft Deine Unterstellung hier nicht zu.

Ich sehe die Notwendigkeit und Sinnhaftigkeit eines Multicore- Systems sehr wohl.

Intel bringt 10 Cores im Mainstream raus und keine 10 GHz, sondern CPUs die ein paar Sekunden knapp über 5 GHz halten können, woooow... wer hätte das 2005 gedacht?
Ja- Wär hätte das 2005 gedacht?

Wie ich etwas darstelle und dir dann sogar noch ein zweites mal erkläre hat nichts damit zu tun was du interpretierst oder sogar in deiner ersten Fragestellung mir unterschieben wolltest als Falschbehauptung.
Da schlägt das klassische Sender- Empfängerprinzip zu.

Da ist nicht gut Kirschen essen, wenn du so agierst. Daher auch meine scharfe Reaktion!
Wenn Dich ein anonymes Hin- und Her in einem Computertechnikforum so angreift, dass Du meinst scharf reagieren zu müssen, dann ist das einfach so.

Entwickler haben keine Ahnung von Hardware und werden es auch nie haben.
Dieser pauschal über alles und jeden wegwischenden Satz, zeigt mir, dass Du an keiner Diskussion interessiert bist/sein kannst.

Mich wundert das du überhaupt bei dem Thema mitsprichst, ist schließlich nicht dein Gebiet, du hast weniger Ahnung davon als jemand der das als Hobby betreibt.
Auch hier - Dann schreib mit Dir selbst. Scheinst ja ein Experte in allen Gebieten zu sein.

Auf eine Diskussion auf solch einem Niveau hab ich keine Lust. Zeitverschwendung.

LG
Zero
 
  • Gefällt mir
Reaktionen: Schattenspender, adAstra, yummycandy und 3 andere
Taxxor schrieb:
Also gerade wenn das Budget begrenzt ist wartet man doch lieber bis man beides kaufen kann, bis dahin ist dann auch die CPU günstiger geworden.
Was bringt mir jetzt eine CPU zu höheren Preisen, deren Leistung ich sowieso noch nicht abrufen kann?

Deine Argumentation hat als Grundlage mehrere Fehlannahmen:

1. CPUs werden günstiger. Das mag für AMD zutreffen, bei den Consumer Intel CPUs eher nicht. (Mein 9900KF war wesentlich preiswerter als der 10700kF nun gelistet ist)
2. Von stabileren Frametimes hat man schon JETZT etwas, ebenso in CPU limitierten Spielen, von denen es nicht gerade wenige gibt.
3. GPU Limits kann man effektiv entgegen wirken (Regler), CPU Limits sind in der Regel da, mit wenig Möglichkeiten
4. Beides gleichzeitig zu kaufen und dabei im oberen Bereich fischen, ist für viele schlicht nicht möglich. 600 - 700 Euro kann sich jeder im Jahr irgendwie zur Seite schaffen. 1400 Euro nicht. Wie lange also warten? Und in der Zwischenzeit? Das kann man machen, wenn man noch eine GPU hat, die auf FullHD nun gar nichts mehr reißt und ohnehin beides ansteht. Eine 570er gehört nicht dazu (siehe Punkt 3).

Mein 3770K hat volle 6 Jahre gehalten (bis 2019). Ein 3570K wäre 2015 schon am Ende gewesen und eine FuryX oder 980TI hätte mir dann auch nichts gebracht.

gaertner87 schrieb:
..eine Klasse darüber sieht die Sache dann wieder anders aus aber in dieser Diskussion gings doch um begrenztes Budget?

Im Prinzip ist es ganz einfach, ich breche das jetzt einmal herunter. Selbst bei begrenztem Budget gilt leider, wer billig kauft, kauft zweimal, das gilt vor allem für die Infrastruktur, die im Gegensatz zu früher, sehr lange halten kann. Wer sich heute noch einen Sechskerner ohne potenten RAM ans Bein bindet (egal ob nun AMD oder Intel) nur um sich dafür jetzt sofort eine 2080er in den Rechner schieben zu können, kauft in zwei - drei Jahren wieder eine neue CPU und ein neues Board und verbrät am Ende mehr Geld. Oder er investiert das Geld erst einmal in eine solide Infrastruktur, und kauft die GPU dann ein paar Monate später. Idealerweise natürlich beides, was bei begrenztem Budget aber nicht möglich ist.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und Rockstar85
Cool Master schrieb:
Wie sollte man es machen? Soll der Redakteur echt noch 2 Wochen damit verbringen das System zu undervolten und auf Stabilität zu testen?

Fakt ist Intel und die Board Hersteller haben die Spannung freigegeben und so geht das Produkt in den Verkauf also erwarte ich von einem Test, dass der genau so getestet wird wie es der 0815 User am Ende auch kaufen kann.
Ja gerne das wäre Recht =) aber wenn dann bitte nur bei Intel Optimieren, Amd bitte von der Stange Testen damit der Test auch schön fair und objektiv ist =)
 
Baal Netbeck schrieb:
Das fällt ja wieder auf die Frage zurück, ob man akademisch wissen möchte, was die CPU-Architektur selbst verbraucht....oder im Sinne eines "realtests" wissen möchte mit welcher CPU man mit mehr Verbrauch rechnen muss.

Und da gehört halt auch die Plattform mit dazu.

Im Optimalfall testet man beides.

Im Idealfall beides und bei akuter Langeweile einmal mit einen Board welches sich OC auf die Flagge geschrieben hat und ein Board welches gerade passend für die Spezifikationen des CPUs designt wurde. ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
"Ein 3570K wäre 2015 schon am Ende gewesen"

Ich habe mit meinem 3570 ohne k bis Anfang letzen Jahres in FHD ohne Probleme gezockt. (Mit einer 1060) nur bei Battlefield 1 hat er schlapp gemacht.
Der PC werkeln auch noch bei einem Freund munter weiter. :)
 
DavidG schrieb:
...
Ich werde den FX so lange behalten, bis AMD die Reisen 9 für 200€ anbietet oder Intel die i9 für 300€.

Ryzen bitte.😆
Und das wird nie passieren.
Zumindest für jede aktuelle Erscheinung.
Also den Ryzen 3900X für 200€ in 2 Jahren. Der von dem Ryzen 5 Anno 2022 überboten wird.
 
Czk666 schrieb:
"Ein 3570K wäre 2015 schon am Ende gewesen"
Ich auch.. Dennoch hat er Recht. Schau dir dazu mal an, was moderne 4C 8T 2015 an Leistung hatten. Mein 3570K hat auch lange gehalten, aber in CPU Intensiven Programmen hat man das Alter gemerkt. Klar, wer nur Zockt, merkt es nicht, aber dafür eben alle mit Mischnutzung. Und mein 3570K war bei 4,3 Ghz...
 
Das Einzig gute an dem Launch ist das Intel pauschal HT für alle Core CPUs frei gegeben hat.
Schade das wieder ein neuer Sockel nötig ist, habe hier noch ein H370 Brett welches sich über einen potenten i3 mit HT gefreut hätte.
Ansonsten gibt es wenig Gründe für die Plattform, im Prinzip nur für FPS Fetischisten interessant.

in meinem Freundeskreis spielen noch genug mit einem einfachen Quadcore, die interessiert nichtmal ob AMD oder Intel, Hauptsache es läuft. Erst seit Anfang des Jahres kommen vermehrt anfragen ob ich mal was neues zusammenbauen kann. Da sind teilweise 8-10 Jahre alte CPUs verbaut, die ihren Dienst dann in Schullandheimen etc weitermachen.
 
  • Gefällt mir
Reaktionen: s0UL1
Baal Netbeck schrieb:
Ist die Grafik API nicht das was die drawcalls berechnet/verarbeitet?
Und der Treiber nur noch da, um die Daten der Grafikkarte zuzuschieben? ...und bei DX12 eher unwichtig?
Du hast als erste Instanz Grafik API, dann den Treiber und dann gehts Richtung Hardware.

Ich gucke mir zum Beispiel Anno 1800 an.
Da bin ich über dem Meer oder auf schwach besiedelten Inseln im GPU Limit...Dank etwas gesenkten Einstellungen oft bei 90 FPS. .......
Erst wenn ich viele Objekte mit vielen Details auf den Schirm bringe, falle ich in ein sehr viel niedrigeres CPU Limit....man sieht in Anno auch meistens einen überlasteten Thread... Trotz DX12.
Ist das dann nicht dass Problem der drawcalls?
Das blöde ist, dass viele Engines ihre Eigenheiten haben. Auch deshalb, weil sie natürlich unterschiedliche Anforderungen abwickeln müssen.

Warum und wieso irgendwas hängt oder runterzieht, sieht man leider immer nur in einer mehr oder wenig aufwändigen Analyse. Alles andere wäre Rätselraten.

Anderes Beispiel wäre Shadow of the tomb Raider... Da bin ich meist bei ca 70fps im GPU Limit.
In dem Fischerdorf bin ich mit dx11 extrem schlecht aufgestellt.....AMD GPU halt...so 30-40 FPS und drunter.
...Sehe ich das so richtig, oder stelle ich mir das falsch vor?
Naja- Deine Ausführungen liegen zumindet im Bereich des Möglichen.
Aber wie gesagt- Ich würde mich da zu weit aus dem Fenster lehnen, würde ich hier eine Prognose wagen...

LG
Zero
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wenn ich mir so die Differenzen auf einem System mit einer 2080ti anschaue, ist doch die einzig schlaue Wahl für Gamer ein AMD und dafür ne 100-200€ dickere Grafikkarte ... rein von den Gesamtkosten vllt. sogar ein aktueller Ryzen 3 mit Zen 2. :hammer_alt:
 
@Esenel

Sieht doch ganz gut aus.....
Auch die Voltages bleiben im erwarteten Rahmen.

Da mit HT noch ein wenig spielen- Die Cores je nach Güte einzeln hochtreiben...
Bin schon gespannt... und ein wenig neidisch ;)

LG
Zero
 
  • Gefällt mir
Reaktionen: Esenel und Baal Netbeck
ZeroZerp schrieb:
Du hast als erste Instanz Grafik API, dann den Treiber und dann gehts Richtung Hardware.
Diesen Ablauf kenne ich von DX11...ich hatte gedacht mit DX12 könnte der Treiber (zumindest bei AMDs Hardware Scheduler) komplett übersprungen werden und die API sendet sofort an die Grafikkarte....aber wie gesagt...Sowas hatte ich vor vielen Jahren in einem Artikel gelesen, als DX12 noch neu war....finde ich jetzt leider auch nicht mehr. :(

Auf jeden Fall vielen Dank für deine Ausführungen...ich habe mir jetzt in C++ etwas Multithreading beigebracht...nur als Hobby, aber da versteht man dann besser die Probleme wenn es ans verwenden von vielen abhängigen Threads geht. ....Unabhängige Teile sind kein Problem....anhängige müssen immer wieder aufeinander warten....man muss die gemeinsamen Variablen schützen...was Zeit kostet und daher möglichst selten nötig sein sollte.
 
  • Gefällt mir
Reaktionen: adAstra und .Sentinel.
brabe schrieb:
Hi, ich verstehe den 3600 x nicht. Warum ist der langsamer als der 3300X?
Es ist der gleiche Grund warum ein 3100 bei Games deutlich langsamer ist als ein 3300X. Das wird z.B. ausführlich im Computerbase Test des 3100 und 3300X erklärt.
Der 3300X besteht aus einem CCX, bei dem alle 4 Cores aktiviert sind. Ist eine AMD CPU aus mehreren CCX aufgebaut, arbeitet sie ineffizienter, wenn viele Informationen zwischen den CCX über die relativ langsame IF synchronisiert werden müssen. Das ist bei vielen Game Engines, bei denen häufig Daten über mehrere Threads voneinander abhängig sind, der Fall. Ein 3600X ist eben auch eine Dual-CCX CPU wie der 3100, wobei allerdings nur ein Core pro CCX deaktiviert ist.
Aus diesem Grund wird auch sehnsüchtig Zen 3 erwartet, wo ein CCX wahrscheinlich aus 8 Cores besteht. Mit einer 8 Core CPU aus einem CCX bei zusätzlich verbesserter IPC müsste AMD eigentlich locker den 10900k als schnellste Gaming CPU vom Thron stoßen können.
 
  • Gefällt mir
Reaktionen: brabe
Der Paule schrieb:
Im Prinzip ist es ganz einfach, ich breche das jetzt einmal herunter. Selbst bei begrenztem Budget gilt leider, wer billig kauft, kauft zweimal, das gilt vor allem für die Infrastruktur, die im Gegensatz zu früher, sehr lange halten kann. Wer sich heute noch einen Sechskerner ohne potenten RAM ans Bein bindet (egal ob nun AMD oder Intel) nur um sich dafür jetzt sofort eine 2080er in den Rechner schieben zu können, kauft in zwei - drei Jahren wieder eine neue CPU und ein neues Board und verbrät am Ende mehr Geld. Oder er investiert das Geld erst einmal in eine solide Infrastruktur, und kauft die GPU dann ein paar Monate später. Idealerweise natürlich beides, was bei begrenztem Budget aber nicht möglich ist.

Das ist aber ein höchst-spekulativer Ansatz... kann aufgehen, muss aber nicht und gerade für Gamer lohnen sich die dicken CPUs nur selten abseits von "Habenwill" und Bench-Szenarien. Um bei deinem Beispiel zu bleiben: auch ein aktueller 6c AMD/Intel ist in der Lage, eine 2080 auszufahren... von einer "soliden Infrastruktur" hätte ich also aktuell keinen Mehrwert als Spieler und bis dieser potenzielle Mehrwert mal zu Tage tritt, gibts eben das nächste Midrange System mit mehr Leistung als die alte "solide Infrastruktur" - dann hätte man unterm Strich vllt. ein paar Euro mehr ausgegeben dafür aber eine aktuellere Plattform mit neusten Features, insgesamt mehr Leistung und um wieder aufs Beispiel zurück zu kommen: schon länger Spaß an der 2080!
Dein Ansatz war sicherlich für die "und täglich grüßt der Vierkerner"-Zeit the way to go, aber vor Sandy und aktuell dank Zen ist wieder soviel Bewegung am Markt, dass es sich für die meisten Spieler wohl nicht lohnt, im Regal ganz oben zuzugreifen, schon gar nicht, wenn das Budget ohnehin knapp ist.
 
  • Gefällt mir
Reaktionen: s0UL1, Zwirbelkatz, Celinna und 2 andere
Lasst die Spiele beginnen :-D

IMG_20200522_124822__01.jpg
 
  • Gefällt mir
Reaktionen: unspektakulaer, s0UL1, Ned Flanders und 10 andere
@Esenel

Wie der gute Herr schon den Benchtable am Start hat ! :D

Das wird wohl ein langes Wochenende bei dir ! ;)
 
  • Gefällt mir
Reaktionen: Esenel
Baal Netbeck schrieb:
Auf jeden Fall vielen Dank für deine Ausführungen...ich habe mir jetzt in C++ etwas Multithreading beigebracht...nur als Hobby, aber da versteht man dann besser die Probleme wenn es ans verwenden von vielen abhängigen Threads geht. ....Unabhängige Teile sind kein Problem....anhängige müssen immer wieder aufeinander warten....man muss die gemeinsamen Variablen schützen...was Zeit kostet und daher möglichst selten nötig sein sollte.

std::async und std::future sind evtl. auch einen Blick wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: unspektakulaer, Apocalypse und Baal Netbeck
gaertner87 schrieb:
Das ist aber ein höchst-spekulativer Ansatz... kann aufgehen, muss aber nicht und gerade für Gamer lohnen sich die dicken CPUs nur selten abseits von "Habenwill" und Bench-Szenarien. Um bei deinem Beispiel zu bleiben: auch ein aktueller 6c AMD/Intel ist in der Lage, eine 2080 auszufahren... von einer "soliden Infrastruktur" hätte ich also aktuell keinen Mehrwert als Spieler und bis dieser potenzielle Mehrwert mal zu Tage tritt, gibts eben das nächste Midrange System mit mehr Leistung als die alte "solide Infrastruktur" - dann hätte man unterm Strich vllt. ein paar Euro mehr ausgegeben dafür aber eine aktuellere Plattform mit neusten Features, insgesamt mehr Leistung und um wieder aufs Beispiel zurück zu kommen: schon länger Spaß an der 2080!

Das ist eher wenig spekulativ, Glaskugeln habe ich natürlich keine, nur besteht zwischen beobachten, extrapolieren und spekulieren doch schon ein Unterschied. Den direkten Mehrwert einer gescheiten Infrastruktur hatte ich schon weiter oben aufgelistet.

Das nächste Midrange System mit mehr Leistung? Frage: Welches aktuelle Midrange System bietet mehr Leistung als ein 8700K, dem man gescheiten RAM zur Seite stellt? Das Teil ist bald drei Jahre alt. Und selbst wenn es eines gäbe mit 10% mehr Leistung, dafür also nochmal 300 - 400 Euro versenken, anstatt vorher 150 mehr in die Hand zu nehmen?
Deswegen sind die 720p Tests (am besten mit gescheitem RAM) ja auch so wichtig. Wenn ich mir eine CPU kaufe, will ich wissen was diese leistet gerade auch im Hinblick auf zukünftige GPUs. Das da noch mehrere Faktoren mit reinspielen, keine Frage.

Das ein 3600er für eine 2080 reicht, ist auch nicht richtig. Das sind zwei vollkommen verschiedene paar Schuhe und wie sieht das dann mit einer 3070 aus?

Mag sein, dass der 3600er Besitzer bei diesem Vorgehen, 9 Monate früher etwas mehr Spaß (je nach Software/Frametimes vielleicht auch nicht) hatte. Derjenige der von Anfang an richtig gekauft hat, hat auch in 5 Jahren noch an seinem System mit einer 4080 - 5080 Spaß., ohne alle zwei Jahre Geld ausgeben zu müssen.

gaertner87 schrieb:
dann hätte man unterm Strich vllt. ein paar Euro mehr ausgegeben

Genau darum geht es ja :-)
 
Zurück
Oben