Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Deshalb ist eine neue GPU für den Großteil der User hier interessant, und NICHT die CPU. In modernen Games bremst die nur ganz selten.

Hier wäre gute Konkurrenz schön, so wie im CPU Bereich zwischen Intel und AMD.

Mir z.B. reicht mein 4770k noch lange aus, und auch ich würde auch mich hauptsächlich durch eine neue GPU verbessern.
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Klar, die Haswell Xeons^^
Mit den heutigen Xeons schlägt sich so ein 3950X ja auch rum, konnte das ein 8100?
Ergänzung ()


Nein, AMD hatte damals schlicht und einfach keine High End Prozessoren, das ist der Punkt.
Server sockel... Ist doch jetzt totaler humbuck das als Option zu sehen.

Mfg
 
Matthias80 schrieb:
Server sockel... Ist doch jetzt totaler humbuck das als Option zu sehen.
Wieso denn? Der 3950X dürfte für viele eine Option sein, die sich ansonsten eben ein HEDT oder Server Board hatten holen müssen.

Wenn man schon meint, dass ein 950X in irgendeiner Form mit einem FX-6100 zu vergleichen wäre, dann gehört das auch dazu^^
 
Ned Flanders schrieb:
Das ganze wird sehr kompliziert... auch wenn man die GPU mal als Wärmequelle noch garnicht mit in die Gleichung einbezieht, gegen deren Effekt unsere Diskussion vermutlich eh völlig akademisch ist.
Das hab ich bei den letzen Ryzens mit der Sensorbatterie schon gesagt, dass es mit der Vergleichbarkeit immer haariger werden wird.....

100% agree
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Ned Flanders
Taxxor schrieb:
Doch doch... siehst du das nicht?
AMD muss die Preise runtersetzen, ganz so wie er es sagt...!

Während Intel einem von nun an 50 bis 250 Euro raus gibt, wenn man eine Desktop CPU nimmt. HEDT / Workstation Xeon werden in 4 500€ Scheine eingewickelt und Server Xeons werden mit nicht unter 4 Blankochecks von Intel verpackt!

Du glaubst mir nicht? Dann schau einfach mal tief genug in die Flasche! hipsch
Ergänzung ()

BosnaMaster schrieb:
Ab wann ist eigentlich mit DDR5 zu rechnen? Das wäre für mich so der nächste Step. Momentan schlägt sich nein Prozi noch ordentlich...
Bei AMD wohl / hoffentlich mit AM5 Boards, bei Intel...nicht vor dem längst überfälligen Shrink, würde ich mal vermuten.
 
Wenn man early adopter sein will wohl 2022, wobei ich persönlich eine Gen abwarten würde, wenn ddr5 erstens günstiger und zweitens schneller ist^^
 
  • Gefällt mir
Reaktionen: BosnaMaster
Ned Flanders schrieb:
Das beisst sich jetzt aber mit der Annahme alle CPUs würden immer Volllast laufen unabhängig vom GraKa bottleneck, nicht? Unter teilweisem GPU bottleneck wirds dann kompliziert.
Bei den CPUs ist es wie bei den GPUs- Du musst Dir mal die I/O Busse anschauen.
Oftmals liegt es weder an CPU noch an GPU sonder schlichtweg am I/O. Die Kriegen die Daten nicht schnell genug hin- und hergeschaufelt. Die RAM- Overclocking- Exzesse haben aus gutem Grund inzwischen einen hohen Einfluss auf die Leistung.

Das ist z.B. noch ein Vorteil der Intel Architektur. Die kann im Ernstfall einfach mehr Daten hin- und her verschieben, wo meine Ryzens schon dicht machen.

AMD ist sich glücklicher Weise dessen bewusst, dass sowohl Latenz als auch das reine Datenschachern noch eine Schwäche darstellt, welche sie ja mit Zen3 in den Griff bekommen wollen.

LG
Zero
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Leute, der Hochsommer kommt. Morgen wirds schon bis 30 Grad, wenn es so wie die letzten Jahre wird werden wir wieder einige Tage bis 38 bekommen, da will ich mal sehen wie die 3 Stufen bei Intel so regulieren.

Fakt ist doch, hier wird unter idealen Laborbedingungen getestet, ist so gesehen also nicht realistisch.

Selbst die ollen P4 damals haben runter getaktet und wurden extrem lahm, wenn die Bude im Hochsommer überhitzt war. Und da sprachen wir nicht von 300 Watt, die konnte der P4 gar nicht.

Die CPU ist lediglich von 30 bis 60 Sekunden ein Fake für Benchmarks mit den magischen über 5 GHz, alles andere als Alltagstauglich.

Und jetzt wieder diese Mär bringen auf einmal ist die CPU nur für Gaming wo doch die Obernerds immer auffführen aber aber der überteuerte PC ist doch besser als alles andere weil er mehr kann... ist klar...

Es ist sehr belustigend, wie die Argumente immer so hin gestellt werden, das es dem Fanboy passt.

Diese Intel CPUs sind zu nichts zu gebrauchen, überteuert und zu hungrig, den Takt halten können die nur unter Laborbedingungen oder wenn man Gaming damit macht und die CPU nur zu 30% oder so auslastet xDD

Der Test hier bei cb ist genau genommen peinlich, bin zwar nicht so für drauf hauende Artikel, aber andere Seiten haben da schon eine größere Breitseite gegeben.

Man merkt hier auch den Pro Intel Kurs an den Erwähnungen Intel wollte oder konnte keine Daten liefern, ja genau... dann müsst ihr das auch in die Bewertung einpreisen, nicht für verarsche auch noch loben.

Beste Gaming CPU, ich geh kaputt.
Für veraltete Single Core Games die selbst mit alten CPUs dreistellige FPS erreichen.

Eure Benchmark Tabelle ist eigentlich ein Witz, zeigt es doch das selbst bis zum Quad Core heute noch alles damit gut läuft, in 4k ist die Grafikkarte sogar noch entscheidender als eh schon, wenn ihr Witzbolde schon über Gaming euch unterhalten wollt.

Bei Anwendungen und dem Preis ist eh alles verloren.

Was kauf ich mir eine Intel Gaming CPU die ein paar Sekunden im Single Core einen Takt aufrufen kann und sonst gar nichts.

Ich sage voraus, spätestens bei der nächsten oder übernächsten Gen spielt das eh keine Rolle mehr, keiner sollte irgendein Single Thread limitierten Schinken da rein nehmen, in paar Jahren sind 12-16 Core Standard und über 4 GHz und ob da was im Turbo über 5 GHz geht juckt keine Sau wenn es Multithread ist.
 
  • Gefällt mir
Reaktionen: Hardwarious und Matthias80
@ZeroZerp

Klar, mir ist das durchaus bewusst. Daher kommt auch die partielle Auslastung der Rechenwerke der CPU/GPUs in vielen Fällen. Der Scheduler ist das nicht.

Mir gings nur nochmal abschließend um den Punkt der Übertragbarkeit von rein CPU gebundenen Szenarien auf Real World.

Case Closed und Happy Fathersday zusammen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Wieso denn? Der 3950X dürfte für viele eine Option sein, die sich ansonsten eben ein HEDT oder Server Board hatten holen müssen.

Wenn man schon meint, dass ein 950X in irgendeiner Form mit einem FX-6100 zu vergleichen wäre, dann gehört das auch dazu^^
Na nur weil man jetzt im Desktop quasi HEDT er tricksen kann... Im Gegensatz zu damals... Da sind Welten dazwischen gewesen sich ein Server sockel System eigen zu machen.

Regal weiter wo es wichtig ist...

Mfg
 
hardwarefresser schrieb:
in paar Jahren sind 12-16 Core Standard und über 4 GHz und ob da was im Turbo über 5 GHz geht juckt keine Sau wenn es Multithread ist.
Und Du bist nicht der Meinung, dass es bei einer fixed- Target berechnung, wo ein Synchronisationsstatus zwingend notwendig ist (Spiele) nicht immer den Mainthread geben muss, der die Daten konsolidiert und dann weiterschickt?

Interessante These. Mit welchem rechnerischem Kniff oder schaltungstechnischen Besonderheit, willst Du denn diesen Fakt umgehen?
Asynchron gesteuerte Worker? Teilgenauigkeiten in Physik, Sound und Shadern?
Na dann viel Spaß beim Aufschlüsseln von race conditions...

LG
Zero
 
  • Gefällt mir
Reaktionen: adAstra, Luxmanl525 und Baal Netbeck
Taxxor schrieb:
Der Test zu Ryzen 3000 war zu dieser Zeit bei ca 2500 Beiträgen^^
Ryzen 3 war ja auch was spannend neues. Comet lake ist so spannend wie eine 5 mal aufgewärmte Salzkartoffel...

(Und wieder aufgewärmte Salzkartoffeln sind so ziemlich das ekligste was es gibt.)
 
ZeroZerp schrieb:
Und Du bist nicht der Meinung, dass es bei einer fixed- Target berechnung, wo ein Synchronisationsstatus zwingend notwendig ist (Spiele) nicht immer den Mainthread geben muss, der die Daten konsolidiert und dann weiterschickt?

Habe ich das etwa so gesagt?

NOPE

Die Leistung ergibt sich nicht alleine aus der Taktung, keine Ahnung warum dich das so anfixt ;)
 
ZeroZerp schrieb:
Und Du bist nicht der Meinung, dass es bei einer fixed- Target berechnung, wo ein Synchronisationsstatus zwingend notwendig ist (Spiele) nicht immer den Mainthread geben muss, der die Daten konsolidiert und dann weiterschickt?

Interessante These. Mit welchem rechnerischem Kniff oder schaltungstechnischen Besonderheit, willst Du denn diesen Fakt umgehen?
Asynchron gesteuerte Worker? Teilgenauigkeiten in Physik, Sound und Shadern?
Na dann viel Spaß beim Aufschlüsseln von race conditions...

LG
Zero
Na du steckst in der Materie...
Vermute aber auch du hast Entwicklungen mitgemacht wo man vor vielen Jahren nicht für möglich gehalten hat...
Ich mein wir reden hier über IT.
Ich sag nur mehr als 640 kb braucht kein Mensch. Ect.

Abwarten und Tee trinken.

Ich weiß ist mittlerweile nicht mehr zu hören...
Fakt ist es kann nicht unendlich hoch mit dem takt gehen...

Das wir durch amd's Schachzug endlich von Max quad Core + ht weg geschafft haben im consumer Bereich hat auch keiner für möglich gehalten.

Mfg
 
  • Gefällt mir
Reaktionen: .Sentinel.
DavidG schrieb:
Bulldozer war meiner Meinung nach sehr gut und sehr unterschätzt, weil sie sehr billig waren. AMD täte gut daran, mit Reisen die Preise von Bulldozer abzurufen.
Deswegen ist AMD fast Pleite gegangen. Sorry aber denkst du nach, bevor du etwas schreibst?
 
  • Gefällt mir
Reaktionen: Luxmanl525
hardwarefresser schrieb:
Die Leistung ergibt sich nicht alleine aus der Taktung, keine Ahnung warum dich das so anfixt ;)
Nein- Aber Du stellst es so dar, dass hohe Taktung bzw. übertragbar auf Single- Core- Leistung aufgrund einer breitgefächerten Kernverfühbarkeit für uns Entwickler egal wäre.

Alles andere als das. Wobei ich mir z.B. aber sehr gut ein Big/Little Prinzip vorstellen kann, wo Du die zwanghaft singlecore- Abhängigen Workloads einfach auf die Hochtakt- Einheiten legst und den Rest bzw. die Worker- Threads entspannt auf die auf Effizienz getrimmten Kerne verteilst...

LG
Zero
 
  • Gefällt mir
Reaktionen: Baal Netbeck
ZeroZerp schrieb:
Nein- Aber Du stellst es so dar, dass hohe Taktung bzw. übertragbar auf Single- Core- Leistung aufgrund einer breitgefächerten Kernverfühbarkeit für uns Entwickler egal wäre.

Alles andere als das. Wobei ich mir z.B. aber sehr gut ein Big/Little Prinzip vorstellen kann, wo Du die zwanghaft singlecore- Abhängigen Workloads einfach auf die Hochtakt- Einheiten legst und den Rest entspannt auf die auf Effizienz getrimmten Kerne verteilst...

LG
Zero
Denke das wird amd in die Karten spielen mit ihren "best" kernen...
Der Windows scheduler müsste ja schon um einiges aufgepimmt werden. Damit das big Little Prinzip gut greift...

Mfg
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Und Du bist nicht der Meinung, dass es bei einer fixed- Target berechnung, wo ein Synchronisationsstatus zwingend notwendig ist (Spiele) nicht immer den Mainthread geben muss, der die Daten konsolidiert und dann weiterschickt?
Ich bin da bestimmt kein Profi, aber im Moment limitiert bei den Spielen ja am ehesten die drawcalls.
Und natürlich muss ich irgendwie die Spiellogik synchronisieren.... Aber ist es denn nicht möglich, die drawcalls auf mehrere Threads aufzuteilen und eben nicht zusammenzuführen..... Sondern jeden Threads am Ende seine Liste direkt an die GPU senden zu lassen und die fängt an, wenn sie die letzte Liste hat?

Ich dachte dass wäre der Vorteil von DX12 zu 11, dass eben keine zusammenhängende Liste nötig ist und der Treiber übersprungen werden kann.

Aber natürlich muss es auch für das erstellen der drawcalls auf vielen Threads viel Kommunikation geben... Das verteilen der Arbeit muss weiterhin ein Thread übernehmen.... Und der braucht erstmal die aktuelle synchronisierte Lage, sonst stellen verschiedene "drawcall Threads" unterschiedliche Zeitpunkte dar.

Wie man es wendet.... Ich denke da ist noch etwas Potential, aber es wird immer viele RAM Zugriffe geben und um so mehr Kerne benutzt werden, um so schneller müssen diese untereinander reden können, sonst reden sie nur und rechnen gar nicht.

AMD muss nicht nur versprechen sondern auch liefern wenn es um Zen3 geht.
Ist die Frage, wie weit sie das schaffen, ohne ihr wirtschaftlich überlegenes chiplets Design über den Haufen zu werfen.
 
Matthias80 schrieb:
Der Windows scheduler müsste ja schon um einiges aufgepimmt werden. Damit das big Little Prinzip gut greift..
Aber nur für die Faulen :) Man hat heute als Entwickler schon viele Mittel an der Hand dafür zu sorgen, dass ein Workload auch auf dem Thread ankommt, wo er hingehört.
Kannst auch inzwischen bei AMD steuern, dass gewisse Operationen innerhalb eines CCXs abgewickelt werden sollen.
Alles eine Frage des wollens...

LG
Zero
Ergänzung ()

Baal Netbeck schrieb:
Ich bin da bestimmt kein Profi, aber im Moment limitiert bei den Spielen ja am ehesten die drawcalls.
Im Augenblick limitieren primär die Treiber und die Grafik APIs.
Drawcalls sind seit Vulkan bzw. DX12 kein großes Problem mehr.

Das verteilen der Arbeit muss weiterhin ein Thread übernehmen.... Und der braucht erstmal die aktuelle synchronisierte Lage, sonst stellen verschiedene "drawcall Threads" unterschiedliche Zeitpunkte dar.
THIS

Wie man es wendet.... Ich denke da ist noch etwas Potential, aber es wird immer viele RAM Zugriffe geben und um so mehr Kerne benutzt werden, um so schneller müssen diese untereinander reden können, sonst reden sie nur und rechnen gar nicht.
Exakt

AMD muss nicht nur versprechen sondern auch liefern wenn es um Zen3 geht.
Ist die Frage, wie weit sie das schaffen, ohne ihr wirtschaftlich überlegenes chiplets Design über den Haufen zu werfen.
Das Prinzip ist noch nicht ausgereizt. Da geht noch was - Und seis der Takt der IF.

LG
Zero
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Jake Grafton schrieb:
Wie hast du das geschafft?
Schafft sonst keiner. In keinem Test. Immer ca. 10-15W mehr als ein Intel. Und du hast nichtmal 15W Verbrauch?
Aber wenigstens deine Temperatur stimmt. Mehr als doppelt so hoch wie ein Intel. Kann also nicht sein mit dem Verbrauch.

Ist keine Magie.

Nimm dir einen anständigen Energiesparplan wie den von @sz_cb und dann ist schon der größte Teil erledigt. Kannst hier selbst runterladen und testen.

Wenn du noch 2-3W sparen willst, dann kannst du den SoC-Verbrauch mit manuell gesetzten Spannungen verringern. Hab das im Rahmen vom RAM OC gemacht, also war das ein netter Bonus.

PS: Du hast die Hälfte meiner Temps mit Intel? Also 17,5°C - 22,5°C? Respekt, wusste nicht das Intel so gut sind, dass die deine CPU unter die Raumtemperatur kühlen können.

E: Hatte vergessen das ich HWiNFO im Hintergrund laufen hatte. Hier haste mal einen Screenshot mit allen relevanten Daten. Eine Gaming-Session war auch mit dabei.

HW-V.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardwarious, Sly123 und Rockstar85
Zurück
Oben