Intel oder AMD - i7 10700k vs. Ryzen 9 3900X

gunmarine schrieb:
bei pci-e kann ich das argument schon noch verstehen, wenn die nvidia gpus aber genauso wenig davon profitieren wie von 2.0/3.0 kann man es vernachlässigen.
Sind heute schon selbst bei der langsamen 5500xt mit 8GB RAM bis zu 17% weniger minfps.
https://www.pcgameshardware.de/Rade...pecials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/
Und das bevor die Konsolen da sind, die damit werben extensiv vom "virtuellen" erweiterten RAM auf SSD Gebrauch zu machen, der natürlich per PCIe angebunden ist. Das wird sicher nicht weniger werden in Zukunft und dann eher wie bei der 4GB Variante auch mal einen Einbruch auf 50% bedeuten.
 
gunmarine schrieb:
naja ein paar frames sind das nicht, gibt genug beispiele wo der AMD unter 60 geht und der intel noch über 80 ist. im worstcase ist der amd 30% langsamer, bei ramgleichheit im schnitt so 20%.
Ja im CPU Limit.
Wer spielt denn bitte in FullHD mit mittleren/niedrigen Settings mit einem Oberklasse-Rechner?

Klar gibt es FPS Junkies die auch in AAA-Shootern die absolut maximalen FPS jagen und für sehr hohe Frameraten auch mit niedriger Grafik spielen aber idr. spielen die meisten ja doch mit möglichst hohen Grafiksettings und damit im Grafikkartenlimit.
Was da passiert sieht man ja wunderbar am 4K Test:
https://www.computerbase.de/artikel...mm-test-performancerating-fuer-spiele-fps-uhd
-Es ist schlicht vollkommen egal welche CPU man nutzt. Alle halbwegs aktuellen CPUs mit mindestens 6 Kernen reichen aus.

Geht man vom "vernünftigen Mittelweg" mit einem Mix aus guten, aber nicht maximalen Grafiksettings, hoher Auflösung und Ziel-fps (sofern möglich) um die 100fps rum aus, bist du in den meisten Fällen immernoch im Grafikkartenlimit. Selbst wenn du ins CPU-Limit kommst sind die Unterschiede nie so extrem wie in den 1080p/720p low-Settings Tests im Netz, da praktisch niemand so spielt.

Die Anzahl der Gurkentitel die so schlecht programmiert sind, dass es einen tatsächlichen Unterschied zwischen Intel und AMD gibt ist nicht besonders hoch und oft handelt es sich dabei um Starategiespiele und MMOs die von >100fps eh weniger profitieren.
Auf Dauer dürfte dieser Unterschied zudem weiter zurück gehen denn der Ryzen 9 3900X hat mit den vier Kernen mehr ja noch Reserven, die heute in Spielen noch nicht voll genutzt werden.
 
Scrush schrieb:
und ob das auffällt. Stichwort adapative sync. da merke ich unterschiede von 5 fps sofort!
Inwiefern hat das was damit zutun? Ich merke da absolut keinen Unterschied wenn es bei mir aktiviert ist zwischen 100 oder 115 FPS

Man kann sich auch generell etwas einbilden oder sich unnötig an die paar FPS aufgeilen

Und ich rede jetzt hier nur von den Unterschied zwischen 100 und 115 FPS und nicht von irgendwelchen Drops das ist wieder eine andere Geschichte
 
5fps weniger sind 5 hz weniger.

ich bleib dabei. man merkt das. 15 fps sind welten ;)
 
  • Gefällt mir
Reaktionen: IIxRaZoRxII
Gut dann haben wir unterschiedliche Meinung denn ich merke davon absolut nichts

Hier von "Welten" zu sprechen halte ich ebenfalls für übertrieben.

"Welten" sind für mich 100 vs 144fps in einen shooter
 
KlaraElfer schrieb:
Die Denkleistung hab ich den Forum abgenommen, indem ich Rage den Spiele PC mit Ryzen 3900x geschickt habe und er sich dann hingesetzt hat und hat Ryzen 3900x und 9900K mit jeweils DDR4 3200 verglichen und das in ordentlicher Auflösung.
Unterschied waren im Mittel ~9% in 720p mit Nvidia Grafikkarte und 13% mit AMD Karte, deine 20 bis 30% sind Einzelfallbeispiele, kein Durchschnitt.



Der AMD ist bei Rendertasks indem alle Kerne genutzt werden ~40% schneller, bei 60 bis 70% der Leistungsaufnahme, für den Intel spricht nicht gerade viel.

cb nutzt einen eher breiteren testparkours, wie kommt cb denn da auf 15%? was passiert wenn ich in einem etwas breiteren testparkours die eine cpu durch austausch von handelsüblichem ram langsamer mache (amd) und die andere schneller (intel)? dazu kommen noch irgendwelche 300 fps games in dem testparkours von rage/esenel die zwar ganz interessant von den ergebnissen sind, aber in der praxis ziemlich irrelevant weil beide CPUs nicht wirklich gefordert werden und unter spielbare framerates einbrechen.

Also wirklich, der beste Leistungsindikator in Spielen ist von den 3 Tests hier (cb bench, rage/esenel intel+amd / rage esenel intel only) doch der nutzt den falschen RAM. Entfern ich die B Dies (die in der Praxis für die wenigsten hier eine Rolle spiele) und nehme std. 3200 CL16 (und nicht jedec was rage/esenel z.b. gemacht haben) dann wird der Intel schneller, der AMD langsamer. Ergo nehm ich doch den besten Indikator (cb) und rechne da halt ein paar % oben drauf und bei der einen CPU weg (AMD).

Aber es ist bei dir wieder typisch, der AMD darf halt nicht zu schlecht da stehen. 20% sind ein gutes Mittelmaß und ziemlich Praxisnah. Klar gibt es Spiele wo der AMD nur 5% oder 10% langsamer sind,, genauso gibt es Spiele wo der AMD 30 oder 40% langsamer ist. Ist halt so.
 
Also wenn ich jetzt aufrüsten müsste, würde ich mir auch einen AMD kaufen. Intel ist grad nicht auf der Höhe. Ich spiele nur mit meinem Rechner und selbst dann würde ich im Moment nicht auf Intel setzen. Besonders in höheren Auflösungen als 1080p spielt die CPU eh kaum noch ne Rolle.

Da du auch Videoschnitt/Rendering betreibst sollte die Wahl nicht schwer fallen. Auch wenn PCIE 4.0 meiner Meinung nach gar keine große Rolle spielen wird (auch in Zukunft) kann man es bei AMD zu einem akzeptablen Preis ja mitnehmen. Intel wird dies wohl erst Ende des Jahres bieten können mit Rocket Lake.
 
  • Gefällt mir
Reaktionen: CharlieBarlie
Tomi_92 schrieb:
Auch wenn PCIE 4.0 meiner Meinung nach gar keine große Rolle spielen wird
https://www.pcgameshardware.de/Rade...pecials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/
Die unreal engine 5 wird auf das streaming gigantischer Texturen aus virtuellem RAM setzen. Dazu wird von der GPU per DMA auf SSD und system RAM zugegriffen und der pcie4 ausgelastet werden. Pcie4 wird eine Rolle spielen.
gunmarine schrieb:
20% sind ein gutes Mittelmaß und ziemlich Praxisnah.
Bei den meisten Spielen rennt man schnell ins GPU limit, wenn man volle Details bei mehr als 1080p möchte. Gerade wenn man nicht die dickste GPU hat. Und auch ohne GPU limit bei 1080p hat man häufig über 100fps. Und selbst wenn es weniger fps sind, ist der Unterschied zwischen Intel und AMD dann 60 zu 70 fps.
 
Xes schrieb:
Ja im CPU Limit.
Wer spielt denn bitte in FullHD mit mittleren/niedrigen Settings mit einem Oberklasse-Rechner?

Klar gibt es FPS Junkies die auch in AAA-Shootern die absolut maximalen FPS jagen und für sehr hohe Frameraten auch mit niedriger Grafik spielen aber idr. spielen die meisten ja doch mit möglichst hohen Grafiksettings und damit im Grafikkartenlimit.

Keine Ahnung was Du so treibst, aber ich spiele zwar wenig, dann aber quasi nur Multiplayer-Shooter. Und da alle den Ryzen empfohlen haben habe ich mir einen 3700x mit gutem Board gegönnt und nun guck bereue ich es bitterlich. Die FPS sind in Modern Warfare keinen Deut besser als mit meinem (mittlerweile verkauften) Laptop mit 9750h, trotz besserer Grafikkarte.

Alle Benchmarks sind fürn Popo - denn ein Ryzen lässt sich quasi gar nicht übertakten, ein Intel locker auf 4,8- 5 GHz. Also müsste man immer einen 10700k@5GHz gegen einen Ryzen 3x00x mit aktiviertem PBO vergleichen. Da wischt der Intel in Games aber sowas von den Boden auf mit dem Ryzen. Leider war das ein spontaner Lustkauf und ich kann das teure Board nicht mehr zurückgeben, so dass ich jetzt auf dem ollen Ryzen 3700x sitze. Selbst nach 30h Herumgedoktere komme ich nicht mal über 10k TimeSpy CPU-Score. Zudem ist das Tunen des Ryzen eine dermaßen finstere Wissenschaft, da bekomme ich echt die Meise.
 
  • Gefällt mir
Reaktionen: BlackPanther_7
ColinMacLaren schrieb:
Alle Benchmarks sind fürn Popo - denn ein Ryzen lässt sich quasi gar nicht übertakten, ein Intel locker auf 4,8- 5 GHz.
Vorab: Bitte keine Uralt-Threads mehr ausgraben. Die letzte Antwort ist über einen Monat her.
Zählst du auch die Wasserkühlung oder den 70€ Luftkühler + stärkeres Netzteil der für derartige Ergebnisse notwendig ist mit in deine Rechnung ein? Einen 5Ghz Intel muss man auch erstmal gekühlt bekommen.
Und wie definierst du „wischt damit den Boden auf?“
Wieviele FPS bekommst du denn jetzt? Rechne da mal 10-15% mehr drauf und entscheide dann ob du die wirklich spüren würdest. (Spoiler: Nein niemand würde das. ;) )
 
Xes schrieb:
Zählst du auch die Wasserkühlung oder den 70€ Luftkühler + stärkeres Netzteil der für derartige Ergebnisse notwendig ist mit in deine Rechnung ein? Einen 5Ghz Intel muss man auch erstmal gekühlt bekommen.
Und wie definierst du „wischt damit den Boden auf?“
Wieviele FPS bekommst du denn jetzt? Rechne da mal 10-15% mehr drauf und entscheide dann ob du die wirklich spüren würdest. (Spoiler: Nein niemand würde das. ;) )

Ein 3900X braucht auch einen ordentlichen Kühler, um eine gute Performance und Boosttakt zu kommen. Und dann nimm meinetwegen 4.8 GHz ran, da braucht es auch nicht soviel VCore.
Und natürlich sind 15% "den Boden aufwischen". Das sind locker 2-3 Generationen. Ferner ist es in Multiplayer-Shootern (!) sehr wohl spürbar, ob man 100 oder 115 oder 120 fps hat. Das merke ich selbst als Feierabendgelegenheitszocker sofort. Gerade dort nützt Gsync auch nichts, da man ja das Backlight-Strobing des Monitors für eine Verringerung der Bewegungsunschärfe nutzen will. Umso wichtiger ist es, dass die FPS stabil über der Refreshrate des Monitors liegen. Da sind 15% Welten.

Fürderhin ist ein Intel@Stock ja schon oft 15% schneller. D.h. ein Intel@15%OC wäre dann 32.25% schneller ;)

Andere geben 400 EUR aus, damit sie die 15% mehr GPU-Leistung einer 2018 TI gegenüber einer Super haben. Aber bei der CPU ist das alles egal?
 
  • Gefällt mir
Reaktionen: BlackPanther_7
Wenn du so unzufrieden bist & Intel soviel besser ist,dann verkaufe dein AM4 Setup und hol dir ein Intel System.
 
ColinMacLaren schrieb:
Andere geben 400 EUR aus, damit sie die 15% mehr GPU-Leistung einer 2018 TI gegenüber einer Super haben. Aber bei der CPU ist das alles egal?
Mehr Grafikleistung kannst du immer in noch bessere Grafik umsetzten ("notfalls" eben mit Downsampling.)
In den meisten Titeln kommst du bei hohen Grafiksettings garnicht erst in ein CPU-Limit. Selbst bei denen die es tun, ist es in vielen Fällen irrelevant weil wir uns eh schon im hohen dreistelligen Frameraten-Bereich befinden. (z.B. viele AAA-Titel.)
Und ich kann dich beruhigen: Im Blindtest fallen 15% mehr oder weniger Frames kaum mehr etwas auf schon garnicht wenn man bereits über 100 liegt. Manche machen da echt eine Wissenschaft draus. Tipp: Eimalig mit FPS Anzeige die Settings setzen und die dann ausschalten und erst was ändern wenn spürbar etwas ruckelt...

Ich verstehe generell nicht worüber du meckerst:
Laut deiner Signatur bist du nun mit einem 3700X und einer RTX 2080 Super unterwegs.
Mit dieser Kombi solltest du ja selbst unter FullHD mit hohen Settings irgendwo bei ~150fps ins GPU-Limit hängen, bei höheren Auflösungen noch viel deutlicher. (Wenn man dem oben verlinktem Test glauben mag.)
 
  • Gefällt mir
Reaktionen: Tufpingu
Xes schrieb:
Mehr Grafikleistung kannst du immer in noch bessere Grafik umsetzten ("notfalls" eben mit Downsampling.)
In den meisten Titeln kommst du bei hohen Grafiksettings garnicht erst in ein CPU-Limit. Selbst bei denen die es tun, ist es in vielen Fällen irrelevant weil wir uns eh schon im hohen dreistelligen Frameraten-Bereich befinden. (z.B. viele AAA-Titel.)
Und ich kann dich beruhigen: Im Blindtest fallen 15% mehr oder weniger Frames kaum mehr etwas auf schon garnicht wenn man bereits über 100 liegt. Manche machen da echt eine Wissenschaft draus. Tipp: Eimalig mit FPS Anzeige die Settings setzen und die dann ausschalten und erst was ändern wenn spürbar etwas ruckelt...

Ich verstehe generell nicht worüber du meckerst:
Laut deiner Signatur bist du nun mit einem 3700X und einer RTX 2080 Super unterwegs.
Mit dieser Kombi solltest du ja selbst unter FullHD mit hohen Settings irgendwo bei ~150fps ins GPU-Limit hängen, bei höheren Auflösungen noch viel deutlicher. (Wenn man dem oben verlinktem Test glauben mag.)


Modern Warfare ist vielleicht das falsche Beispiel. Aber genau andersherum als du es beschreibst, wird ein Schuh daraus. Wenn man im Grafikkarte-Limit hängt, dann kann man durch Reduktion der Details oder Auflösung immer noch die Framerate verstanden. Wenn die CPU nicht schnell genug ist, kann man fast nichts tun.
 
Das stimmt (wobei einige Grafiksettings auch auf die CPU gehen und beim absenken auch hier die Last senken können).

Aber irgendwas limitiert immer, ansonsten hätte man unendlich viele FPS.
Die Fälle, in denen ein Ryzen 7 3700x aber tatsächlich störend limitiert sind echt wenige und wenn dann bringt auch ein i7 unter gleichen Bedingungen (gleiche Last, nicht OC vs. kein-OC Vergleich) normalerweise auch keine deutlich spürbaren Vorteile.

Hinzu kommt, dass ein i7-10700K direkt mal 80€ mehr als ein Ryzen 7 3700X kostet. (Besserer Kühler, eventuell stärkeres Netzteil und Board sowie eine höhere Stromrechnung wenn man OC betreiben will mal ganz außen vor.)
Jenachdem was man ansonsten in den Rechner plant ist das Geld in einer besseren Grafikkarte, einer größeren SSD, mehr RAM o.Ä. einfach besser angelegt, wenn man in den Bereichen tatsächlich spürbare Vorteile für das Geld bekommt.

Klar: Wenn Geld keine Rolle spielt und man auf maximale Gaming-Performace aus ist dann ran mit dem i9-10900K + 360mm Aio, 64GB 4000Mhz RAM, RTX 2080Ti usw. ...
In den meisten amderen Fällen muss man aber schauen wo das Geld am besten angelegt ist und da fällt die Wahl aktuell meist auf die Ryzen CPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Achim_Anders
Zurück
Oben