News AMD Ryzen 5 5600X: Kleinste Zen-3-CPU erobert Platz 1 im PassMark

Sun_set_1 schrieb:
Hast Du irgendeine der News gelesen die du kommentierst? :D
In der vorliegenden, ist ein Screenshot, aus einem der klar zeigt, dass die AMD CPU, wie von AMD angekündigt, in Spieleleistung (=Single Thread Leistung) ca. 20% am 10900k vorbei zieht.

Zeige mir einen 10900k aus dem nochmal 20% gepresst werden. Ich bin gespannt ;)

Also ich gönne es AMD aber 20% vor dem 10900 im Gaming-Bereich? Wenn dem so wäre, hätte sie das auch in der Präsentation von ZEN 3 gezeigt. Da war aber nix von 20% bei den Spiele-Benchmarks zu sehen! Mal von League of Legends und CS:GO abgesehen. Sonst von -3% (Battlefield V) bis +6%. Und da wurde ein 5900X und kein 5600X verglichen und die sicher auch in präsentationswürdigen Games!

Und genau aus diesem Grund traue ich den aktuellen Benchmarks irgendwie nicht so wirklich bzw. finde sie wenig aussagekräftig. Zumindest nicht in Bezug auf die Gaming-Performance.

Trotzdem ist es natürlich super was AMD mit Zen 3 auf den Tisch legt.
 
Zuletzt bearbeitet:
Schon mehr als beachtlich, zumal Intel immer wieder versucht Benchmarks zu ihren Gunsten zu drehen.
Jetzt ist also die letzte Ausrede (ST-Performance) gefallen und AMD kann auch die Preise anziehen.
Wenn die Gerüchte zu den letzten Intel News stimmen kommt da kein guter Konter vor 2023, ich hatte eigentlich auf 2022 gehofft zwecks geringer Preise...
 
Oops falscher Thread :D

Egal. Passmark hin oder her die CPUs scheinen wirklich gut zu werden :)
 
Zuletzt bearbeitet:
gut und richtig schrieb:
Wenn die Gerüchte zu den letzten Intel News stimmen kommt da kein guter Konter vor 2023, ich hatte eigentlich auf 2022 gehofft zwecks geringer Preise...
Intel hat halt das Glück, dass Firmen wie Apple nur von ihnen kaufen und.... oh wait! ;)
Im Datacenter Bereich, wo Intel ja bei weitem die Nummer Eins war bzw. ist, geht's gerade richtig ab... zugunsten von AMD ;)
 
PS828 schrieb:
Intel muss es einfach hinbekommen große Chips herzustellen.
Wie, "groß"? Intel hat kein Problem damit, große Chips herzustellen. Einfach den i9-10980XE mit 18 Kernen für 975€ kaufen, der ist mit 484 mm² deutlich größer als die zusammen 273 mm² der drei Chips eines R9-3950X. Trotz zwei Kernen weniger liefert der Ryzen 6% mehr Performance im Multicore-Performance-Index. Dummerweise ist man bei diesem 18-Kerner dann aber auch den "Intel-Vorteil" in Spielen los, weil der Ringbus mit geringer Latenz durch die eher für Server gedachte Mesh-Achitektur ersetzt wird.

Nope, die Größe ist nicht das Problem.
 
  • Gefällt mir
Reaktionen: Ernie75 und foo_1337
@Nixdorf ich meinte die 36 Kern Mesh Xeons von ICE Lake SP. Deshalb sagte ich falscher Thread ;) weil offenbar klemmts da immernoch ordentlich
 
Sun_set_1 schrieb:
In der vorliegenden, ist ein Screenshot, aus einem der klar zeigt, dass die AMD CPU, wie von AMD angekündigt, in Spieleleistung (=Single Thread Leistung) ca. 20% am 10900k vorbei zieht.
Novasun schrieb:
Das sieht echt übel für Intel aus...
lugge schrieb:
Hm, auf den zweiten Blick frage ich mich aber warum im Singlecore Benchmark bei den Ryzen-Prozessoren kein Takt angegeben ist.
Außerdem scheinen die Intel-CPUs relativ niedrig getaktet verwendet worden zu sein, i9-10900K @3,7 GHz
engineer123 schrieb:
Kann gut sein, dass der 5600X auch beim Gaming den Achtkerner 9900K eintütet...
spätestens dann brennt bei Intel der Baum.
Ned Flanders schrieb:
Ich glaube schon das die leistungsmäßig rankommen
FatalFury schrieb:
Intel hat sich wie das Schiff Bismarck, gut gehalten mit den 14nm aber nun ist ende gelände.
Vitec schrieb:
bei Games kommt man jetzt erst an Intel ran.

gaming-kg schrieb:
Durch den neuen Microsoft Flightsimulator 2020 bin ich jetzt auf einen 6-Kern Intel i5-9600K + Z390 Mainboard umgestiegen, da ich sehr günstig an die Hardware drangekommen bin.
Ich habe mich bewusst gegen einen AMD Ryzen 3600 und B550 Mainboard entscheiden, da ich hauptsächlich den Flugsimulator nutze und dort höchste Single-Core-Taktung benötige, die mir Intel mit den K-CPUs aktuell günstig bietet.
EL-SANTO schrieb:
Ich traue den aktuellen Benchmarks irgendwie nicht so wirklich bzw. finde sie wenig aussagekräftig. Zumindest nicht in Bezug auf die Gaming-Performance.
gut und richtig schrieb:
Jetzt ist also die letzte Ausrede (ST-Performance) gefallen
Google translate:

Bitte, beachten, dass die Frequenz, die in der Liste neben den CPUs angegeben wurde, nur die Basisfrequenz ist und nicht die tatsächliche, mit der die CPUs in PassMark liefen.
Der Test wurde nur auf einem Kern ausgeführt, daher boostete jede CPU auf maximale Einzelkern-Boost Frequenz.
5.3 GHz 10900K(F)
5.2 GHz 10900(F)
5.0 GHz 10910
5.0 GHz 9990XE
5.2 GHz 10850K
5.1 GHz 10700K(F)
5.0 GHz 9900KS
5.0 GHz 9900K(F)
4.9 GHz 9700K(F)
5.0 GHz 8086K
4.8 GHz 10600K(F)
4.8 GHz 10700
4.8 GHz 10600

Einerseits, R5 5600X Single-Core-Leistung war sogar höher als sogar 5,3 GHz 10900K, was bedeutet, dass die Leistung pro MHz/Takt/Zyklus höher ist als die von Intel.

Die Single-Core-Frequenz lag nicht höher als " nur" bei 4.6 GHz (vs. Intel).
Da neue AMD braucht keine so hohe Spannung wie Intel, wegen niedrigerer Frequenz und damit auch niendrigere Spannung, erwärmt sich und verbraucht weniger als Intel mit dem gleichen Anzahl von Threads.
Ganz zu schweigen von der Tatsache, dass es praktisch unmöglich ist, viel mehr aus Intel-CPUs herauszuholen, die bereits mit ziemlich hohen Frequenzen @ Stock laufen, auser sie Glück haben ein gutes Sample erwischt zu haben.
Aber selbst dann, müss man deliden + Wasserkühlung.

Vitec schrieb:
Der 8 Kerner mit dem aktuellen CCX hat nicht mehr das Latenzproblem, sollte also zum Gamen auch noch perfekt passen.
ABER!

Andererseits, was Intel wenigsten in Spielen immer noch rettet und vermutlich weiter retten wird (zusätzlich zum Übertakten der CPU bis zum Mond), obwohl diese Lücke mit der Veröffentlichung von Ryzen 5XX0 (X) weiter und signifikanter schrumpfen wird, ist die in Aida64 immer noch wesentlich bessere RAM Latenz in Nanosekunden.
Die Tatsache, dass bei Intel CPUs die DIEs immer noch monolithisch sind und nicht 2-3 DIEs wie bei AMD, die immer noch etwas langsamer als Intel bleiben, aufgrund der Tatsache, dass zwischen den DIEs ein merklicher physischer Abstand besteht, was zu einer höhere RAM Latenz führt, des exakt gleichen RAM-Modells, das auch in einem Intel-System verwendet wird.


Beispielsweise, RAM mit allen möglichen Timings, die mit einer Intel CPU auf das stabile 24/7 Maximum reduziert werden, bringen in Aida64 eine Latenz von bis zu 35 Nanosekunden.
Derselbe RAM, der gleich konfiguriert ist, aber auf einem Ryzen 3XX0 (X / XT), ist nicht in der Lage 63 Nanosekunden zu unterschreiten, was auch immer Sie versuchen.
haltezeit schrieb:
oha , der Sprung in der SCP ist eine Hausnummer.
eyedexe schrieb:
Wenn der 5600X schon 3500 Punkte schafft, müsste der 5950X eigentlich 3800 Punkte schaffen. 🤔😬
Sam Miles schrieb:
die SC Leistung des kleinsten zen3 zieht schon an Intel sein Top Modell vorbei
Beachten Sie, dass PassMark ein synthetischer Test ist, der je nach den Instructions, die eine CPU beherrscht und auch nach anderen Architekturverbesserungen oder deren Abwesenheit, zu besseren oder schlechteren Ergebnissen führt.
  • Jedes Mal, wenn Sie den Test ausführen, gibt es leichte Abweichungen in den Punkten.
  • Es war der einzige R5 5600X, der in diesem Test getestet wurde, möglicherweise ein gutes/"goldenes" Sample vs. dutzende / hunderte / tausende von Intel, die nur das durchschnittliche Ergebnis und nicht nur ein Sample darstellen.
Simon schrieb:
"Auch im Multi-Thread-Benchmark fährt der Ryzen 5 5600X ein beachtliches Ergebnis
Während die meisten Spiele und Programme nicht nur nicht alle Instructions aller CPUs und andere Architekturverbesserungen verwenden können, sondern nicht mal wirklich alle Kerne/Threads auslasten können.

Dies deutet darauf hin, dass AMD außerhalb von Synthetik-Tets, unter realen Bedingungen, nicht so stark glänzen kann/wird.

Aber eine viel bessere RAM Latenz, in Spielen mit schlechtem Multithreading, wie Arma, Squad oder Tarkov, macht sich sehr gut bemerkbar, und die RAM Latenz, selbst mit Ryzen 5XX0(X) liegt immer noch nicht auf dem Niveau von Intel, was auch immer man sich schön redet.

ZeroStrat schrieb:
Die CPU ist doch gar nicht sooo wichtig. Die Grafikkarte limitiert doch eh immer... :freak:
BelneaHP schrieb:
Es gibt im übrigen genügend Spiele die ganzheitlich im CPU-Limit hängen. Nicht bei 100 FPS++ sondern sogar schon bei 30-60 FPS. Und nun geh wieder in Deine GPU-Ecke.
In Arma macht sich die RAM Latenz bemerkbar, selbst in 4K-Ultra-Einstellungen, obwohl es von der GPU leicht limitiert wird, bevor es von der CPU und dem RAM limitiert wird.

Ein Bekannter hat einen i3-9350K (4/4 Kerne/Threads) @ 5.0/4.6 GHz Core/Cache + GTX 1080 Ti + 4K Bildschirm

Aber sein RAM war die ganze Zeit nur 2x8 GB Kingston HyperX Predator 2666 MHz, OC'et auf 13-13-13-35.

Vor ein paar Tagen hat er 2x8 GB G.Skill RipJaws V 3600 MHz 16-16-16-36 (100 € Mindfactory) gekauft und ohne Probleme auf 4000 MHz 15-15-15-28 übertaktet.

Avg. FPS in Yet Another Arma Benchmark @ 4K Ultra (gesamt /Objekte 2500 m | Wasserreflexionen deaktiviert | PiP deaktiviert | Partikel niedrig | AO deaktiviert | Sonnenstrahlbrechung deaktiviert | FSAA 2x | PPAA deaktiviert

(100%) 52.0 FPS avg. (4000 15-15-15-28 + sekundäre und tertiäre Timings 34.9 Nanosekunden Aida64)
(96,10%) 50.0 FPS avg. (4000 15-15-15-35)
(95,72%) 49.8 FPS avg. (4000 16-16-16-36)
(95,14%) 49.5 FPS avg. (4000 17-17-17-37)
(94,76%) 49.3 FPS avg. (4000 18-18-18-38)
(94,56%) 49.2 FPS avg. (4000 19-19-19-39)
(93,41%) 48.6 FPS avg. (3600 14-14-14-34)
(93,22%) 48.5 FPS avg. (3600 15-15-15-35)
(91,68%) 47.7 FPS avg. (3600 16-16-16-36) (XMP)
(90,34%) 47.0 FPS avg. (3200 14-14-14-34)
(87,84%) 45.7 FPS avg. (3200 15-15-15-35)
(87,64%) 45.3 FPS avg. (3200 16-18-18-38)
(85,15%) 44.3 FPS avg (2666 13-13-13-35)

8 FPS mehr nur mit RAM und bei 4K Ultra-Einstellungen, während CPU und GPU nicht berührt wurden.
Das ist ein guter FPS-Gewinn, für Arma
Bei 1440p und noch mehr bei 1080p + und nicht bei Ultra-Einstellungen, ist der Vorsprung der FPS natürlich viel bedeutender.
Ergänzung ()

qu1gon schrieb:
Sehe ich das richtig, das macht den R5 5600X zur besten Wahl fürs Gaming und (in diesem Hinblick) gleichzeitig
zur günstigsten CPU?
Also die jetztige Intel CPUs sind/werden günstiger als Ryzen 5XX0(X) und wenn man übertakten kann + gute Kühlung hat + Stromverbrauch nicht stört, dann kann man mehr aus Intel rausholen (RAM Latenz inklusive).

11 Gen werden noch besser sein, wenn man weiß was wie rausholen, obwohl anscheinend noch höherer Verbrauch. Keine Ahnung wieviel die kosten werden.

Sonst, wenn man keine Ahnung vom OC hat oder sich damit einfach nicht beschäftigen will + Verbraucht spielt keine unwichtige Rolle, dann eben Ryzen 5XX0(X).

Ob Intel oder AMD ist mir egal. Hauptsache Single-Core-Leistung vs. Preis und wieviel man manuel da noch rausholen kann.
Wenn dabei der Verbauch und die Spannung noch niedriger sein können, dann noch besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cele
Und wenn die Hardware, die man gerade hat, gar nicht so dramatisch limitiert, wenn übehaupt (wegen haben will), würde ich auf Ryzen 5XX0XT warten, die ausgereifter als die X sein werden, wegen dem aktualisiertem Stepping. Also ne noch höhere ab Werk Frequenz bei gleicher oder sogar niedriger Spannung und damit gleicher oder sogar niedriger Verbauch.
Die XT werden bestimmt kommen, im Frühling oder Sommer vs. Intel 11 Gen.

Anstatt X Variante für viel Geld, da noch ganz neu und 100% nicht so gut verfügbar sein werden oder wegen Nachfrage + nicht so hohe Frequenz vs. Spannung und Verbrauch, da erster Stepping.
 
Wie die Intelianer versuchen ihre Chips zu verteidigen...Haha. Die Zeiten sind vorbei. Am 28. wird noch die Lederjacke ausgezogen und die neue Farbe, jetzt auch für Gaming, ist rot!
 
  • Gefällt mir
Reaktionen: 1unknown_user, Alpha.Male und Kodak
SideEffect schrieb:
Wie die Intelianer versuchen ihre Chips zu verteidigen...Haha.
Nix verteidigen, sondern nur argumentieren, mit konkreten Zahlen und Fakten, nix anderes.
Steht doch - wenn Stromverbrauch einem nicht kritisch ist und einer OCen kann und will/mag, um noch mehr raus zu holen. Das war's. Einfach gründlich lesen.
Sonst AMD.

GT200b schrieb:
der neue Ryzen hat nach wie vor seine Schwachstellen wie hohe Latenzen und der geringer Takt.
Intels Gaming stärke ist nach wie vor der Ringbus.
AMD müsste die Latenzen nochmals stark senken und ein höheren Takt von mindestens 4,8ghz@allcore@outofthebox@aircooled schaffen.

das Argument die GPU würde limitieren zählt fast nicht mehr, siehe die Performance von Nvidia Ampere. Ganz viele Spieler zocken mittlerweile auf WQHD, und für eine RTX 3080 ist das auf WQHD ein Häppchen, so dass man öfters mit einem aktuellen Ryzen ins CPU Limit rennt als mit einem i9.
Selbst mit meiner GTX 1080ti auf WQHD hab ich manchmal ein CPU Limit, geh mal in Superstore da stehen viele Regale (viel Geometrie) und ist sehr CPU lastig, mit einem Ryzen fallen deine FPS auf 80, bei einem Kumpel mit einem i9-9900k und gleiche Graka und Einstellungen bleiben die FPS bei 120, das sind riesen Unterschiede.
Wollen viele nicht hören/verstehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b
Groove_C schrieb:
Nix verteidigen, sondern nur argumentieren, mit konkreten Zahlen und Fakten, nix anderes.
Das ist vor dem Launch aber erst einmal nur für die Intel-Seite möglich. Wie es wirklich aussieht, sehen wir erst ab dem 5. November. Und auch dann wird es noch ein bsi zwei Wochen dauern, bis die CPUs in den von dir angeprochenen Punkten hinreichend durchgeprüft sind und sich endlich ein deutliches Bild abzeichnet.
 
@Nixdorf, ich habe schon Screens mit Zen3 und sehr schnellem RAM irgendwo gesehen, und da hat's mit 4000 MHz 1:1 funktioniert (2000 MHz Infinity Fabric) und die Latenz in Aida64 war wesentlich besser als bei Zen2, also <50 ns vs. nicht weniger als 63 ns bei Zen2, egal was man macht - alle Timings super straff.
Und <50 ns Zen3 sind immer noch keine 35 ns von Intel.

Und die RAM Latenz macht sich sehr gut bemerkbar, in Spielen mit schlechtem Multithreading, wie Arma, Squad oder Tarkov, selbst @ 4K Ultra, obwohl es von der GPU limitiert wird, bevor es von der CPU und dem RAM limitiert wird.

Mal sehen ob's möglich sein wird die RAM Latenz noch mehr zu senken, näher an 40 ns oder unterhalb von 45 ns.

Wenn nicht möglich, dann ist i7-10700K delidded @ 5.2/4.9 GHz Core/Cache @ Noctua NH-D15S + 4000 MHz 15-15-15-28 RAM und günstiger als R7 5800X immer noch besser für Spiele.

Delidden und CPU + RAM zur Kotzgrenze @ air übertakten ist kein Problem für mich.

Der Verbrauch wird sicher einbisschen höher (in Spiele) als beim R7 5800X sein, aber gar nicht dramatisch (in Spiele).
Ergänzung ()

@Nixdorf aber da du bereits ein X470 Board hast, kann's nur Zen3 für dich sein und wirst nichts falsch machen.
Gut beim Kauf sparen, da Mobo und RAM schon da und nur die CPU wechseln + deine verkaufen und dabei stark an Single-Core und Multi-Core Leistung gewinnen vs. deine R7 2700X.
 
Zuletzt bearbeitet:
Also ist ein AMD R5 5600X bei max. 4.60 GHz, in der Single-Core Leistung schneller als ein Intel 10900K bei 5,3Ghz, bei diesem PassMark ?

Oh man, wann kommen die ganzen anderen Tests ? :/

Edit:
Mich würde einfach mal interessieren, was passiert, wenn man den 5600X mit 4Ghz laufen lässt und auch den Intel 10900k mit 4 Ghz all Core laufen lässt. Nur vom CPU Takt her und dann mal die Benches vergleicht und auch die Leistungsaufnahme usw usw.
Das wäre doch mal ein Test @ComputerBase, einfach zwecks Technologievergleich.
 
conspectumortis schrieb:
Also ist ein AMD R5 5600X bei max. 4.60 GHz, in der Single-Core Leistung schneller als ein Intel 10900K bei 5,3Ghz, bei diesem PassMark ?
Sieht man doch auf dem Screenshot im Artikel!

Aber wie schon oben erwähnt:
Beachten Sie, dass PassMark ein synthetischer Test ist, der je nach den Instructions, die eine CPU beherrscht und auch nach anderen Architekturverbesserungen oder deren Abwesenheit, zu besseren oder schlechteren Ergebnissen führt.
  • Jedes Mal, wenn Sie den Test ausführen, gibt es leichte Abweichungen in den Punkten.
  • Es ist der einzige R5 5600X, der in diesem Test getestet wurde, möglicherweise ein gutes/"goldenes" Sample vs. dutzende / hunderte / tausende von Intel, die nur das durchschnittliche Ergebnis und nicht nur ein Sample darstellen.
conspectumortis schrieb:
Edit:
Mich würde einfach mal interessieren, was passiert, wenn man den 5600X mit 4Ghz laufen lässt und auch den Intel 10900k mit 4 Ghz all Core laufen lässt. Nur vom CPU Takt her und dann mal die Benches vergleicht und auch die Leistungsaufnahme usw usw.
Macht kein Sinn, da selbst ohne Test kann man schon sagen, dass Intel bei gleichem Takt und Threads, langsamer ist und dabei mehr verbraucht.
Aber da man Intel CPUs immer noch wesentlich höher als AMD takten kann, auch wenn dafür Ahnung/Erfahrung + Kühlung notwendig sind, können die immer noch vorne bleiben, auch wenn erst nach dem Übertakten.
Ergänzung ()

conspectumortis schrieb:
Mich würde einfach mal interessieren, was passiert, wenn man den 5600X mit 4Ghz laufen lässt und auch den Intel 10900k mit 4 Ghz all Core laufen lässt. Nur vom CPU Takt her und dann mal die Benches vergleicht und auch die Leistungsaufnahme usw usw.
Das wäre doch mal ein Test @ComputerBase, einfach zwecks Technologievergleich.
Mich würde viel mehr interessieren, wie nah ne voll übertaktete AMD Zen 3 an voll übertaktete Intel Comet Lake kommen kann, RAM inklusive.

Und nicht in Cinebench, PassMark oder 3DMark, sondern in Spiele oder beim Rendering oder so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec
Das Stromsparargument zieht doch wirklich nicht, wenn man gleichzeitig potente, leistungsstarke Grafikkarten verwendet, die extrem viel Strom aus der Steckdose ziehen, wenn man zockt. Viele spielen mittlerweile in 4k Auflösung auf großen Monitoren ect., da spielt der individuelle Stromverbrauch doch überhaupt keine Rolle mehr, denn ansonsten würde man weiterhin auf FHD mit kleineren Monitoren (24 Zoll) und geringeren Auflösungen und Spieleinstellungen zocken, um tatsächlich signifikant Strom einzusparen.
3 oder 4 Monitore würde dann niemand gleichzeitig zum Spielen benutzen, wie es z. Bsp. viele Flusifans tun, um Cockpit, Landschaft und Zusatzprogramme darzustellen. Oder die Streamer, die ebenfalls mit vielen Monitoren und oft zwei PCs arbeiten, ich meine, die verbraten Strom ohne Ende, gleiches gilt für die Leute die in 4K Filme streamen.
Im Idle Modus verbrät so eine Grafikkarte viel mehr Strom, als zum Beispiel eine integrierte CPU Grafikeinheit. Mittlerweile braucht man für High-End Grafikkarten Netzteile jenseits der 650 Watt.
Wer wirklich Strom einsparen möchte, sollte sich einen zweiten PC anschaffen, einen nur für´s Spielen, wo es rein um maximale Leistung geht und der Stromverbrauch zweitrangig ist und einen kleinen, lautlosen Mini-PC, der sehr stromsparend für Internet und Office eingesetzt werden kann oder man benutzt ein Tablet, anstatt einen Mini-PC, wenn einem das persönlich ausreicht.
Das wäre aus Stromspargründen tatsächlich vernünftig und sinnvoll, macht aber kaum jemand.
Die stromhungrige High-End Kiste wird dann nur zum Zocken hochgefahren und bleibt ansonsten aus und man nutzt den stromsparenden Mini-PC.
So ein stromsparender Mini-PC ist zudem günstig zusammenzubauen, weil es ja auf andere Werte als pure Leistung ankommt und man keine High-End Hardware dafür benötigt.
Ich für meinen Teil nutze den PC wesentlich öfter und länger für Internet und Office, als das ich damit spiele.
Gleiches gilt für die großen Monitore ab 32 Zoll und größer, die im Vergleich zu einem 24/27 Zoll Monitor, viel mehr Strom ziehen oder eben die Nutzung mehrerer Monitore gleichzeitig.
Da sind die CPUs der kleinste Stromverbraucher!
 
Zuletzt bearbeitet von einem Moderator:
Das Stromsparargument und günstiger Preis (jetzt nicht mehr?), zieht doch wirklich nicht, wenn man Arma, Microsoft Flight Sim, Squad, Tarkov, Anno 1800 usw spielt und die min. Perf einfach nicht da ist + häufige und schwere FPS-Einbrüche (mit SSD und 16-32 GB RAM).

Da wenn es 60 oder 70, 100 oder 120 FPS sind, macht's wirkilch kein Unterschied, in solche Spiele.
Aber wenn's 30 anstatt 20 oder 40-50-60 anstatt 30-40 FPS sind, dann ist das schon ne andere Sache.
Ergänzung ()

Wenn AMD CPUs Single-Core Takt all-Core schaffen werden und sogar höher all-Core (OC) als max original Single-Core + sehr niedrige RAM Latenz, dann wird's endlich eine AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aklaa und Urbi
@Groove_C
Ram Optimierung geht auch mit ZEN. Ich habe Latenzen von unter 60ns bei ZEN2 gesehen. Aber egal. AMD weiß um den Nachteil und hat dafür den Cache sehr üppig gestaltet.
Aktuell haben wir aber mangels Benchmark noch keinen Vergleich in ausgewählten Spielen. Da heißt es abwarten. Und wenn es ZEN3 dann schaffen sollte, Intel zu schlagen, dann ist die bessere Ram Latenz von Intel völlig egal.
 
MasterAK schrieb:
Aktuell haben wir aber mangels Benchmark noch keinen Vergleich in ausgewählten Spielen. Da heißt es abwarten. Und wenn es ZEN3 dann schaffen sollte, Intel zu schlagen, dann ist die bessere Ram Latenz von Intel völlig egal.
Stimmt.
 
Zurück
Oben