News Ryzen: AMDs langer Weg zu mehr Leistung in Spielen

ampre schrieb:
@The_Void
Das Sympthom nennts sich Gruppenzwang und ist in der heutigen Generation sehr stark Ausgeprägt. Jeder will die Hippste Coolste Marke haben um in der Gruppe angesehen zu sein. Alternative zählen da nicht. Da wird dann nach fadenscheinigen Argumenten gesucht.

Das Problem sind die Intel-Gamer die nicht und nie Müde werden in jedem AMD-Thread zu erwähnen das alles unter "1 Mio FPS" unspielbar ist und dieses nur mit Intel möglich ist, aber nur in 720p. Das in höheren Auflösungen die FPS bei Intel und AMD immer dichter zusammen rücken und im GPU Limit gleich auf sind, wird immer ignoriert.

Ich selber habe lange gezögert auf Ryzen zu wechseln aufgrund der "negativen" Presse und der aussagen von Intel-Gamern. Aber ich habe im Januar bei 300€ für den 1700x zugeschlagen. Hinzu kamen die Sicherheitslücken Meltdown und Spectre wo Intel seine Kunden ins offene Messer laufen lies mit den Coffee-Lakes, da war bei mir schluss Intel weiterhin zu unterstützen und wollte die nicht auch noch belohnen mit dem kauf eines 8700k.

Ich kann nur sagen das es sich gelohnt hat auf den 1700x zu wechseln.
 
Zuletzt bearbeitet:
True Evil schrieb:
Das Problem sind die Intel-Gamer die nicht und nie Müde werden in jedem AMD-Thread zu erwähnen das alles unter "1 Mio FPS" unspielbar ist und dieses nur mit Intel möglich ist

Das ist sowieso eine merkwürdige Einstellung, denn wenn nur die allerhöchsten Framerates akzeptabel sind, kämen ja nur die absoluten Topmodelle in Frage. Also irgendwelche Extreme Edition für 4-stellige Summen.
Alles darunter ist immer ein Kompromiss aus Preis und Leistung und in diesem Vergleich war AMD sogar schon vor Ryzen oft vorne. Jetzt natürlich erst recht bzw. bis in höhere Leistungsklassen hinein.

, aber nur in 720p. Das in höheren Auflösungen die FPS bei Intel und AMD immer dichter zusammen rücken und im GPU Limit gleich auf sind, wird immer ignoriert.

Es ist allerdings absolut korrekt, niedrige Auflösungen und Qualitätseinstellungen bei CPU-Benchmarks zu verwenden. Wenn man am GPU-Flaschenhals hängt, verwischt das nur die Ergebnisse, die einen eigentlich interessieren.

In der Praxis wird in Spielen natürlich fast immer ein GPU-Limit da sein, aber es wäre unsinnig zu versuchen, in Benchmarks ein realistisches Szenario nachstellen zu wollen, denn jeder Gaming-PC ist anders.
Deshalb muss man CPU-Benchmarks möglichst ohne GPU-Limit fahren und GPU-Benchmarks möglichst ohne CPU-Limit. Daraus dann Rückschlüsse zu ziehen, wie sich verschiedene CPU+GPU-Kombinationen bei den Einstellungen und Auflösungen schlagen, die man selbst nutzt, liegt beim Leser. Manche schaffen das, manche leider nicht.
 
Herdware schrieb:
Manche schaffen das, manche leider nicht.

Genau hier setzt der Gruppenzwang ein. Man kauft sich doch kein Billiges Produkt vom Zweitplatzierten. Wer es trotzdem Kauft wird für blöd gehalten und ausgegrenzt.
 
Herdware

Es ist okay 720p Tests zu machen, aber trotzdem nicht richtig zu meinen sie geben eine 100% Aussage, ob man mit Prozessor A oder Prozessor B in einigen Jahre mehr FPS erreicht. Siehe Bulldozer, welcher bei neueren Benchmark Testreihe an Performance gegenüber seinem alten Widersacher gewonnen hat, weil die Games mehr Multi-Threading unterstützen.

Hier wird dann auch immer auf 720p Tests verwiesen und gemeint, sie hätten eine allg sichere Aussage über die "Zukunfts"-Tauglichkeit.
Mich würde es gar nicht wundern wenn in einigen Jahren der i7 8700k und 1600X immer näher rücken, weil ersteres bei kommenden Games weniger durch den Single Thread profitiert.
Auch die Argumentation "alte" Games ist so eines. Alte games laufen auf neuen CPUs und da ist es belanglos, ob Prozessor A oder B um so und so viel % schneller sind, wenn die erreichbaren FPS bereits vorhanden sind.
Natürlich gibt es immer die eine oder andere Ausnahme, meist eben Games, wo es jegliche Optimierung für die breite Hardware gibt.
 
Das Problem ist das aus den 720p Benchmarks sofort dann in allen Kaufberatungsthreads etc. NUR NOCH der Leistungssieger mit 2% vorsprung empfohlen wird. (weil ja 720p das zukünftige 1080p, 4k whatever) ist.

Obwohl Fachleute sehr wohl wissen das auch 720p KEINESFALLS eben einfach so als Maß für die Zukunft genommen werden kann.

Außerdem wird den "Neukäufern" mehr als oft genug suggeriert ohne TOP-CPU bist du halt im GPU-Limit...

So ein Quatsch...OHNE TOP GPU (aktuell 1080 Ti) bringt dir die maximale CPU Power genau gar nichts. Und auch imt 1080 Ti ist die Zahl der Spiele die in einem CPU-Limit hängen (und sei es bei 720p) derart überschaubar dass man die an einer Hand abzählen kann.

Man muss den Leuten einfach viel klarer sagen: "Hey wenn du dir heute und in den nächsten 5 Jahren KEINE GPU für 1k€ kaufst...ist CPU-Limit für dich in der Regel irrelevant"...steck das Geld lieber in die GPU statt in die CPU.
200€ an der CPU Gespart ist z.B. 1060 vs 1070 Ti ! DAS SEHE ICH als MEhrleistung....ob ich ein 8700K oder ein 1600X im Gehäuase drin hab merke ich auch in 5 Jahren nicht (sofern ich nicht in 720p zocke und alle 2 Jahre fleissigst die TOP GPU nachrüste für 500€).

EDIT: Ich hab jetzt noch einen FX-6300 im Hauptrechner....der ist wirklich ca 100% langsamer als so ein Ryzen 1700X z.B....der reicht aber IMMER NOCH Dicke um meine GPU (R9 380) im Limit zu halten.

Bevor ich also nicht mindestens 400€ für ein GPU Upgrade ausgebe - brauch ich ein CPU upgrade gar nicht anzufassen.

EDIT2: @pipip: Volle Zustimmung. 720p etc. hat alles nur eine bedingte Aussagefähigkeit...
Viel wichtiger ist es zu sehen wieviel FPS kann eine top GPU erreichen in Game XYZ...das ist ja oftmals eher ein Engine Problem.
 
Zuletzt bearbeitet:
Herdware schrieb:
Es ist allerdings absolut korrekt, niedrige Auflösungen und Qualitätseinstellungen bei CPU-Benchmarks zu verwenden. Wenn man am GPU-Flaschenhals hängt, verwischt das nur die Ergebnisse, die einen eigentlich interessieren.

Das weiß ich, und es ist auch richtig die Leistung von CPUs mit 720p zu Testen.

Nur bringen mir die FPS-Zahlen in 720p nix als Gamer. Alle Gamer zocken mit mind. 1080p viele auch schon in 1440p, und dann sind ein AMD und Intel eben nicht mehr so weit auseinander da eben die GPU immer mehr zum limitierenden Faktor wird.
Und die Zukunft ist 4k und 8k, also wird man noch längere Zeit im GPU-Limit als Gamer verweilen/hängen.

AC:Origins und KC Deliverance zeigen aber auch doch schon sehr schön das man wohl Zukünftig von mehr als 6 Kernen profitieren wird.
 
Zuletzt bearbeitet:
DonL_ schrieb:
im Gegensatz zum i5 7500 ist meine CPU mit 65 watt angeben, ich habe also trotz Standard Vcore Übertaktung reichlich Platz zur TDP des i5 7500 bei vollem Boost.

Der i5 7500 hat auch 65W TDP. Dass die genannte TDP sowohl beim Ryzen, als auch beim Intel nicht mehr viel mit dem realen Verbrauch unter Last zu tun haben steht sogar dick und fett im CB Test, du wirst deutlichst über den 65W liegen.

Das Problem beim Ryzen ist nicht die IPC, mMn nicht mal die Singlecoreleistung (die ja jetzt mit steigendem Takt nochmal ≈ 10% höher liegen sollte), sondern die hier im Artikel angesprochene fehlende Anpassung an die Architektur. Selbiges zeigt sich auch beim Skylake-X mit dem Mesh, die Software ist seit knapp einem Jahrzehnt auf Intels Core Architektur mit Ringbus optimiert worden, sowohl Ryzen mit der IF, als auch SLX mit dem Mesh haben daher in nicht angepasster Software einen (je nach Software unterschiedlich) großen Nachteil.
Dies gilt es zu beheben, denn auch Intel wird nicht ewig am Ringbus festhalten, die Entwickler sind jetzt gefragt.
 
Volkimann schrieb:
[...] sondern haben 2016 gesagt Zen das sie auf Haswell IPC seien.

Das problem - und das hab ich persönlich häufiger schon in Argumentationen feststellen müssen - ist, dass ein viel zu großer haufen leute keinen dunst haben was IPC ist. Sie interpretieren das dann als Endleistung, also IPC x clock. Ist dann natürlich kein wunder, wenn prozessbedingt der takt eben nicht hoch genug ist, dass dann das geheule groß ist.

Zitat von borizb:
Nach wie vor ist der IPC pro Kern bei gleicher Taktrate viel zu niedrig.
Q.E.D.
 
Zuletzt bearbeitet:
Das problem - und das hab ich persönlich häufiger schon in Argumentationen feststellen müssen - ist, dass ein viel zu großer haufen leute keinen dunst haben was IPC ist. Sie interpretieren das dann als Endleistung, also IPC x clock. Ist dann natürlich kein wunder, wenn prozessbedingt der takt eben nicht hoch genug ist, dass dann das geheule groß ist.

Das ergibt sich ja eigentlich aus dem Begriff. Instructions per Cycle/Clock. Ist der Takt nicht gleich, kann man natürlich die IPC nicht vergleichen. Dazu muss bei den zu vergleichenden Prozessoren der gleiche Takt anliegen und die selbe Anzahl bzw. nur ein Core genutzt werden und möglichst alle anderen Faktoren eliminiert werden (RAM-Takt/Timing, etc)

-> Intels Vorteil ist die Fertigung, die einen sehr hohen Takt ermöglicht. Bzw. kann es ja auch an der Core-Architektur selbst liegen, die besser mit hohen Taktraten umgehen kann. Wobei SL-X mit dem Mesh hohen Takt auch gut fahren kann.
 
Zuletzt bearbeitet:
Mit Ryzen 2 wird der Abstand zu Intel kaum mehr vorhanden sein. Die teueren Intel mit Zahnpasta und voller Sicherheitslücken wird dann noch weniger verkauft. Mit Zen 2 wird AMD Intel überholen.
 
Rambo5018 schrieb:
-> Intels Vorteil ist die Fertigung, die einen sehr hohen Takt ermöglicht. Bzw. kann es ja auch an der Core-Architektur selbst liegen, die besser mit hohen Taktraten umgehen kann. Wobei SL-X mit dem Mesh hohen Takt auch gut fahren kann.

IPC kann ja auch sein das du Taktnomiert wenig Rohleistung hast aber die IPC es überhaupt erst möglich macht das du hohe Taktraten erreichen kannst.
 
Zuletzt bearbeitet:
Das nennt sich dann aber SingleCore Leistung....IPC ist IPC ist Instruction per clock (czw. cycle)

IPC*Takt = SingleCore oder SingleThread leistung. Ist wieder was anderes.

Wenn man von IPC spricht meint man eben IPC...spreche ich von Single Core Leistung spreche ich eben von IPC*Takt.
 
Das ist ja genau das Problem...
IPC wird immer wieder, auch von aktiven Usern in Foren wie diesem, mit Single Core Leistung gleichgesetzt.
Wie soll ein "Normaler User" das dann noch unterscheiden....

Da kann man noch so oft erklären wo der Unterschied liegt - Gefühlt würde der nämlich schon tausendfach aufgezeigt.
 
spätestens mit dem 2600x/2700x getestet mit x470 board und neusten grafiktreibern und spielepatches wird sich die leistung zeigen ..
wahrscheinlich wird das board beibehalten und ein 1600x/1800x auch noch reingesteckt und benchmark durchlaufen gelassen ..

dann kennt man die aktuelle leistungsfähigkeit mit neuen compilern und spiele patches ..

und wenn dann noch immer viel potential vorhanden ist, dann ist das doch gut.
 
Was mich bei Tests immer stört. Es wird beim GPU Test immer 1 CPU genommen (halt der 8700k von Intel) und bei CPU Tests immer 1 GPU (halt die 1080ti Strix von Asus).

Hier wünschte ich mir, das man eben halt wenigstens in den Kombinationen Intel CPU + nVidia GPU, Intel CPU + AMD GPU, AMD CPU + AMD GPU und AMD CPU + nVidia GPU testen würde. Klar mehr Aufwand. Aber so bekäme jeder User ein besseres Bild. Denn je nach Anwendungsfall gibt es dort bestimmt schon alleine durch die Kombinationsauswahl Unterschiede.

Aber ist halt nur meine Meinung.
 
Dark_Knight schrieb:
...
Hier wünschte ich mir, das man eben halt wenigstens in den Kombinationen Intel CPU + nVidia GPU, Intel CPU + AMD GPU, AMD CPU + AMD GPU und AMD CPU + nVidia GPU testen würde....

Aber ist halt nur meine Meinung.

NEIN! Nicht nur deine Meinung.

Das poste ich mittlerweile in JEDEM Test von CB als Vorschlag....es wäre EXTREM wichtig das zu machen da aktuell noch größere Unterschiede zu sehen sind wegen der neuen CPU Archs und z.B. in Kombination mit nVidia treibern in viele Fällen hier einfach 10-20% Leistung fehlen (Bzw. ein Leistungseinbruch je nach CPU bzw. GPU) zu sehen ist.

Am besten wäre es sogar wenn man diese Tests bei GLEICHEM CPU-Takt macht. Also z.B. ein 8700K @4GHz vs ein Ryzen 1600X @4GHz.
 
Zuletzt bearbeitet:
Das könnt ihr noch 1000 mal schreiben, dass ihr das wollt. Das wird nie passieren. (Nvidiabase/Intelbase)
 
M2209 schrieb:
Das könnt ihr noch 1000 mal schreiben, dass ihr das wollt. Das wird nie passieren. (Nvidiabase/Intelbase)

Daran wird's liegen.

Oder daran, dass es Zeit (und damit Geld) kostet. Irgendwo muss man halt Abstriche zugunsten der Wirtschaftlichkeit machen.

Nicht Vergessen: CB ist kostenlos und finanziert sich durch Werbung und einen kleinen Teil Premiumuser.

//siehe Signatur
 
Zurück
Oben