Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

Weedlord schrieb:
@Quidproquo77 Ja aber dann wäre ja grade jetzt die Möglichkeit sich einen Namen zu machen und Aufmerksamkeit durch niedrige Preise zu bekommen. Auch wenn dann die Lager leergekauft werden. ;D

Ich behaupte der Preis wird letztlich auch wenn die Verfügbarkeit besser ist nicht fallen, der fällt gefühlt seit 8 Jahren nicht mehr.
Also ich hab meine vor Neujahr (müsste nochmal schauen, wann genau ... war mit ner Woche Wartezeit bis zum eigentlichen Versand, aber entweder kurz vor oder kurz nach Weihnachten) für unter 300 inkl. Versand gekauft und da war es nichtmal der niedrigste Preis ...
 
Zuletzt bearbeitet:
stefan92x schrieb:
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?

Lol also nix für ungut, die Sichtweise ist ja mal richtig daneben.

Das würde ja heißen, selbst wenn bei AMD die Performance im CPU Limit nur halb so hoch wäre, wie bei Nvidia, solange der Leistungsunterschied zwischen 14900K und 12100F bei AMD relativ zu einander geringer ist, ist AMD besser? So kann man sich auch wirklich alles zurechtbiegen oder?


Wir sehen doch, dass der 12100F die GPUs allesamt gegenüber dem 14900K einbremst. Es herrscht also eindeutig ein CPU Limit.

Und hier ist Nvidia bei gleicher CPU schneller. Sowohl AVG als auch bei den Frametimes.

Wie kann man das als Vorteil für AMD sehen?
Der Relative Verlust von einer CPU zur anderen spielt doch überhaupt keine Rolle.

Wenn man diese Sichtweise konsequent anwenden würde, dann würde man AMD selbst dann bevorteilen, wenn die performance auf dem 14900K genauso langsam wie auf dem 12100F wäre, weil du nur den Unterschied zwischen den CPUs betrachtest und der wäre dann besonders gering. Heißt Nvidia könnte mit dem 14900K 10, 50 oder auch 100% schneller sein als AMD und es würde mit deiner Sichtweise niemals dazu führen, dass du sagst, Nvidia performt besser, weil die Leistungsdifferenz zwischen schnellster und langsamster CPU größer wird und dabei völlig ignoriert wird, wie hoch die performance auf der jeweiligen CPU tatsächlich ist.


Letzten Endes sind die Unterschiede marginal. Aber das ändert nichts daran, dass deine Interpretation überhaupt nicht funktioniert.
 
ich vermute intel ist da vielleicht garnicht so böse drüber das die keiner wirklich empfehlen kann...machen die doch mit jeder verkauften karte nen minusgeschäft...

auf jeden fall nen netter test, aber mal so für aufrüster von vielleicht nicht so kleinen cpus aber dafür alten cpus wäre eventuell interessant...wie läuft das auf älteren mittelklasse cpus (nen alter 6700 oder ryzen 1600)

jetzt fällt mir aber auch wirklich nix mehr ein was für sone karte sprechen würde, auser ich bin intel fanboy und wenn intel schon ne gpu macht muss ich die auch unbedingt haben...klar gibt sicher einzelfälle wo die noch für bestimmte sachen vielleicht besser ist aber für die breite masse war das jetzt irgendwie nicht wirklich.
 
In Ghost of Tsushima, das per se extrem gut auf Arc läuft, zeigt sich die B580 hingegen komplett unbeeindruckt vom Wechsel von 14900K auf 12100F.

Tja, wenn die B580 nur überall so gut laufen würde wie in diesem Spiel, was aber darauf hindeutet, dass es alleine die CPU (das Alter bzw. die Leistungsklasse dieser) oder das PCIe4.0 Mainboard auch nicht sein dürfte, sondern vermutlich ein Zusammenspiel mehrerer Faktoren.

Das macht es insgesamt definitiv nicht einfacher Intel Arc Grafikkarten (bisher) zu empfehlen, aber ich nehme an, dass Intel diese Baustelle längst bekannt sein dürfte und hoffe auf Besserung mit Intel Arc Celectial dGPUs.

Selbst wenn B770/750 Karten von Intel noch kommen sollten, denke ich nicht, dass sich diesbzgl. allzuviel ändern wird - auch wenn es wegen schnellerer Anbindung dieser dGPUs evt. weniger auffallen dürfte - denn dazu könnte eine Architekturanpassung notwendig sein (ebenso was automatische Effizienzanpassung ohne ASPM bei kommenden Intel Arc Grafikkarten angeht).
 
Zuletzt bearbeitet:
Mimir schrieb:
Wir sehen doch, dass der 12100F die GPUs allesamt gegenüber dem 14900K einbremst. Es herrscht also eindeutig ein CPU Limit.
Ganz definitiv.
Mimir schrieb:
Und hier ist Nvidia bei gleicher CPU schneller. Sowohl AVG als auch bei den Frametimes.
Aber eben nur noch 1-2%, keine 2-5%.
Mimir schrieb:
Wie kann man das als Vorteil für AMD sehen?
Wir sprechen hier ja über knappes Budget für eine GPU, also ist P/L enorm wichtig. Nvidia darf für gleiches P/L-Verhältnis 5% teurer sein, wenn ein 14900K verbaut wird, aber nur noch 2% teurer wenn ein 12100F verbaut wird. Das ist, wie man das als Vorteil für AMD sehen kann.
Mimir schrieb:
Der Relative Verlust von einer CPU zur anderen spielt doch überhaupt keine Rolle.
Wenn man wissen will, wie abhängig eine GPU von der CPU ist, dann halt schon. Und AMD ist da einfach am geringsten beeinflusst. Das ändert natürlich nichts daran, dass die Nvidia-GPU immer noch schneller ist (weil es halt die bessere GPU ist), sagt uns aber trotzdem etwas darüber, wer den größeren Overhead auf der CPU hat.
Mimir schrieb:
Letzten Endes sind die Unterschiede marginal.
Da sind wir uns einig.
 
  • Gefällt mir
Reaktionen: Otsy
@Volker
Ich habe weder bei CB noch sonst im Netz verlässliche und seriöse Infos dazu gefunden:
Ist bekannt, ob es einen größeren Battlemage-Chip geben wird, der als mögliche B770 oder B780 Karte erscheinen könnte?
 
stefan92x schrieb:
Wenn man wissen will, wie abhängig eine GPU von der CPU ist, dann halt schon. Und AMD ist da einfach am geringsten beeinflusst. Das ändert natürlich nichts daran, dass die Nvidia-GPU immer noch schneller ist (weil es halt die bessere GPU ist), sagt uns aber trotzdem etwas darüber, wer den größeren Overhead auf der CPU hat.

Eben doch, wenn man sich den 12100F ansieht. Wir sind CPU limitiert, also spielt es keine Rolle wie viel schneller die Nvidia GPU (im GPU limit wäre) Die CPU bestimmt die performance.

Wenn die FPS und Frametimes dann auf der Nvidia GPU besser sind, dann hat sie weniger overhead.

Deine Aussage wäre richtig, wenn wir im GPU Limit testen würden. Im CPU Limit aber sehen wir eindeutig den Overhead.

Schau dir am besten die Einzelergebnisse bei den Frametimes zu BG3, Cyberpunk und Frostpunk an. Da sorgt der 12100F für ein relativ starkes CPU limit. Die Performance geht sowohl auf Nvidia als auch AMD deutlich zurück. Und trotzdem ist in diesem szenario die Nvidia Karte schneller. Der Overhead muss also geringer sein.

Und ja, ob hier AMD in Punkto Preis/Leistung besser ist oder nicht spielt für die performancebetrachtung erstmal keine Rolle. Nur weil Nvidia schneller ist heißt das ja nicht, dass es in Sachen preis/Leistung die bessere Wahl ist. Das sind halt zwei paar Schuhe.


Um mehr Klarheit zu schaffen wäre es wahrscheinlich sinnvoller gewesen, noch forderndere Spiele zu nutzen oder noch langsamere CPUs.
 
Zuletzt bearbeitet:
Ich hab es schon bei Arc A gesagt und ich sag es auch wieder bei Arc B: Die Dinger sind schlichtweg zu teuer für das was sie leisten und mit den Problemen, die sie mitbringen.
Würde Intel die B570 für 200-200€ anbieten und die B580 für 250-270€, könnte man sich das überlegen. Aber mit 270€+ und 320€+ haben die Dinger schlicht keinen Vorteil gegenüber der Konkurrenz, sondern nur Nachteile.
Einfach ein weiterer Fail, den Intel hier produziert. Wie so oft in den letzten Jahren.
 
Die nennenswerte Erkenntnis des Tests ist ja, dass anscheinend der Intel Treiber mehr CPU Overhead hat.
Dann wäre es aber auch hilfreich gewesen die Vorgängerin Intel A770 mit reinzunehmen.
Dass ganz grundsätzlich zwischen einem Intel 12100 und 13600K eine Lücke klafft ist ja nichts besonderes, auch wenn man mit diesen Einstiegskarten in FullHD testet.
Hier fehlen die populären LowBudget-CPUs wie Ryzen 5600, 7500 oder Intel 12400, 13400.
 
Ich bin gespannt auf die AMD 9060 und INTEL B7xx. Bei unter <400€ spät in diesem Jahr könnte meine Vega 56 dann endlich in Rente gehen. Plan B wäre ne neue Spielekonsole.
Ergänzung ()

Neodar schrieb:
Würde Intel die B570 für 200-200€ anbieten und die B580 für 250-270€, könnte man sich das überlegen.
Ich hoffe nicht nur, sondern denke auch, dass die Preise im Sommer noch massiv fallen. Guck mal wo die A770 im Moment liegt. Dazu sind die AMD/NVIDIA Mittelklassekarten jetzt schon verknappt weil die nächste Generationen denke kurz vorm Sommer erscheinen werden.
Dann wird es vielleicht auch erstmal dünn aussehen und Ende Sommer/Anfang Herbst erwarte ich dann mal wieder einen echten Markt. Heutzutage muss man ja schon dazusagen "Falls kein (Handels)Krieg, Naturkatastrophe o.ä. alles durcheinander bringt.
 
Zuletzt bearbeitet:
Die B580 muss gut unter 300€ landen, sonst hat Intel hier auch einen schlechten Stand. Es werden wohl auch noch vereinzelt RX6750XT bei MF in den Mindstars auftauchen, da hat die Karte dann einen noch schlechteren Stand.
Außerdem als Aufrüstoption in älteren System nicht zu gebrauchen.
 
Zuletzt bearbeitet:
Mimir schrieb:
Die Performance geht sowohl auf Nvidia als auch AMD deutlich zurück. Und trotzdem ist in diesem szenario die Nvidia Karte schneller. Der Overhead muss also geringer sein.
Komische Sichtweise...
Klar ist die Nvidia da noch schneller, die ist ja auch mit schneller CPU ein gutes Stück voraus. Aber sie verliert halt prozentual mehr als die AMD durch die langsamere CPU.
Deshalb kann man sagen, dass der Overhead durch den Treiber auf der Nvidia höher ist.
Wenn die Nvidia jetzt 100 FPS hat und die AMD nur 50 mit schneller CPU, aber mit einer langsamen CPU die Nvidia auf 50 absackt und die AMD auf 40, verliert die Nvidia deutlich mehr durch den Overhead, ist aber trotzdem noch schneller.


Kann man eigentlich noch normal irgendwie kritische Kommentare zu irgendwas abgegeben, ohne dass das das gleich wieder in die Fanboy Ecke geschoben wird mit "schön reden" etc. ?
 
  • Gefällt mir
Reaktionen: metoer, Ja_Ge, Oberst08 und eine weitere Person
Die Hürden für gute Performance sind trotzdem recht hoch für Unbedarfte PC Nutzer. Gerade bei OEM Systemen könnte die B580 schwächeln.
 
stefan92x schrieb:
Wenn man wissen will, wie abhängig eine GPU von der CPU ist, dann halt schon. Und AMD ist da einfach am geringsten beeinflusst.
Es gibt keinerlei Evidenz für deine These. Du hast hier einen Parcour mit 7 Spielen.
RTX 4060 + 14900K schafft im Schnitt 72FPS
7600XT + 14900K schafft im Schnitt 71 FPS

Die 4060 schafft mit dem 12100F 67FPS und die 7600XT 66FPS, was bedeutet, dass der Treiber keine Rolle spielt. Lediglich die ARC bricht um 7% stärker ein, was dem Overhead geschuldet ist, aber selbst das ist extrem Spieleabhängig. Nehme ich lediglich Baldurs Gate heraus, bricht ARC nur um 3,5% mehr ein und das mit einer 57 Euro CPU. Die These, man könne ARC nicht mit einer Budget CPU empfehlen halte ich für sehr weit hergeholt, zumindest basierend auf diesen Ergebnissen is das klar falsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker
Besteht die Problematik bei der A-Reihe auch? Ich würde mal schon vermuten.
 
Weedlord schrieb:
Ich verstehe echt nicht warum Intel den preis nicht einfach senkt um Marktanteile zu bekommen. So wird das jedenfalls nix mit dem GPU Markt für Intel.
Die Produktion und Entwicklung von komplett 0 ist einfach teuer. Und in der jetzige Sparphase ist das einfach schwer den Aktionären zu verkaufen.

Der einzige Grund warum die überhaupt verkauft werden ist, dass wegen der KI eh GPUs entwickelt werden müssen. Da fällt halt so eine b580 mit ab.
 
GrumpyCat schrieb:
...und deswegen kann man eben NICHT so ohne weiteres Grafikkarten und CPUs komplett separat testen bzw. bei Tests des einen immer NUR das Beste vom anderen nehmen (siehe CPU-Tests immer bei lächerlichen Auflösungen und mit der dicksten GPU). Das Zusammenspiel ist einfach etwas komplexer als das, wenigstens bei Spielen.
Das ist vollkommen richtig...der bottleneck muss schon sehr gut austariert sein und deswegen wundere ich mich über so einiger Signaturen hier...Aber so viele Konfigurationen zu testen ist für CB schlicht unmöglich
 
Wer sich die Thematik CPU Overhead mit RTX 4080 Super und RX 7900XTX anschauen will.
Die Zusammenfassung ist da für den Vergleich schön aufbereitet.

CPU Overhead.jpg


Quelle: Youtube Link
 
  • Gefällt mir
Reaktionen: stevefrogs und Quidproquo77
AMD-Flo schrieb:
So lange die RX6750XT mit 16 Lanes für 339€ verfügbar ist, fährt man mit dieser Karte an besten, die 7600XT ist gemessen an der Leistung einfach zu teuer, da helfen auch schlecht angebundene 16 GB nicht weiter.
Das sehe ich ganz genauso...
 
  • Gefällt mir
Reaktionen: Casillas
Zurück
Oben