Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.841
Intels Grafikkarten der Battlemage-Serie alias Arc B580 und B570 verlieren auf kleineren/älteren CPUs mehr Leistung als die direkten Konkurrenten GeForce RTX 4060 und Radeon RX 7600 XT, das haben „CPU-Overhead-Tests“ auf AMD Ryzen gezeigt. Dieser Test mit Intel-Core-CPUs von 4 bis 24 Kernen bestätigt die Probleme.

Zum Test: CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen
 
  • Gefällt mir
Reaktionen: Mcr-King, axi, CueSystem und 35 andere
Im der Mittelklasse scheint die CPU größtenteils egal zu sein. Da tut es auch was für um die 100 Euro bzw. im Einstiegssegment.
 
Guter Test, wirklich relevant gewesen wäre aber imho das Einbeziehen z.b. eines i5-12400/13400 oder 7500F,
sprich CPUs die gerade P/L-Seitig an der Spitze liegen, günstig sind, und am ehesten mit so einer GPU gepaired werden sollten. Alternativ instressant wär ältere Med/Budget-Geschichten ala 5800x/5600x. So habt ihr fast nur CPUs drin, das bis auf den i5 selten mit solchen GPUs kombiniert werden werden.
 
  • Gefällt mir
Reaktionen: andrenikas, icetom, Känguru und 11 andere
Finde ich jetzt weniger dramatisch. 7-8% Punkte mehr Verlust bei einem ziemlich langsamem 12100F als eine 4060 und 0% Verlust zwischen 14900K und 13600KF. Das würde bedeuten ein 7500F könnte reichen. Wäre noch interessant gewesen, was mit einem Ryzen 1600/2600 rauskäme, denn ein 12100F wird normal nicht für ein Gamingsystem gekauft werden.

Auf jeden Fall hat Intel in manchen Spielen noch einige Treiberarbeit vor sich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alpha008, Zocker1996, Termy und eine weitere Person
Irgendwo (HardwareDealz?) habe ich gerade einen Test der B570 gesehen. Auch dieser kleine Bruder der B580 wird es mit diesem Preis schwer gegen die Konkurrenz haben. Vielen Dank für diesen Test. Nun warte ich noch sehnsüchtig auf einen Test der kommenden? RX 9060 (XT).

Edit: Also irgendwie habe ich die Thematik dieses Tests total verpeilt. :D
 
  • Gefällt mir
Reaktionen: Pisaro
Weedlord schrieb:
Ich verstehe echt nicht warum Intel den preis nicht einfach senkt um Marktanteile zu bekommen. So wird das jedenfalls nix mit dem GPU Markt für Intel.
Liegt an der Verfügbarkeit. Bei normaler Verfügbarkeit würde das ding nicht mehr als 250*1,19 abzüglich Wechselkurs kosten, also unter 300.
 
  • Gefällt mir
Reaktionen: Zocker1996
@Quidproquo77 Ja aber dann wäre ja grade jetzt die Möglichkeit sich einen Namen zu machen und Aufmerksamkeit durch niedrige Preise zu bekommen. Auch wenn dann die Lager leergekauft werden. ;D

Ich behaupte der Preis wird letztlich auch wenn die Verfügbarkeit besser ist nicht fallen, der fällt gefühlt seit 8 Jahren nicht mehr.
 
Schöner Test - ich frage mich jetzt unweigerlich, wie die Situation auf Linux aussieht :D
Wäre doch mal was @Kaito Kariheddo , oder? 😇
 
  • Gefällt mir
Reaktionen: Turbolord, dasBaum_CH, Ginlock und 4 andere
Nitschi66 schrieb:
Cooler Test, danke! Ein bisschen erkennt man an den Ergebnissen aber auch, dass NVidia nochmal etwas besser im CPU-Limit arbeitet als AMD.
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?
 
  • Gefällt mir
Reaktionen: Slim.Shady, tic-tac-toe-x-o, .fF und 13 andere
Puhh, Intel machts einem aber nicht leicht ihre Karten zu empfehlen.

Auf was man da alles achten muss, ist schon überdurchschnittlich...
Die Karten haben PCIe 4.0 x8, auf ein Board mit 3.0 hat es eine Leistung wie PCIe 2.0 x16.
rBAR sollte unbedingt vorhanden und aktiv sein, sonst verliert man massiv Leistung.
ASPM und Energiesparplan muss man anpassen, sonst säuft die Karte im Leerlauf wie ein Loch.
Jetzt dieser Hammer, gerade die Käufer so einer Karte haben eher keine starke CPU verbaut, obwohl das offenbar auch sehr wichtig ist.

Ich weiß ja nicht.

Als wir damals eine Arc A750 LE gehabt hatten, war ich nicht so pessimistisch wie heute.
 
  • Gefällt mir
Reaktionen: JMP $FCE2, devanet, Turbolord und 4 andere
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Normaler usecase sind doch eher System auf Budget Niveau - also genau in dem Bereich wo die GPU massiv an Leistung verliert durch kleiner CPU...
 
  • Gefällt mir
Reaktionen: Legalev, JMP $FCE2, Zocker1996 und 6 andere
...und deswegen kann man eben NICHT so ohne weiteres Grafikkarten und CPUs komplett separat testen bzw. bei Tests des einen immer NUR das Beste vom anderen nehmen (siehe CPU-Tests immer bei lächerlichen Auflösungen und mit der dicksten GPU). Das Zusammenspiel ist einfach etwas komplexer als das, wenigstens bei Spielen.
 
  • Gefällt mir
Reaktionen: Elch79
@Jan Ach, ihr habt auch einen Test gemacht.:o Nee, den Test, den ich gesehen hatte, war tatsächlich bei den Kollegen von HardwareDealz. ;)
 
  • Gefällt mir
Reaktionen: Jan
Nitschi66 schrieb:
Ein bisschen erkennt man an den Ergebnissen aber auch, dass NVidia nochmal etwas besser im CPU-Limit arbeitet als AMD.
Nvidia Leistungrating mit den beiden schwächeren CPUs: 100% und 93%
AMD Leistungrating: 98% und 94%

Nvidia Frametimes mit den beiden schwächeren CPUs: 98% und 90%
AMD Frametimes: 98% und 93%

Nimmt man Frostpunk 2 raus, wo die 4060 am meisten eingebremst wird, sieht es bei den FPS minimal besser aus für Nvidia (nur noch 3% Verlust mit dem 12100F gegenüber 5 bei AMD), dafür legt AMD nochmal bei den Frametimes zu (nur 4% Verlust statt wie Nvidia 7).
Ich kann wahrlich kein Szenario konstruieren, wo dieser Test irgendeinen nennenswerten Vorteil im CPU-Limit für Nvidia zeigt.
 
  • Gefällt mir
Reaktionen: Fritzler, tic-tac-toe-x-o, eSportWarrior und 12 andere
GUN2504 schrieb:
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Doch ich, eine 12 Kern+ CPU ist mir wichtiger als eine GPU. Ich bin niemals im CPU Limit.
Danke für den Test! Sehr sehr nice!
 
  • Gefällt mir
Reaktionen: Redundanz und GUN2504
GUN2504 schrieb:
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Normaler usecase sind doch eher System auf Budget Niveau - also genau in dem Bereich wo die GPU massiv an Leistung verliert durch kleiner CPU...
Joa sind die. Wenn der Preis wenigstens niedrig wäre, könnte man darüber nachdenken die zu kaufen aber so ist das purer Elektro Schrott
 
  • Gefällt mir
Reaktionen: gedi, Turbolord und GUN2504
Zurück
Oben