Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen
Intels Grafikkarten der Battlemage-Serie alias Arc B580 und B570 verlieren auf kleineren/älteren CPUs mehr Leistung als die direkten Konkurrenten GeForce RTX 4060 und Radeon RX 7600 XT, das haben „CPU-Overhead-Tests“ auf AMD Ryzen gezeigt. Dieser Test mit Intel-Core-CPUs von 4 bis 24 Kernen bestätigt die Probleme.
Guter Test, wirklich relevant gewesen wäre aber imho das Einbeziehen z.b. eines i5-12400/13400 oder 7500F,
sprich CPUs die gerade P/L-Seitig an der Spitze liegen, günstig sind, und am ehesten mit so einer GPU gepaired werden sollten. Alternativ instressant wär ältere Med/Budget-Geschichten ala 5800x/5600x. So habt ihr fast nur CPUs drin, das bis auf den i5 selten mit solchen GPUs kombiniert werden werden.
Finde ich jetzt weniger dramatisch. 7-8% Punkte mehr Verlust bei einem ziemlich langsamem 12100F als eine 4060 und 0% Verlust zwischen 14900K und 13600KF. Das würde bedeuten ein 7500F könnte reichen. Wäre noch interessant gewesen, was mit einem Ryzen 1600/2600 rauskäme, denn ein 12100F wird normal nicht für ein Gamingsystem gekauft werden.
Auf jeden Fall hat Intel in manchen Spielen noch einige Treiberarbeit vor sich.
Irgendwo (HardwareDealz?) habe ich gerade einen Test der B570 gesehen. Auch dieser kleine Bruder der B580 wird es mit diesem Preis schwer gegen die Konkurrenz haben. Vielen Dank für diesen Test. Nun warte ich noch sehnsüchtig auf einen Test der kommenden? RX 9060 (XT).
Edit: Also irgendwie habe ich die Thematik dieses Tests total verpeilt.
@Quidproquo77 Ja aber dann wäre ja grade jetzt die Möglichkeit sich einen Namen zu machen und Aufmerksamkeit durch niedrige Preise zu bekommen. Auch wenn dann die Lager leergekauft werden. ;D
Ich behaupte der Preis wird letztlich auch wenn die Verfügbarkeit besser ist nicht fallen, der fällt gefühlt seit 8 Jahren nicht mehr.
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?
Puhh, Intel machts einem aber nicht leicht ihre Karten zu empfehlen.
Auf was man da alles achten muss, ist schon überdurchschnittlich...
Die Karten haben PCIe 4.0 x8, auf ein Board mit 3.0 hat es eine Leistung wie PCIe 2.0 x16.
rBAR sollte unbedingt vorhanden und aktiv sein, sonst verliert man massiv Leistung.
ASPM und Energiesparplan muss man anpassen, sonst säuft die Karte im Leerlauf wie ein Loch.
Jetzt dieser Hammer, gerade die Käufer so einer Karte haben eher keine starke CPU verbaut, obwohl das offenbar auch sehr wichtig ist.
Ich weiß ja nicht.
Als wir damals eine Arc A750 LE gehabt hatten, war ich nicht so pessimistisch wie heute.
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Normaler usecase sind doch eher System auf Budget Niveau - also genau in dem Bereich wo die GPU massiv an Leistung verliert durch kleiner CPU...
...und deswegen kann man eben NICHT so ohne weiteres Grafikkarten und CPUs komplett separat testen bzw. bei Tests des einen immer NUR das Beste vom anderen nehmen (siehe CPU-Tests immer bei lächerlichen Auflösungen und mit der dicksten GPU). Das Zusammenspiel ist einfach etwas komplexer als das, wenigstens bei Spielen.
Nvidia Leistungrating mit den beiden schwächeren CPUs: 100% und 93%
AMD Leistungrating: 98% und 94%
Nvidia Frametimes mit den beiden schwächeren CPUs: 98% und 90%
AMD Frametimes: 98% und 93%
Nimmt man Frostpunk 2 raus, wo die 4060 am meisten eingebremst wird, sieht es bei den FPS minimal besser aus für Nvidia (nur noch 3% Verlust mit dem 12100F gegenüber 5 bei AMD), dafür legt AMD nochmal bei den Frametimes zu (nur 4% Verlust statt wie Nvidia 7).
Ich kann wahrlich kein Szenario konstruieren, wo dieser Test irgendeinen nennenswerten Vorteil im CPU-Limit für Nvidia zeigt.
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Normaler usecase sind doch eher System auf Budget Niveau - also genau in dem Bereich wo die GPU massiv an Leistung verliert durch kleiner CPU...