Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

stefan92x schrieb:
Also wenn ich viel Multimedia-Kram mache, sind die nicht verkehrt. Denn Encoder etc bieten die reichlich, während man dafür nicht unbedingt haufenweise Shader braucht.

Mehr Encoder, als die Intel iGPUs ? Mit denen kann man sich den zusätzlichen Stromfresser komplett sparen.
 
officeee schrieb:
Gerade CPUs im Bereich 100-160€ (12400F-14400) / 7500F sehen da schon viel besser aus und sind preislich auch deutlich passender bei einer 300€ GPU.
ruthi91 schrieb:
Hier fehlen die populären LowBudget-CPUs wie Ryzen 5600, 7500 oder Intel 12400, 13400.
Verkehrt finde ich es nicht mit dem 12100 erstmal so eine der untersten noch interessanten Einsteiger CPUs genommen zu haben, ein 12400 wäre mMn. noch interessant gewesen.
Was den Rest angeht gibts bei HWUB einmal einen Test mit den AMD Ryzen CPUs 3600, 5600, 5700X3D und 7600, leider nur 4 Spiele und damit nur begrenzt aussagekräftig, wobei man bei Spider-Man durchaus auch bei einem 7600/5700X3D noch Overhead sehen kann.
Für den 5600 gibts noch einen wesentlich umfangreicheren Test auch hier sieht man über alle Spiele hinweg einen deutlichen Unterschied.

Auch wenn man sich jetzt vielleicht nicht unbedingt einen 12100 kauft, läuft es bei solchen GPUs dann doch eher auf CPUs im Bereich 100-150€ hinaus, zumindest bei der B570 wäre jetzt auch der 12100 nicht komplett abwegig.
Man muss hier auch noch bedenken, dass die Intel GPUs hierzulande mMn. auch im Verhältnis zu teuer sind.
Neodar schrieb:
Würde Intel die B570 für 200-200€ anbieten und die B580 für 250-270€, könnte man sich das überlegen. Aber mit 270€+ und 320€+ haben die Dinger schlicht keinen Vorteil gegenüber der Konkurrenz, sondern nur Nachteile.
Da würde ich die Teile auch sehen, wenn die Overhead Problematik nicht wäre, könnten sie in dem Preisbereich durchaus punkten, sofern es nicht noch eine softwareseitige Lösung für das Problem gibt dürfte Arc eine Nische bleiben dabei würde gerade im Bereich bis 300€ etwas Bewegung dem Markt guttun.
 
sarge05 schrieb:
Wieso habt Ihr nicht mit i3-14100 getestet ?
Der i3-14100 ist ein ebenfalls Alder Lake und damit einfach nur ein minimal höher taktender 12100 (mit entsprechend höherer TDP)
Ergänzung ()

In Starfield hat man mit der Arc 20 Prozent mehr Verlust als mit der RX 7600XT. Das heißt, man müsste eine 20 Prozent stärkere CPU sich holen.

69 Euro i3 12100F+ 330 Euro RX 7600XT = 399 Euro

für gleichwertige Leistung mit Arc 20% (in Games) schnellere CPU wäre ein 12600K

169 Euro i5 12600K + 319 Euro B580 = 488 Euro

=> Die B580 muss günstiger werden, dann kann man sich auch eine stärkere CPU für die Arc leisten und damit den Nachteil gegenüber AMD ausgleichen.

1737138496725.png



https://www.computerbase.de/artikel...abschnitt_gamingbenchmarks_im_cpulimit_rating
Ergänzung ()

Quidproquo77 schrieb:
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Die CPU ist teils langsamer als ein Ryzen 1600. Ein Ryzen 5 5600/12400F ist fast 50% flotter unterwegs, gut kostet auch 90 Euro, aber da sollte man nicht sparen.

Der Ryzen 5 5600 ist in Spielen gerade mal 3 Prozent schneller als der i3 13100 , siehe oben und damit max. 4-5 Prozent schneller als der 12100F, also quasi gleiche Leistungsklasse, was Spiele angeht.
 
Zuletzt bearbeitet:
DerRico schrieb:
aber bei NV läuft halt immer alles ab Tag eins
Das ist aber auch nur besseres Marketing dann DLSS 3 3.5 und co lief auch nicht immer an Tag eins in allen oder auch nur den meisten Games.

Es mag graduell besser sein aber "alles ab Tag eins" ist doch was anderes.

Auch diese Speichersave technologie und die neuen Fake frames wird auch nicht beim Release in allen Games laufen... es läuft in ner Techdemo dann... ja ok... aber ist das der Maßstab?

Nvidia ist bestenfalls der einäugige unter den Blinden.
 
  • Gefällt mir
Reaktionen: kryzs und Ja_Ge
Finde es allerdings schade, daß die Tests nicht (auch) in 1440p und, zumindest in ein paar Beispielen, mit RayTracing gemacht wurden. GN hat erst kürzlich ähnliche Tests gemacht, und dabei wieder beobachtet, daß die Battlemage dGPUs bei 1440p gegenüber 1080p (gleiche Qualität) kaum FPS verlieren.
Allerdings sind die Battlemage bei den derzeitigen Wucherpreisen, die v.a. hier in Deutschland aufgerufen werden, wirklich nicht konkurrenzfähig. Zum UVP ist das mE allerdings anders.
 
  • Gefällt mir
Reaktionen: Meinz und kryzs
Mimir schrieb:
Das würde ja heißen, selbst wenn bei AMD die Performance im CPU Limit nur halb so hoch wäre, wie bei Nvidia, solange der Leistungsunterschied zwischen 14900K und 12100F bei AMD relativ zu einander geringer ist, ist AMD besser?
Es geht doch bei dem Test nicht darum wer die beste Grafikkarte herstellt sondern wie sich das Preis/Leistung verschiebt bei schwächeren CPU's und das tut es zu Gunsten AMD.
AMD wird hier trotz 1-2 fps bei diesen wenigen Games weniger hat oft, bevorzugt weil 16 statt 8gb VRAM nicht einfach ignoriert wird.

Will man das konkret sehen muss man ein UE5 Game mit testen und schon zieht die Radeon davon, weil den anderen der VRAM aus geht.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Mich würde interessieren, wieso es bei Ghost of Tsushima kaum Unterschiede macht und bei Hellblade 2 keinen.
 
  • Gefällt mir
Reaktionen: Chismon und whynot?
joel schrieb:
Das Scenario ist nicht wirklichkeitsnah.
Na, weiß ich nicht. Da ich selbst mit dem Gedanken gespielt habe, mir einen kleinen Rechner für SinglePlayer Games zuzulegen und in den Budgetgrenzen einer Konsole zu bleiben, war tatsächlich diese Kombination gut dabei. Die B580 scheidet für mich letztlich komplett aus, einfach weil eine 6700XT im Gebrauchtmarke mehr leistet und weniger kostet, aber der 12100f ist auch bei mir in der engeren Auswahl gewesen. Ich brauche im Budgetbuild halt keine 140 FPS, dafür zählt jeder gesparte Euro. Leider ist der Gebrauchtmarkt im CPU Bereich total kaputt und der 12100f echt nen Schnäppchen.
Jetzt habe ich mich durchgerungen noch ein wenig zu warten und ein Fach höher ins Regal zugreifen. Aber für jemanden der vielleicht seinem Kind den erste Gaming PC statt einer Konsole schenken möchte und vor Gebrauchtteilen zurückschreckt, für den ist die Kombi tatsächlich nicht so verkehrt.
 
Convert schrieb:
Der Ryzen 5 5600 ist in Spielen gerade mal 3 Prozent schneller als der i3 13100 , siehe oben und damit max. 4-5 Prozent schneller als der 12100F, also quasi gleiche Leistungsklasse, was Spiele angeht.
Stimmt, bei Hardware Unboxed ist der 5600 allerdings damals 30% schneller gewesen.
blackiwid schrieb:
Auch diese Speichersave technologie und die neuen Fake frames wird auch nicht beim Release in allen Games laufen... es läuft in ner Techdemo dann... ja ok... aber ist das der Maßstab?
Nö, läuft in allen 75 Spielen über die Nvidia App, da wird DLSS4 automatisch bei den Spielen hinzugefügt.
 
meckswell schrieb:
Der 12100 ist ca. gleich in Gaming wie der 8700K.
Hast Du da Belege für? Der 12100 ist im Singlethread ca. 25% schneller als der 8700K. Nach meiner Schätzung müsste er dann auch im Gaming einen Vorsprung in dieser Größenordnung haben. Bei den Spielen des Jahres 2017 war der 8700K doch nur geringfügig schneller als der 7700K.

Den Test der Mittelklasse-Grafikkarten mit Prozessoren, die "normal" und nicht "highend" sind, fand ich übrigens sehr interessant.

Ein Testergebnis ist ja, welche Auswirkung die Kern/Thread-Anzahl auf die Spieleleistung hat. Rein von den gelieferten fps ist es ernüchternd, dass auch im Jahre 2025 ein Quadcore für das meiste noch auskömmlich ist. Mit Frostpunk ist nur ein einziges Spiel im Testparcour, das mit einem Quadcore deutlich abfällt.

Interessant wäre vielleicht noch ein Zusatztest, der belegen würde, das auch eine der neueren X3D-CPUs unter FullHD keine zusätzliche Leistung aus einer Grafikkarte der unteren Mittelklasse herausholen könnte, da die Teile da idR schon von einem i3 voll ausgelastet werden.
 
Gurfaild schrieb:

Und wieviel potentielle Käufer einer Grafikkarte dieser Preisklasse brauchen einen av1 Encoder in Hardware?
Hier im Forum sind ja noch Einige mit RDNA2 unterwegs. Kann mich nicht erinnern, dass sich diese über den fehlenden Encoder beschweren.

Ich muss ganz ehrlich gestehen, dass ich ja zu erst dachte, dass RDNA2 noch nichtmal decodieren kann. Aber können sie.

Das Argument des AV1 Encoders dieser Intel Karten als gewichtigen Vorteil gegenüber einer 6750XT aufzuzählen grenzt für mich schon fast an Lächerlichkeit, wenn man sich die Vorteile dieser Karte gegenüber B580 und B570 anschaut.

Jetzt diskutieren wir hier über den overhead des Treibers. Ausgeblendet wird die teilweise krasse inkonsistenz der Leistung bei einigen Spielen und die allg Treiberprobleme (siehe cb Test zur B580). Mit diesen beiden Fakten sind die Karten einfach nicht zu empfehlen.
 
  • Gefällt mir
Reaktionen: LamaMitHut und maxi_rodriges
Der Test zeigt mir wesentliches auf:

  • Alle drei Karten haben ähnliche Leistung. Läuft ein Spiel mit gut spielbaren Frameraten auf Nvidia, dann läuft es auch auf AMD und ebenso auf Intel.
  • der Parkour wurde wieder mal VRAM freundlich ausgelegt.
  • XeSS wieder gänzlich ausgeschlossen?!?

Ist schon irgendwie ungewöhnlich und auffällig.


Btw, ich weiss, Computerbase kann nur das nutzen, was auch verfügbar ist und "Leihgaben" von anderen Redaktionen bzw. Systemhäusern gibts nicht mehr (aus gutem Grund), trotzdem hätte ich den Test anders aufgezogen:

-AMD AM4 Plattform
-PCIe 3.0
-5700x3D CPU und ältere Zen 1, 2 und 3
-grafiklastigere Settings
 
  • Gefällt mir
Reaktionen: simosh und Fresh-D
Quidproquo77 schrieb:
Stimmt, bei Hardware Unboxed ist der 5600 allerdings damals 30% schneller gewesen.
Ich sehe keinen 5600 in dem Video, sondern einen 5600X.
Der 5600X hat in dem Video in den 10 Spielen auch keine 30% Vorsprung, sondern 20 %


Der 13100F ist 3 Prozent schneller als der 1200F in Spielen:

https://www.computerbase.de/artikel...est.83233/#abschnitt_leistung_in_spielen_720p


Der 5600X wurde bei CB mit 17 % Vorsprung vor dem 1200F in Spielen herausgemessen:

https://www.computerbase.de/artikel...bschnitt_spielebenchmarks_in_720p_fhd_und_uhd

5600X ist in Spielen so schnell wie der 5700X
 
Zuletzt bearbeitet:
Genau deswegen sollte man bei den Benchmarks auch auf realistische Hardwarekombinationen setzen. Nicht immer nur CPU-Tests mit einer 4090 und 720p oder GPU-Tests mit einem 9800X3D.
 
  • Gefällt mir
Reaktionen: vinacis_vivids und Gullveig
gartenriese schrieb:
Nicht immer nur CPU-Tests mit einer 4090 und 720p oder GPU-Tests mit einem 9800X3D.
im CPU Test geht es einzig und allein darum nicht ins GPU Limit zu rennen, sodass die Grafikkarte die Ergebnisse verfälscht und bei nem GPU Test möchte man wissen was die Grafikkarte leistet, was bringt es dir mit nem 5600/12400 ne 4090 in 4K zu testen, wenn diese im CPU Limit dann irgendwo bei 70% Auslastung rum dümpelt weil die CPU zu langsam ist um diese auszulasten

macht keinen Sinn oder ? wenn du wissen willst was CPU X und Grafikkarte Y an FPS liefern, dann schau dir Tests im CPU oder im GPU Limit an, ist kein Hexenwerk das ganze und auch keine Wissenschaft, auch wenn es jedes mal in den jeweiligen Tests, in den Kommentaren darunter, den Anschein hat
Ergänzung ()

als Beispiel ein 5600 macht seine 60FPS in ultra Details, dann such dir dahingehend eine passende Grafikkarte in deiner gewählten Auflösung

das einzige was man wohl der Übersichthalber ankreiden könnte, das man die Test Ergebnisse der CPU zum Release damals oder auch eine Generation danach, nicht mehr 1:1 in aktuelle Titel übernehmen kann, um sich ein Bild machen zu können was die CPU von damals Heute noch liefert,

außer man schaut sich vielleicht Youtube Videos an, von Leutz die es im gewünschten Spiel mitgeschnitten haben oder man testet es selbst aus was die eigene CPU noch an Leistung liefert, wenn man denn das Game hat, um zu entscheiden welche Grafikkarte man künftig aufrüstet oder am besten gleich beides

indem man halt soweit wie möglich mit der Auflösung runter geht, ggf. noch FSR oder DLSS auf Performance stellt um so die GPU Last zu verringen und dann in high Details schaut, da man sicher ja nicht in low Details zockt, was deine CPU an FPS noch liefert

genau wie im 720P Test der Hardware Redaktionen, auch wenn nicht jeder eine entsprechend schnelle 4090 zur Verfügung hat, kann man immer noch wie gesagt die Details auf high stellen, da eh kaum ein optischer Mehrwert gegenüber ultra Details besteht und man dann noch weiter als 720P runter geht

denn der CPU ist die Auflösung vollkommen wumpe und liefert in jeder die selben FPS und nur die Grafikkarte ist dann dafür verantwortlich, diese gelieferten FPS in GPU lastige Details und Auflösung umzuwandeln, nicht wirklich schwer zu kapieren
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius
Hardware Unboxed hatte mal dazu vor ein paar Jahren ein Video gemacht.
Anscheinend hat sich da Nvidia verbessert:
 
Mir kommen seit dieser Erkenntnis einige Gedanken.

Je größer der Overhead, umso schlechter performt Battlemage. Das erklärt auch das bessere Abschneiden in 1440p. Man muss einmal überlegen, wie gut diese Grafikkarten abschneiden könnten, wenn dieser Overhead auf nvidias Level wäre. Bei AMD ist dieser halt noch etwas besser.
Raytracing ist besser und XeSS mit XMX ist auch eher besser als FSR3.1 bei AMD. Und wenn der Linux-Treiber auch endlich anwendbar wird, wäre Intel eine gute Alternative zu AMD (nvidia ist da anders ...).

Man könnte sich jetzt einen Aluhut aufsetzen und sagen, Intel hat den (US-)Preis so angesetzt, dass sie einen guten Einstand bei den Reviews bekommen und währenddessen die Zeit bekommen, weiter am Treiber zu arbeiten. Die Kompatibilität muss zwar weiter besser werden, besonders für UE5 Spiele, aber das läuft. Ich würde den Overhead sogar als wichtiger anrechnen, weil dieser die Verkaufszahlen eher drücken kann.
Wenn sich die Leistung, wie sich in einigen Spielen erahnen lassen könnte, ohne Overhead generell einpendelt, wäre der Preis vollkommen angemessen!
 
Zurück
Oben