Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen
Also wenn ich viel Multimedia-Kram mache, sind die nicht verkehrt. Denn Encoder etc bieten die reichlich, während man dafür nicht unbedingt haufenweise Shader braucht.
Verkehrt finde ich es nicht mit dem 12100 erstmal so eine der untersten noch interessanten Einsteiger CPUs genommen zu haben, ein 12400 wäre mMn. noch interessant gewesen.
Was den Rest angeht gibts bei HWUB einmal einen Test mit den AMD Ryzen CPUs 3600, 5600, 5700X3D und 7600, leider nur 4 Spiele und damit nur begrenzt aussagekräftig, wobei man bei Spider-Man durchaus auch bei einem 7600/5700X3D noch Overhead sehen kann. Für den 5600 gibts noch einen wesentlich umfangreicheren Test auch hier sieht man über alle Spiele hinweg einen deutlichen Unterschied.
Auch wenn man sich jetzt vielleicht nicht unbedingt einen 12100 kauft, läuft es bei solchen GPUs dann doch eher auf CPUs im Bereich 100-150€ hinaus, zumindest bei der B570 wäre jetzt auch der 12100 nicht komplett abwegig.
Man muss hier auch noch bedenken, dass die Intel GPUs hierzulande mMn. auch im Verhältnis zu teuer sind.
Neodar schrieb:
Würde Intel die B570 für 200-200€ anbieten und die B580 für 250-270€, könnte man sich das überlegen. Aber mit 270€+ und 320€+ haben die Dinger schlicht keinen Vorteil gegenüber der Konkurrenz, sondern nur Nachteile.
Da würde ich die Teile auch sehen, wenn die Overhead Problematik nicht wäre, könnten sie in dem Preisbereich durchaus punkten, sofern es nicht noch eine softwareseitige Lösung für das Problem gibt dürfte Arc eine Nische bleiben dabei würde gerade im Bereich bis 300€ etwas Bewegung dem Markt guttun.
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Die CPU ist teils langsamer als ein Ryzen 1600. Ein Ryzen 5 5600/12400F ist fast 50% flotter unterwegs, gut kostet auch 90 Euro, aber da sollte man nicht sparen.
Der Ryzen 5 5600 ist in Spielen gerade mal 3 Prozent schneller als der i3 13100 , siehe oben und damit max. 4-5 Prozent schneller als der 12100F, also quasi gleiche Leistungsklasse, was Spiele angeht.
Das ist aber auch nur besseres Marketing dann DLSS 3 3.5 und co lief auch nicht immer an Tag eins in allen oder auch nur den meisten Games.
Es mag graduell besser sein aber "alles ab Tag eins" ist doch was anderes.
Auch diese Speichersave technologie und die neuen Fake frames wird auch nicht beim Release in allen Games laufen... es läuft in ner Techdemo dann... ja ok... aber ist das der Maßstab?
Nvidia ist bestenfalls der einäugige unter den Blinden.
Finde es allerdings schade, daß die Tests nicht (auch) in 1440p und, zumindest in ein paar Beispielen, mit RayTracing gemacht wurden. GN hat erst kürzlich ähnliche Tests gemacht, und dabei wieder beobachtet, daß die Battlemage dGPUs bei 1440p gegenüber 1080p (gleiche Qualität) kaum FPS verlieren.
Allerdings sind die Battlemage bei den derzeitigen Wucherpreisen, die v.a. hier in Deutschland aufgerufen werden, wirklich nicht konkurrenzfähig. Zum UVP ist das mE allerdings anders.
Das würde ja heißen, selbst wenn bei AMD die Performance im CPU Limit nur halb so hoch wäre, wie bei Nvidia, solange der Leistungsunterschied zwischen 14900K und 12100F bei AMD relativ zu einander geringer ist, ist AMD besser?
Es geht doch bei dem Test nicht darum wer die beste Grafikkarte herstellt sondern wie sich das Preis/Leistung verschiebt bei schwächeren CPU's und das tut es zu Gunsten AMD.
AMD wird hier trotz 1-2 fps bei diesen wenigen Games weniger hat oft, bevorzugt weil 16 statt 8gb VRAM nicht einfach ignoriert wird.
Will man das konkret sehen muss man ein UE5 Game mit testen und schon zieht die Radeon davon, weil den anderen der VRAM aus geht.
Na, weiß ich nicht. Da ich selbst mit dem Gedanken gespielt habe, mir einen kleinen Rechner für SinglePlayer Games zuzulegen und in den Budgetgrenzen einer Konsole zu bleiben, war tatsächlich diese Kombination gut dabei. Die B580 scheidet für mich letztlich komplett aus, einfach weil eine 6700XT im Gebrauchtmarke mehr leistet und weniger kostet, aber der 12100f ist auch bei mir in der engeren Auswahl gewesen. Ich brauche im Budgetbuild halt keine 140 FPS, dafür zählt jeder gesparte Euro. Leider ist der Gebrauchtmarkt im CPU Bereich total kaputt und der 12100f echt nen Schnäppchen.
Jetzt habe ich mich durchgerungen noch ein wenig zu warten und ein Fach höher ins Regal zugreifen. Aber für jemanden der vielleicht seinem Kind den erste Gaming PC statt einer Konsole schenken möchte und vor Gebrauchtteilen zurückschreckt, für den ist die Kombi tatsächlich nicht so verkehrt.
Der Ryzen 5 5600 ist in Spielen gerade mal 3 Prozent schneller als der i3 13100 , siehe oben und damit max. 4-5 Prozent schneller als der 12100F, also quasi gleiche Leistungsklasse, was Spiele angeht.
Auch diese Speichersave technologie und die neuen Fake frames wird auch nicht beim Release in allen Games laufen... es läuft in ner Techdemo dann... ja ok... aber ist das der Maßstab?
Hast Du da Belege für? Der 12100 ist im Singlethread ca. 25% schneller als der 8700K. Nach meiner Schätzung müsste er dann auch im Gaming einen Vorsprung in dieser Größenordnung haben. Bei den Spielen des Jahres 2017 war der 8700K doch nur geringfügig schneller als der 7700K.
Den Test der Mittelklasse-Grafikkarten mit Prozessoren, die "normal" und nicht "highend" sind, fand ich übrigens sehr interessant.
Ein Testergebnis ist ja, welche Auswirkung die Kern/Thread-Anzahl auf die Spieleleistung hat. Rein von den gelieferten fps ist es ernüchternd, dass auch im Jahre 2025 ein Quadcore für das meiste noch auskömmlich ist. Mit Frostpunk ist nur ein einziges Spiel im Testparcour, das mit einem Quadcore deutlich abfällt.
Interessant wäre vielleicht noch ein Zusatztest, der belegen würde, das auch eine der neueren X3D-CPUs unter FullHD keine zusätzliche Leistung aus einer Grafikkarte der unteren Mittelklasse herausholen könnte, da die Teile da idR schon von einem i3 voll ausgelastet werden.
@Juri-Bär Ich hatte den CB-Test des 12100F im Kopf, die Erinnerungen haben sich verfälscht. Der 12100 ist in der Tat im Gaming 11% vor dem 8700K. Der wiederum ist 17% vor dem 7700K.
Und wieviel potentielle Käufer einer Grafikkarte dieser Preisklasse brauchen einen av1 Encoder in Hardware?
Hier im Forum sind ja noch Einige mit RDNA2 unterwegs. Kann mich nicht erinnern, dass sich diese über den fehlenden Encoder beschweren.
Ich muss ganz ehrlich gestehen, dass ich ja zu erst dachte, dass RDNA2 noch nichtmal decodieren kann. Aber können sie.
Das Argument des AV1 Encoders dieser Intel Karten als gewichtigen Vorteil gegenüber einer 6750XT aufzuzählen grenzt für mich schon fast an Lächerlichkeit, wenn man sich die Vorteile dieser Karte gegenüber B580 und B570 anschaut.
Jetzt diskutieren wir hier über den overhead des Treibers. Ausgeblendet wird die teilweise krasse inkonsistenz der Leistung bei einigen Spielen und die allg Treiberprobleme (siehe cb Test zur B580). Mit diesen beiden Fakten sind die Karten einfach nicht zu empfehlen.
Alle drei Karten haben ähnliche Leistung. Läuft ein Spiel mit gut spielbaren Frameraten auf Nvidia, dann läuft es auch auf AMD und ebenso auf Intel.
der Parkour wurde wieder mal VRAM freundlich ausgelegt.
XeSS wieder gänzlich ausgeschlossen?!?
Ist schon irgendwie ungewöhnlich und auffällig.
Btw, ich weiss, Computerbase kann nur das nutzen, was auch verfügbar ist und "Leihgaben" von anderen Redaktionen bzw. Systemhäusern gibts nicht mehr (aus gutem Grund), trotzdem hätte ich den Test anders aufgezogen:
-AMD AM4 Plattform
-PCIe 3.0
-5700x3D CPU und ältere Zen 1, 2 und 3
-grafiklastigere Settings