Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

GUN2504 schrieb:
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Also wenn ich viel Multimedia-Kram mache, sind die nicht verkehrt. Denn Encoder etc bieten die reichlich, während man dafür nicht unbedingt haufenweise Shader braucht. Aber fette CPUs braucht man auch gerne für Sachen, die man dann doch darauf rendert oder so.

Stimme dir also nur insoweit zu, dass sie für Budget-Gaming keine gute Wahl sind - andere Nischen sehe ich aber schon.
 
  • Gefällt mir
Reaktionen: stevefrogs, Redundanz, Termy und eine weitere Person
GUN2504 schrieb:
Sind die ARC dann nicht nutzlos?
Niemand tut sich so eine GPU in ein System mit HighEnd CPU...
Ein 13600KF ist doch keine High End CPU, das Ding kostet 200 Euro und ist kaum schneller als ein 7500F für 150.
GUN2504 schrieb:
Normaler usecase sind doch eher System auf Budget Niveau - also genau in dem Bereich wo die GPU massiv an Leistung verliert durch kleiner CPU...
Du hast ja so ziemlich die schlechteste CPU die man wählen kann im Test. Den 12100F.^^
 
  • Gefällt mir
Reaktionen: Termy
stefan92x schrieb:
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?
Ich stimme dir zu. Es ist genau umgekehrt. Sowohl bei den avg. FPS als auch bei den Frametimes verliert die RTX 4060 mit schwächerer CPU mehr Leistung als die RX 7600 XT.
 
Quidproquo77 schrieb:
Du hast ja so ziemlich die schlechteste CPU die man wählen kann im Test. Den 12100F.^^
1737119469612.png

Genau so ein System mit der entsprechenden GPU Leistung wird allerdings als Einsteiger PC empfohlen ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
Weedlord schrieb:
Ja aber dann wäre ja grade jetzt die Möglichkeit sich einen Namen zu machen und Aufmerksamkeit durch niedrige Preise zu bekommen. Auch wenn dann die Lager leergekauft werden. ;D
Intel kann sich in seiner aktuellen wirtschaftlichen Situation schlicht keinen aggressiven Preiskampf leisten. Von Marktanteilen alleine wird die Bilanz auch nicht besser, sondern der Verkauf der Produkte muss einen gewissen Gewinn einspielen. Das geht eben nicht, wenn man die Grafikkarten nur der Marktanteile wegen zum Schleuderpreis raushaut.
 
GUN2504 schrieb:
Genau so ein System mit der entsprechenden GPU Leistung wird allerdings als Einsteiger PC empfohlen ;)
Eben, für den absoluten Einstieg. Natürlich wird da ein Sparbrötchen empfohlen.
 
  • Gefällt mir
Reaktionen: Xul und Jan
@stefan92x Und wegen der Tatsache, das die GPU bei Einsteigersystemen so massiv Leistung gegenüber AMD und NV verliert, ist diese nicht empfehlenswert und somit im Markt außer Sonderfällen überflüssig ;)
1737119757285.png
 
stefan92x schrieb:
Eben, für den absoluten Einstieg. Natürlich wird da ein Sparbrötchen empfohlen.
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Die CPU ist teils langsamer als ein Ryzen 1600. Ein Ryzen 5 5600/12400F ist fast 50% flotter unterwegs, gut kostet auch 90 Euro, aber da sollte man nicht sparen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chocobo, craxity und GUN2504
Diese krassen Ausreißer bei einigen Spielen (Cyberpunk z.B.) zugunsten der Arc B580 deuten auf ein ziemlich großes softwareseitiges Optimierungspotenzial hin, oder? Während das bei NV und AMD weitgehend ausgeschöpft sein sollte.
 
Schade für Intel und damit für die gesamte GPU-Käuferschaft.
Aber für Intel gilt hier die verschärfte Variante der Fazits zu neuen AMD-GPUs: Wenn man es erklären muss oder auf Wundertreiber warten, ist es einfach kacke. Die Dinger sind tot. Selbst HWU, die ja anfangs auf die Fake-UVP reingefallen sind, empfehlen die Teile nicht einmal mehr zu den billigen USD-Preisen, die es faktisch gar nicht gibt.

Ich werde wieder soviel AMD-GPUs verbauen, wie vertretbar für den jeweiligen Anwendungsbereich, aber bei NV läuft halt immer alles ab Tag eins - und man muss nicht erklären oder auf Treiber warten.
Erst wenn AMD und Intel das auch mal für 2-3 Generationen schaffen; werden sie wirklich als Alternative wahrgenommen
 
  • Gefällt mir
Reaktionen: stevefrogs
GUN2504 schrieb:
@stefan92x Und wegen der Tatsache, das die GPU bei Einsteigersystemen so massiv Leistung gegenüber AMD und NV verliert, ist diese nicht empfehlenswert und somit im Markt außer Sonderfällen überflüssig ;)
Das ist genau die Fehlannahme, die man mit dem alten i3 erzeugt. Gerade CPUs im Bereich 100-160€ (12400F-14400) / 7500F sehen da schon viel besser aus und sind preislich auch deutlich passender bei einer 300€ GPU.
 
Quidproquo77 schrieb:
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Dann skalier das doch mal hoch. Das ist doch die Realität. Gibt auch viele Leute mit einem 5800x3d und z.B. einer 4090. da ist die preisliche Gewichtung ähnlich.
 
Nach unten hin veränderte sich das schon immer. Ein Minimum (100-150€ neu) muss gegeben sein.

Natürlich wäre es schöner, wenn das Teil auch auf 4C/8T-Teilen schön performt, oder alten Sys, nur da hast du dann noch nonReBar-Probleme etc.. Imho ist das "Voraussetzen" eines halbwegs soliden 6C/12T heute nichtmehr völlig absurd. Das ist für mich "Budget" im Gaming-Bereich.
 
Zuletzt bearbeitet:
Normalerweise nimmt man eine Arc im Budget-System.
Dann sind die GPU´s im Moment nicht ideal dafür.
 
Der Treiber der Intel-Grafikkarten legt mehr Last auf die CPU („CPU-Overhead“), kleinere CPUs bremsen Arc-Grafikkarten daher früher aus.
Also bei Nvidia kenne ich das nur durch die Einstellung für vorgerenderte Frames welche bestimmt wie viele Frames für die Berechnung quasi an die CPU abgegeben werden können, da kann ich bei Spielen die im Vergleich ungewöhnlich viel die CPU belasten mal mehr oder weniger die Performance verbessern in dem ich diese Einstellung auf 1 begrenze, aber natürlich nur bei den Spielen welche nicht 1 bereits als Standard nutzen.^^

Wäre interessant ob es diese Einstellung für Intel-Grafikkarten gibt.^^

Ich weiß aber nicht einmal ob AMD das bietet.^^
 
Geht ja auch irgendwie and der Zielgruppe vorbei... Ich baue aktuell in Einsteigersysteme gerne die 7600XT 16GB weil sie einfach perfekt passt :)
 
  • Gefällt mir
Reaktionen: Ja_Ge, Redundanz, Marko 1181 und eine weitere Person
Casillas schrieb:
Dann skalier das doch mal hoch. Das ist doch die Realität. Gibt auch viele Leute mit einem 5800x3d und z.B. einer 4090. da ist die preisliche Gewichtung ähnlich.
Der 5800X3D ist ähnlich schnell wie der 13600KF und der verliert mit ARC im Schnitt quasi keine Leistung. Im Fazit steht zwar auch etwas anderes, aber da fehlt mir die Evidenz für.
Spieler, deren CPU kein High-End-Modell ist, fahren mit einer Radeon RX 7600 XT mit 16 GByte pauschal am besten
Seit wann sind 13600KF/5800X3D und auch ein 7500F High End CPUs?
Zwischen einer 57 Euro CPU und einem 600 Euro 9800X3D gibt es nichts dazwischen?
 
  • Gefällt mir
Reaktionen: Xul
So lange die RX6750XT mit 16 Lanes für 339€ verfügbar ist, fährt man mit dieser Karte an besten, die 7600XT ist gemessen an der Leistung einfach zu teuer, da helfen auch schlecht angebundene 16 GB nicht weiter.
 
  • Gefällt mir
Reaktionen: Holgmann75, Casillas, stevefrogs und 4 andere
Quidproquo77 schrieb:
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Das sagt sich so leicht, wenn du ein Budget hast, dass du nicht reißen kannst, dann ist im Zweifel eine 300 Euro GPU + 50 Euro CPU immer noch besser als eine 250 Euro GPU + 100 Euro CPU. Außerdem ist eine CPU später auch günstiger aufzurüsten als eine GPU, gerade wenn sie jetzt schon extrem günstig in der Anschaffung ist. Meine persönliche Empfehlung ist daher immer so viel GPU wie irgend möglich und so viel CPU wie Budget übrig bleibt.

Außerdem zeigt das Ergebnisse hier nicht, dass die Kombi gar nicht läuft, sondern eben nur schlechter skaliert als bei den Mitbewerbern und entsprechend im Low-End Bereich wohl auf eine Intel GPU verzichtet werden sollte.

EDIT:
Ich möchte sogar sagen, dass das Ergebnis hier jegliche Diskussion über die CPU erschlägt. Schaut man auf AMD und Nvidia, hat man mit einem 12100F einen Leistungsverlust von nicht mal 10%. Selbst wenn ein 12400 oder ein 5600 die gleiche Leistung wie ein 13600k abliefern würden, würde der Aufpreis in keinem Verhältnis stehen. Gerade in einem Budget-System in dem man eh viele Leistungskompromisse eingehen muss, finde ich den Leistungsverlust echt überschaubar. Ich hätte nicht gedacht, dass sich ein 4 Kerner noch so gut schlägt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz, .fF, ruthi91 und eine weitere Person
@Quidproquo77 5800X3D sind (alte) High-End CPUs. Es wird viele Systeme geben, wo die CPU drinnen bleibt und dann nur die GPU getauscht wird
 
  • Gefällt mir
Reaktionen: Slim.Shady, Redundanz und Rockstar85
Zurück
Oben