Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen
Also wenn ich viel Multimedia-Kram mache, sind die nicht verkehrt. Denn Encoder etc bieten die reichlich, während man dafür nicht unbedingt haufenweise Shader braucht. Aber fette CPUs braucht man auch gerne für Sachen, die man dann doch darauf rendert oder so.
Stimme dir also nur insoweit zu, dass sie für Budget-Gaming keine gute Wahl sind - andere Nischen sehe ich aber schon.
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?
Ich stimme dir zu. Es ist genau umgekehrt. Sowohl bei den avg. FPS als auch bei den Frametimes verliert die RTX 4060 mit schwächerer CPU mehr Leistung als die RX 7600 XT.
Ja aber dann wäre ja grade jetzt die Möglichkeit sich einen Namen zu machen und Aufmerksamkeit durch niedrige Preise zu bekommen. Auch wenn dann die Lager leergekauft werden. ;D
Intel kann sich in seiner aktuellen wirtschaftlichen Situation schlicht keinen aggressiven Preiskampf leisten. Von Marktanteilen alleine wird die Bilanz auch nicht besser, sondern der Verkauf der Produkte muss einen gewissen Gewinn einspielen. Das geht eben nicht, wenn man die Grafikkarten nur der Marktanteile wegen zum Schleuderpreis raushaut.
@stefan92x Und wegen der Tatsache, das die GPU bei Einsteigersystemen so massiv Leistung gegenüber AMD und NV verliert, ist diese nicht empfehlenswert und somit im Markt außer Sonderfällen überflüssig
50 Euro 4C8T CPU für eine 300+ Grafikkarte. Wer das empfiehlt hat schlicht keine Ahnung.
Die CPU ist teils langsamer als ein Ryzen 1600. Ein Ryzen 5 5600/12400F ist fast 50% flotter unterwegs, gut kostet auch 90 Euro, aber da sollte man nicht sparen.
Diese krassen Ausreißer bei einigen Spielen (Cyberpunk z.B.) zugunsten der Arc B580 deuten auf ein ziemlich großes softwareseitiges Optimierungspotenzial hin, oder? Während das bei NV und AMD weitgehend ausgeschöpft sein sollte.
Schade für Intel und damit für die gesamte GPU-Käuferschaft.
Aber für Intel gilt hier die verschärfte Variante der Fazits zu neuen AMD-GPUs: Wenn man es erklären muss oder auf Wundertreiber warten, ist es einfach kacke. Die Dinger sind tot. Selbst HWU, die ja anfangs auf die Fake-UVP reingefallen sind, empfehlen die Teile nicht einmal mehr zu den billigen USD-Preisen, die es faktisch gar nicht gibt.
Ich werde wieder soviel AMD-GPUs verbauen, wie vertretbar für den jeweiligen Anwendungsbereich, aber bei NV läuft halt immer alles ab Tag eins - und man muss nicht erklären oder auf Treiber warten.
Erst wenn AMD und Intel das auch mal für 2-3 Generationen schaffen; werden sie wirklich als Alternative wahrgenommen
@stefan92x Und wegen der Tatsache, das die GPU bei Einsteigersystemen so massiv Leistung gegenüber AMD und NV verliert, ist diese nicht empfehlenswert und somit im Markt außer Sonderfällen überflüssig
Das ist genau die Fehlannahme, die man mit dem alten i3 erzeugt. Gerade CPUs im Bereich 100-160€ (12400F-14400) / 7500F sehen da schon viel besser aus und sind preislich auch deutlich passender bei einer 300€ GPU.
Dann skalier das doch mal hoch. Das ist doch die Realität. Gibt auch viele Leute mit einem 5800x3d und z.B. einer 4090. da ist die preisliche Gewichtung ähnlich.
Nach unten hin veränderte sich das schon immer. Ein Minimum (100-150€ neu) muss gegeben sein.
Natürlich wäre es schöner, wenn das Teil auch auf 4C/8T-Teilen schön performt, oder alten Sys, nur da hast du dann noch nonReBar-Probleme etc.. Imho ist das "Voraussetzen" eines halbwegs soliden 6C/12T heute nichtmehr völlig absurd. Das ist für mich "Budget" im Gaming-Bereich.
Also bei Nvidia kenne ich das nur durch die Einstellung für vorgerenderte Frames welche bestimmt wie viele Frames für die Berechnung quasi an die CPU abgegeben werden können, da kann ich bei Spielen die im Vergleich ungewöhnlich viel die CPU belasten mal mehr oder weniger die Performance verbessern in dem ich diese Einstellung auf 1 begrenze, aber natürlich nur bei den Spielen welche nicht 1 bereits als Standard nutzen.^^
Wäre interessant ob es diese Einstellung für Intel-Grafikkarten gibt.^^
Dann skalier das doch mal hoch. Das ist doch die Realität. Gibt auch viele Leute mit einem 5800x3d und z.B. einer 4090. da ist die preisliche Gewichtung ähnlich.
Der 5800X3D ist ähnlich schnell wie der 13600KF und der verliert mit ARC im Schnitt quasi keine Leistung. Im Fazit steht zwar auch etwas anderes, aber da fehlt mir die Evidenz für.
Spieler, deren CPU kein High-End-Modell ist, fahren mit einer Radeon RX 7600 XT mit 16 GByte pauschal am besten
So lange die RX6750XT mit 16 Lanes für 339€ verfügbar ist, fährt man mit dieser Karte an besten, die 7600XT ist gemessen an der Leistung einfach zu teuer, da helfen auch schlecht angebundene 16 GB nicht weiter.
Das sagt sich so leicht, wenn du ein Budget hast, dass du nicht reißen kannst, dann ist im Zweifel eine 300 Euro GPU + 50 Euro CPU immer noch besser als eine 250 Euro GPU + 100 Euro CPU. Außerdem ist eine CPU später auch günstiger aufzurüsten als eine GPU, gerade wenn sie jetzt schon extrem günstig in der Anschaffung ist. Meine persönliche Empfehlung ist daher immer so viel GPU wie irgend möglich und so viel CPU wie Budget übrig bleibt.
Außerdem zeigt das Ergebnisse hier nicht, dass die Kombi gar nicht läuft, sondern eben nur schlechter skaliert als bei den Mitbewerbern und entsprechend im Low-End Bereich wohl auf eine Intel GPU verzichtet werden sollte.
EDIT:
Ich möchte sogar sagen, dass das Ergebnis hier jegliche Diskussion über die CPU erschlägt. Schaut man auf AMD und Nvidia, hat man mit einem 12100F einen Leistungsverlust von nicht mal 10%. Selbst wenn ein 12400 oder ein 5600 die gleiche Leistung wie ein 13600k abliefern würden, würde der Aufpreis in keinem Verhältnis stehen. Gerade in einem Budget-System in dem man eh viele Leistungskompromisse eingehen muss, finde ich den Leistungsverlust echt überschaubar. Ich hätte nicht gedacht, dass sich ein 4 Kerner noch so gut schlägt.