Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen
Da sorgt der 12100F für ein relativ starkes CPU limit. Die Performance geht sowohl auf Nvidia als auch AMD deutlich zurück. Und trotzdem ist in diesem szenario die Nvidia Karte schneller. Der Overhead muss also geringer sein.
@Verak Drezzt Hast du den Artikel nicht gelesen? Weil man das so gemacht hat wie du es gesagt hast ist niemandem aufgefallen, dass die Performance schlechter ist. Wer bitte kauft eine Einsteiger-CPU mit einer 4090? Niemand.
ämh was bitte ?^^ keine Ahnung was du willst, aber hier im Test wurde mit keiner 4090 getestet ?!
Ergänzung ()
@gartenriese du meinst weil im B580 Test mit einem 9800X3D getestet wurde und man so nicht den CPU-Overhead mit einer kleineren CPU erkannt hatte ? meinst deshalb sollte man Einsteiger Karten, auch nur mit einer Einsteiger CPU's testen ?
wenn ich deine Antwort in irgendeiner Weise richtig interpretieren sollte
Ich finde, dass die B580 schon mit rBar scheitert. Das ist in vorhandenen Systemen nicht selbstverständlich. Dazu noch die ganzen anderen Dinge die man beachten muss, damit diese in Sachen Leistung mithält.
@Verak Drezzt Man soll es auf beide Arten testen. Einerseits unter Idealbedingungen damit man gleichwertige GPUs bzw. CPUs miteinander vergleichen kann. Andererseits aber auch unter realen Bedingungen, damit die Leser genau wissen was sie bekommen und sich dann nicht wundern, dass zum Beispiel ein Upgrade der CPU nicht 30% mehr Performance bringt, obwohl es der Test behauptet hat.
du meinst weil man mit seiner "langsamen" Grafikkarte im GPU Limit hängen könnte ? man muss einfach nur die Tests verstehen, dann ergibt sich das alles von ganz allein
du siehst was die CPU im CPU Limit an FPS macht und entscheidest selbst ob du dieses upgrade benötigst oder nicht, ist wie gesagt keine Wissenschaft und ich weis auch nicht weshalb du dauernd entsprechend argumentierst
wenn du im Grafikkarten Test siehst dass deine 6700XT in FHD net mehr als 75FPS in ultra Details macht und du auch immer mit allen Reglern auf Anschlag zockst, dann brauchsde dann natürlich auch net von deinem 5600 auf einen 5700X3D aufrüsten
willst du aber mit min. konstanten 120-140FPS in medium-high Details zocken, dann könnte dein 5600 dafür zu langsam sein und es könnte dann au Sinn machen auf einen 5700X3D zu wechseln und genau so verhält es sich auch mit nem 9800X3D in high-ultra Details in FHD, WQHD oder 4K, je nachdem was deine Grafikkarte dann noch mitmacht und was du entsprechend in einem Grafikkarten Test siehst
deshalb verstehen lernen weshalb man CPU's in 720P im CPU Limit testest, um so nicht ins GPU Limit zu rennen und zu sehen was die CPU in ultra Details an FPS liefert, du siehst was die CPU an FPS liefert und gleichst dies nun mit den aktuellen Grafikkarten Tests in deiner gewünschten Auflösung ab und entscheidest ob sich ein upgrade von den FPS her lohnt oder nicht lohnt,
wie gesagt alles kein Hexenwerk und du kannst bitte nicht erwarten dass die Jungs hier bei CB zig 10 verschiedene CPU's mit ebenso zig verschiedenen Grafikkarten durchtestet, nur weil du und viele andere da draußen nicht den Unterschied zwischen CPU und GPU Limit verstehen
Ergänzung ()
und ja sowas wie ein CPU-Overhead wie bei der B580 geht dann natürlich entsprechend unter, wenn man mit der schnellst möglichsten CPU den Grafikkarten Test macht, aber ist ansich auch eher die Ausnahme als die Regel,
keine Ahnung ob CB da jedes mal gewillt ist, bei einem neuen Grafikkarten Release im midrange Segment, dann auch diese mit einer langsamen CPU zu testen, um sowas wie bei der B580 auszuschließen
Ergänzung ()
und ich weis nicht ob man da jetzt meint so nen Fass aufmachen zu müssen, weil zwischen nem 12100 und einem 14900K/13600K bei einer B580 15% Leistungs-Unterschied liegt, wobei man sieht dass da bei der 4060 auch 10% Unterschied liegen
also von daher who cares, keiner der sich für 300€ ne Grafikkarte holt, wechselt deshalb min. auf eine ebenso teure CPU
@Verak Drezzt Mir brauchst du das nicht erklären, ich interessiere mich für Hardware. Aber der Durchschnittskäufer sieht nur den viel höheren Balken und wundert sich dann, warum seine Spiele doch nicht viel besser laufen.
Wie gesagt, ich verlange ja nicht, dass die bisherigen Tests abgeschafft werden. Aber um für die Masse der Käufer nicht zu täuschen, sollte es halt auch realistischere Tests geben. Zusätzlich.
@gartenriese da wird niemand "getäuscht" wenn man denn wie gesagt CPU und GPU Tests versteht und ich kann die Argumentation auch nicht mehr hören von wegen in WQHD oder 4K brauchsde keine schnelle und aktuelle CPU, weil man ja eh im GPU Limit hängt
ja vielleicht DU! der jedes mal alle Regler auf Anschlag zieht, aber nicht derjenige der mit min. 144/165 oder gar 240FPS auf seinem entsprechend schnellen Hz Monitor zocken will und der selbst bei einer 4090 die Regler gen medium-high Details stellen muss um diese FPS dann zu erreichen
aber wie willst du bitte sowas sehen, wenn man meint CPU's im GPU Limit mit allem auf Anschlag zu testen und eine 4090 in 4K wie hier im GPU-Index bei 100FPS oder gar einer 4070Ti Super die bei 70FPS landet und du nun mit deinem 5800X/12700K wissen willst was für eine CPU du benötigst um ansatzweise mit 165FPS zocken zu können
einfach mal blind nen 600€ teuren 9800X3D holen, wenn es ggf. schon nen 7600X3D für die hälfte getan hätte, verstehsde die Krux ? deshalb kann man da nix pauschalisieren von wegen man hängt ja in 4K oder in WQHD eh im GPU Limit
man muss einfach nur die CPU/GPU Tests verstehen und die Ergebnisse miteinander abgleichen, da brauchsde keine zig Konfigs durchtesten um es jeden irgendwie ansatzweise Recht zu machen
Ja das ist auch so, man kann fast die 1080p Werte von CB mit etwas Abzug 1:1 auf 1440p umsetzen, bisher ist mir ein unterschied von ca. 5 FPS aufgefallen z.B Cyberpunk, bei Outcast ist es quasi 1:1, hab aber nicht alles durchgetestet, gibt auch kein Grund dazu alles noch mal zu testen, die Werte zu den Battlemage auf CB sind aber auffallend die schlechtesten die man sieht, auf die Werte komme ich einfach nicht. Gibt aber sicher das ein oder anderes Spiel wo es schlechter bzw. gleich aussieht.
@gartenriese da wird niemand "getäuscht" wenn man denn wie gesagt CPU und GPU Tests versteht und ich kann die Argumentation auch nicht mehr hören von wegen in WQHD oder 4K brauchsde keine schnelle und aktuelle CPU, weil man ja eh im GPU Limit hängt
ja vielleicht DU! der jedes mal alle Regler auf Anschlag zieht, aber nicht derjenige der mit min. 144/165 oder gar 240FPS auf seinem entsprechend schnellen Hz Monitor zocken will und der selbst bei einer 4090 die Regler gen medium-high Details stellen muss um diese FPS dann zu erreichen
aber wie willst du bitte sowas sehen, wenn man meint CPU's im GPU Limit mit allem auf Anschlag zu testen und eine 4090 in 4K wie hier im GPU-Index bei 100FPS oder gar einer 4070Ti Super die bei 70FPS landet und du nun mit deinem 5800X/12700K wissen willst was für eine CPU du benötigst um ansatzweise mit 165FPS zocken zu können
einfach mal blind nen 600€ teuren 9800X3D holen, wenn es ggf. schon nen 7600X3D für die hälfte getan hätte, verstehsde die Krux ? deshalb kann man da nix pauschalisieren von wegen man hängt ja in 4K oder in WQHD eh im GPU Limit
man muss einfach nur die CPU/GPU Tests verstehen und die Ergebnisse miteinander abgleichen, da brauchsde keine zig Konfigs durchtesten um es jeden irgendwie ansatzweise Recht zu machen
Ich glaube du hast mich falsch verstanden. Natürlich soll man die beste GPU mit der besten CPU zusammen testen. Aber wenn jemand eben nicht die beste GPU hat, dann sind die Tests dann für ihn nicht realistisch. Weil er nicht die gleichen Performancegewinne bekommt. Und nein, die wenigsten setzen sich so mit der Hardware auseinander dass sie die Konsequenzen perfekt verstehen. Es gilt also nicht "man muss einfach nur...".
Dieser relativ starke Verlust der Intel Karten mit schwachen CPUs, war im Releasetest nicht ahn- oder verstehbar. Sowas kann man nur nachweisen, wenn man es mit schwachen CPUs testet.
Wir wissen jetzt Bescheid, aber eine Vielzahl der Käuder der B-Karten werden enttäuscht sein, wenn sie nachbenchen wollen und nichts erreichen. Naja, wer bencht da draußen schon nach?
So gravierende Sachen oder Release müßten in der Tagesschau oder so kommen, find ich. Bildzeitung wär noch gut, damit es die Welt mitbekommt (ich les das nicht).
Es ist gut, dass Misstände aufgedeckt werden, so wissen die Treiberteams, was ihre Aufgabe ist.
Natürlich wären 12GB oder 16GB Karten besser. Allerdings gibt es da keine ganz kompakten Karten. Und so schlecht sind 8GB dann auch nicht. Vorallem wenn man nur in 1920x1080 FHD oder 2560x1080 WFHD spielen will.
Problem ist, dass das Ding 400€ kostet. Selbst wenn man bei fast allen Spielen mit 8 GB noch "irgendwie" klarkommt, ist das einfach zu viel Geld für eine Notlösung. In der Preisklasse würde ich zur 7700/7800 XT greifen.
Einer gebrauchten GTX 1070 für 100€ kreide ich die 8 GB nicht an, die ist noch erstaunlich brauchbar für das biblische Alter. Aber für 400€ muss da mehr drin sein.
Natürlich wäre ein niedriger Preis oder mehr Leistung fürs gleiche Geld schön.
Die Radeon RX Karten sind natürlich vom Preis-Leistungsverhältnis auch nicht schlecht, aber eben von der Grösse und vom Strombedarf her enorm, und das ist dann schon ein Problem wenn man ein halbwegs kompaktes System möchte. Da ist eben selbst eine RTX 4070 Super kompakter.
Aber man muss ja en Preis fürs Gesamtsystem sehen. Wenn man jetzt günstig auf Basis von Sockel AM4 oder 1700 z.B. mit Ryzen 7 5700X3D, Core i5-13600KF oder i5-14600KF statt teuer auf Sockel AM5 oder 1851 baut, bekommt man auch mit einer teuren Nvidia Karte ein halbwegs preiswertes System.
@Martyn
Kompaktheit ist kein Feature, das einen Spieler weiterbringt. Auch ist die Baugröße kein Hindernis für den Hersteller eine ausreichende Menge an VRAM zu verbauen.
Das Problem mit den VRAM betrifft hauptsächliche aktuelle und zukünftige Titel:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Zukünftige Titel kann man aktuell noch nicht testen.
Würdest du ernsthaft heute noch mit gutem Gewissen jemandem empfehlen 300€ für eine GPU mit nur 8 GB VRAM hinzulegen?
Martyn schrieb:
aber eben von der Grösse und vom Strombedarf her enorm
Aber man muss ja en Preis fürs Gesamtsystem sehen. Wenn man jetzt günstig auf Basis von Sockel AM4 oder 1700 z.B. mit Ryzen 7 5700X3D, Core i5-13600KF oder i5-14600KF statt teuer auf Sockel AM5 oder 1851 baut, bekommt man auch mit einer teuren Nvidia Karte ein halbwegs preiswertes System.
Auch das ist Unsinn. Ein AM5 System ist nicht teurer als ein System mit dem 5700X3D oder dem i5-14600KF.
Ein neues System gehört auf eine aktuelle Plattform. Außerdem hat der Unterbau wenig mit der GPU Auswahl zu tun.
Zukünftige Titel kann man aktuell noch nicht testen.
Würdest du ernsthaft heute noch mit gutem Gewissen jemandem empfehlen 300€ für eine GPU mit nur 8 GB VRAM hinzulegen?
Ein anderes, recht aufschlussreiches Video gab es auch vor ner Weile von Hardware Unboxed. Da haben sie nicht die Performanceauswirkungen an sich verglichen, sondern mit den 24 GB einer RTX 4090 ermitteln, hoch die VRAM-Belegung aktueller Spiele in verschiedenen Auflösungen und Grafikpresets ausfällt.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Da kommen die Spiele teils schon in 1080p ab dem Preset "Mittel" den 8 GB verdammt nahe, eines liegt sogar knapp drüber. Der VRAM-Bedarf wird mittelfristig sicherlich auch nicht sinken und man wird selbst in 1080p immer öfter die Grafiksetting (zumindest die Texturqualität) runterstellen müssen, obwohl die Grafikkarte an sich genügend Leistung für höhere Qualität hätte. Oder man lebt mit Rucklern oder dass Spiele bei VRAM-Mangel aggressives Texture-Swapping betreiben, was man in einem dynamischen Wechsel der Texturqualität schon auf kurzer Entfernung sieht.
@Martyn
Die Konfiguration taugt nichts. Alte Plattform, zu teuer, schlechtes Setup.
Gerade bei dieser GPU sollte man die 16 GB mitnehmen.
Außerdem völlig off topic.
Ja das ist auch so, man kann fast die 1080p Werte von CB mit etwas Abzug 1:1 auf 1440p umsetzen, bisher ist mir ein unterschied von ca. 5 FPS aufgefallen z.B Cyberpunk, bei Outcast ist es quasi 1:1, hab aber nicht alles durchgetestet, gibt auch kein Grund dazu alles noch mal zu testen, die Werte zu den Battlemage auf CB sind aber auffallend die schlechtesten die man sieht, auf die Werte komme ich einfach nicht. Gibt aber sicher das ein oder anderes Spiel wo es schlechter bzw. gleich aussieht.
Auch irgendwie merkwürdig, daß man auch hier auf CB zu diesem IMHO ebenfalls bemerkenswerten Verhalten wenig bis gar nichts liest. Zumindest bei den GeForce und Radeon GPUs die ich kenne ist das ja nicht so, zumindest nicht bei zB einer 4060. Die wird deutlich langsamer wenn sie - bei gleicher Qualität - mehr Pixel schieben muss.
Und, auch @CB: könntet Ihr Euch dieses willkommene, aber eher ungewöhnliche Verhalten der Battlemage dGPUs auch mal im Detail anschauen?