Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

Mimir schrieb:
Da sorgt der 12100F für ein relativ starkes CPU limit. Die Performance geht sowohl auf Nvidia als auch AMD deutlich zurück. Und trotzdem ist in diesem szenario die Nvidia Karte schneller. Der Overhead muss also geringer sein.
Nur wenn beide Karten gleich schnell wären. So muss man sich den Unterschied im GPU und im CPU Limit ansehen, ob er grösser oder kleiner wird.
 
@Verak Drezzt Hast du den Artikel nicht gelesen? Weil man das so gemacht hat wie du es gesagt hast ist niemandem aufgefallen, dass die Performance schlechter ist. Wer bitte kauft eine Einsteiger-CPU mit einer 4090? Niemand.
 
gartenriese schrieb:
Weil man das so gemacht hat wie du es gesagt hast ist niemandem aufgefallen, dass die Performance schlechter ist.
ämh was bitte ?^^ keine Ahnung was du willst, aber hier im Test wurde mit keiner 4090 getestet ?!
Ergänzung ()

@gartenriese du meinst weil im B580 Test mit einem 9800X3D getestet wurde und man so nicht den CPU-Overhead mit einer kleineren CPU erkannt hatte ? meinst deshalb sollte man Einsteiger Karten, auch nur mit einer Einsteiger CPU's testen ?

wenn ich deine Antwort in irgendeiner Weise richtig interpretieren sollte
 
Zuletzt bearbeitet:
Ich finde, dass die B580 schon mit rBar scheitert. Das ist in vorhandenen Systemen nicht selbstverständlich. Dazu noch die ganzen anderen Dinge die man beachten muss, damit diese in Sachen Leistung mithält.
 
@Verak Drezzt Man soll es auf beide Arten testen. Einerseits unter Idealbedingungen damit man gleichwertige GPUs bzw. CPUs miteinander vergleichen kann. Andererseits aber auch unter realen Bedingungen, damit die Leser genau wissen was sie bekommen und sich dann nicht wundern, dass zum Beispiel ein Upgrade der CPU nicht 30% mehr Performance bringt, obwohl es der Test behauptet hat.
 
gartenriese schrieb:
dass zum Beispiel ein Upgrade der CPU nicht 30% mehr Performance bringt, obwohl es der Test behauptet hat.
du meinst weil man mit seiner "langsamen" Grafikkarte im GPU Limit hängen könnte ? man muss einfach nur die Tests verstehen, dann ergibt sich das alles von ganz allein

du siehst was die CPU im CPU Limit an FPS macht und entscheidest selbst ob du dieses upgrade benötigst oder nicht, ist wie gesagt keine Wissenschaft und ich weis auch nicht weshalb du dauernd entsprechend argumentierst

wenn du im Grafikkarten Test siehst dass deine 6700XT in FHD net mehr als 75FPS in ultra Details macht und du auch immer mit allen Reglern auf Anschlag zockst, dann brauchsde dann natürlich auch net von deinem 5600 auf einen 5700X3D aufrüsten

willst du aber mit min. konstanten 120-140FPS in medium-high Details zocken, dann könnte dein 5600 dafür zu langsam sein und es könnte dann au Sinn machen auf einen 5700X3D zu wechseln und genau so verhält es sich auch mit nem 9800X3D in high-ultra Details in FHD, WQHD oder 4K, je nachdem was deine Grafikkarte dann noch mitmacht und was du entsprechend in einem Grafikkarten Test siehst

deshalb verstehen lernen weshalb man CPU's in 720P im CPU Limit testest, um so nicht ins GPU Limit zu rennen und zu sehen was die CPU in ultra Details an FPS liefert, du siehst was die CPU an FPS liefert und gleichst dies nun mit den aktuellen Grafikkarten Tests in deiner gewünschten Auflösung ab und entscheidest ob sich ein upgrade von den FPS her lohnt oder nicht lohnt,

wie gesagt alles kein Hexenwerk und du kannst bitte nicht erwarten dass die Jungs hier bei CB zig 10 verschiedene CPU's mit ebenso zig verschiedenen Grafikkarten durchtestet, nur weil du und viele andere da draußen nicht den Unterschied zwischen CPU und GPU Limit verstehen
Ergänzung ()

und ja sowas wie ein CPU-Overhead wie bei der B580 geht dann natürlich entsprechend unter, wenn man mit der schnellst möglichsten CPU den Grafikkarten Test macht, aber ist ansich auch eher die Ausnahme als die Regel,

keine Ahnung ob CB da jedes mal gewillt ist, bei einem neuen Grafikkarten Release im midrange Segment, dann auch diese mit einer langsamen CPU zu testen, um sowas wie bei der B580 auszuschließen
Ergänzung ()

und ich weis nicht ob man da jetzt meint so nen Fass aufmachen zu müssen, weil zwischen nem 12100 und einem 14900K/13600K bei einer B580 15% Leistungs-Unterschied liegt, wobei man sieht dass da bei der 4060 auch 10% Unterschied liegen

also von daher who cares, keiner der sich für 300€ ne Grafikkarte holt, wechselt deshalb min. auf eine ebenso teure CPU
 
Zuletzt bearbeitet:
@Verak Drezzt Mir brauchst du das nicht erklären, ich interessiere mich für Hardware. Aber der Durchschnittskäufer sieht nur den viel höheren Balken und wundert sich dann, warum seine Spiele doch nicht viel besser laufen.

Wie gesagt, ich verlange ja nicht, dass die bisherigen Tests abgeschafft werden. Aber um für die Masse der Käufer nicht zu täuschen, sollte es halt auch realistischere Tests geben. Zusätzlich.
 
@gartenriese da wird niemand "getäuscht" wenn man denn wie gesagt CPU und GPU Tests versteht und ich kann die Argumentation auch nicht mehr hören von wegen in WQHD oder 4K brauchsde keine schnelle und aktuelle CPU, weil man ja eh im GPU Limit hängt

ja vielleicht DU! der jedes mal alle Regler auf Anschlag zieht, aber nicht derjenige der mit min. 144/165 oder gar 240FPS auf seinem entsprechend schnellen Hz Monitor zocken will und der selbst bei einer 4090 die Regler gen medium-high Details stellen muss um diese FPS dann zu erreichen

aber wie willst du bitte sowas sehen, wenn man meint CPU's im GPU Limit mit allem auf Anschlag zu testen und eine 4090 in 4K wie hier im GPU-Index bei 100FPS oder gar einer 4070Ti Super die bei 70FPS landet und du nun mit deinem 5800X/12700K wissen willst was für eine CPU du benötigst um ansatzweise mit 165FPS zocken zu können

einfach mal blind nen 600€ teuren 9800X3D holen, wenn es ggf. schon nen 7600X3D für die hälfte getan hätte, verstehsde die Krux ? deshalb kann man da nix pauschalisieren von wegen man hängt ja in 4K oder in WQHD eh im GPU Limit

man muss einfach nur die CPU/GPU Tests verstehen und die Ergebnisse miteinander abgleichen, da brauchsde keine zig Konfigs durchtesten um es jeden irgendwie ansatzweise Recht zu machen
 
eastcoast_pete schrieb:
Battlemage dGPUs bei 1440p gegenüber 1080p (gleiche Qualität) kaum FPS verlieren
Ja das ist auch so, man kann fast die 1080p Werte von CB mit etwas Abzug 1:1 auf 1440p umsetzen, bisher ist mir ein unterschied von ca. 5 FPS aufgefallen z.B Cyberpunk, bei Outcast ist es quasi 1:1, hab aber nicht alles durchgetestet, gibt auch kein Grund dazu alles noch mal zu testen, die Werte zu den Battlemage auf CB sind aber auffallend die schlechtesten die man sieht, auf die Werte komme ich einfach nicht. Gibt aber sicher das ein oder anderes Spiel wo es schlechter bzw. gleich aussieht.

O2-Win64-Shipping_2025_01_18_10_28_48_131.png
Outcast ANB in Ultra @1440p (oben links)
 
  • Gefällt mir
Reaktionen: eastcoast_pete
aklaa schrieb:
Doch ich, eine 12 Kern+ CPU ist mir wichtiger als eine GPU. Ich bin niemals im CPU Limit.
Danke für den Test! Sehr sehr nice!
Oder wenn es auf High FPS in Esport Titeln ankommt. Dann landet man im CPU Limit und kommt mit einer low-midrange Karte schon sehr weit.
 
  • Gefällt mir
Reaktionen: Chocobo
Verak Drezzt schrieb:
@gartenriese da wird niemand "getäuscht" wenn man denn wie gesagt CPU und GPU Tests versteht und ich kann die Argumentation auch nicht mehr hören von wegen in WQHD oder 4K brauchsde keine schnelle und aktuelle CPU, weil man ja eh im GPU Limit hängt

ja vielleicht DU! der jedes mal alle Regler auf Anschlag zieht, aber nicht derjenige der mit min. 144/165 oder gar 240FPS auf seinem entsprechend schnellen Hz Monitor zocken will und der selbst bei einer 4090 die Regler gen medium-high Details stellen muss um diese FPS dann zu erreichen

aber wie willst du bitte sowas sehen, wenn man meint CPU's im GPU Limit mit allem auf Anschlag zu testen und eine 4090 in 4K wie hier im GPU-Index bei 100FPS oder gar einer 4070Ti Super die bei 70FPS landet und du nun mit deinem 5800X/12700K wissen willst was für eine CPU du benötigst um ansatzweise mit 165FPS zocken zu können

einfach mal blind nen 600€ teuren 9800X3D holen, wenn es ggf. schon nen 7600X3D für die hälfte getan hätte, verstehsde die Krux ? deshalb kann man da nix pauschalisieren von wegen man hängt ja in 4K oder in WQHD eh im GPU Limit

man muss einfach nur die CPU/GPU Tests verstehen und die Ergebnisse miteinander abgleichen, da brauchsde keine zig Konfigs durchtesten um es jeden irgendwie ansatzweise Recht zu machen
Ich glaube du hast mich falsch verstanden. Natürlich soll man die beste GPU mit der besten CPU zusammen testen. Aber wenn jemand eben nicht die beste GPU hat, dann sind die Tests dann für ihn nicht realistisch. Weil er nicht die gleichen Performancegewinne bekommt. Und nein, die wenigsten setzen sich so mit der Hardware auseinander dass sie die Konsequenzen perfekt verstehen. Es gilt also nicht "man muss einfach nur...".
 
Dieser relativ starke Verlust der Intel Karten mit schwachen CPUs, war im Releasetest nicht ahn- oder verstehbar. Sowas kann man nur nachweisen, wenn man es mit schwachen CPUs testet.

Wir wissen jetzt Bescheid, aber eine Vielzahl der Käuder der B-Karten werden enttäuscht sein, wenn sie nachbenchen wollen und nichts erreichen. Naja, wer bencht da draußen schon nach?

So gravierende Sachen oder Release müßten in der Tagesschau oder so kommen, find ich. Bildzeitung wär noch gut, damit es die Welt mitbekommt (ich les das nicht).

Es ist gut, dass Misstände aufgedeckt werden, so wissen die Treiberteams, was ihre Aufgabe ist.
 
AMD-Flo schrieb:
@Martyn
Für eine 8 GB Karte spricht überhaupt nichts, egal von welchem Hersteller.
Natürlich wären 12GB oder 16GB Karten besser. Allerdings gibt es da keine ganz kompakten Karten. Und so schlecht sind 8GB dann auch nicht. Vorallem wenn man nur in 1920x1080 FHD oder 2560x1080 WFHD spielen will.

Im direkten Vergleich von GeForce RTX 4060 Ti 8GB zu GeForce RTX 3060 Ti 12GB hat die RTX 4060 Ti trotz nur 8GB überall einen deutlichen Vorsprung: https://www.hardwaredealz.com/produ...x-3060-12gb-vs-nvidia-geforce-rtx-4060-ti-8gb

Und im direkten Vergleich von den 8GB und 16GB Versionen der RTX 4060 Ti liegt die 16GB nur bei wenigen Spielen und beim Raytracing etwas vorne, aber nicht wirklich viel: https://www.hardwaredealz.com/produ...060-ti-16gb-vs-nvidia-geforce-rtx-4060-ti-8gb
 
Martyn schrieb:
Im direkten Vergleich von GeForce RTX 4060 Ti 8GB zu GeForce RTX 3060 Ti 12GB hat die RTX 4060 Ti trotz nur 8GB überall einen deutlichen Vorsprung

Problem ist, dass das Ding 400€ kostet. Selbst wenn man bei fast allen Spielen mit 8 GB noch "irgendwie" klarkommt, ist das einfach zu viel Geld für eine Notlösung. In der Preisklasse würde ich zur 7700/7800 XT greifen.

Einer gebrauchten GTX 1070 für 100€ kreide ich die 8 GB nicht an, die ist noch erstaunlich brauchbar für das biblische Alter. Aber für 400€ muss da mehr drin sein.
 
  • Gefällt mir
Reaktionen: simosh und eXe777
Natürlich wäre ein niedriger Preis oder mehr Leistung fürs gleiche Geld schön.

Die Radeon RX Karten sind natürlich vom Preis-Leistungsverhältnis auch nicht schlecht, aber eben von der Grösse und vom Strombedarf her enorm, und das ist dann schon ein Problem wenn man ein halbwegs kompaktes System möchte. Da ist eben selbst eine RTX 4070 Super kompakter.

Aber man muss ja en Preis fürs Gesamtsystem sehen. Wenn man jetzt günstig auf Basis von Sockel AM4 oder 1700 z.B. mit Ryzen 7 5700X3D, Core i5-13600KF oder i5-14600KF statt teuer auf Sockel AM5 oder 1851 baut, bekommt man auch mit einer teuren Nvidia Karte ein halbwegs preiswertes System.
 
@Martyn
Kompaktheit ist kein Feature, das einen Spieler weiterbringt. Auch ist die Baugröße kein Hindernis für den Hersteller eine ausreichende Menge an VRAM zu verbauen.

Das Problem mit den VRAM betrifft hauptsächliche aktuelle und zukünftige Titel:

Zukünftige Titel kann man aktuell noch nicht testen.
Würdest du ernsthaft heute noch mit gutem Gewissen jemandem empfehlen 300€ für eine GPU mit nur 8 GB VRAM hinzulegen?

Martyn schrieb:
aber eben von der Grösse und vom Strombedarf her enorm
Das Argument ist wirklich an den Haaren herbeigezogen.
Selbst in dieses Gehäuse passen noch relativ große GPUs rein.
https://geizhals.de/lian-li-dan-cases-a3-matx-black-a3-matx-a3x-a3195126.html

Martyn schrieb:
Aber man muss ja en Preis fürs Gesamtsystem sehen. Wenn man jetzt günstig auf Basis von Sockel AM4 oder 1700 z.B. mit Ryzen 7 5700X3D, Core i5-13600KF oder i5-14600KF statt teuer auf Sockel AM5 oder 1851 baut, bekommt man auch mit einer teuren Nvidia Karte ein halbwegs preiswertes System.
Auch das ist Unsinn. Ein AM5 System ist nicht teurer als ein System mit dem 5700X3D oder dem i5-14600KF.
Ein neues System gehört auf eine aktuelle Plattform. Außerdem hat der Unterbau wenig mit der GPU Auswahl zu tun.
 
AMD-Flo schrieb:
Das Argument ist wirklich an den Haaren herbeigezogen.
Selbst in dieses Gehäuse passen noch relativ große GPUs rein.
https://geizhals.de/lian-li-dan-cases-a3-matx-black-a3-matx-a3x-a3195126.html
Ich denke da noch eine Nummer kleiner an die Raijintek Metis Plus Gehäuse: https://www.raijintek.com/de/products_detail.php?ProductID=54

Da könnte ich mir dann schon gut so eine Konfiguration vorstellen:

pc41.jpg
'

Leistungsmässig sollte das selbst für Cyberpunk 2077 und Flight Simulator 2024 reichen.
 
AMD-Flo schrieb:
Zukünftige Titel kann man aktuell noch nicht testen.
Würdest du ernsthaft heute noch mit gutem Gewissen jemandem empfehlen 300€ für eine GPU mit nur 8 GB VRAM hinzulegen?
Ein anderes, recht aufschlussreiches Video gab es auch vor ner Weile von Hardware Unboxed. Da haben sie nicht die Performanceauswirkungen an sich verglichen, sondern mit den 24 GB einer RTX 4090 ermitteln, hoch die VRAM-Belegung aktueller Spiele in verschiedenen Auflösungen und Grafikpresets ausfällt.


Da kommen die Spiele teils schon in 1080p ab dem Preset "Mittel" den 8 GB verdammt nahe, eines liegt sogar knapp drüber. Der VRAM-Bedarf wird mittelfristig sicherlich auch nicht sinken und man wird selbst in 1080p immer öfter die Grafiksetting (zumindest die Texturqualität) runterstellen müssen, obwohl die Grafikkarte an sich genügend Leistung für höhere Qualität hätte. Oder man lebt mit Rucklern oder dass Spiele bei VRAM-Mangel aggressives Texture-Swapping betreiben, was man in einem dynamischen Wechsel der Texturqualität schon auf kurzer Entfernung sieht.
 
@Martyn
Die Konfiguration taugt nichts. Alte Plattform, zu teuer, schlechtes Setup.
Gerade bei dieser GPU sollte man die 16 GB mitnehmen.
Außerdem völlig off topic.
 
  • Gefällt mir
Reaktionen: Convert
kryzs schrieb:
Ja das ist auch so, man kann fast die 1080p Werte von CB mit etwas Abzug 1:1 auf 1440p umsetzen, bisher ist mir ein unterschied von ca. 5 FPS aufgefallen z.B Cyberpunk, bei Outcast ist es quasi 1:1, hab aber nicht alles durchgetestet, gibt auch kein Grund dazu alles noch mal zu testen, die Werte zu den Battlemage auf CB sind aber auffallend die schlechtesten die man sieht, auf die Werte komme ich einfach nicht. Gibt aber sicher das ein oder anderes Spiel wo es schlechter bzw. gleich aussieht.

Anhang anzeigen 1571435
Outcast ANB in Ultra @1440p (oben links)
Auch irgendwie merkwürdig, daß man auch hier auf CB zu diesem IMHO ebenfalls bemerkenswerten Verhalten wenig bis gar nichts liest. Zumindest bei den GeForce und Radeon GPUs die ich kenne ist das ja nicht so, zumindest nicht bei zB einer 4060. Die wird deutlich langsamer wenn sie - bei gleicher Qualität - mehr Pixel schieben muss.
Und, auch @CB: könntet Ihr Euch dieses willkommene, aber eher ungewöhnliche Verhalten der Battlemage dGPUs auch mal im Detail anschauen?
 
Zurück
Oben