Test CPU-Overhead: Arc B580 vs. RTX 4060 & RX 7600 auf CPUs mit 4 bis 24 Kernen

Schade eigentlich, grade weil die Karte in WQHD nicht viele Federn lässt.
Die war in der näheren Auswahl. Jetzt bin ich mir mit meinem 5800X nicht mehr sicher.
Man kann nur hoffen, dass Intel die Treiber immens in der Richtung verbessert.
 
karamba schrieb:
Diese krassen Ausreißer bei einigen Spielen (Cyberpunk z.B.) zugunsten der Arc B580 deuten auf ein ziemlich großes softwareseitiges Optimierungspotenzial hin, oder?
An diese Hoffnung klammere ich mich mal, nachdem mein Händler es nach mehrmaliger Nachfrage nicht fertig gebracht hat, mir ein Retourenetikett für meine B580 zu senden. Auch an die Hoffnung, dass es irgendwann mal Treiber geben wird, bei denen ältere Spiele wie Mafia II Definitive Edition und Need for Speed Hot Pursuit Remastered nicht mehr einfach so abstürzen oder vor Darstellungsfehlern strotzen. Bis dahin spiele ich mit der B580 halt nur Fortnite, das mit XeSS ganz passabel läuft. Was für eine hoffnungslos overhypte Schrott-GPU!
 
Zuletzt bearbeitet:
ja knapp 30% bei Cyberpunk ist schon krass, hatte mir bisher nur die Index FPS angeschaut gehabt, aber ist vielleicht auch nur eine Treiber und Optimierungssache seitens CDPR und Intel, wenn man sich mal die restlichen Ergebnisse anschaut
Ergänzung ()

@blauescabrio kommt aber halt drauf an welche CPU du verbaut hast, ggf. sieht es mit einem 6-Kerner wie nem 12400/5600 anders aus
 
Bei mir läuft sie zusammen mit einem 5700X3D so halbwegs zufriedenstellend bei Spielen, die XeSS unterstützen, z. B. Fortnite und Forza Horizion 5.

Von AMD ist man es ja gewöhnt, dass die bei Markteinführung einige FPS auf der Strecke lassen im Vergleich zum jeweiligen Nvidia-Gegenstück. Und im Laufe der Zeit und mit neueren Treibern überholen sie dann sogar. Aber sie laufen wenigstens überhaupt mit nahezu allen Spielen. Intel läuft mit ganz vielen Spiele einfach gar nicht. Das soll schon bei Alchemist so gewesen sein. Was haben sie also gelernt bei Battlemage? Offensichtlich gar nichts. Oder es interessiert sie einfach nicht. Vielleicht spekulieren sie ja darauf, ihr ganzes Geschäft in der ersten Hype-Phase zu machen.
 
blauescabrio schrieb:
Von AMD ist man es ja gewöhnt, dass die bei Markteinführung einige FPS auf der Strecke lassen im Vergleich zum jeweiligen Nvidia-Gegenstück.
ähm net wirklich, die Karten waren zumindest im Raster immer gleichauf, je nachdem welches Game man natürlich getestet hat und entsprechend für die eine oder andere Seite optimiert war
blauescabrio schrieb:
Intel läuft mit ganz vielen Spiele einfach gar nicht.
bei Battlemage ebenso ? habe bis dato noch nichts gelesen dass dem so ist, hast du schon negative Erfahrungen gemacht ?
Ergänzung ()

bei AMD und RDNA1 gab es zum Release ziemliche Treiber Probleme, aber das war es bisher auch schon, woran ich mich erinnere, die letzten Generationen waren alle zufriedenstellend und ich nutze seit 2015 durchgehend AMD Karten ohne Probleme
Ergänzung ()

blauescabrio schrieb:
Bei mir läuft sie zusammen mit einem 5700X3D so halbwegs zufriedenstellend bei Spielen, die XeSS unterstützen, z. B. Fortnite und Forza Horizion 5.
und mit nem 5700X3D würde ich mir da keine Platte machen, liegt leistungsmäßig ja auf dem Niveau eines 13600K und da sehen die Werte soweit gut aus im Vergleich zum 12100
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
bei Battlemage ebenso ? habe bis dato noch nichts gelesen dass dem so ist, hast du schon negative Erfahrungen gemacht ?
Mafia II Definitive Edition stürzt einfach mal so ab, Need for Speed Hot Pursuit Remastered verschiebt das Bild zur Seite, hat Darstellungsfehler, Forsaken Remastered hat Darstellungsfehler, die das Spiel unspielbar machen. Ich habe gar keine Traute mehr, meine ganzen Bibliotheken bei Steam, Ubi, Epic komplett durchzuprobieren.

Wie kann sowas kommen? Die programmieren doch keinen Treiber speziell für ein Spiel, sondern sie nutzen APIs wie DirectX, OpenGL, Vulkan.

PS: Ich glaube, ich gebe mir das mal mit dem Durchtesten meiner Spiele-Bibliotheken.

So, habe auf die Schnelle eine weitere 1 TB SSD in einen PCIe-Slot gesteckt. Läuft jetzt zwar nur mit Gen 3x4, aber das sollte den Kohl nicht fett machen.
IMG_20250119_161424.jpg

Ich lade jetzt ältere und auch weniger bekannte (oder bereits wieder vergessene) Spiele runter und werde dann berichten. Zu Forsaken Remastered kann ich bereits Entwarnung geben: Mit dem neuesten Treiber läuft es, wenn man DirectX 10/11 statt Vulkan wählt. Need for Speed Hot Pursuit Remastered legt sich nun in die Taskleiste, und wenn man es aktivieren will, legt sich sich sofort in die Taskleiste zurück, Musik düdelt aber im Hintergrund. Hat wohl einfach keine Lust auf ARC.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und Verak Drezzt
Ich frage mich, ob die Verwendung eines solchen "schwächeren" Prozessors das 1080p+XeSS Ergebnis, welches zu eurem lauwarmen Launch Review beigetragen hatte, noch weiter verschlechtert.
 
blauescabrio schrieb:
Wie kann sowas kommen? Die programmieren doch keinen Treiber speziell für ein Spiel, sondern sie nutzen APIs wie DirectX, OpenGL, Vulkan.
Ja, die Treiber implementieren die Unterstützung für die Grafik-APIs möglichst standardkonform, also so wie es in der Dokumentation von Microsoft (DirectX) und der Khronos-Groups (Vulkan, OpenGL) spezifiziert ist. Aber auch da kann die Umsetzung unsauber sein, weil evtl. die Spezifikation an einer Stelle unpräzise ist.
Auf der anderen Seite kann es aber auch daran liegen, wie die Spieleentwickler die jeweilige API im Spiel nutzen. Kann also sein, dass die API entweder stellenweise falsch/ineffizeint verwendet wird oder dass die Entwickler damit im Spiel irgendwelche fancy Tricks mit Edge Cases der API veranstalten. Da kann es dann eben zu Performanceproblemen oder Darstellungsfehlern führen, wenn die Entwickler irgendwas mit der API machen, was im Standverhalten der API seitens des Treibers so nicht vorgesehen ist.

Deswegen gibt es ja auch regelmäßig Optimierungen für bestimmte Spiele in den Treibern. Einfach weil die Grafikkartenhersteller damit dann eventuelle Mängel bei der Nutzung der API im Spiel korrigieren oder vom Spiel genutzte Edge Cases gezielt für das Spiel berücksichtigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius, Verak Drezzt und blauescabrio
Frage: Warum habt ihr genau die Intel CPU's die am meisten gekauft und auch in Fertig-PC's am beliebtesten sind weggelassen ? 12400F, 13400F, 14400F ?
 
Mir fielen da spontan zwei mögliche Gründe ein. Der erste wäre, dass CB die entsprechenden CPU gerade schlicht nicht zur Verfügung hat oder für den Test nicht besorgen konne. Der andere Grund wäre schlicht Zeit. Jede zusätzliche CPU erhöht die Anzahl der zu testenden Hardwarekombinationen und damit den Zeitaufwand für so einen Artikel.

Für den Zweck dieses Tests reicht es prinzipiell jeweils eine CPU aus dem unteren, mittleren und oberen Leistungsspektrum zu wählen, da sich alle übrigens CPUs ja einfach irgendwo dazwischen einordnen.
 
Die Einstiegs-CPU ist nicht realistisch, der 12100f wird ja schon wegen den 4 Kernen nicht als Gaming CPU empfohlen. Wer den mit einer zb B580 paart, ist ja irgendwie selber Schuld?

Also die Einstiegs-CPU bei Intel wäre minimum, der heute auch noch immer erhältliche, billige 12400f.
 
anexX schrieb:
Frage: Warum habt ihr genau die Intel CPU's die am meisten gekauft und auch in Fertig-PC's am beliebtesten sind weggelassen ? 12400F, 13400F, 14400F ?
Eine Alder Lake (es sei den als leistungsfähige Core i7 oder i9 Version) CPU würde ich heute nicht mehr für einen Gaming-PC auswählen, und auch einem Raptor Lake Core i3 mit nur vier Kernen nicht mehr.

Den Core i5-13400F könnte man tatsächlich gut für den Einstieg nehmen, sehe ich aber aktuell für 122,90€ gelistet und im Vergleich dazu den Core i5-13600KF für 203,90€.

Und für die 81€ würde ich dann doch gleich zum Core i5-13600KF greifen.
 
@AMD-Flo Core i3-13100x und Core i3-14100x haben 4 P-Kerne und keinerlei E-Kerne.

Core i5-13400x und Core i5-14500x haben 6 P-Kerne und 4 E-Kerne.

Die restlichen Core i5 haben 6 P-Kerne und 8 E-Kerne.
 
Ja, die haben aber alle keine Raptor Lake Kerne. Das sind nur umbenannte 12. Gen Chips.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Ich hätte gedacht das es auch bei den P-Kernen kleine, minimale Detailänderungen gab wie längere Sprungtabellen und sowas.
 
blauescabrio schrieb:
Wie kann sowas kommen? Die programmieren doch keinen Treiber speziell für ein Spiel, sondern sie nutzen APIs wie DirectX, OpenGL, Vulkan.
Leider stimmt das nicht so ganz. Die Treiber von AMD/NVIDIA strotzen vor Profilen für Spiele, die deren Fehler bei der API ausbügeln. Gab dazu schon mehrere interessante Artikel, wie unsauber viele Spiele arbeiten und ohne Tweaks gar nicht sauber laufen, weil sie sich nicht richtig an die API halten.
Intel steht dahingehend noch ziemlich am Anfang und hat im Vergleich zu Alchemist schon riesige Fortschritte gemacht.
 
  • Gefällt mir
Reaktionen: Fresh-D, Sennox, blauescabrio und 2 andere
Zurück
Oben