Test Arc B580 12 GB vs. RTX 4060 8 GB: Leistungsunterschiede mit und ohne Unreal-Engine-Spiele

Wolfgang schrieb:
Davon abgesehen ist die Arc B580 auch eine Full-HD-Karte, für WQHD ist sie oft zu langsam.
in der Praxis muss Keiner@maxed spielen (vol.Wolken+UltraHyperSchatten sind kein Muss)
Wolfgang spielt wohl privat mit jeder Hardware immer maxed?, ... was ich mir persönlich mit meiner
kleinen CPU eeh verkneifen würde. Nicht Jeder hat soviel Schotter für ne teure CPU+Board+RAM.


Im Einzelfall würde ich in WQHD mal probieren wie XeSS 2 dann mit Balanced+FG ausschaut.
Leider ist momentan nur F1 24 mit dem neuen XeSS 2 verfügbar, sollte sich aber hoffentlich zügig bessern.

vermutlich
werden die Modder auch schnell nen Weg finden, wie man das neue XeSS2+FG in ältere Spiele reinkopieren kann
 

Anhänge

  • b580@balanced+FG.jpg
    b580@balanced+FG.jpg
    23,2 KB · Aufrufe: 33
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andy_K
DrFreaK666 schrieb:
Woran machst das aus?
Ich fand es von Anfang an fair, wie PCGH zwar Fehler schon bei Arc Alchemist benannt hat, aber nicht so ein abwertend voreingenommener oder bemitleidender Unterton wie bei anderen da ansatzweise mitgeschwungen ist (so habe ich das jedenfalls wahr genommen) und vor allen Dingen Intel bei dGPUs deswegen nicht gleich abgeschrieben hat im Gegensatz zu anderen, die Intel dafür das Gaming-dGPU Debüt (von oben herab) belächelt haben.

Ähnlich wie jetzt Gamers Nexus hat man dort noch früher erkannt, dass zwei Jahrzehnte Treiberentwicklungsvorsprung auch mit eingepreist werden sollten als Bewertungsfaktor (das heisst nicht die Arc Alchemist mit ATI/jetzt AMD Rage 128 Pro oder nVidia Riva TNT Karten direkt zu vergleichen, die (treiberseitig) auch alles andere als rund damals mit deutlich weniger Spielen für weniger APIs liefen, aber in dem Stadium befand sich Intel mit Arc Alchemist zeitlich).

Die Berichterstattung war relativ regelmäßig und man war dort interessiert wie es mit Intel Gaming GPUs bei Arc Alchemist weiter geht seitens PCGH immer wieder mit Beiträgen (Artikeln und Videos) ganz im Gegenteil zur Haltung bei CB, die von signifikanten Neuigkeiten (Treiberupdates bspw.) gar nicht erst berichtet haben (wohl auch in der Annahme, dass es die CB Community nicht interessiert), obwohl das von einigen (auch meiner Wenigkeit) damals kritisiert wurde.

Das kann man machen aber ich finde es gerade gut und fair einem Markt-Neueinsteiger soviel Plattform - und Möglichkeit zu zeigen wie man sich stark verbessert - zu geben als Etablierte und Quasi-Monopolisten (AMD und nVidia respektive) in deren Stellung noch zu belohnen und die Berichterstattung zu Intel dGPUs zu minimieren wie das bei CB bis kurz vor Battlemage m.M.n. leider der Fall war.

Das hat man nun zwar hier geändert, aber ob das anhalten wird, ist zu bezweifeln und man gibt ja selber zu, dass diese Leistungsklasse (für die eigene Community) nicht den Fokus verdient wie teurere Hardware (und dazu passend Full HD gegangen werden soll, es sei denn Spiele sind wohl so fordernd, dass man wie etwa bei MechWarrior 5 : Clans oder Black Myth Wukong evt. schwerlich drum herum kommt auch bei obere Mittelklasse bis High End Grafikkarten (weil man am "in Stein gemeißelten" einzelnen Testparcours dann evt. doch nicht ganz festhalten kann (kaum spielbare Resultate ähnlich wie bei den beiden o.g. Spielen mit einer B580 heraus kämen), aber das muss man abwarten.

Ich hoffe das erklärt wieso PCGH für mich bei den Intel dGPUs Tests bisher Referenz im deutschsprachigen Raum war (und CB oder andere bspw. nicht) und das schreibt jemand, der bisher nicht bei PCGH im Forum/in der Community angemeldet war und auch sonst der Website (Werbung, Design, etc.) nicht unbedingt so viel abgewinnen kann, aber Raff's Videos (und Artikel) sind i.d.R. echt gut, wie ich finde.

In den USA scheint übrigens die Intel Limited Edition der Arc B580 ziemlich schnell weg gegangen zu sein und scheinbar gibt es erst Anfang Januar wieder Nachschub (so dass man womöglich bei Intel zumindest im US Markt die Nachfrage nach dem Referenzmodell unterschätzt haben könnte).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chocobo und konkretor
GreatEvil schrieb:
Das muss ich aber gar nicht. Ich nutze einfach meine 2 Jahre alte RX6700XT weiter, die sogar noch schneller ist und mich schon vor 2 Jahren kaum mehr gekostet hat.
Warum redet man hier auf Tod und Teufel dieses schwache Intel Produkt schön?
Das ist so lächerlich.
Hast du recht. Sie ist in der Effizienz nicht einmal so viel besser dass man sagen könnte die preisliche Differenz bekommt man durch die Stromrechnung wieder rein.

Es ist wirklich eine schlechte Karte und ich sags nochmal. Es lag an Radja. Er wurde wegen der ineffizienten Vega bei AMD gegangen und bei Intel hat er grad so weitergemacht.
 
  • Gefällt mir
Reaktionen: dohderbert
Deinorius schrieb:
Bei TechPowerUp erreicht die Karte selbst in UHD ganze 75 fps! In 1440p sind es immer noch 128 fps und in FullHD ganze 170 fps. Nein, muss man nicht. Es ist schön, diese Werte zu wissen, aber deshalb muss nicht jede Seite Spiele testen, die in UHD spielbare Resultate erbringen, während die Grafikkarte für diese Auflösung nicht mal gedacht ist.
Die RTX 4060, die es zu schlagen gilt, erreicht hier auf CB in TW3 gerade einmal 63,8 FPS (1%) - also fluffig spielbar. Mit RT sind es nur noch 38,4 FPS (1%).
Wäre interessant zu sehen gewesen, ob die B580 hier schon aus dem LFC-Bereich (48 FPS) kommt- auch wenn das Spiel natürlich schon paar Jahre auf dem Buckel hat.

DevPandi schrieb:
Das Problem mit vielen der Spiele ist aber, dass man keine zuverlässigen gleichbleibenden Testbedienungen garantieren kann.
Das ist es leider. Man kann das System ja nicht einmal "einfrieren" und später wieder auspacken. Neuere Treiber könnten auch besser auf älteren Karten sein - also sind diese Werte ebenso hinfällig.

Ich beneide niemanden, der sich vor diese ganzen Games, Treiber, GPUs und Systeme setzen muss.

Vielleicht verschiebt ihr eure GPU-Tests in die Retro-Ecke: dann ständen nächstes Jahr Tests für GeForce 500 und Radeon HD 6000 an (auf Windows 11 24H2 mit VHCI und rBar). :evillol:
 
Zuletzt bearbeitet:
papa_legba schrieb:
@blauescabrio Kritiker von Testmethoden mit Verschwörungstheoretikern und Querdenkern in einen Topf zu werfen ist aber auch nicht besser.
Mir geht dieses "Mir gefällt das Ergebnis nicht, also mache ich laut MIMIMI" einfach nur noch auf den Wecker. Das greift in letzter Zeit so inflationär um sich, dass es kaum noch zu ertragen ist. Ein trauriger Höhepunkt war diese woke Snowflake, die bei der Trump-Vereidigung laut "NOOOO" geschrien und geheult hat.

Wenn euch die Testmethoden von CB nicht passen, macht eure eigenen Tests und lasst die anschließend von der Community zerreißen. Niemand hindert euch.
 
  • Gefällt mir
Reaktionen: Brrr
sorry, aber ein GPU test sollte die Hardware auf dem jeweiligem Game testen und da hat eine Software die weder auf allen Krten, noch in allen Games läuft nun mal nichts zu suchen.
Das viele Aktuelle Spiele nicht mehr ohne upsampling klar kommen liegt in der natur der sache, aber das kann man dann in den Spieletests mit anführen. zumal es ja nicht nur Geschwindigkeits sondern auch qualitätsunterschiede gibt.
DLSS/FSR/ oderr Intel lösung hat mit der Hardware an sich nichts zu tun, gerade weil software reifen kann
eventuell sieht die Intel oder AMD lösung in 2Jahren genausogut aus wie DLSS und läuft auf einmal auch auf Nvida schneller das hat dann nichts mit der Hardware zu tun.
wenn die Hardware heute Nativ 30fps mit dem Spiel bringt und in 2Jahren dann 40fps Nativ liegt dann an der Hardware, bzw der Software des spiels.
wenn jedoch DLSS nun 60fps auf einer Nvidia liefert FSR jedoch nur 50fps auf AMD und gar nur 40fps auf einer Intel GPU hat das nichts mit der Hardware zu tun da alle nativ 30fps bringen
 
  • Gefällt mir
Reaktionen: Three of Nine
Wolfgang schrieb:
Die B580 kommt auch in Spielen auf diesen maximalen Wert, die 190 Watt haben wir ja auch in Metro Exodus in Ultra HD gemessen. Abseits einiger Spezialfälle und für die Karte viel zu hohen Auflösungen wird es mit der B580 aber schwer werden, an eben jene maximale 190 Watt zu gelingen.
So, gerade vom nächsten Weihnachtsmarkt in Borken wieder da.
Schade, Metro Exodus hatte ich nicht auf dem Rechner. Scheint sich hier eher als Ausnahme darzustrellen. Mich haben vorwiegend nur die jüngst getesteten Blockbuster hier auf CB interessiert und da kam ich definititiv nicht annähernd auf 180W, obwohl ich auch die Auflösungen gewechselt habe. Eigentlich habe ich alles ausprobiert , um die Karte auf max. Last zu bringen. Nur in den synthetischen Benchmarks war dieses ohne Probleme möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bert
Wolfgang schrieb:
Davon abgesehen ist die Arc B580 auch eine Full-HD-Karte, für WQHD ist sie oft zu langsam.
Häää? Sie wird von Intel als 1440p Karte beworben und sie liegt leistungtechnisch bei HD zwischen eine 4060/7600 und eine 4060ti/7700. Und da reden wie über HD Specs. Erstaunlicherweise schmiltz der Vorsprung bei QHD.
Also schein die GPU durchaus genug leistung für QHD zu haben, wen man die balken nicht alle auf ULTA stellt und RT aus bleibt. Oder ist CB da auf was ganz anderes gekommen? 45-57 FPS auf max settings, weiß ja nicht, aber für mich sieht das schon wie ne QHD GPU aus. ALso zumidnest wen man nich sehr tief in die tasche greifen will. Treiber solln sich ja auch angeblich gebessert haben.

1734307743487.png

1734307601277.png
 
  • Gefällt mir
Reaktionen: GerryB
Aus meiner Sicht verhält sich CB mit dem Testparcours richtig, da die aktuelle bzw. zukünftige Marktlage in der Spieleindustrie besser abgebildet wird - der Trend geht zu UE 5. Selbst ein CDPR hat seine eigene Red Engine ad Acta gelegt und nutzt für den nächsten Blockbustertitel die UE 5.0.

Auch kleinere Entwicklerstudios wie Coffee Stain (Satisfactory), hatten im Rahmen der Entwicklungsphase ihr Spiel von UE 4 auf UE 5 portiert, um hier auch zukünftig besser aufgestellt sein zu können.

Wenn CB nun vermehrt UE 5 Titel im Testparcours nutzt, weil es die Marktlage so vorgibt, dann erhält der User hier ein aussagekräftigeres Ergebnis als bei anderen Testseiten, die noch immer ältere Titel inkludieren.

Es kann natürlich sein, dass potenzielle Kunden einer Einstiegs-GPU eher anspruchslosere Titel spielen. Diese Kundschaft wird aber eher weniger nach Tests zu aktuellen Titeln suchen, sondern explizit nach Ergebnissen in ihren Lieblingstiteln Ausschau halten - das war früher auch schon der Fall.

CB kann aber nicht jeden erdenklichen Anwendungsfall abbilden. Die Ressourcen und Zeit hat eine einzelne Redaktion einfach nicht.
 
  • Gefällt mir
Reaktionen: blauescabrio
DrFreaK666 schrieb:
34FPS - im Durchschnitt, das bedeutet auch Ausreißer nach unten. Natürlich kann man RT nutzen, geht auch mit meiner 6700XT. Aber wie sinnvoll ist das?
Naja, alles unter der Ultra-Ägide.
Das gilt sowohl für die RT Einstellungen als auch für die restlichen, sowie auch Auflösung.

Warum immer so getan wird man könne kein RT nutzen, aber müsse gleichzeitig jede Menge anderen Regler auf ultra drehen - nur kein RT - ist mir ein Rätsel.

https://www.3dcenter.org/artikel/launch-analyse-intel-arc-b580/launch-analyse-intel-arc-b580-seite-2

Laut der Meta Analyse ist die B580 auch in RT knapp 30% vor der 6700XT, hier also 45% abweichend platziert als im Testmittel.

Dieser Test liefert mit großem Abstand die schlechtesten Werte für die B580.
Vielleicht sollte man sich für die Zukunft auch überlegen diese überflüssigen Gesamtratings nicht mehr zu nutzen, bei 6 RT Spielen ein solches zu bilden ergibt keinen Sinn.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Häää? Sie wird von Intel als 1440p Karte beworben und sie liegt leistungtechnisch bei HD zwischen eine 4060/7600 und eine 4060ti/7700
Nur weil sie von Intel so beworben wird, heisst das noch lange nicht das sie sich auch so einordnet. Die konkurrenz karten die du Aufzählst sind auch von der Leistung FHD Karten. Sicher kann man ein setting vorgeben, wie z.b. Es ist eine WQHD karten mit mittleren-high einstellungen. Aber dann ist sie das nicht mit max einstellungen.
 
Danke für den Test. Ich nutze meine RX7600 schon fast ein Jahr und bin sehr zufrieden bis jetzt keine Probleme. Im Vergleich ist Intel B580 für mich eine Katze im Sack. Werde ich definitiv nicht Intel kaufen.
 
  • Gefällt mir
Reaktionen: blauescabrio
Northstar2710 schrieb:
Nur weil sie von Intel so beworben wird, heisst das noch lange nicht das sie sich auch so einordnet. Die konkurrenz karten die du Aufzählst sind auch von der Leistung FHD Karten. Sicher kann man ein setting vorgeben, wie z.b. Es ist eine WQHD karten mit mittleren-high einstellungen. Aber dann ist sie das nicht mit max einstellungen.
Das ist mit Sicherheit so, mit der B580 kann man in WQHD sicher schon einmal reinschnuppern.
Sie bietet hier Vorteile mit ihren 12GB VRAM gegenüber vielen Karten mit 8GB, da 8GB häufig auch schon in FHD an ihre Grenzen kommen. Typische und uneingeschränkt zu empfehlende WQHD Karten fangen aber bei mir erst mit der RTX4070 (S) oder 6800XT/ 7800XT an.
Ergänzung ()

DevPandi schrieb:
Intel hat zugeben, dass sie entsprechend in ihrem Compiler Optimierungen für 3dMark und co drin haben. Intel hat sich gerade mit Alchemist ein massives "Treibermonster" an den Halsgebunden. Mit Battlemage hat sich das "gebessert".
Das war mir auch bekannt. Ich hatte kurzzeitig eine A770 (für 200€ aus Spaß über Kleinanzeigen gekauft und 14 Tage später wieder zum gleichen Preis verkauft), und hier wichen die Ergebnisse vom TimeSpy enorm von der tatsächlichen Spieleleistung ab. Zudem hatte ich auch mehr Grafikfehler in Games als mit der B580.
Das alles ist hier jedenfalls schon erheblich verbessert worden.
 
Zuletzt bearbeitet:
@Northstar2710
Das ist richtig. Dafür gibts aber Tests. Und die Test zeigen ja das sie oft für QHD schnell genug ist. Nicht immer um alles auf Max Settings laufen zu lassen, aber dannach gehend wäre gar keine GPU eine QHD Karte, da es immer Spagettcode gibt die irgendwas in die Knie bringt, oder so wie es umgekehrt DevsGenies gibt, die ihren Code so optimier das selbst steinzeit-Hardware 100FPS+ bringt...

Wwo ziehe ich dann da meine Grenze?! Wen wie hier aber bei Max setting jeder zweite noch stabiele 60 fps, praktisch jeder titel 30 fps bringt...
und eine 7700 ist sicher keien FHD GPU. Sie bringt fast immer konstant 60 1% FPS auf QHD, und liegt bei rastrizing zumindest auf Augenhöhe mit der 4070 wen ich mich nicht total teusche.

Ich bin mir selber nicht sicher ob ich mir eine B580 mit nen 1440p Monitor kaufen würde. Das liegt aber eher den gerüchten Geschuldet, das Battlemage angeblich die letzt GPU Gen von Intel sien soll. Vielleicht nur Fake news. Aber on longterm wäre das eine Kathastrope eine GPU zu holen, die Übermorgen nur noch schlecht als recht supportet wird.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Häää? Sie wird von Intel als 1440p Karte beworben und ...
Erstaunlicherweise schmiltz der Vorsprung bei QHD.
Also scheint die GPU durchaus genug Leistung für QHD zu haben, wenn man die Balken nicht alle auf ULTRA stellt und RT aus bleibt. Oder ist CB da auf was ganz anderes gekommen? 45-57 FPS auf max settings, ...
1+

Mit 1-2 Reglern links reichen dann die minFps, um auch FG nutzen zu können.
sehe da kein Problem, weil ja deutlich mehr Vram vorh. ist als bei manch komischer 8GB-Konkurrenz
(ne teure 8GB-4060Ti@388€ ist da oft schon limitiert, weil der Vram nicht reicht, ... rBar+FG belegen zusätzlich Vram!
und mit direct storage wirds vermutlich noch schlimmer ala RC)

Würde mich nicht wundern, wenn man aus o.g. Grund () in WQHD neuerdings mit DLSS testet, damit manche
Vramkrüppel überhaupt noch klar kommen.
 
Zuletzt bearbeitet:
FG waren wieder die Fakeframes? Ich kann mir die ganzen Abkürzungen, aber auch Modebezeichnungen nicht merken.
Falls es die Fakeframes sind, muss ich da leider wiedersprechen. Fakeframes sollen erst bei hohen nativen FPS sinn machen. Denn mit Fakeframes erkauft man sich eine höher Latenz und Grafikfehler, die in Abhängigkeit der Gesamt FPS stehen. Und Framedrops bleiben halt dort weiter Spürbar. Zumindest dieses Gemischte Erfahrungsbild wurde halt von HardwareUnboxed immer beschrieben.

Oder verwechsel ich jetzt FG mit nem anderen feature?:evillol: Bin und bleibe halt nen Fan von nativer Rechenleistung, da ich alter knauserer immer mehr den eindruck bekomme das viele Features eher dazu dienen den Kunden übern Tisch gezogen wird.
 
hoch = ?
In den meisten Singleplayergames werden zwar offiziell min 60fps empfohlen
aber
nach meinen persönlichen Erfahrungen sollten 50fps auch reichen, um FG zu betreiben.(=50-->100)

Wer kompetiv spielt nutzt andere Möglichkeiten, sprich eher reduzierte Qualitätsettings, um auf seine
Wunsch-Fps zu kommen.
 
Houdini_13 schrieb:
Ok, also ich bin ja generell fan von den upscalern, aber ich finde es generell bedenklich mit denen zu testen. Völlig unabhängig davon, was Leute nutzen und was nicht und was besser aussieht. Die besten standardisierten Tests gibt es nur ohne upscaling.
Im Fall von der B580 war es sinnvoll mit Upscaling zu Beinchen. CB hat eine Interssante Schwäche bei dieser Karte aufgedeckt.
 
Zurück
Oben