Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX

EVPointMaster schrieb:
ReBar?
Ja, wissen wir schon seit den Alchemist GPUs
GlĂĽckwunsch, du hast das Video nicht angeschaut, behauptest aber trotzdem halt mal was đź‘Ť

Neue Werte
1000012231.jpg


Neues Fazit: B580 nicht uneingeschränkt empfehlenswert
 
  • Gefällt mir
Reaktionen: Calid
DrFreaK666 schrieb:
GlĂĽckwunsch, du hast das Video nicht angeschaut, behauptest aber trotzdem halt mal was đź‘Ť
Nein du hast das Problem nicht verstanden, also bitte schön auf dem Teppich bleiben.
 
@kryzs Welches angebliche Problem soll ich nicht verstanden haben?
Die B580 verliert bei einem Teil der Games massiv Performance, wenn man keine 650€-CPU nutzt

Das ist eindeutig und kann nicht anders verstanden werden
 
@DrFreaK666, direkt von der Verpackung fotografiert:

IMG_1396.jpeg
 
@kryzs Ich finde die ARC im Prinzip auch nicht schlecht allerdings eher wegen dem QSV Encoder der Spielbereich ist fĂĽr mich nicht so wichtig. Die Linux UnterstĂĽtzung ist relativ gut im Vergleich zu Nvidia und AMD VCE ist fĂĽr Linux leider total unbrauchbar. Mal abwarten evtl. wage ich mal einen Versuch mit der kleineren ARC B wenn sie lieferbar ist.
 
  • Gefällt mir
Reaktionen: kryzs
DrFreaK666 schrieb:
GlĂĽckwunsch, du hast das Video nicht angeschaut, behauptest aber trotzdem halt mal was đź‘Ť

Neue Werte
Anhang anzeigen 1564753

Neues Fazit: B580 nicht uneingeschränkt empfehlenswert


Mir ist das Thema ehrlich gesagt relativ neu, so oft rĂĽste ich nicht auf bzw. baue um. Allerdings sind das hier selbst bei Nvidia mal eben 14% zumindest von den Averages, die mit einem 5600 von 2022 verloren gehen. Ist das das Limit der CPU -- die RTX 4060 ist im Mittel gerade mal ~20% schneller als die RTX 3060 von 2021? Oder Overhead? So oder so: Das ist schon nah an dem dran, was der Entry-Level bei den GPUs seit Jahren ĂĽberhaupt noch zulegt bei den Gens(~20%). Und gerade lower Budget will man nichts "verschenken".

Ich sehe hier eine massive Marktlücke für ein, zwei Budget-Gamer-Portale -- denn die handelsüblichen GPU-Tests mit XXXL-CPU sind hier offensichtlich "überfordert". Auch wenn sie im damit provozierten GPU-Limit das beste reine Leistungsranking zulassen. Diese Portale fehlen generell. Denn bei den meisten gehts vorwiegend noch um Benchmarks und Balken, weniger um Tuning und Optimierung. Das spiegelt in Deutschland als Printmag auch etwa die PC Games Hardware wider. Deren Anspruch sind die Benchmarkstrecken. Früher gabs auch Artikelserien der Marke: "Wie pimpe ich meinen Sockel7-PC noch einmal fürs letzte Gefecht?" Auch natürlich auf Lesernachfrage. Die Leserschaft sah dort früher nämlich auch was anders aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chocobo
DrFreaK666 schrieb:
Die B580 verliert bei einem Teil der Games massiv Performance, wenn man keine 650€-CPU nutzt
Oh, der 9800X3D geht für 650€ über die Ladentheke?
 
Sooo...nach den Feiertagen mal wieder die Datenlage zum B580 überflogen. Bei uns im Geschäft ist noch keine angekommen, unsere Lieferanten haben von dem Ding noch nichts gehört. Spätestens Ende des Monats sollte sich das ändern, aber die "wöchentlichen Restocks" von UVP-Karten kann man wohl ins Märchenreich verbannen.

Interessanter als der Supply (imho klarer Paperlaunch zur Fake-UVP) ist die aktuelle Datenlage der Tests wie oben beschrieben. Die Ergebnisse sind fĂĽr mich ein absolutes Desaster und Wasser auf die MĂĽhlen derjenigen, die hier immer wieder (auch von mir widersprochen) "realistisches" Testing fordern.
Die Ergebnisse auf schwachen CPUs sind eine Katastrophe und geben damit der Karte imho den Rest. Das kann eigentlich kein AufrĂĽster kaufen, der hier auf einen P/L-Knaller gehofft hat.

Neue Zielgruppe: Student der Informatik, der am Lehrstuhl eine High-End CPU zur Verfügung hat und sich die Karte einbaut um heimlich eine Runde zu zocken :D Das war´s so ziemlich...

Alle anderen Besitzer von High-End CPUs kaufen wohl eher mindestens 4070 / 7800xt und keine Arc, die ĂĽber P/L kommen muss. Gut gemacht, Intel! DOA.

Interessant wäre hier noch ggf. für die Redaktion @Wolfgang (vermute, ist viel Arbeit wegen der CPU-Wechsel, aber ein, zwei Spiele würden ja reichen): Bei welcher CPU Leistungsklasse geht das Problem denn los?
i5 9600er, okay. 2500er bei HWU, auch eher schwach. Ggf. gibt es aber noch den einen oder anderen R3600 (war ja mal DIE Budget-Empfehlung) oder 10400er / 11400er, die ebenfalls in Massen verkauft wurden: Sind die schnell genug fĂĽr Arc?

Fällt mir gerade noch ein für die nächsten Mittelklasse-CPU-Tests als neues Testkriterium: "Can it run Battlemage?" :lol:
 
@DrFreaK666

Interessant, leider ist die Grafik sowohl aussagekräftig, als auch nichtssagend.

Die Frage ist, was genau diesen Flaschenhals ausmacht, der in dem Benchmark gemessen wurde und ob es ĂĽber den Schnitt gesehen auch so der Fall ist, oder eher eine Anomalie.

Liegt es an den Latenzen in den Generationen, der Taktraten, oder an beidem.
Bitte mal den Link zur Quelle Posten, damit man sich das genauer ansehen kann.

Danke
 
Chocobo schrieb:
Bitte mal den Link zur Quelle Posten, damit man sich das genauer ansehen kann.

Bittesehr
 
  • Gefällt mir
Reaktionen: Calid
Hm, wie ich es mir gedacht habe.
In gewisser, negativer Weise gesehenes Cherry Picking.

Es werden sehr wenige (schlecht optimierte) Spiele mit wenig aussagekräftigen CPU Kombinationen gebencht.
Erstens sind nur Ryzen vertreten, und dann ein 6Kerner non-X3D mit 8-Kern X3D Pendants gegenĂĽbergestellt.

Das ist irgendwie Murks, man hat keine Relation des auftretenden Overheads gesehen auf einzelne Parameter wie Cache, Kernen und Latenzoptimierung sowie gestiegene Taktraten bei neueren Generationen.

Das muss man sich dann selbst durch Interpolation erarbeiten, wobei Zen 5 auch nur mit der Top X3D vertreten ist, also insgesamt komplett unbrauchbar der "Benchparkour"

Das kann man auch besser ausarbeiten, aber naja HWU ist auch nicht meine Quelle der Wahl.

Edith: das ganze Geheule um die extrem einbrechende Performance bei Zen1+ Prozessoren verstehe ich noch weniger.
Zufällig hatte ich den 2600X damals zu Markterscheinung direkt zugelegt und war negativ beeindruckt von den ach so tollen Ryzen.
Lahm und warm, gerade ausreichend für die damaligen Verhältnisse, aber von einer massiven Mehrleistung ggü. uralt 4-Kern Intel Steinen könnte man gefühlt nicht reden.

Klar, dass die 2025 erst Recht nicht mehr performen.
 
  • Gefällt mir
Reaktionen: incurable
Interessant wäre so etwas wie ein 9700X im Lineup - as is enthalten die Vergleiche zu viele Variablen auf einmal.
 
  • Gefällt mir
Reaktionen: Chocobo
Chocobo schrieb:
Hm, wie ich es mir gedacht habe.
In gewisser, negativer Weise gesehenes Cherry Picking.
Das war nur ein Ausblick. AuĂźerdem hat er auch gezeigt, dass es bei manchen Games ohne CPU-bottleneck die B580 kaum Performance verliert. Von Cherrypicking kann also kaum die Rede sein.
Er hat aber gesagt, dass er die B580 nochmal mit einem Ryzen5 5600 testen wird. Dann wissen wir es genauer
 
Chocobo schrieb:
In gewisser, negativer Weise gesehenes Cherry Picking.
Verstehe die Aussage nicht. Fakt ist doch, dass jemand ein echtes Problem mit der GPU gefunden hat, das für die Zielgruppe super relevant ist. Das genau zu prüfen ist doch das, was man sich als Verbraucher / Käufer wünscht?

Da es sich um Probleme im Bereich eines etwaigen CPU-Bottlenecks handelt, werden logischerweise zuerst CPU-intensive Titel getestet um sich dem Problem zu nähern. Es ergibt keinen Sinn, einen PS-Port in 8k zu testen, da gibt es das Thema nicht.
Was versucht wird ist herauszufinden, welche CPUs noch reichen, um die B580 auszulasten und wo das Problem durchschlägt. Dass ein Ryzen 2500 das Mass aller Dinge ist, behauptet ja niemand im Video, ganz im Gegenteil. Die Community wünscht sich einen vollen Nachtest mit einem Ryzen 5600 - ein sicher nicht unwahrscheinlicher CPU-Kandidat für einen b580-Kunden.

Wenn man das Problem dann vollständig verstanden hat, gibt es einen sauberen Nachtest über ALLE Spiele und eine neue Empfehlung. Dann fehlen dem b580 sicher nicht die extremen 30 oder gar 50% auf eine 4060 in den schlimmen Ausreissern im HWU-Test, sondern vielleicht auf den ganzen Parcour eher 15 - 20%.
Dann ist die Karte zusammen mit dem echten Preis von +300 Euro für Aufrüster preiswerter CPUs trotzdem keine Topempfehlung, mit einer Preissenkung auf z.B. 200€ aber ggf. wieder interessant.

Im Ergebnis würde ich genau die gegenteilige Position von Dir einnehmen und finde, dass HWU hier sehr behutsam vorgeht. Keine Skandalisierung sondern eine schrittweise Abklärung und Anpassung der Empfehlung erst am Ende aller Tests. Ist doch fair?
 
Genau was @Araska gesagt hat, habe ich damit gemeint.

Das ganze ist vielleicht gut gemeint aufgestellt, aber die Variablen im LineUp kann man so rein gar nicht gegenĂĽberstellen.

Also hat man eine Recht einseitige Ausgangslage, die keine anderen SchlĂĽsse zulassen kann.

Mich würde auch interessieren, ob das ganze rein Enginetechnisch beschränkt ist, denn gerade Multiplayer Titel wie CoD, BF und Co. Mit extremen wechselnden CPU-Lasten in großen Maps und Spielerzahlen kann hier nochmal andere Ergebnisse zutage fördern.

Vielleicht bin ich auch zu gĂĽnstig an die Karte gekommen und bin daher durch subjektive Euphorie etwas voreingenommen, finde es aber schade, dass man immer Ă„pfel mit Birnen vergleicht.
Nvidia hatte auch schlechte Jahre und war gezwungen, sich den Forderungen der Konsumenten anzupassen und abzuliefern.
Die Erfolge die gefordert wurden, haben sie auch nicht in 2-3 Jahren aus dem Ă„rmel geschĂĽttelt.
 
Das sind ja valide Argumente. Die von Dir geforderten Tests sind aber natürlich komplex und eher von einer Zeitung mit 20 Redakteuren zu stemmen als von einem kleinen Onlinemedium. Ich denke daher, es wird noch eine Weile dauern, bis wir die ganze Wahrheit für verschiedenen Lastszenarien und CPUs kennen. Einfach, weil B580 sich anders verhält als andere Karten.

Wenn die an sich ja gute GPU einfach mehr CPU-Power braucht als andere, ist das ja an sich kein Drama und für Käufer schneller CPUs egal - andere Käufer würden das nur sicher gerne wissen.

Und natürlich bleiben, das kann man bedauern, ist aber immer so, nur die Headlines hängen bei den meisten:

1. Intel GPU-Kernschrott, nie kaufen (Alchemist Reviews) - stimmt ja so nicht mehr
2. Intel GPUs haben eine brillante P/L und sind aktuell der King im Bereich 249 USD (Battelmage Reviews) - stimmte so ja auch nicht ganz, war aber kurz der Tenor
3. Intel GPUs wie immer verbuggt, bloss nicht kaufen, wenn ihr keinen 9800x3d habt (Reddit-User nach diesen ersten Analysen) - Auch das stimmt ja so nicht. Aber die später folgende Differenzierung sehen dann nur noch die Leute, die sich damit befassen. Komplexität sorgt nicht für viele Klicks, extreme Headlines schon.
 
  • Gefällt mir
Reaktionen: Chocobo
Chocobo schrieb:
Vielleicht bin ich auch zu gĂĽnstig an die Karte gekommen und bin daher durch subjektive Euphorie etwas voreingenommen
Ah daher weht der Wind, also ehrlich HU gibt sich in der Kürze der Zeit viel Mühe und weitere Tests werden folgen aber eine Tendenz bei dem aktuellen Stand (Treiber) ist eindeutig. Nämlich das BM ein Problem mit kleineren CPUs hat. Wer einen 9800X3D oder ähnliches im Rechner hat wird wohl nicht zu B580 greifen.
 
Sind das 'kleinere' oder 'ältere' CPUs mit den Problemen?
Evtl schmeckt der Treiber/Engine-Kombination eine Eigenheit der alten Ryzen nicht, eventuell benötigt der Treiber einfach zu viel CPU, vielleicht hat Intel AVX512-Instruktionen verbaut (warum auch immer)... ich nix wissen.
 
  • Gefällt mir
Reaktionen: Chocobo
Mich würde bei den Tests generell die Encoder und Decoder Leistung im vergleich zu anderen Lösungen interessieren…
 
ZurĂĽck
Oben