Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX

an.ONE schrieb:
Welches Spiel von den hier getesteten läuft denn dadurch besser, bzw wo ist der Mehrgewinn durch die 4GB extra?
Dragon Age +139% (wobei sich hier der Vorsprung mit eingeschalteten RT plötzlich in Luft auflöst - nicht dass das bei diesen Karten relevant ist)
Indiana Jones und der große Kreis +79%
Ghost of Tsushima +47%

Sind auch die drei Ergebnisse, die die Karte im Schnitt schon sehr pushen. Daher verstehe ich nicht, warum hier häufig geschrieben wird, dass der CB halt echt "Anti-Intel" ist und der Intel besonders schlecht steht. Würde eher das Gegenteil behaupten - die anderen sind eher "Intel-freundlich" unterwegs.
 
  • Gefällt mir
Reaktionen: eQui
an.ONE schrieb:
Ich frage mich, wieso die 12GB VRam immer wieder hervorgehoben werden?
Welches Spiel von den hier getesteten läuft denn dadurch besser, bzw wo ist der Mehrgewinn durch die 4GB extra?
Fyi
 

Anhänge

  • RT 12 vs. 8 GB.jpg
    RT 12 vs. 8 GB.jpg
    149,8 KB · Aufrufe: 84
Ich verfolge das GPU Geschehen bei Intel aktuell nicht so, aber gibt's Gerüchte, wie die große Karte werden könnte? Wird man da auch wie bei der ersten Generation ca. 20% drauf rechnen können, um von der B580 zur Großen zu kommen?
 
Einige Gedanken zur Grafikkarte:

  1. Gegenüber der Vorgänger-Generation hat man bei Intel einen großen Sprung gemacht.
  2. Der UVP-Preis ist für den Markteinstieg okay. Der Straßenpreis muss weiter fallen.
  3. Die Leistung schwankt je nach Titel doch sehr stark, gefühlt stärker als bei den Vergleichskarten von AMD und Nvidia.
  4. Software-seitig ist man nicht mehr komplett verloren, hat aber immer noch mit vielen Defiziten zu kämpfen.
Aus meiner Sicht reicht das nicht, um sich langfristig am Markt zu behaupten. Ich denke, aus Intels Sicht wäre erst einmal der breitflächige Einsatz in niedrig- und mittelpreisigen OEM-PCs sinnvoll, zumindest bis dann für die dritte Generation die Treibersoftware auf Niveau der Konkurrenz ist.
 
  • Gefällt mir
Reaktionen: floTTes
Besten Dank für Euren aufschlussreichen Test :) @Wolfgang & @Jan , und schade, dass sich beim Idle-Verbrauch nicht noch mehr getan hat bei der B580, denn die Limited Edition bzw. das Referenzmodell von Intel gefällt eigentlich schon sehr (von Kühlung, Lautstärke, schlichtem 2-Slot-Design, usw.).

Damit ist dann auch klar, dass die Arc B580 eine Full-HD-Grafikkarte ist, für ausreichend FPS in den WQHD-Benchmarks müssten oft deutlich die Grafikdetails reduziert werden. Das ist in so fern etwas schade, als dass die Grafikkarte mit ihren 12 GB VRAM per se gut dafür geeignet wäre. Das zeigen auch die Benchmarks, in denen die Arc B580 dann auch ohne Raytracing das Ruder gegenüber der GeForce RTX 4060 übernimmt – nur eben auf einem sehr geringen FPS-Niveau.

Ja gut, im Endeffekt läuft die Karte hier in einem Spiele-Parcours der für (obere) Mittelklasse- bis High-End Grafikkarten ausgelegt worden ist (schon mit Ausblick auf RDNA4 und vor allem RTX 5000er Grafikkarten zusammen gestellt wurde) und ob diese Maximalsettings wirklich realistisch für die Zeil-/Käufergruppe von Arc B580 Karten sind, wage ich ein wenig zu bezweifeln.

Nur weil die Arc B580 schon in den hohen Full HD Einstellungen bei Black Myth Wukong und MechWarrior 5 : Clans kaum Land sieht, heisst das ja nicht, dass nicht eine (größere) Menge von Spielen (die weniger anspruchsvoll sind als die meisten aktuellen AAA Titel des CB Testparcours in (sehr) hohen Einstellungen) auch in WQHD mit dieser nicht möglich bzw. spielbar ist.

Natürlich ist die B580 dafür natürlich schon von der Leistung her auf Kante genäht (ebenso wie eine RTX 4060 natürlich, die in einem anderen Spiele-Parcours natürlich auch anders abschneiden kann), aber für Black Myth Wukong oder MechWarrior 5 : Clans kauft man so eine Karte auch nicht unbedingt zum spielen und bei dem Rest kann man evt. die balanciertes Upscaling oder anderweitig leicht herabgesetzte Einstellungen nutzen, um die B580 halbwegs gut spielbar zu machen.

Die Volatität in der Spieleleistung ist schon enorm bei der B580, was auch Hardware Canucks in deren Analysevideo heraus gestellt haben, wo die Karte bspw. ziemlich in Total War : Warhammer 3 auftrumpft gegenüber der Konkurrenz und dafür aber im populären Rainbow Six Siege ziemlich/überraschend schwach daher kommt.


Der Preis der Intel Arc B580 muss natürlich noch sinken nach der Vorstellung (was ich spätestens kurz vor dem Marktstart von RDNA4 Karten oder RTX 5060 Karten im kommenden Jahr antizipiere).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und SweetOhm
an.ONE schrieb:
Ich frage mich, wieso die 12GB VRam immer wieder hervorgehoben werden?
Welches Spiel von den hier getesteten läuft denn dadurch besser, bzw wo ist der Mehrgewinn durch die 4GB extra? Ich behaupte mal, Das fast jedes Spiel das soviel VRam benötigt, auf der B580 sowieso nicht performant genug läuft.
Indiana Jones
https://www.computerbase.de/artikel...benchmarks_in_full_hd_wqhd_uwqhd_und_ultra_hd
https://www.computerbase.de/artikel...#abschnitt_indiana_jones_und_der_grosse_kreis

8GB-Karten können ihre höhere Leistung nicht umsetzen (RTX 4060 Ti 8GB).
Der RTX 3080 mit 10GB geht es genauso.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und eastcoast_pete
blackiwid schrieb:
Also wenn ich das richtig verstehe ist die GPU so größ die Die wie die von ner 4070 Die Size:

KarteSize mm²
ARC B580272
RTX 4070294
RTX 4060159
RX 7600204
RX 7700xt346

Das Problem ist das die 4060 ungefähr gleich viel Speed schafft mit 40% kleinerem Die und auch AMD schafft 50% mehr RT speed mit der 7700xt mit nur 27% größerem Die.

Sollte es also einen zu nem Preiskampf kommen muss Intel irgendwann oben drauf zahlen pro Karte wie sollen sie da gewinnen.

Und das ist ne "next gen Grafikkarte" von Intel gegen die Last-gen Karten von AMD und Nvidia, die pro mm2 Speed werden bei den jetzt bald kommenden Karten noch steigen.

Für den Consumer mag das auf den ersten Blick halbwegs akzeptabel oder gut klingen solange sie nie was mit Linux machen, aber grade auch in dem Lowend Bereich würde ich mehr Wert auf Raster benutzen weil man da eh immer ungern zeug dazuschaltet aber klar wenn einem 30 FPS reichen, dann kann man mit den 30FPS Raytracing und Auflösung gut hoch drehen, aber wer will die meisten Spiele auf 30FPS spielen?

Achja und den Gebrauchtmarkt muss man auch ignorieren, letztlich kann AMD und Nvidia mit ner kleinen Preissenkung die sie easy machen können von 1-2 Karten die Karte ins Nirvana schießen, wenn die Intel Karte das erreicht, bitte aber als Karte und weil ich nicht sehe warum ich neu Speed kaufen sollte den es schon vor 3-7 Jahren gab, seh ich nicht auch besonders als Linuxnutzer warum das auch nur im entferntesten Interessant sein sollte.

Sie haben also ein Midrange Chip gebaut around 300 mm2 und verkaufen ihn zu Lowendpreisen... ja das ist so Wallmarkttaktik unterste Qualität Butter unter Herstellungspreis verkaufen.
stimme dir voll zu bis auf, das AMD "easy" Preisnachlässe geben kann. die machen ja jetzt schon verlust mit ihrer GPU Sparte, das ist so traurig... ohne die Konsolen würden die keine mehr herstellen.
 
"Mit einem Wechselkurs von 1:1 umgerechnet und inklusive 19 Prozent Mehrwertsteuer ergeben sich 296 Euro. Doch ob Intel in Anbetracht des aktuell starken USD wirklich 299 Euro möglich machen wird respektive kann, bleibt abzuwarten."

@Wolfgang: Ich weiß nicht ob es schon geschrieben wurde, aber der $/€-Wechselkurs liegt doch aktuell immer noch bei 1,049 und nicht bei 1,0. Damit komme ich auf $249 / 1,049 $/€ * 1,19 = 282,47€. Klar wird leider häufig etwas aufgerundet für den EU-Markt, aber warum Intel dann 299€ UVP nicht möglich machen kann, ist mir nicht klar. Das wäre dann ja schon fast 6% Steuer- und Wechselkurs-bereinigter UVP-Aufschlag ggü. der US-MSRP. Ich hätte eher mit 289€ gerechnet. Die 4060 wird aktuell sogar mit -3% und die 7600 mit -2% Steuer- und Wechselkurs-bereinigtem UVP-Abschlag ggü. den US-MSRPs angeboten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Es geht alles in die Richtige Richtung und in dem Fall meine ich "Wirkt bei den ersten Tests runder, als der Vorgänger". Wenn Intel jetzt doch noch durchhälft bei den dGPU, vielleicht ab der nächsten, oder über nächsten Generation eine ernstzunehmende Alternative.

Trotz allem muss man aber auch Objektiv sagen, dass die Konkurrenz besser, bei vergleichbaren Preis ist, und schon AMD muss ja leider sehen, wie schwer es als zweiter ist.

Ich zoll Intel Respekt, dass sie es anscheinend jetzt mal ernsthaft versuchen, aber wenn Intel nicht ihren Nische findet, wird das wohl leider auf Lange Sicht schwer. AMD hat immerhin noch die Konsolen. Intel könnte fast nur noch hoffen, dass Nvidia den Gamerbereich in der Mittelklasse vernachlässigt.
 
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
Für den Consumer mag das auf den ersten Blick halbwegs akzeptabel oder gut klingen (...)
Natürlich ist es für den Consumer gut, wenn ein Anbieter etwas Risiko eingeht um in den Markt zu drängen.
Dann hat Intel bei der Performance pro mm² noch einen Rückstand, aber ich sehe nicht im geringsten warum das uns Konsumenten in irgendeiner Weise interessieren sollte. Seit wann denn das?
blackiwid schrieb:
aber grade auch in dem Lowend Bereich würde ich mehr Wert auf Raster benutzen weil man da eh immer ungern zeug dazuschaltet aber klar wenn einem 30 FPS reichen, dann kann man mit den 30FPS Raytracing und Auflösung gut hoch drehen, aber wer will die meisten Spiele auf 30FPS spielen?
Es gibt doch in einigen Spielen gar keine Möglichkeit mehr RT abzuschalten, ergo wird ganz normal in die anderen Regler integriert und dann kann man auch niedrig oder mittel auswählen.
Die Kritik, dass Karten im Einsteigerbereich Spiele nicht mit hohen FPS auf Ultra schaffen ist die Natur der Sache. Was das nun mit Battlemage zu tun hat, verstehe ich nicht.
blackiwid schrieb:
Achja und den Gebrauchtmarkt muss man auch ignorieren.
Man muss bei dir besonders viele Dinge ignorieren, damit man die Lizenz zum Intelkartenkauf von dir ausgestellt bekommt.^^
blackiwid schrieb:
letztlich kann AMD und Nvidia mit ner kleinen Preissenkung die sie easy machen können von 1-2 Karten die Karte ins Nirvana schießen..
Dann zieht Intel eben mit der Preissenkung nach. Die Karte ist auf alle Fälle günstiger zu produzieren, als eine A770 oder A750, ja sogar A580.
blackiwid schrieb:
warum ich neu Speed kaufen sollte den es schon vor 3-7 Jahren gab
Vor 5 Jahren gab es eine langsamere RTX 2080 bzw. Radeon VII für den dreifachen Preis. Insofern gab es das natürlich nicht.
blackiwid schrieb:
Sie haben also ein Midrange Chip gebaut around 300 mm2 und verkaufen ihn zu Lowendpreisen... ja das ist so Wallmarkttaktik unterste Qualität Butter unter Herstellungspreis verkaufen.
Lowend liegt bei dir bei 249 Dollar UVP? Hm, eher nicht, aber gut sei es drum.
Man ist bei der Performance/mm² noch nicht ganz konkurrenzfähig, das hat nichts mit unterster Qualität und billiger Discountware zu tun. Man bekommt hier wenigstens einen anständigen Chip mit ordentlichem Speicher für halbwegs wenig Kohle, der auch ne gute Anwendungsleistung hat.
 
  • Gefällt mir
Reaktionen: duskstalker, floTTes und Brrr
Sehr schöner Test,

ich muss sagen, ich bin nicht enttäuscht, ich sage ganz ehrlich die B580 ist jetzt die dritte Alternative, wenn ich in genau dem Segment kaufen möchte. Die kleineren Nachteile, wiegen die 12GB die ich bekomme, mehr als auf.

Also ja, ganz ehrlich, wenn der Preis wirklich um die 300 Euro ist, würde ich, wenn ich in dem Segment kaufen möchte, die Battlemage nehmen.
Also es sind Tests, wo ich das messe, wenn ich praxisnah, in meiner Klause, mit meiner Hardware, eine 4060 und die B580 spiele, merke ich da wenig Unterschied, da bin ich mir sicher. Für mich haben die 4060, die 7600 und die B580 was die Leistung betrifft, etwa das gleiche Niveau.
Auch finde ich, die Leistungsaufnahme in Game passend, hat ja auch 12GB, der Speicher braucht ja dann schon auch etwas mehr als die 8GB, im Desktop, mit Anpassung, ist das auch in Ordnung.

Also ja, definitiv, meine Favorit in den FHD Gaming Einstieg ist die B580, und wäre auch die Empfehlung, es ist nichts krasses, was jetzt das no go wäre, es gibt noch Luft nach oben, ja, aber wie CB schon sagte, da hat wohl jede der 3 Karten irgendwie ein Manko.

Also wenn ich wähle, unter 3 Karten, die alle auf ihrer Art ein Manko haben, nehme ich die B580, weil ich da 12GB VRAM bekomme, das muss belohnt werden. So geht das nvidia, amd, in der Einstiegsklasse.
Wäre was anderes, wenn die Karte enttäuschen würde, zb auf Niveau der 6500XT wäre, die damals rauskam,
dann schei..was auf die 12GB, aber das macht die Karte nicht. Und deshalb, go for B580.
 
  • Gefällt mir
Reaktionen: floTTes und SweetOhm
FrittiDeluxe schrieb:
Ich verfolge das GPU Geschehen bei Intel aktuell nicht so, aber gibt's Gerüchte, wie die große Karte werden könnte? Wird man da auch wie bei der ersten Generation ca. 20% drauf rechnen können, um von der B580 zur Großen zu kommen?
Ein früherer Leak sprach von einer Karte mit 24 Cores. Das wären in der Tat um die 20%.
 
  • Gefällt mir
Reaktionen: FrittiDeluxe
Bei PCGH kommt der andere Spiele-Benchmark-Parcours, der 8GB Grafikkarten wohl mehr schlauchen dürfte, wohl der Intel Arc B580 (im Vergleich zur RTX 4060 oder auch der RX 7600XT) zugute und diese insgesamt deutlich besser weg, wie es scheint (also kommt es wohl wirklich auf die Spieltitel an und die gewählten Einstellungen):


Und ja, Hardware Unboxed sind wohl ebenso wie PCGH ziemlich angetan von Intels Arc B580 (auch wenn Battlemage noch nicht alles perfekt kann, aber welche dGPU kann das schon):

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aliosy, floTTes, thornhill und eine weitere Person
SweetOhm schrieb:
Hab für mein ASUS ROG G15 Advantage mit 6800M (12 GB) vor ca. 3 Jahren 1599 € bezahlt.
Ja bringt mir heute aber nichts...... und eins ist fakt aktuell gehts halt bei ca. 2000€ los mit mehr als 8GB VRAM
 
  • Gefällt mir
Reaktionen: SweetOhm
Aduasen schrieb:
Ich denke auch, das Entscheidende ist, wie es mit Intel jetzt weiter geht.
Komm bald eine Serie, die sich gegen die in '25 erscheinenden nVidia und AMD Karten (zumindest am unteren Ende) ebenfalls durchsetzen kann, oder ist nun erstmal Feierabend?
Will Intel wirklich ein ernsthafter Player im GPU Markt werden oder nicht?
Ich bezweifle stark das man unter Betrachtung der aktuell schwierigen wirtschaftlichen Lage solche Liebhaber Projekte lange laufen lässt, Intel muss schnell wieder in die Gewinnzone rutschen, selbst Apple oder Microsoft bei denen Geld keine Rolle spielt, schauen sich solche Projekte maximal 4-5 Jahre an und dann wars das. Intel wird mit dieser Karte vielleicht auf +/- 0 rauskommen. Warum soll ich jahrelang Ressourcen vorhalten die keinerlei Mehrwert für die Bilanz bringen, nur um am Ende vielleicht irgendwas damit zu verdienen. Intel sollte sich auf sein Kerngeschäft konzentrieren und das sind sicher keine Grafikkarten.
 
Der Idle-Verbrauch auf dem Desktop ist für die Leistungsklasse doof. Das kann Intel doch gerade bei den CPUs so gut. :/

Ansonsten finde ich der Gerät nicht so schlecht. Wenn sich der Preis bei sub-300€ einpendelt wirklich eine Überlegung wert.
 
  • Gefällt mir
Reaktionen: SweetOhm
Gekauft, werd meinen Spaß damit haben, wie schon mit der Intel A750 habe.
 
  • Gefällt mir
Reaktionen: Aliosy, ram2k, thornhill und 3 andere
Imbarius schrieb:
Polemik? Du weißt, was das bedeutet?
Ich schon. Du auch?
Imbarius schrieb:
Ich war nicht feindselig, sondern gleichgültig.
Ich habe das als abwertend gelesen. Aber wie dem auch sei, beides muss ich gar nicht unbedingt gegenseitig ausschließen
Imbarius schrieb:
Aber erhelle mich, warum die neue Intelkarte mehr verdient hat.
Das sollte der Test eigentlich getan haben. Es gibt gute Fortschritte, auch wenn das sicherlich noch kein Sandy Bridge-Moment ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
3× DisplayPort 2.1 (siehe Text)
1× HDMI 2.1
Nur AMD Radeon RX 7000 bietet aktuell immer UHBR 13.5 auf den DisplayPort-2.1-Anschlüssen, während Nvidia GeForce RTX 4000 noch bei DisplayPort 1.4 verharrt.
Die neben dem HDMI-2.1-Port verbauten drei DisplayPort-2.1-Ports sind nicht komplett identisch. Nur der in der Mitte positionierte, mit einem Rahmen versehene Anschluss bietet DisplayPort Ultra-High Bit Rate 13.5 (54 Gbps), die anderen beiden UHBR 10 (40 Gbps).
Zeit zu lernen, dass die Versionsangaben alle weggelassen werden sollten und Hersteller dafür kritisiert werden sollten.

HDMI 2.1 ist absichtlich nicht erlaubt für Hersteller so hinzuschreiben, weil es nichts bedeutet.
Can I use "HDMI 2.1" in my marketing?
You can only use version numbers when clearly associating the version number with a feature or function as defined in that version of the HDMI Specification. You cannot use version numbers by themselves to define your product or component capabilities or the functionality of the HDMI interface.

And please note that NO use of version numbers is allowed in the labeling, packaging, or promotion of any cable product.

Please check the Adopted Trademark and Logo Usage Guideline for a complete explanation of the policy, available on the Adopter extranet and the ATLUG document.
https://www.hdmi.org/spec/hdmi2_1
Es gibt HDMI mit TMDS bis zu 18 Gbit/s. Und es gibt FRL in 6 Verschiedenen Geschwindigkeitsstufen. AMD ist schon mal mit den RX6000 aufgefallen, dass sie nicht alle FRL Geschwindigkeiten konnten.
FRLLanespro Lane, GBit/sGesamt, roh, GBit/s
1339
23618
34624
44832
541040
641248
Und "HDMI 2.1" garantiert nichts davon, nur dass der HDMI Port nicht nach der Steinalten 1.4 Spec ist und nach dem Erscheinen der HDMI 2.1 Version auf den Markt gebracht wurde-

Und bei DP, werden ja jetzt erfreulicherweise die UHBR-Geschwindigkeiten genutzt. Aber die alten Geschwindigkeiten hatten auch Namen: RBR, HBR(1), HBR2, HBR3. Nvidia hat bisher max HBR3.

Und DP 2.1 heißt hier halt auch quasi nichts.

Can a DisplayPort 1.4 product be certified as DisplayPort 2.1?​

VESA will only certify devices to the DisplayPort 2.1 spec that support new features outlined in the specification that were not supported in DisplayPort 1.4.
Compliance test specifications for DP 1.2 through DP 2.1 each have a specific list of requirements that products must meet in order to pass certification. DP 2.1 devices must support VESA’s Display Stream Compression (DSC) visually lossless compression standard, as well as at least one of the following features:

  • UHBR with 128/132b encoding which has only 3% overhead (vs RBR/HBR/HBR2/HBR3 with 8/10b encoding which has 20% overhead and was introduced with earlier versions of DisplayPort)
  • AdaptiveSync Secondary Data Packets
  • Link-Training Tunable PHY Repeaters (LTTPRs) which help maintain signal integrity for high-speed DisplayPort signal transmission from source to sink
https://www.displayport.org/faq/#tab-displayport-2-1-standard

Die Angaben sollten eher
1x HDMI (FRL6)
2x DP (UHBR10)
1x DP (UHBR13.5)
sein und gut ist.

(bei allem außer UHBR13.5 sind die langsameren Geschwindigkeiten immer inklusive. Gilt auch für DP Zertifizierte DP80 Kabel. Aber ein Port der UHRB20 kann muss wohl nur UHBR10 können, UHBR13.5 ist optional. Gilt sogar für USB-C Kabel wenn sie nicht DP 80 oder DP54 zertifiziert sind).

Das faszinierende ist, dass Intel bei dGPUs jetzt auf UHBR13.5 setzt. Während sie bei iGPUs genau das auslassen. Seit Raptor (nur in mobile) / Meteor Lake bietet Intel hier UHBR10 und UHBR20, aber kein UHBR13.5. Und die TB5 Controller können auch kein UHBR13.5, weil das aus der Reihe tanzt und sich nicht mit USB4 Geschwindigkeiten deckt.

Da würde man ja hoffen dass sie eine Erklärung haben, was denn nun die Strategie vorwärts ist. UHBR13.5 ignorieren, damit man sich den extra Aufwand sparen kann oder war es ein Fehler es aus den neuen TB5 und TB4 Controllern rauszulassen, wenn die eigenen Grafikkarten das denn nun können...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
für gelegenheitsspieler ist das doch ein ordentliches stück hardware zu einem akzeptablen preis
treiber scheinen auch schon besser zu sein, wenn indiana jones so gut läuft

test unter linux würde mich noch interessieren.
 
  • Gefällt mir
Reaktionen: floTTes und SweetOhm
Zurück
Oben