Leserartikel Eins, zwei, drei vier Eckstein (Arc A310 im Lesertest)

alles muss versteckt sein.
Oder, wie Goliath auszog, die Welt zu erobern.

Intel Arc A310 (10-03).JPG

Arc A310 und Radeon RX Vega 56 im Stillen vereint
Inhaltsangabe



Einleitung

Mittlerweile sind mehrere Monate ins Land gezogen und Intels Grafikkarten-Portfolio ist vollständig veröffentlicht worden. So kamen jetzt die Arc A580 auf den Markt, mit reichlich Verspätung und einer starken Konkurrenz seitens AMD und nVidia.
Und, oh Wunder, auch die kleinste Arc in Form der A310 ist jetzt auf dem deutschen Markt erhältlich.
Für günstige hust 120€ inkl. Versand konnte ich nicht nein sagen.

Beim ersten Blick stellt sich hier die Frage: wofür?
Und beim zweiten: echt jetzt?

Warum diese provokativen Worte? Weil wir hier von 75* W TDP und einer Low-Profile-Karte mit zwei Slots Bauhöhe sprechen.
Und in diesem Bereich tummeln sich schon die neuen Radeon iGPUs aus dem Hause AMD. Also schauen wir mal, ob diese Karte doch irgendwie eine Daseinsberechtigung hat.

*den 30 W Wert bei Geizhals kann man ignorieren

Nähere Betrachtung der techn. Daten

Die Arc ähnelt in der Rechenleistung einer Radeon 680M, wie sie z.B. im Ryzen 7 6800H Verwendung findet. Nur bei der Texel Leistung (@ heimlicher CB-User: Rasterleistung) kann sie sich mit großem Abstand an die Spitze setzen, 50% beträgt dieser, und auch der Vorsprung bei der Speicherbandbreite von 60% ist nicht zu verachten, kann die RDNA2 Architektur es hier doch nicht durch den Infinity Cache ausgleichen. Ob die Arc Karten einen so großen L3 Cache von 16 MB wie die DG1 aka Xe GPUs haben, konnte ich leider nicht in Erfahrung bringen.
Dieser existiert schlicht nicht in den mobilen Ablegern, was aber kein Nachteil sein muss (siehe Test im Lenovo).
Während man also die Xbox Series S in den TFLOPs schlagen kann, liegen die Series X und Playstation 5 uneinholbar vorne.
Vorteil der Arc ist hier klar die Lautstärke, die trotz nur zwei 50mm Lüfter auch unter Last sehr leise agieren. Die anvisierten 75 W TDP dürften auch mit dem Overclocking von 250 MHz auf der GPU in keinem Szenario erreicht werden, denn selbst die A380 trägt das 75 W Siegel. Beide Daten sind dabei aus der Intel eigenen Datenbank entnommen.

Tabelle

RX 6400Vega 8Vega Mintel DG1intel Arc A310GeForce RTX 3050 LaptopRadeon 680mMTT S30
Date04/202201/201902/201810/202010/20232023
ArchitectureRDNA 2GCN 5.0GCN 4.0Gen 12Gen 12.7, AlchemistAmpereRDNA 2MUSA
CodenameNavi 24RavenPolaris 22Iris XeDG2-128GA107Rembrandt+
Operation Area:Notebook originallyAPU NotebookSoC Notebook/NUCNotebook originallyDesktopNotebookiGPU
Manufacturing Process6 nm12+ nm14 nm10 nm6 nm8 nm6 nm12 nm
Transistor count5,4 Mrd.ca. 4,94 Mrd.5,0 Mrd.---7,2 Mrd.8,7 Mrd.13,1 Mrd.
DIE size107 mm²ca. 210 mm²208 mm²95 mm²157 mm²200 mm²208 mm²
TDP53 Wca. 15 W65 W25 Wmax. 75 W45 W45 W40 W
Clock Speed GPU1.923 / 2.321 MHz300 / 1.200 MHz931 / 1.011 MHz300 / 1.650 MHz2.000+ MHz1.065 / 1.343 MHz2.200 MHz1.300 MHz
ROPs3283224323232
Pixel fillrate74,27 GP/sca. 8,8 GP/s32,35 GP/s39,6 GP/s78,4 GP/s42,98 GP/s70,40 GP/s
Cus1282066 ?1612
Shader7685121.2807687682.0487681.024
TMUs48328048646448
Texel fillrate111,4 GT/sca. 35,2 GT/s80,88 GT/s79,2 GT/s156,8 GT/s85,95 GT/s105,6 GT/s
TFLOPS:
FP167,13ca. 2,2532,5885,0696,145,5016,758
FP323,565ca. 1,1262,5882,5343,075,5013,3792,6
Memory size4 GB2 GB / Shared4 GB4 GB4 GB4 GBShared4 GB
TypeGDDR6Shared DDR4-2400HBM2LPDDR4XGDDR6GDDR6Shared DDR5-4800LPDDR4X
Memory clock2.000 MHz (8.000 MHz)2.400 MHz700 MHz2.133 MHz1.937 MHz (7.748 MHz)1.500 MHz (6.000 MHz)4.800 MHz
Memory interface64 Bit2x 64 Bit1024 Bit128 Bit64 Bit128 Bit128 Bit128 Bit
Memory bandwidth128 GB/s38 GB/s179,2 GB/s68,26 GB/s124 GB/s192 GB/s77 GB/s
Infinity Cache16 MB @ 416 GB/sn.a.n.a.n.a.n.a.n.a.-n.a.
L1 Cache320 KB?2.048 KB128 KB ?
L2 Cache1.024 KB??1.024 KB1.024 KB4.096 KB2.048 KB2.048 KB
L3 Cachen.a.4 MB (CPU only?)n.a.16 MB?16 MB (CPU only?)
CPUCore i3 10105 (4C/8T)Zen+ (4C/8T)Core i7 8705G (4C/8T)Core i3 10105 (4C/8T)Core i3 10105 (4C/8T)Zen 3+ (8C/16T)Zen 3+ (8C/16T)

Damit kann der Angriff auf die beiden Platzhirsche beginnen, die Treiber haben in den letzten Monaten ja auch immer wieder Fortschritte erlebt und selbst die angestaubte DG1 von Gunnir verrichtet wieder ihren Dienst, als wäre nichts gewesen.
Zur Erinnerung: diese Karte hatte ich letztes Jahr vorgestellt und nachdem ich einen Beta Treiber installiert hatte, wollte dieses gute Stück nichts mehr machen. Windows Neuinstallation könnte helfen? Fehlanzeige. Zur Strafe verschwand sie in der Schublade.
Nachdem ich gebeten wurde, diese auch mal mit einem Core 2 Duo auszuprobieren (kleiner Spoiler: funktioniert nicht und ist damit auch keine Hilfe für neue Videoformate) setzte der Basteldrang wieder ein, aber noch blieb die Karte im Schrank. Erst mit erscheinen der A310 wurde auch die DG1 reaktiviert.
Und wie durch ein Wunder funktionieren, beide Karten auf Anhieb – fast. Denn während zumindest die Gunnir letztes Jahr noch in BOINC einen Marathon vollzog, war dieses Jahr Sense, Ende im Gelände, ist nicht.
Naja, man kann nicht alles haben.

Intel Arc A310 (2-02).JPG


Während die Treiber hier (noch) laufen, treiben mich die Intel „eigenen“ bei der Vega M wiederum in den Wahnsinn, aber das ist eine andere Geschichte.

Testsystem

Hardware:
  • Core i3 10105 (4C/8T)
  • 24 GB DDR4 @2.133 MHz von Crucial
  • OS und Games: Samsung 1 TB SSD
  • Asus Prime B560M-A
  • Endorfy gehäuse und AiO
  • Grafikkarten:
Software:


Benchmarks

In den Benchmarks zeigt sich dann auch ein sehr gemischtes Gefühl. Im 3DMark ist man mal in Schlagdistanz zur RX 6400, mal überholt man diese und mal wird man selbst von der iGPU Radeon 680M geschlagen.
In den Raytracing Benchmarks liegt man immer vor der kleinen RX 6400, außer in Solar Bay, dieser wollte partout nicht starten. Während also dieser Vulkan-API Benchmark nicht läuft, liegt man in den anderen beiden Vulkan Benchmarks Wild Life und Wild Life Extreme auf Augenhöhe – mhh.

So nebenbei läuft die 680M nicht mit Speed Way, während sich die RX 6400 noch durchkämpft. Beide basieren auf der RDNA 2 Architektur, beide nutzen 12 Cus.
AMD und UL, warum?

3DMark 001_1.png


3DMark 001-01_1.png


3DMark diverse 001_1.png

Inhaltsangabe

Intel DG1 gegen Arc A310

3DMark 002_1.png



Final Fantasy XIV

Im älteren Final Fantasy XIV sind die Voraussetzungen zwar geringer, aber auch hier gibt man sich der RX 6400 klar geschlagen und liegt auch hinter der Vega M.
Final Fantasy XIV Standard_1.png



Final Fantasy XIV High_1.png


Inhaltsangabe

Final Fantasy XV

Final Fantasy XV sieht die Karte in der Einstellung High in allen vier Auflösungen knapp auf Augenhöhe mit der Vega M, die noch einen alten Polaris 22 Chip mit 20 Cus und 4 GB HBM2 nutzt.
Final Fantasy XV Standard 001_1.png



Final Fantasy XV High 001_1.png



Final Fantasy XV High 002_1.png


Inhaltsangabe

PLA (Unreal Engine 3)

PLA 001_1.png


Inhaltsangabe

Raytracing in Neon Noir und 3DMark

Crytek Neon Noir 001_1.png



Hier liegt die Radeon 680M im Ryzen 7 teils noch vor der diskreten Variante RX 6400 - die iGPU kann sich stärker beim RAM bedienen und ist nicht durch die 4 GB der 6400 begrenzt.
3DMark 003_1.png


Inhaltsangabe

Abschließende Worte

In meinem Kuriositätenkabinett haben sich mittlerweile einige Karten angesammelt. Die A310 gehört mit ihrer Ausstattung und Leistung sicherlich auch dazu. Einerseits bietet man moderne Hardware, Stichwort AV1, andererseits bietet man Leistung, die teilweise sogar von einer Vega M, einem alten Polaris Chip, überboten wird.
Ich sehe kein vernünftiges Arbeitsgebiet für diese Arc Variante. Entweder man greift zur stärkeren A380, die es auch als Low Profile Variante gibt oder man nutzt gleich die Radeon RX 6400, die wenigstenes auch Single Slot Variante erhältlich ist.
Solange es keine AMD APUs mit RDNA2 und mehr als 12 CUs im Desktop gibt, hat sie wenigstens noch ein kleines Einsatzgebiet. Als reines Wiedergabemedium überzeugt sie in meinen Augen nicht, dafür ist sie mit 110 - 120€ einfach zu teuer.
Wo seht Ihr das Einsatzgebiet? Als Zusatzkarte, um AV1 etc. zu kodieren/dekodieren?

Impressionen

IMG20231102121634.jpg


---

Gunnir Index aka Intel DG1 und A310
IMG20231102121739.jpg



Intel Arc A310 (3-01).JPG


---

Während die Arc neben der RX 580 16 GB klein wirkt
IMG20231105202756.jpg


wird dieses noch von der MTT S30 getoppt
IMG20231122212026.jpg


---

Diverse Kuriositäten.
Während die Gunnir immerhin noch einen DVI bereitstellt, ist es bei der MTT S30 sogar VGA, was dem Anwender geboten wird.
GPU Kuriositäten (1-02).JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaulin, Schrotti, ro///M3o und 46 andere
Ein Lesertest, der den Tag wert ist, nice.

Ich muss den allerdings morgen später heute lesen, sonst bin ich auf der Arbeit nicht zu gebrauchen.
 
  • Gefällt mir
Reaktionen: Mcr-King, MjrTom80, Casillas und 4 andere
Wo seht Ihr das Einsatzgebiet? Als Zusatzkarte, um AV1 etc. zu kodieren/dekodieren?
Genau dafür - und andere Quicksync-Funktionen für Leute mit AMD-CPU... Aber auch da eher ne A380.
 
  • Gefällt mir
Reaktionen: MjrTom80, andi_sco, CrazyT und eine weitere Person
Kodiersklave für meinen Emby (plex) server aktuell macht das eine 3060 aber für AV1 sind Nvidia und Amd aktuell keine Option. Aktuell nutze ich eine 4070 dafür ist aber keine dauerhafte Option
.
können uns da per PM bestimmt einig werden ;)
 
  • Gefällt mir
Reaktionen: andi_sco
Bei der Intel 380 kannst wenigstens 4 Monitore anschließen, bei der 310 geht das ja auch nicht. Resteverwertung....
 
  • Gefällt mir
Reaktionen: NMA und andi_sco
Was soll ich dazu sagen? Immer das gleiche mit @andi_sco! Ein Lesertest, wie er sein sollte.

Ich hatte Spaß beim Lesen und fühle mich gut informiert und unterhalten. Wie immer bei deinem Content.

Vote 4 Startseite.

Liebe Grüße Sven
 
  • Gefällt mir
Reaktionen: ro///M3o, NMA, thornhill und 6 andere
  • Gefällt mir
Reaktionen: thornhill und madmax2010
@andi_sco yep :)

Ich sehe allerdings einen Einsatz bei mir nicht wirklich kommen.

Mies finde ich, dass es bei 30W TDP keine Variante mit passiver Kühlung gibt.
 
  • Gefällt mir
Reaktionen: NMA
Rickmer schrieb:
dass es bei 30W TDP
Naja, Intel gibt sie offiziell mit 75 W an, ich weiß aber, was du meinst.
Fatla1ty 7600 GT XFX (1).JPG


Die Hersteller könnten da ruhig wieder etwas mutiger werden und nicht nur die x-te OC-Triple-Quad-Lüfter Variante bringen
 
  • Gefällt mir
Reaktionen: NMA
Rickmer schrieb:
Mies finde ich, dass es bei 30W TDP keine Variante mit passiver Kühlung gibt.
Da die ASRock A310 einen "0dB-Zero-Fan-Modus" hat, sollte sie in einem passenden Gehäuse auch dauerhaft mit abgeklemmten Lüftern nutzbar sein. Zumindest als reine 2D- und Video de- und encoding Karte. Wobei es für so eine Anwenung interessant wäre zu wissen, wieviel die Karte bzw. das Gesamtsystem im Vergleich verbraucht. Die größeren Arc-Karten sind ja keine Energiesparwunder.
 
andi_sco schrieb:
Naja, Intel gibt sie offiziell mit 75 W an, ich weiß aber, was du meinst.
Oops
Bei Geizhals steht 30W^^

Aber es gab auch eine passiv gekühlte Version der GTX 680 (von Colorful), daher gibt es keine Ausreden.
 
andi_sco schrieb:
Warum diese provokativen Worte? Weil wir hier von 75* W TDP und einer Low-Profile-Karte mit zwei Slots Bauhöhe sprechen.
Und in diesem Bereich tummeln sich schon die neuen Radeon iGPUs aus dem Hause AMD. Also schauen wir mal, ob diese Karte doch irgendwie eine Daseinsberechtigung hat.

*den 30 W Wert bei Geizhals kann man ignorieren
Rickmer schrieb:
Bei Geizhals steht 30W^^
Ts ts ts
 
Aber, aber... da waren bunte Bilder!

1701296863394.png
 
  • Gefällt mir
Reaktionen: eastcoast_pete und andi_sco
Rickmer schrieb:
Ach, waren dir meine nicht gut genug
Ergänzung ()

gymfan schrieb:
Da die ASRock A310 einen "0dB-Zero-Fan-Modus"
Da wird der Kühler schon unangenehm warm. Ist halt nur ein Stück Alu.
Ich kann mir vorstellen, das zwei Heatpipes und ein zusätzlicher Kühlkörper auf der Rückseite nochmal einiges bringen könnte. Zusätzlich kann man den Takt absenken, wenn schon nicht unter 2 GHz, zumindest auf den Basistakt.
In der Kombi dürfte Passiv dann auch funktionieren.

Die Radeon X1600 Pro. Und die GeForce 6600 GT zeigen es ja.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaulin und NMA
andi_sco schrieb:
Da wird der Kühler schon unangenehm warm. Ist halt nur ein Stück Alu.
Wen stört es, falls dadurch das PC-Gehäuse nicht zu heiß wird? Bei den genannten Anwendungen im Mediacenter-PC würde sich zumindest eine NVidia-Karte langweilen, eine AMD vermutlich auch und selbst eine stromschluckende A380 dürfte nicht allzu warm werden.

Moderne Karten takten im Zweifel selber runter, wenn es ihnen zu heiß wird. Dann werden sie halt langsamer.

Der Vergleich ist zwar von der Kartengröße her nicht korrekt, aber da meine GTX 1060 leider keinen solchen Modus besitzt, habe ich ihr nach den ersten Tests vor 4,5 Jahren die Lüfter abgeklemmt. Für reines 2D + Videode- ud encoding interessiert das die Karte nicht.

Erst, als ich vor ein paar Wochen mit Stable Diffusion angefangen habe, wurde die Berechnung immer langsamer und die Karte lief konstant am Temperaturlimit, bis ich die Lüfter weider angeklemmt habe. Die Karte scheint es überlebt zu haben.

Weder Videoencoding noch Deinterlacing lasten eine Grafikkarte extrem aus (außer, Intel mach mit AV1 irgendwas noch seltsames wie im Idle).

andi_sco schrieb:
Die Radeon X1600 Pro. Und die GeForce 6600 GT zeigen es ja.
Die haben aber, genauso wie meine (nicht ganz so) alte ASUS GeForce GT730 (passiv), weder einen H.265 noch einen AV1 Dekoder. Etwas, das man für einen Mediacenter-PC sicher gerne hätte, im Gegensatz zu Gaming-Performance. Da wäre sogar ein Transcoding mit AV1 recht schön.
 
  • Gefällt mir
Reaktionen: NMA
andi_sco schrieb:
Im älteren Final Fantasy XIV sind die Voraussetzungen zwar geringer, aber auch hier gibt man sich der RX 6400 klar geschlagen und liegt auch hinter der Vega M.
Um das mal in FPS im Spiel zu übersetzen: In FullHD müssen die Details heruntergeschraubt werden und die Animationen bleiben dennoch stotternd.

Aber interessant, was die kleine so "leistet". Im Endeffekt gibt es für diese Karte keine wirkliche - aktuell - Daseinsberechtigung. Klar, der AV1-Encoder "könnte" für die Grafikkarte sprechen, am Ende ist dann die Frage allerdings: Braucht man es wirklich?

Wir haben eine Streaming-Ausrüstung für Veranstaltungen und sobald man gewisse MBit-Raten zur Verfügung hat, kommt man mit h.264 und h.265 sehr gut zurecht. Klar, AV1 wäre dann noch mal ein Tick "besser", notwendig allerdings nicht.

Interessant, was die Karte leistet, im Kuriositätenkabinett ist sie allerdings richtig. Du musst da unbedingt mal eine Ausstellung aufbauen. :)
 
  • Gefällt mir
Reaktionen: NMA, andi_sco und Casillas
Ich stelle mir da, abseits Quicksync und AV1 Encode, wieder einmal die Frage, ob man für AV1 decode wirklich eine GPU notwendig ist, oder ob eine halbwegs potente CPU das nicht auch hinbekommt.
 
Zurück
Oben