Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

@Jan da Linux sich so langsam einschleicht. Habt ihr auch mal gpu benches mit Linux vor? Denn so ausführliche test, auch mit temp, Treiber, Leistungsaufnahme sieht man sehr selten im Netz. Vor allem wäre es ein super vergleich zu Windows mit eurem spiele Parcours. Ich kann mir vorstellen das ihr euch in der Redaktion nicht langweilt. Dennoch wäre das fast ein Alleinstellungsmerkmal wenn ihr sowas machen würdet so ausführlich wie mit Windows.Vor allem im deutschsprachigen Raum.
 
  • Gefällt mir
Reaktionen: Jan
Northstar2710 schrieb:
@Jan da Linux sich so langsam einschleicht. Habt ihr auch mal gpu benches mit Linux vor? Denn so ausführliche test, auch mit temp, Treiber, Leistungsaufnahme sieht man sehr selten im Netz. Vor allem wäre es ein super vergleich zu Windows mit eurem spiele Parcours. Ich kann mir vorstellen das ihr euch in der Redaktion nicht langweilt. Dennoch wäre das fast ein Alleinstellungsmerkmal wenn ihr sowas machen würdet so ausführlich wie mit Windows.Vor allem im deutschsprachigen Raum.

Siehe Phoronix
 
Termy schrieb:
Nun gibt es auch Linux-Benchmarks, hier positionieren sich die Arcs grossteils zwischen 3060 und 3060ti - das laesst also auch fuer die Windows-User Hoffnung, dass bislang einfach nur die Treiber das Problem sind ;)
Mit der Hoffnung auf Verbesserung der Leistung kaufe ich keine Grafikkarte.
Entweder läuft das Ding beim Releasedatum vernünftig, oder ich kaufe was anderes.
Denn Hoffnungen können auch enttäuscht werden.
 
  • Gefällt mir
Reaktionen: Ozmog
@BAR86 den kenne ich schon. Die benches von Phoronix, sind ok. Mehr aber auch nicht. Vor allem die Spiele Auswahl ist sehr dürftig, genauso fehlen Angaben von Verbrauch,Temperatur der Karten. Ein vergleich mit den gleichen Anforderungen Save Games und spiele Parcours wäre um ein Vielfaches besser.

Phoronix schätze ich schon sehr, vor allem wenn es um die neusten Infos zu Kernel und Treiber geht. Auch die test sind ok. Kommen aber in der Ausführlichkeit nicht an Tests von CB ran.
 
  • Gefällt mir
Reaktionen: BAR86
cookie_dent schrieb:
Denn Hoffnungen können auch enttäuscht werden.
Das ist es, könnte, hätte, sollte sind keine Gründe, jetzt etwas zu kaufen wo man bei der etablierten Konkurrenz schon länger fündig wird, mit deutlich stabilere Leistung.
Bei dem Rotstift, den Intel über die Nebenbereiche kreist, ist es auch recht unsicher, wie lange die GPUs, insbesondere im Gaming-Kontext davon verschont bleiben.

Könnte damit rechnen, das selbst in zwei Jahren die Treiber noch nicht genügend optimiert wurden, dass sie eine einigermaßen gleichmäßige Leistungsfähigkeit über ein breites Spielespektrum bieten werden. Wahrscheinlicher ist, dass man sich auf AAA-Titel konzentriert, um wenigstens dort werbeträchtig zu punkten. Aber Spieler, die ein breiteres Spektrum an Spielen nutzt, werden dann doch wieder ausgebremst. Die sehr schlechte Unterstützung älterer APIs ist schon ein gewisses Zeichen, das es in dieser Richtung gehen könnte. Lasse mich aber gerne vom Gegenteil überzeugen. Bis dahin aber bleibt Intels GPU Mangelhaft
Ergänzung ()

Northstar2710 schrieb:
Kommen aber in der Ausführlichkeit nicht an Tests von CB ran.
Steckt aber auch ordentlich Arbeit drin. Das Ganze noch mal mit Linux bei deutlich weniger Interessenten? Weiß nicht, ob sich das für CB lohnt.

Vielleicht opfert sich auch jemand für einen freiwilligen Test mit samt kauf der Karte.
 
cookie_dent schrieb:
Entweder läuft das Ding beim Releasedatum vernünftig, oder ich kaufe was anderes.
Wenn man zu release kaufen will mag das stimmen. Aber wenn in einem Jahr die Treiber wesentlich besser sind und man eine Karte günstig bekommen kann dann spricht absolut nichts dagegen.
 
  • Gefällt mir
Reaktionen: Termy und BAR86
BAR86 schrieb:
Ob man gute Strukturen hat, sieht man meiner Meinung nach erst in den nächsten Jahren, denn dan sehen wir ob der Abstand zu Nvidia und AMD verkürzt wird.
Mein Punkt war ja, dass man - zumindest in Teilen - die bisher nicht-optimalen Strukturen schon aus dem Ergebnis ableiten kann. In den kommenden Wochen/Monaten werden wir anhand der weiteren Treibentwicklung erkennen können, wie ernst es das Management weiterhin meint.
Jan schrieb:
Bei rBar/SAM habe ich den Überblick zu den Voraussetzungen verloren. Funktioniert das mit einem X470 Board, einem BIOS auf Basis AGESA V2 1.2.0.7 und einer Zen 3 CPU?
 
Humbertus schrieb:
Wenn man zu release kaufen will mag das stimmen. Aber wenn in einem Jahr die Treiber wesentlich besser sind und man eine Karte günstig bekommen kann dann spricht absolut nichts dagegen.
In einem Jahr vielleicht.

Bewertet wird aber der aktuelle Stand.
Und Stand jetzt kann ich keinem in meinem Bekantenkreis die Intel Karten bedenkenlos empfehlen.
 
  • Gefällt mir
Reaktionen: Vitec
@Jan Danke für den tollen Testbericht! Wäre es möglich, diejenigen DX9-11 Titel, die auf Arc äußert schlecht laufen, mit DXVK zu testen? Dieser Wrapper läuft auch auf Windows und könnte unter Umständen besser laufen, als D3DxOn12…
 
  • Gefällt mir
Reaktionen: up.whatever und Jan
BAR86 schrieb:
Wenn du die iGPUs heranziehst, müsstest du dort fairer Weise den idle verbrauch nennen. Ansonsten zählt der Vergleich nicht wirklich. Auch AMD und Nvidia hatten Jahrelang Erfahrung im Mobilbereich und dennoch waren die Idleverbräuche teils katastrophal und erst nach vielen Versuchen und Kritik hat man sich dessen qngenommen, beim 3. Hersteller verlangst du es also von Tag 1 weg, obwohl der durchaus wichtigere Schwierigkeiten hat.
Warum soll ich ein Ende 22 Produkt mit dem letzten Jahrzehnt vergleichen?
Wenn es ein Preisschild hätte vom letzten Jahrzehnt, dann gerne. Die Karte steht in der alten 150-200€ Kategorie.

Auch die alten Nvidia und AMD Karten lagen nicht bei fast 50W Idle, eher Richtung 30W, in erheblich ineffizienteren Fertigungsprozessen. Auch war das damals üblich, heute sind niedrige 2stellige (ja sogar 1stellig) Verbräuche üblich
 
Neben der technischen Machbarkeit würde sich ein Kauf von Arc einfach auch lohnen, damit man beim Trashtalk mit vorne dabei ist :D

Also mal sehen was 4 Wochen nach Verkaufsstart am Markt ist bzw. dann in Q1 '23. Interessant, wenn Partner von der A750 16GB Modelle anbieten und mich würde wirklich auch die A580 interessieren. Kommt die noch, was leistet die, was wird die kosten. Vielleicht schiebt Intel die auch als Brot&Butter Karte nach wenn einfach nochmals 3 Monate Entwicklung in die Treiber gelaufen ist. Oder sie kommt gar nicht mehr, weil es sich nicht lohnt.
 
Jan schrieb:
Intel erklärte damals in einem Support-Dokument, dass sowohl die integrierten GPUs der Alder-Lake-Prozessoren (Core 12th Gen) als auch die diskreten Grafikkarten der Arc-Familie „D3D9 nicht länger nativ unterstützen“. Anwendungen und Spiele, die auf DirectX 9 basieren, könnten aber „weiterhin über die Microsoft D3D9On12-Schnittstelle ausgeführt werden“.

Hinter D3D9On12 verbirgt sich eine Open-Source-Software, die Grafikbefehle von D3D9 auf D3D12 übersetzt und praktisch als alternativer GPU-Treiber fungiert. Somit wird auf Umwegen weiterhin eine Kompatibilität gewahrt.

Das kostet allerdings Leistung – sehr viel sogar, wie der Blick auf Counter-Strike: Global Offensive zeigt (Map Dust II, maximale Details, Training ohne Bots).
Interessant ist dabei aber, dass der Übersetzungslayer bei Linux/SteamOS gerade DX9 Spiele aufgrund der aufgehobenen Limitierungen in der alten API, schneller ist, als die Original API.
Und hier, unter Windows, ist sie jetzt langsamer?
 
Ich denke Intel wird sich wie damals Matrox auch in relativ kurzer Zeit wieder aus dem Grafikkarten-Markt für Spiele zurückziehen.
 
40W im Leerlauf sind doch wohl nur ein Scherz! Ich hoffe das ist ein Treiberproblem und kann gefixt werden. Das ist ja absolut nicht Zeitgemäß.
 
Bevor hier weiter von den hohen Idle Verbräuchen von alten AMD/Nvidia Karten phantasiert wird:
Mein kompletter PC mit der über 10 Jahre alten HD7950 braucht an der Steckdose(!) im idle ~50w, das ist meilenweit von 47w der a770 für die GPU alleine entfernt!
 
Ich finde die GPUs ehrlich gesagt katastrophal, wenn man den $-Preis umrechnet landen wir bei ~340-420€, für Karten die bestenfalls auf dem Niveau einer RTX 3060 für 380-400€ liegen.
Im schlimmsten Fall landet man bei der Leistung einfach mal mehrere Generationen in der Vergangenheit oder das Spiel startet gar nicht.

Der Idleverbrauch ist auch eine Geschichte für sich, bei meiner Nutzung würde mich die Karte im Jahr locker 20€ mehr als eine vergleichbare von AMD/nvidia kosten.

Vor 2 Jahren hätte man diese Karten eventuell irgendwie als Notlösung rechtfertigen können, aber im aktuellen Marktumfeld bedauere ich die ahnungslosen Käufer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh
Also für den ersten Wurf ganz passabel. Natürlich sind die alt eingesessenen Konkurrenten noch eine Generation vorne. Aber wenn Intel am Ball bleibt könnten sie in 2-3 Gen auf Tuchfühlung mit NV/AMD gehen.
 
Jan schrieb:
Im Test ganz vergessen zu erwähnen: Nach jedem Neustart muss man sich zweimal das hier ansehen (es sei denn, diese "Schutzfunktion" wurde in Windows generell deaktiviert), weil das entsprechende Zertifikat noch nicht hinterlegt wurde. ^^
es reicht schon rBar zu deaktivieren, um keine Meldung mehr zu kriegen nach Windows Start.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben