Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Ich finde das Test- und Userfazit tatsächlich etwas harsch. Natürlich unter allen Gesichtspunkten gerechtfertigt.

Rein die Performance ist aber wirklich beachtenswert mMn.
 
  • Gefällt mir
Reaktionen: whynot?
ComputerJunge schrieb:
Wahrlich eine beschönigend euphemistische Formulierung. :D

Das ist für mein Interesse tatsächlich der Knockout. Obwohl ich mir eigentlich nicht vorstellen kann, dass das ein reines GPU-Thema ist. Aber Intel hat die Messwerte ja bestätigt - ohne Verweis auf ausstehende Optimierungen per Software. Ich finde das sprichwörtlich unglaublich. 😲
Nur so als Frage: hat dich das eigentlich bislang gestört? Die Verbräuche in Idle waren mir nämlich auch bei Nvidia und AMD in den Jahren ca Pascal (Geforce 1080) hoch
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/
Wenngleich man hier aufpassen muss: Gesamtsystem und nicht nur die GPU wird hier aufgezeigt.
Aber teilweise auch sowas wie Youtube-Videos, Multi-Monitor, High FPS Monitore... die zogen bei manchen Gens ordentlich!
Im oben erwähnten Link frisst eine 390 mal eben 100W mehr als eine 1080.

Beispiel vom Link: die Radeon 3090 braucht 60(!) Watt mehr, nur wenn man einen 2. Monitor dran hängt
Kürzlich hat man einmal einen Test gemacht in welchem nur ein paar Fenster gewechselt und mit der Maus gewedelt wird, auch da gibts eklatante, Unterschiede.

All diese KLeinigkeiten muss Intel erst identifizieren und verbesern! Das wird Jahre dauern.
Aber wir sollten jetzt nicht so tun, als wären die beiden anderen Jungs hier fehlerfrei gewesen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CountSero und Chantal Shepard
Für die erste Generation dGPU eigentlich ein ganz akzeptables Ergebnis. Man kann eben nicht erwarten, dass man Anfang eine Technik bekommt welche etablierte (!) Hersteller in die Schranken weist.

Und ich denke, dass Intel iGPUs d auch nur bedingt eine Hilfe sind.
 
BAR86 schrieb:
ja, ist ein bisschen wie Vega vs Pascal. Da war die 500m² Vega mit kleinem, schnellen SI langsamer als die 300mm² Pascal (Geforce 1080), weniger Effizient usw.
Vega 7 Nano war aber Hammer... Sowas vermiss ich heute und wäre mit RDNA sicher locker möglich.
 
Mich würde noch interessieren ob sie mit 2 Bildschirmen noch mehr verbraucht im idle. Da zieht meine AMD auch 40
 
Rockstar85 schrieb:
Vega 7 Nano war aber Hammer... Sowas vermiss ich heute und wäre mit RDNA sicher locker möglich.
ja, aber der Vergleich ist hier nicht ganz fair.
Die 1080 kam 2016 in 16nm, die Vega 7 2018 mit 7nm und HBM - und war dann erst ziemlich gleich auf.
War eine gute Karte, dank 16GB, aber es hat gezeigt, dass Nvidias Architektur deutlich voran ist bei vielen Aufgaben.
 
  • Gefällt mir
Reaktionen: Rockstar85
Also bei der Leistungsaufnahme im idle musste ich 3 x hingucken..... was ist denn das bitte?
Wieso zieht die Karte über 40 Watt das ist doch nicht richtig oder kann so gewollt sein von Intel.
Ich habe der Karte gerade mal eine Schulnote 3 gegeben und denke es hätte eher eine 3 - sein sollen.
 
Vega war eine Sackgasse, und HBM ein netter Testballon.. Aber für Consumer eher nicht so.
 
BAR86 schrieb:
Nur so als Frage: hat dich das eigentlich bislang gestört? Die Verbräuche in Idle waren mir nämlich auch bei Nvidia und AMD in den Jahren vor Pascal zu hoch...
Ja, gestört hat mich das schon immer.

Die 7870 hatte nach meiner Erinnerung absolut sogar einen noch höheren Idle-Verbrauch, war aber damals relativ in der Gruppe der sparsamen Gamingkarten. Und die Vega 56 ist schon ab Werk deutlich niedriger. Davor hatte ich ~ 10 Jahre nur passiv gekühlte Karten.
 
Zuletzt bearbeitet: (Formulierung)
  • Gefällt mir
Reaktionen: BAR86
Mich würde ja interessieren, wie gut die Spiele mit alten DX-Versionen so laufen, wenn es einen Übersetzungslayer auf Vulkan dazu gibt.

DXVK z.B. läuft einwandfrei und teilweise besser als nativ, ggf. könnte man das ja testen.

Wie "gut" sind die Treiber eigentlich unter Linux.
Qualitativ eher vergleichbar mit den Windowstreibern (wie bei AMD) oder doch deutlich hinterherhinkend (wie bei Nvidia).

Das ist für mich eigentlich eine wichtige Info, ohne anständige Linux-Treiber ist die Hardware für mich uninteressant.
 
  • Gefällt mir
Reaktionen: up.whatever, Sammy2k8, Rockstar85 und eine weitere Person
Was für ein herrliches Forengeheule :baby_alt::baby_alt::evillol::evillol:
Also mal im Ernst, die Hardware scheint für die erste Generation gar nicht mal schlecht, nur noch ein bisschen stromhungrig. RT-Leistung ist gut.
Das größte Problem ist, dass die Karte locker ein Jahr verspätet ist, und das liegt mit ziemlicher Sicherheit an der Treiberentwicklung, nicht an der Hardware. Mit der Software haben sie es zeitlich total verbockt und humpeln mit Krücken in den Markt und müssen das Feld jetzt von hinten aufrollen. Wenn man aber sieht in welcher Geschwindigkeit sich der Treiber in wenigen Monaten von einer Vollkatastrophe hin zu einer ordentlichen Software entwickelt hat, muss man sich da wohl keine allzu großen Sorgen für die Zukunft mehr machen. Ein bisschen Optimierungspotential scheint auch noch brach zu liegen, aber auch das dürfte bis zur nächsten Generation weitgehend erledigt sein. Wenn man sieht wie hart AMD und NVIDIA seit Jahren um Marktanteile kämpfen und ihre Treiber bis ins Letzte optimieren finde ich Intels Leistung als Quereinsteiger jetzt schon ordentlich.
Wenn sie BattleImage von der Hardware nicht verbocken sind sie mit der nächsten Generation definitiv mit im Rennen, die aktuellen Chips dagegen dürften wohl eher in Komplettgeräte und in Laptops wandern.
Intel hat aber auch eigentlich keine andere Wahl und ist praktisch zum Erfolg verdonnert. Für die IGPs müssen sie die Architektur sowieso weiter entwickeln und wegen AMD müssen sie auch Komplettlösungen mit dezidierter Grafik anbieten, sonst verlieren sie massiv Marktanteile.
Also für mich ist jetzt schon klar, dass Intel langfristig im Geschäft bleibt, auch wenn der aktuelle Zustand noch nicht der Burner ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartin
@Jan Könnt ihr mal CSGO mit einem 5600/12400 oder 5600G laufen lassen?^^
Die FPS wäre schon interessant, wahrscheinlich dann in den 40-50ern.

40W Idle, mein ganzer PC zieht 55W
 
  • Gefällt mir
Reaktionen: Jan
mojitomay schrieb:
Wie "gut" sind die Treiber eigentlich unter Linux.
Qualitativ eher vergleichbar mit den Windowstreibern (wie bei AMD) oder doch deutlich hinterherhinkend (wie bei Nvidia).

Das ist für mich eigentlich eine wichtige Info, ohne anständige Linux-Treiber ist die Hardware für mich uninteressant.
Gute Frage! Wird Phoronix hoffentlich bald rausfinden. Prinzipiell ist Intels Linux-Support meist gut

Edit: https://www.phoronix.com/review/intel-a750-a770-arc-linux
 
  • Gefällt mir
Reaktionen: konkretor, up.whatever und mojitomay
An sich ein netter erster Wurf. Dass die Performance in etwa bei der 3060 landen wird war lange bekannt, keine Ahnung wieso hier so viele negativ reagieren.
Ein dritter Player kann nur gut für uns Konsumenten sein.

Einzig die Leistungsaufnahme im Idle ist echt zu viel. Ich hoffe da lässt sich noch etwas mit den Treibern rausholen.
 
S.Kara schrieb:
An sich ein netter erster Wurf. Dass die Performance in etwa bei der 3060 landen wird war lange bekannt, keine Ahnung wieso hier so viele negativ reagieren.
Weil 3070 und dann später 3060TI angepeilt wurden, nicht 3060^^
 
  • Gefällt mir
Reaktionen: edenjung
Und wieder Unmengen an Ressourcen verbraucht.
Das meiste was davon Produziert wurde landet im Müll.
 
Zurück
Oben