Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Wie sieht's denn mit Arc dGPUs in Laptops aus? @Jan, kriegt ihr da auch Mal ein Gerät zum Testen rein? Würde mich v.a. auch interessieren, ob der Verbrauch im Idle auch so hoch ist? Und, hat Intel den Wechsel von iGPU auf dGPU im Griff? Denn ohne den wäre auch eine 99 Wh Batterie Ruck-zuck leer.
 
@eastcoast_pete Habe die 770m in meinem NUC. Sollte ja die Laptop GPU sein. Laut Arc Controll Center ist auch hier der Idle Verbrauch zwischen 30 und 42W. Da muss sich dringend was tun.
Die Umschaltung von iGPU auf die dGPU hat bisher funkioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Intels "Screwless" Design mit ca 55, 5 Schrauben... :kotz::D
wtf...
.
Wen ihr euch fragt, wo vielleicht das ganze Geld hingeflossen ist, was offensichtlich bei der Treiberentwicklung besser aufgehoben wäre, ankucken!
.
Nur soviel vor weck, ihr werdet vermutlich bei dieser Karte nie ein Problem dabei haben, die WLP oder den Lüfter zu tauschen, den Ihr werdet das nicht freiwillig machen. Falls doch, wird dieser Karte vermutlich zu 99 % trotzdem im Müll landen.
.
Die Wartung kommt direkt aus der Hölle!
.
Clue, Tape, ein halbes dutzend Kabel, Paperthinpcbs und etwa 55 - 56 Schrauben. Intel hat bei dieser Karte alles verbaut was man als selbst als ambitioniertester Schrauber auch noch die letzte Portion an Freude verliert. wtf, das ist eigentlich ein "Mangelhaft", schon zu viel des guten. Ich will Intel wirklich nicht Shamen, aber sorry Intel, ihr macht es aber auch einem verdammt schwer. Ich gebe aber nicht auf und warte auf den Nachfolger. Man lernt aus Fehlern und es kann nur besser werden, vorausgesetzt die Investoren verlieren nicht die Geduld.
.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: elmex201, edenjung und gustlegga
Danke für den Test CB/Jan. 👍
Doly schrieb:
Was mir noch fehlt: Wie ist die Lautstärke?
+1
Ich hab den Test extra noch mit der Textsuche vom Browser durchsucht, weil ich mir schon dachte ich hätte es übersehen.

Spannend auch dass die Boardpartner nur die 8GB Version bauen dürfen wenn ich das richtig verstanden hab.
Bei intel will man wohl mit aller Gewalt den eigenen Umsatz ankurbeln.
Wird sich die Begeisterung der Boardpartner sicher auch in Grenzen halten.
Die 8er Karten sind dann wohl nur für OEM interessant.
Medion hat sicher schon 2 Schiffscontainer geordert;
Die verkaufen ja jeden Mist mit Begeisterung solange nur Intel drauf steht.
Ergänzung ()

lynx007 schrieb:
Intels "Screwless" Design mit ca 55, 5 Schrauben... :D
Ich liebe Steve für seine Videos/Reviews ! :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: elmex201
gustlegga schrieb:
Ich liebe Steve für seine Videos/Reviews ! :daumen:
Ich auch, auch wenn er mir wirklich leidgetan hat. Ich liebe ja Computer. Aber ich verliere ja schon manchmal die Nerven bei der Montage von nem Mainboard mit potenten Tower kühler. Spätestens ab einem Handy oder Ultrabook, brauche ich vorher und nachher eine halbe Stunde Meditation.
.
Diese GPU würde vermutlich bei mir kein Wartungsintervall überleben. Daher Danke Steave! Spätestens jetzt muss ich leider einen Riesenbogen um die Intel GPU machen. Ich hätte Intel so gerne eine Chance gegeben. Vielleicht sogar mit Abstrichen, man hat eigentlich immer Platz in nem "Zweitgerät". Denn ich verabscheue die aktuelle Marktsituation mit unseren beiden Marktteilnehmern derart. Die immer einander nur den Preisball zu spielen und die Preise fck@hell hochschrauben.
.
Aber durch die Reviews, wie auch alle meiner vergangenen Treiber Erfahrungen mit Intelprodukten, insbesondere wen Sie mal etwas in die Jahre gekommen sind. Es würde leider schon sehr ein Wunder grenzen, wen ich mir diese GPU kaufe. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: elmex201, simosh und edenjung
cookie_dent schrieb:
Hmmmm, weist Du Preismäßig genaueres?
Preise stehen ja im Artikel sowie ein Chart mit Perf/Preis.

Falls Intel weniger verkauft als erwartet wird da sicherlich noch mehr beim Preis gehen.
 
Epic Fail trifft es perfekt. Schlechtestes P/L, schlechteste Treiber, höchster inakzeptabler IDLE Verbrauch, schlechteste Effizienz, schnarchlangsam. Da muss man schon etwas sehr "speziell" sein um sich so eine Müllkarte zu kaufen. :freak::freak::freak::freak::freak::freak::freak::freak::freak::freak::freak::freak::freak::freak::freak:
 
  • Gefällt mir
Reaktionen: JohnVienna
Wenn man sich mal die WQHD Tests z.B. bei PCGH anschaut, dann sieht die 770 gar nicht mal so schlecht aus. Gegenüber der 6600 oder 3060. Aber bei der Leistungsufnahme, vor allem im idle, stellt Intel sich selbst ein Bein. Sie sollen das Problem ja registriert haben. Warum also haben sie keine Lösung bis zum Produktstart hinbekommen? Zeit hatten sie ja genug.
 
Juri-Bär schrieb:
Du darfst es aussprechen. Bei mir ist es gleich ein "Trollbeitrag" der ins Aquarium versenkt wurde.
Wurde bestimmt nur übersehen 🤣
Ergänzung ()

Rockstar85 schrieb:
Andere Spiele, anderes System, andere Ergebnisse... Sooo Neu ist das nicht. Befangenmheit sollte man nicht gleich vermuten.. Der DF Benchmark scheint zu passen, der Test wirkt aber Fishy.. GN und HWunboxed haben ähnliche Ergebnisse zu CB..

@Juri-Bär
Wenn DAS deine Art der Kommunikation ist, dann werde ich gerne den Beitrag melden, das geht mal garnicht.
Morgen oder Freitag gibts ne Launch Analyse und dann schauen wir mal.. Bisher zeigt sich nur, das das Nutzen eines Vollausbau mit 14 TFlops am Ende in 4K und 1440p mehr macht.. Aber das ist auch kein Wunder bei 512er SI...AMD und Nvidias sind beide kleiner. Sorry aber CB eine Befangenheit unterstellen, wo es erst vor 3 Wochen AMDbase und davor IntelBase hieß ist schon witzig.


Hier haste dann THG:
https://www.tomshardware.com/reviews/intel-arc-a770-limited-edition-review/4

Kitguru:
https://www.kitguru.net/components/...ass/intel-arc-a770-limited-edition-review/29/

PCworld:
https://www.pcworld.com/article/1341464/intel-arc-a770-a750-graphics-card-review.html

Schau dir die Launch Analysen an, CB war auch bei AMD nicht weit weg vom Rest..
Ne Befangenheit würde ich jetzt auch nicht direkt vermuten.

Kann ja auch sein, das beim Test ggf. Ein Fehler unterlaufen ist.
z.B. vergessen rBAR einzuschalten, die Arc braucht das unbedingt. Hat Intel ja auch ganz offen kommuniziert.
 
Zuletzt bearbeitet:
Dann wären die Ergebnisse aber noch schlechter... steht auch, was CB gemacht hat im Artikel.
 
  • Gefällt mir
Reaktionen: edenjung
Ich finde es gut das wieder mal ein dritter Hersteller mitmischt. Hoffe Intel kann über die Preise ein paar Kunden gewinnen.
Ich kann mich noch an Zeiten erinnern da gab es für 400Mark das Topmodell.
 
  • Gefällt mir
Reaktionen: polyphase
Rockstar85 schrieb:
Dann wären die Ergebnisse aber noch schlechter... steht auch, was CB gemacht hat im Artikel.
Muss ja nicht unbedingt rBAR sein, kann ja auch was ganz anderes sein 😉

War jetzt nur Mal ein Beispiel.
Ergänzung ()

hemmi1982 schrieb:
Ich finde es gut das wieder mal ein dritter Hersteller mitmischt. Hoffe Intel kann über die Preise ein paar Kunden gewinnen.
Ich kann mich noch an Zeiten erinnern da gab es für 400Mark das Topmodell.
Du meinst doch eher 400€?
 
Also für Intels Wiedereinstieg, finde ich die Karte nicht soo schlecht. Klar gibt es überall nach Sachen die besser sein müssen. Wenn die Karte in ein paar Monaten 50-100€ billiger als die Konkurrenz ist, würde ich die Karte vielleicht sogar kaufen.
 
  • Gefällt mir
Reaktionen: polyphase
Für die meisten zählt hier ganz klar spielen. Aber sieht niemand die Leistung beim Transcoding?

Wenn ich das richtig verstanden habe, dann nutzt Arc dieselbe Libary wie Intel Quicksync.
Die Frage, die ich mir daher stelle: Wie viele Streams lassen sich von 4k+h.264 auf Full-HD transcodieren?
 
Dass die Karten bei uns tendenziell etwas weiter hinten liegen, ist uns direkt selber aufgefallen. rBAR war auf dem System allerdings definitiv aktiv. ;)

Neben der Tatsache, dass wir einen Ryzen genommen haben, könnten auch Treiber und Spiele-Patches einen Unterschied machen: ich habe alles dieser Tage neu getestet, was im Artikel zu sehen ist. Ob das überall der Fall war, weiß ich nicht. Cyberpunk zb hat zuletzt mit patch 1.6 zB wieder ein großes Update erhalten, das auch bei der Leistung (über veränderte Presets) so einiges angepasst hat.
 
  • Gefällt mir
Reaktionen: whynot?, edenjung, konkretor und 5 andere
Wenn intel eine Karte für 400-450€ mit 16GB RAM noch da oben drauf gehauen hätte, welche mit der 3070 konkurriert, wie die 770 mit der 3060, dann hätte ich jetzt eine genommen - in der Hoffnung, dass die Leistung mit Treiber-Updates nur besser werden kann. Das Design gefällt mir und ich bin auch bereit einem "Underdog" ein paar Betatest-Startschwierigkeiten zu verzeihen, aber eine 3060 wäre mir als Upgrade aktuell schon zu wenig und damit fällt leider auch die 770 raus.
 
Schöner test Jan 🙂

Kein Wunder mit so einem GPU Entwickler, wundert mich nicht das AMD den Typ loswerden wollten.

Schon bei AMD hat er die Rohleistung nicht auf die Straße bekommen. Schade drum.
 
  • Gefällt mir
Reaktionen: Jan
ComputerJunge schrieb:
Klar. Aber die hätten sich ja ab und an mal austauschen können. ;-)

Mit etwas weniger Spott: Ich denke mittlerweile wirklich, dass Intel ein grundsätzliches Problem bei sowohl der Zusammenstellung von Teams als auch der Wahl der richtigen Zusammenarbeitsmodelle hat. Liest sich alles wie enorm altertümliche hierarchische Organisationstrukturen kombiniert mit maximal minimierter Verantwortung in den Teams und nahezu perfektionierter Taubheit des hohen Managements gegenüber des Feedbacks aus den Mannschaften. Intel auf den Spuren von IBM?

Aber das kann (will?) ich mir wiederum nicht richtig vorstellen, genausowenig wie den gemessenen Idle-Verbrauch als finales Optimum. Die Wichter 3 - Performance passt nämlich für mich ziemlich perfekt, weil es ist vermutlich das einzige Spiel, welches ich im kommenden Herbst/Winter am PC (weiter)spielen werde. Mal schauen, was sich technisch weiterhin ergibt.
ich hab mich ehrlich gesagt zu wenig eingelesen in die vorherrschenden Projektmanagementstrukturen.
Angesichts der erbrachten Leistung eines Erstlingswerkes gegenüber 2er Veteranen gibts auch wenig Grund zu meckern. Ob man gute Strukturen hat, sieht man meiner Meinung nach erst in den nächsten Jahren, denn dan sehen wir ob der Abstand zu Nvidia und AMD verkürzt wird. Und an anderer Stelke hab ichs ja schon erwähnt: auch due anderen beiden Hersteller hatten diverse Fehltritte (Fermi, Vega, R600...)
 
Für mich ist das leider nur eine 4-
Die Performance einer 3060 ist gar nicht mal das Problem, für das Erstlingswerk, seit Jahren, trift das meine Erwartungen. Für mich sind die Treiberprobleme, mangelnde DirectX unterstützung und ganz zu schweigen der Preis das große Problem. Da kann man über den Idle Verbrauch fast hinwegschauen.
Wenn ma nweiß, dass man nicht die gewünschte Performance (3070) liefern kann fehlt einfach irgendein Argument warum man die Arc kaufen soll. Preis? nein, Performance? nein, Software? nein.

Der Arc erinnert mich an den i740 von 1998...
 
bad_sign schrieb:
Sry das ist einfach falsch
Intel liefert seit mind 2011 in jeder CPU eine IGPU und sind damit seit 11 Jahren dabei und sollten seit 11 Jahren Erfahrung haben, ALLE Anwendungen darzustellen.
Wenn die so dumm sind, alles über den haufen zu werfen, Intels Pech.
Wenn du die iGPUs heranziehst, müsstest du dort fairer Weise den idle verbrauch nennen. Ansonsten zählt der Vergleich nicht wirklich. Auch AMD und Nvidia hatten Jahrelang Erfahrung im Mobilbereich und dennoch waren die Idleverbräuche teils katastrophal und erst nach vielen Versuchen und Kritik hat man sich dessen qngenommen, beim 3. Hersteller verlangst du es also von Tag 1 weg, obwohl der durchaus wichtigere Schwierigkeiten hat.
Ergänzung ()

blady99 schrieb:
Für mich ist das leider nur eine 4-
Die Performance einer 3060 ist gar nicht mal das Problem, für das Erstlingswerk, seit Jahren, trift das meine Erwartungen. Für mich sind die Treiberprobleme, mangelnde DirectX unterstützung und ganz zu schweigen der Preis das große Problem. Da kann man über den Idle Verbrauch fast hinwegschauen.
Wenn ma nweiß, dass man nicht die gewünschte Performance (3070) liefern kann fehlt einfach irgendein Argument warum man die Arc kaufen soll. Preis? nein, Performance? nein, Software? nein.
die Unterstützung von alten APIs wird man auch nicht mehr richtig hinkriegen, das macht wenig Sinn. Es soll alles alte ordentlich laufen ohne Abstürze, den Rest macht zukünftig die Rohleistung. Wichtig ist, dass man bei allen DX12 und Vulkan Titeln von Anfang qn vorne dabei ist qb jetzt.
Natürlich ist die Karte dann für viele ungeeignet, erst die nächsten Gens werden interessant für den Hardcoregamer
blady99 schrieb:
Der Arc erinnert mich an den i740 von 1998...
eher Vega,
 
Zurück
Oben