Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Danke für eure Arbeit.
 
  • Gefällt mir
Reaktionen: lkullerkeks, konkretor, TokyoSakura und eine weitere Person
Aller Anfang ist halt schwer. Mal sehen, wie es dann mit der 2. oder 3. Generation dieser GPUs aussehen wird.
Vorausgesetzt Intel stampft das Projekt nicht ein, was tatsächlich schade wäre. Sowas wie die A770 Ltd. GPU
mit 16GB Speicher inklusive entsprechender Fehlerbereinigung fände ich schon sehr interessant.

Sollte es irgendwann so kommen, wird Intel selbstverständlich auch nichts verschenken, aber bis dahin hat sich möglicherweise das Preisgefüge einigermaßen normalisiert.

Wie immer: Abwarten...
 
Ich muss sagen, ich hätte damit gerechnet dass die A770 noch enttäuschender abschneidet. :freak:
Die 3060 haben sie ja tatsächlich so halbwegs geschlagen, wenn auch nur in den FPS.
Der idle-Verbrauch ist aber echt jenseits von Gut und Böse und das Gesamtpaket nicht wirklich attraktiv.
Bei Preisen <300€ könnte man überlegen ob man sich das antut; die werden wir aber (vorerst) nicht sehen...
 
  • Gefällt mir
Reaktionen: Zocker1996
Chesterfield schrieb:
Hervorzuheben ist die AV1-Encoding Leistung. Also quasi ein Must habe für Encoder und das simmer noch genug Leute die einen Kaufanreiz hätten
Jo, die ist wirklich sehr stark. Wobei da abzuwarten bleibt wie sich RTX 4000 schlägt mit zwei Encodern und ebenfalls AV1 Support. Könnte auch in nem major beatdown enden wenn das bis zu einer (echten) 4060 runter skaliert.

Finds eher krass schlecht, dass man nur so mit ach und krach mit einer 170W Karte mithalten kann und das bei 230W. Von mir aus kann die Karte auch 400W ziehen, muss dann aber auch Performance liefern.
 
Wahnsinn.
Nach fast 3 Jahren langsamer als meine RX5700 und verbraucht auch noch mehr Strom.
Puh...
Preislich müsste die also unter meiner alten Karte liegen(329€), wird sie aber vermutlich nicht.
 
  • Gefällt mir
Reaktionen: simosh und Zocker1996
Rush schrieb:
Die erste Generation an Intel Grafikkarten, was erwartet ihr da? RTX 4090 Leistung für 500€?
Es ist die Dritte.. Die Dritte..
Intel baut seit 1998 GPU... Nur mal so
Sorry aber DAS darf man sich nicht schönreden!
Und dann kostet die A770 auch noch Mindestens 400 €, eher 450€
Warum nochmal, soll man ein ACM Vollausbau mit fast 14 Tflops einer billigeren und sparsameren GPU vorziehen? Intel ist ein Aktienunternehmen, und ich bin nicht die Wohlfahrt..
Dann kauf ich lieber eine 6700XT oder 3060Ti, die mit der A770 Schlitten fährt.
Sowas sollten nicht mal Fanbois kaufen. Intel beweist Eindrucksvoll seit Larrabee, dass sie nicht verstanden haben, wie dGPU für Consumer geht.
 
  • Gefällt mir
Reaktionen: Epistolarius, edenjung, simosh und 4 andere
Die Idleverbräuche gehen sicher auf den Treiber zurück. (Welche Taktrate liegen im Idle an? Memclock?)

Mal die Tests auf der Linuxseite abwarten….

Was mich noch interessieren würde:
Geht vGPU (gvt-g) mit den Karten?
 
Ironbutt schrieb:
Uiii hat aber auch lange genug gedauert! :)

Uff der Stromverbrauch im Idle ist unschön.
Der Rest ist definitiv auch nicht ideal, aber das gibt sich hoffentlich mit den kommenden Treibern.
vieles wird mit den Treibern besser, anderes liegt an der Architektur.
Ich hoffe man lernt, machts mit Battlemage besser, und im oder 4. Versuch (ca 2026), wo das was man jetzt aus den Tests lernt in die Architekturplanung übernehmen kann ist man dann konkurrenzfähig.
 
Ist ne tolle Grafikkarte die Intel da rausgebracht hat. Man kann mehrere Monitore anschließen und ein Bild wird auch ausgegeben. Was will man mehr?
 
  • Gefällt mir
Reaktionen: coral81 und Cadilac
Eine 6600 ist nur 5-10% langsamer als eine 3060, landet also in etwa zwischen A750 und A770. Und die kostet um die 280€.
Mit dem Vorteil von weniger Stromverbrauch bei Last und Idle, stabileren Treibern und besserer Kompatibilität zu alten Games.
Mehr als 200€ für eine A750 und 250€ für eine A770 machen also keinen Sinn. Der Preis wird aber 100€ höher liegen.

Wer kein Sammler von Grafikkarten ist, sollte davon die Finger lassen, bis Intel den Preis massivst senkt.
 
  • Gefällt mir
Reaktionen: simosh und coral81
@BAR86
Ich glaube da nach Larrabee nicht mehr dran. Intel hatte damals eig den Richtigen Weg eingeschlagen.. Aber gute Spieler GPU leben von guten Treibern und einem Team, welches diese Pflegt.. Nvidia hat es hier ja vorgemacht mit dem TWMTBP Programm (auch wenn ich absoluter Gegner dieses Programmes bin)

@Fujiyama

Erinnert mich frappierend an HD Graphics, nur reicht dann da auch ne iGPU :D
Immerhin kann man dann für 450€ einen AV1 Coprozessor kaufen um Netflix zu schauen :D
Sorry, aber Ernst kann ich das nicht mehr kommentieren.
 
piccolo85 schrieb:
Das drückte es noch milde aus...
Wenn ich so darüber nachdenke: Hohe Idle Verbräuche sind wahrscheinlich mehr Energieverschwendung als ein hoher Verbrauch bei Maximal-Last.
 
  • Gefällt mir
Reaktionen: Balikon und Zocker1996
@CB: hat euch Intel die “schwarze Mittwoch” Headline verboten?
 
Rockstar85 schrieb:
Es ist die Dritte.. Die Dritte..
Intel baut seit 1998 GPU... Nur mal so
das kann man halt nicht mitrechnen. Völlig andere Leute, völlig andere Architektur.
Was am traurigsten ist, ist aber tatsächlich, dass man in den letzten 10 Jahren das Treiberteam um die iGPU nicht nach und nach ausgebaut hat, sonst würde man nämlich heute mit Hersteller und API Support glänzen können
Rockstar85 schrieb:
Sorry aber DAS darf man sich nicht schönreden!
Und dann kostet die A770 auch noch Mindestens 400 €, eher 450€
die fällt sicher schnell im Preis, kauft ja sonst keiner.
Rockstar85 schrieb:
Warum nochmal, soll man ein ACM Vollausbau mit fast 14 Tflops einer billigeren und sparsameren GPU vorziehen? Intel ist ein Aktienunternehmen, und ich bin nicht die Wohlfahrt..
Du hast absolut recht, sollte man nicht. Und dennoch will ich irgendwie, dass Intel weiter macht, damit wir in einigen Jahren eine echte Alternative haben
Rockstar85 schrieb:
Dann kauf ich lieber eine 6700XT oder 3060Ti, die mit der A770 Schlitten fährt.
Sowas sollten nicht mal Fanbois kaufen. Intel beweist Eindrucksvoll seit Larrabee, dass sie nicht verstanden haben, wie dGPU für Consumer geht.
Ich kaufs, weils wohl ein Exot bleiben wird ;)
Aber erst in einigen Monaten zum halben Preis. Noch dazu weil dann auch die 4060/ bzw das Radeon Gegenstück da sein dürfte
 
  • Gefällt mir
Reaktionen: Atlan2101, Col.Maybourne und Cyberskunk77
41 Watt beim Nichtstun? Ohje, ich hoffe das ist nur ein Treiberproblem.

Ich hoffe ja noch auf gute Office-Karten.
 
Dai6oro schrieb:
So wird das nix. Da braucht Intel nen laaaangen Atem. Das sind 2 Generationen Rückstand.
Polemischer Unsinn
Defacto ist die Karte von Leistung und Effizienz ziemlich auf RX 5700 XT Niveau - was immerhin die "Top Karte" des direkten Mitbewerbers der letzten Generation war
 
  • Gefällt mir
Reaktionen: Smartin
BAR86 schrieb:
Ich kaufs, weils wohl ein Exot bleiben wird ;)
Aber erst in einigen Monaten zum halben Preis. Noch dazu weil dann auch die 4060/ bzw das Radeon Gegenstück da sein dürfte
Eine A750 für 250€ nehme ich auch..
Aber ich könnte sie nicht mal bei meiner Mutter einbauen, weil die Sims 2 gerne spielt.. Ich hab auch div DX9 Spiele im Portfolio.. Es ist wie Linus sagte: Es fühlt sich an, als verkauft Intel eine CPU Generation nur für Windows 12...
Immerhin kann man wohl gewisse Games in 1440p besser spielen als auf RTX3060 Niveau.. Aber bei dem Preis ??

Und wegen andere Architektur. Man hat Kuduri, der alles andere als Schlecht ist, Chris Hook und andere ehemalige AMD/ATIler waren auch dabei.. Ich glaube mitnichten, dass es an der Arch liegt, es liegt in den Grundfesten von Intel und der Unternehmensstruktur..
Mehr als 2 Gens für Spieler sehe ich aber nicht kommen, wenn selbst die Boardpartner so still sind.. Dagegen war FM2 noch gut beworben.
 
  • Gefällt mir
Reaktionen: edenjung, simosh und BAR86
Rockstar85 schrieb:
@BAR86
Ich glaube da nach Larrabee nicht mehr dran.
Ich weiß nicht, warum Larrabee immer aufgeführt wird. Es bleibt ein Prototyp der aus guten Gründen nie das Licht der Welt erblickt hat.
Rockstar85 schrieb:
Intel hatte damals eig den Richtigen Weg eingeschlagen.. Aber gute Spieler GPU leben von guten Treibern und einem Team, welches diese Pflegt.. Nvidia hat es hier ja vorgemacht mit dem TWMTBP Programm (auch wenn ich absoluter Gegner dieses Programmes bin)
Ja stimmt. Das muss man erst zeigen.
Hat bei ATI/AMD aber auch viele Jahre gedauert und man kann nur hoffen, dass Intel es auch ernsthaft versucht und dran bleibt.
Intel ist stand heute keine Alternative im Massenmarkt, höchstens für experimentier und Leidensfreudige.
Nächstes Jahr auch noch nicht.
Ich würde sagen frühestens im Jahr 2025, eher 2026 (wenn man aus den aktuellen Fehlern gelernt hat, neuen Prozess benutzt, nicht mehr deutlich zu spät dran ist usw) kann man als "Hardcore" Spieler zugreifen.
 
  • Gefällt mir
Reaktionen: Cyberskunk77 und Col.Maybourne
Zurück
Oben