Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
- Ersteller Jan
- Erstellt am
- Zum Test: Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
Cyberskunk77
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 579
Aller Anfang ist halt schwer. Mal sehen, wie es dann mit der 2. oder 3. Generation dieser GPUs aussehen wird.
Vorausgesetzt Intel stampft das Projekt nicht ein, was tatsächlich schade wäre. Sowas wie die A770 Ltd. GPU
mit 16GB Speicher inklusive entsprechender Fehlerbereinigung fände ich schon sehr interessant.
Sollte es irgendwann so kommen, wird Intel selbstverständlich auch nichts verschenken, aber bis dahin hat sich möglicherweise das Preisgefüge einigermaßen normalisiert.
Wie immer: Abwarten...
Vorausgesetzt Intel stampft das Projekt nicht ein, was tatsächlich schade wäre. Sowas wie die A770 Ltd. GPU
mit 16GB Speicher inklusive entsprechender Fehlerbereinigung fände ich schon sehr interessant.
Sollte es irgendwann so kommen, wird Intel selbstverständlich auch nichts verschenken, aber bis dahin hat sich möglicherweise das Preisgefüge einigermaßen normalisiert.
Wie immer: Abwarten...
Ich muss sagen, ich hätte damit gerechnet dass die A770 noch enttäuschender abschneidet.
Die 3060 haben sie ja tatsächlich so halbwegs geschlagen, wenn auch nur in den FPS.
Der idle-Verbrauch ist aber echt jenseits von Gut und Böse und das Gesamtpaket nicht wirklich attraktiv.
Bei Preisen <300€ könnte man überlegen ob man sich das antut; die werden wir aber (vorerst) nicht sehen...
Die 3060 haben sie ja tatsächlich so halbwegs geschlagen, wenn auch nur in den FPS.
Der idle-Verbrauch ist aber echt jenseits von Gut und Böse und das Gesamtpaket nicht wirklich attraktiv.
Bei Preisen <300€ könnte man überlegen ob man sich das antut; die werden wir aber (vorerst) nicht sehen...
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.167
Jo, die ist wirklich sehr stark. Wobei da abzuwarten bleibt wie sich RTX 4000 schlägt mit zwei Encodern und ebenfalls AV1 Support. Könnte auch in nem major beatdown enden wenn das bis zu einer (echten) 4060 runter skaliert.Chesterfield schrieb:Hervorzuheben ist die AV1-Encoding Leistung. Also quasi ein Must habe für Encoder und das simmer noch genug Leute die einen Kaufanreiz hätten
Finds eher krass schlecht, dass man nur so mit ach und krach mit einer 170W Karte mithalten kann und das bei 230W. Von mir aus kann die Karte auch 400W ziehen, muss dann aber auch Performance liefern.
Das drückte es noch milde aus...Humbertus schrieb:Über 40 Watt Idle ist schon echt viel.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
Es ist die Dritte.. Die Dritte..Rush schrieb:Die erste Generation an Intel Grafikkarten, was erwartet ihr da? RTX 4090 Leistung für 500€?
Intel baut seit 1998 GPU... Nur mal so
Sorry aber DAS darf man sich nicht schönreden!
Und dann kostet die A770 auch noch Mindestens 400 €, eher 450€
Warum nochmal, soll man ein ACM Vollausbau mit fast 14 Tflops einer billigeren und sparsameren GPU vorziehen? Intel ist ein Aktienunternehmen, und ich bin nicht die Wohlfahrt..
Dann kauf ich lieber eine 6700XT oder 3060Ti, die mit der A770 Schlitten fährt.
Sowas sollten nicht mal Fanbois kaufen. Intel beweist Eindrucksvoll seit Larrabee, dass sie nicht verstanden haben, wie dGPU für Consumer geht.
S
Sammy2k8
Gast
Die Idleverbräuche gehen sicher auf den Treiber zurück. (Welche Taktrate liegen im Idle an? Memclock?)
Mal die Tests auf der Linuxseite abwarten….
Was mich noch interessieren würde:
Geht vGPU (gvt-g) mit den Karten?
Mal die Tests auf der Linuxseite abwarten….
Was mich noch interessieren würde:
Geht vGPU (gvt-g) mit den Karten?
vieles wird mit den Treibern besser, anderes liegt an der Architektur.Ironbutt schrieb:Uiii hat aber auch lange genug gedauert!
Uff der Stromverbrauch im Idle ist unschön.
Der Rest ist definitiv auch nicht ideal, aber das gibt sich hoffentlich mit den kommenden Treibern.
Ich hoffe man lernt, machts mit Battlemage besser, und im oder 4. Versuch (ca 2026), wo das was man jetzt aus den Tests lernt in die Architekturplanung übernehmen kann ist man dann konkurrenzfähig.
- Registriert
- Dez. 2018
- Beiträge
- 31
Eine 6600 ist nur 5-10% langsamer als eine 3060, landet also in etwa zwischen A750 und A770. Und die kostet um die 280€.
Mit dem Vorteil von weniger Stromverbrauch bei Last und Idle, stabileren Treibern und besserer Kompatibilität zu alten Games.
Mehr als 200€ für eine A750 und 250€ für eine A770 machen also keinen Sinn. Der Preis wird aber 100€ höher liegen.
Wer kein Sammler von Grafikkarten ist, sollte davon die Finger lassen, bis Intel den Preis massivst senkt.
Mit dem Vorteil von weniger Stromverbrauch bei Last und Idle, stabileren Treibern und besserer Kompatibilität zu alten Games.
Mehr als 200€ für eine A750 und 250€ für eine A770 machen also keinen Sinn. Der Preis wird aber 100€ höher liegen.
Wer kein Sammler von Grafikkarten ist, sollte davon die Finger lassen, bis Intel den Preis massivst senkt.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
@BAR86
Ich glaube da nach Larrabee nicht mehr dran. Intel hatte damals eig den Richtigen Weg eingeschlagen.. Aber gute Spieler GPU leben von guten Treibern und einem Team, welches diese Pflegt.. Nvidia hat es hier ja vorgemacht mit dem TWMTBP Programm (auch wenn ich absoluter Gegner dieses Programmes bin)
@Fujiyama
Erinnert mich frappierend an HD Graphics, nur reicht dann da auch ne iGPU
Immerhin kann man dann für 450€ einen AV1 Coprozessor kaufen um Netflix zu schauen
Sorry, aber Ernst kann ich das nicht mehr kommentieren.
Ich glaube da nach Larrabee nicht mehr dran. Intel hatte damals eig den Richtigen Weg eingeschlagen.. Aber gute Spieler GPU leben von guten Treibern und einem Team, welches diese Pflegt.. Nvidia hat es hier ja vorgemacht mit dem TWMTBP Programm (auch wenn ich absoluter Gegner dieses Programmes bin)
@Fujiyama
Erinnert mich frappierend an HD Graphics, nur reicht dann da auch ne iGPU
Immerhin kann man dann für 450€ einen AV1 Coprozessor kaufen um Netflix zu schauen
Sorry, aber Ernst kann ich das nicht mehr kommentieren.
Humbertus
Lieutenant
- Registriert
- Okt. 2011
- Beiträge
- 576
Wenn ich so darüber nachdenke: Hohe Idle Verbräuche sind wahrscheinlich mehr Energieverschwendung als ein hoher Verbrauch bei Maximal-Last.piccolo85 schrieb:Das drückte es noch milde aus...
das kann man halt nicht mitrechnen. Völlig andere Leute, völlig andere Architektur.Rockstar85 schrieb:Es ist die Dritte.. Die Dritte..
Intel baut seit 1998 GPU... Nur mal so
Was am traurigsten ist, ist aber tatsächlich, dass man in den letzten 10 Jahren das Treiberteam um die iGPU nicht nach und nach ausgebaut hat, sonst würde man nämlich heute mit Hersteller und API Support glänzen können
die fällt sicher schnell im Preis, kauft ja sonst keiner.Rockstar85 schrieb:Sorry aber DAS darf man sich nicht schönreden!
Und dann kostet die A770 auch noch Mindestens 400 €, eher 450€
Du hast absolut recht, sollte man nicht. Und dennoch will ich irgendwie, dass Intel weiter macht, damit wir in einigen Jahren eine echte Alternative habenRockstar85 schrieb:Warum nochmal, soll man ein ACM Vollausbau mit fast 14 Tflops einer billigeren und sparsameren GPU vorziehen? Intel ist ein Aktienunternehmen, und ich bin nicht die Wohlfahrt..
Ich kaufs, weils wohl ein Exot bleiben wirdRockstar85 schrieb:Dann kauf ich lieber eine 6700XT oder 3060Ti, die mit der A770 Schlitten fährt.
Sowas sollten nicht mal Fanbois kaufen. Intel beweist Eindrucksvoll seit Larrabee, dass sie nicht verstanden haben, wie dGPU für Consumer geht.
Aber erst in einigen Monaten zum halben Preis. Noch dazu weil dann auch die 4060/ bzw das Radeon Gegenstück da sein dürfte
F
flappes
Gast
41 Watt beim Nichtstun? Ohje, ich hoffe das ist nur ein Treiberproblem.
Ich hoffe ja noch auf gute Office-Karten.
Ich hoffe ja noch auf gute Office-Karten.
highwind01
Commander
- Registriert
- Okt. 2011
- Beiträge
- 2.298
Polemischer UnsinnDai6oro schrieb:So wird das nix. Da braucht Intel nen laaaangen Atem. Das sind 2 Generationen Rückstand.
Defacto ist die Karte von Leistung und Effizienz ziemlich auf RX 5700 XT Niveau - was immerhin die "Top Karte" des direkten Mitbewerbers der letzten Generation war
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
Eine A750 für 250€ nehme ich auch..BAR86 schrieb:Ich kaufs, weils wohl ein Exot bleiben wird
Aber erst in einigen Monaten zum halben Preis. Noch dazu weil dann auch die 4060/ bzw das Radeon Gegenstück da sein dürfte
Aber ich könnte sie nicht mal bei meiner Mutter einbauen, weil die Sims 2 gerne spielt.. Ich hab auch div DX9 Spiele im Portfolio.. Es ist wie Linus sagte: Es fühlt sich an, als verkauft Intel eine CPU Generation nur für Windows 12...
Immerhin kann man wohl gewisse Games in 1440p besser spielen als auf RTX3060 Niveau.. Aber bei dem Preis ??
Und wegen andere Architektur. Man hat Kuduri, der alles andere als Schlecht ist, Chris Hook und andere ehemalige AMD/ATIler waren auch dabei.. Ich glaube mitnichten, dass es an der Arch liegt, es liegt in den Grundfesten von Intel und der Unternehmensstruktur..
Mehr als 2 Gens für Spieler sehe ich aber nicht kommen, wenn selbst die Boardpartner so still sind.. Dagegen war FM2 noch gut beworben.
Ich weiß nicht, warum Larrabee immer aufgeführt wird. Es bleibt ein Prototyp der aus guten Gründen nie das Licht der Welt erblickt hat.Rockstar85 schrieb:@BAR86
Ich glaube da nach Larrabee nicht mehr dran.
Ja stimmt. Das muss man erst zeigen.Rockstar85 schrieb:Intel hatte damals eig den Richtigen Weg eingeschlagen.. Aber gute Spieler GPU leben von guten Treibern und einem Team, welches diese Pflegt.. Nvidia hat es hier ja vorgemacht mit dem TWMTBP Programm (auch wenn ich absoluter Gegner dieses Programmes bin)
Hat bei ATI/AMD aber auch viele Jahre gedauert und man kann nur hoffen, dass Intel es auch ernsthaft versucht und dran bleibt.
Intel ist stand heute keine Alternative im Massenmarkt, höchstens für experimentier und Leidensfreudige.
Nächstes Jahr auch noch nicht.
Ich würde sagen frühestens im Jahr 2025, eher 2026 (wenn man aus den aktuellen Fehlern gelernt hat, neuen Prozess benutzt, nicht mehr deutlich zu spät dran ist usw) kann man als "Hardcore" Spieler zugreifen.
flug_rosetto
Lieutenant
- Registriert
- Sep. 2012
- Beiträge
- 686
was für ein flop!
Ähnliche Themen
- Antworten
- 204
- Aufrufe
- 31.398
- Antworten
- 64
- Aufrufe
- 13.618
- Antworten
- 5
- Aufrufe
- 2.457
- Antworten
- 168
- Aufrufe
- 29.657
- Antworten
- 151
- Aufrufe
- 16.775