Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Ja so richtig verwunderlich ist das auch nicht, Intel muss halt noch einiges an Arbeit in ihre Grafikkarten stecken dann wird das schon noch, bei den ersten Modellen kann man nicht soviel erwarten wie ich finde.

Wichtig ist das Intel drann bleibt, und nicht gleich wieder aufgibt sowas braucht etwas Zeit, ich hoffe die schaffen das, Konkurenz schadet nicht in dem Bereich, jetzt noch Nvidia CPUs.
 
Thares schrieb:
So wie ich es damals gesagt habe, Intel ist nicht mal in der Lage gute CPUs zu Entwicklen in ihrer hauptdisziplin, was will man da denn sich erhoffen?


Dann kann AMD ebenfalls keine guten CPUs entwickeln. AMDs neue Generation ist gerade mal auf Niveau von Intels alter. Und das mit einem fullnode Vorsprung, sonst wären sie aufgeschmissen. Bei der Spieleleistung hat Intel immer abgeliefert, was man von AMD nicht gerade immer behaupten kann. Mal davon abgesehen, dass die CPU Entwicklung nichts mit der GPU Entwicklung zu tun hat. Das ist dummes Getrolle.
 
Hallo mein Freund,
ich hoffe dir geht es gut. Lange nichts gehört.
Vorab nur das Beste für dich.

Jetzt zum Thema, ich fasse mal zusammen:

borizb schrieb:
Krasser Unterschied in der Auffassung und im Fazit, wenn man zu euch kommt, das Review und die Kommentare liest (…)
Was sollen wir machen? Oder besser, was soll ich denn machen? Wie soll ich unseren Test denn kommentieren?

Wir messen Leistung in etwa auf Höhe einer 3060 und das auch nur in WQHD.

In Full HD, und für nichts anderes sollte man die A770 und A750 auch heranziehen, ist Big-Alchemist im Durchschnitt 6% langsamer.

Das wäre ja noch halb so wild und absolut kein Beinbruch, auch wenn Intel selbst mal die RTX 3070 als Gegenspieler auserkohren hatte und später laut eigenen Angaben eine 3060 Ti und jetzt reicht es nicht einmal für die reguläre 3060. Wäre dennoch nicht schlimm, ist ihr Erstlingswerk.

Aber bei 6% weniger Leistung als die RTX 3060, mehr als 30% mehr Leistungsaufnahme als diese? Sorry, aber damit ist Arc halt erstmal raus. Eine Radeon RX 6600 XT verbraucht 56% weniger.

borizb schrieb:
Intel war ja auch öfters mal bei DF, wie nahe seid ihr mit denen?

Meines Wissensstandes nach, steht ComputerBase keinem einzigen Hersteller "nahe", weil hier das Prinzip von unabhängigem Journalismus gilt. Sprechen kann ich selbstverständlich nur für mich als freien und selbständigen Redakteur, mir liegt jede persönliche oder geschäftliche Beziehung zu Herstellern wie AMD, Intel, Nvidia, Apple oder sonst wem absolut fern.

borizb schrieb:
Und das wirkt dann teilweise nicht 100% objektiv sondern oftmals eher abwertend (v.a. dein letzter Satz).

Abschließend bleibe ich bei meiner Aussage: A380 ist nur etwas für extrem leidensfähige Anwender oder solche, die ggf. technisches Interesse an der Grafikkarte haben. Die A750 und A770 ist entweder etwas für die Vitrine oder ein reines Testobjekt, eine Alternative zur RTX 3060 und RX 6600 XT ist sie jedenfalls nicht.

Wer jetzt eine Arc A770 Limited Edition mit 16 GB, die ich im Portfolio als bestes Modell einstufe, wegen dem Preis erwirbt und zur UVP bekommt, okay, lasse ich mir gefallen. Grafikkarten sind mittlerweile ja auch schon fast "skandalös" teuer geworden und das betrifft ja bei Weitem nicht nur High-End- und Oberklasse, sonder fängt ja bereits in der unteren Mittelklasse an.

Ich hoffe wirklich, dass Xe HPG² ("Battlemage") besser wird.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Nick.Bo, janer77, Otsy und 6 andere
PS828 schrieb:
idle verbrauch ist ein witz

Btw laut dem verlinkten PCGH Video wird der Idle Verbrauch via Treiber Update noch gesenkt.
Die Raytracing Leistung ist laut denen auch sehr gut und besser als bei AMD. Die schlechte Performance bei DX9 und DX11 ist halt noch eine Geschichte, welche in der Zukunft durch neue Treiber gelöst wird.

Die Karten sind vor allem für experimentierfreudige User*innen sehr interessant, oder wenn klar ist, dass man hauptsächlich DX12 Spiele spielt.
 
ArrakisSand schrieb:
Der katastrophale Idle Verbrauch bricht den Karten das Genick.
Ja, leider, sonst wäre das für meinen Anwendungsrechner für Video wirklich eine gute Alternative geworden. Aber 40W im Leerlauf ist arg.
 
Uff bei der Leistungsaufnahme hätte ich besseres erwartet.
Insgesamt bin ich aber angetan. Es zeigt sich eben auch wie schwierig es als "Newcomer" ist, wobei es ja nicht so wäre als hätte man schon Jahrzehnte durch die IGP Erfahrungen gesammelt. Da merkt man wieso es schon immer Kritik am Treiber gab ;P

Für jemanden der nicht 24/7h seinen PC an hat, Videos en/decodiert, die passenden Spiele spielt und nicht mehr als WQHD erwartet wäre es etwas.
Alleine der Leistungsverbrauch ist bei mir durch 24/7h schon ein klares nein. Ich hoffe Intel macht so energisch weiter. Potential ist da und mithalten, wenn auch noch nicht Highend, lässt sich schon ziemlich gut. Gerade die Raytracing Leistung gegenüber AMD ist beeindruckend.
Ich denke schon das Intel da zumindest auf dem Markt etwas an der Preisschraube tun kann. Zumindest zeigt man offensichtlich was möglich ist zu welchem Preis. Würde man das bei NVIDIA hochrechnen müssten die bei 8k schon mit 144hz laufen. ;P
 
@SVΞN meiner Meinung nach gehört noch ein Hinweis zu rBar in den Artikel, ansonsten erleben Aufrüster mit einer älteren Plattform ein "blaues Wunder" ;)

Chantal Shepard schrieb:
Die schlechte Performance bei DX9 und DX11 ist halt noch eine Geschichte, welche in der Zukunft durch neue Treiber gelöst wird.
Zumindest bei DX9 wird das nicht passieren, Intel liefert keinen Support und nutzt den MS Wrapper

Zum Thema: bei den Preisen spricht nichts für eine Intelkarte
 
  • Gefällt mir
Reaktionen: baizer und Slayher666
@Chantal Shepard liegt vielleicht daran das diese von dir genannten 660watt nicht in der unteren Mittelklasse zustande kommen, sondern in der highend Klasse. Die nur die wenigsten kaufen. Und dieser Strom Verbrauch auch bei Vollauslastung entsteht. Bei der Arc aber einfach beim nix tun.

Das ist keine Doppelmoral. Das geht einfach besser. Und bisher wurde nicht gezeigt warum die Karte diesen Stromverbrauch verursacht. Wir hoffen es ist ein Treiber bug. Und wenn nicht , dann ist das für eine low/midrange Karte von 2022 einfach Mist.
 
  • Gefällt mir
Reaktionen: Konr4dZus3
Northstar2710 schrieb:
Das ist keine Doppelmoral. Das geht einfach besser. Und bisher wurde nicht gezeigt warum die Karte diesen Stromverbrauch verursacht.

Naja, dass sehe ich nicht so, da die A770 zum Beispiel mit Raytracing besser performt als das AMD Gegenstück (siehe das PCGH Video).
Der hohe Idle Verbrauch kommt daher, dass die Karte im Idle nicht richtig runtertaktet. Meine alte 1080 und 680 hatten das Problem übrigens auch, da wurde mit einem Treiber Update abhilfe geschaffen. Beschwert hat sich niemand.
 
SVΞN schrieb:
Meines Wissensstandes nach, steht ComputerBase keinem einzigen Hersteller "nahe", weil hier das Prinzip von unabhängigem Journalismus gilt.
Genau das ist das Fundament dieses Portals, der ComputerBase.
Sonst wären wir alle nicht hier. Oder zumindest wären viele nicht mehr hier.

Ihr wart in den letzten 15 Jahren "Nvidiabase", "Intelbase", "AMDbase" und alles abwechselnd reihum in den Augen einiger. Welche Ironie.
Das ist dermaßen ausgewogen, dann hat man alles richtig gemacht ;-)

Alles an Tests und Artikeln ist ehrlich, ich finde Euch sogar manchmal "zu" kritisch.
Aber das ist gut so und die Substanz Eurer Bemühungen, so sachlich und objektiv wie möglich zu sein.

Für bückenden "Journalimus" kann man ja Gamestar oder PC Games lesen bzw. generell die Computech Medien.
Hier gibt es zumindest ehrliches und nachprüfbares Handwerk.

Bin ich nun ComputerBase Fanboy? :D
 
  • Gefällt mir
Reaktionen: simosh, bad_sign, baizer und 5 andere
@laglover bei dem Test von techpower up stimmt was nicht seid wann hat z.B. eine rtx 3050 18watt mehr Verbrauch im idle als eine rx6600. Da passt was mit deren Messung oder mit deren Idle Zustand vom desktop nicht.
 
Ich nehme ALLES zum Thema Verarbeitung zurück

 
  • Gefällt mir
Reaktionen: UNDERESTIMATED, Czk666, Col.Maybourne und 3 andere
polyphase schrieb:
Stimmt,
irgendwie sind die Ergebnisse von ComputerBase um einiges schlechter.

Irgendwas stimmt mit den Testergebnissen nicht.
Andere Spiele, anderes System, andere Ergebnisse... Sooo Neu ist das nicht. Befangenmheit sollte man nicht gleich vermuten.. Der DF Benchmark scheint zu passen, der Test wirkt aber Fishy.. GN und HWunboxed haben ähnliche Ergebnisse zu CB..

@Juri-Bär
Wenn DAS deine Art der Kommunikation ist, dann werde ich gerne den Beitrag melden, das geht mal garnicht.
Morgen oder Freitag gibts ne Launch Analyse und dann schauen wir mal.. Bisher zeigt sich nur, das das Nutzen eines Vollausbau mit 14 TFlops am Ende in 4K und 1440p mehr macht.. Aber das ist auch kein Wunder bei 512er SI...AMD und Nvidias sind beide kleiner. Sorry aber CB eine Befangenheit unterstellen, wo es erst vor 3 Wochen AMDbase und davor IntelBase hieß ist schon witzig.


Hier haste dann THG:
https://www.tomshardware.com/reviews/intel-arc-a770-limited-edition-review/4

Kitguru:
https://www.kitguru.net/components/...ass/intel-arc-a770-limited-edition-review/29/

PCworld:
https://www.pcworld.com/article/1341464/intel-arc-a770-a750-graphics-card-review.html

Schau dir die Launch Analysen an, CB war auch bei AMD nicht weit weg vom Rest..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, edenjung und Laphonso
Wäre das jetzt ne AMD oder NVidia-Karte hätte ich gesagt das ist der Flop des Jahres.
Allerdings bin ich deutlich positiv überrascht (zumindest wenn man den idle-Verbrauch mal außen vor lässt).
Die Karte ist 3 Jahre zu spät und offenkundig alles noch was buggy, aber das ist deutlich mehr als ich von Intel erwartet habe.

Hätte mir jemand vor 2 Jahren gesagt, dass Intel ne Grafikkarte rausbringt, die zumindest ansatzweise konkurrenzfähig zur Mittelklasse von AMD/NV ist, dann hätte ich den vermutlich ausgelacht und eher drauf getippt, dass Schalke bis 2030 nochmal Meister wird.

Hoffentlich versucht Intel es jetzt massiv über den Preis und macht somit Duck auf AMD/NV.
 
  • Gefällt mir
Reaktionen: TechFunk
Leistung meist unter 3060 und 66x0 XT aber Verbrauch wie 3070 und 67x0 XT bei einem Preis wie 3060 bzw. 66x0 XT.
Ne. Das ist echt kein Wurf.

Und dann im „Idle“ 40 Watt?!
 
Die Karte wird wieder reichen um seine Buddys damit versorgen zu können. Gaming Fertig PCs mit Rabatt usw. natürlich alles mit intel CPU. Damit wird intel Marktanteile knabbern wollen. Ob es den Aufwand lohnt bleibt abzuwarten. Die Frage ist nur, von wem es die Marktanteile mehr beanspruchen wird. Auch bleibt abzuwarten wie sich die Preise in diesem Segment verändern werden.
 
Die Arc 770 hat 4,3 Milliarden Transistoren mehr als eine RTX3070 verbaut und schafft es im Idealfall gerade mal 10% langsamer zu sein (und dieser Idealfall tritt nur selten ein, im Schnitt ist sie viel langsamer als eine RTX3070) das ist absoluter Silikonmüll gehört direkt in den Schrott.
Bei dem Ding sind nicht nur die Treiber hart verbuggt da muss etwas an der Architektur verbuggt sein sonst würde man nicht mit so viel mehr Transistoren so wenig erreichen. Aber kein wunder das Intel die Arc 770 anfangs als RTX3070 Konkurrent ins Gespräch gepracht hat, die chips sind relativ ähnlich groß nur das Intel das vielfache an Transistoren braucht. Am ende reicht es nicht mal um in die nähe einer 3070 zu kommen also musste man an der preis Schraube drehen.

Man kann nur hoffen das die nächste Generation die ganzen Kinderkrankheiten ausmerzen kann. Ansonsten werden wir für immer eine Duopoly im Grafikkartenmarkt haben.
 
  • Gefällt mir
Reaktionen: baizer
Jungs Geduld! Das wird der Treiber einigermaßen Richten, wichtiger ist die Konkurrenz 🕺
 
  • Gefällt mir
Reaktionen: Laphonso
Finde die A770 gar nicht so schlecht wie viele Sie hier Reden wollen.
Bissl am Treiber und oder Firmware gearbeitet, dann könnten die definitiv eine Alternative werden.
Ich werde mir auf jeden Fall mal eine bestellen wenn mal eine günstig Angeboten wird da ich Sie gerne mal selbst testen und Benchen würde.
 
Zurück
Oben