Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert

Jan schrieb:
Dass die Karten bei uns tendenziell etwas weiter hinten liegen, ist uns direkt selber aufgefallen.
Da geht es nicht nur um "etwas", das stinkt geradezu nach Methode...
quakegott schrieb:
Also schafft es Intel nicht meine RX5700 XT zu schlagen?!!?
Wenn Du dem skurrilen Test hier auf ComputerBase vertrauen magst, darfst Du weiter dem Wahn unterfallen, Deine RX 5700XT könne schneller sein, als eine Arc A770 LE. PCGamesHardware sieht die große Arc anhand objektiver Testkriterien natürlich im GPU-Index vor der 5700 XT oder der 2070 Super. Selbst die keinere Arc A750 mit nur 8 GB rangiert dort noch vor der RTX 3060 (was nach ComputerBase nicht einmal der A770 gelingen soll).

Also @Jan : Ihr solltet mal lieber Eure Hausaufgaben machen, statt Beiträge, die Euch nicht gefallen, ins Aquarium zu versenken, wie es mit meinen beiden vorherigen Posts geschehen ist. Sicherlich hat die Arc auch Schwächen, die größeren Schwächen hat aber Euer sogenannter Test, wie Ihr Eure Einladung zum Intel-Bashing bezeichnet. Es ist doch nur ein kleiner Schritt von Eurer schulmeisterlichen Bewertungsumfrage (was hat das mit einem Test zu tun?) zu unhaltbaren Pöbeleien wie dieser hier:
edenjung schrieb:
Er war stehts bemüht....

Mehr kann man nicht sagen.
Aber aus dem 5er schüler kann auch was werden.
Vielleicht reicht's ja für nen fachabi an einer Abendschule. Oder ne Ausbildung.
Bei der Fehlersuche was genau Euren Test so versemmelt hat, wird Euch wohl kein Außenstehender helfen können.

Soweit man Euren Ausführungen trauen kann, musstet aber selbst Ihr merken, dass sich die Arcs bei höherer Bildqualität und höherer Auflösung relativ zur Konkurrenz verbessert haben. Da hätte es sicher nahegelegen, auch mal die weitverbreite UHD-Auflösung nativ zu testen. Aber was macht Ihr? Ihr testet allen Ernstes 720p statt 2160p. Schulmeister würden zu so etwas vielleicht "Setzen, 6!" sagen...

Bei den 20 Games, die PCGamesHardware in UHD getestet hat, schlägt sich namentlich die Arc A770 mit 16 GB VRAM wacker, kann im Einzelfall auch mal die 2080TI oder 3070 schlagen. Bei TomsHardware liegt die Arc nur 7,5% hinter der 6700XT im UHD-Test! So gesehen würde das Fazit eines Testes auch lauten können, dass die Arc A770 trotz suboptimaler Treiber schon jetzt ein Schnäppchen für alle diejenigen ist, die gelegentlich in voller Pracht am UHD-Monitor oder der 4K-Glotze zocken wollen.

Ich habe nie einen Hehl daraus gemacht, dass mir das Geschäftsgebaren der Fa. Intel in verschiedenen Bereichen zuwider ist. Aber hier muss ich neidlos anerkennen, dass den Jungs aus Santa Clara mit ihrem Grafikkarten-Debüt ein großer Wurf gelungen ist, mit dem niemand so rechnen konnte.

Blicken wir doch mal zurück: als Intel beschloss, eine dezidierte Grafikkarte zu entwickeln, war die 1080TI die Mutter aller Grafikkarten und für sehr lange Zeit uneinholbar. Nun legt Intel eine GraKa vor, die annähernd das leisten kann, was damals die 1080 TI leistete - mit gänzlich anderer Architektur und trotzdem keinem höheren Stromverbrauch und nicht mal zum halben Preis.
 
  • Gefällt mir
Reaktionen: foxio, TechFunk und Cyberskunk77
Juri-Bär schrieb:
Ich habe nie einen Hehl daraus gemacht, dass mir das Geschäftsgebaren der Fa. Intel in verschiedenen Bereichen zuwider ist. Aber hier muss ich neidlos anerkennen, dass den Jungs aus Santa Clara mit ihrem Grafikkarten-Debüt ein großer Wurf gelungen ist, mit dem niemand so rechnen konnte.

Blicken wir doch mal zurück: als Intel beschloss, eine dezidierte Grafikkarte zu entwickeln, war die 1080TI die Mutter aller Grafikkarten und für sehr lange Zeit uneinholbar. Nun legt Intel eine GraKa vor, die annähernd das leisten kann, was damals die 1080 TI leistete - mit gänzlich anderer Architektur und trotzdem keinem höheren Stromverbrauch und nicht mal zum halben Preis.

Dieser Kommentar verführt mich ja schon fast dazu, darüber ernsthaft nachzudenken, ob wir uns nicht einfach
mal eine Arc A770 in der 16 GB Variante bestellen. So von wegen Bock auf Basteln... ;)

Der PC meiner Frau wäre als Testobjekt dazu durchaus geeignet, denn da sie den nur sporadisch mal für etwas Bildbearbeitung/Office nutzt, wäre es auch kein Beinbruch wenn mal was nicht auf Anhieb funktioniert. Da die Kiste selten für längere Zeit läuft, wäre selbst der Idle-Verbrauch der Karte verschmerzbar, sollte sich daran via einem künftigen BIOS Flash/besserem Treiber tatsächlich nichts ändern lassen.

Na ja, sollte die Preisentwicklung der Karte für mich sehr attraktiv wirken, dann würde ich es eventuell auf einen Test ankommen lassen. Mal bis zum Frühling abwarten...
 
  • Gefällt mir
Reaktionen: Sammy2k8
Juri-Bär schrieb:
Bei der Fehlersuche was genau Euren Test so versemmelt hat, wird Euch wohl kein Außenstehender helfen können.
Warum eigentlich Fehler suchen? Der WQHD Test fällt hier auf CB in etwa so aus beim Ranking, wie auf PCGH. Leichte Abweichungen liegen eben bei der Wahl der Spiele und, sofern kein interner Benchmark verwendet wurde, noch an der verwendeten Szene.
OK der HD-Test war relativ unnötig, war wohl aufgrund der Erwartung so gewählt. Du schreibts ja so in deinen Beitrag, als wäre ne Hexenjagt notwendig, aber man sieht keine große Diskrepanz, wenn man 1440p betrachtet.

Unabhängig von der Sinnhaftigkeit: PCGH erstellt ein Gesamtrating über die verschiedenen Auflösungen, auf CB sind es eben nur Ratings je Auflösung. Was interessiert zb das Gesamtrating samt UHD, wenn man nur nax 1440p zur Verfügung hat, und umgekehrt, was interessiert einen UHD-Spieler die Leistung in 1080p? Natürlich kann man das Fehlen unter UHD bemängeln, macht den Test aber dennoch nicht falsch. Im PCGH-Test sind die Framerates vieler Spiele unter 1440p bereits unter 60, im UHD eben niedriger mit weniger gefälle gegenüber AMD- und Nvidia-Karten. Also nicht ganz so rukelig, aber eben immernoch. Fragt sich, wie sich die Karten dann mit niedrigeren Details für höhere FPS verhalten, bei den Inteltreibern könnte ja so einiges quer laufen.

Was mir bei CB allerdings im Test fehlt sind die Einzelwerte bei den Spielen, dann kann man besser verfolgen, wo Ausreißer in beiden Richtungen sind, aus denen sich der Schnitt zusammensetzt. Nachreichen eines UHD-Tests wäre auch nicht verkehrt.

PS: PCGH könnte auch mal ihre Seite überarbeiten, Mobil konnte ich einige Einstellungen einfach nicht machen. Konnte beispielsweise die Einzelergebnisse nicht in der Auflösung ändern wurden nur 1440p angezeigt.
 
  • Gefällt mir
Reaktionen: edenjung
Ich würde sie für einen guten Preis kaufen, die Treiber werden sicher noch verbessert und 16GB mit 256bit BUS ist schon mal schön. Da ich einen 1440p Monitor habe passt dass. Der Idle verbrauch geht leider gar nicht!

380€ ist sie (770LE) aber nicht Wert, für 299€ kommen wir ins Geschäft.

mfg
 
Xeroxxx schrieb:
Falls es jemanden interessiert. Intel hat gegenüber Gamers Nexus bestätigt, das an den Karten gar nichts "Limited" bzw limitiert ist. Schlicht ein "Name", der sehr dämlich gewählt ist.
Das steht 1:1 hier so im Artikel. Limited Edition = Founders Edition, sagt Intel mittlerweile. ;)
 
  • Gefällt mir
Reaktionen: konkretor und Xeroxxx
Juri-Bär schrieb:
Also @Jan : Ihr solltet mal lieber Eure Hausaufgaben machen, statt Beiträge, die Euch nicht gefallen, ins Aquarium zu versenken, wie es mit meinen beiden vorherigen Posts geschehen ist.
Wir haben unsere Hausaufgaben gemacht. Unsere Werte sind auf unserem System korrekt.
 
  • Gefällt mir
Reaktionen: konkretor, simosh und edenjung
Ich würde für die Ausreißer direkt, Trommelwirbel, den 7700X verantwortlich machen.
Wäre naheliegend das Intel die neue AMD Plattform vernachlässigt hat.
Wäre Tradition wie bei der A380 und der DG1, die DG1 verweigerte bsp. was ich hörte komplett die Zusammenarbeit mit AMD Plattformen.

Ist halt ärgerlich für CB.
Intel muss doch einen "Benchmarkguide" zum NDA mitgegeben haben? Wäre ja eigentlich übliche Praxis.
 
Starten Spiele wie Max Payne 2 jetzt eigentlich?
Hat sich schon mal jemand Mühe gemacht und eine handelsübliche GOG Spielebibliothek und auch Steam Indie Spiele durchprobiert?
Spiele, die Intel speziell für Benchmarktests aufbereitet hat interessieren eigentlich überhaupt nicht.
DX9 Spiele wie Witcher 2 und CSGO etc. performen mit 50% Leistungsverlust, da Intel ARC diese Sprache nicht versteht und mittels Tool übersetzen lassen muss.
Auch Witcher 3läuft ekelig.
Was ist mit GTA 5? Haben die das dort verbessert?
Sind ja alles völlig unbekannte Spiele, die nur die meisten Menschen auf der Welt spielen. Und gerade die laufen nicht auf Intel ARC? Respekt, gut mitgedacht.
Natürlich spielen vor allem Käufer einer Intel ARC 310, 380 und 580 ausschließlich Spiele von 2022+ mit DX12 oder Vulkan inkl. Raytracing, weil die damit so viel Spaß haben (schöne Standbilder eben).
Stellt euch vor, ich spiele gerade einen Titel aus dem Ubisoft Siedler Komplettpaket.
Läuft das alles reibungslos?
Weil wird ja gerade aktuell alles im Angebot vertickt, demnach also auch gekauft udn gespielt.
Und das vor allem von Leuten, die sich eben keine 3070 aufwärts kaufen können oder wollen.
Das ist genau Intels Zielgruppe.
Aber haben die das produkt auch dafür konstruiert und produziert?
Ich behaupte: nein! Völlig am Kunden vorbei.
 
  • Gefällt mir
Reaktionen: Beg1, Edzard, Redirion und 2 andere
Draco Nobilis schrieb:
Ich würde für die Ausreißer direkt, Trommelwirbel, den 7700X verantwortlich machen.
Für eine von Intel nicht optimierte Plattform läuft das doch ziemlich gut. Macht Hoffnung.
 
Da ich damals auch ATI unterstützt habe, obwohl sie absolut unterlegen waren einige Zeit lang ggü. nvidia, hätte ich durchaus interesse Intel mal eine Chance zu geben. Aber dafür müssten die Karten hier dann doch einen Tick günstiger sein, da die Treibersituation wohl durchaus Abstriche notwendig machen wird. Wie damals bei ATI eben.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Cyberskunk77
onkel_axel schrieb:
Und manchmal fast so schnell wie eine 3070 ;)
Na toll, du findest per Cherrypicking ganze 5 Titel, die super laufen.
Demnach wäre auch NVidia ein super Hersteller mit dem DLSS Mist.
Problem: 99,99% aller Spiele laufen ganz anders oder gar nicht unter diesen Vorraussetzungen.
Man muss schauen, was man damit macht und was nicht.
Ich kaufe mir jedenfalls keine 2000 Euro Grafikkarte, wenn ich die gar nicht benötige.
Und jeder Intel Kunde ist angesch.... weil er die Karte für ein Einsatzzweck kauft, wofür die gar nicht ausgelegt ist.
Raytracing? Zu langsam! Vor allem für zukünftige Projekte.
Alte Spiele, alte Engines? Viel zu oft instabil, langsam, fehlerhaft, startet nicht.
Alte Rechner zum Aufrüsten? Nein. rBar Problem. AMD (SAM) System? Hmmmmm.
Also was nützt mir eine langsame bis mittelmäßig schnelle Karte, die nur für neue Spiele auf neuen Engines optimiert ist und auch nur dort vernünftig arbeitet, und dafür einen neuwertigen Rechner einer Marke benötigt?
Das sind viel zu viele wenns und aber und grenzt den Anwenderkreis und das Arbeitsfeld extrem ein.
Die Karten sind also wirklich nur für Tüftler, Bastler, Nerds, Sammler und sonstige Hartgesottene, die Ahnung vom PC haben, udn die auch keine Angst vor Linux und dessen Spielekompatibilität haben.
Die allermeisten Komplett-PC Käufer sind da voll aufgeschmissen, wenn die dann ein Spiel starten wollen udn es kommen Abstürze, komische Meldungen udn sonstige Probleme auf die zu, wo die dann denken müssen, der PC hat eine Macke. Ich kenne genug, die dann den PC wieder zum Media Markt hinschleppen und sagen der Rechner ist kaputt.
Aus dieser Sicht muss man das Produkt einfach sehen.
Klar gibt es einzelne Lichtblicke (wie die gute Performance in ein paar Spielen, wo man schon fast Richtung 3070 und 6700XT blicken kann), aber darüber hinaus gibt es sehr viel dunkle Wolken am Himmel.
Und das überwiegt halt leider.
Daher würde ich jedem davon abraten und lieber auf Gen 2 zu warten, wo dann hoffentlich auch die Problematik mit den ganzen 99,9% der alten Spiele besser gelöst wird, vor allem die Sache mit dem total unsinnigen rBar Bug behoben wird (Igor hat ja getestet und bewiesen, dass es totaler Unsinn ist von Intel).
Denn dass vielleicht ein paar Spiele nicht von Anfang an die Performance bringen, so wie man es von AMD und nVidia kennt, wo man eben mit einem Treiber- oder Spielepatch nachhilft, davon ist man ja noch sehr sehr weit entfernt.
Was mich abschließend noch zu der Frage bringt:
wird Intel die komplette Treibersoftware noch so umschreiben, dass der Bockmist nicht als Overlay ausgeführt wird?
Weil ich möchte als Kunde nicht, dass es mit der anderen installierten Software kollidiert und etwas unausführbar wird.
Jeder Spieleclient und auch andere Software muss ja ausführbar bleiben, was dadurch ja noch mehr eingeschränkt wird.
Mir bringt es ja nichts, wenn ich da dann nich tmehr rein oder raus komme oder beim Drücken von Tasten irgendwelche Dinge ausgeführt werden, die nicht gewollt gewesen sind.
Ich habe da selbst schon alle was erlebt, sogar dass Spiele deswegen nicht einmal starten wollen.
 
  • Gefällt mir
Reaktionen: Beg1, SaxnPaule und edenjung
gimmebytes schrieb:
Da ich damals auch ATI unterstützt habe, obwohl sie absolut unterlegen waren einige Zeit lang ggü. nvidia, hätte ich durchaus interesse Intel mal eine Chance zu geben. Aber dafür müssten die Karten hier dann doch einen Tick günstiger sein, da die Treibersituation wohl durchaus Abstriche notwendig machen wird. Wie damals bei ATI eben.
https://www.computerbase.de/2022-01...milliardenstrafe-wegen-strittiger-rabatte-ab/

Ich lasse das mal hier, vielleicht überlegst du es dir dann. Lieber beschäftigt man eine Armee von Anwälten, als seine Schuld zu begleichen.

Wenn Intel eine Durchbruch bei der Fertigungstechnologie gelingen sollte, dann strebt man sofort wieder ein Monopol an.
 
Draco Nobilis schrieb:
Ist halt ärgerlich für CB.
Intel muss doch einen "Benchmarkguide" zum NDA mitgegeben haben? Wäre ja eigentlich übliche Praxis.
Das steht sicher nicht in der NDA ;) da steht nämlich das genaue Gegenteil drinnen.
 
Draco Nobilis schrieb:
Ist halt ärgerlich für CB.
Intel muss doch einen "Benchmarkguide" zum NDA mitgegeben haben? Wäre ja eigentlich übliche Praxis.
Ärgerlich? Unsere Ergebnisse sind doch valide. Wenn sie am Ende etwas aufgezeigt haben, was bisher nicht bekannt war, ist das doch sogar Grund zur Freude. :)

Im Guide stand btw nichts zu Ryzen etc. pp. Ich werde versuchen, die Tage mal mit einem 12900k gegenzustesten.
 
  • Gefällt mir
Reaktionen: konkretor, Wintermute, iWebi und eine weitere Person
Tomb Raider hat auch ein Update bekommen XeSS 1.01
Screenshot_20221007-104951~2.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Chantal Shepard schrieb:
Man klatscht nicht einfach eine neue gpu Architektur auf dem Markt und fegt etablierte Marken weg, ohne das man nennenswerte Erfahrung in dem Gebiet hat.
Intel baut nicht erst seit gestern Grafikeinheiten, das machen die schon ewig.

Und welche Erfahrung benötigt bitte eine Milliarden schwerer Weltkonzern, der sowohl CPUs und GPUs und was weiß ich nicht noch alles fertigt, um eine GPU auf den Markt zu bringen, die im IDLE weniger als 40 Watt verballert?

Da gibt es nix schön zu reden. Das ist für intel erbärmlich.

Dass die nicht alle Spiele mit top Treibern versorgen, dass kann man ja noch verstehen, das muss sich mit den Abteilungen und Mitarbeitern erst einspielen.

Ansonsten läuft es aber schon besser als gedacht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JohnVienna
cypeak schrieb:
ist das jetzt das maßstab für gpu güte?
Das eine schließt das andere aus?

Interessante Theorie, das dies alleine eine Güte, geschweige denn ein Maßstab wäre, habe ich aber auch nicht behauptet.^^

Und natürlich ist es nicht leicht sich mit Grafikkarten zu behaupten.

Ich wünsche es Intel das sie es schaffen nur sehe ich momentan nicht wie. ^^
 
gimmebytes schrieb:
Aber dafür müssten die Karten hier dann doch einen Tick günstiger sein, da die Treibersituation wohl durchaus Abstriche notwendig machen wird. Wie damals bei ATI eben.

Das sehe ich ähnlich. Deswegen schrieb ich in #382 ja auch, dass ich mir bis ca. Frühling Zeit lassen werde, um mich dann nochmal gründlicher mit der Arc A770 zu beschäftigen. Vor allem mit deren Preis, denn so ein
Experiment (Treiber etc.) möchte ich wenigstens nicht noch teuer bezahlen. Bis dahin ist es noch ein Weilchen
hin, sodass Intel vielleicht eine Lösung bezüglich des hohen Idle-Stromverbrauchs gefunden hat. Für völlig
ausgeschlossen halte ich das jedenfalls nicht.

Meiner Frau ist es eh ziemlich wurscht, was ich in "ihren" PC einbaue, denn zu 98% nutzt sie ohnehin ihr
Notebook oder ein Tablet. Die Arc Karte wäre halt mal eine Art Exot, mit dem ich mich der Neugier halber
beschäftigen würde. Aber um mich zu wiederholen: Wenn der Preis verlockend genug wäre.
 
  • Gefällt mir
Reaktionen: gimmebytes
Zurück
Oben