Ich möchte ausdrücklich darauf hinweisen, dass auch hier wieder im Benchmark klar ersichtlich ist, dass die gesamte Intel ARC Technologie starke Probleme mit der Grafikausgabe hat.
Die extrem schwankenden Frametimes mit starken Rucklern sind ein absolutes No-Go. für echte Gamer und mindern das Spielgefühl extrem.
Selbst die optimierten Spiele scheinen noch immer nicht rund zu laufen.
Was nützen einem dann halbwesg vernünftige lange Benchmarkbalken, wenn das Gesamtergebnis diesem aber gar nicht entspricht?
Seit 20 Jahren wird über Sli und Crossfire etc. diskutiert und schlechtgeredet, weil man zwar in einigen Spielen hohe Durchschnittsframes erhält, aber das Spielerlebnis trotzdem nichts besser oder gar schlechter ist als mit einer Einzellösung.
Und genau das schafft Intel in einer einzigen GPU zu integrieren. Respekt! Für so viel Unvermögen als Hersteller von Hardware, wo man schon seit über 30 Jahren im Geschäft ist! Inkompetenz ohne Ende. Eine Frechheit, das an den Endkunden in einem nicht einmal Betatest würdigen Zustand zu verkaufen.
Bitte schaut euch immer die Werte an, die getestet werden.
Nicht die Zahl bei der Endausgabe ist entscheidend, sondern der Verlauf.
So schafft die ARC580 also ziemlich genau so viel Punkte, also Frames, wie die 3060. In diesem angepassten und "optimierten" Spiel.
Der interessierte Käufer wird sogar feststellen, dass die Maximalwerte sogar höher liegen, und das wird man sicherlich höchst positiv aufnehmen und sich sagen, ja die ist ja sogar in manchen Spielabschnitten sogar schneller, wie geil ist das denn?
Ja neee! Nein! So darf man das nicht sehen! Das ist sogar schlecht!
Denn wenn man sich nun fragt, ja wieso ist die denn nicht auch insgesamt schneller, wenn die doch im Prinzip etwas flotter sein kann?
Dann muss man mal auf die Rückseite der Medallie drehen, die so zerkratzt udn schmutzig ist, wie sie nun mal eben sein kann (siehe Sli/Crossfire in ähnlicher Weise).
Und nun sieht man, warum die Karte so schlecht ist:
Die Frametimes sind in vielen Spielen grottig!
Auch hier kann ich es sagen, ohne diese überhaupt gesehen zu haben.
Denn das sagt der hohe Unterschied zwischen Maximal und Minimalrate ja schon aus (natürlich in Bezug zu anderen Ergebnissen, die wesentlich "glatter" bzw. "gleichmäßiger" sind)
Die Karte schafft also mehr Bilder pro Sekunde als die NVidia Karte, rutscht aber gleichzeitig dauernd auf bis zu 78 im Vergleich zu 87 Bilder ab?!
Das ist ein ernsthaftes Problem!
Ihr lauft also in einem Spiel durch die Gegend, oder wie hier scrollt durch die Landschaft, und die ganze Zeit spürt ihr dieses leichte zuckeln, als wenn es nicht ganz geschmeidig läuft, die gefühlte Bildrate ist dadurch auch um einiges niedriger als sie eigentlich ist (als ähnlich dem Sli/Crossfire-Problem).
Dieses Gefühl könnt ihr auch haben, wenn ihr eine Karte wie die Radeon 6400 mit 4GB kauft, diese dann mit einem Spiel wie Far Cry 6 befeuert und dann im Spiel die Grafik auf Ultra stellt.
Dann wird ein Teil der Grafik über das langsame Mainboard nachgeladen und ihr bekommt auch diese Nachladeruckler im Spiel.
Ich möchte an dieser Stelle abschließend noch einmal betonen, dass ein großer Unterschied zwischen Minimal und Maximalframes in einem benchmark alleine noch nicht reicht, um über einen schwachen Frametimeverlauf urteilen zu können, aber wenn man im Vergleich dazu dann andere Benches hat, die das nicht oder weniger stark ausgeprägt haben, dann ist das aber sehr wohl eine Bestätigung, dass eben jene Karte dort ihre Probleme hat.
Das haben andere Karten auch imerm schon mal wieder in bestimmten Spielen gezeigt, das sieht man bei AMD und NVidia ja auch, dass mal zumindest bei der Veröffentlichung dann vielleicht auch bei einem frischen Spiel der Treiber noch nicht ganz flutscht.
Dann wird da nachgepatcht udn das wird weniger oder ist ganz weg, vielleicht auch mal nicht, wenn wie bei der RAdeon 6400 dann halt imemr noch zu wenig Speicher für die Benchmarkszene mit den zu hohen Details vorhanden ist udn man runterdrehen müsste.
Aber die Intel Karten haben ja jetzt bewiesen, dass es wohl eher grundlegend so ist und die Treiberentwicklung noch weit von einem Veröffentlichungstermin entfernt sind.
Also was hilft da nur? Warten, warten, warten.
Wenn man nicht experimentierfreudig ist, oder so ein Teil fürs heimische Regal haben will, dann sollte man lieber all die anderen in den kommenden Monaten udn vielleicht Jahren die Versuchskaninchen spielen lassen.
Die Leistung ist ja im Prinzip wirklich da, weil es ja oft in "optimierten" Spielen schon hohe Maximalframes gibt, die kommen ja nicht einfach so zustande, aber die extrem kaputten Werte im Unteren Bereich (Igor hat bis zu 2%!!! extrem schlechte Werte ermittelt) machen derzeit wirklich alles zunichte.
Das Ganze ist in meinen Augen noch schlimmer, als wenn es Karten wären, die halbwegs ordentliche Treiber hätten, aber die Gesamtperformance wäre noch weiter unter dem, was man eigentlich aktuell erwarten würde.
Dabei beziehe ich mich natürlich auch auf die ziemlich schlechte Performance pro Watt bei Intel ARC.
Trotz des überlegenen Fertigungsprozesses (sie müsste also viel bessere Werte liefern!) ist die kleine ARC380 im PPW Rating (Performance per Watt) aber schon um satte 50% schlechter als die Radeon 6400 - udn das bereits bei den üblich getesteten Titeln.
Was ist dann wohl bei den Spielen, die Intel noch gar nicht angeschaut hat?
Die haben eine Top100 Liste, selbst da läuft noch alels nicht wirklich rund.
Uuuund jetzt ist noch rausgekommen, dass die Karten kein DX) mehr können, also Spiele wie CSGO und Team Fortress, die darauf basieren, und bei Steam imemr noch in den Top Charts der Spieler stehen, laufen extrem schlecht! Also ungefähr 50% langsamer.
Da hat Intel noch sehr viel Arbeit vor sich.
Die To-Do-Liste ist noch viel länger als angenommen.
So, das reicht jetzt auch als Einstieg in die Problematik, darüber kann man eine Doktorarbeit schreiben.