News Intel Arc: DirectX 9 wird nur noch über Umwege unterstützt

Danke für die Hinweise wegen CS:GO und danke fürs Einspringen @SVΞN.

Habe jetzt noch einen Benchmark ergänzt. Das weist eher daraufhin, dass die Emulation nicht so toll funktioniert:

2-1080.94a4698f.jpg


Quelle: https://www.techspot.com/review/2513-intel-arc-a380-vs-amd-radeon-6400/
 
  • Gefällt mir
Reaktionen: PietVanOwl, fox40phil, bad_sign und 3 andere
cookie_dent schrieb:
Gut, das wäre auch das einzige Szenario in dem ich mir vorstellen könnte die Teile bei mir einzubauen, als Grafikkarte für meinen HTPC.
Dann müssen aber auch Stabilität, Stromverbrauch und Preis stimmen.

Die Diskussion gab es schon in einem anderen Thread sehr ausführlich. Ja, AV1 Decode und Encode ist ein Vorteil der Arc 380 gegenüber z.B. rx 6400 und 6500. Allerdings ist die Arc 380 nicht mehr als eine FHD Karte. Und AV1 in FHD bekommt wohl jeder mittelmäßige Quadcore hin. Jetzt könnte man meinen, dass decoding auf einer GPU ja sehr effizient ist, dass ist zumindest bei der ARC 380 aber Stand heute nicht der Fall. Doppelter Verbrauch im idle und decoding von z.B. VP9 im gegensatz zu 3050 und 6400/6500.
 
  • Gefällt mir
Reaktionen: EO_XE, bad_sign und Bootinbull
Die Arc Grafikkarten von Intel sind nicht mehr als Technikschrott.
 
  • Gefällt mir
Reaktionen: EO_XE
Mickey Cohen schrieb:
Ganz im Ernst, dass eine ca. 20 Jahre alte directX Version nur über Emulation unterstützt wird empfinde ich jetzt nicht wirklich als problematisch...

Das alter der Schnittstelle ist egal. Relevant ist die Nutzung und Umsetzung. Kommt drauf an ob CSGO einwandfrei und mit hohe Framerate gerendert wird?

CSGO ist einer des meistgespielten Computerspiele und das über viele Jahre hinweg. Erschwerend kommt hinzu, dass die Anforderung durch HiDPI stark gestiegen sind. Viele Anwender - vor allem mit Intelgrafik - können das Spiel noch nicht mit HiDPI nutzen. Die Grafikleistung ist zu niedrig.
 
  • Gefällt mir
Reaktionen: EO_XE
@MichaG habt ihr eine solche Karte bei euch im Haus? Könntet ihr mal dxvk testen? das setzt ja alle D3D9-11 APIs auf Vulkan um. Die DDLs dafür bekommt man direkt beim Projekt und muss nur ins Hauptverzeichnis des Spiels gelegt werden. Ich hatte mal Render Probleme bei Horizon Zero Darn auf einer 6700xt gehabt und damit in den Griff bekommen bis der Fehler dann behoben wurde.
 
  • Gefällt mir
Reaktionen: GokuSS4
Sofern die Emulation weitestgehend funktioniert, darf diese auch 50% der Leistung fressen, da es sich eh nur um ältere Spiele handelt.
 
Martinipi schrieb:
Ja, von Intel definiert und entsprechend der Definition zugeordnet! Nicht wahllos nach Wunschvorstellungen von irgendwelchen CB Usern ausgewürfelt "Och komm, den DX11 Titel machen wir zu Tier 1!"
Ist ja auch gar nicht nötig. Durch die ohnehin schon unterirdischen Treiber ist die Leistung genrell sehr schlecht. Um wenigstens ein paar Spiele halbwegs zu stemmen, wurden für die bereits Optimierungen vorgenommen. Und das betrifft fast aussschließlich neure Titel mit aktueller API. Den Rest hat Intel einfach ignoriert, weil sie es nicht annähernd zeitnah gebacken kriegen. Daraus resultieren die Tiers. AMD und Nvidia haben quasi alle Spiele im Blick und müssen "nur" für die neu erscheinenden jeweils die Treiber optimieren.
Es mag also stimmen, dass die letztendliche Einteilung in Tiers nicht Intels Willkür ist, aber der Grund dafür ist Intels Schuld, nämlich das Unvermögen oder der Unwille die Treiber auf wenigstens die allermeisten Titel der letzten 20 Jahre anzupassen.
Und ja, das ist der IST-Zustand, aber glaubt jemand ernsthaft, dass sich daran noch sehr viel ändern wird, speziell bei Tier 3?

Ich glaube langsam eher, dass Gelsinger und auch Koduri in der näheren Zukunft das ganze GPU Projekt einstampfen werden und anschließend ihren Hut nehmen, weil sie eingestehen müssen, dass Intel einfach zu blöd für Treiberentwicklung ist und deshalb auch die tollste Hardware am Ende zu nichts taugt und die GPUs ein Milliardengrab bleiben.
 
  • Gefällt mir
Reaktionen: EO_XE, Casillas, simosh und 3 andere
hat einer eine Erklärung für die plötzliche Umkehrung der Performance bei Hitman 3? Die RX 6400 ist plötzlich deutlich langsamer, während die A380 zumindest etwas schneller wurde als beim Test vom 1.8.
Beim 1. Test wurde mit dem Ryzen 5950 und beim aktuellen mit dem 5800X3D getestet.
Test vom 13.8.:
Bildschirmfoto von 2022-08-15 14-26-36.png

Test vom 1.8.:
Bildschirmfoto von 2022-08-15 14-26-25.png
 
  • Gefällt mir
Reaktionen: Alexander2 und Epistolarius
Bevor es noch mehr Diskussionen zu den verschiedenen Level/Ebenen der internen Einstufung von Spielen bei Intel gibt:

Intel’s Three Tier Gaming Strategy​

The reason why we’ve seen such bad performance in games that use older APIs like DX9 and DX11 is because Intel has a “Three Tier Game Strategy” in place.

They will be splitting games into three different tiers and here’s how that split will look:

  • Tier I: Games that have support for the latest APIs and are optimized for Intel’s Arc architecture. So, newer games like Cyberpunk 2077, Tomb Raider, Call of Duty, etc. This is where Intel will offer the best price/performance.
  • Tier II: Games with DirectX12 and Vulkan, but without optimizations for Intel Arc GPUs.
  • Tier III: Videos games on older APIs will run worse on Intel Arc GPUs compared to AMD’s and Nvidia’s graphics cards in the same price range.
 
War die Grundidee von DirectX nicht einmal das es abwärtskompatibel sein soll, also auch ein Spiel mit DX5 oder selbst DX1, auf einem Windows 10/11 mit DX12 laufen soll?
 
  • Gefällt mir
Reaktionen: fox40phil
Weedlord schrieb:
Wasn Müll, gibt noch soviele gute Games die DX9 nutzen. Solange es da keine native Unterstützung gibt werde ich mir definitive keine Intel GPU kaufen.

Keine Lust das es da vereinzelt zu Problemen nachher kommt.
Vereinzelt?

Siehe dieses Video wo 51 (!) Spiele ARC A380 gegen Radeon RX 6400 getestet wurden. Also gegen die AMD Karte die allgemein von allen Redeaktionen NICHT empfohlen wird weil die Preis/Leistung so schlecht ist!


Ich habe mal das Video an der Stelle verlinkt wo alle Games in einer Tabelle angezeigt werden. Nur die Handvoll oben ist die Karte besser, die MASSE aber schlechter...und wenn man sich das ganze Video anschaut dann redet er immer wieder nur davon wie Games gar nicht starten wollten und viele nur mit langwierigen herumprobieren überhaupt gestartet werden konnten oder wie mies sie in dem Menüs ect. geschweige denn nach dem Laden eines Spielstandes liefen. Wer des englischen halbwegs mächtig ist sollte es sich mal anschauen und oder die Automatische Google Sprach zu Text Übersetzung unten aktivieren und dann (nochmals anklicken und von English, weil dann erst aus wählbar) auf Deutsch einstellen...
Man kann gar nicht glauben das das von dem DEM Weltkonzern Intel stammen soll und nicht irgendeinem kleinen StartUp Unternehmen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EO_XE, Holgmann75, Eller und 5 andere
cookie_dent schrieb:
Gut, das wäre auch das einzige Szenario in dem ich mir vorstellen könnte die Teile bei mir einzubauen, als Grafikkarte für meinen HTPC.
Dann müssen aber auch Stabilität, Stromverbrauch und Preis stimmen.
Oder einen Intel 11000-12000 oder entsprechenden Pentium.
Geizhals führt jetzt auch AV1 decode im Filter
https://geizhals.de/?cat=cpu1151&xf=14860_AV1+decode
 
Dai6oro schrieb:
Schwerwiegend ist allerdings, dass kein DX11 Titel in den Augen von Intel Tier1 ist, das sind alles Tier3 Games. Sorry aber das ist keine Konkurrenz, das ist mehr als nur lächerlich.

So sieht es aus. Ich habe von Anfang an gesagt. dass die Treiber bei Intel das Problem sein werden. Willkommen in den 90ern/00ern, als alle Hersteller noch schrottige Treiber hatten.
 
  • Gefällt mir
Reaktionen: EO_XE, goldeye, fox40phil und 2 andere
  • Gefällt mir
Reaktionen: ComputerJunge und MaverickM
estros schrieb:
Sofern die Emulation weitestgehend funktioniert, darf diese auch 50% der Leistung fressen, da es sich eh nur um ältere Spiele handelt.
Wen interessieren schon 50% FPS Verlust, wenn man CS:GO competitive spielen will.
 
  • Gefällt mir
Reaktionen: Balikon und Tzk
seyfhor schrieb:
Aber bei den doch leistungstechnisch eher weiter unten angesiedelten Arc keine alten Spiele zu unterstützen und wenn Intel jetzt irgendwie wie ein bockiges Kind keinen Bock mehr drauf hat und hinjschmeißt und dann auch noch den schwarzen Petzer Microsoft hinschiebt, ey klasse :daumen:

Der dGPU Einsteig Intels mit Arc muss sich eben halbwegs auf Dauer rechnen und jeden Schopf mitzuschleppen anstatt welche abzuschneiden und nicht auf veraltetes weiter zu optimieren, ist m.M.n. auch im Einsteiger- bis Mainstream-dGPU-Bereich als Neuling (welcher Intel zwewifelsohne ist) vollkommen nach zu vollziehen.

Die meisten Titel, die auf neuen dGPUs in den o.g. Leistungsklassen gespielt werden, sind neuere eSports-Titel und ich finde es sinnvoller, wenn Intel die Ressourcen in Treiberoptimierung auf relevante und nicht auslaufende Spiele-APIs verwendet.

Fuer DX9 Spiele kann man sich entweder eine alte dGPU (per Zweitrechner, Laptop, etc.) halten/aufbewahren - wenn einem das so wichtig ist - oder versuchen mit der Microsoft DX12 Emulation bei den Arc dGPUs audf Dauer gluecklich zu werden (vielleicht tut sich da ja noch etwas in Zukunft, die naechsten ARC Karten duerften i.a. schneller werden und damit auch der Leistungsbedarf in DX9 nicht wachsen, da diese Titel aus heutiger Sicht eher weniger anspruchsvoll sein duerften).

Wenn man Deinen Kommentar so liest, koennte man den Eindruck gewinnen, dass Du keinen Bock auf eine dritte Kraft im dGPU-Markt zu haben scheinst und lieber gerne weiterhin Krypto-Mining-Mondpreise - egal ob von nVidia oder AMD/RTG - in Zukunft zahlen moechtest.
 
leipziger1979 schrieb:
War die Grundidee von DirectX nicht einmal das es abwärtskompatibel sein soll, also auch ein Spiel mit DX5 oder selbst DX1, auf einem Windows 10/11 mit DX12 laufen soll?

Wie weit es zurück geht kann ich dir nicht sagen aber der Treiber legt letztlich fest welche Feature Level er unterstützten kann. Solch eine umfangreiche Abwärtskompatibilität zu verlangen würde es Neueinsteigern noch schwerer machen. Feature Level per Emulation umzusetzen findet Microsoft in der idr. auch nicht mehr so klasse. Daher wäre es interessant zu wissen wie es mit DXVA zum Beispiel läuft, auch wenn es einige abhängigkeiten an legacy Features wie Transform Feedback hat.
 
MichaG schrieb:
Aber vllt hat @Wolfgang ja grad Langeweile? 🤓

Na, ein Vergleichstest (inkl. DX9 Titeln) mit der Konkurrenz RX 6400 und GTX 1630 wuerde sich ja anbieten :), wobei nVidia da doch den kuerzesten ziehen koennte, wenn man sich das vernichtende Urteil zur GTX 1630 auf Tom's Hardware anschaut (wobei die dGPU trotzdem noch irgendwie 2 von 5 Sternen per Testurteil bekommt).

Even Intel's Arc A380 will likely deliver superior performance, though it's a gamble on whether or not Intel will ever get the drivers to fully functional status.

Ergo, relativiert das ein wenig den Flop-Charakter, aber natuerlich kann man die geplante (vermutlich noch schwaechere) Arc A310 ins Feld fuehren, welche hoechstwahrscheinlich dann mit der roten Laterne am Ende dastehen koennte (und im Vergleich zu aktuellen APUs dann nur noch wenig attraktiv/sinnvoll sein duerfte).
 
Zurück
Oben