News Intel Arc A730M: Praxistests zeigen Diskrepanz zwischen 3DMark und Spielen

estros schrieb:
Klar, Intel muss jetzt an Spieleoptimierung ordentlich arbeiten, aber das war bislang auch nicht deren Steckenpferd.
Spiele waren noch NIE ihr Steckenpferd, haben in der Vergangenheit ihre DX-Kompatibilität auch nur auf dem Papier stehen gehabt (ganz schlimm war das bei DX9). Da kann man es verschmerzen, wenn die Treiber ausser etwas Casualzeug nix auf die Reihe kriegen. Nur hartgesottene haben wirklich versucht, zeitgenössisch aktuelle Spiele irgendwie zum laufen zu kriegen. Die iGPUs waren bisher von Seiten Intels auch nicht wirklich für Gaming gedacht. Also halb so schlimm.

estros schrieb:
Keine Ahnung, was ihr zu meckern habt, bei mir lässt sich alles einstellen und ist gut übersichtlich. Kann mich nicht beschweren.
Solange man nicht spielt, machen die Treiber tatsächlich einen ordentlichen Job.

Aber jetzt, da sie den Gamingmarkt nach eigenem Bekunden ernsthaft betreten wollen, muss doch der Treiber ganz oben im Lastenheft stehen. Die haben da doch keine Software-Nubs drangesetzt, was ist bloß los? Dass Intel prinzipiell Treiber kann, haben sie ja u.a. mit ihren Chipsatztreibern gezeigt, die sind ja echt rockstable.

Man munkelt ja, dass Arc - genauso wie einst Vega - eher den Computing- denn den Gamingmarkt anpeilen soll. Wenn sie tatsächlich so etwas wie einen Gaming-/HPC-Zwitter entwickelt haben, wird das in Sachen Gaming nicht schön, auch mit funktionierenden Treibern nicht.
 
Zumal es Intel auch nicht gewohnt ist wie AMD/Nvidia ihre Treiber monatlich zu aktualisieren und auf die entsprechenden Spiele und Zusatzfunktionen abzustimmen.

Intel betreibt in der Regel bei ihren Treibern nur bugfixing und Sicherheitslücken schließen im halb Jahres Abständen.
 
Es stellt sich die Frage, ob hier wirklich Intel das Problem ist oder nicht die Games.
Warum eigentlich haben die Games so viele Bugs, dass die Treiber darauf optimiert werden müssen?
Es ist auch gut denkbar, dass viele Games auf NVIDIA/AMD (v.a. NVIDIA) optimiert sind.

Auch wenn Benchmarks nicht die Realität sind, Spiele sind es eig. auch nicht, so sind Benchmarks eben doch die objektivere Bewertung.
Es ist ja auch so, dass oft ältere Games auf modernen Grafikkkarten mit aktuellen Treibern nicht proportional performant laufen, wie es anhand der Rohleistung zu erwarten gewesen wäre.
Auch hier ist der Grund die fehlende geenseitige Optimierung.
Ergänzung ()

Es wird dann spannend sein, wie Arc in Anwendungen performt wie z.B. Video-Rendering oder Plots von aufwendigen Proteinen usw.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Artikel-Update: In einem weiteren kurzen Video über Bilibili wird erneut auf die Spieleleistung der Arc A730M mit aktualisiertem Treiber 30.0.101.1735 eingegangen. Die Streuung in der Leistung ist noch immer massiv, im besten Fall sogar leicht über einer RTX 3060 Mobile, im schlechtesten Fall liefert Intels GPU jedoch kaum mehr ein Drittel der Leistung.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: Celinna, kryzs, Strahltriebwerk und 3 andere
Also wenn die Zahlen auf den wenigen Screenshots die FPS sind, dann ist das Ergebnis doch nicht einmal so schlecht, immerhin ausreichend für eine flüssige Darstellung. Dass manche Spiele/GraKa Kombinationen massive Probleme haben kommt ja regelmäßig vor. Das wird schon noch. Preis/Leistung/Energiebedarf, das kann ich leider absolut nicht bewerten.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Vielleicht scheitert Intel ARC ja an der Chinesischen Sprachausgabe...LOL!
 
Knuddelbearli schrieb:
Kein Wunder, dass Intel da Probleme hat, da kann man nicht einfach Geld drauf schmeißen, bin vor allem gespannt wie alte Games Nieschengames auf Intel laufen werden, zB Gothic 1-3
Als jemand, der selber Spiele der Ära sehr gerne spielt kann ich nur sagen, dass das wichtige ist, wie gut sie mit dgVoodoo 2 klarkommen. Bei kaum einem Titel lohnt es sich mehr, ihn ohne Wrapper zu spielen, so gut ist das Tool mittlerweile geworden.
andi_sco schrieb:
Intel hat seit Jahrzehnten Grafiklösungen, und einige tun so, als wenn es der erste Versuch wäre.
Ihr seid echt komisch
Und sie haben seit bald einem Jahrzehnt Schwierigkeiten, ihre Erfahrungen beim Design kleiner GPUs auf größere GPUs zu übertragen.
 
  • Gefällt mir
Reaktionen: Rockstar85
LeX23 schrieb:
Immerhin hat man ein tolles 3DMark Ergebnis. Das reicht ja für Prästentationen usw.

Voll in die Wunde :daumen:

Hatten man sich nicht vor Jahren darauf verständigt, dass man mit Anwendung Leistungsvergleich zieht, statt mit synthetischen Benchmarks? Was zählt ist, wie lange ein Kernel (Linux ist gemeint) zum kompilieren braucht bei einer CPU oder wie schnell Counter-Strike:GO läuft. Oder was man eben selbst verwendet! Ein Benchmarkwert aus einem kurzen Testlauf interessiert niemand, außer man macht hauptberuflich Benchmarks.
 
ModellbahnerTT schrieb:
Das ist so nicht richtig den was willst du entwickeln

Die Teile laufen im "Labor" seit etwa 2 Jahren.

Seit dem steht die Leistung fest und was die Dinger können. Die fertigen Modelle sind seit etwa einem Jahr als Muster fertig. Die Geschwindigkeit wird in Form von Takt im Verhältnis zum Verbrauch nur schneller.

Die Treiber, sind aber immer noch unterirdisch.

Ausreden zu erfinden, ist aber auch ein Markenzeichen von "Beamten". Daher wählte ich das sprachliche Bild, um die Arbeitsethik dieser Menschen zu beschreiben.

Pandemie, aber am WE zu Hause bleiben und Überstunden auf keinen Fall zu machen, obwohl Pandemie ist? Kein Problem.

Ein wirklich gutes Produkt durch mangelhafte Software verhunzen? Auch kein Problem.

mfg
 
  • Gefällt mir
Reaktionen: andi_sco
DevPandi schrieb:
Für die allgemeinen Probleme der GCN konnte Koduri nichts, die Probleme liegen in der Architektur
Schau mal nach, wo und an was Koduri bis 2009 gearbeitet hat ;)
"chief technology officer for graphics at AMD" bis 2009. in seinen Präsentationen aus 2008/2009 erkennt man, welche Konzepte er für GCN angestoßen hat.

Heißt aber nicht, dass Koduri nichts drauf hat. Er war davor seit den späten 90ern bei ATi und war mit verantwortlich für manche derer erfolgreichsten Serien. Von 2009 bis 2013 war er bei Apple und hat deren GPU Abteilung voran getrieben.

Gibt ja genug Geschichten, dass er bei AMD zu GCN Zeiten nur wenig R&D Budget bekam und so musste die gleiche Architektur für alles herhalten.
Unter seiner Leitung wurde GCN immerhin auch mehrfach überarbeitet und sie haben versucht, die Probleme der Architektur irgendwie zu umschiffen.
Ergänzung ()

Nuklon schrieb:
iGPU: Ich kann ein Bild ausgeben und Videocodecs abspielen
dGPU: ich kann mit fancy direct X-Befehlen, Vulcan und direct APIs umgehen.
Ist vor allem falsch, da Intels iGPUs schon seit Jahren auch breite Unterstützung von Dx, Vulkan etc haben und oft für 3D Rendering damit genutzt werden. Nur eben hauptsächlich in professionellem Maß, wo nur einige bestimmte Tools wichtig sind und spezielle Aufmerksamkeit bekommen.

Spiele mit - eigentlich - nahezu identischen Anforderungen an das Feature Set wurden dagegen stiefmütterlich behandelt, und das beißt Intel jetzt in den A...
 
Zuletzt bearbeitet:
Wie vermutet, befürchtet, vorausgesagt.
Das wird auch noch nen ganze gen dauern... Wenn nicht länger!

Mfg
 
Die Rohleistung an sich scheint ja zu stimmen. Die Frage wird jetzt sein, ob man die Treiber hinbekommt.
Das erklärt dann wahrscheinlich auch die Verzögerungen von Intel und die quasi seit Monaten versuchen die Karten stabil performen zu lassen.

Für den Markt wäre es natürlich gut, wenn ein weiterer Konkurrent im Segment 3060/3070/6600/6700 aufschlägt.

Wenn Intel es nicht verbocken will, muss der erste Schuss halt schon richtig sitzen.
 
puh also CS:GO sieht echt übel aus
 
Auf jeden Fall sollte Intel es tunlichst vermeiden die Karten auf den Markt zu schmeißen, bevor sie das mit den Treibern nicht wenigstens halbwegs sauber hinbekommen. Sonst ist der erste Eindruck direkt ruiniert und wenngleich Intel bei CPUs die Marke schlechthin sein mag, bei dGPUs ist das Nvidia, da muss Intel sich erstmal ein Image aufbauen.

Wenn das Zeug mit miserablen Treibern auf den Markt landet, ist der Ersteindruck direkt mal für die Tonne. Man sieht ja schon, was die paar Laptops in China hier bereits für Wellen schlagen.
 
  • Gefällt mir
Reaktionen: ETI1120
Ist Koduri tatsächlich verantwortlich für die Software, also die Treiberentwicklung? Er ist doch in erster Linie für die Hardware-Entwicklung zuständig. Ich glaube das ist gar nicht sein Resort und daher verstehe ich auch nicht das Bashing in seine Richtung.
 
Also so übel finde ich das gar nicht, klar ein paar negative Ausreißer wie CS:GO (was echt komisch ist, da das Spiel ja mittlerweile nur noch CPU lastig ist) aber es ist mal der erste Schritt gemacht.

ATI/AMD und nVidia haben halt auch 20 Jahre Erfahrung was Gaming Treiber betrifft, Intel muss hier jetzt auch Erfahrung sammeln, weil sind wir uns ehrlich, die iGPUs haben zwar gewisse Schnittstellen unterstützt aber kein Mensch hat auf denen ernsthaft gezockt, der Fokus war immer Office Anwendungen..von daher versteh ich das permanente Bashing bezüglich Intel Treiber nicht. Habs eh schon mal geschrieben, weder auf meinem 8700k noch auf dem Laptop i5 hatte ich jemals ein Problem mit der iGPU..
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Es ist halt die Frage, woran es liegt?

Sind die Treiber selbst so schlecht und versauen die Leistung?
Oder sind die Spiele so schlecht und vertrauen darauf, das der Treiber alle Probleme ausbüglet?
Interessant wäre mal ein Test unter DirectX12, dort kann der Treiber gar nicht eingreifen, da alles direkt zur Grafikkarte geschickt wird.

Intel hatte aber genügend Zeit, sich darauf vorzubereiten.
Das ist jetzt Intels erster richtige eigenständige Grafikchip (*), aber davor hatten sie schon länger eigene iGPUs entwickelt und hatten viel Zeit zum üben. Das man davon überrascht wurde ist eigentlich nicht zu entschuldigen.

(*) Ja, Intel hatte vorher schon Grafikkarten, aber.......
Die erste Variante war nur lizensiert, selbst die Treiber kamen nicht von Intel.
Und Larrabee war eher eine Many-Core CPU, die die Funktionen eines Grafikchips in Software nachbilden sollte.
 
DefconDev schrieb:
Ist Koduri tatsächlich verantwortlich für die Software, also die Treiberentwicklung? Er ist doch in erster Linie für die Hardware-Entwicklung zuständig. Ich glaube das ist gar nicht sein Resort und daher verstehe ich auch nicht das Bashing in seine Richtung.
Er ist der Executive Vize President und General Manager der Accelerated Computing Systems and Graphics (AXG) Group. Die Ergebnisse der AXG werden in den Quartalsabschlüssen ausgewiesen.

Er ist letztendlich der Boss und damit verantwortlich. Ob er daran Schuld ist, können nur die Intel Insider beurteilen.

Das Bashing auf Raja Koduri ist üblich. Viele aus dem AMD Lager nehmen ihm persönlich die Vega übel.
 
  • Gefällt mir
Reaktionen: DefconDev
Winder schrieb:
Interessant wäre mal ein Test unter DirectX12, dort kann der Treiber gar nicht eingreifen, da alles direkt zur Grafikkarte geschickt wird.
Das stimmt nicht. Der Treiber ist die erste Instanz die zwischen der Hardware steht und dem Rest. DirectX12 ist eine Schnittstelle auf Low Level Ebene , die wird im Treiber anders angesprochen als beispielsweise in Directx11.
 
Zurück
Oben