News Alchemist Benchmarks: Gaming-Grafikkarte Arc A380 ab 150 Euro in China verfügbar

Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
 
War ja schon abzusehen, dass die Gaming-Performance übel sein würde. Dass man aber dann doch derart deutlich gegen diese extrem kastrierte 6400 den Kürzeren zieht, verwundert doch recht stark.
 
  • Gefällt mir
Reaktionen: Ganjaware, Celinna, Plage und 3 andere
Immerhin läuft sie bei den gängigen Spielen. Ich denke die nächsten Generationen werden dann in der Leistung anziehen. Zu Telekom und Vodafone(Nvidia und AMD) kommt jetzt noch Telefonica(Intel) und muss den Rückstand aufholen. Zuschauen wie es sich entwickelt.
 
Die Frage ist, wie lange man das Argument "Treiber" noch ziehen lassen kann. Das Ding liegt ja scheinbar schon seit Monaten, wenn nicht Jahren, auf der Halde und wurde primär wohl wegen dem Treiber verschoben. Jetzt kommt das Ding raus und der Treiber ist noch immer Müll.

Es ist ja auch nicht Intels erste Grafikkarte - ebenso wenig ist es die erste GPU, welche für "Gaming" ausgelegt sein soll. Die ganze Iris-Reihe wurde damals schon wegen ihren Gaming-Fähigkeiten beworben. Der Skull Canyon NUC kam schon mit aggressivem Gaming-Marketing auf den Markt - vor sechs Jahren!

Ja, andere Architektur, blablabla, aber es hatte damals schon Probleme mit gegeben. Intel sollte es so langsam mal wirklich hinbekommen und endlich liefern.
 
  • Gefällt mir
Reaktionen: simosh und Max0071980
Stephan-MV schrieb:
Ist da über die Treiber noch was raus zu holen ?

Muss ja, WENN in den Benchmarks nur optimiert und nicht geschummelt wird. Das es irgenwann noch rausgeholt wird kann man aber nicht einschätzen.
 
  • Gefällt mir
Reaktionen: danyundsahne
Stephan-MV schrieb:
Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
Müsste man mit Microbenchmarks gegenchecken, die relativ unabhängig vom Treiber laufen. Aber die synthetischen Benchmarks deuten daraufhin, dass die Treiber noch viel Optimierungspotential haben.
 
  • Gefällt mir
Reaktionen: Plage, 24784ds, //differentRob und eine weitere Person
Also ich bin schon gespannt wo die Topmodelle sich einordnen werden, aber mit der ersten Karte der Serie durch die Bank weg eine schlechtere Leistung als ein 6400 in allen möglichen Spielen abzuliefern ist enttäuschend.
Auch wenn über den Treiber noch etwas geht. Die Frage ich wann denn?? Mindestens für LoL hätte man das doch auf dem chin. Markt schon mal anpassen sollen.
Was ich nicht verstehe. Laut News-Update
Basis der Spiele (...) und Destiny 2 ermittelt haben
und Destiny 2 ist doch auch im Test gewesen und auch da hat die Karte versagt.
 
Die DX11 Schwäche könnte bei Intel ja Drawcalllimit sein.
(AMD hat da letztens nachgebessert mit Treiber 22.5.2)
 
GerryB schrieb:
Die DX11 Schwäche könnte bei Intel ja Drawcalllimit sein.
Dafür gibt's ja auch simple synthetische Benchmarks. Leider wird den ganzen interessanten Stuff wohl keiner testen, auch deutsche Plattformen/Redaktionen nicht. Ich werde mal versuchen, ein paar "Nerds" zu motivieren, ne richtige Architekturanalyse zu machen.
 
  • Gefällt mir
Reaktionen: simosh, DaBo87 und GerryB
Zer0Strat schrieb:
Ich werde mal versuchen, ein paar "Nerds" zu motivieren, ne richtige Architekturanalyse zu machen.
Wenn ich dann irgendwann mal eine habe, kann ich gerne etwas beisteuern. Aber schon am DG1 Feedback merkt man, dass die Nutzer in den Foren darauf keinen Bock mehr haben bzw. die alte Garde langsam komplett verschwunden ist. Da kommt die hängende Mimimi-Schallplatte und das war es dann.
 
  • Gefällt mir
Reaktionen: konkretor und Zer0Strat
Ich glaube im Bereich Gaming muss man nun doch noch einige Zeit lang warten, bis es eine Option wird. Wenn überhaupt. Schade.
Da rechne ich Intel mehr Erfolg in Bürorechner und kleine Workstation. Nicht jede CAD Anwendung braucht gleich eine Quadro Karte. Aber wäre dann interessant, wie sich da schlagen.
 
24784ds schrieb:
Wenn ich dann irgendwann mal eine habe, kann ich gerne etwas beisteuern.
Top! 👍 Man muss halt die Ausführungspipeline stufenweise aufdröseln. Am besten fängt man mit dem Drawcall-Limit an, dann Latenzen der Speichersystems, Füllraten usw.
 
Verwundert jetzt nicht, alles andere wäre überraschender gewesen.
Kein Spiel ist für Intel optimiert und die Intel Treiber sind auch noch Murks.

Interessant wäre ob Intel diesmal wirklich den Atem hat, das alles langwierig zu verbessern
 
  • Gefällt mir
Reaktionen: simosh und TechFunk
enttäuschend. aber natürlich nicht anders zu erwarten von Intel
 
  • Gefällt mir
Reaktionen: Ganjaware, Celinna, LamaMitHut und eine weitere Person
Man sollte echt eins nicht vergessen. Es ist für Intel nun seit den 90er Jahren die erste wirklich eigenständige GPU die sie selber entwickelt haben. Klar ja auch wenn es kaum einer glaubt Intel seit Jahren der größte Hersteller von Graka´s , aber diese sitzen nun mal in den CPU´s mit drin und waren nie für den Gamingbereich gedacht.
Wie schon gesagt war die letzte wirkliche " Gaming " Graka von Intel irgendwann mal in den 90er Jahren erhältlich.
Für das , das sie nun einsteigen finde ich die Leistung die , die "kleinste Graka" hat im Grunde ok. Klar sie "könnte" besser sein und viele Leute haben gehofft das die Intel Graka´s die Überflieger werden was reines Wunschdenken war.
Wenn die " Größte " Intel Graka zwischen der 3060 und der 3070 liegt ist das für mich in Ordnung , auch wenn dann die AMD & Nvidia lager sie in der Luft zerreisen und sagen " Schrottkarten", " Habe ich doch schon immer gesagt das die nix taugen werden " oder " Viel zu langsam" zum besten geben .

Das es nur zwei hersteller gibt behindert wie ich meine nur die entwicklung. Es würde mich echt freuen wen " alte Graka Hersteller die Matrox , S3 und PowerVR wieder auf der Bildflächer erscheinen würden und auch Aktiv wären.

Wunschdenken halt....
 
  • Gefällt mir
Reaktionen: Lemiiker, TechFunk und whynot?
bad_sign schrieb:
Die Gunnier hat 92W Boardpower
Kann man denn erkennen, ob mit 92W oder doch nur 75W getestet wurde?

edit: Was genau enthält PackagePower?
 

Anhänge

  • A380_Furmark_Pkg-Power.JPG
    A380_Furmark_Pkg-Power.JPG
    113 KB · Aufrufe: 212
Zuletzt bearbeitet:
d3nso schrieb:
AMD wurde immer ausgelacht wenn es darum ging die Rohleistung ihrer Karten auf die Straße zu bekommen, hier sieht man nun das es durchaus noch schlechter geht und wohl nicht immer so einfach ist wie viele (zumeist Fanboys) das darstellen.
Und man darf nicht vergessen, dass Intel bei den Shadern sogar ein kleines Stück bei der Anzahl mogelt, wie es NVIDIA bei Turing getan hat. ;) 128 FP32-Shader + 128 INT3-Shader, macht eignetlich 256 und damit bereits 2048.

Wenn man das bedenkt, dann ist die gebotene Leistung eine Katastrophe.


Stephan-MV schrieb:
Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
Kommt auf die Architektur von Xe an und wie dessen Eigenheiten sind und was das für die Treiberentwicklung bedeutet.

NVIDIA und AMD sind seit Jahren darum bemüht ihre Architekturen weitgehend so zu gestalten, dass sowohl Entwickler als auch sie Selbst keinen massiven Aufwand in die Software und Treiberoptimierung zu stecken, sondern dass der "normale" Treiber bereits weitgehend die Optimierungen vornehmen kann, ohne das es spezielle Pfade benötigt.

Das bedeutet nicht, dass NVIDIA und AMD nicht die Treiber noch optimieren müssen, aber - anders als es gerne angenommen wird - beschränken sich die Optimierungen in den Treibern heute oft eher darauf, dass man dem Shader-Compiler ein angepasstes Profil für ein Spiel mit gibt und auch sonst ein Profil für ein Spiel hinterlegt, der dann gewisse bereits eh vorhanden unterschiedliche Optimierungspfade vorgibt. Einer der Gründe, warum bei vielen Spielen zwischen einem "nicht-für-das-spiel-optimierten"-Treibers und dem dann optiemierte Treibers nur ein paar Prozent heute liegen.

Wirklich umfassende Optimierungen für ein Spiel setzten heute weder AMD und NVIDIA noch um, weil du dann sehr komplexe Profile erstellen musst, die dann sogar "Replace-Answeisungen" besitzen, die in die Shader tiefgreifende Veränderungen vornehmen müssen und da liegt der Knackpunkt:

Intel hat bereits angedeutet, dass sie für 3dMark und andere synthetische Benchmarks genau DAS machen: Sie geben den Shader-Compiler nicht nur ein Profil mit mit bestimmen Anweisungen fürs Compilieren, sonder sie sind die Shader für die Benchmarks durchgegangen und haben die Shader teilweise tiefgreifend auf ihre Architektur optimiert.

Und das kann für Intel bei Spielen zu ein Problem werden, denn wir sprechen dann davon, dass wir einen Anbieter haben, der mit der aktuell üblichen "Standardentwicklung" überhaupt nicht "kompatibel" ist und quasi in den meisten Spielen einen zweiten Codepfad benötigt.
Zer0Strat schrieb:
Aber die synthetischen Benchmarks deuten daraufhin, dass die Treiber noch viel Optimierungspotential haben.
Na ja, wenn man die Informationen von Intel nimmt und sich das ansieht, dann muss man schon sagen, dass das Problem vermutlich nicht so wirklich im Treiber liegt, sondern - warst du es, der da die Frage mal stellte - für Intel viel umfassender ist und bereits bei den Spielen liegt und wie diese entwickelt werden.

Du hast doch mal die Frage gestellt, ob Intel nicht anhand der Patente und Co dazu gezwungen ist, dass soviel Arbeit dem Treiber zufällt und der zurecht biegen muss und ich hab darüber nachgedacht und muss sagen: Je mhr ich mir das alles anschaue, um so plausibler ist das ganze auch.

Wenn man sieht, dass in "hochoptimierten" Benchmarks die Leistung echt gut ist und dann bei Spielen so abfällt, die nicht optimiert sind, wenn man dann erfäht, das Intel quasi jeden Shader in diesen Spielen angepasst hat und optimiert hat, dann fragt man sich wirklich, ob Intel nicht vielleicht doch durch die Patente von AMD und Co da "gebremst" wird. Aber es kann zu vieles sein.
 
  • Gefällt mir
Reaktionen: simosh, Lemiiker, Plage und 3 andere
Dittsche schrieb:
enttäuschend. aber natürlich nicht anders zu erwarten von Intel
Enttäuschend?

Mit 4 Digitalen Displayanschlüssen und Hardware Encoding ist das Teil imho intressanter wie eine RX 6400/6500.
Es geht nicht allen Nutzern um die reine Spieleleistung.

Wobei da 150€ durchaus noch eher zuviel sind.
Vor dem Miningboom gabs dafür die RX570 schon für knapp >120€. Und selbst im Miningboom gabs Ende letztes Jahr die T600 für ~140€
 
Zurück
Oben