News Intel A350M und A370M: Arc-Grafiktreiber „optimiert“ noch immer Benchmarks

Jan schrieb:
fragwürdigen System oder blankem Chaos
Ich glaube tatsächlich, dass arc eine bauchlandung hinlegen wird, da scheint hat nichts ordneltich zu laufen und wenn der Treiber derartig optimiert werden muss weil es so unflexibel gestaltet ist wird das noch eine sehr interessante Angelegenheit
 
  • Gefällt mir
Reaktionen: Rockstar85
Ein Debakel, die ganze Nummer.
Angesichts des verschenkten Momentums einfach nur peinlich und nun bereits obsolet.
Tja, Intel, nichts aus Larabee gelernt? !

Nun mit solchen "Tricks" zu glänzen zeugt in meinen Augen von der Panik, welche aufzukommen scheint.

Die neuen AMD APUs werden den Boden mit Intel aufwischen.
Ich bin echt enttäuscht, ein dritter Hersteller wäre einfach zu schön.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82, Quonux und Coeckchen
Colindo schrieb:
Hätte ich das mal gewusst, bevor ich hier Artikel angefangen habe zu schreiben. Das mache ich nur für die hämischen Kommentare :D

So war mein Beitrag nicht gemeint. Ich meinte viele Kommentare = viele Klicks = besseres Standing gegenüber der Stammredaktion. Aber gut, ich finde Jans Erläuterung nachvollziehbar.
 
W4RO_DE schrieb:
So war mein Beitrag nicht gemeint. Ich meinte viele Kommentare = viele Klicks = besseres Standing gegenüber der Stammredaktion. Aber gut, ich finde Jans Erläuterung nachvollziehbar.
Nehme ich dir nicht übel, du weißt ja auch nicht wie Autoren bei CB bezahlt werden. Alles gut.
 
@Colindo bei deinem Zeug blickt man doch ohne Professur und Doktortitel gar nicht durch. :D
 
  • Gefällt mir
Reaktionen: CableGuy82
@SV3N Jo, so sieht das aus. Deswegen wahrscheinlich die wenigen Hasskommentare. Ich werd da noch optimieren müssen. Anscheinend sind die Intel-Treiber das richtige Thema, da arbeite ich mich mal rein :D

On Topic: Wenn der Intel-Treiber tatsächlich so viel regeln muss, nachdem AMD historisch immer Probleme hatte, wenn die Entwickler nicht gut gearbeitet haben, hat Raja wirklich nichts gelernt.
 
  • Gefällt mir
Reaktionen: CableGuy82
Colindo schrieb:
On Topic: Wenn der Intel-Treiber tatsächlich so viel regeln muss, nachdem AMD historisch immer Probleme hatte, wenn die Entwickler nicht gut gearbeitet haben, hat Raja wirklich nichts gelernt.
Hier das Interview, was ich damals gelesen habe dank Volker: https://community.intel.com/t5/Blog...Gaming/Engineering-Arc-3-30-2022/post/1372836

Die interessante Passage findet sich in Frage 2: Question #2: How is Intel improving performance and compatibility for games?

Wichtig ist der folgende Satz, der hier auch das Dilemma zeigt: "By the end of April, we will add a UI option that allows users to toggle these benchmark specific optimizations on and off. This gives anyone the ability to see the top-level Intel Arc hardware potential of a fully optimized workload, as well as general benchmark performance. When the toggle is in place and the benchmark optimizations are disabled by default, the driver will be eligible for approval by UL."

Worauf ich mich beziehe und was mir etwas die Haare zu Berge stehen lässt ist aber davor: "This includes identifying specific application processes and then passing flags to our compiler for efficient memory utilization, optimizations of what type of SIMD instruction is preferred, and even wholesale shader replacements to ensure optimal hardware performance."

Intel hat in dem Interview - vermutlich eher unbewusst - zugebene, dass sie sich ein Softwaremonster geschaffen haben und dass man ja die Optimierungen für "Benchmarks" eingebaut hat um zu zeigen, was das System leisten kann. Intel hat da aber bereits selbst schon geschnallt, dass sie die Arbeit nicht für jedes Spiel bringen können, weswege sie an die Spieleentwickler gehen. Nur wenn Intel wirklich SO abhängig ist von Optimierungen, dann sieht es für Intel schlecht aus. HLSL-Code kann man bisher relativ gut zwischen AMD und NVIDIA hin und her schieben ohne dass man als Entwickler*in es optimieren muss.
 
  • Gefällt mir
Reaktionen: usernamehere, Sherman789, Mulciber und 9 andere
@DevPandi Hmm, es kann natürlich auch sein, dass Intel einfach keine Chance hat, eine der bestehenden Architekturen größtenteils nachzuempfinden und deswegen etwas kreiert hat, was eine gewisse Menge an Optimierungen bedarf. In jedem Fall sollte Intel zusehen, die Treiber-Optimierungen auch durchzuführen und nicht eine Menge Spieler im Regen stehen zu lassen.
 
  • Gefällt mir
Reaktionen: usernamehere, CableGuy82 und Wildzerwürger
Michael vdMaas schrieb:
Ich bin sehr gespannt auf die ersten Tests von euch zur Performance der Desktop-Grafikkarten von Intel. Mal sehen, was die können.

Topic: Dass es überhaupt eine treiberseitige Funktion zur Optimierung für Benchmarks gibt, finde ich schon bedenklich und wirft leider wieder einmal kein gutes Licht auf Intel. Lasst diesen Mist doch einfach.
Jetzt gibt es zumindest Indikatoren. offizielle Benchmarks minus 30-40% ^_^
 
  • Gefällt mir
Reaktionen: bad_sign und Illithide
Die ganz Großen sind wirklich peinlich schlecht. MS, Intel und weitere.... Machen im Jahr MRD Gewinne und kriegen solche Sachen nicht geschissen.... das finde ich beeindruckend, dass Geld kein Garant für gute Soft- & Hardware ist ... eigt nicht das was man vermutet.
 
  • Gefällt mir
Reaktionen: konkretor
Das Problem ist, dass man sich unter Optimierungen für Benchmarks alles vorstellen kann. Vor allem würde mich interessieren warum Intel die benchmarkspezifischen Optimierungen ausschaltbar machen muss. Wird reale Software langsamer oder wird falsch gerendert?

Grundsätzlich stellt dies alle Performanceangaben von Arc und geleakte Benchmarks in Frage.
Bleibt nur der Spruch: Warten wir die unabhängigen Benchmarks ab.

Und langsam stellt sich die Frage schafft es Intel tatsächlich nennenswerte Stückzahlen zu liefern, bevor Nvidia die neue Generation launcht?
 
Wenn die Optimierungen den Benchmark Täuschen wäre es doch ein leichtes 3DMarkscores der Treiberversionen wie sagt man das 0 zu setzen? 3DMark hatte doch cheatprotections da niemand ne 3090ti als 1660 Super ausgibt etc…
 
Colindo schrieb:
@DevPandi Hmm, es kann natürlich auch sein, dass Intel einfach keine Chance hat, eine der bestehenden Architekturen größtenteils nachzuempfinden und deswegen etwas kreiert hat, was eine gewisse Menge an Optimierungen bedarf. In jedem Fall sollte Intel zusehen, die Treiber-Optimierungen auch durchzuführen und nicht eine Menge Spieler im Regen stehen zu lassen.
Ich dachte immer, dafür wäre DirectX und Vulcan da, als "Mittelsmann" zwischen Hardware und Software. Was muss da eigentlich noch optimiert werden?

So oder so ist es aber keine gute Idee, sich bei einem neuen Produkt ein Kampf gegen Windmühlen ans Bein zu binden, bei der Menge an Studios und Spielen heutzutage...und die Kunden spielen ja auch nicht nur die allerneuesten Spiele, da muss man zusätzlich auch einige Zeit zurückgehen.
Für mich persönlich verdichtet sich so langsam der Eindruck eines "Rohrkrepierers"...
 
  • Gefällt mir
Reaktionen: Quonux und Colindo
Das mit der super anpassbaren Shadern hört sich halt massiv nach server GPU an, die gut sein soll für Berechnungen. weniger nacj GPU fürs zocken, das ist halt nur so nen Abfallprodukt, das man auch mehr schlecht als recht damit Zocken kann.

Edit:
Zudem erinnert das auch sofort an den "großen Erfolg" Itanium.
Haben die da etwa Resteverwertung betrieben aus der Itanium Entwicklung? Oder sind das gar intern zu großem teil Itanium's? :D
 
  • Gefällt mir
Reaktionen: CableGuy82 und Piktogramm
ETI1120 schrieb:
Vor allem würde mich interessieren warum Intel die benchmarkspezifischen Optimierungen ausschaltbar machen muss. Wird reale Software langsamer oder wird falsch gerendert?
Weil sie das Ergebnis beispielsweise im 3DMark um bis zu 15% schönen und mit diesen Optimierungen gegen die AGBs von UL/3DMark verstoßen.

Ergo werden Arc-Grafikkarten aktuell nicht in die Datenbank beim 3DMark aufgenommen.
 
  • Gefällt mir
Reaktionen: Illithide, konkretor und pipip
Intel... die standen schon immer für "real world benchmarks"

 
  • Gefällt mir
Reaktionen: itm, CableGuy82 und Quonux
DevPandi schrieb:
Intel hat nun für die Benchmarks diese "Optimierungen" vorgenommen, die zeigen sollten was Xe² kann, wenn Intel denn "optimiert" - es war "positiv" gemeint.
Ach du meinst das war wieder so ein Missverständnis zwischen der Entwicklungsabteilung und der Marketingfolien Truppe? ;)

Colindo

Wir sehen hier eine IGP Architektur, die für den Desktop angepasst wurde. Aber selbst wenn die jetzt nicht optimal läuft, muss dass für kommend Generationen auch so sein. Erfahrungen könnten dann zur Weiterentwicklung oder als Basis für eine neue GPU Architektur dienen.
Ich denke, HPC ist erstmal sowieso das genannte Ziel. Vielleicht dachte man, die Architektur könnte im Best Case alles abdecken.
Siehe AMD mit Vega hust*
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Balikon und Michael vdMaas
ETI1120 schrieb:
Das Problem ist, dass man sich unter Optimierungen für Benchmarks alles vorstellen kann. Vor allem würde mich interessieren warum Intel die benchmarkspezifischen Optimierungen ausschaltbar machen muss. Wird reale Software langsamer oder wird falsch gerendert?
wird doch zum Glück im Artikel erwähnt
Ohne diese Option werden beispielsweise alle Tests in der Benchmark-Suite 3DMark mit Optimierungen durchgeführt, welche die Leistung um 15 Prozent verbessern, aber gleichzeitig alle Einträge aufgrund der Richtlinien von Underwriters Laboratories (UL) umgehend ungültig und damit nicht vergleichbar machen.
 
  • Gefällt mir
Reaktionen: SVΞN
Intel und Grafikkarten - Das entwickelt sich langsam zu einem Running Gag und die A780 wird auch nicht beim Launch dabei sein...
 
Zurück
Oben