News Intel A350M und A370M: Arc-Grafiktreiber „optimiert“ noch immer Benchmarks

Wenn sich Intel weiter so viel Zeit mit allem lässt, kommt ihr "Konter" zur 30er/6000er Serie pünktlich wenn die 40er/7000er Karten vor der Tür stehen :D

Bin am Ende natürlich sehr auf das P/L der Desktop Karten gespannt und natürlich dem Treiber Support in Zukunft: die Beste Karte hilft nicht, wenn sie kaum Treiber/ Optimierungen erhält und so nie ihr Potential entfalten kann.
 
  • Gefällt mir
Reaktionen: Michael vdMaas und ThomasK_7
Ich dachte, Treiberoptimierungen für bestimmte Anwendungen wären Stand der Technik. AMD und Nvidia bringen doch auch jeden Monat neue Treiber heraus, die für die neuen Releases x-% mehr Leistung versprechen. Wo liegt hier der Unterschied?
 
  • Gefällt mir
Reaktionen: mkl1
@foxio

Ja und Nein. NVIDIA und AMD biegen immer wieder im Treiber auch etwas für ein Spiel hin, weil Entwickler eine Funktion Zweck entfremden oder weil Entwickler unsinnige Faktoren wählen.

In der Regel zeigt sich oft aber, das Spiele selbst mit den nicht optimierten Patches gut laufen und die Hardware auslasten sollten.

Hier reden wir bei Intel aber nun von einer anderen Art von Level der Optimierung.

Out-of-the-Box bleiben bei Intel bei normaler DX12 und Vulkan schlappe 10 - 15 % an Leistung liegen. Und das gerade bei HLSL ist das der Fall scheinbar. Dann auch das Memotymanagment.

Alles was Intel hier nennt in einem Interview ist kritisch, weil Entwickler für Intel quasi einen zweiten Codepfad pflegen müssen oder NVIDIA und AMD sich an die Eigenheiten von Intel.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Illithide
Stecken nicht in den Grafiktreibern von AMD und NV auch alle möglichen Optimierungen für alle mögliche Software? Ob es jetzt ein Spiel oder ein Benchmark ist, was spielt es für eine Rolle?
Am Ende kommt es auf die Werte für die Spiele an, die dich interessieren. Oder wenn es um ein Gesamtbild geht, halt um den Durchschnitt aus möglichst vielen getesteten Spielen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Dass GPU-Hersteller ihre Treiber speziell für Anwendungen optimieren ist vollkommen normal. Dass 3DMark das untersagt war mir gar nicht bewusst.

Da Intel das öffentlich kommuniziert finde ich das auch überhaupt nicht schlimmt.

Das "Armutszeugnis" ist hier eher die Verzögerung der Treiber. Bei AMD und Nvidia kommen die Optimierungen oft direkt zum bzw kurz nach Release von Spielen raus. Wenn Intel jetzt schon nicht hinterherkommt ist das kein gutes Zeichen.
 
  • Gefällt mir
Reaktionen: mm19
S.Kara schrieb:
Wenn Intel jetzt schon nicht hinterherkommt ist das kein gutes Zeichen.
du glaubst gar nicht wie sehr es mir in den Fingern juckt jetzt schon einen "wohlformulierten ich hab es ja gesagt"-Beitrag (aka Rant) zu schreiben, so wie vermutlich viele andere auch, aufgrund der "aus der Erfahrung heraus extrapolierten Befähigung Intels zur konstanten und zeitnahen Bereitstellung von qualitativen GPU Treibern"...
Andererseits, ich will mich nicht mehr wegen sowas echt nicht mehr zu sehr aufregen und werde es vermutlich daher zu gegebener Zeit mit einem "told ya" dann gut sein lassen ;)
 
  • Gefällt mir
Reaktionen: CableGuy82 und S.Kara
Der Drops für die erste Generation Arc alias „Alchemist“ ist schon so gut wie gelutscht.

Zu spät und zu langsam gepaart mit schlechtem Marketing und viel zu optimistischen Versprechungen.

Die fürs Gaming bestimmten Ableger werden sich bereits mit RDNA 3 und Ada messen müssen und selbst gegen deren Vorgänger keinen Stich sehen.

Das gibt nix, da bin ich mir leider ziemlich sicher. Hoffe aber dennoch, dass ich mich täuschen sollte.
 
  • Gefällt mir
Reaktionen: OldboyX, Strikerking, CableGuy82 und 8 andere
DevPandi schrieb:
dass Intel "Treiber" kann und versucht die Probleme von Xe² mit dem Treiber zu lösen. Das müssen sie aber für jedes Spiel machen.
Ui, das hört sich nicht gut an. Bedeutet, dass Spieler ggf. lange bzw. ewig auf Optimierungen und Fehlerbereinigung bei Spielen warten müssen. In dem Punkt sind die Mitbewerber ja ganz gut dabei. Ob Intel da hinterher kommt? So wie es jetzt aussieht, eher nicht.
 
Spike S. schrieb:
Ich dachte immer, dafür wäre DirectX und Vulcan da, als "Mittelsmann" zwischen Hardware und Software. Was muss da eigentlich noch optimiert werden?


Für Vullkan:
Quelltext -> Compiler => SPIR-V
SPIR: https://en.wikipedia.org/wiki/Standard_Portable_Intermediate_Representation

Weiter geht es dann mit
SPIR-V -> Optimization + Compiler => Binary für spezifische GPU

Bei DirectX und OpenGL ist es vergleichbar und ich erwarte, dass es selbst bei Metal nicht groß anders ist.

Weiter mit meinem GPU Halbwissen. GPUs haben vergleichsweise viele, direkt ansprechbare Register. Es wäre daher sinnvoll, diese auch zu nutzen. Wenn zwei (kleinere, unabhängige) Shader je v0, bis v6 nutzen, die GPU aber v[0..15] hat. Wäre es sinnvoll, die loads beider Shäder möglichst früh einzuplanen und den zweiten Shader derart abzuändern, dass statt v0 bis v6 zu nutzen v7 bis v12. Shader1 wird nicht oder nur minimal beeinfluss, Shader2 hat jedoch keine Wartezeit für sein Load.
Das wäre noch das Simpelste, GPUs sind aber nicht mein Gebiet und ich finde kaum Material, dass mir da ausreichend Einblicke liefert :/
 
Piktogramm schrieb:
Das wäre noch das Simpelste, GPUs sind aber nicht mein Gebiet und ich finde kaum Material, dass mir da ausreichend Einblicke liefert :/
Wo ist eigentlich @Colindo wenn man ihn mal braucht? :D
 
  • Gefällt mir
Reaktionen: CableGuy82, Colindo und konkretor
SV3N schrieb:
Der Drops für die erste Generation Arc alias „Alchemist“ ist schon so gut wie gelutscht.
Im Highend möglicherweise schon.
Aber Team Grün und Team Red werden wie üblich erst die Speespitzen launchen. 3070 und 6700 werden sicher ersteinmal weiterverkauft, bis deren Nachfolger erscheinen. Je nachdem, wann AMD und NV diese einführen, könnte Intel aggressiv bepreist da schon was reißen.
 
  • Gefällt mir
Reaktionen: CableGuy82
AMD und Nvidia optimieren keine Benchmarks? Wer soll denn das nachprüfen können? Solange keine optischen Einbüßen sichtbar sind, verstehe ich das Problem nicht.

Und dass es keinen neuen Treiber gibt, ist doch derzeit noch egal. Kaufen kann man eh noch nichts.
 
@SV3N
Ich erteile dir den unbezahlten Auftrag, Nutzer zu Leserartikeln zum Thema "detailierte GPU-Grundlagen & Compilertheorie" zu nötigen :D
 
  • Gefällt mir
Reaktionen: Tzk, Schäfchen, Quonux und 3 andere
Balikon schrieb:
Je nachdem, wann AMD und NV diese einführen, könnte Intel aggressiv bepreist da schon was reißen.
Dein Wort in Gottes Gehörgang und wie ich schon sagte, ich hoffe es…

Ich persönlich glaube aber, dass da am Ende nur eine 3060 bis 3060 Ti mit relativ bescheidenem Treiber rauskommen wird.

Da muss der Preis dann schon fast kriminell gut sein, dass man das Ende 2022 noch haben möchte.

Zumal Intel sein Spitzenmodell dann gegen die Mittelklasse der Konkurrenz aus der vergangenen Generation stellen muss…

…irgendwie auch nicht so prickelnd.

Na ja, ich hoffe mal das Beste und befürchte aber böses.
 
  • Gefällt mir
Reaktionen: CableGuy82, konkretor und Ganjaware
pipip schrieb:
Ich denke, HPC ist erstmal sowieso das genannte Ziel. Vielleicht dachte man, die Architektur könnte im Best Case alles abdecken.
Siehe AMD mit Vega hust*
+1 Ich fühlte mich auch sehr an Vega erinnert, als ich las
Alexander2 schrieb:
Das mit der super anpassbaren Shadern hört sich halt massiv nach server GPU an, die gut sein soll für Berechnungen. weniger nacj GPU fürs zocken,
In dem Fall hätte Raja echt nix gelernt.
Ergänzung ()

SV3N schrieb:
Da muss der Preis dann schon fast kriminell gut sein, dass man das Ende 2022 noch haben möchte.
Da die Karten der Mitbewerber auch noch recht teuer sind, könnte Intel die Karten erstmal quersubventionieren, die Kohle dafür haben sie locker.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82 und SVΞN
Piktogramm schrieb:
Für Vullkan:
Quelltext -> Compiler => SPIR-V
SPIR: https://en.wikipedia.org/wiki/Standard_Portable_Intermediate_Representation

Weiter geht es dann mit
SPIR-V -> Optimization + Compiler => Binary für spezifische GPU

Bei DirectX und OpenGL ist es vergleichbar und ich erwarte, dass es selbst bei Metal nicht groß anders ist.
Danke für den groben Überblick. Mir ist dadurch aber noch nicht klar, warum dann Intel für jede Quelle nachbessern muss.
 
  • Gefällt mir
Reaktionen: Piktogramm
Zurück
Oben