Nobbi56 schrieb:
Hallo,
an alle, die gebetsmühlenartig an der Treiberkompetenz- und qualität von Intel Arc zweifeln:
Mit Verlaub, Ihr glaubt nicht wirklich, klüger zu sein als das Koduri-Team (und dieser Mann HAT Erfahrungen mit dGPU!)?
Das nicht zwangsläufig, aber ich glaube das Problem ist eher, dass viele Leute Raja Koduri mittlerweile als Jemanden sehen, der viel erzählt, wenn der Tag lang ist. Da hat er aber mit Pat Gelsinger wahrscheinlich seinen Bruder im Geiste gefunden.
Weil oftmals kommt er rüber als wäre er einfach nur ein Blender, der sich halt nur gut verkaufen kann. Sprüche klopfen, aber dass im Grossen und Ganzen nix bei rum kommt. Weil bei AMD hat er oft auch einfach nur den Eindruck hinterlassen, dass er ein Schaumschläger/Wichtigtuer ist (Vega lässt grüssen; poor Volta).
Nobbi56 schrieb:
Dass der Erfolg von Arc mit der Stabilität und Performance der Software steht und fällt, dürfte niemandem so bewusst sein wie Intel selbst, dass Hat Mr. Koduri auch jüngst in einem Interview (mag von Intel gesponsort sein, muss deshalb aber kein Fake sein) ausdrücklich bestätigt.
Das schön, dass sich Intel dessen bewusst ist. Die (kritischen) Kunden (die vernünftige Treiber erwarten
können und auch
sollten, weil ansonsten sind die Karten weitestgehend nutzlos für die Käuferschaft), sind sich dessen aber auch ganz besonders bewusst. Darüber besteht jetzt glaube ich null Zweifel, oder?
Und dafür, dass sich Intel der Signifikanz der Treiber-Effizienz und -Funktionalität ganz dolle bewusst war/ist, war die
DG1 SDV (Software Development Vehicle) aber mal extreme Ernüchterung für die Entwickler. Weil da hats nämlich vor allem an einem gescheitert (Deine eigene Worte);
Nobbi56 schrieb:
Worum es jetzt geht ist Treiber, Treiber und nochmals Treiber (einschl. Features wie XeSS u.a.)
Siehe
@FormatC's Test (
IgorsLab.de: Satz mit X(e) –
DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks | Leak) und
meinen Beitrag im anderen Thema.
Nobbi56 schrieb:
Deshalb befindet sich Intel nach seiner Aussage auch seit geraumer Zeit in einem intensiven Dialog mit Spielestudios.
Da haben aber
NVidia/AMD einen jahre- bis jahrzehntelangen Vorsprung, den wird Intel niemals aufholen können.
Nicht bloss bei Spiele-spezifischen Treibern sondern insbesondere bei dem Dialog mit den Spiele-Entwicklern und Engine-Interna sind AMD und gerade NVidia Intel um Jahre voraus. Weil NVidia stellt für GameWorks selbst NVidia-eigene Treiber-Entwickler ab für die Mitarbeit bei den Game-Studios.
Nobbi56 schrieb:
Ich vermute sogar, dass das der Grund für die Verzögerung beim Launchtermin ist, weil Intel sich nicht blamieren will, wenn Alchemist von Gamers Nexus, Hardware unboxed usw. auf offener Bühne vorgeführt wird (wie beii Rocket Lake), wenn AAA-Titel spektakulär crashen. Die Arc-Hardware dürfte dagegen weitgehend finalisiert sein und da wird wohl allenfalls noch Feintuning im Feedback der Tests bei den Boardpartnern betrieben. Worum es jetzt geht ist Treiber, Treiber und nochmals Treiber (einschl. Features wie XeSS u.a.)
Nobbi56 schrieb:
Und es ist ja nun nicht so, dass es bei nVidia und AMD in der Vergangenheit niemals Treiberprobs gegeben hätte
!
Nö, absolut nicht. Wie
@nille02 und
@iSight2TheBlind schon schreiben (abgesehen davon, dass AMD mit Koduri eher für Treiber bekannt war, die mau waren), war auch
Koduris Aufgabenbereich niemals Treiber sondern Hardware. Er kommt von einer Firma, die auch jahrelang Qualitätsprobleme mit ihren Treibern hatte, soll aber jetzt als Garant für plötzliche Treiber-Wunder sorgen (nachdem Intel damit schon seit Urzeiten Probleme hatte).
Ja, ist richtig. AMD war lange Zeit jetzt auch nicht dafür bekannt, die tollsten Treiber zu haben (lange ungefixte Black-screens mit den Polaris-Karten; OpenGL ist bei AMD noch immer ein Reizwort), deswegen ist Koduri erst recht kein Garant für funktionierende oder performante Treiber.
Nobbi56 schrieb:
Mag schon sein, dass es zum Arc-Launch hier und da ein paar Bugs geben wird, aber da traue ich Intel zu, diese zu fixen und in der Folgezeit die Treiber anständig zu pflegen.
Intel stellt auch seit über 20 Jahren Grafikchipsätze her,
integrierte Grafikchips mit geringer Leistung.
Diskrete Grafikkarten sind dagegen eine
ganz andere Hausnummer. Sieht man ja auch daran, dass Intel mit allen Versuchen einer diskreten Grafik seit immer schon eine Bauchlandung hingelegt hat.
Weil ihre
diskreten GPUs (i740, Larrabee, Xeon Phi, DG1) sind stattdessen mehr oder weniger spektakulär gescheitert, und das nicht nur einmal. Außerdem haben sie sehr lange Zeit sehr dürftige Treiber herausgebracht.
ATi/AMD macht seit Jahrzehnten Treiber und die waren vor Relive/Crimson/Adrenalin immer noch ziemlich besch!ssen, während nVidia ebenfalls seit Jahrzehnten Treiber macht und die wurden seit der Veröffentlichung von GFE 3.x teils deutlich schlechter (DPC-lag, Latenz im Allgemeinen).
Nur weil jemand etwas schon lange macht, heißt das noch lange nicht, dass er/sie auch gut darin ist. Man braucht Leidenschaft, Ehrgeiz und Fleiß, um etwas gut zu machen - und genau das hat Intel bei den Treibern für ihre iGPUs seit jeher vermissen lassen.
Die Leute versuchen nur, Intels bisherige Leistungen in dieser Angelegenheit für das Ziel, das sie (wieder..) erreichen zu versuchen (diskrete Grafik), zu bewerten. Und das wahrscheinlichste Ergebnis zu prognostizieren, und damit die Wahrscheinlichkeit, ob/dass Intel (endlich einmal) erfolgreich ist. Nicht mehr und nicht weniger.
Und da sieht die Erfolgsbilanz für Intel in Sachen Grafik extrem schlecht aus, mit Milliardenverlusten und heftigen Rückschlägen, egal wie oft und wie sehr sich Intel immer anstrengte. Da ist Skepsis nicht fehl am Platze und da sind auch Zweifel keinesfalls
falsch. Das muss man einfach nüchtern betrachten.
Intel Arc ist mittlerweile Intels 5. Anlauf in Sachen Grafik!
Ihre erste Grafikkarte (i740) war ein krasser Flop und wurde nach wenigen Monaten vom Markt genommen.
Der zweite Anlauf (Larrabee) ist auch ein absoluter Flop gewesen, ebenso ihr dritter Versuch (Xeon Phi), bei dem Larrabee weiter verwurstet wurde (um das Projekt nicht komplett sinnlos werden zu lassen.
Und der letzte Versuch in Sachen Grafik (iGPU) war nur deshalb halbwegs erfolgreich, weil sie auf die geniale Idee gekommen sind, ihre iGPU mit ihrer Intel-CPU zwangsweise zu bündeln. Weil allein auf sich gestellt, wäre ihre iGPU ohne Zweifel ebenso einfach am Markt unter gegangen und später eingestellt worden.
Oder meinst das auch nur Irgendjemand damals eine Intel GMA als dedizierte Grafikkarte gekauft hätte, wenn selbst NVidia's Chipsatz-Grafik und AMD's APUs mit integrierter Grafik Kreise um Intel gedreht haben?
Nobbi56 schrieb:
Denn wie gesagt: Arc muss ein Erfolg werden, schon für die Aktionäre. Und Intel über die Relevanz von Grafiktreibern insbes. Bei "Gaming-GPUs" belehren zu wollen hieße nun wirklich, Eulen nach Athen tragen.
Intel's Arc muss nicht für die Aktionäre ein Erfolg werden, sondern
in erster Linie für Intel selbst! Damit sie nach jahrelangen Versprechungen noch überhaupt jemand in dem Bereich ernst nehmen kann..
Weil Intel's
Larrabee, damals als Beschleuniger (für wissenschaftliche Berechnungen) entwickelt und
wegen fehlendem Software-Support (obwohl Intel genau das immer wieder versprach aber verschob), wurde irgendwann ganz schnell nicht mehr gebraucht und deswegen zu einer All-purpose-Grafik umfunktioniert.
Aus
Larrabee wurde dann
Xeon Phi (damit die Entwicklung nicht komplett umsonst war), also
Larrabee 2.0 quasi.
Auch Xeon Phi war über kurz oder lang zum scheitern verurteilt, weil.. Überraschung! ..
Der Software-Stack und -Support drum herum überhaupt nicht vorhanden war. Damit war das Projekt ebenfalls ein Rohrkrepierer.
Nachdem aber Intel im Zugzwang war, endlich einmal (für
Aurora, seit 2015 geplant!) zu liefern und Aurora schon 2018 stehen sollte und noch immer nicht steht (Tip: das sind jetzt 4 Jahre zu spät!), ist Koduri kurzerhand 2017 auf die Idee gekommen, ihre Intel Iris Graphics aufzupumpen und hoch zu skalieren.
Das Stand heute. Geplant war Intel's Xe für einen Markteintritt in 2020 (ja, wirklich!). Laut Aussage von Koduri wollte Intel sogar den Markt mit einem großen Knall betreten (engl.
“enter the market with a bang.”).
Nachrichten vom April 2018...
NotebookCheck.com: First discrete GPU from Intel since 1998 will include a PC gaming variant
ExtremeTech.com:
Intel Working on New Discrete GPUs, Codenamed Arctic Sound
Hexus.net: Intel working on Arctic Sound discrete GPU for gamers
WCCFTech.com
Intel Teases ‘Arctic Sound’ Discrete Graphics Cards For 2020 – First Full on Dedicated Products Aimed at The Gaming Market
Daraus ist (überraschenderweise..) nix geworden, weil
Arctic Sound (
Intel Xe HP) wurde 2018 gross angekündigt, die Frist verlief und im Nachgang wurde AS von Koduri per Twitter-post
abgekündigt und eingestellt. Der Rest vom Line-up wurde mal wieder verschoben auf 2021 und später auf 2022.
Stattdessen gabs dann die DG1. Leistungsschwach, stromhungrig und nur für OEMs (weil am Markt keine Chance). War also auch grösstenteils mehr oder weniger ein Flop, das unterste Ende der Fahnenstange was Grafik betrifft.
Und nachdem man das jetzt alles weiss und auch im Hinterkopf hat, dass Grafiktreiber (oder generell Software-Unterstützung) von Intel nie wirklich das gelbe vom Ei war (deswegen ist Larrabee und Xeon Phi gescheitert) ...
Gibt es irgend einen Grund zur Euphorie oder eher berechtigte Zweifel und absolut begründete Skepsis?
Immer dran denken, die Gerüchte damals in 2019, dass die DG1 Hitze- gepaart mit Performance-Problemen hat (verbraucht zu viel um die Leistung zu erreichen um einen AMD-APU zu schlagen), waren allesamt richtig.
GetTeched.com:
Intel DG1 GPU Prototype Is Rumoured To Be Struggling
PCGAmesN:
Intel Xe Jedi refutes ‘Intel’s DG1 woes’ through the medium of a Christmas song
Weil die DG1 ist genauso gekommen; Stromhungrig und wenig Leistung, obwohl es vorher zig Gerüchte gab, dass DG1 angeblich auf dem Level einer GTX 1050Ti/1060 sein sollte. War nix, Satz mit X.
Nobbi56 schrieb:
Momentan ist alles Kaffeeesatz und auch die notorischen Skeptiker und Zweifler sollten doch eigentlich hoffen, dass Intel der Einstieg gelingt denn mehr Wettbewerb hat im Kapitalismus noch nie geschadet
Das Angebot wird auf jeden Fall größer werden, ob es ausreicht, die immense Nachfrage besser zu befriedigen, muss man abwarten.
Bei Intel ist in Sachen Grafik Skepsis absolut angesagt (um sich vor Enttäuschungen zu schützen) und Zweifel, ob Intel das so hinbekommt, wie sie seit Jahren tönen, trotzdem immer wieder verschoben haben und Artic Sound schon wieder vorm grossen Release von Intel's Xe Graphics (die ja schon wieder zu Intel Arc umbenannt wurde, weil Glaubwürdigkeit immer mehr fehlt beim Kunden) gecancelt wurde.
Die Leute hoffen seit Jahren, dass Intel der Einstieg gelingt. An irgendwas hapert es aber gewaltig, seit Jahren.
Obiges ist auch keine Schwarzmalerei oder Pessimismus, sondern es gibt tausend gute Gründe Intel in Sachen Grafik erst
dann ernst zu nehmen,
wenn sie abgeliefert haben. Wie gesagt, 2020 ist schon wieder was her..
Kaffeesatz-Leserei ist vielmehr das hypen von Intel's Xe auf RTX 3060-Niveau, obwohl es dafür praktisch keine Anhaltspunkte gibt ausser Gerüchte. Und bei vielen Gerüchten gabs in der Vergangenheit immer wieder herbe Enttäuschung, gerade wenns um die Leistung von Intel-Hardware ging.
TechFA