News Sonntagsfrage: Kann es Intel Arc bereits mit AMD und Nvidia aufnehmen?

Mal Treiber hin oder her, hier muss Intel tatsächlich zeigen ob sie Treiber auch optimieren können, weil einen Desktop und ein paar Business Anwendungen in Füll HD auf mehrere Monitore werfen oder ein 3D Game mit moderner Engine und Effekten, das richtig fordert, anzuzeigen sind zwei paar Schuhe. Das muss sich zeigen.

Ob Intel tatsächlich direkt mit der oberen Mittelklasse mitmischen kann, weiß ich nicht, aber ich bin gespannt. Prinzipiell begrüße ich diesen Schritt aber, denn ein weiterer Hersteller für starke GPUs kann dem Markt eigentlich nur gut tun, mehr Konkurrenz eben, ggf. ja sogar Mal eine gewisse Verfügbarkeit oder gar vernünftigere Preise (gut, letzteres ist Wunschdenken, stimmt). Und ggf. auch für Gamer unter Linux interessant, da Intel ja auch offene Treiber für Linux zur Verfügung stellt.
 
  • Gefällt mir
Reaktionen: TechFA und jonderson
Man sollte nicht vergessen das Raja Koduri hinter den Karten steckt, ich sehe da keine Probleme das Intel mit den Grafikkarten Leistungsmäßig auf AMD oder Nvidia Ebene mitmischen kann.

Auch Software mäßig nicht. Am Ende hat man vielleicht sogar Softwaremäßig ausgereiftere Produkte als bei AMD.
 
  • Gefällt mir
Reaktionen: Nobbi56 und Viper816
Ich bin vor allem gespannt, wie sie die GPU-Treiber-Situation unter Linux entwickelt.
Es wäre toll, wenn da ein zweiter Hersteller wirklich nutzbar wäre.
 
  • Gefällt mir
Reaktionen: jonderson
nille02 schrieb:
Aber OpenCL macht nicht den alleinigen GPU Stack und ist für die üblichen Kunden eher Beiwerk.
Für einige zahlungskräftige Nutzer, z.B. von Blender oder Folding@home, macht das einen großen Unterschied aber mal schauen ob Intel in diesem Bereich es besser machen kann.
 
Da Raja Koduri hinter den Karten steckt erwarte ich ich nur eine Luftnummer von intel. Das wird wieder in Schande begraben.
 
  • Gefällt mir
Reaktionen: xmarsx, TechFA, TobiD79 und eine weitere Person
mojitomay schrieb:
Ich bin vor allem gespannt, wie sie die GPU-Treiber-Situation unter Linux entwickelt.
man munkelt von kernel 5.18 + mesa 22 - auf jeden fall sind sie dran. der intel support unter linux ist ja schon lange gut, nur die hardware war bis jetzt nicht so leistungsfähig.
 
  • Gefällt mir
Reaktionen: mojitomay und SVΞN
Philste schrieb:
Xe LP steckt in jeder iGPU und da kann man wohl kaum von Flop sprechen.
Zu Xe LP gehört aber eben auch die DG1, oder? Und wie Du ja selbst schon schreibst, die ..
Philste schrieb:
DG1 war natürlich Müll, aber da die Architektur eben für Low Power da ist, wurde das Ganze wahrscheinlich eh nur als Testballon konzipiert, damit man schon mal eine Karte hat, damit so Dinge wie Board etc. einfach funktionieren, wenn es ernst wird.
Jetzt bringe bitte hier nicht verschiedene Dinge durcheinander. Nur die DG1 SDV (Software Development Vehicle; "Xe DG1-SDV") war als Testballon geplant, kam mit 8GB LPDDR4. Das das Ding hier;
1642973885684.png


Die hatte @FormatC (Igor Wallossek, Igor's Lab) im Labor zum Test. Und das Ergebnis war alles andere als erfreulich, weil da haben nicht mal die Display-Ports funktioniert und bei der Nutzung von HDMI kams wohl schon mal zu Stabilitätsproblemen.

Igor schrieb beispielsweise ..
Igor Wallossek schrieb:
Zusammenfassung und Fazit
Warum Intel Komplettsysteme verteilt, die man auch übers Jahr nie zum Laufen bekommt, das kann man sich bei Intel wohl nur selbst beantworten. Fakt ist, dass wohl alle am Test Beteiligten irgendwann entnervt aufgeben haben. Wofür soll die DG 1 am Ende eigentlich gut sein und stehen? Fürs Office tut es eine aktuelle iGP oder gleich eine komplette APU von AMD besser und mit viel weniger Aufwand. Als Machbarkeitsstudie ist das Teil aber ebenso ungeeignet wie überflüssig, solange die Treiber über Monate hin außer neuen Fehlern keine Lösungen älterer Probleme mit sich bringen.

Ob sich Intel mit der DG 1 überhaupt einen Gefallen getan hat, das kann man in Anbetracht der lausigen (Nicht-)Performance eigentlich auch anzweifeln, denn das ist beileibe kein Aushängeschild, sondern eher ein abschreckendes Beispiel dafür, wie man etwas konstruiert, das man dann mangels passender Treiber noch nicht einmal nutzen kann. Sinnlos vergeudete Ressourcen also, mehr nicht. Ich hätte wirklich lieber etwas Erbaulicheres geschrieben und kann am Ende auch nur hoffen, dass Xe wenigstens als Bestandteil den neuen, mobilen CPUs von Intel deutlich besser und fehlerfreier performt. Als dedizierte Grafikkarte möchte ich das Teil, auch fürs Büro, noch nicht einmal geschenkt haben.
IgorsLab.de: Satz mit X(e) – DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks | Leak


Dann gabs noch die DG1 Mobile als mobilen Ableger, die Intel Iris Xe MAX. War praktisch gleich stark wie eine ebenso bereits (zwingend) vorhandene Intel Iris Xe Graphics als iGPU im Prozessor und hat minimal höher getaktet, kam dafür aber mit dedizierten 4GB LPDDR4x.

Das das Ding hier (oben Tigerlake/Chipset, unten die Iris Xe Max);
1642974233874.png


Und viele haben sich berechtigterweise gefragt, wofür man überhaupt eine "dedizierte" mobile Grafik im Notebook braucht, die praktisch genauso stark ist, wie die iGPU. Das Ding war ebenso überflüssig/obsolet. Weil der einzige Vorteil den DG1 Mobile eigentlich hatte, war der dedizierte VRAM von 8GB.

Test bei NotebookCheck.de: Intel Iris Xe MAX Graphics

Die Intel Iris Xe der DG1 wiederum war die fertige dedizierte Grafikkarte als Steckkarte für den PCI-Express-Slot mit den 4GB als OEM-Variante von Asus bei Prebuilt-PCs. Und die war auch mehr oder weniger ein absoluter Flop, daran gibt es nix schön zu reden. Das ist auch kein Pessimismus oder schlecht reden sondern Fakt. Selbst Colorful als OEM hat Intel damals offiziell in die Parade gefahren, und verneint, die DG1 als dedizierte OEM-Karte zu bringen (PCGamesHardware: Iris Xe DG1 in OEM-Produkten: Colorful ist doch nicht an Bord, Intel rudert zurück).

Die DG1 als PCI-Express Karte ist das Ding;
1642974314769.png

Die Karte wurde von einigen Seiten/Channels getestet. TomsHardware zum Beispiel (TH: Intel Xe DG1 Benchmarked: Battle of the Weakling GPUs) gab der Karte nahezu vernichtende Kritiken aufgrund der schlechten Leistung und der Stromaufnahme.

Die konnte nämlich (bei gleicher TDP) performance-mässig nicht einmal mit einer GT1030 mithalten (die sogar eine Node in der Fertigung hinterherhinkt (14nm), während die DG1 auf einem überlegenen 10nm-Node gefertigt wird). Die DG1 ist nur etwa gleich schnell wie eine Vega 8 (4800U), während sie die doppelte Leistungsaufnahme benötigt (30W), um mit einer Vega 8 bei 15W mithalten zu können (die ihre TDP sogar mit den CPU-Kernen teilen muss). Nicht die Schlussfolgerung ist hier grauenhaft, sondern das Intel-Produkt!

Selbst das kann die glanzlose Leistung in der Performance/Watt-Metrik nicht übertreffen. Das ist wirklich eine katastrophale Leistung von Intel nach all der und steht in einer Reihe mit ihrer ersten dedizierten GPU, der i740.

1642974506333.png


Und natürlich ist sie wieder nur für OEMs gedacht gewesen. Da niemand, der bei klarem Verstand ist, auch nur einen Cent dafür ausgeben möchte, verkaufen sie es ausschließlich an OEMs, denn das sind die Einzigen, die dafür bezahlt werden können sie zu nehmen (und denen es egal ist, was der Kunde bekommt (solange für den OEM die Kasse stimmt).

Ich meine, wem wollen wir hier etwas vormachen, wenn wir denken, Intel wäre sich nicht schon damsl bewusst gewesen, dass ein so unnötiges und nicht konkurrenzfähiges Produkt wie die DG1 keine Chance am Markt hätte, wenn es als reguläres Produkt auf dem Markt gekommen wäre (basierend auf typischen Metriken wie Preis/Leistung oder Leistung/Watt) und gegen die dedizierten Grafikkarten der Konkurrenz (wie GT 1030 oder GTX 1050/1060/1650) konkurrieren müsste ...

Bei gleichem Stromverbrauch trotz deutlich besserer Fertigung langsamer als eine Jahre alte GT1030 und mit doppeltem Stromverbrauch auf Höhe wie eine komplette AMD-APU inkl. Vega-Grafik, die mit 15W die selbe Leistung erreicht.

Also ja, Intel's Xe LP war im grossen und ganzen ein Desaster/Flop. Von der unterirdischen Leistungseffizienz (trotz Fertigungsvorteil kann sie auf 10nm nicht gegen eine ältere 14nm-Grafikkarte nicht mithalten) über die lächerliche Performance (auf Höhe einer mobilen Vega 8-Grafik bei halbem Stromverbrauch der VEga inkl. CPU!) und mit doppelt so viel VRAM (4GB) wie die GT1030 bis hin zur Kompatibilität (funktioniert nur in bestimmten PCs mit Intel CPU und besonderer iGPU).


Was ich damit sagen will, für die Leute, die sich von Intel mit der DG2 einen Heilsbringer erwarten, der den Markt aufrollen wird, wird sehr wahrscheinlich kaum was übrig bleiben. Weil für die DG1 wurde auch monatelang gemunkelt, dass sie auf Höhe einer GTX 1060 sei. War nix mit.

TechFA
 
  • Gefällt mir
Reaktionen: andi_sco, Ganjafield, Ko3nich und 3 andere
Könnte erstmal ein Papiertiger werden, Knappheit bedingt, so wie es bei Ampere auch war bzw. ist, und lange so bleiben. Leistung wird nicht der Brüller werden, aber solang es sich preislich entsprechend eingliedert wird es eine Alternative sein, besonders wenn hier interessante Features versprochen werden, die vielleicht auf einem Intel Chipatz + Intel CPU + GPU exklusiv sein werden. Da kann schon was heftiges entstehen in Zukunft. Vielleicht gibt es dann auch Bundle Angebote oder gar komplette Intel Gaming Rigs, aber wir werden sehen.

@TechFA
Naja klar haben die sich schon einige Flops geleistet, aber einer Firma dieser Größenordnung traue ich es immer wieder zu etwas bahnbrechendes auf die Beine zu stellen, zumal es immer drauf ankommt wer da grade verantwortlich ist und wie viel investiert wird usw.
Genauso gut kann es aber auch der nächste Flop werden. Manchmal braucht es auch mehrere Anläufe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
@TechFA Wie gesagt, die Meinung teile ich nicht. Zu sagen, dass Xe LP ein Flop ist, weil die DG1 nicht gut ist, ist wie zu sagen, dass RDNA2 ein Flop ist, weil die 6500XT nicht gut ist. Ist halt beides jeweils ein einzelnes Produkt aus einer Serie von Produkten. Nur bei Xe LP ist die gesamte Produktvielfalt nicht so hoch. Dass da angeblich mal Gerüchte über 1060 Leistung im Umlauf waren, wusste/weiß ich auch nicht. Eigentlich wusste jeder, dass bei selbem Ausbau im Vergleich zur iGPU nicht viel bei rumkommen kann. Die Architektur heißt ja nicht umsonst "Low Power", sie skaliert halt oben raus nicht, aber das muss sie für den Markt, den sie bedient eigentlich auch nicht. Und welches Produkt jetzt ein Testballon war und welches nicht, weiß im Endeffekt nur Intel selbst. Ich sehe die Architektur als wichtigen Schritt für Intel, als iGPU konnte man wieder Anschluss zu AMD finden und die Leistungssteigerung im Vergleich zu den Vorgängern war immens. Ein Flop ist für mich persönlich was anderes, wenn man es rein auf die Architektur bezieht.
 
  • Gefällt mir
Reaktionen: TechFA und Nobbi56
Ist die letzte Chance eine bezahlbare GPU zu bekommen. Also ranhalten beim Release.
 
Averomoe schrieb:
Insgesamt betrachtet wird man mit AMD/nVidia schon deshalb gleichziehen können auf der Hardwarefront, weil Raja Kodori der Chef der GPU-Abteilung ist. Der wird ja wohl kaum das Ding so designen, dass man am Ende kein gleichwertiges Produkt auf die Beine stellen wird. Daher überwiegt bei mir auf jeden Fall der Optimismus. Vor Herbst 2022 wird es keine GPUs in der Breite geben, so meine Prognose: Papierlaunch im Sommer, Verfügbarkeit im Herbst... was dann aber schon wieder zu spät ist weil AMD/nVidia bereits ihre Next-Gen am Start haben werden.

AMD war bis vor kurzem auch eine lange Zeit hintendran. Wenn die Preise stimmen und der momentan Lage sowieso, passt das schon.
 
hi-tech schrieb:
Naja klar haben die sich schon einige Flops geleistet,
Wieviel (T)flops? :D

@TechFA
Das ist sowieso m.E. nach absolut zu erwarten, dass Alchemist höchstwahrscheinlich (relativ) viel Rohleistung verbraten wird, für wenig 'Endleistung'.
Das schlägt sich dann u.a. auch in der Effizienz nieder. Beim Treiber muss man auch mal schauen.
Fairerweise muss man aber sagen, dass es kaum jemand anderen gibt, der sonst noch so in absehbarer Zeit mit Erfolgsaussichten in den GPU Markt überhaupt eintreten könnte, außer Intel.
Denn Intel hat immerhin den Vorteil, dass sie über Jahre hinweg bei IGPs treiberseitig zumindest 'am Ball' bleiben konnten.
Hier darf man aber nicht vergessen, dass Intel-Grafiktreiber nichtsdestotrotz so ihre 'Marotten' haben (je nach Spiel!). Bis vor 3-4 Jahren hab ich da selber mit rumgefriemelt, bestimmte Spiele auf dem Notebook ans laufen zu bekommen, und danach immer wieder das Thema aufmerksam (aus Interesse) auf Notebookcheck usw. weiter mitverfolgt.
Und wenn es da einen (GPU-)Hersteller gibt, wo Spiele hier und da in den Benchmarks Grafikfehler zeigen oder direkt abstürzen, dann ist das i.A. Intel
(siehe Assassins Creed Valhalla, Call of Duty Black Ops Cold War, Ghost Reckon Breakpoint, Horizon Zero Dawn usw.....)
Heißt nicht, dass das nicht behebbar ist/wäre, aber m.M. nach werden sie da definitiv einen längeren Atem brauchen und ich glaube, dass zumindest Leute mit einer Erwartungshaltung a la '3070-Ersatz mit mehr Speicher' enttäuscht werden, da eine 3070/6700XT (bzw. allg. Gaming-GPU) weitaus mehr ausmacht als nur die Rohleistung.
 
  • Gefällt mir
Reaktionen: TechFA
Ich muss sagen dass ich mit Intel-Treibern immer am wenigsten Streß hatte. Egal ob es eine uralte i945 oder eine nagelneue UHD770, das Zeug läuft praktisch immer out-of-the-box. Lediglich die i810-Grafik von Pentium3-Chipsets ist inzwischen tatsächlich nicht mehr sinnvoll nutzbar.
 
Ich denke schon, dass Intel zum Start gleich mit ganz brauchbaren Treibern kommen wird.
Warum?
Viele vergessen, dass Intel bereits Erfahrung mit den integrierten Grafikkarten in ihren CPUs sammeln konnte. Die Aktuellen Iris Der Modelle sind für das kleine Spiel nebenbei sogar hat OK und holen diese Performance auch aus relativ wenig Rohrleistung.
Spiele auf Intel GPUs geht also schon.
Wenn da jetzt massiv mehr Power drunter sitzt, warum also nicht?

Ich glaube der große Knackpunkt wird die Leistungsaufnahme und somit auch die Kühlung und Lautstärke sein.
Der Chip ist doch ziemlich sicher schon lange fertig und steck somit aktuell im Fine-Tuning. Vielleicht kämpft man ja gerade um das letzte Quäntchen Performance vs. Watt? Wer weiß.
 
Coole Sache. Konkurrenz belebt das Geschäft oder wie sagt man noch so schön? Schade nur, dass alle Bestände direkt weggescalpt werden werden.
 
Das wichtigste fehlt, Taugt die Karte zum Minen, sollte Intel es schaffen, eine günstige Karte die nicht zum Minen taugt, aber sonst 3070 Performance hat, dann könnte sich Intel relativ schnell Marktanteile im non mining Markt erreichen.
 
Zurück
Oben