News Intel Arc: Xe2 Battlemage kommt und zwar „hoffentlich“ noch 2024

cypeak schrieb:
solange intel seine eigene fertigung mit anderen produkten auslasten kann, ist externe fertigung kein großes ding und vor allem eine frage der konditionen.
Ja, aber Intel fertigt nicht deshalb bei TSMC, weil sie selber ausgelastet wären, sondern weil sie zu schlecht sind. Das macht es zum Problem.
 
  • Gefällt mir
Reaktionen: M11E, bad_sign und incurable
Also wieder 1 Jahr später als die 2 großen. Toller Plan Intel ;) . Schade eigentlich, weil man sieht, dass die 750 das P/L anführt. ISt für die CB Community zwar egal, da viel zu langsam, aber für viele User mit noch etwas älteren 1070, 1080er Karten oder AMD equivalent eine nette , bezahlbare Aufrüstoption für die Ansprüche der Zielgruppe. Und der Gruppe reichen auch die 8gb vram noch aus.
AMD und NVidia haben hier unten ja gar nichts mehr und die beschnittenen 4060 oder 7600 zähle ich da nicht mit, zumal auch die eher an der 300er marke als der 200er marke liegen.
Tja bleibt nur abzuwarten.

Nolag schrieb:
Es ist aber ein Irrtum, dass Intel eine bessere Raytracing Leistung liefert als AMD. Die Alchemist GPUs sind einfach nur furchtbar schlecht in Rasterization. Die A770 sollte eigentlich in Raster mit der Nvidia 3070 konkurrieren. Die 3070 und die 6700XT haben etwa 17 Milliarden Transistoren, während Intel aus fast 22 Milliarden Transistoren die Rasterleistung einer 3060 und die Raytracing Leistung einer 6700XT holt.
Liegt das Problem hier aber nicht eher im etwas schlechteren Fertigungsprozess, womit man eben mit der Frequenz runter muss um nicht das TDP Limit komplett zu sprengen im Vergleich zur Konkkurenz ?
Wobei ich mal grob behaupte, das die RT Leistung im unter 500€ Berreich sowiso komplett egal ist. Selbst darüber sind die Karten eigentlich auch nur sehr beschränkt dafür zu gebrauchen je nach Game.
 
Zuletzt bearbeitet:
Vitec schrieb:
Liegt das Problem hier aber nicht eher im etwas schlechteren Fertigungsprozess, womit man eben mit der Frequenz runter muss um nicht das TDP Limit komplett zu sprengen im Vergleich zur Konkkurenz ?
Alchemist wird in TSMC N6 gefertigt, Ampere in Samsung 8LPU. Intel nutzt den besseren Prozess. Es ist also noch schlimmer vom Design her.
 
  • Gefällt mir
Reaktionen: eXe777, bad_sign, incurable und eine weitere Person
SweetOhm schrieb:
Ich befürchte leider nix Gutes für die Zukunft der INTEL GPU Sparte, da von man von Celestial/Druid garnix mehr hört/liest ... :freak:

https://www.tweaktown.com/news/8122...-battlemage-celestial-druid-teased/index.html


Intel hat aus Alchemist gelernt, wo sie viel zu früh die Werbetrommel gerührt haben. Die Erwartungshaltung konnte wegen der Verschiebungen und schwächer als geplanten Performance nicht eingehalten konnten. Das ist eine Sache, welche sie bei der zukünftigen Generation anders machen wollten. Das wurde kurz nach dem Alchemist launch klar gestellt. Bei Battlemage geht Intel vorsichtiger vor.

Battlemage ist sicherlich nicht vor dem Herbst zu erwarten. Warum sollten sie Celestial bewerben, wenn sie aktuell noch nichtmal Battlemage bewerben. Daraus kann man nichts lesen. Celestial kommt vielleicht 2 Jahre nach Battlemage, das kann doch in einer 2024er Zeitleiste auch noch kein Thema sein. Weil dann würde einiges fehlen nicht nur bei den GPUs, u.a. Nova Lake.
 
  • Gefällt mir
Reaktionen: tritratrullala, incurable und SweetOhm
Das wäre dann eine Lösung für meinen Großen. Er soll auch mal in den Genuss kommen, sich eine Karte kaufen zu können auf die er selbst gespart hat.
(Nein, ich meine keine Last-Last Gen im Abverkauf).
Natürlich nur wenn Intel im entsprechenden Preissegment von 200-300€ etwas anbieten kann.
 
HeinMueck schrieb:
Hä? In vielen Fällen ist das Gegenteil der Fall Oo
Nein, weil der Auftragnehmer immer mehr raus schlagen muss, als du mit gleicher Personenzahl an Lohnkosten hättest (Auslastung außer Acht gelassen, da Intel aber Probleme hatte seine Fertigung auszulasten und sich sogar Drittfirmen anbietet, sollte das irrelevant sein) - nur eine Frage des KnowHows und das sollte gerade bei Intel absolut vorhanden sein.
Es gibt sogar noch weitere Synergien, wie man bei z.B. Apple sieht, die Software und Hardware inhouse haben.
Wenn du deine Arbeit in ein Billiglohnland verlegen kannst und deine Mitarbeiter für Profit über die Klinge springen lässt, ist das natürlich billiger. Aber wir reden hier von TSMC und nicht ausbeutbaren Nähern in Bangladesch ;)

Ich kämpfe den gleichen Kampf in meiner Firma, ich will eine PCB-Abteilung aufbauen, die unsere Designs macht und bei Änderungen des Marktes schnell reagieren kann, sowie kurze Wege bei Problemen zu etablieren. Aber das wäre nicht unser "Kerngeschäft"...
Dabei rannten wir schon häufig in Probleme dieser Art rein, ein neues PCB weil ein NAND Flash nicht verfügbar ist kann man intern in ein paar Stunden auflegen und EMV testen - beim Zulieferer hätte das Monate gedauert und Sau viel Geld gekostet.

Nur eine kleine Anekdote aus dem Leben eines Embedded Entwicklers :freaky:
 
  • Gefällt mir
Reaktionen: IronAngel, bad_sign und incurable
stefan92x schrieb:
Ja, aber Intel fertigt nicht deshalb bei TSMC, weil sie selber ausgelastet wären, sondern weil sie zu schlecht sind. Das macht es zum Problem.
das ist aber nicht die schuld der gpu sparte bei intel und schon ein problem seit mindestens 3-4 jahren. ich glaube deren fertigungsnachteil tut intel in der cpu sparte weitaus mehr weh...
 
grabeskuehle schrieb:
Edit: Die Arc 770 bietet ja auch jetzt schon teils mehr Leistung als ne RTX 3060 und das zum attraktiverem Preis, war also kein schlechter Deal für diejenigen die sich eine geholt haben. Von den anfänglichen Kinderkrankheiten mal abgesehen.
Kann ich nicht bestätigen. Die Probleme in manchen Tests sind doch noch massiv und ich habe damals wie heute keine gefunden zu einem Preis unter 400€. Das ist für die gebotene Performance einfach zu viel, gerade im Hinblick auf die schon bereits überteuerte 3060. Nur mit 16 GB GDDR kann man sich viel schönrechnen.
 
Intels Fertigungsprobleme haben vor mehr als einem vollen Jahrzehnt begonnen.

Die Prozessorsparte hat den Vorteil, dass man gerade erst angefangen hat, extern den Großteil der neuen Generation produzieren zu lassen (man muss sich das mal vor Augen führen, bei Meteor Lake kommt nur noch das Bonusrechenkernplättchen überhaupt von Intel), der Effekt auf die Margen ist noch nicht offensichtlich und der erklärte Plan ist es, die Prozessoren auf überschaubare Zeit wieder intern fertigen zu lassen.

Die Grafikabteilung hat da schon ein paar Jahre auf dem Buckel, der Effekt auf die Margen ist klar erkennbar, und die Planung sieht selbst mittelfristig extern produzierte Produkte vor.

Sollte Pete Gelsinger in nächster Zeit ein enttäuschendes Quartal verkünden müssen, eine große Abschreibung verbuchen oder das Vertrauen der Investoren mit frischen Sparmaßnahmen verbessern wollen, so ist die Grafiksparte in ihrem aktuellen Zustand ein hervorragender Kandidat zur Umsetzung solcher Pläne.
 
Ich sehe es leider auch so, dass das wahrscheinlich wieder mal "too little too late" sein wird...
Das wäre wahrscheinlich nach AMDs Next Gen und um die Zeit von Nvidias Next Gen...
Mit einer GPU die wahrscheinlich wieder nur so schnell wie ihre Last-Gen Karten wäre, zu Preisen die mit Blick auf Arc aktuell auch auf ähnlichen Regionen wie Last-Gen Karten liegen dürfte...
 
Piak schrieb:
Amd hat gemacht, was du und ich auch machen würden, den aus bwler sicht bestmöglichen Preis angesetzt. Meist minimal im Rasterize schneller und minimal günstiger. Also das Maximum was sie verlangen können
Genau. Darauf wollte ich hinaus, die haben genauso überteuerte Grafikkarten.
 
Wenn die Grakas kommen, werden sie dann etwa RTX 2080 ti Niveau aufweisen. Meine Schätzung 😀
 
Die Xe2 kommt, wenn (falls) die Preise wieder anziehen.😉
 
cypeak schrieb:
ich weiß ja nicht was so mancher hier von intel erwartet hat? dass sie mit den ersten 1-2 (oder 3) dgpu generationen nicht mit mehr als dem entry- bis mid-preissegment mithalten werden können war zu erwarten -
Ja, nur wenn sie pro Gen 3-4 Jahre brauchen, dann können sie tatsächlich aufhören.
Imo enttäuscht hier nicht die Leistung oder Treiber von Battlemage, bzw deren Erwartung, sondern das langsame Tempo in dem Intel arbeitet.
Bei Arc müsste es kistenweise low hanging fruits geben, warum kann man da nicht "schnell" (aka weniger als 3 Jahre) ein Refresh nachschieben?

Intel überhebt sich da gerne enorm (wie auch in der Fertigung) mit seinen riesen Sprüngen
 
Zuletzt bearbeitet:
bad_sign schrieb:
Ja, nur wenn sie pro Gen 3-4 Jahre brauchen, dann können sie tatsächlich aufhören.
findest du nicht dass das ganz schön überheblich sich so als sicht von der seitenlinie?
immerhin geht es hier quasi aus dem stand heraus know how, die technik und die entwicklungsmannschafft aufzubauen und dann auch noch erfolgreich produktiterationen zu fahren - auch hier haben nvidia und amd einen vorsprung.
diesen vorsprung den sich die wettbewerber über jahre, wenn nicht jahrzehnte, aufgebaut haben, das kann intel wirklich nicht in 1-2 generationen einholen.
ich finde das kann man doch einfach mal zur kenntniss nehmen bevor man den toten-abgesang anstimmt.
aber es stimmt schon; die entwicklungsgeschwindigkeit wird mitunter entscheiden wie sich intel im vergleich wird schlagen können.

ich würde wirklich mal battlemage und vor allem celestial/druid abwarten bevor ich mir ein urteil bilde wie gut intels chancen sind langfristig im gpu markt mitzuspielen..
 
cypeak schrieb:
immerhin geht es hier quasi aus dem stand heraus know how, die technik und die entwicklungsmannschafft aufzubauen und dann auch noch erfolgreich produktiterationen zu fahren
Durch die iGPUs hat Intel jahrelange Erfahrung mit diesen Themen. Das einzige wirklich neue ist, dass sie für dGPUs viel größer skalieren müssen als für iGPUs. Das ist sicherlich nochmal eine neue Aufgabe, aber man braucht auch nicht so zu tun, als ob Intel von Null hätte beginnen müssen.

Wen man sich den Hardwaremarkt anschaut, ist es ja auch normalerweise so, dass jährlich neue Produkte erwartet werden. Das können durchaus immer mal einfache Refreshs sein, wie Nvidias Super-Karten oder AMDs 6x50, aber irgendwas sollte man schon regelmäßig rausbringen, allein schon um OEMs bei Laune zu halten.

Es gibt eigentlich nur einen akzeptablen Grund, warum Battlemage so lange auf sich warten lässt: Alchemist ist so kaputt vom Design her, dass Intel lieber alles komplett neu macht, als auf Alchemist aufzusetzen.

Ob das so ist, weiß ich nicht, aber es wäre aud meiner Sicht der einzige Grund, warum es verständlich sein könnte, dass Alchemist so lange keinen Nachfolger bekommt. Grundsätzlich müsste Intel aber in der Lage sein, Alchemist durchaus noch zu optimieren und zumindest einen Refresh zu bringen, aber auch den haben wir nicht gesehen.
 
Es ist immer gut (für die Konkurrenz) Produkte noch viel später auszuliefern, um noch weniger Argumente für einen Kauf zu liefern. ^^
Will Battlemage jetzt noch viel später gegen einen noch größeren Gegner von nVidia antreten?
Ein doppelt so schneller Arc wäre ja gerade vielleicht gerade einmal in der Liga einer 3090 Ti, aber selbst bei gleichzeitig doppelt so guter Effienz halt immer noch hinter einer 4000er Karte.
Wenn die Karten dann also definitiv gegen die 5000er Karten antreten müssen, und selbst wenn diese dann nur 30% schneller und 30% effizienter werden sollten, so wird aus dem ehemaligen Papiertiger schnell ein hüftlahmes Kätzchen ohne Zähne, die dann weiterhin gefühlt 1-2 Generationen hinterher hinken.
Mit dem Nachfolger von Battlemage will man doch schon nach eigener Aussage absolut Konkurrenzfähig sein.
Wie soll das gehen, wenn man nicht schneller pusht als alle anderen, also viel größere Sprünge und/oder eine schnellere Veröffentlichung?
 
marakuhja schrieb:
Kann ich nicht bestätigen. Die Probleme in manchen Tests sind doch noch massiv und ich habe damals wie heute keine gefunden zu einem Preis unter 400€. Das ist für die gebotene Performance einfach zu viel, gerade im Hinblick auf die schon bereits überteuerte 3060. Nur mit 16 GB GDDR kann man sich viel schönrechnen.


Eine A770 16GB gibt es bereits für 299€ von Acer und Asrock. Allerdings hat die A750 schon das deutlich bessere P/L Verhältnis für aktuell ab 209€.
Ergänzung ()

stefan92x schrieb:
Durch die iGPUs hat Intel jahrelange Erfahrung mit diesen Themen. Das einzige wirklich neue ist, dass sie für dGPUs viel größer skalieren müssen als für iGPUs. Das ist sicherlich nochmal eine neue Aufgabe, aber man braucht auch nicht so zu tun, als ob Intel von Null hätte beginnen müssen.

Die iGPU Erfahrung bringt nur teilweise was, das wurde an der Arc deutlich sichtbar. Bei der iGPU wurde mehr auf die CPU ausgelagert. Der driver overhead war nie das Thema, es stand nie im Fokus, weil iGPUs in der Regel nicht durch die CPU limitiert werden. Das wurde bei der Arc zum Problem, unter DX11 jetzt noch oft. Auch das Speichermanegement ist ein anderes, die Arc greift ja nicht auf den Systemspeicher zu.

Die PCIe Verbindung ist ebenso Neu, das leidige Thema rBAR wäre mit einer iGPU nicht zum Problem geworden. Der ganze Aufwand insgesamt steigt, ist doch klar das man nur mit einer iGPU weniger investiert und auch der Dev Support kleiner ausfällt. Die AMD Treiber wären ohne dGPU nicht auf dem Stand, wo sie jetzt sind. Treiber seitig und auch Support seitig von Spieleentwicklern.

Game On driver von Intel gibt es auch erst seit Arc. Ein weiteres Problem ist die Treiber Inkombatibilität zwischen Xe LP und Xe HPG/LPG. Intel ist nicht bei Null gestartet, dennoch war vieles Neu. Das betrifft die Hardware teils auch (Skalierung, GDDR IMC, PCIe)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Monarch2
mkl1 schrieb:
Die PCIe Verbindung ist ebenso Neu, das leidige Thema rBAR wäre mit einer iGPU nicht zum Problem geworden.
Stimmt schon, aber dafür gibts bei Intel genug Erfahrung mit anderen PCIe-Beschleunigern die sie vorher und immer noch produzieren (die relevanteste Erfahrung dürfte wohl die Xeon Phi-Serie darstellen, die zugunsten von Xe als HPC-Beschleuniger gecancelt wurde). Sicherlich musste Intel Know-How aus anderen Bereichen mit in die GPU-Sparte integrieren, um sauber hochzuskalieren und dabei den von dir zu Recht erwähnten Driver Overhead zu begrenzen, aber es gab eben sehr viel Know-How innerhalb Intels, auf das man zurückgreifen konnte. Und ich glaube als erster Wurf war Alchemist doch auch gar nicht schlecht, sondern wurde in diesem Kontext durchaus als respektabel aufgenommen?

Aber je länger es jetzt dauert, Fortschritte auf den Markt zu bringen, um so mehr schwindet der Vertrauensvorschuss, der Intel gegeben wurde.
 
cypeak schrieb:
findest du nicht dass das ganz schön überheblich sich so als sicht von der seitenlinie?
immerhin geht es hier quasi aus dem stand heraus know how, die technik und die entwicklungsmannschafft aufzubauen und dann auch noch erfolgreich produktiterationen zu fahren - auch hier haben nvidia und amd einen vorsprung.
diesen vorsprung den sich die wettbewerber über jahre, wenn nicht jahrzehnte, aufgebaut haben, das kann intel wirklich nicht in 1-2 generationen einholen.
ich finde das kann man doch einfach mal zur kenntniss nehmen bevor man den toten-abgesang anstimmt.
aber es stimmt schon; die entwicklungsgeschwindigkeit wird mitunter entscheiden wie sich intel im vergleich wird schlagen können.

ich würde wirklich mal battlemage und vor allem celestial/druid abwarten bevor ich mir ein urteil bilde wie gut intels chancen sind langfristig im gpu markt mitzuspielen..

Intel ist bereits seit den 80ern oder spätestens ab den 90ern bereits Entwickler und Produzent.
Das Erstlingswerk einer dedizierten 3D-Grafikbeschleunigerkarte ist aus dem Kopf heraus 1996 vor die Hunde gegangen.
Auch mit Verspätung, da war die Konkurrenz dann schon wieder schneller und hatte neue Ware am Markt, die Intel zerlegt haben. So wie jetzt um Faktor 2.
Wieso meint jeder bloß, dass Intel ein absoluter Neuling ist?
Nein, die sind einfach nur unfähig.
Intel ARC ist eine DG2, vorher gab es auch schon die DG1, die ebenfalls gefloppt ist (Test z.B. bei Igors Lab im Video), halt nur ohne Raytracing-Einheiten.
Die ganze Xe genannte Grütze basiert im Endeffekt auf den integrierten Einheiten, die in jeder CPU von Intel stecken.
Bei der Treiberprogrammierung hat man dann festgestellt, dass die Art und Weise der Befehlsverarbeitung mit so einem großen einzelnen externen Chip aber gar nicht mehr funktioniert, weil die Treiber bisher auf Unterstützung durch die CPU angelegt gewesen sind.
Deshalb hat z.B. Igor auch so extrem hohe CPU-Zugriffe durch unmengen an Draw-Calls festgestellt, die die Leistung vor allem bei Dx11 etc. total kaputtgemacht hat, was zu enormen Leistungseinbußen, Rucklern, Zucklern, Stotterern und dicken Aussetzern geführt hat.
Also so ungefähr das, was passiert, wenn man eine total überforderte alte CPU mit einer neuen fetten Grafikkarte füttert und dann aber CP 2077 zocken will.
Manu von Hardwaredealz testet doch immer diese geilen Gamingschrott-Kisten, da seht ihr das schön im Video, wenn da eine uralt-CPU (z.B. ein 4-Kern-Bulldozer) drin steckt und nichts mehr geht.
Am Ende hat man jetzt entnervt und überfordert erst einmal externe Wrapper genommen, um über eine Whitelist nach und nach die Spiele damit spielbar zu machen. Linux mit DXVK etc. lässt grüßen.
Meiner Meinung nach hat Intel sich total übernommen.
Man wollte, neue, große Chips entwerfen, die alle Features inkludiert haben.
Schneller und besser noch als die Konkurrenz mit mehr Know-How in diesen Bereichen.
Das das niemals spontan gelingt, hätte einer so erfahrenen und problemgeplagten Firma absolut bewusst sein müssen.
NVidia hat nicht umsonst 10 Jahre für Raytracing experimentiert und gebraucht.
Auch die ganze Software und Zusatztechniken wie DLSS und Frame Generation etc. zaubert man nicht aus dem Hut, aber Intel wollte alles auf einmal?
Das ist reine Dummheit und Unvermögen.
Ohne vernünftigen Zwischenschritt läuft da einfach nichts.
Hätte man die ganze große und neuartige Thematik rund um Raytracing für eine Generation ausgelassen, hätte man alleine schon rechtzeitig nach Fahrplan liefern können.
Zu einer Zeit, wo es kaum Spiele mit RT gab und kaum jemand wirklich damit gespielt hat oder wirklich musste bzw. wollte wegen der Frameraten.
Da hätte man die ganze Zeit in eine vernünftige Architektur mit genug Leistung für den Normalo stecken und liefern können, man hätte sogar den großen Reibach in der Mining-und Coronapandemie für reichlich Umsatz und Gewinnn mitnehmen können.
Und softwaretechnisch hätte die Entwcikler sich auf einen funktionierenden Treiber konzentrieren können, anstatt auf Softwarespielereien, die dann auch erst viel viel später funktioniert haben.
Jetzt im nächsten Schritt hätte man das Thema Raytracing angehen können, aber auf einer funktionierenden Basis als Ausgangspunkt.
Dann hätet man aus einem kleinen, leistungsstarken udn effizienten Chip einen dicken Chip entwicklen können, der dann auch für Ratyracing genug Dampf hat und es zumindest zu einer ordentlichen Alternative gegenüber der Konkurrenz werden lässt.
Im Endeffekt hat Intel alles falsch gemacht, so sollte man es nämlich niemals machen.
Aus einem Busfahrer wird nicht über Nacht ein Formel 1-Rennwagenfahrer.
Vor allem, wenn man es schon einmal für fast 30 Jahren einmal festgestellt hat, das das nicht so einfach geht.
 
  • Gefällt mir
Reaktionen: franzerich
Zurück
Oben