News Intel Arc: Xe2 Battlemage kommt und zwar „hoffentlich“ noch 2024

incurable schrieb:
Intel hat nur begrenzt Interesse daran, dauerhaft extern gefertigte Produkte in den Markt zu werfen.
Intel ist vor allem eines: Eine Aktiengesellschaft

ARC wird es solange geben, wie die Verluste ertragbar sind und die Stakeholder das mitmachen. Sollte Intels ARC erst Ende 2024 erscheinen, dann hat man immer noch 2 Jahre Effizienzrückstand auf AMD und Nvidia.
Und das würde für mich langfristig bedeuten, dass ARC am Ende nur im Mobile landen wird. Damit wäre nach BTM schluss.

Intels Treiberteam ist wirklich wie Igor mal vor Ewigkeiten schrieb: Into the Oddessey ^^
 
  • Gefällt mir
Reaktionen: Alesis und SweetOhm
Extern hergestellte (1) Endkundenprodukte (2) sind eine Katastrophe für die eigene Marge.

So lang man der Hoffnung anhängen kann, dass die Produkte auf Sicht durch interne Alternativen ersetz werden, wie aktuell im CPU-Bereich geplant, kann man das vielleicht das eine oder andere Quartal aussitzen.

Wenn eine Sparte aber offen damit plant, noch für Generationen bei der Konkurrenz produzieren zu lassen ohne die entsprechend nötigen Preise bei den Endkunden aufrufen zu können, dann steht sie schon mit einem Fuss im Grab und wartet nur darauf, dass der Chef einen Anlass zum Reinschubsen bekommt.
 
Philste schrieb:
Als monolithischer Chip könnte Intel hier das beste aus beiden Welten liefern, nämlich die Nvidia Raytracingleistung (und hoffentlich auch Effizienz) mit den 16GB der 7800XT.
Es ist aber ein Irrtum, dass Intel eine bessere Raytracing Leistung liefert als AMD. Die Alchemist GPUs sind einfach nur furchtbar schlecht in Rasterization. Die A770 sollte eigentlich in Raster mit der Nvidia 3070 konkurrieren. Die 3070 und die 6700XT haben etwa 17 Milliarden Transistoren, während Intel aus fast 22 Milliarden Transistoren die Rasterleistung einer 3060 und die Raytracing Leistung einer 6700XT holt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Orok91, usernamehere und 4 andere
incurable schrieb:
Extern hergestellte (1) Endkundenprodukte (2) sind eine Katastrophe für die eigene Marge.
AMD lässt doch ausschließlich extern fertigen, NVidia meines Wissens auch. So schlimm wird das dann für die Marge schon nicht sein, wenn man einen kleinen Teil seiner Produkte auslagert.
 
  • Gefällt mir
Reaktionen: DerFahnder und Strahltriebwerk
Nolag schrieb:
Die Alchemist GPUs sind einfach nur furchtbar schlecht in Rasterization. Die A770 sollte eigentlich in Raster mit der Nvidia 3070 konkurrieren. Die 3070 und die 6700XT haben etwa 17 Milliarden Transistoren, während Intel aus fast 22 Milliarden Transistoren die Rasterleistung einer 3060 und die Raytracing Leistung einer 6700XT holt.

Ich frag mich ob das ein Problem der Architektur ist, oder einfach nur wegen den schlechten Treibern. AMD und Nvidia haben treibermäßig einfach mehrere Jahre Vorsprung, während Intel sich bis vor wenigen Jahren überhaupt nicht um GPUs gekümmert hat - noch nicht mal um deren eigene iGPUs.

War es nicht der CEO von Nvidia der mal gesagt hat, dass der Fortschritt bei ihnen so verläuft: "20% Hardware und 80% Treiber"?

Kenn mich beim Thema nicht so aus, aber ich finde es abstrus wenn dermaßen viel von den Treibern abhängt. Man würde denken, dass eine GPU-Architektur so beschaffen sein sollte, dass sie auch im "rohen Zustand" ohne spezielle Optimierung eine ordentliche Leistung bringen sollte. Aber bei Intel kann man jetzt gut beobachten, dass ohne Treiber fast gar nix geht. Wenn sie aber mal eine Treiberoptimierung liefern, kann es überraschend gut abschneiden und auch andere überholen...
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Nolag schrieb:
Es ist aber ein Irrtum, dass Intel eine bessere Raytracing Leistung liefert als AMD. Die Alchemist GPUs sind einfach nur furchtbar schlecht in Rasterization
Kapiere die Aussage nicht. Die Intel GPUs bleiben im Vergleich bei RT da, wo sie auch bei Raster sind, während die AMD GPUs im Vergleich deutlich abfallen. Natürlich haben sie eine bessere Raytracingleistung als AMD GPUs
 
  • Gefällt mir
Reaktionen: duskstalker, Atlan2101, fox40phil und 2 andere
Philste schrieb:
Kapiere die Aussage nicht. Die Intel GPUs bleiben im Vergleich bei RT da, wo sie auch bei Raster sind, während die AMD GPUs im Vergleich deutlich abfallen.
Dann mache es doch mal umgekehrt. Schau dir die Raytracingleistung an und schau dann wo die ARC in Raster liegt. Die ARC sollte ursprünglich in Raster auf dem Niveau einer 3070 liegen. Die ARC hat schliesslich 25% mehr Transistoren als die 6700XT. Intels Chips sind also nicht besser in RT. Sie sind einfach nur extrem schlecht in Raster.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alesis, eXe777 und Rockstar85
D0m1n4t0r schrieb:
Taugen die Treiber denn mittlerweile was? Soweit mir bekannt waren die das größte Problem und dafür verantwortlich dass die Arc Rohleistung die eigentlich ja gut ist, nicht so toll umgesetzt werden kann.

Es ist wohl über die Zeit besser teilweise deutlich besser geworden. Zumindest von der Leistung.
Soweit ich das mitbekommen habe oder wahrgenommen habe, haben viele gehofft, dass Intel wirklich alle Probleme in den Griff bekommt (das Thema Idle Verbrauch mal ausgeklammert). Aber stand heute ist es wohl leider immernoch so, dass die Karten manchmal bei neuen Spielen selbst für ihre Verhältnisse extrem schlechte Leistung abliefern oder Grafikfehler produzieren.

Das ist halt leider ein NoGo.
Zumindest für mich.

Und auch wenn eine arc 750 preis leistungsmäßig mit 199€ extrem gut da steht im P/L Vergleich vom User Maine, dann darf man auch nicht vergessen, dass seine Untersuchungen auf den aktuellen Benchmarks von cb basieren. Und cb hat die eigentliche Konkurrenz zur 750 von amd, nämlich die 6600 nicht mehr mit gebenched. die 6600 wäre hinter der 750 auf einem sehr guten zweiten Platz. Hat aber die oben genannten Probleme nicht.

Daher ist meiner Meinung nach auch eine 750 Schluss endlich preislich nicht attraktiv genug, als das man über diese Probleme hinweg sehen könnte
 
Nolag schrieb:
Die ARC sollte ursprünglich in Raster auf dem Niveau einer 3070 liegen.
Spekulation aus fragwürdigen Quellen ala MLID. Klar, die Rasterleistung ist in Hinblick auf die Chipgröße/ALU-Zahl schlecht, aber dass Intel in RT auf Nvidia Niveau ist, ist Fakt. Und ich weiß auch nicht, was eine schlechte Rasterleistung damit zu tun hat. Die A770 liegt im Raytracing Parkour im Verhältnis zu Nvidia genau an derselben Stelle wie im Rasterparkour, tendenziell sogar etwas besser. AMD rutscht hingegen drastisch ab.
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba
Schade, ich finde die Intel Karten aktuell schon konkurrenzfähig, die Kinderkrankheiten sind größtenteils auch gelöst und selbst neue Titel bekommen meistens ein schnelles Treiberupdate (schnell ist hier relativ, ich kann auch eine Woche warten. In meinem Alter hat man eh nicht mehr die Zeit, jeden Titel am Releasetag zu suchten). Kann man sagen was man will, aber Intel hat hier in kurzer Zeit einen ansehnlichen Treiber gebastelt.

Leider steht bei mir ein GPU Upgrade erst im nächsten Jahr an, da hätte sich ein Battlemage mit vielleicht 4070/4080 Leistung echt gut gemacht, wenn der Preis stimmt.

Sollte die Karte erst 2025 kommen, kann sie wieder nur gegen die Resterampe der beiden Platzhirsche antreten.
Die 3060 wird von den Arc Karten gut gekontert, aber hätte NVidias Gier nicht zur aktuellen 4060 geführt, sähe die A750/770 kein Land.
 
  • Gefällt mir
Reaktionen: Atlan2101 und NOX84
Philste schrieb:
Klar, die Rasterleistung ist in Hinblick auf die Chipgröße/ALU-Zahl schlecht, aber dass Intel in RT auf Nvidia Niveau ist, ist Fakt. Und ich weiß auch nicht, was eine schlechte Rasterleistung damit zu tun hat.
Ich glaube eben nicht, dass man sagen kann, dass Intel in RT auf Nvidia Niveau ist, wenn man auf der A770 22 Milliarden Transistoren braucht um eine 3060 mit 12 Milliarden Transistoren um 5% zu schlagen.
Philste schrieb:
Spekulation aus fragwürdigen Quellen ala MLID.
Man kann das natürlich als Spekulation abtun, aber es ist eigentlich ruinös einen so großen teuren Chip zu designen und sich dann die 3060 als Ziel zu wählen. Bei den GPUs um $300 verdient Nvidia vielleicht noch $50. Wenn mein Chip also $40 teurer ist, dann hole ich bei einem Marktanteil von 10% nicht mehr meine Entwicklungskosten herein. Und genau in der Situation ist Intel aktuell. Das nächste Design muss deutlich mehr Leistung pro Transistor bringen und im Bereich der GPUs um $400-500 mitspielen, damit sie nicht wieder Milliarden verlieren.
 
  • Gefällt mir
Reaktionen: eXe777, M11E und Rockstar85
HeinMueck schrieb:
Hä? In vielen Fällen ist das Gegenteil der Fall Oo
Intel hat halt selber eine Fertigung, die sie auch finanzieren müssen. Für AMD ist es ok, wenn TSMC auch eine ordentliche Gewinnmarge hat, aber Intel muss halt selber wieder konkurrenzfähig zu TSMC werden. Dafür muss Geld reinkommen und derzeit muss Intel die eigene Foundry quersubventionieren mit Gewinnen aus anderem Bereichen.
 
  • Gefällt mir
Reaktionen: incurable
HeinMueck schrieb:
Hä? In vielen Fällen ist das Gegenteil der Fall Oo
Intel hatte in den letzten 15 Jahren in weiten Teilen Margen von 60+%.

Diese Zahlen sind mit externer Produktion und den aktuell als Neueinsteiger erzielbaren GPU-Preisen im Endkundenbereich völlig illusorisch, und wenn eine Sparte dauerhaft die Marge zu ruinieren droht, hat Intel noch immer die Reißleine gezogen. (RAM, NOR, ARM, NAND, 5G, die Liste ist lang)
 
ich weiß ja nicht was so mancher hier von intel erwartet hat? dass sie mit den ersten 1-2 (oder 3) dgpu generationen nicht mit mehr als dem entry- bis mid-preissegment mithalten werden können war zu erwarten - aus dem stand heraus wird man kaum im oberen amd/nv gpu's mithalten können. von der treiberentwicklung mal ganz abgesehen; auch wenn intel einen haufen softwareingenieure unterm dach hat, dauert auch softwareentwicklung nunmal.
die frage ist immer was man für sein geld bekommt. im entry segment könnte eine intel jetzt schon durchaus interessant sein. ich finde das für den ersten schuss durchaus beachtlich.

wenn man mit battlemage und celestial stück für stück daran anknüpfen kann, halte ich es für durchaus realistisch dass intel auch im mid-range preisbereich der dgpu's mitspielen kann - wieso auch nicht?
Ergänzung ()

@stefan92x @incurable
da muss ich euch in teilen widersprechen - so pauschal kann man externe fertigung nicht abspeisen.
solange intel seine eigene fertigung mit anderen produkten auslasten kann, ist externe fertigung kein großes ding und vor allem eine frage der konditionen.

ich würde fast darauf wetten dass intel sehr gut weiß mit welcher konkurenz man es in diesem bereich aufnimmt und dass dies ein wettbewerb für mehr als nur 2-3 jahre ist. höchstwahrscheinlich rechnet man bei den dgpu's sogar damit dass es zunächst ein verlustgeschäft ist bis man überhaupt fuß im markt gefasst hat.

natürlich ist es besser wenn man ein produkt komplett ohne externe abhängigkeiten quasi zum selbstkostenpreis produzieren kann - aber es muss nicht zwingend ruinös für die marge sein.
samsung hat z.b. auch eine eigene fertigung und greift bei so manchem produkt trotzdem auf die soc's und vorprodukte anderer, teils direkt konkurierender, hersteller...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk und duskstalker
gartenriese schrieb:
Du meinst Nvidia und AMD Preise. AMD hat doch die Preise genauso angezogen.
Amd hat gemacht, was du und ich auch machen würden, den aus bwler sicht bestmöglichen Preis angesetzt. Meist minimal im Rasterize schneller und minimal günstiger. Also das Maximum was sie verlangen können
 
  • Gefällt mir
Reaktionen: bad_sign, gartenriese, SweetOhm und eine weitere Person
Intel is beim Entwicklungstempo ihrer GPUs noch nicht bei den anderen beiden angekommen wie es scheint. Aber je länger sie warten, desto weiter sind sie hinterher.

Das sie irgendwas machen müssen steht außer Frage. Produkte wie Meteor Lake oder die ganzen HPC Beschleuniger zeigen, das reine CPU-Hersteller keine Zukunft mehr haben. Intel brauch eine leistungsfähige GPU-Architektur und einen zuverlässigen Softwarestack dafür, um am Markt zu bestehen. Sie müssen weitermachen, auch wenn die GPU-Sparte an sich Verluste abwirft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und SweetOhm
Zurück
Oben