News Gerüchte um Intel Arc 2.0: Battlemage als Desktop-Grafikkarte noch dieses Jahr

E1M1:Hangar schrieb:
Wieder so ein halbherziges Unterfangen. Nicht instant erfolgreich und direkt aufgeben.
Nicht wirklich, mit Alchemist hat man seitens Intel Arc bisher geliefert (wenn auch leider verspätet und mit Anlauf-/Treiberoptimierungsschwierigkeiten, durchaus nachvollziehbar, wenn man mehrere Dekaden an Entwicklung/Erfahrung aufholen muss), Battlemage ebenso schon sehr gelungen im Notebook (mit Xe2 in Lunar Lake, immerhin leicht besser als Strix Point und nicht zu vergleichen mit QualComm; nVidia findet in dem iGPU/APU Bereich zum Glück bis heute nicht wirklich statt) und kolportiert dann für den Desktop PC im Dezember und Celestial (Xe3) soll schon in Panther Lake kommendes Jahr kommen, ob im Desktop PC dann noch ist allerdings fraglich, wohl auch wegen der angespannten Finanzlage im Unternehmen.

Momentan sieht es so aus, also ob man weiterhin die Grafikeinheit entwickelt; was mit Druid (dem letzten namentlich bekannten Intel Gaming GPU Produkt der Roadmap) sein wird, steht noch in den Sternen, aber gut möglich, dass Nova Lake oder was auch immer dann im Mobilbereich (als Panther Lake Nachfolger) damit kommt in 2026.

Also dass man bei Intel grundlos mit wenig Ambition bzw. halbherzig das Handtuch werfen würde, sehe ich bzgl. der Gaming-relevanten Grafiksparte bisher ganz und gar nicht.

Ich denke eher man versucht bei Intel den GPU-Bereich noch weiter auf Sparflamme weiter zu entwickeln, um dann hoffentlich in besseren Zeiten wieder dort stärker einsteigen zu können, aber ob das klappen kann/wird, muss man wohl abwarten und es ist leider kein Wunschkonzert für alle Typen von Grafikkartenkäufern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87 und sturmpirat
rg88 schrieb:
Wer bitte soll hier eine nächste Gen kaufen, die absehbar noch weniger Support bekommen wird
Seh ich ähnlich. Die Karte(n) sind doch tot bevor die überhaupt am Martkt sind.
Ohne Nachfolger wird der Treibersupport und Weiterentwicklung von Grafikfeatures sukzessive eingestellt werden. Für eine handvoll verkauften Kärtchen wird Intel da die finanzielle Notbremse ziehen.
Und welches Spielestudio sich für eine EOL BM Hardwareplattform in 1-2 Jahren noch interessieren und optimieren wird kann man sich wohl an einer Hand abzählen.
Das wird genau so laufen wie bei einem Freund damals, als er sich hoffnungsvoll die Voodoo 5 5500 gekauft hat, und etwa ein Jahr später dann auf eine GeForce 2 Pro gewechselt hat.
 
  • Gefällt mir
Reaktionen: rg88 und Aquilid
FR3DI schrieb:
Intel war nicht mal ansatzweise Konkurrenzfähig. Warum also sollte das bei denen von Interesse sein?
Weil sie mit entsprechendem Fortschritt von einem immens wachsenden Markt profitieren würden?
 
  • Gefällt mir
Reaktionen: Aquilid und FR3DI
Der gesamte Spielgrafikprozessormarkt generiert gerade mal 13-14 Milliarden USD Umsatz pro Jahr, und Nvidia hält knapp 90% davon. (nach Einheiten, nach Umsätzen noch mehr)

Selbst wenn Intel ein Viertel dieses Marktes gewinnen könnte, wäre das nicht mehr als ein Rundungsfehler für den Konzern. (genau wie 90% das aktuell bei Nvidia sind)
 
Wenn die Battlemage Reihe eine Leistung einer 7700XT mit deutlich besserer RT Performance bietet und der Preis stimmt... gekauft. Mich reizen vor allem auch die excellenten Video Encoder. Bin gespannt...
 
Ich lasse mich mal überraschen was da kommt. Nvidia ist mir mittlerweile einfach zu Teuer geworden. Wenn man dort ein vernünftiges 256Bit-Speicherinterface haben möchte muss man direkt 800€ aufwärts in die Hand nehmen und bei AMD sind es auch um die 500€ mittlerweile.

Persönlich wäre ich zufrieden mit der Leistung einer 4600 Ti mit 16GB Speicher und 256Bit-Speicherinterface zu einem annehmbaren Preis.
 
  • Gefällt mir
Reaktionen: Aquilid
Ist doch Quark sich an solchen Nullcharakteristika wie Bitbreite der Speicheranbindung aufzuhängen.

Entwerder leistet das Ding was es soll oder nicht.
 
  • Gefällt mir
Reaktionen: frames p. joule
Wünsche mir das INTEL so schnell und so nah wie möglich an die Konkurrenz rankommt.
Die Preise sind einfach nicht mehr feierlich - milde ausgedrückt.
Mehr Konkurrenz, möglichst auf Augenhöhe bedeutet, mehr Hoffnung auf sinkende Preise.
Sonst bleibt ja aktuell nicht viel für die Endkunden, als eben die Hoffnung :-)
 
  • Gefällt mir
Reaktionen: Aquilid
Lumi25 schrieb:
Persönlich wäre ich zufrieden mit der Leistung einer 4600 Ti mit 16GB Speicher und 256Bit-Speicherinterface zu einem annehmbaren Preis.

Das schafft die Arc 770 mit 16 GB doch jetzt schon. Leistungstechnisch ist die mit den mittlerweile besseren Treibern je nach Spiel doch schon auf RTX 4060 ti Niveau. Problem ist dass die Treiber so seltsam sind und die Leistung je nach Spiel krass nach oben oder unten ausbricht und so schwankend ist. Die Rohleistung ist da, das Problem sind nur die Treiber.
Intel hat die Hardware, das Problem ist die Software. Intel bräuchte ne richtig gute Softwareabteilung von Experten die gute Treiber entwickeln und optimieren und sonst nix anderes machen.
 
Intel ist immerhin noch 3-mal so groß wie AMD, insofern hatte ich gehofft dass sie schnell Paroli bieten könnten. Scheinen aber gerade in der Führung sehr zerstritten zu sein, ob sie dieses Jahrzehnt noch überleben?

Wenn ich auf <200mm mehr Leistung bekommen kann als mit der 4060 ti, schlage ich gerne zu. Halte ich aber für sehr unwahrscheinlich.
 
persönlich würde ich sagen , könnte Intel mehr dgpu‘s verkaufen können wenn sie diese in ihre laptops packen und zwar im einstieg / mid segment. high können sie weiter Nvidia anbieten. Besonders sollten die Karten sehr gut im professionelle segment performen aber auch noch gut genug im galing bereich.
 
danyundsahne schrieb:
Bin gespannt ob die gröbsten Schnitzer in BMG herausgearbeitet wurden und ob die Arch + Treiber besser harmonieren.
Das, was man bisher sehen kann, ist BMG weit aus weniger von "Software" abhängig als Alchemist davor. Man verwendet jetzt auch eine Struktur, die deutlich näher an den Strukturen von Nvidia und AMD sind mit den "16-ALU"-Blöcken.
Northstar2710 schrieb:
Die Entwicklung bei den dgpu‘s hilt auch bei der IGPU.
Ja und Nein, das Thema ist an der Stelle komplexer. Eine gute iGPU bedeutet nicht zwingend, dass man daraus eine gute dGPU machen kann und umgekehrt genauso wenig.

Vega war als iGPU zum Beispiuel von vielen der Probleme, die die dGPU-Vega hatte verschont geblieben. Genauso kann eine Cache-Struktur sich bei dGPUs ganz anders auswirken als bei einer iGPU und Co. Es gibt Überschneidungen, am Ende gibt es aber ganz andere Herausforderungen
DiePalme schrieb:
Das AMD im GPU Segment mal wirklich die Nase vorne hatte, ist aber auch schon ziemlich lange her.
Na ja, ganz so lange auch nicht. Wirklich "drastisch" vorne ist Nvidia eigentlich erst seit Pascal und dem Absturz mit Vega. Davor war es relativ ausgeglichen.
DiePalme schrieb:
Das fing ja schon mit der Geforce 256 und T&L an.
32 Bit bei Riva TNT sowie Hardware T&L waren damals nette "Gimmicks" ohne großen Nutzen. Beides waren Funktionen, die lange nach den jeweiligen Produkten quasi an bedeutung gewonnen haben.
 
DevPandi schrieb:
32 Bit bei Riva TNT sowie Hardware T&L waren damals nette "Gimmicks" ohne großen Nutzen
Alles was Neu ist, hat erstmal keinen großen Nutzen. Aber jemand muss ja erstmal Anfangen etwas Neues zu bringen. 32bit ist im Übrigen auch nichts, dass Nvidia "gebracht" hat, daher nicht relevant für die Diskussion.
Und als Hersteller ist alles was Neu ist ein Risiko. Vieles verschwindet wieder, nur weniges setzt sich durch.
 
Zurück
Oben