News Intel Battlemage (Xe2): Die Arc B580 kommt mit weniger Shadern, aber fast 3,0 GHz

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.852
  • Gefällt mir
Reaktionen: GOOFY71, Naicon, SweetOhm und 13 andere
Ich bin gespannt
 
  • Gefällt mir
Reaktionen: Alioth, derSafran, Zagrthos und 6 andere
Ich denke, die primäre Frage ist, wie viel Intel bei der Architektur optimieren konnte.

Das und die Treiber dürften denke ich die primären Punkte gewesen sein, die Alchemist in 7nm deutlich ineffizienter hat agieren lassen als eine kleinere mit schlechterem Samsung Node produzierte GPU von nvidia.

(Wir reden hier von 406mm² A770 vs. 276mm² RTX 3060 vs 237mm² HD 6650XT... von der neuen Generation wollen wir garnicht reden. Entsprechend hoch waren die Produktionskosten für Intel.)

Solange die Architekturverbesserungen signifikant sind, kann das mühelos eine reduzierte Anzahl an ALUs raus reißen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SpartanerTom, Casillas und konkretor
Bin gespannt, ob der hohe Takt nicht den Verbrauch negativ beeinflusst. Vielleicht wären mehr Einheiten und weniger Takt besser.
 
Die B580 wird eine A770 schlagen. Das ist ja bereits geleakt. Das Problem sehe ich beim B770, der Chip sollte ja zusammen mit dem B580 erscheinen, hängt aber von Problemen geplagt in der Entwicklung fest und hatte noch nicht mal seinen Tapeout. D.h es dauert noch mind. 3 Monate, eher 6, bis der B770 als fertige Karte auf den Markt kommt. Selbst wenn Intel mit dem B580 die Leistungskrone intern holt, so bleibt diese Karte auf dem Niveau einer AMD RX 7600XT bzw Nvidia RTX 4060. Das ist allenfalls ein Einstieg ins Gaming Segment.
 
  • Gefällt mir
Reaktionen: 9t3ndo
Ich hoffe die Tests und der Preis fallen gut aus.
 
  • Gefällt mir
Reaktionen: SweetOhm und MalWiederIch
BernmanHH schrieb:
Bin gespannt, ob der hohe Takt nicht den Verbrauch negativ beeinflusst. Vielleicht wären mehr Einheiten und weniger Takt besser.
Alchemist war schon extrem breit und hat nur sehr schlecht mit den zusätzlichen Einheiten skaliert. Auch ein schlecht ausgelastetes breites Design kann ineffizient sein.
Gleichzeitig muss hoher Takt nicht unbedingt hohen Verbrauch bedeuten, RDNA2 hat den Takt auch deutlich gegenüber RDNA1 angehoben bei sogar selber Fertigung und war trotzdem deutlich effizienter
 
  • Gefällt mir
Reaktionen: SweetOhm, n8mahr, Chismon und 4 andere
Ich hätte ja Interesse daran, aber lohnt es sich überhaupt, auf eine GPU-Reihe zu setzen, von der man weiß, dass es die letzte Generation sein wird? Wieviel Aufwand wird da in den nächsten Jahren noch in Treiberpflege gesteckt?
Computerbase schrieb:

Eine letzte Serie in limitierter Stückzahl?​

Schon zuvor hatte es Gerüchte gegeben, Intel werde Intel Arc 2.0 – möglicherweise als Intel Arc B770, B750 etc. pp. – dieses Mal wirklich in limitierter Stückzahl auf den Markt bringen; aber eine weitere Generation werde es nicht geben.

https://www.computerbase.de/news/gr...s-desktop-grafikkarte-noch-dieses-jahr.90207/
 
  • Gefällt mir
Reaktionen: Turbolord und Che-Tah
Ich hoffe die "Übertragung" der Architektur von iGPUs aus Lunar Lake in dGPUs funktioniert besonders was die Effizienz anbelangt so wie man sich das erhofft.^^

Und wenn die Kompatibilitätsprobleme zuvor wirklich auch hardwarebedingt waren und die das mit den Änderungen verbessern können um so besser.^^

Ich drücke Intel die Daumen dass das alles klappt, es wäre so wichtig das deren nächsten dGPUs deutlich besser sind, auch allgemein für den Grafikkartenmarkt.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alioth und Brrr
7eNd schrieb:
Ich hätte ja Interesse daran, aber lohnt es sich überhaupt, auf eine GPU-Reihe zu setzen, von der man weiß, dass es die letzte Generation sein wird?
Das sind letztlich nicht mehr als Gerüchte. Du siehst ja wo Intel mit ihrer integrierten GPU momentan steht, man liegt auf AMD Niveau, bzw. sogar leicht drüber. Warum dieses Potenzial dann wegwerfen und nicht in den dGPU Markt bringen? Letztendlich hängt alles davon ab wie die GPUs performen.

Ich würde mal tippen A770 + 20%, bei ~60 Watt weniger Verbrauch.
Im Endeffekt eine 4060+ 5-10% mit 12GB V-ram.

Glyphus schrieb:
Kein Ding der Unmöglichkeit - geben wir ihnen mal 30%. Dann landet B580 auf ~6650 XT Niveau.
Die 6650XT ist schon heute mit RT langsamer als die A770. Insgesamt dürfte es locker für die 6650XT reichen.
In diesem Test war die A770 sogar im Raster in WQHD vorne.
Mit Optimismus reicht es für eine RX 6700XT im Raster und für eine RX 6900XT bei RT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, Brrr und MalWiederIch
Simanova schrieb:
Die B580 wird eine A770 schlagen. Das ist ja bereits geleakt.
Wenn man nur Shader und Takt vergleicht hat B580 etwa 85% Der Leistung von A770. Das heißt durch die Architektur/ Treiber müsste Intel min. 17% rausholen. Kein Ding der Unmöglichkeit - geben wir ihnen mal 30%. Dann landet B580 auf ~6650 XT Niveau. Um eine 6700 XT zu schlagen würde man durch Architektur und Auslastung ~60% mehr gegenüber Alchemist brauchen. Das halte ich für unwahrscheinlich und man wäre trotzdem nur auf dem Niveau der Mittelklasse von 2021. Uff - zumal die 6750XT neu für 320€ und die 6700XT gebraucht für ~220€ zu haben ist. So günstig kann Intel die gar nicht anbieten, um konkurrieren zu können.

Finde ich absolut unspannend, wenn da nicht doch noch der große Bruder B570 oder B580 kommt.
 
Ich selbst habe mir damals Quasi direkt zu Marktstart eine A770 LE gekauft, und mit den ganzen Treiber Updates ist echt was draus geworden, klar gibt es ein paar Titel wo die Performance nicht so berauschend ist. Grade wenn man mal so in richtung Minecraft Java schaut (da hatte meine 1050ti mehr drauf). Allerdings bin ich gespannt wo die Reise mit Intel ARC hingeht, eventuell lohnt sich dann ja auch ein Upgrade sollte noch ein direkter nachfolger zur A770 kommen.
 
  • Gefällt mir
Reaktionen: SweetOhm, derSafran und konkretor
Glyphus schrieb:
Das heißt durch die Architektur/ Treiber müsste Intel min. 17% rausholen. Kein Ding der Unmöglichkeit - geben wir ihnen mal 30%.
Wenn man sieht, dass der Die der A770 ~70% größer ist als die 6650XT bei gleichem 7nm Node, dann ist klar, dass bei Intel in Sachen Architektur noch viel zu holen ist.
 
  • Gefällt mir
Reaktionen: Brrr
@Glyphus
In Lunar Lake hat die Architektur das geschafft. Jetzt ist nur die Frage, wie gut man damit skalieren kann.

@Rickmer
Die Dichte der 6nm EUV nodes von TSMC ist ein bisschen höher als bei dem DUV node der 6650XT. (geringere Abstände bei denen man noch DRC clean ist)
Die A770 hat in etwa den doppelten Transistorcount.
 
guggi4 schrieb:
Alchemist war schon extrem breit und hat nur sehr schlecht mit den zusätzlichen Einheiten skaliert. Auch ein schlecht ausgelastetes breites Design kann ineffizient sein.
Gleichzeitig muss hoher Takt nicht unbedingt hohen Verbrauch bedeuten, RDNA2 hat den Takt auch deutlich gegenüber RDNA1 angehoben bei sogar selber Fertigung und war trotzdem deutlich effizienter
Genau das meinte ich. Bin gespannt, ob der Test die Annahme bestätigt.
 
Ich bin auch auf die Tests gespannt.
@Simanova
Bezüglich drs Tape outs gibt es gegensätzliche Informationen. Da würde ich noch nichts drauf geben. Schauen wir einfach was kommt und was die tests sagen.
 
Intel kann machen was es will, ihre Grafiksparte wird nicht auf die Füße kommen und niemals das Geld wieder einfahren, das man dafür verbrannt hat.
Vom - für den Einstandpreis über den Tisch schieben - kann man nicht leben.
Und ihre AI Produkte können sie auch eindampfen, der Markt ist "aufgeteilt" auf NVIDIA und AMD
 
Kommt nur leider zu spät und ich frage mich gibts hier auch Limitierung zu CPU's und Mainboard? War nicht Alchemist da ziemlich limitiert?

Intel wird sich von GPU's nicht verabschieden, für Prozessoren und AI braucht man das aber ob das Geschäft mit dGPU's (für OEM's, Endverbaucher) am Leben gehalten wird, bezweifle ich. Der Aufwand dafür ist groß und man braucht einen langen Atem um substantiell einen Fuß in das Geschäft zu bekommen und Gewinn zu machen.
 
Zurück
Oben