News Intel Battlemage (Xe2): Die Arc B580 kommt mit weniger Shadern, aber fast 3,0 GHz

7eNd schrieb:
von der man weiß, dass es die letzte Generation sein wird? Wieviel Aufwand wird da in den nächsten Jahren noch in Treiberpflege gesteckt?
Selbst wenn dem so wäre hat Intel weiterhin iGPUs für die sie Treiber pflegen müssen.

Also auf den Vollausbau bin ich durchaus gespannt. Momentan genügt mir die 6900XT noch gut, sollte ich aber Lust auf ein Upgrade kriegen... wer weiss.
 
Zuletzt bearbeitet:
Auch diese Generation wird Intel wohl über den Preis in den Markt drücken müssen. Intel wird noch viel Zeit brauchen um den Rückstand aufzuholen. Und das wird Geld kosten...
 
  • Gefällt mir
Reaktionen: Otsy
yoshi0597 schrieb:
12GB statt 8GB nimmt man gerne mit, das ist ein Alleinstellungsmerkmal, da 4060 und 7600 nur 8GB haben.
Für 289 - 299 € gab es aber schon eine 7600XT mit 16 GB ...
 

Anhänge

  • 7600XT 16 GB 299 €.jpg
    7600XT 16 GB 299 €.jpg
    266,8 KB · Aufrufe: 63
  • Gefällt mir
Reaktionen: Ganjaware
Medi02 schrieb:
Wäre mir neu das es da Limitierrungen gab. Ich nutze meine A770 auch mit einem Ryzen. Oder versteh ich dich da falsch?
Ich habe da was verwechselt.

Ich glaube nicht, dass Intel die Leistung einer Radeon RX 6900 XT mit der Arc B780 oder dergleichen erreicht aber vielleicht wird man ja eines besseren belohnt aber selbst wenn, da der große Chip sich verzögert und zu dem Zeitpunkt wahrscheinlich schon die Radeon RX 8800 draußen ist, wird das auch wieder zu spät sein.
 
Damit ist die b580 genauso schnell wie die a750 aber alles steht und fällt mit den Treibern.
Sofern battlemage hardware Einheiten hat für directx 11 und älter dürfte das aber deutlich schneller werden. bisher wurden diese api nur emuliert
 
  • Gefällt mir
Reaktionen: NMA
BernmanHH schrieb:
Bin gespannt, ob der hohe Takt nicht den Verbrauch negativ beeinflusst. Vielleicht wären mehr Einheiten und weniger Takt besser.
Dachten wir doch auch bei Xbox One X vs PS5. Aber weniger Einheiten mit hohem Takt lassen sich scheinbar besser auslasten. Ich denke sie gehen da schon den richtigen Weg.
 
  • Gefällt mir
Reaktionen: NMA, Brrr und BernmanHH
Coeckchen schrieb:
Dachten wir doch auch bei Xbox One X vs PS5.
Da stimmte es ja auch. Die Series X verbraucht je nach Test 20-30 Watt weniger als die Ur PS5 (vor dem neuen SoC und RAM) und ist dabei in vielen Spielen zumindest ein bisschen schneller (bzw. weniger aggressiv bei der dynamischen Auflösung).

Die Ur PS5 geht in Spielen bis ~225 hoch. Die Series X auf um die ~200W.

https://www.eurogamer.net/playstation-5-review-digitalfoundry
https://www.eurogamer.net/digitalfoundry-2020-xbox-series-x-power-consumption-and-heat-analysis
 
  • Gefällt mir
Reaktionen: Coeckchen
Ob Battlemage was wird, hängt für mich vorallem vom Preis ab. Sie müssen billiger als AMD sein und gleich viel bieten oder gleich viel Kosten und mehr bieten.
Als Konkurrent zu Brot und Butter GPUs à la 8600 XT aber mit mehr Speicher oder eben 8600 XT aber billiger.

Ggf. könnte Intel sich auch bei Low-End Käufern <250€ beliebt machen. 8GB ~4060 oder knapp drunter hielte ich für angemessen. AMD und Nvidia bequemen sich ja nun schon seit Jahren nicht, mal eine vernünftige Karte in der Preisregion anzubieten.
 
Dem Markt würde es extrem gut tun wenn Intel hier endlich abliefert. Aber ob das auch für die Kasse von Intel zutrifft? Ich habe da Bedenken, trotz der Fortschritte bei iGPU. Die müssten weiterhin bereit sein einiges Lehrgeld zu investieren - zu einem Zeitpunkt wo es dem Unternehmen nicht wirklich gut geht.
 
  • Gefällt mir
Reaktionen: NMA
Simanova schrieb:
Das Problem sehe ich beim B770, der Chip sollte ja zusammen mit dem B580 erscheinen, hängt aber von Problemen geplagt in der Entwicklung fest
Nicht wirklich. Die Entwicklung von G31 wurde nur spät angefangen. Zunächst sollte der große Die ein 28Xe Core Design sein, der wurde dann gecancelt und dafür G31 mit 32Xe Kernen aufgelegt.
 
Temporä schrieb:
Das leistet RDNA3 allerdings auch nur mit den Dual Issue Befehlen

Real performt RDNA3 da ähnlich wie RDNA2 bei halber nominellen Rohrleistung.
Mea culpa, hatte dual issue ganz vergessen, weil ich ursprünglich A770 mit der 6650 vergleichen wollte und dann festgestellt hab, dass letztere in 7nm gefertigt wurde und die 7600 vom Prozess her näher an der A770 liegt. Die 6650 hat nur die Hälfte theoretischer FLOPS. Könnte wirklich ein Auslastungsproblem sein.

Dennoch glaube ich dass der kleine Battlemage nicht super spannend wird - zumindest für alle die bereits auf 6700XT und schneller sitzen.
 
Noch im Intel-early Welpen-Status, aber Fortschritt sähe momentan anders aus:
lt. neuem Benchmark leak
1732709936156.png
 
7eNd schrieb:
Ich hätte ja Interesse daran, aber lohnt es sich überhaupt, auf eine GPU-Reihe zu setzen, von der man weiß, dass es die letzte Generation sein wird? Wieviel Aufwand wird da in den nächsten Jahren noch in Treiberpflege gesteckt?
Ob das die letzte Generation von Gaming-Grafikkarten sein wird, ist noch gar nicht raus. Dann wird diese Architektur ja auch von den aktuellen CPUs genutzt. Von dem Chip wird es sicher auch wieder Profiversionen geben. Treiberpflege wird damit auch mittelfristig gesichert sein.

Man muss sich endlich von dem Gedanken trennen, dass Grafikkarten für Gamer entwickelt werden. Das ist weder bei Nvidia, noch bei AMD und auch bei Intel nicht der Fall. Gaming ist für die nur ein Nebengeschäft, ganz besonders für Intel und AMD.

Meine Meinung: Ich glaube nicht, dass das Intels letzte Grafikserie sein wird. Ich denke, sie wollen - wie AMD auch - Profilösungen aus einer Hand anbieten können und deswegen nicht auf eigene (Profi-)Grafikkarten verzichten. Vielleicht gibt es keine weiteren Gaming-Karten, aber wenn sie weiter Profikarten entwickeln, wäre es unlogisch, keine Gamingkarten rauszubringen. Anders als bei AMD, die (noch) zweigleisig fahren, wäre der Aufwand für Intel quasi null, weil selbe Arch. Treiber wollen ja auch für die Profikarten gepflegt werden. Verträge mit den Boardpartnern hat man auch noch.
 
Es sind natürlich nur Spekulationen, Fakt ist, dass kein Unternehmen längere Zeit Geld verbrennt, wenn die Verkaufszahlen nicht stimmen. Also, entweder die Karten schlagen ein, oder das Projekt wird zu Grabe getragen.
 
Ich finde schade, dass man das Ganze nicht schon vor 6 Monaten bringen hat können (inkl. dem großen Chip). im Frühjahr steht schon RDNA4 und RTX 5xxx an
 
Mensch Intel, ich hätte es euch gegönnt und der Start war meiner Meinung nach gar nicht so übel. Aber irgendwo habt ihr euer Mojo verloren was GPUs an geht. Battlemage und Cleric hätten da wunderbar drauf aufbauen können und gerade jetzt sind die Gamer gewillt, ein paar Einschnitte hinzunehmen, wenn der Preis stimmt. Das hätte euer Ryzen-Moment für GPUs werden können.

Hoffe nur, sie ziehen nach 2 Generationen nicht wirklich schon den Stecker.
Manchmal glaube ich, Imagination Technologies zu kaufen wäre einfacher gewesen...
 
Intel war damals aufgestellt wie NVIDIA. Das beste vom besten. Jetzt nur noch schlamm. CPU schlecht und GPU schlecht. Wen interessiert die Grafikkarte b580? Vermutlich weniger Leistung als ne Olle 6700 XT ?


12gb zu wenig 16gb müssen es sein. Ist doch nicht schwer zu verstehen.


Wenn Intel ne Grafikkarte für Gamer raus bringt sollte diese schon mehr Leistung als ne ps5 oder xbox series x bieten, ansonsten können sie es gleich lassen.

10% mehr Leistung als ne RX 7900 GRE und das 50-70€ günstiger mit 16gb Speicher und dann noch overclock für 3-5% extra bumm und Intel könnte was reißen, aber so? Ne.
 
Zuletzt bearbeitet:
Zurück
Oben