News Battlemage-Grafikkarte: Die Intel Arc B580 (und B570?) erscheinen am 12. Dezember

Dass Intel Bildbereitstellung (APU + dedizierte GPU) in "modern" grundsätzlich kann, haben sie bewiesen.
Daher ist das erstmal mindestens interessante Karte.

Aber das soll dann ja wohl (vorerst?) die letzte Gen an dedizierter GPU sein, oder?
Schade. Aber muss sich ja auch irgendwo rechnen.
 
  • Gefällt mir
Reaktionen: Rockstar85
DJMadMax schrieb:
Ich will nicht pessimistisch sein, würde mich aber wundern, wenn lediglich der hohe GPU-Takt ausreichend ist, um die B580 daraufhin stark von der A580 abzuheben, die ihrerseits schon eher als schwach zu bezeichnen war und ist.
Xe2 ist hier in dem Fall für die Auslastung ähnlich bedeutsam, wie damals RDNA für AMD.

Bisher benötigte Xe pro Warp32/Wave32 4 Takte, jetzt sind es nur noch deren 2. Dazu kommt, dass es allemein weniger Warp32/Wave32 benötigt um die Karte auszulasten. Daher sind die 2560 Shader gegen die 3072 hier nicht mehr wirklich vergleichbar.
 
  • Gefällt mir
Reaktionen: whynot?, Balikon, Jagdpanther53 und eine weitere Person
@DevPandi
Dann muss Battlemage die offensichtlich gesteigerte Rohleistung zusammen mit dem etwas höheren Speicherdurchsatz nur noch auf die Straße bringen und gibt hoffentlich bald Aufschluss darauf, was ein Vollausbau in Form einer hypothetischen B770/B780 leisten könnte.

Man darf also gespannt sein, ich freue mich jedenfalls auf die neuen Intel-Karten.
 
  • Gefällt mir
Reaktionen: Brrr, SP-937-215 und zampe14
Guter Zeitpunkt für solch eine Karte. Hoffe die ziehen die B770 bald nach. Die würde ich tatsächlich in Betracht ziehen
 
  • Gefällt mir
Reaktionen: Brrr und SP-937-215
Jan schrieb:
  • 13. Dezember: Tests zur Partnerkarten
Das liest sich komisch. Ich würde da entweder "zu" oder "von" oder "der" Partnerkarten schreiben.
 
  • Gefällt mir
Reaktionen: iWeaPonZ und Jan
DonDonat schrieb:
gerade weil der 12.12 für Weihnachts-Sales reichlich spät ist und man somit das "Target" mit hoher Sicherheit verfehlen dürfte.
Also ich sehe da sowieso keine Chance.
Die PCs die zu weihnachten verschenkt werden sind mMn überwiegend fertig PCs und da wird wohl keiner unter Garantie Battlemage einbauen :/
 
  • Gefällt mir
Reaktionen: Balikon, Simonte, Raptor85 und eine weitere Person
Ich schreie gerade so leicht innerlich mit meinem Geldbeutel, wobei ich es auch schade finde, dass bisweilen keine 16G Karte von BattleMage auf dem Papier steht.

Hoffe Ihr testet die Karte selber auch ausführlich, auch unter Linux (bitte), gibt nämlich doch noch einige Spiele, die noch locker mit 8GB ausreichen, auch wenn die UE5 den Chrome spielt.
 
Mit 2560 Shader muss Intel bei Raster auf dem Level einer 6700 XT sein. Darunter wäre wohl ungenügend. Da würde es auch nicht nützen, wenn man in diesem Bereich in RT besser wäre. In dieser Leistungsklasse ist RT doch eh nicht wirklich interessant.
 
  • Gefällt mir
Reaktionen: Rockstar85
Klar ist es schön, wenn sie AMD bzw. NVIDIA schlagen würden, aber ich finde man sollte da doch realistisch bleiben.

Ich erwarte eine Steigerung gegenüber den Vorgängern und besseren Treibersupport. Das wäre schon mal gut. Den Vorsprung, den die anderen beiden in diesem Segment haben, ist groß und ich glaube nicht das man das in 1-2 Generationen hin bekommen wird, eine konkurrenzfähige Karte auf den Markt zu bringen.
 
Also alleine von den Speccs her schaut die Karte nicht so gut aus.
Mal abwarten ob noch ne Arc B770 kommt. Die könnte dann interessant sein.

Habe gerade errechnet, dass die B580 ca. 80-85% der Geschwindigkeit einer Arc A770 haben dürfte.

Wenn ich mal träumen darf:
ARC B770:
Xe-Cores: 64
FP32-ALUs: 8192
GPU-Takt: 3000 MHz
Grafikspeicher: 32 GB GDDR6 - 16GB/s
Speicherinterface : 512 bit
Speicherbandbreite: 1024 GB/s
Stromverbrauch: 250W
Preis: 399,- Euro
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Würde sich im Markt gut als Konkurrenz zur RTX 4060 und RX7600/(XT) machen.

Angeblich gibt es eine B580 Special Edition mit 24 GB Ram, also abwarten.
 
@D0m1n4t0r , welchen Multiplikator hast du für Alchemist (Xe) --> Battlemage (Xe2) benutzt? Frage für einen Freund.
 
Nicht bloß einen sondern mehrere. Man muss ja sowohl den höheren Takt als auch die unterschiedliche Zahl der Recheneinheiten als auch die Strukturbreite berücksichtigen sowie die Architekturverbesserung die die Karte effizienter macht und die unterschiedliche Speicherbandbreite.
Aber ich vermute mal damit liege ich nicht allzu falsch, aber mal Tests abwarten.

Übrigens, in letzter Zeit hat sich viel an den Intel Treibern getan. Die ARC A770 ist mittlerweile auf RTX 4060 Niveau angekommen.
 
Alesis schrieb:
Mit 2560 Shader muss Intel bei Raster auf dem Level einer 6700 XT sein. Darunter wäre wohl ungenügend.
Sehe ich genau so. Da liegen dann ja zwei Generation zwischen, dazu der höhere Takt...

RT wird mit der PS5 Pro wohl in Zukunft häufiger zu sehen sein, selbst die Switch kann das ja zukünftig. Insoweit, denke ich, dass das langsam runtertröpfelt in die Mittelklasse.
Die RDNA4 sollen Gerüchten zufolge ja auch keine tolle Rasterleistung bringen. Aber eben deutlich mehr RT-Leistung - ob man es mag oder nicht, das wird zukünftig immer dabei sein.
 
  • Gefällt mir
Reaktionen: Alesis und Simonte
DrFreaK666 schrieb:
Einfach nur ein B davor? Das checkt doch niemand
Ist das ironisch gemeint? Das Namensschema von Arc ist prinzipiell eines der transparentesten, das man sich ausdenken könnte:
Erster Buchstabe gibt die Generation an, erste Ziffer die Klasse, zweite Ziffer die Position innerhalb der Klasse, dritte Ziffer könnte für Unteranpassung genutzt werden.
Da der Buchstabe an erster Stelle steht gibt es die Möglichkeit, das Schema 26 Generationen lang fortzusetzen.
Die Klassen hat Intel bislang so gehalten, dass nur 3, 5 und 7 vergeben wurden, also noch keine geraden und auch bei ungerade fehlte noch 1 für UltraLowEnd und 9 für HighEnd. Bei den Positionen innerhalb der Klassen hat Intel das nicht so super gehandhabt, weil sie dort eigentlich die 8 gar nicht gebraucht hätten. Also sie hätten auch dort einfach 3, 5 und 7 verwenden können.

Wie sich die Generationen zueinander verhalten? Ja keine Ahnung, aber das hat man sonst ja auch nicht gewusst. Also klar, früher wusste man das einmal in etwa, dass eine 60er-Karte von Nvidia etwa so stark sein würde wie die alte 80er-Karte. Aber das ist ja eine andere Zeit...
 
  • Gefällt mir
Reaktionen: Brrr, Zoba und Jan
Bin ich richtig informiert das Intel nach dieser dedizierten Grafikkartengeneration aufhören möchte, oder werden in Zukunft weiterhin Grafikkarten entwickelt?
 
Das ist offiziell nicht bekannt. Der CEO hatte gesagt, dass es weniger Bedarf für dGPUs gibt, aber auch das bedeutet nicht zwangsläufig das Ende - egal was woanders stand. ;)
 
  • Gefällt mir
Reaktionen: Brrr
Zurück
Oben