News Battlemage-Grafikkarte: Die Intel Arc B580 (und B570?) erscheinen am 12. Dezember

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.065
  • Gefällt mir
Reaktionen: konkretor, aid0nex, PietVanOwl und 13 andere
Das sind gute Nachrichten - die Branche kann ein wenig Konkurrenz dringend brauchen. Vielleicht geschieht ja noch ein Wunder und die Preise bei den Grafikkarten bewegen sich wieder nach unten ;)

Ich hoffe auf einen baldigen Test bei computerbase :)
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, guzzisti und 7 andere
Dann dürfte das Wochenende ja schon für Tests genutzt werden.
Geht jetzt alles schlag auf schlag. Vor ein paar Tagen wurde noch diskutiert ob die Karten überhaupt kommen.
 
  • Gefällt mir
Reaktionen: flo.murr, Brrr, aid0nex und 3 andere
Ja, dann freuen wir uns doch schon auf Dienstag. Umso besser :)

Vielleicht schafft es Intel ja hier einigermaßen im unteren Preisbereich zu punkten und Fuss zu fassen. Dringend nötig hat es der Markt.
 
  • Gefällt mir
Reaktionen: 42ndgoose und Quidproquo77
Ich hoffe, dass die neuen Intel Karten gut performen und das durchweg in allen möglichen Spielen. Würde den Einsteiger-Markt gut aufmischen mit einer guten Preis/Leistung.
 
  • Gefällt mir
Reaktionen: iWeaPonZ und danyundsahne
Super spannend! Das ist wohl die aufregendste Karte der neuen Generation, weil man absolut nicht weiss, was man erwarten kann. Bekommen sie die Probleme mit Energieverbraucher und Ineffizienzen in den Griff?

Die APUs zeigen ja auf, dass die Fortschritte richtig gross sein können.

Ich vermute, am Ende gibt es wieder einen veritablen Flop gegen die etablierte Konkurrenz, lasse mich aber sehr gerne eines besseren belehren
 
  • Gefällt mir
Reaktionen: MiroPoch, unspektakulaer, aid0nex und 5 andere
Ich bin sehr gespannt und würde sie gerne mal ausprobieren. Mal gucken, wie die Verfügbarkeit und der Marktpreis sein werden.
 
  • Gefällt mir
Reaktionen: SP-937-215
Wenn Intel die Auslastung halbwegs hinbekommen hat, müsste das Teil rein von den technischen Daten ziemlich genau bei einer 6700XT landen.
Meine Vermutung: Raster etwas darunter, RT etwas darüber.

Stellt sich nur die Frage nach dem Markt dafür, die 6700XT ist seit Jahren am Markt und eine 6750XT gibts für 310€ noch immer zu kaufen
 
  • Gefällt mir
Reaktionen: up.whatever, Harpenerkkk, DerRico und 2 andere
Das wäre auch mein erster Gedanke.
Wie wird das Ding im Markt und natürlich auch preislich entsprechend positioniert?
 
An 6700XT-Performance glaube ich nicht. Allerdings an eine deutlich verbesserte Performance/TFlop.
So denke ich, dass man die A750 schlagen kann und ungefähr auf dem Niveau einer A770 ist.
Vielleicht sogar etwas darüber mit RTX 4060/ RX 7600-Niveau. Aber selbst dann wäre eine 6700XT immer noch 20% schneller.
 
Einfach nur ein B davor? Das checkt doch niemand
 
  • Gefällt mir
Reaktionen: Milchmixer, Coeckchen, feris und eine weitere Person
Ich verspreche mir jetzt mal nicht allzu viel, interessant aber allemal.
 
Na da darf man ja gespannt sein ob sich das Ding verkaufen wird, gerade weil der 12.12 für Weihnachts-Sales reichlich spät ist und man somit das "Target" mit hoher Sicherheit verfehlen dürfte.
Aber selbst wenn sie vom P/L gut genug wird, ist der Markt von Budget/Semi-Budget GPUs ziemlich gesättigt und solang Intel es da nicht schafft massiv mehr Performance pro $/€ rauszuholen dürfte es die Karte(n) es wieder recht schwer haben.

Wobei man diesmal ja hoffen kann, dass die Treiber zu Beginn besser sind.

Bin auf Tests gespannt, auch wenn ich nix erwarte.
 
  • Gefällt mir
Reaktionen: Aduasen
Ich bin sehr gespannt. Aufgrund der Daten betrübt es mich aber ein wenig, dass nebst Speicherausbau lediglich der hohe GPU-Takt positiv gegenüber dem direkten Vorgänger hervorsticht, sich alle anderen Kerndaten wie ALUs, Xe-Cores, Speicherinterface und Bandbreite sowie natürlich auch der Preis jedoch verschlechtert haben.

Ich will nicht pessimistisch sein, würde mich aber wundern, wenn lediglich der hohe GPU-Takt ausreichend ist, um die B580 daraufhin stark von der A580 abzuheben, die ihrerseits schon eher als schwach zu bezeichnen war und ist.
 
  • Gefällt mir
Reaktionen: LamaTux, Aduasen, SpartanerTom und eine weitere Person
guggi4 schrieb:
Stellt sich nur die Frage nach dem Markt dafür, die 6700XT ist seit Jahren am Markt und eine 6750XT gibts für 310€ noch immer zu kaufen
Wenn das wirklich im Bereich einer 6700XT landet und ohne die Probleme der ersten Gen daherkommt sehe ich durchaus einen Markt im Grunde ist ja alles (außer den RDNA2 Resten) in dem Preisbereich eher nicht so Prall.
 
Manchmal ist Intel gut dabei, des Öfteren scheint es auch nicht richtig zu laufen.

Mir behandelt Intel diese Sparte zu stiefmütterlich um auch nur Ansatzweise auf die Idee zu kommen Intel eine Chance zu geben.
 
  • Gefällt mir
Reaktionen: Jan
muvmend schrieb:
Ich hoffe die Specs täuschen
Battlemage wird mit ihren 2560 Shadern auf jeden Fall deutlich mehr leisten, als noch Alchemist vorher mit 3072.

Intel wechselt von Vec8 auf Vec16 und nähert sich damit weitgehend dem Design an, dass sowohl AMD und Nvidia seit nun gut über 10 Jahren fahren.
guggi4 schrieb:
Wenn Intel die Auslastung halbwegs hinbekommen hat, müsste das Teil rein von den technischen Daten ziemlich genau bei einer 6700XT landen.
Intel wird bei der Auslastung ungefähr auf dem Level von Nvidia herauskommen. Sie werden auch auf "Wave/Warp32" weitgehend umstellen, weil das weitgehend seit spätestens 2019 und dem Wechsel von AMD von Wave64 auf Wave32 der Standard ist. Bedeute auch, dass Intel nicht mehr speziell entweder selbst im Shadercompiler/Treiber optimieren muss, als auch dasss die Entwickler nun weitgehend für Intel, AMD und Nvidia in einem Zug optimieren können.

AMD ist bei der "Auslastung" etwas vor Nvidia und Intel, weil ein *32-Block pro Takt abgearbeitet werden kann - wenn die Dual-Issues ausgenutzt werden können - *32-Blöcke pro Takt. Nvidia wiederum hatte relativ früh - Maxwell - schon auf Dual-Issue umgestellt und konnte pro SM-Tile 2 Warp32 parallel bearbeiten, so dass am Ende auch quasi jeden Takt ein Warp32 fertig wird.

Intel ist es - was ich bisher so gesehen habe ähnlich - nur das Intel - wie bei Turing bei Nvidia - 2 *32-Blocke auf einmal Int und einmal FP hat.
 
  • Gefällt mir
Reaktionen: whynot?, LamaTux, iWeaPonZ und 4 andere
Zurück
Oben