News Intel Battlemage (Xe2): Die Arc B580 kommt mit weniger Shadern, aber fast 3,0 GHz

Shader schrieb:
Kommt nur leider zu spät und ich frage mich gibts hier auch Limitierung zu CPU's und Mainboard? War nicht Alchemist da ziemlich limitiert?
Wäre mir neu das es da Limitierrungen gab. Ich nutze meine A770 auch mit einem Ryzen. Oder versteh ich dich da falsch?
 
  • Gefällt mir
Reaktionen: Munkman, PegasusHunter und konkretor
Rickmer schrieb:
Wenn man sieht, dass der Die der A770 ~70% größer ist als die 6650XT bei gleichem 7nm Node, dann ist klar, dass bei Intel in Sachen Architektur noch viel zu holen ist.
Absolut - die Frage ist, ob sie das in einer Generation ausschöpfen können. Wenn es so einfach wäre hätten wir vielleicht mehr als nur zwei Player am Markt. Die Metriken der Fertigung sind vergleichbar. Pixel und Textur Füllraten ebenfalls.

Aber Intel hat etwa nur die Hälfte der theoretischen FP Leistung / Shader im Vergleich zu AMD. Wenn schon die theoretische Leistung nur halb so hoch ist, kann am Ende nicht mehr in der Praxis rumkommen.

PS: Daten von techpowerup -> A770 19,66 TFOPS bei 4096 ALUS vs 7600 21,75 TFLOPS bei 2048 ALUS
 
  • Gefällt mir
Reaktionen: NMA und SweetOhm
Rickmer schrieb:
Wenn man sieht, dass der Die der A770 ~70% größer ist als die 6650XT bei gleichem 7nm Node, dann ist klar, dass bei Intel in Sachen Architektur noch viel zu holen ist.
Jap ein riesen Chip der leider nicht die zu erwartende Leistung auf die Straße brachte.

Schaut man sich nämlich nur stumpf das Datenblatt beider karten an und vergleicht diese dann ist das schon erstaunlich.

Da hat Intel Architektur bedingt definitiv noch einiges nachzuholen.
 
  • Gefällt mir
Reaktionen: SpartanerTom und SweetOhm
Gute Grafikkarte.
Xe(1) hatte einfach zu oft das Problem, dass die Grafikkarte zu oft nicht wirklich ausgelastet war. In Raytracing Titeln konnte man das am ehesten sehen, da hier Xe schneller war als RDNA2 und 3. Irgendwo blieb zu viel Leistung "auf der Straße".
Weniger Recheneinheiten, aber höherer Takt könnte die Lösung sein.
12GB statt 8GB nimmt man gerne mit, das ist ein Alleinstellungsmerkmal, da 4060 und 7600 nur 8GB haben. Perfekt, um in uralten Titeln die Auflösung erhöhen zu können (192bit statt 128bit Interface) und auch um diverse Assets zu laden --> Cities Skylines, Flight Simulator, CoD, Forza Horizon / Motorsport uvm., die easy 6-8GB benötigen und je mehr man zur Verfügung stellt, umso besser die Frametimes.

Der Straßenpreis bei 250-300€ ist "ideal" für diese Karte.

Die Karte soll PCIe 5.0 x8 nutzen, spricht die Upgrader an, die einen Intel 12th Gen / AMD Zen4 Prozessor haben mit entsprechendem Mainboard. Damit hätte man auf den SSDs immer eine x4 Verbindung zur Verfügung, darüber freut sich eigentlich jeder. Die Karte sollte ohne großen Leistungsverlust auch auf 4.0 x8 nutzbar sein, ich kann mir kaum vorstellen, dass man hier über 5% Leistung verlieren würde.
 
  • Gefällt mir
Reaktionen: NMA und Brrr
Bin gespannt.
Hoffe mal, die kommen damit bisschen weit ran an die anderen Beiden. Konkurrenz belebt das Geschäft.
CB wird aber zu gegebener Zeit einen Test bereitstellen.
 
Beim ersten Blick auf die News dachte ich, die B580 sei bereits jetzt offiziell vorgestellt worden --- denn einen ähnlichen Aufbau nutzt ihr ja auch dann.
 
bringt ein b880 oder wenigstens den b780 schnell mit ordenlich vram
wenn der takt stimmt und der preis wird das was evtl. mit einem 285 ultra i9, wenns den auch mal
bald geben sollte :D
 
Jan schrieb:
Wissen tut man das nicht.
Naja Intel versucht ein für sie neues Produktsegment zu etablieren mit einer Strategie mit der die meisten Firmen und auch Intel selbst Produktsegmente auslaufen lassen. Das Ergebnis ist da schon irgendwie gesichert. :)
 
Ich hoffe auch, dass Intel da was reißt. Habe die 2080Ti aus meinem Zweitrechner meinem Neffen vermacht und sie durch eine A770 getauscht. Erstens weil ich kaum mit dem Rechner spiele, zweitens um zu sehen was Intel da liefert und drittens um einen dritten Graphikchiphersteller zu unterstützen.

Ich war übrigens positiv überrascht. Natürlich kam sie auch nicht an die 2080Ti ran, die eher etwas besser als eine 3070 ist, aber ich kann fast alles drauf spielen. Nur Star Trucker hatte Probleme, von den Spielen, die ich in letzter Zeit drauf gespielt habe.
 
  • Gefällt mir
Reaktionen: NMA, SweetOhm, SP-937-215 und 2 andere
Wirklich extrem schade, dass daraus keine Laptop-dGPU mehr wird; effizient und leise mit 12GB und ca. RTX 4060 Leistung für relativ wenig Geld wäre eine B580 nahezu eine eierlegende Wollmilchsau (für Full-HD Gaming), was mobile dGPUs angeht.

Intels Lunar Lake dürfte aktuell das wohl mit Abstand rundeste und beste Produkt im eigenen Portfolio und damit abgedeckten Marktbereich sein.

Das dürfte auch nicht ohne Grund - wegen der Xe2 Grafik/iGPU (wobei ich schon gespannt bin, ob da grafikleistungs- und effizienztechnisch noch mehr herausgeholt werden kann mir Xe3/Celestial bei Panther Lake im kommenden Jahr) - so sein.

Hoffentlich hat die gute iGPU Entwicklung auch auf die dGPU Entwicklung bei Intel positiv abgefärbt, ich bin gespannt auf erste B580 Tests.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Glyphus schrieb:
PS: Daten von techpowerup -> A770 19,66 TFOPS bei 4096 ALUS vs 7600 21,75 TFLOPS bei 2048 ALUS
Das leistet RDNA3 allerdings auch nur mit den Dual Issue Befehlen, welche in Spielen noch sehr wenig nützen. Deswegen hat die 6650XT auch nur rund die Hälfte der Rohrleistung.

Real performt RDNA3 da ähnlich wie RDNA2 bei halber nominellen Rohrleistung.

Das ist die größte Baustelle von RDNA3.
Die theoretische doppelte Rohrleistung verpufft.

@Medi02

Die Intel GPUs laufen ohne ReBar support ziemlich bescheiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Die 2560 Shader von der B580 kann ich mit meiner 6700 XT vergleichen. Der Maximaltakt von 2850 Mhz ist auch bei dem AMD-Pendant möglich. Von daher könnte man meinen, dass beide Karten auf dem Papier ähnlich stark wären... aber:

1. Die RT-Funktion ist bei Intel wesentlich stärker
2. Der Speicher taktet mit 2,375 Ghz fast 20% schneller als bei der 6700 XT
3. Architektonische Vorteile (IPC bei der GPU)

Ich denke mir auch, dass die B580 je nach Spiel die 6700 XT in Raster knapp schlagen sollte (~+5-10%), in RT wird man vllt. 20%+ vorne liegen.

Getreu dem Motto, dass es keine schlechte Hardware, sondern nur schlechte Preise gibt, ist Intel hier am Zug mit einem Preis von beispielsweise 249€ auf jeden Fall auf Kundenfang gehen zu können.

Wir in der Forenbubble sehen alles unter einer 800€-Grafiklösung als unzumutbar an, der Otto-Normalbürger aber kauft gerne leistungsstarke GPUs für um 200-300€.
Schaue ich in der SteamDB, welche Games die höchsten Spielerzahlen haben, kann man schnell erkennen, dass es safe einen Markt für solche GPUs gibt.

Intel hat alle Chancen. Erfolg gibt es bei einem guten Preis und stabile Treiber.
 
  • Gefällt mir
Reaktionen: Taikaschi, NMA, Holylemon und eine weitere Person
Quidproquo77 schrieb:
Im Endeffekt eine 4060+ 5-10% mit 12GB V-ram.

Mehr als eine 12-GB-GPU mit ~4060ti-Performance, ~130W TDP und ~300 Euro Marktpreis würde man sich im Entry-Level eh gar nicht mehr wünschen von der nächsten Generation ganz allgemein. Egal ob von Nvidia, Intel oder AMD.

So bescheiden ist man bereits geworden. Ich übrigens auch. Sagt alles. Oder? Ich meine, das wären gerade mal ~40% mehr Leistung als bei der vier Jahre alten RTX 3060.... bei gleichem Preis und gleichem Speicherausbau.
 
7eNd schrieb:
Ich hätte ja Interesse daran, aber lohnt es sich überhaupt, auf eine GPU-Reihe zu setzen, von der man weiß, dass es die letzte Generation sein wird?
Und bei iGPUs bleibt man auf der Stelle stehen?
Intel wird die GPUs weiter versorgen, die Frage ist eher, ob man weiterhin dGPUs anbieten wird. Und hier ist die einzige Antwort eigentlich nur "Ja", wenn man nicht komplett untergehen mag.
 
BernmanHH schrieb:
Bin gespannt, ob der hohe Takt nicht den Verbrauch negativ beeinflusst. Vielleicht wären mehr Einheiten und weniger Takt besser.
Dann wird aber der Chip größer und damit teurer. Mir persönlich ist das auch immer lieber, aber vielleicht wenn ein B770 kommt?
 
  • Gefällt mir
Reaktionen: SweetOhm
Jan schrieb:
Wissen tut man das nicht.
Und man kann nur hoffen, dass Intel das Projekt nicht beerdigt - ein weiterer Player wird dringendst gebraucht und Arc war für "die erste Runde" imho ein durchaus guter Wurf. Wäre wirklich extrem schade für uns alle (ja, selbst für die Nvidia-Fanboys!), wenn Intel jetzt, wo es langsam in die Gänge kommt, alles hinschmeissen würde...
 
  • Gefällt mir
Reaktionen: NMA, slow_snail, cbmik und 3 andere
Flaschensammler schrieb:
1. Die RT-Funktion ist bei Intel wesentlich stärker
Würde ich so gar nicht sagen.
Man ist da vergleichbar mit AMD.
Nur ist man in der Rasterleistung deutlich schwächer, wodurch große Alchemist GPUs mit AMD GPUs mit der Hälfte an Transistoren verglichen werden.
 
  • Gefällt mir
Reaktionen: eXe777
Termy schrieb:
Und man kann nur hoffen, dass Intel das Projekt nicht beerdigt
Vor allem für Intel selbst. Gerade jetzt, wo AMD und Nvidia Intel mit ihren GPU-Beschleunigern vorführen wäre es höchst unklug das eigene Ticket in diesen Markt fallen zu lassen. Bei allen Unkenrufen, die das Ende von ARC herbei beschwören kann sich gerade das Intel im Augenblick am wenigsten leisten.
 
  • Gefällt mir
Reaktionen: Termy und konkretor
Temporä schrieb:
Hälfte der Rohrleistung.

nominellen Rohrleistung.

Die theoretische doppelte Rohrleistung
Es heißt Roh-Leistung - also die Leistung die der Chip vor Treiber, Engine etc theoretisch schafft.

Nix mit Rohr!
 
  • Gefällt mir
Reaktionen: ÖX45, LinuxTux, der Unzensierte und eine weitere Person
Zurück
Oben