News Intel Battlemage: Arc B580 und Arc B570 für 249 und 219 US-Dollar vorgestellt

Redirion schrieb:
ich verstehe die Fertigung nicht. Mit N4P wäre bestimmt viel mehr möglich gewesen. Bei N5 hätte man auch gleich zum eigenen Intel 7 greifen können. Da frage ich mich, ob Intel es zunächst mit Intel 7 versucht hat,
Nein, die GPUs sind schon immer bei TSMC geplant gewesen.
Redirion schrieb:
gescheitert ist, um dann auf N5 auszuweichen.
dass man nicht N4 verwendet ist in der Tat komisch, verutlich ist N5 einfach deutlich günstiger.
Redirion schrieb:
Mit Lunar Lake hatte man doch schon Xe2 auf N3.
Vielleicht erleben wir mit G31 dann ja eine Überraschung.
Vielleicht in N3, aber wie weiter vorne schon erwähnt: da ist das Celestial Design auch schon fertig, da wär mir lieber die bringen dann gleich Celestial.
 
  • Gefällt mir
Reaktionen: Mcr-King, SweetOhm, Rockstar85 und eine weitere Person
@Redirion
Fertigung großer Dies kostet ernstzunehmend Geld, wenn man ein Budgetprodukt plant ist da die teuerste Fertigung eher hinderlich. Solang Intel kein Angebot hat welches dem Platzhirsch die Stirn bieten kann und damit entsprechende Preise aufrufen kann, wird es keine Top Fertigung geben.
 
  • Gefällt mir
Reaktionen: SweetOhm, TomH22 und Redirion
Der folgende Satz sagt leider schon alles was man wissen muss und Navi 44
sollte die 4060 bezüglich der Leistung / Fläche gar noch überbieten können.

"Der BMG-G21 kommt auf eine Größe von 272 mm² und auf 19,6 Milliarden Transistoren. Gefertigt wird dieser bei TSMC im N5-Verfahren. Damit ist die GPU deutlich größer als der konkurrierende AD107 auf der GeForce RTX 4060, der auf nur 159 mm² in 4N-Fertigung kommt, und nur knapp kleiner als der AD104 auf der GeForce RTX 4070, der 295 mm² groß ist."

Das ist wirklich traurig mitanzusehen, denn ein Dritter Player hätte uns sicherlich gut getan.
Aber so wird es dies wohl gewesen sein.
 
  • Gefällt mir
Reaktionen: SweetOhm, eXe777, DF86 und eine weitere Person
Die GPUs haben eine Chance verdient, klar ist man noch nicht auf Augenhöhe, aber das kann mit folgenden Generationen noch kommen.

Ich hoffe Intel bleibt dran.

Vor ein paar Jahren, als ich noch Mittelklasse gekauft habe, wäre das wohl meine GPU geworden.
 
  • Gefällt mir
Reaktionen: Mcr-King und SweetOhm
@eQui

Ja, berechtigte Frage.

Ursprünglich habe ich mir diese Karte zugelegt, um ein wenig mit Stable Diffusion rumzuprobieren.
Nebenbei hat sie genug Dampf trotz nur 70W TDP um CS2 in competetive Settings zu stemmen, außerdem bin ich damals verhältnismäßig günstig an sie gekommen (250€).

Ist eine verdammt tolle Karte und wird dann in ein Linux-basiertes Konsolenbild auf ChimeraOS Basis für Frauchen weiter dienen.

Sie tut Ihren Job ziemlich gut, aber man merkt bei SD schon, dass sie halt nur 70W verheizen darf, daher kann ruhig etwas potenteres her, bis das Thema für mich wieder interessant wird, gerade jetzt wo FLUX und 3.5 massentauglich werden, sieht die leider keine Sonne.
 
@Icke-ffm Ist ja nicht so, dass die Anforderungen in den letzten Jahren gestiegen sind. Eine RTX 2080 ist jetzt halt auch schon wieder 6 Jahre alt. Ja. Wirklich 6(!) Jahre.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-2080-ti-test.65039/seite-3
Und damals hat das immerhin gereicht.

Gilt für die 3080 genauso:
https://www.computerbase.de/artikel...40/seite-2#abschnitt_benchmarks_in_3840__2160

Heute reicht die Leistung einer 3080 halt nicht mehr uneingeschränkt für 4k.

Wer 4k daddeln will und dann auch noch den Anspruch nach möglichst den höchsten Settings hat, der bezahlt halt aller zwei Jahre Geld für das neueste Flaggschiff. Das ist halt der Preis für 4k.

https://www.computerbase.de/artikel...80/seite-3#abschnitt_benchmarks_in_3840__2160
Bei der 6800 war das allerdings schon recht "knapp" ;)

Heute ist das definitiv zu wenig und heute würdest du nicht auf die Idee kommen mit einer etwa gleichschnellen 7700 XT (die btw. weniger VRAM hat, als die 6800) 4k zu daddeln. Nicht, weil zu wenig VRAM, sondern, weil die Leistung einfach wirklich zu knapp ist.

Mit einer 7800 XT, 7900 GRE, 4070 (Super) kann man das bei etwas reduzierten Details je nach Titel schon bringen...
https://www.computerbase.de/artikel...rformancerating_mit_und_ohne_rt_in_3840__2160
 
  • Gefällt mir
Reaktionen: Rockstar85
Eine 4070 (ohne Super), GDDR6X, 12GB davon, PCI-E x16, halt so wie sie rauskam, für 350 Euro,

sie wäre millionefach verkauft, der Bestseller, vergriffen wegen hoher Nachfrage, konkurrenzlos, die meist verkaufte Grafikkarte aller Zeiten, usw usw. aber leider verhindern das 200+ Euro.

Gibt jetzt übrigens mehrere Versionen der 4070,

die Ur-Version, 104er Chip, GDDR6X , dann eine 104er Chip GDDR6, dann eine 103er Chip GDDR6X,
 
  • Gefällt mir
Reaktionen: Mcr-King, SweetOhm und blende11
Liest sich doch recht vernünftig. Wenn die Treiber keinen Ärger machen und die Performance sich bestätigen sollte sind das ganz nette Karten und eine erfreuliche und anscheinend lohnenswerte Abwechslung/Alternative in dem Segment. Würde ich ganz sicher unterstützen wenn ich in der Klasse was bräuchte und die Tests positiv ausfallen.
 
  • Gefällt mir
Reaktionen: Mcr-King, SweetOhm, Nekkepenn und 2 andere
@Mrbrill Und der Sargnagel für AMD... Wobei 350 Euro halt schon hart übertrieben wären. 400 Euro. Eben als 4060 Ti und die 4070 Super direkt als normale 4070 um die 550 Euro. Angelehnt an die Preise für 3060 Ti und 3070 zum Release.
 
Es gibt sehr viele Gamer, die aktuell von einer GTX 1050 Ti / 1060, 1650 /1660 oder RX 570/580 umsteigen.

Für sie ist das jetzt genau die richtige Karte.
 
  • Gefällt mir
Reaktionen: polyphase, Mcr-King, SweetOhm und 6 andere
Hallo zusammen,

So So, die 580er Version soll also schneller sein als ne RTX 4060. Schön, nur zieht die 580er Version dann gleich beinahe das doppelte an Strom.

Wenn, dann kriegt Intel die Dinger nur über den Preis los. Und ich ahne schon daß es für Custom Hersteller nicht so lohnend sein wird weil der Kühlaufwand deutlich höher sein wird. Vor allem beim großen Modell.

Und ich erinnere an die Phantasie-Prognostizierungen von Intel bei ihren CPU´s. Mir schwant böses in dem Kontext.

@LETNI77
LETNI77 schrieb:
Es gibt sehr viele Gamer, die aktuell von einer GTX 1050 Ti / 1060, 1650 /1660 oder RX 570/580 umsteigen.

Für sie ist das jetzt genau die richtige Karte.
Also ich würde theoretisch zum Kreis gehören. Nur ist das keinesfalls die richtige Karte. Noch zudem steht zu befürchten, daß hier Phanatsiewerte prognostiziert wurden, wie es von Intel die letzten Jahre nun einmal immer der Fall war bei Vorab-Prognostizierungen.

Und der Verbrauch bei der großen 580er ist sogar jetzt schon völlig indiskutabel, erst Recht wo die RTX 4060 als Vergleich genannt wurde. Absurd in meinen Augen.

So long...
 
cookie_dent schrieb:
Was ist ein "Ambitionierter Spieler"?
Jemand der nur High End Kram in seine Kiste haut und meint damit zu einem guten Spieler zu werden?
Viele User hier im Forum denken, dass alle Highend kaufen. 😃
 
  • Gefällt mir
Reaktionen: tomgit, an.ONE, konkretor und eine weitere Person
Sieht auf den ersten Blick gut aus. Nachteil ist: Ich habe mit einer 6700 (non XT) schon eine Karte in dem Leistungsbereich. Im RT wird die Intel sicher besser sein - wenn das auf dem Level eine Rolle spielen sollte. Weiterer Nachteil ist: sie hat nur PCIe 4.0 x8 gegenüber der 6700 mit x16. Auf einem PCIe 3 Board ist das schon leicht schlechter.
Wer aufrüsten will sollte schon genau hinsehen. Da warte ich noch auf eine Intel die min. 60% schneller ist als meine.
Ach ja: Wie wird die Leistungsaufnahme im idle/ bei niedrigen Lasten sein? Hoffentlich hat sich Intel hier deutlich verbessert.
Auf jeden Fall bin ich auf die Reviews gespannt.
 
  • Gefällt mir
Reaktionen: SweetOhm und Micha_80
Luxmanl525 schrieb:
Hallo zusammen,

So So, die 580er Version soll also schneller sein als ne RTX 4060. Schön, nur zieht die 580er Version dann gleich beinahe das doppelte an Strom.

Wenn, dann kriegt Intel die Dinger nur über den Preis los. Und ich ahne schon daß es für Custom Hersteller nicht so lohnend sein wird weil der Kühlaufwand deutlich höher sein wird. Vor allem beim großen Modell.

Und ich erinnere an die Phantasie-Prognostizierungen von Intel bei ihren CPU´s. Mir schwant böses in dem Kontext.

@LETNI77

Also ich würde theoretisch zum Kreis gehören. Nur ist das keinesfalls die richtige Karte. Noch zudem steht zu befürchten, daß hier Phanatsiewerte prognostiziert wurden, wie es von Intel die letzten Jahre nun einmal immer der Fall war bei Vorab-Prognostizierungen.

Und der Verbrauch bei der großen 580er ist sogar jetzt schon völlig indiskutabel, erst Recht wo die RTX 4060 als Vergleich genannt wurde. Absurd in meinen Augen.

So long...
Verbrauch interessiert mich nicht.
Ich werde mein Zweitrechner mit B580 aufrüsten.
Wollte zuerst RX 7600 kaufen.

NVIDIA kommt mir nicht mehr ins Haus. 😉

So long…
 
  • Gefällt mir
Reaktionen: blodern, konkretor, Icke-ffm und 2 andere
Piktogramm schrieb:
Fertigung großer Dies kostet ernstzunehmend Geld, wenn man ein Budgetprodukt plant ist da die teuerste Fertigung eher hinderlich.
Da bin ich absolut Deiner Meinung. Ich vermute, 3 und 4NM sind auch weitgehend ausgebucht. Die Prioritäten erkennt man bei Intel auch: Die CPUs sind in der besten Node gefertigt, die GPUs in der alten.

Takt scheint ja nicht das Problem zu sein, ich vermute, Intel wird - analog AMD - wieder bei der Effizienz massiv hinter dem grünen Team landen. Vielleicht ist das in der Klasse aber auch ein Stück weit egal. Mich würde es als Budget-Käufer nicht interessieren, ob da bei sonst gleicher Leistung eher 130 oder 170W durchgehen.

Andere Nachteile hat der 5NM soweit ich das sehe nicht.
 
  • Gefällt mir
Reaktionen: Rockstar85 und TomH22
Luxmanl525 schrieb:
So So, die 580er Version soll also schneller sein als ne RTX 4060. Schön, nur zieht die 580er Version dann gleich beinahe das doppelte an Strom.
Richtig Strom einsparen kann man ganz sicher erstmal bei ganz anderen Geräten im eigenen Haushalt.
Die Grafikkarte steht da erst ganz am Ende der Einsparmöglichkeiten.
 
  • Gefällt mir
Reaktionen: konkretor, Icke-ffm, SweetOhm und 3 andere
@blende11 Ist halt trotzdem die Frage, ob ich im Schnitt 10% mehr Leistung mit 70% mehr Leistungsaufnahme bezahlen möchte. UVP von 249 USD könnte auch schnell in Richtung 280 EUR UVP bei uns gehen und dann liegen 7600 (260 EUR günstigstes Angebot) und 4060 (300 EUR günstiges Angebot) jetzt auch nicht so komplett ab vom Schuss...

Defacto ist das kein Geschenk an den Gamer... Wie auch schon bei Alchemist. Intel ist spät dran. Bei der Konkurrenz steht die nächste Generation vor der Tür und die Straßenpreise sind halt schon im Bereich der Intel UVP.

Ähnliche Leistung für ähnliche Preise. Intel verteilt keine Geschenke. Können sie halt auch nicht.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Luxmanl525
d3nso schrieb:
Warum vergleicht man sein neues "Topmodell" mit der Mittelklasse der letzten Generation? Ist die B580 etwa nicht wirklich schneller as die A770?
Ganz einfach, die B580 ist der Nachfolger in gleicher Leistungs-/Chipklasse und keine Grafikkarte mit einem Speicherausbau bis zu 16 GB wie die A770.

Man vergleicht wohl auch keine RTX 5060 mit einer RTX 4090, oder?


Bei den Modellen gefallen mir optisch vermutlich neben dem Referenzmodell wohl die Sparkle Modelle am besten, aber das muss ja nicht heißen, dass diese kühl- und übertaktungstechnisch auch am besten sind.

Gespannt bin ich schon auf den OC-Raum, den Intel da lässt (für Bastler und Hobby-OCler evt. interessant) und die neue Suite ist sicherlich auch sehr löblich (lässt hoffen, dass man seitens Intel längerfristig an dGPU Entwicklung festhalten wird, zumindest bis zu einer Druid Generation, selbst wenn es nur noch ein Einsteigerklasse-/untere Mittelklasse-Chip wird).

Die kleine Intel Arc Battlemage Karte (B570) könnte (unter 200 Euro, ggf. "undervolted" für HTPCs etwa) wegen der TBP fast noch interessanter werden, nur schade, dass diese 2 GB weniger verbaut bekommen wird, auch wenn das noch für nicht-speicherlimitiertes Full HD Gaming gerade so reichen dürfte.
Ergänzung ()

SFFox schrieb:
es steht und fällt mit den Treibern und der allgemeinen Kompatibiltät. Lüftersteuerung unter Linux wäre wünschenswert.
Eventuell steht und fällt es auch mit dem "Mindshare" bzw. der Bereitschaft Intel Gradfikkarten eine Chance zu geben und diese (nicht nur bei Budgetzwang) als valide Kaufoption weltoffen anzusehen anstatt markenanhängig sich selber bzgl. Grafikkartenentwicklern zu limitieren.

Zum Glück für Intel wird über Erfolg oder Misserfolg der Arc Battlemage Karten nicht vordergründig von CB-Enthusiasten (die das nicht betrifft, da nicht Zielgruppe) und in Deutschland entschieden sondern eher in China und den USA.

Wie von mir schon zuvor erwähnt, sehr schade, dass keine mobilen Ableger von den Battlemage dGPUs in Notebooks kommen werden (vielleicht ja dann in Zukunft bei möglichen Arc Celestial dGPUs, etwa Anfang bis Mitte 2026?).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und DerRico
Hallo zusammen,

@kachiri
kachiri schrieb:
und dann liegen 7600 (260 EUR günstigstes Angebot) und 4060 (300 EUR günstiges Angebot) jetzt auch nicht so komplett ab vom Schuss...
Das ist ja noch gar nicht alles. Es bedeutet ja auch u. U. vermehrte Hitzeentwicklung der 580er bei dem Verbrauch den die hat. Je nachdem erfordert die Kühlung deutlich aufwendigere Kühlkonstrukte. Was sich auch im Preis niederschlagen wird. Da besteht kein Zweifel.

Wenn du dann den doppelten Verbrauch, in Relation dann die heutigen Strompreise nimmst, amortisiert sich so eine RTX 4060 im Verhältnis schnell in Bezug auf den leicht erhöhten Kaufpreis. Und da bin ich mir nicht einmal sicher, weil die Hersteller erhöhten Aufwand bei der Custom Lösung von Intel betreiben müssen.

So denn es überhaupt Custom Lösungen der 570er / 580er geben wird.

Persönlich bin ich fast sicher, daß die 580er am Ende bei über 200 Watt Landen wird. Da könnte ich echt die Hand für ins Feuer legen. Aber lassen wir uns Überraschen.
kachiri schrieb:
Defacto ist das kein Geschenk an den Gamer... Wie auch schon bei Alchemist. Intel ist spät dran. Bei der Konkurrenz steht die nächste Generation vor der Tür und die Straßenpreise sind halt schon im Bereich der Intel UVP.
Genauso ist es. Und was noch gar nicht zur Sprache in der Diskussion hier gekommen ist, ist die schlechte bzw. Treibersituation bei den Intel Teilen in Punkto GPU`s. Das war immer schon der Haken an der ganzen Sache bei denen.

Und da ist man nun einmal besonders auf lange Sicht bei AMD und Nvidia deutlich besser aufgehoben. Wer weiß, wie lange Intel das mit den GPU`s überhaupt durchzieht.

Ich meine, ist ja nicht so, daß die sonst keine Probleme hätten. Ratzfatz rasieren die Geschäftsfelder weg wo auf längere Sicht kein wirklicher Ertrag generiert werden kann.

So long....
 
Chismon schrieb:
als valide Kaufoption weltoffen anzusehen anstatt markenanhängig sich selber bzgl. Grafikkartenentwicklern zu limitieren.
Dann muss aber halt auch das Gesamtpaket stimmen - und wenn man allein schon die Spezifikationen liest... Spricht nicht viel für Intel. In der Detailbetrachtung nicht einmal der Preis.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Zurück
Oben